·azure-ai-voicelive-py
</>

azure-ai-voicelive-py

أنشئ تطبيقات الذكاء الاصطناعي الصوتية في الوقت الفعلي باستخدام Azure AI Voice Live SDK (azure-ai-voicelive). استخدم هذه المهارة عند إنشاء تطبيقات Python التي تحتاج إلى اتصال صوتي ثنائي الاتجاه في الوقت الفعلي مع Azure AI، بما في ذلك المساعدين الصوتيين، أو روبوتات الدردشة التي تدعم الصوت، أو ترجمة الكلام إلى كلام في الوقت الفعلي، أو الصور الرمزية التي تعتمد على الصوت، أو أي تدفق صوتي قائم على WebSocket مع نماذج الذكاء الاصطناعي. يدعم الخادم VAD (اكتشاف النشاط الصوتي)، والمحادثة القائمة على الأدوار، واستدعاء الوظائف، وأدوات MCP، وتكامل الصورة الرمزية، والنسخ.

0التثبيتات·0الرائج·@microsoft

التثبيت

$npx skills add https://github.com/microsoft/agent-skills --skill azure-ai-voicelive-py

كيفية تثبيت azure-ai-voicelive-py

ثبّت مهارة الذكاء الاصطناعي azure-ai-voicelive-py بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/microsoft/agent-skills --skill azure-ai-voicelive-py
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: microsoft/agent-skills.

Build real-time voice AI applications with bidirectional WebSocket communication.

| conn.session | Session configuration | update(session=...) | | conn.response | Model responses | create(), cancel() | | conn.inputaudiobuffer | Audio input | append(), commit(), clear() | | conn.outputaudiobuffer | Audio output | clear() | | conn.conversation | Conversation state | item.create(), item.delete(), item.truncate() |

| conn.transcriptionsession | Transcription config | update(session=...) |

أنشئ تطبيقات الذكاء الاصطناعي الصوتية في الوقت الفعلي باستخدام Azure AI Voice Live SDK (azure-ai-voicelive). استخدم هذه المهارة عند إنشاء تطبيقات Python التي تحتاج إلى اتصال صوتي ثنائي الاتجاه في الوقت الفعلي مع Azure AI، بما في ذلك المساعدين الصوتيين، أو روبوتات الدردشة التي تدعم الصوت، أو ترجمة الكلام إلى كلام في الوقت الفعلي، أو الصور الرمزية التي تعتمد على الصوت، أو أي تدفق صوتي قائم على WebSocket مع نماذج الذكاء الاصطناعي. يدعم الخادم VAD (اكتشاف النشاط الصوتي)، والمحادثة القائمة على الأدوار، واستدعاء الوظائف، وأدوات MCP، وتكامل الصورة الرمزية، والنسخ. المصدر: microsoft/agent-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/microsoft/agent-skills --skill azure-ai-voicelive-py
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-10

Browse more skills from microsoft/agent-skills

إجابات سريعة

ما هي azure-ai-voicelive-py؟

أنشئ تطبيقات الذكاء الاصطناعي الصوتية في الوقت الفعلي باستخدام Azure AI Voice Live SDK (azure-ai-voicelive). استخدم هذه المهارة عند إنشاء تطبيقات Python التي تحتاج إلى اتصال صوتي ثنائي الاتجاه في الوقت الفعلي مع Azure AI، بما في ذلك المساعدين الصوتيين، أو روبوتات الدردشة التي تدعم الصوت، أو ترجمة الكلام إلى كلام في الوقت الفعلي، أو الصور الرمزية التي تعتمد على الصوت، أو أي تدفق صوتي قائم على WebSocket مع نماذج الذكاء الاصطناعي. يدعم الخادم VAD (اكتشاف النشاط الصوتي)، والمحادثة القائمة على الأدوار، واستدعاء الوظائف، وأدوات MCP، وتكامل الصورة الرمزية، والنسخ. المصدر: microsoft/agent-skills.

كيف أثبّت azure-ai-voicelive-py؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/microsoft/agent-skills --skill azure-ai-voicelive-py بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/microsoft/agent-skills