Interaktive Sprachsteuerung für Ihre Agenten verwenden

Copilot Studio unterstützt funktionen für interaktive Sprachantworten (Interactive Voice Response, IVR) über zwei Arten von sprachfähigen Agents: grundlegende Sprach-Agents und Echtzeit-Sprach-Agents.

Einfache Sprach-Agents verwenden klassische Orchestrierung. Diese Agents verwenden Modelle für natürliches Sprachverständnis für die Absichtserkennung, Entitätsextraktion und Sprachoptimierung für genaue und kontrollierte Unterhaltungserfahrungen.

Echtzeit-Sprach-Agents werden in generativen Orchestrierungsszenarien verwendet. Um eine geringe Latenz und einen natürlichen Gesprächsfluss zu erzielen, verwenden diese Agenten ein Echtzeit-STS-Modell (Speech-to-Speech).

Sprachagenten unterstützen die Sprach- und DTMF-Eingabe (Dual-Tone Multi-Frequency), Kontextvariablen, Anrufweiterleitung und die Anpassung von Sprache und DTMF.

Bevor Sie Agenten für Sprachszenarien erstellen oder bearbeiten können, benötigen Sie eine nutzbare Telefonnummer. Mit Azure Communication Services können Sie eine neue Telefonnummer erhalten oder eine vorhandene Telefonnummer verwenden. Weitere Informationen finden Sie unter Integrieren eines sprachfähigen Agents in Dynamics 365 Contact Center.

Schlüsselkonzepte für Voice-Dokumenterstellung

Sprachgesteuerte Agenten werden in verschiedenen Anwendungen eingesetzt, z. B. in Callcentern, mobilen Apps und Messaging-Plattformen. Sprachfähige Agents können Benutzereingaben über Sprache und DTMF sammeln.