Skip to main content

Prompt Guide für spezifische Situationen

Hier finden Sie spezifische Prompt-Guides und Beispiele für häufige Situationen, die Sie beim Aufbau eines Sprachassistenten mit Famulor antreffen könnten.

Telefonnummern aussprechen

Verwende die Langsam sprechen Funktion

Wir nutzen die “Langsam sprechen” Funktion, um Pausen zwischen Wörtern hinzuzufügen. Für weitere Informationen siehe die Dokumentation zur Sprachsteuerbarkeit. Es wird empfohlen, einen Prompt als Richtlinie für den LLM zu verwenden. Dies stellt sicher, dass der Assistent konsistent mit dem korrekten Format antwortet, auch wenn Kunden die Telefonnummer überprüfen.

Beispiel für Telefonnummer-Aussprache

E-Mail-Adressen buchstabieren

E-Mail-Adressen korrekt aussprechen

E-Mail-Adressen müssen buchstabiert werden, um Verwirrung zu vermeiden. Hier ist der korrekte Ansatz:

Beispiel für E-Mail-Buchstabierung

Websites aussprechen

Website-URLs korrekt aussprechen

Website-URLs müssen klar und verständlich ausgesprochen werden. Hier ist der richtige Ansatz:

Beispiel für Website-Aussprache

Uhrzeiten aussprechen

Uhrzeiten korrekt aussprechen

Uhrzeiten müssen in einem verständlichen Format ausgesprochen werden. Hier sind die Richtlinien:

Beispiel für Uhrzeit-Aussprache

Warten lassen / Keine Antwort erforderlich

Kunden warten lassen

Manchmal müssen Sie Kunden warten lassen oder es ist keine Antwort erforderlich. Famulor hat eine spezielle Funktion dafür:

Für nicht-reasoning Modelle

Für Reasoning Modelle

Reasoning-Modelle wie gpt-5 oder gpt-5.1 unterstützen diese Funktion nicht. Sie müssen die Prompts anders gestalten, um dies zu erreichen.

Text für Sprache normalisieren

Text für Sprache normalisieren

Normalisieren Sie bestimmte Teile des Textes (Zahlen, Währung, Datum, etc.) in ihre gesprochene Form für eine konsistentere Sprachsynthese. Manchmal können TTS-Modelle nicht normalisierten Text falsch lesen.

Beispiel für Text-Normalisierung

Diese Funktion fügt dem gesamten Prozess eine kleine Latenz (~100ms) hinzu.

Sprachunterstützung

Unterstützte Sprachen

Derzeit wird Sprachnormalisierung für folgende Sprachen unterstützt:
  • Deutsch - Vollständige Unterstützung
  • Englisch - Vollständige Unterstützung
  • Spanisch - Vollständige Unterstützung
  • Französisch - Vollständige Unterstützung
Andere Sprachen führen zu einem No-Op (Text wird nicht modifiziert) für diesen Schritt.

Spracheinstellungen

Wenn Sie eine Sprache auswählen, die nicht mehrsprachig ist, wird dieser Sprachcode verwendet, um den Text zu normalisieren (z.B. wird 1 zu “eins” normalisiert, wenn Sie Deutsch verwenden). Wenn Sie mehrsprachig auswählen, wird die Sprache automatisch basierend auf dem generierten Text erkannt und entsprechend normalisiert.

Prompt Engineering Guide

Best Practices für effektive Prompts

Best Practices für das Schreiben effektiver Prompts, die zuverlässige und natürlich klingende KI-Telefonassistenten erstellen.

Einführung

Prompt Engineering ist die Grundlage für die Erstellung effektiver KI-Telefonassistenten. Ein gut gestalteter Prompt bestimmt, wie Ihr Assistent Situationen interpretiert, auf Benutzer reagiert und Edge Cases behandelt. Dieser Guide bietet bewährte Strategien für das Schreiben von Prompts, die Assistenten zuverlässig befolgen können.
Dieser Guide konzentriert sich auf allgemeine Prompt-Engineering-Prinzipien. Für agentenspezifische Implementierung:
  • Single/Multi Prompt Agents: Wenden Sie diese Prinzipien direkt in Ihren Prompts an
  • Conversation Flow Agents: Verwenden Sie diese Prinzipien innerhalb einzelner Knoten-Anweisungen

Best Practice 1: Verwenden Sie strukturierte Prompts

Teilen Sie große Prompts in fokussierte Abschnitte auf, um die Organisation und das LLM-Verständnis zu verbessern. Dieser strukturierte Ansatz bietet mehrere Vorteile:
  • Wiederverwendbarkeit: Abschnitte können über verschiedene Agenten hinweg angepasst werden
  • Wartbarkeit: Einfaches Aktualisieren spezifischer Verhaltensweisen ohne Beeinflussung anderer
  • Klarheit: LLMs verarbeiten strukturierte Informationen genauer

Empfohlene Prompt-Struktur

## Identität

Du bist ein freundlicher KI-Assistent für [Firmenname].

Deine Rolle ist [spezifischer Zweck].

Du hast Expertise in [relevanten Bereichen].

## Stil-Richtlinien

Sei prägnant: Halte Antworten unter 2 Sätzen, es sei denn, du erklärst komplexe Themen.

Sei gesprächig: Verwende natürliche Sprache, Kontraktionen und erkenne an, was der Anrufer sagt.

Sei empathisch: Zeige Verständnis für die Situation des Anrufers.

## Antwort-Richtlinien

Gib Daten in gesprochener Form zurück: Sage "fünfzehnten Januar" nicht "15.01".

Stelle eine Frage auf einmal: Vermeide es, den Anrufer mit mehreren Fragen zu überfordern.

Bestätige das Verständnis: Paraphrasiere wichtige Informationen zurück zum Anrufer.

## Aufgaben-Anweisungen

[Spezifische Schritte, die der Assistent befolgen soll]

## Einwandbehandlung

Wenn der Anrufer sagt, dass er nicht interessiert ist: "Ich verstehe. Gibt es etwas Spezifisches..."

Wenn der Anrufer frustriert ist: "Ich verstehe Ihre Frustration, lassen Sie mich helfen, dies zu lösen..."

Best Practice 2: Verwenden Sie Conversation Flow für komplexe Aufgaben

Wenn Ihr Assistent komplexe Logik oder mehrere Tools handhaben muss, sollten Sie Conversation Flow Agents verwenden, anstatt alles in einem einzelnen Prompt zu verwalten.

Wann zu Conversation Flow wechseln:

  • Mehrere Entscheidungszweige: Mehr als 3-4 bedingte Pfade
  • Tool-Koordination: Verwendung von 5+ verschiedenen Funktionen/Tools
  • Zustandsverwaltung: Verfolgung mehrerer Variablen während des Gesprächs
  • Zuverlässigkeitsbedenken: Einzelner Prompt zeigt inkonsistentes Verhalten

Vorteile von Conversation Flow:

  • Jeder Knoten konzentriert sich auf eine spezifische Aufgabe
  • Deterministischer Tool-Aufruf und Übergänge
  • Einfacher zu debuggen und einzelne Schritte zu optimieren
  • Vorhersehbareres Assistentenverhalten

Best Practice 3: Explizite Tool-Aufruf-Anweisungen

Dieser Abschnitt gilt nur für Single/Multi Prompt Agents. Conversation Flow Agents handhaben Funktionsaufrufe deterministisch über ihre Knotenkonfiguration.

Die Herausforderung

LLMs haben oft Schwierigkeiten zu bestimmen, wann Tools basierend nur auf Tool-Beschreibungen aufgerufen werden sollen. Ohne explizite Anweisungen können Agenten:
  • Tools zu unpassenden Zeiten aufrufen
  • Tools nicht aufrufen, wenn sie benötigt werden
  • Das falsche Tool für eine Situation verwenden

Lösung: Definieren Sie klare Trigger

Geben Sie immer genaue Bedingungen für die Tool-Verwendung in Ihren Prompts an. Verweisen Sie auf Tools mit ihren genauen Namen.
Beispiel: Kundenservice-Agent
## Tool-Verwendungsanweisungen

1. Sammle zunächst Informationen über das Problem des Kunden.

2. Bestimme den Typ der Anfrage:

   - Wenn der Kunde "Rückerstattung" oder "Geld zurück" erwähnt:

     → Rufe die Funktion `transfer_to_support` sofort auf

   - Wenn der Kunde den Bestellstatus benötigt:

     → Rufe die Funktion `check_order_status` mit order_id auf

   - Wenn der Kunde seine Bestellung ändern möchte:

     → Rufe zuerst `check_order_status` auf

     → Dann wechsle zum Änderungs-Status

3. Nach dem Abrufen von Informationen:

   - Fasse immer zusammen, was du gefunden hast

   - Frage, ob sie zusätzliche Hilfe benötigen

   - Wenn ja, bestimme die nächste angemessene Aktion

Best Practices für Tool-Anweisungen

  1. Verwenden Sie Trigger-Wörter: Listen Sie spezifische Wörter/Phrasen auf, die Tool-Aufrufe auslösen sollten
  2. Definieren Sie Sequenzen: Geben Sie an, wann Tools in Reihenfolge aufgerufen werden sollen
  3. Setzen Sie Grenzen: Klären Sie, wann bestimmte Tools NICHT aufgerufen werden sollen
  4. Bieten Sie Kontext: Erklären Sie, warum jedes Tool aufgerufen wird

Praktische Beispiele für Famulor

Famulor-spezifische Anpassungen

Hier sind einige spezifische Anpassungen für Famulor:

Beispiel für einen vollständigen Prompt

Testen und Optimieren

Testen Sie Ihre Prompts

  • Audio-Tests durchführen - Hören Sie sich die Aussprache an
  • Verschiedene Szenarien testen - Testen Sie alle spezifischen Situationen
  • Kundenfeedback sammeln - Fragen Sie nach der Verständlichkeit
  • Iterativ verbessern - Passen Sie basierend auf den Ergebnissen an

Hilfe und Support

Unser Support-Team kann Ihnen bei der Anpassung Ihrer Prompts für spezifische Situationen helfen.

Support kontaktieren

Benötigen Sie Hilfe bei der Anpassung Ihrer Prompts? Kontaktieren Sie unser Support-Team.

Nächste Schritte

Weiterführende Ressourcen