„Azure OpenAI: Chat AI“-Aktion

Die „Azure OpenAI: Chat AI“-Aktion verwendet ChatGPT- und GPT-4-Modelle von Microsoft, um Text in einem Chat-ähnlichen Format zu generieren.

Vorbereitungen

  • Sie benötigen die Bot Creator-Rolle zur Verwendung der „Azure OpenAI: Chat AI“-Aktion in einem Bot.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldeinformationen zum Senden einer Anfrage verfügen und Aktion „Authentifizieren“ eingeschlossen haben, bevor Sie eine Microsoft Azure OpenAI-Aktion aufrufen.

Dieses Beispiel zeigt das Senden einer Nachricht in natürlicher Sprache mit der„Azure OpenAI: Chat AI“-Aktion und eine zurückgegebene angemessene Antwort.

Prozedur

  1. Navigieren Sie im Automation Anywhere Control Room zum Bereich Aktionen, wählen Sie Generative KI > Microsoft Azure OpenAI und ziehen Sie Azure OpenAI: Chat AI auf den Bildschirm.
  2. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    Azure Chat KI

    1. Wählen Sie für Authentifizierung die Option Aktuelle Version, um die Aktion „Authentifizieren“ mit dem API-Schlüssel zu verwenden.
      Wenn Sie Bald veraltet wählen, können Sie sich mit dem API-Schlüssel authentifizieren, ohne die Aktion „Authentifizieren“ aufzurufen.
      Anmerkung: Die Option Bald veraltet wird in der kommenden Version veraltet sein.
    2. Geben Sie Standard als Sitzungsnamen ein, um die aktuelle Sitzung zu begrenzen.
    3. Geben Sie die Bereitstellungs-ID ein. Die Bereitstellungs-ID ist mit dem großen Sprachmodell (LLM) verknüpft, das Sie für Ihre Eingabeaufforderung verwenden möchten.
    4. Geben Sie eine Chat-Nachricht ein, die das Modell verwenden soll, um eine Antwort zu erzeugen.
      Anmerkung: Die Chat-Aktionen behalten das Ergebnis der vorherigen Chat-Aktion innerhalb derselben Sitzung bei. Wenn Sie Chat-Aktionen nacheinander aufrufen, kann das Modell die nachfolgenden Nachrichten verstehen und sie mit der vorherigen Nachricht in Beziehung setzen. Der gesamte Chatverlauf wird jedoch nach Beendigung der Sitzung gelöscht.
    5. Geben Sie die maximale Anzahl der zu generierenden Tokens (Max. Anzahl Tokens) ein. Wenn Sie keinen Wert eingeben, wird die maximale Anzahl der generierten Token automatisch so festgelegt, dass sie innerhalb der maximalen Kontextlänge des ausgewählten Modells liegt, indem die Länge der generierten Antwort berücksichtigt wird.
    6. Geben Sie eine Temperatur ein. Dieser Wert bezieht sich auf die Beliebigkeit der Antwort. Wenn die Temperatur sich dem Nullpunkt nähert, wird die Antwort gezielter und deterministischer. Je höher der Wert, desto zufälliger ist die Antwort.
    7. Um die optionalen Parameter zu verwalten, klicken Sie auf Weitere Optionen anzeigen und wählen Sie Ja. Wenn Sie Ja wählen, können Sie weitere Parameter hinzufügen, wie z. B.: Stoppen, Präsenzstrafe, Häufigkeitsstrafe, Logit-Verzerrung, Nutzer und Antwortformat. Informationen zu diesen optionalen Parametern finden Sie unter Azure Open KI Chat-Vervollständigungen.
    8. Speichern Sie die Antwort in einer Variablen. In diesem Beispiel wird die Antwort in str_chatai-response gespeichert.
  3. Klicken Sie auf Ausführen, um den Bot zu starten. Sie können den Wert des Feldes ablesen, indem Sie die Antwort einfach in einer Nachrichtenfeld-Aktion ausgeben. In diesem Beispiel gibt str_chatai-response die Antwort aus.
    Tipp: Um mehrere Chats im selben Bot zu verwalten, müssen Sie mehrere Sitzungen mit unterschiedlichen Namen oder Variablen erstellen.