OpenAI: Chat AI“-action

Die OpenAI: Chat KI“ ahmt ChatGPT (eine Untergruppe der generativen KI) nach, indem sie eine Nachricht als Eingabe annimmt und eine Antwort als Ausgabe zurückgibt.

Vorbereitungen

  • Sie benötigen die Bot Creator-Rolle, um die OpenAI action Chat KI in einem Bot zu verwenden.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldedaten zum Senden einer Anfrage verfügen und OpenAI: Aktion „Authentifizieren“ eingeschlossen haben, bevor Sie eine OpenAI-Aktion aufrufen.

In diesem Abschnitt wird beschrieben, wie Sie mit der OpenAI action Chat KI eine Nachricht in natürlicher Sprache senden und eine entsprechende Antwort erhalten können.

Prozedur

  1. Navigieren Sie im Automation Anywhere Control Room zum Bereich Aktionen, wählen Sie Generative KI > OpenAI, ziehen Sie OpenAI: Chat AI und platzieren Sie es auf dem Bildschirm.
  2. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    OpenAI Chat-KI

    1. Wählen Sie für Authentifizierung die Option Aktuelle Version, um die OpenAI: Aktion „Authentifizieren“ mit dem API-Schlüssel zu verwenden.
      Wenn Sie Bald veraltet wählen, können Sie sich mit dem API-Schlüssel authentifizieren, ohne die Aktion „Authentifizieren“ aufzurufen.
      Anmerkung: Die Option Bald veraltet wird in der kommenden Version veraltet sein.
    2. Geben Sie Standard als Sitzungsnamen ein, um die aktuelle Sitzung zu begrenzen.
    3. Wählen Sie ein großes Sprachmodell (LLM), das Sie für Ihren Chat verwenden möchten, aus der Dropdown-Liste Modell aus. Sie können die folgenden Modelle auswählen:
      • gpt-3.5-turbo (Standard)
      • gpt-3.5-turbo-16k
      • gpt-4
      • gpt-4-32k
      • GPT-4o
      • GPT-4o-mini
      • GPT-4.1
      • GPT-4.1-mini
      • GPT-4.1-nano
      • o1
      • o1-mini
      • o3-mini
      • Eine Andere unterstützte Version, um ein unterstütztes Modell einzugeben. Zusätzlich zu den oben aufgeführten Modellen können Sie eine Vielzahl anderer unterstützter textbasierter Vorschaumodelle von OpenAI other supported versions erkunden (mit Ausnahme von Bildgebungsmodellen).
    4. Geben Sie eine Chat-Nachricht ein, die das Modell verwenden soll, um eine Antwort zu erzeugen.
      Anmerkung: Die Chat-Aktionen behalten das Ergebnis der vorherigen Chat-Aktion innerhalb derselben Sitzung bei. Wenn Sie Chat-Aktionen nacheinander aufrufen, kann das Modell die nachfolgenden Nachrichten verstehen und sie mit der vorherigen Nachricht in Beziehung setzen. Der gesamte Chatverlauf wird jedoch nach Beendigung der Sitzung gelöscht.
    5. Geben Sie die maximale Anzahl der zu generierenden Token ein. Wenn Sie keinen Wert eingeben, wird die maximale Anzahl der generierten Token automatisch so festgelegt, dass sie innerhalb der maximalen Kontextlänge des ausgewählten Modells liegt, indem die Länge der generierten Antwort berücksichtigt wird.
    6. Geben Sie eine Temperatur ein. Dieser Wert bezieht sich auf die Beliebigkeit der Antwort. Wenn die Temperatur sich dem Nullpunkt nähert, wird die Antwort gezielter und deterministischer. Je höher der Wert, desto zufälliger ist die Antwort.
    7. Um die optionalen Parameter zu verwalten, wählen Sie Ja unter Weitere Optionen anzeigen, um weitere Parameter hinzuzufügen, z. B: Top P, Stopp, Präsenzstrafe, Häufigkeitsstrafe, Nutzer, Logit-Verzerrung und Antwortformat. Informationen zu diesen optionalen Parametern finden Sie unter OpenAI create chat.
      Anmerkung:

      Kompatibilität für die Modelle o1, o1-mini und o3-mini

      Die Modelle o1, o1-mini und o3-mini haben spezifische Einschränkungen. Beim Verwenden dieser Modelle beachten Sie Folgendes:

      • Unterstützung für Anhänge: Diese Modelle unterstützen keine Anhänge.

      • Parameterkompatibilität: Die folgenden Parameter werden ignoriert:

        • Top P

        • Stoppen

        • Max tokens

        • Presence Penalty

        • Frequency Penalty

        • Nutzer

        • Logit bias

      • Temperature-Parameter: Der Parameter temperature ist für diese Modelle standardmäßig immer auf 1 gesetzt und überschreibt jeden anderen von Ihnen angegebenen Wert.

      Planen Sie Ihre Automatisierungen entsprechend, um die Kompatibilität mit diesen modellspezifischen Einschränkungen sicherzustellen.

    8. Speichern Sie die Antwort in einer Variablen. In diesem Beispiel wird die Antwort in STR_OpenAIChatResponse gespeichert.
  3. Klicken Sie auf Ausführen, um den bot zu starten. Sie können den Wert des Feldes ablesen, indem Sie die Antwort einfach in einer Nachrichtenfeld-action ausgeben. In diesem Beispiel gibt STR_OpenAIChatResponse die Antwort aus.
    Tipp: Um mehrere Chats im selben Bot zu verwalten, müssen Sie mehrere Sitzungen mit unterschiedlichen Namen oder Variablen erstellen.