„OpenAI: Prompt AI“-Aktion

Die „OpenAI: Prompt AI“-Aktion ahmt die Vervollständigungen von OpenAI nach. Dabei wird eine Eingabeaufforderung als Eingabe genommen und eine oder mehrere modellgenerierte Vervollständigungen werden zurückgeben.

Vorbereitungen

  • Sie benötigen die Bot Creator-Rolle, um die AktionOpenAI Prompt AI“ in einem Bot zu verwenden.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldedaten zum Senden einer Anfrage verfügen und Aktion „Authentifizieren“ eingeschlossen haben, bevor Sie eine OpenAI-Aktion aufrufen.

In diesem Abschnitt wird beschrieben, wie Sie mit der AktionOpenAI Prompt AI“ eine Aufforderung in natürlicher Sprache senden und eine entsprechende Antwort erhalten können.

Prozedur

  1. Navigieren Sie im Automation Anywhere Control Room zum Bereich Aktionen, wählen Sie Generative KI > OpenAI und ziehen Sie OpenAI: Prompt AI auf den Bildschirm.
  2. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    OpenAI Prompt AI

    1. Wählen Sie für Authentifizierung die Option Aktuelle Version, um die Aktion „Authentifizieren“ mit dem API-Schlüssel zu verwenden.
      Wenn Sie Bald veraltet wählen, können Sie sich mit dem API-Schlüssel authentifizieren, ohne die Aktion „Authentifizieren“ aufzurufen.
      Anmerkung: Die Option Bald veraltet wird in der kommenden Version veraltet sein.
    2. Geben Sie Standard als Sitzungsnamen ein, um die aktuelle Sitzung zu begrenzen.
    3. Wählen Sie ein großes Sprachmodell (LLM), das Sie für Ihren Chat verwenden möchten, aus der Dropdown-Liste Modell aus. Sie können die folgenden Modelle auswählen:
      • gpt-3.5-turbo-instruct (Standard)
      • babbage-002
      • davinci-002
      • text-davinci-003 (eingestellt: 04.01.2024)
      • text-davinci-002 (eingestellt: 04.01.2024)
      • davinci (eingestellt: 04.01.2024)
      • text-curie-001 (eingestellt: 04.01.2024)
      • curie (eingestellt: 04.01.2024)
      • text-babbage-001 (eingestellt: 04.01.2024)
      • babbage (eingestellt: 04.01.2024)
      • text-ada-001 (eingestellt: 04.01.2024)
      • ada (eingestellt: 04.01.2024)
      • Eine Andere unterstützte Version, um andere unterstützte Modelle einzugeben.
    4. Geben Sie eine Eingabeaufforderung ein, die das Modell zum Generieren einer Antwort verwenden soll.
    5. Geben Sie die maximale Anzahl der zu generierenden Token ein. Wenn Sie keinen Wert eingeben, wird die maximale Anzahl der generierten Token automatisch so festgelegt, dass sie innerhalb der maximalen Kontextlänge des ausgewählten Modells liegt, indem die Länge der generierten Antwort berücksichtigt wird.
    6. Geben Sie eine Temperatur ein. Dieser Wert bezieht sich auf die Beliebigkeit der Antwort. Wenn die Temperatur sich dem Nullpunkt nähert, wird die Antwort gezielter und deterministischer. Je höher der Wert, desto zufälliger ist die Antwort.
    7. Um die optionalen Parameter zu verwalten, wählen Sie Ja unter Weitere Optionen anzeigen, um weitere Parameter hinzuzufügen, z. B: Suffix, Top P, N, Logprobs, Echo, Stop, Presence Penalty, Frequency Penalty, Best of, Logit bias und User. Informationen zu diesen optionalen Parametern finden Sie unter Open AI-Vervollständigungen.
    8. Speichern Sie die Antwort in einer Variablen. In diesem Beispiel wird die Antwort in list_OpenAI_prompt_response gespeichert.
  3. Klicken Sie auf Ausführen, um den Bot zu starten. Die Ausgabe der Eingabeaufforderung ist eine Liste, bei der Sie N als optionalen Parameter angeben können, um mehrere Eingabeaufforderungen für jede Eingabe zu erzeugen. Um die Antwort auf die Eingabeaufforderung zu lesen, können Sie die Antwort in einer Nachrichtenfeld-Aktion ausgeben lassen. In diesem Beispiel wird das erste Element der Liste list_OpenAI_prompt_response[0] als Antwort ausgegeben, da N auf 1 gesetzt ist.