„Azure OpenAI: Prompt AI“-Aktion

Die Aktion Azure OpenAI: Eingabeaufforderung KI verwendet den Vervollständigungsendpunkt von Microsoft Azure AI, um Text zu generieren. Dieser Endpunkt ermöglicht Ihnen den Zugriff auf die Texteingabe- und -ausgabeschnittstelle des Modells. Sie können dem Modell eine Texteingabe in natürlicher Sprache geben, und es wird eine Vervollständigung generieren.

Vorbereitungen

  • Sie benötigen die Bot Creator-Rolle zur Verwendung der „Azure OpenAI: Eingabeaufforderung KI Aktion in einem Bot.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldeinformationen zum Senden einer Anfrage verfügen und Aktion „Authentifizieren“ eingeschlossen haben, bevor Sie eine Microsoft Azure OpenAI-Aktion aufrufen.

Dieses Beispiel zeigt, wie Sie mit Azure OpenAI eine Aufforderung in natürlicher Sprache senden: Aktion „Eingabeaufforderung KI“, und erhalten Sie eine angemessene Antwort.

Prozedur

  1. Navigieren Sie im Automation Anywhere Control Room zum Bereich Aktionen, wählen Sie Generative KI > Microsoft und ziehen Sie Azure OpenAI: Prompt AI auf den Bildschirm.
  2. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    Azure Eingabeaufforderung KI

    1. Wählen Sie für Authentifizierung die Option Aktuelle Version, um die Aktion „Authentifizieren“ mit dem API-Schlüssel zu verwenden.
      Wenn Sie Bald veraltet wählen, können Sie sich mit dem API-Schlüssel authentifizieren, ohne die Aktion „Authentifizieren“ aufzurufen.
      Anmerkung: Die Option Bald veraltet wird in der kommenden Version veraltet sein.
    2. Geben Sie Standard als Sitzungsnamen ein, um die Sitzung auf die aktuelle Sitzung zu begrenzen.
    3. Geben Sie die Bereitstellungs-ID ein. Die Bereitstellungs-ID ist mit dem großen Sprachmodell (LLM) verknüpft, das Sie für Ihre Eingabeaufforderung verwenden möchten.
    4. Geben Sie eine Eingabeaufforderung ein, die das Modell zum Generieren einer Antwort verwenden soll.
    5. Geben Sie die maximale Anzahl der zu generierenden Token ein. Wenn Sie keinen Wert eingeben, wird die maximale Anzahl der generierten Token automatisch so festgelegt, dass sie innerhalb der maximalen Kontextlänge des ausgewählten Modells liegt, indem die Länge der generierten Antwort berücksichtigt wird.
    6. Geben Sie eine Temperatur ein. Dieser Wert bezieht sich auf die Beliebigkeit der Antwort. Wenn die Temperatur sich dem Nullpunkt nähert, wird die Antwort gezielter und deterministischer. Je höher der Wert, desto zufälliger ist die Antwort.
    7. Um optionale Parameter zu verwalten, klicken Sie auf Weitere Optionen anzeigen und wählen Sie Ja aus, wenn Sie die optionalen Parameter verwalten möchten. Wenn Sie Ja wählen, können Sie weitere Parameter hinzufügen, wie z. B.: API version, Suffix, Top P, N, Logprobs, Echo, Stop, Presence Penalty, Frequency Penalty, Best of, Logit bias und User. Weitere Informationen zu diesen optionalen Parametern finden Sie unter Azure Open AI-Vervollständigungen.
    8. Speichern Sie die Antwort in einer Variablen. In diesem Beispiel wird die Antwort in str_promptai_response gespeichert.
  3. Klicken Sie auf Ausführen, um den Bot zu starten. Die Ausgabe der Eingabeaufforderung ist eine Liste, bei der Sie N als optionalen Parameter angeben können, um mehrere Eingabeaufforderungen für jede Eingabe zu erzeugen. Um die Antwort auf die Eingabeaufforderung zu lesen, können Sie die Antwort in einer Nachrichtenfeld-Aktion ausgeben lassen. In diesem Beispiel wird das erste Element der Liste str_promptai_response[0] als Antwort ausgegeben, da N auf 1 gesetzt ist.