Aktion „Vertex Eingabeaufforderung KI“

Bei der Aktion „Vertex Prompt AI“ wird die PaLM-API von Google verwendet, die den Zugriff auf die Fähigkeit des Modells zur Texterstellung ermöglicht. Sie können dem Modell ein wenig Text auf Deutsch vorgeben, der dann vom Modell vervollständigt wird.

Vorbereitungen

  • Sie benötigen die Bot Creator-Rolle, um die Aktion „Vertex Eingabeaufforderung KI“ in einem Bot zu verwenden.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldedaten verfügen, um eine Anfrage zu senden. Informationen zum Erwerb der Anmeldedaten finden Sie unter Aktion „Verbinden“.

Dieses Beispiel zeigt, wie Sie mit der Aktion „Vertex Prompt AI“ eine Aufforderung in natürlicher Sprache senden und eine entsprechende Antwort erhalten können.

Prozedur

  1. Navigieren Sie im Automation Anywhere Control Room zum Bereich Aktionen und wählen Sie Generative KI > Google aus. Ziehen Sie Vertex Eingabeaufforderung KI und platzieren Sie die Aktion auf der Leinwand.
  2. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    Aktion „Google Vertex Eingabeaufforderung KI“

    1. Geben Sie die Projektnummer/den Projektnamen ein. Dies ist die eindeutige Projekt-ID der GCP. Weitere Informationen zur Projekt-ID finden Sie unter Google Cloud-Projekt – Projekt-ID.
    2. Klicken Sie auf das Dropdown-Menü Herausgeber und wählen Sie Google aus; oder wählen Sie Drittanbieter, um einen Drittanbieter anzugeben.
    3. Klicken Sie auf die Dropdown-Liste Modell und wählen Sie ein Modell aus, um eine Eingabeaufforderung zu senden.
      • code-bison@001: Ein fein abgestimmtes Modell, das auf der Grundlage einer natürlichsprachlichen Beschreibung des gewünschten Codes Code erzeugt. Es kann zum Beispiel einen Einheitstest für eine Funktion erstellen.
      • code-gecko@001: Ein fein abgestimmtes Modell, das die Vervollständigung von Code auf der Grundlage des Kontextes im geschriebenen Code vorschlägt.
      • text-bison@001: Ein Modell, das auf die Befolgung von Anweisungen in natürlicher Sprache abgestimmt ist und sich für eine Vielzahl von Sprachaufgaben eignet.
      • text-bison (neuestes Modell): Die aktuelle Version von text-bison.
      • Benutzerdefiniert: Wählen Sie „Benutzerdefiniert“, um ein benutzerdefiniertes Modell hinzuzufügen.
      Anmerkung:
      • Bison: Bestes Preis-Leistungs-Verhältnis in Sachen Leistung und Kosten.
      • Gecko: Kleinstes und kostengünstigstes Modell, für einfache Aufgaben geeignet.
    4. Geben Sie eine Eingabeaufforderung ein, die das Modell zum Generieren einer Antwort verwenden soll.
    5. Geben Sie die maximale Anzahl der zu generierenden Token ein. Wenn Sie keinen Wert eingeben, wird die maximale Anzahl der generierten Token automatisch so festgelegt, dass sie innerhalb der maximalen Kontextlänge des ausgewählten Modells liegt, indem die Länge der generierten Antwort berücksichtigt wird.
    6. Geben Sie eine Temperatur ein. Dieser Wert bezieht sich auf die Beliebigkeit der Antwort. Wenn die Temperatur sich dem Nullpunkt nähert, wird die Antwort gezielter und deterministischer. Je höher der Wert, desto zufälliger ist die Antwort.
    7. Geben Sie Standard als Sitzungsnamen ein, um die Sitzung auf die aktuelle Sitzung zu begrenzen.
    8. Um die optionalen Parameter zu verwalten, klicken Sie auf Weitere Optionen anzeigen und wählen Sie Ja. Wenn Sie Ja wählen, können Sie weitere Parameter hinzufügen, wie z. B.: Top K und Top P. Informationen über diese optionalen Parameter finden Sie unter Learn Models.
    9. Speichern Sie die Antwort in einer Variablen. In diesem Beispiel wird die Antwort in google-vertex_prompt-response gespeichert.
  3. Klicken Sie auf Ausführen, um den Bot zu starten. Sie können den Wert des Feldes ablesen, indem Sie die Antwort einfach in einer Nachrichtenfeld-Aktion ausgeben. In diesem Beispiel gibt google-vertex_prompt-response die Antwort aus.