Aktion „Vertex AI: Chat AI“-Aktion

Die Aktion „Vertex AI: Chat KI“ verwendet die Abschluss-API „Vertex AI“ von Google für die Interaktion mit den Modellen. Sie erzeugt Text in einem konversationellen Format.

Vorbereitungen

  • Sie benötigen die Bot Creator-Rolle, um die Aktion „Vertex Chat KI“ in einem Bot zu verwenden.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldeinformationen zum Senden einer Anfrage verfügen und Aktion „Verbinden“ eingeschlossen haben, bevor Sie eine Google Cloud-Aktion aufrufen.

Dieses Beispiel zeigt das Senden einer Nachricht in natürlicher Sprache mit der Aktion „Vertex AI: Chat KI“ und die zurückgegebene angemessene Antwort.

Prozedur

  1. Navigieren Sie im Bereich Automation Anywhere Control Room zum Bereich Aktionen, wählen Sie Generative KI > Google und ziehen Sie Vertex AI: Chat AI auf den Bildschirm.
  2. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    Vertex Chat KI

    1. Geben Sie die Projektnummer/den Projektnamen ein. Dies ist die eindeutige Projekt-ID der GCP. Informationen zur Projekt-ID finden Sie unter Google Cloud-Projekt – Projekt-ID.
    2. Geben Sie den Ort ein. Weitere Informationen zu Vertex AI-Standorten finden Sie unter Vertex AI-Standorte.
    3. Klicken Sie auf das Dropdown-Menü Herausgeber und wählen Sie Google aus; oder wählen Sie Drittanbieter, um einen Drittanbieter anzugeben.
    4. Wählen Sie ein großes Sprachmodell (LLM), das Sie für Ihren Chat verwenden möchten, aus der Dropdown-Liste Modell aus. Sie können die folgenden Modelle auswählen:
      • chat-bison (neuestes Modell)
      • chat-bison-32k (neuestes Modell)
      • chat-bison-32k@002
      • chat-bison@001
      • chat-bison@002
      • codechat-bison
      • codechat-bison-32k
      • codechat-bison-32k@002
      • codechat-bison@001
      • codechat-bison@002
      • Eine Andere unterstützte Version, um andere unterstützte Modelle einzugeben.
    5. Geben Sie eine Chat-Nachricht ein, die das Modell verwenden soll, um eine Antwort zu erzeugen.
      Anmerkung: Die Chat-Aktionen behalten das Ergebnis der vorherigen Chat-Aktion innerhalb derselben Sitzung bei. Wenn Sie Chat-Aktionen nacheinander aufrufen, kann das Modell die nachfolgenden Nachrichten verstehen und sie mit der vorherigen Nachricht in Beziehung setzen. Der gesamte Chatverlauf wird jedoch nach Beendigung der Sitzung gelöscht.
    6. Geben Sie die maximale Anzahl der zu generierenden Tokens (Max. Anzahl Tokens) ein. Wenn Sie keinen Wert eingeben, wird die maximale Anzahl der generierten Token automatisch so festgelegt, dass sie innerhalb der maximalen Kontextlänge des ausgewählten Modells liegt, indem die Länge der generierten Antwort berücksichtigt wird.
    7. Geben Sie eine Temperatur ein. Dieser Wert bezieht sich auf die Beliebigkeit der Antwort. Wenn die Temperatur sich dem Nullpunkt nähert, wird die Antwort gezielter und deterministischer. Je höher der Wert, desto zufälliger ist die Antwort.
    8. Geben Sie Standard als Sitzungsnamen ein, um die Sitzung auf die aktuelle Sitzung zu begrenzen.
    9. Um die optionalen Parameter zu verwalten, klicken Sie auf Weitere Optionen anzeigen und wählen Sie Ja. Wenn Sie Ja wählen, können Sie weitere Parameter hinzufügen, wie z. B.: Context, Examples, Top K und Top P. Informationen über diese optionalen Parameter finden Sie unter Learn Models.
    10. Speichern Sie die Antwort in einer Variablen. In diesem Beispiel wird die Antwort in VertexChatResponse gespeichert.
  3. Klicken Sie auf Ausführen, um den Bot zu starten. Sie können den Wert des Feldes ablesen, indem Sie die Antwort einfach in einer Nachrichtenfeld-Aktion ausgeben. In diesem Beispiel gibt VertexChatResponse die Antwort aus. Sie können weitere Chat-Anfragen hinzufügen, um zusätzliche Antworten zu erhalten.
    Tipp: Um mehrere Chats im selben Bot zu verwalten, müssen Sie mehrere Sitzungen mit unterschiedlichen Namen oder Variablen erstellen.