Amazon Titan: Prompt AI“-Aktion

Amazon Titan: Die Aktion „Prompt AI“ verbindet Automatisierungen mit der Funktionalität Amazon Bedrock „Titan Prompt AI“. Mit dieser Aktion können Automatisierungen Texte in menschlicher Qualität generieren, Sprachen übersetzen, verschiedene Arten von kreativen Inhalten verfassen und Fragen informativ beantworten; alles auf Grundlage von nutzerdefinierten Eingabeaufforderungen.

Vorbereitungen

  • Sie benötigen die Bot Creator-Rolle zur Verwendung der Aktion „Amazon Titan: Prompt AI“ in einem Bot.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldedaten zum Senden einer Anfrage verfügen und Aktion „Authentifizieren“ eingeschlossen haben, bevor Sie eine Amazon Bedrock-Aktion aufrufen.

In diesem Beispiel wird beschrieben, wie Sie mit der Aktion „Titan Prompt AI“ eine Nachricht in natürlicher Sprache senden und eine entsprechende Antwort erhalten können.

Prozedur

  1. Navigieren Sie im Automation Anywhere Control Room zum Fenster Aktionen, wählen Sie Generative KI > Amazon Bedrock, ziehen Sie Amazon Titan: Prompt AI auf den Bildschirm.
  2. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    Titan Prompt AI

    1. Geben Sie die Region ein. Informationen zur Region finden Sie unter Amazon Bedrock GA-Regionen.
    2. Klicken Sie auf die Dropdown-Liste Modell und wählen Sie ein Modell aus, mit dem Sie kommunizieren möchten.
      • Titan Text G1 – Lite: Der Titan Text G1-Lite von Amazon ist eine kleinere und effizientere Version des größeren Titan Text G1-Modells und eignet sich daher besser für Geräte mit begrenzten Ressourcen.
      • Titan Text G1 – Express: Das Modell „Amazon Titan Text G1 – Express“ ist ein vielseitiges und kosteneffizientes großes Sprachmodell (LLM), das für eine breite Palette von Textgenerierungsaufgaben entwickelt wurde.
      • Andere unterstützte Version: Eingabe anderer unterstützter Modelle.
    3. Geben Sie eine Eingabeaufforderung Nachricht ein, die das Modell verwenden soll, um eine Antwort zu erzeugen.
    4. Geben Sie die Antwortlänge ein.
      Wenn Sie keinen Wert eingeben, wird die Antwortlänge automatisch so eingestellt, dass sie innerhalb der maximalen Kontextlänge des ausgewählten Modells liegt, indem die Länge der generierten Antwort geprüft wird.
    5. Geben Sie eine Temperatur ein. Dieser Wert bezieht sich auf die Beliebigkeit der Antwort. Wenn sich die Temperatur dem Nullpunkt nähert, wird die Antwort spezifisch. Je höher der Wert, desto zufälliger ist die Antwort.
    6. Geben Sie Standard als Sitzungsnamen ein, um die Sitzung auf die aktuelle Sitzung zu begrenzen.
    7. Um die optionalen Parameter zu verwalten, klicken Sie auf Weitere Optionen anzeigen und wählen Sie Ja. Wenn Sie Ja wählen, können Sie weitere Parameter hinzufügen, wie z. B.: Top P und Sequenzen anhalten. Informationen zu diesen optionalen Parametern finden Sie unter Lernmodelle.
    8. Speichern Sie die Antwort in einer Variablen. In diesem Beispiel wird die Antwort in str_PromptResponse gespeichert.
  3. Klicken Sie auf Ausführen, um den Bot zu starten.
    Sie können den Wert des Feldes ablesen, indem Sie die Antwort einfach in einer Nachrichtenfeld-Aktion ausgeben. In diesem Beispiel gibt str_PromptResponse die Antwort aus.