Anthropic: Prompt AI“-Aktion

Die Aktion „Anthropic Prompt AI“ verbindet Automatisierungen mit der Funktionalität Amazon BedrockAnthropic Prompt AI“. Mit dieser Aktion können Automatisierungen Texte in menschlicher Qualität generieren, Sprachen übersetzen, verschiedene Arten von kreativen Inhalten verfassen und Fragen informativ beantworten; alles auf Grundlage von nutzerdefinierten Eingabeaufforderungen.

Vorbereitungen

  • Sie benötigen die Bot Creator-Rolle, um die Anthropic-Aktion „Prompt AI“ in einem Bot zu verwenden.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldedaten verfügen, um eine Anfrage zu senden. Weitere Informationen zum Erhalt der Anmeldedaten finden Sie unter Aktion „Authentifizieren“.

In diesem Beispiel wird beschrieben, wie Sie mit der Aktion „Anthropic Prompt AI“ eine Nachricht in natürlicher Sprache senden und eine entsprechende Antwort erhalten können.

Prozedur

  1. Navigieren Sie im Automation Anywhere Control Room zum Fenster Aktionen, wählen Sie Generative KI > Amazon Bedrock und ziehen Sie Anthropic: Prompt AI auf den Bildschirm.
  2. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    Anthropic Prompt AI

    1. Geben Sie die Region ein. Informationen zur Region finden Sie unter Amazon Bedrock GA-Regionen.
    2. Wählen Sie ein großes Sprachmodell (LLM), das Sie für Ihren Chat verwenden möchten, aus der Dropdown-Liste Modell aus. Sie können die folgenden Modelle auswählen:
      • Claude Instant v1.2
      • Claude v1.3
      • Claude v2
      • Claude v2.1
      • Eine Andere unterstützte Version, um andere unterstützte Modelle einzugeben.
    3. Geben Sie eine Eingabeaufforderung Nachricht ein, die das Modell verwenden soll, um eine Antwort zu erzeugen.
    4. Geben Sie einen Wert für Maximale Länge ein.
      Wenn Sie keinen Wert eingeben, wird die maximale Länge automatisch so festgelegt, dass sie innerhalb der maximalen Kontextlänge des ausgewählten Modells liegt, indem die Länge der generierten Antwort berücksichtigt wird.
    5. Geben Sie eine Temperatur ein. Dieser Wert bezieht sich auf die Beliebigkeit der Antwort. Wenn die Temperatur sich dem Nullpunkt nähert, wird die Antwort gezielter und deterministischer. Je höher der Wert, desto zufälliger ist die Antwort.
    6. Geben Sie Standard als Sitzungsnamen ein, um die Sitzung auf die aktuelle Sitzung zu begrenzen.
    7. Um die optionalen Parameter zu verwalten, klicken Sie auf Weitere Optionen anzeigen und wählen Sie Ja. Wenn Sie Ja wählen, können Sie weitere Parameter hinzufügen, wie z. B.: Top P, Top K, Stopp-Sequenzen oder eine Anthropic-Versioneingeben. Informationen zu diesen optionalen Parametern finden Sie unter Lernmodelle.
    8. Speichern Sie die Antwort in einer Variablen.
      In diesem Beispiel wird die Antwort in str_Anthropic_promptResponse gespeichert.
  3. Klicken Sie auf Ausführen, um den Bot zu starten.
    Sie können den Wert des Feldes ablesen, indem Sie die Antwort einfach in einer Nachrichtenfeld-Aktion ausgeben. In diesem Beispiel gibt str_Anthropic_promptResponse die Antwort aus.