Anthropic: Chat AI“-Aktion

Die Aktion „Anthropic Chat AI“ verbindet Automatisierungen mit der Funktionalität Amazon BedrockAnthropic Chat AI“. Mit dieser Aktion können Automatisierungen natürliche, informative und kontextbezogene Konversationen mit Nutzern führen und so ein stärker personalisiertes, ansprechenderes Automatisierungserlebnis schaffen.

Vorbereitungen

  • Sie benötigen die Bot Creator-Rolle, um die Aktion „Anthropic Chat AI“ in einem Bot zu verwenden.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldedaten verfügen, um eine Anfrage zu senden. Weitere Informationen zum Erhalt der Anmeldedaten finden Sie unter Amazon Bedrock: Aktion „Authentifizieren“.

In diesem Beispiel wird beschrieben, wie Sie mit der Aktion „Anthropic Chat AI“ eine Nachricht in natürlicher Sprache senden und eine entsprechende Antwort erhalten können.

Prozedur

  1. Navigieren Sie im Control Room zum Fenster Aktionen, wählen Sie Generative KI > Amazon Bedrock und ziehen Sie Anthropic: Chat AI auf den Bildschirm.
  2. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    Anthropic Chat AI

    1. Geben Sie die Region ein. Informationen zur Region finden Sie unter Amazon Bedrock GA-Regionen.
    2. Wählen Sie ein großes Sprachmodell (LLM), das Sie für Ihren Chat verwenden möchten, aus der Dropdown-Liste Modell aus. Sie können die folgenden Modelle auswählen:
      • Claude Instant v1.2
      • Claude v1.3
      • Claude v2
      • Claude v2.1
      • Claude 3 Sonnet v1
      • Claude 3 Haiku v1
      • Eine Andere unterstützte Version, um andere unterstützte Modelle einzugeben.
      Anmerkung: Wenn Sie Claude 3 Sonnet v1 oder Claude 3 Haiku v1 auswählen, erscheint ein Textfeld für die Eingabe einer System-Eingabeaufforderung (optional). Eine System-Eingabeaufforderung in Claude 3 ist eine Möglichkeit, dem großen Sprachmodell (LLM) Kontext, Anweisungen und Richtlinien zu geben, bevor es mit Ihnen interagiert. Sie dient als Vorbereitung für das Gespräch und teilt Claude 3 mit, was Sie erwarten. Weitere Informationen zur System-Eingabeaufforderung finden Sie unter

      Systemaufforderungen verwenden und Anthropic Claude-Nachrichten-API.

    3. Geben Sie eine Chat-Nachricht ein, die das Modell verwenden soll, um eine Antwort zu erzeugen.
      Anmerkung: Die Chat-Aktionen behalten das Ergebnis der vorherigen Chat-Aktion innerhalb derselben Sitzung bei. Wenn Sie Chat-Aktionen nacheinander aufrufen, kann das Modell die nachfolgenden Nachrichten verstehen und sie mit der vorherigen Nachricht in Beziehung setzen. Der gesamte Chatverlauf wird jedoch nach Beendigung der Sitzung gelöscht.
    4. Geben Sie einen Wert für Maximale Länge ein.
      Wenn Sie keinen Wert eingeben, wird die maximale Länge automatisch so festgelegt, dass sie innerhalb der maximalen Kontextlänge des ausgewählten Modells liegt, indem die Länge der generierten Antwort berücksichtigt wird.
    5. Geben Sie eine Temperatur ein. Dieser Wert bezieht sich auf die Beliebigkeit der Antwort. Wenn sich die Temperatur dem Nullpunkt nähert, wird die Antwort spezifisch. Je höher der Wert, desto zufälliger ist die Antwort.
    6. Geben Sie Standard als Sitzungsnamen ein, um die Sitzung auf die aktuelle Sitzung zu begrenzen.
    7. Um die optionalen Parameter zu verwalten, klicken Sie auf Weitere Optionen anzeigen und wählen Sie Ja. Wenn Sie Ja wählen, können Sie weitere Parameter hinzufügen, wie z. B.: Top P, Top K, Anweisungen hinzufügen, Sequenzen anhalten. Sie können auch eine Anthropic-Version eingeben. Informationen zu diesen optionalen Parametern finden Sie unter Lernmodelle.
      Anmerkung: Claude 3-Modelle akzeptieren System-Eingabeaufforderungen, nicht das Hinzufügen von Anweisungen. Im Gegensatz zu herkömmlichen Anweisungen bieten System-Eingabeaufforderungen eine strukturierte Möglichkeit, Claude 3 zu lenken. Das liegt daran, dass Claude 3 darauf trainiert ist, die Absicht hinter Ihrem Eingabeaufforderung zu verstehen und Antworten zu generieren, die dieses Ziel erfüllen, statt einfach nur eine Reihe von Befehlen abzuarbeiten.
    8. Speichern Sie die Antwort in einer Variablen.
      In diesem Beispiel wird die Antwort in str_Anthropic_chatResponse gespeichert.
  3. Klicken Sie auf Ausführen, um den Bot zu starten.
    Sie können den Wert des Feldes ablesen, indem Sie die Antwort einfach in einer Nachrichtenfeld-Aktion ausgeben. In diesem Beispiel gibt str_Anthropic_chatResponse die Antwort aus. Sie können weitere Chat-Anfragen hinzufügen, um zusätzliche Antworten zu erhalten.
    Tipp: Um mehrere Chats im selben Bot zu verwalten, müssen Sie mehrere Sitzungen mit unterschiedlichen Namen oder Variablen erstellen.