AI21 LabsAktion Prompt AI“

Die Aktion „AI21 Labs Prompt AI“ verbindet Automatisierungen mit der Funktionalität Amazon BedrockAI21 Labs Prompt AI. Mit dieser Aktion können Automatisierungen Texte in menschlicher Qualität generieren, Sprachen übersetzen, verschiedene Arten von kreativen Inhalten verfassen und Fragen informativ beantworten; alles auf Grundlage von nutzerdefinierten Eingabeaufforderungen.

Vorbereitungen

  • Sie müssen über die Bot Creator-Rolle verfügen, um die Aktion „AI21 Labs Prompt AI“ in einem Bot zu verwenden.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldedaten verfügen, um eine Anfrage zu senden. Weitere Informationen zum Erhalt der Anmeldedaten finden Sie unter Amazon Bedrock: Aktion „Authentifizieren“.

In diesem Beispiel wird beschrieben, wie Sie mit der Aktion „AI21 Labs Prompt AI“ eine Nachricht in natürlicher Sprache senden und eine entsprechende Antwort erhalten können.

Prozedur

  1. Navigieren Sie im Control Room zum Bereich Aktionen, wählen Sie Generative KI > Amazon Bedrock aus, ziehen Sie AI21 Labs Prompt AI und platzieren Sie es auf dem Bildschirm.
  2. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    Amazon Bedrock „AI21 Labs Prompt AI“

    1. Geben Sie die Region ein.
      Informationen zur Region finden Sie unter Amazon Bedrock GA-Regionen.
    2. Klicken Sie auf die Dropdown-Liste Modell und wählen Sie ein Modell aus, mit dem Sie kommunizieren möchten.
      • Jurassic-2 Mid: Jurassic-2 Mid ist das mittelgroße Modell der Jurassic-2-Serie und wird für einen großen Bereich von Sprachverständnis- und Spracherzeugungsaufgaben verwendet.
      • Jurassic-2 Ultra: Jurassic-2 Ultra ist ein besseres Modell in der Jurassic-2-Serie und wurde für die komplexesten Aufgaben der Spracherzeugung entwickelt.
      • Andere unterstützte Version: Um andere unterstützte Versionen der oben genannten Modelle einzugeben. Weitere Informationen finden Sie unter AI21 Labs Jurassic-2 models schema.
      Anmerkung: Generative KI-Pakete verlassen sich für einen korrekten Betrieb auf das spezifische Input-/Output-Schema eines Modells. Da verschiedene Modelle oft unterschiedliche Schemata haben, können nur Versionen desselben Modells integriert werden. Informationen zu anderen unterstützten Versionen finden Sie in der Dokumentation des Hyperscalers für unterstützte Versionen von Modellen.
    3. Geben Sie eine Eingabeaufforderung ein, die das Modell verwenden soll, um eine Antwort zu erzeugen.
    4. Geben Sie die maximale Länge der Vervollständigung ein.
      Wenn Sie keinen Wert eingeben, wird die maximale Länge der Vervollständigung automatisch so festgelegt, dass sie innerhalb der maximalen Kontextlänge des ausgewählten Modells liegt, indem die Länge der generierten Antwort geprüft wird.
    5. Geben Sie eine Temperatur ein. Dieser Wert bezieht sich auf die Beliebigkeit der Antwort. Wenn die Temperatur sich dem Nullpunkt nähert, wird die Antwort spezifischer. Je höher der Wert, desto zufälliger ist die Antwort.
    6. Geben Sie Standard als Sitzungsnamen ein, um die Sitzung auf die aktuelle Sitzung zu begrenzen.
    7. Um die optionalen Parameter zu verwalten, klicken Sie auf Weitere Optionen anzeigen und wählen Sie Ja. Wenn Sie Ja wählen, können Sie weitere Parameter hinzufügen, wie z. B.: Top P, Anweisungen hinzufügen, Präsenzstrafe, Anzahlstrafe, Häufigkeitsstrafe, Sonderzeichen bestrafen und Sequenzen anhalten. Informationen zu diesen optionalen Parametern finden Sie unter Lernmodelle.
    8. Speichern Sie die Antwort in einer Variablen. In diesem Beispiel wird die Antwort in str_AI21Labs_promptResponse gespeichert.
  3. Klicken Sie auf Ausführen, um den Bot zu starten.
    Sie können den Wert des Feldes ablesen, indem Sie die Antwort einfach in einer Nachrichtenfeld-Aktion ausgeben. In diesem Beispiel gibt str_AI21Labs_promptResponse die Antwort aus.