Erstellen von Prompt-Vorlagenn (Professioneller Entwickler)

Der professionelle Entwickler erstellt Prompt-Vorlagen nach den geschäftlichen Anforderungen eines Unternehmens und stellt sie Nutzern wie Citizen Developers, professionellen Entwicklern und Geschäftsanwendern zur Verfügung, die sie aus dem Paket Bot-Editor > Eingabeaufforderungs-Vorlage für generative KI abrufen können.

Der professionelle Entwickler erstellt Prompt-Vorlagen, indem er eine Verbindung zu Modellverbindungen herstellt und Eingabeaufforderungen über grundlegende Modelle hinweg fein abstimmt, um die beste Lösung für die Automatisierungsanforderungen des Unternehmens zu finden. Diese Prompt-Vorlagen können Entwicklern und Geschäftsanwendern zur mehrfachen Verwendung zur Verfügung gestellt werden, um die Erstellung von Automatisierungen für verschiedene Lösungen zu beschleunigen. In dieser Vorabversion der Funktion sind die folgenden Basismodelle verfügbar:
  • Azure OpenAI
  • OpenAI

Dieses Thema führt Sie durch die Schritte zur Erstellung einer Prompt-Vorlage.

Vorbereitungen

Der professionelle Entwickler benötigt die folgenden Rollen und Berechtigungen, um eine Prompt-Vorlage zu erstellen und zu testen.
  • Rollen:
    • Bot_Creator
    • Bot_Runner
    • AAE_Basic
    • Benutzerdefinierte Rolle
    • Citizen Developer
  • Erforderliche Einstellungen im Control Room:
    • Modellverbindungen > Modellverbindungen anzeigen
    • KI-Datenverwaltung > Datenprotokollierungseinstellungen
    • Schreibgeschützt
    • Administration > Einstellungen anzeigen
  • Berechtigungen und Aufgaben:
    • Automatisierung erstellen/bearbeiten/ausführen
    • Prompt-Vorlage erstellen/anzeigen/bearbeiten/speichern/konfigurieren
    • Modellverbindungenen anzeigen und darauf zugreifen
    • Modellkonfigurationswerte für GenAI-Modelle von Drittanbietern konfigurieren
    • Eingabeaufforderung eingeben/bearbeiten
    • Eingabevariablen für Eingabeaufforderung hinzufügen/ändern
    • Eingabeaufforderung mit dem in der Modellverbindung angegebenen GenAI-Modell testen
    • Eingabeaufforderung-Antworten anzeigen
    • Automatisierung ein- und auschecken
    • Einstellungen anzeigen:
      • Datenprotokollierung aktivieren
      • Prompt-Vorlage testen
    • Details der Modellverbindung anzeigen, wie z. B.:
      • Anbieter des GenAI-Modells
      • Modellversion
      • Beschreibung der Modellverbindung
    • Prompt-Vorlage für generative KIn-Paket anzeigen
    • Repository-Ordner erstellen
    • Credential Vault-Wert lesen

Neben den Rollen und Berechtigungen müssen Sie mit einem Bot-Agent (v22.31 und höher) verbunden sein. Um die Modellverbindung zu testen, müssen Sie auch den Bot auf Ihrem Desktop ausführen. Stellen Sie daher sicher, dass der Bot-Agent für Ihren Nutzer konfiguriert ist. Wenn Sie die Verbindung zu einem anderen Control Room wechseln müssen, siehe: Umschalten der Geräteregistrierung zwischen Control Room-Instanzen

Prozedur

  1. Melden Sie sich beim Control Room an und navigieren Sie zu Automatisierung > Neu erstellen oder „+“-Symbol und wählen Sie Prompt-Vorlage aus.
  2. Geben Sie einen Namen und eine Beschreibung ein und klicken Sie auf Erstellen und bearbeiten, um eine Vorlagenübersicht anzuzeigen. Lassen Sie uns ein Beispiel mit dem Namen Adressen-Parser erstellen.
  3. Klicken Sie im Bildschirm Prompt-Vorlage auf Modellverbindung wählen, um aus der Liste der verfügbaren Modellverbindungenen zu wählen, auf die Sie Zugriff haben.
    Diese Modellverbindungenen werden vom Automatisierungsadministrator erstellt und Ihrem Nutzer mit einer benutzerdefinierten Rolle zugewiesen.
  4. Nach Auswahl einer Modellverbindung wird die Prompt-Vorlage mit den für das gewählte Modell optimalen Standardparametereinstellungen eingerichtet. Sie können die Einstellungen je nach Bedarf ändern.
    Parameter der Prompt-Vorlage
    Die Parameterwerte für die Eingabeaufforderung-Erstellung werden auf Grundlage des von Ihnen ausgewählten Basismodells ausgefüllt. Dies sind Parametereinstellungen für unterstützte Azure OpenAI- und OpenAI-Modelle:
    • Häufigkeitsstrafe:

      Diese Einstellung verhindert Wiederholungen im generierten Text, indem sie die wiederholte Verwendung der Token auf Grundlage ihrer Häufigkeit einschränkt. Je öfter Sie ein Token im Text verwenden, desto unwahrscheinlicher ist es, dass es wiederholt wird. Wählen Sie einen Wert zwischen -2,0 und 2 (in Dezimalwert-Schritten).

    • Max. Anzahl Token:

      Diese Einstellung gibt die maximale Anzahl von Token an, die in einer generierten Antwort verwendet werden. Sie können einen Wert zwischen 1 und 2048 wählen, wobei der Standardwert 2048 lautet. Ihre Prompt-Antwort hängt von dem hier eingestellten Wert ab. Wenn Sie mehr Token zuweisen, erhalten Sie eine umfassendere und detailliertere Antwort.

    • Temperatur:

      Ein höherer Wert ergibt vielfältige und weniger vorhersehbare Antworten. Sie können einen Wert zwischen 0 und 1 wählen (in Dezimalwert-Schritten). Das bedeutet, dass bei einem höheren Wert die zurückgegebenen Antworten vielfältiger sind.

    • N:

      Hier wird die Anzahl der Antworten festgelegt, die das Modell für einen bestimmten Prompt erzeugt. Wählen Sie einen Wert zwischen 1 und 9, wobei der Standardwert 1 lautet. Wenn Sie mehr Token zuweisen, einen höheren Temperaturwert konfigurieren und einen hohen N-Wert von 9 wählen, erhalten Sie neun verschiedene Antworten mit Details, die 2048 Token umfassen würden.

    • Präsenzstrafe:

      Diese Einstellung verhindert die Wiederholung von Token im generierten Text, indem sie die Verwendung von Token in Abhängigkeit von ihrer Häufigkeit einschränkt. Je häufiger ein Token im Text verwendet wird, desto geringer ist die Wahrscheinlichkeit, dass es wiederholt wird. Wählen Sie einen Wert zwischen -2,0 und 2 (in Dezimalwert-Schritten).

    • Top P:

      Diese Einstellung bestimmt die Vielfalt der erzeugten Antwort. Je höher der Wert, desto vielfältiger die Antworten. Wir empfehlen, entweder den P- oder den Temperaturwert zu ändern, aber nicht beide. Wählen Sie einen Wert zwischen 0 und 1 (in Dezimalwert-Schritten).

    Anmerkung: Sie können verschiedene Parameterwerte einstellen, um sie zu testen und die optimalen Werte für Ihren Anwendungsfall zu ermitteln. Eine Änderung der Parameterwerte beeinflusst die Antwort des Modells.
  5. Nun können Sie mit der Erstellung eines Eingabeaufforderungs beginnen und nach Bedarf Prompt-Eingaben hinzufügen. Lassen Sie uns an einem Beispiel die einzelnen Schritte erläutern.

Beispiel:

Der professionelle Entwickler erstellt eine Prompt-Vorlage, die zur Verarbeitung von Dokumenten verwendet wird, genauer gesagt, um die Adresse aus verschiedenen Dokumenttypen zu parsen und zu extrahieren.
Der professionelle Entwickler erstellt eine Prompt-Vorlage mit folgendem Namen: Adressen-Parser. Diese Prompt-Vorlage soll sich auf die Extraktion von Adressinformationen aus Dokumenten konzentrieren. Die Vorlage wird Citizen Developern und Geschäftsanwendern zur Verfügung gestellt, die diese als Aktion in ihrer Automatisierung wiederverwenden können.

Prompt-Vorlage erstellen

  1. Sie haben bereits eine Modellverbindung aus Ihrer Liste ausgewählt (siehe Schritt 3 oben) und beginnen nun mit dem Verfassen Ihres Eingabeaufforderungs.
  2. Geben Sie in das Feld Prompt Folgendes ein:
    Analysiert die $inputAddress$ und gibt sie formatiert zurück als:
    • Straße: Straße
    • Stadt: Stadt
    • Bundesland: Bundesland
    • Postleitzahl: Postleitzahl
  3. Klicken Sie auf eine Stelle außerhalb des Eingabeaufforderung-Eingabefelds.
  4. Der Abschnitt Prompt-Eingabe wird automatisch mit Platzhaltern für Prompt-Eingaben ausgefüllt, für die Sie Werte definieren können. In diesem Fall wird das Feld $inputAddress$ Eingabeaufforderung vom System erstellt.
    Die Eingabeaufforderung soll eine Antwort mit der Straße, dem Ort, dem Bundesland und der Postleitzahl der Adresse in separaten Zeilen zurückgeben.
    Anmerkung: Sie können Eingabeaufforderungn auch manuell hinzufügen, indem Sie auf Prompt-Eingabe hinzufügen klicken.
  5. Geben Sie anschließend die folgende Adresse in das Feld Eingabeaufforderung inputAddress ein: '1502 royal oak dr, tx, 75243'.
  6. Klicken Sie anschließend auf Antwort abrufen, um auf Grundlage Ihrer Eingabeaufforderung eine Antwort vom Modell zu erhalten.
    Anmerkung:

    Testen und probieren Sie verschiedene Eingabeaufforderung-Werte aus, um die gewünschte Antwort von den Modellen zu erhalten, und entscheiden Sie sich schließlich für diejenige, die Ihnen als die beste erscheint.

    Die Details der Eingabeaufforderung können PHI, PII oder andere sensible Daten enthalten, die Sie in die Eingabeaufforderung eingeben. Wir empfehlen, dies beim Testen und Ausführen einer Eingabeaufforderung zu berücksichtigen.

  7. Wenn Sie mit der Antwort zufrieden sind, speichern Sie die Prompt-Vorlage über Speichern.

Nächste Maßnahme

Der nächste Schritt besteht darin, die Prompt-Vorlage einzuchecken, damit sie Citizen Developern und Geschäftsanwendern im Prompt-Vorlage für generative KIn-Paket zur Verwendung in ihrer Automatisierung zur Verfügung gestellt werden kann.
Anmerkung: Wenn Sie eine Prompt-Vorlage auf dem Bildschirm Eingabeaufforderungs-Vorlage erstellen oder testen, können Sie die Details zum Erfolg oder Fehlschlag zusammen mit den Modell-Antworten in Administration > Auditprotokoll und Administration > KI-Governance > KI-Eingabeaufforderungs-Protokoll einsehen. Einzelheiten finden Sie unter KI-Governance.
Warum sollten Sie eine Prompt-Vorlage einchecken?

Nachdem Sie eine Prompt-Vorlage erstellt haben, checken Sie sie in den Öffentlichen Ordner ein. So können professionelle Entwickler, Geschäftsanwender oder Citizen Developer die Prompt-Vorlage über das Prompt-Vorlage für generative KIn-Paket nutzen.

Ein TaskBot, der ein komplettes Workflow-Szenario ausführt, kann mit einer oder mehreren eingebetteten Prompt-Vorlagen zu einer größeren Automatisierung hinzugefügt werden.

Anmerkung: Weitere Informationen finden Sie unter: