Hugging Face: Serverlose Inferenzaktion

Dieses Thema beschreibt die Verwendung des Hugging Face: Serverlose Inferenzaktion, um die Leistungsfähigkeit von Hugging Face-Modellen für verschiedene NLP-Aufgaben zu nutzen.

Vorbereitungen

Anmerkung: Die Beispiele und Grafiken auf dieser Seite dienen nur der Veranschaulichung und spiegeln möglicherweise nicht genau Ihren speziellen Fall wider. Wir übernehmen keine Verantwortung für deren Pflege oder Richtigkeit.
  • Sie benötigen die Bot Creator-Rolle zur Verwendung der Aktion „Hugging Face: Authentifizierung-Aktion in einem Bot.
  • Ein Hugging Face-Konto erstellen. Sie können hier ein Konto erstellen Ein Hugging Face-Konto erstellen.
  • Vergewissern Sie sich, dass Sie über die erforderlichen Anmeldedaten zum Senden einer Anfrage verfügen und Hugging Face: Aktion „Authentifizierung“ eingeschlossen haben, bevor Sie Hugging Face aufrufen: Serverloses Inferenz Aktion.

Prozedur

  1. Melden Sie sich bei Ihrem Hugging Face-Konto an.
  2. Modell auswählen: Navigieren Sie zur Hugging Face-Modellbibliothek (Hugging Face-Modelle). Suchen Sie nach einem Modell, das Serverlose Inferenzen unterstützt, und wählen Sie es aus. Zu den unterstützten Modelltypen gehören:
    1. Texterzeugung
    2. Text-zu-Bild-Generierung
    3. Bild-zu-Text-Generierung
    4. Text-zu-Audio-Generierung
    Für dieses Beispiel wird das Modell openai-community/gpt2 für Textgenerierung verwendet.
  3. Kopieren Sie Folgendes aus dem Anfrageformat „Serverlose Inferenzen“ des Modells.
    1. Modell-ID: Kopieren Sie die Modell-ID aus der API-URL im Anforderungsformat. In diesem Fall wäre es openai-community/gpt2.
    2. Anforderungsnutzlast: Verwenden Sie das bereitgestellte JSON im „Serverlose Inferenzen“-Format des Modells.

      Hugging-Face-Anforderungsformat
      Ändern Sie die Eingabeaufforderung innerhalb des JSON, um sie an Ihren spezifischen Anwendungsfall anzupassen. Für Beispiel: Sie können das obige JSON wie folgt ändern:
      {"inputs": "Explain quantum computing in simple terms."}
      

      Sehen Sie sich das folgende Video an, um zu erfahren, wie Sie auf das obige Anforderungsformats eines Modells zugreifen.

  4. Melden Sie sich beim Control Room an.
  5. Wählen Sie im Aktionen-Bereich KI > Hugging Face > Serverlose Inferenzen und platzieren Sie es auf dem Bildschirm.
  6. Geben Sie die folgenden Felder ein oder wählen Sie sie aus:

    „Serverlose Inferenzen“-Aktion von Hugging Face
    1. Geben Sie im Feld Modell-ID Folgendes ein: Modell-ID von Ihrem Hugging Face kopiert.
    2. Im Feld Anforderungsnutzlast fügen die Anforderungsnutzlast ein, die Sie von Ihrem Hugging Face kopiert haben.
    3. Optional: Daten-Dateipfad: Der Datenpfad gibt den Download-Speicherort für Bild-/Audiodateien an, die von Ihrem Modell generiert werden.
    4. Geben Sie Standard als Sitzungsnamen ein, um die Sitzung auf die aktuelle Sitzung einzuschränken.
    5. Speichern Sie die Antwort in einer Variablen. In diesem Beispiel wird die Antwort zu HuggingFace-Antwort gespeichert.
  7. Klicken Sie auf Ausführen, um die Automatisierung zu starten.
    Sie können den Wert des Feldes ablesen, indem Sie die Antwort in einer Nachrichten Box ausgeben. Aktion. In diesem Beispiel gibt HuggingFace-Antwort die Antwort aus.
    Tipp: Um mehrere Chats im selben Bot zu verwalten, müssen Sie mehrere Sitzungen mit unterschiedlichen Namen oder Variablen erstellen.

    Die Antwort auf die oben genannte Automatisierung lautet wie folgt:


    Antwort der serverlosen Inferenz von Hugging Face

    Sie können das Ausgabe-JSON mit dem JSON-Paket parsen, um die gewünschte Ausgabe abzuleiten.

Weitere Beispiele

Die folgende Automatisierung zeigt Text-zu-Bild, Bild-zu-Text und Text-zu-Audio-Generierungsfunktionen unter Verwendung des Hugging Face: Serverlose Inferenzaktion. Jedes Beispiel wird in den nachfolgenden Abschnitten im Detail erklärt.


Hugging Face-Beispiele

Text-zu-Bild

Das folgende Beispiel demonstriert die Fähigkeit zur Text-zu-Bild-Generierung mit dem Hugging Face: Serverlose Inferenzaktion:


Text-zu-Bild-Beispiel mit Hugging Face Automation Anywhere
Anmerkung: Geben Sie einen Daten-Dateipfad an, auf den das Bild wird gespeichert wird.

Bild-zu-Text

Das folgende Beispiel demonstriert die Fähigkeit zur Bild-zu-Text-Generierung mit dem Hugging Face: Serverlose Inferenzaktion:


Bild-zu-Text-Beispiel mit Hugging Face Automation Anywhere
Anmerkung: Konvertieren Sie das Bild in ein Base64-Format mit der Aktion Base64 Conversion >> Base64 Encode, bevor Sie es dem Modell zuführen. Das Modell benötigt das Bild in diesem Format, um Text genau zu generieren.

Text-zu-Audio

Die folgenden Beispiele demonstrieren die Fähigkeit zur Text-zu-Audio-Generierung mit dem Hugging Face: Serverlose Inferenzaktion:


Text-zu-Audio-Beispiel mit Hugging Face Automation Anywhere
Anmerkung: Geben Sie einen Daten-Dateipfad an mit einer Erweiterung, zu der der Eingabetext in der Anforderungs-Nutzlast in ein Audioformat konvertiert wird.