Action Vertex Prompt AI

L'action Vertex Prompt AI utilise l'API PaLM de Google, qui permet d'accéder à la capacité du modèle à générer du texte. Vous pouvez donner au modèle une invite de texte en anglais et il complétera le texte.

Prérequis

  • Vous devez avoir le rôle de Créateur de robot pour utiliser l'action Vertex Prompt AI dans un robot.
  • Assurez-vous de disposer des informations d'identification nécessaires pour envoyer une demande. Pour obtenir des informations sur l'acquisition d'informations d'identification, consultez L'action Vertex AI : Action Se connecter.

Cet exemple montre comment envoyer une invite en langage naturel à l'aide de l'action Vertex Prompt AI et obtenir une réponse appropriée.

Procédure

  1. Dans la Automation Anywhere Control Room, accédez au volet Actions, sélectionnez IA générative > Google, faites glisser Vertex Prompt AI et placez-le dans le canevas.
  2. Renseignez ou sélectionnez les champs suivants :

    Action Google Vertex Prompt AI

    1. Saisissez le Numéro/Nom du projet. Il s'agit de l'identifiant de projet unique du GCP. Pour plus d'informations sur l'identifiant de projet, voir Identifiant projet de Google Cloud Project.
    2. Cliquez sur le menu déroulant Éditeur et sélectionnez Google ; ou sélectionnez Tiers pour accéder à un éditeur tiers.
    3. Cliquez sur le menu déroulant Modèle et sélectionnez un modèle pour envoyer une invite.
      • code-bison@001 : modèle adapté pour générer du code en fonction d'une description en langage naturel du code souhaité. Par exemple, il peut générer un test unitaire pour une fonction.
      • code-gecko@001 : modèle adapté pour suggérer l'achèvement du code en fonction du contexte dans le code qui est écrit.
      • text-bison@001 : un modèle affiné pour suivre les instructions en langage naturel et adapté à une variété de tâches linguistiques.
      • text-bison (latest) : dernière version de texte-bison.
      • Personnalisé : sélectionnez Personnalisé pour ajouter un modèle personnalisé.
      Remarque :
      • Bison : meilleure valeur en termes de capacité et de coût.
      • Gecko : modèle le plus petit et le plus économique pour les tâches simples.
    4. Saisissez une Invite que le modèle utilisera pour générer une réponse.
    5. Indiquez le nombre maximal de jetons à générer. Par défaut, si vous ne saisissez pas de valeur, le nombre maximal de jetons générés est automatiquement fixé de manière à respecter la longueur maximale du contexte pour le modèle sélectionné en tenant compte de la longueur de la réponse générée.
    6. Saisissez une Température. Cette valeur fait référence au caractère aléatoire de la réponse. À mesure que la température se rapproche de zéro, la réponse devient plus ciblée et déterministe. Plus la valeur est élevée, plus la réponse est aléatoire.
    7. Saisissez Par défaut comme nom de session pour limiter la session à la session en cours.
    8. Pour gérer les paramètres facultatifs, cliquez sur Afficher plus d'options et sélectionnez Oui. Si vous sélectionnez Oui, vous pouvez ajouter d'autres paramètres tels que : Top K et Top P. Pour plus d'informations sur ces paramètres facultatifs, voir Apprendre les modèles.
    9. Enregistrez la réponse dans une variable. Dans cet exemple, la réponse est enregistrée dans google-vertex_prompt-response.
  3. Cliquez sur Exécuter pour démarrer le bot. Vous pouvez lire la valeur du champ en affichant la réponse dans l'action Zone de message. Dans cet exemple, google-vertex_prompt-response affiche la réponse.