Vertex AI : Action Prompt AI

Le Vertex AI : L'action Prompt AI utilise l'API PaLM de Google, qui permet d'accéder à la capacité du modèle à générer du texte. Vous pouvez donner au modèle une invite de texte en anglais et il complétera le texte.

Prérequis

  • Vous devez avoir le rôle de Créateur de robot pour utiliser l'action Vertex Prompt AI dans un robot.
  • Assurez-vous de disposer des informations d'identification nécessaires pour envoyer une demande et d'inclure Action Se connecter avant d'appeler toute action Google Cloud.

Cet exemple montre comment envoyer une invite en langage naturel à l'aide de l'action Vertex Prompt AI et obtenir une réponse appropriée.

Procédure

  1. Dans la Automation Anywhere Control Room, accédez au volet Actions, sélectionnez IA générative > Google, puis faites glisser l'action Vertex AI : Prompt AI et placez-la dans le canevas.
  2. Renseignez ou sélectionnez les champs suivants :

    Action Google Vertex Prompt AI

    1. Saisissez le Numéro/Nom du projet. Il s'agit de l'identifiant de projet unique du GCP. Pour plus d'informations sur l'identifiant de projet, voir Identifiant projet de Google Cloud Project.
    2. Spécifiez l'emplacement. Pour en savoir plus sur l'emplacement de Vertex AI, voir Emplacements de Vertex AI.
    3. Cliquez sur le menu déroulant Éditeur et sélectionnez Google ; ou sélectionnez Tiers pour accéder à un éditeur tiers.
    4. Sélectionnez un grand modèle de langage (LLM) à utiliser pour votre invite dans la liste déroulante Modèle. Vous pouvez sélectionner les modèles suivants :
      • text-bison (latest)
      • text-bison-32k (latest)
      • texte-bison-32k@002
      • text-bison@001
      • texte-bison@002
      • text-unicorn@001
      • code-bison (latest)
      • code-bison-32k@002
      • code-bison@001
      • code-bison@002
      • code-gecko@001
      • code-gecko@002
      • code-gecko
      • Autre version prise en charge pour entrer d'autres modèles pris en charge.
      Remarque :
      • Bison : meilleure valeur en termes de capacité et de coût.
      • Gecko : modèle le plus petit et le plus économique pour les tâches simples.
    5. Saisissez une Invite que le modèle utilisera pour générer une réponse.
    6. Entrez le nombre maximal de jetons (Jetons max) à générer. Par défaut, si vous ne saisissez pas de valeur, le nombre maximal de jetons générés est automatiquement fixé de manière à respecter la longueur maximale du contexte pour le modèle sélectionné en tenant compte de la longueur de la réponse générée.
    7. Saisissez une Température. Cette valeur fait référence au caractère aléatoire de la réponse. À mesure que la température se rapproche de zéro, la réponse devient plus ciblée et déterministe. Plus la valeur est élevée, plus la réponse est aléatoire.
    8. Saisissez Par défaut comme nom de session pour limiter la session à la session en cours.
    9. Pour gérer les paramètres facultatifs, cliquez sur Afficher plus d'options et sélectionnez Oui. Si vous sélectionnez Oui, vous pouvez ajouter d'autres paramètres tels que : Top K et Top P. Pour plus d'informations sur ces paramètres facultatifs, voir Apprendre les modèles.
    10. Enregistrez la réponse dans une variable. Dans cet exemple, la réponse est enregistrée dans google-vertex_prompt-response.
  3. Cliquez sur Exécuter pour démarrer le robot. Vous pouvez lire la valeur du champ en affichant la réponse dans une action Zone de message. Dans cet exemple, google-vertex_prompt-response affiche la réponse.