Acción Vertex AI: Acción Chat AI
Descargar como PDF
- Última actualización2024/10/31
Acción Vertex AI: Acción Chat AI
La acción Vertex AI: La acción de Chat AI utiliza la API de finalización Vertex AI de Google para interactuar con los modelos. Genera texto en formato conversacional.
Antes de empezar
- Debe tener el rol Bot Creator para usar la acción de VertexChat AI en un bot.
- Asegúrese de tener las credenciales necesarias para enviar una solicitud y haber incluido Vertex AI: Acción Conectar antes de invocar cualquier acción de Google Cloud.
Este ejemplo muestra cómo enviar un mensaje en lenguaje natural mediante Vertex AI: AcciónChat AI y obtener una respuesta adecuada.
Procedimiento
- En la Automation Anywhere Control Room, navegue hasta el panel Acciones, seleccione IA generativa > de Google, arrastre Vertex AI: Chat AI y colóquelo en el lienzo.
-
Ingrese o seleccione los siguientes campos:
- Ingrese el Número/Nombre del proyecto. Este es el ID del proyecto de GCP. Para obtener información sobre el ID del proyecto, consulte ID del proyecto de Google Cloud Project.
- Introduzca la ubicación. Para obtener más información sobre la ubicación de Vertex AI, consulte las Ubicaciones de Vertex AI.
- Haga clic en el menú desplegable Editor y seleccione Google; o seleccione Terceros para ingresar un editor externo.
-
Seleccione un modelo de lenguaje extenso (LLM) para usar en su indicador del menú desplegable Modelo. Puede seleccionar los siguientes modelos:
- chat-bison (último)
- chat-bison-32k (último)
- chat-bison-32k@002
- chat-bison@001
- chat-bison@002
- codechat-bison:
- codechat-bison-32k
- codechat-bison-32k@002
- codechat-bison@001
- codechat-bison@002
- gemini-1.0-pro-001
- Otra versión compatible para ingresar otros modelos compatibles.
-
Ingrese un mensaje para que el modelo lo use para generar una respuesta.
Nota: Las acciones de chat conservan el resultado de la acción de chat anterior dentro de la misma sesión. Si activa las acciones de chat consecutivamente, el modelo puede comprender los mensajes posteriores y relacionarlos con el mensaje anterior. Sin embargo, todo el historial de chat se elimina una vez finalizada la sesión.
- Ingrese la cantidad máxima de tokens (Máximo de tokens) que desea generar. De manera predeterminada, si no ingresa un valor, la cantidad máxima de tokens generados se establece automáticamente para mantenerla dentro de la longitud máxima de contexto del modelo seleccionado considerando la longitud de la respuesta generada.
- Introduzca una Temperatura. Este valor se refiere a la aleatoriedad de la respuesta. A medida que la temperatura se acerca a cero, la respuesta se torna más focalizada y determinista. Cuanto más alto es el valor, más aleatoria es la respuesta.
- Introduzca Predeterminado como nombre de la sesión para limitarla a la sesión actual.
-
Para administrar los parámetros opcionales, haga clic en Mostrar más opciones y seleccione Sí. Si selecciona Sí, puede agregar otros parámetros como los siguientes: Contexto, Ejemplos, Top K y Top P. Para obtener información sobre estos parámetros opcionales, consulte Modelos de aprendizaje.
Nota: Si bien los modelos Vertex AI, como codechat-bison@002, permiten proporcionar Contexto y Ejemplos para refinar las indicaciones, en la actualidad, el modelo gemini-1.0-pro-001 no es compatible con estas funciones. Si bien estos campos están disponibles en la interfaz, puede dejarlos vacíos de forma segura.
- Guardar la respuesta en una variable. Por ejemplo, la respuesta se guarda en VertexChatResponse.
-
Haga clic en Ejecutar para iniciar el bot. Podrá leer el valor del campo simplemente mediante la impresión de la respuesta en un Cuadro de mensaje
acción. En este ejemplo, VertexChatResponse imprime la respuesta. Puede agregar solicitudes de chat adicionales para obtener respuestas adicionales.
Consejo: Para mantener múltiples chats en el mismo bot, deberá crear múltiples sesiones con diferentes nombres o variables.