Titan de Amazon: acción Chat AI

Titan de Amazon: La acción Chat AI conecta las automatizaciones con la funcionalidad Titan chat AI de Amazon Bedrock. Esta acción permite a las automatizaciones entablar conversaciones naturales, informativas y contextualizadas con los usuarios, lo que proporciona una experiencia de automatización más personalizada y atractiva.

Antes de empezar

  • Debe tener el rol Bot Creator para usar Titan de Amazon: Acción Chat AI en un bot.
  • Asegúrese de tener las credenciales necesarias para enviar una solicitud y haber incluido Amazon Bedrock: acción Autenticar antes de llamar cualquier acción de Amazon Bedrock.

En este ejemplo, se muestra cómo enviar un mensaje en lenguaje natural con la acción Titan Chat AI y obtener una respuesta adecuada.

Procedimiento

  1. En la Automation Anywhere Control Room, navegue hasta el panel Acciones, seleccione IA generativa > de Amazon Bedrock y arrastre Amazon Titan: Chat AI y colóquelo en el lienzo.
  2. Ingrese o seleccione los siguientes campos:

    ‌Titan de Amazon: Acción Chat AI

    1. Ingrese la Región. Para obtener información sobre la región, consulte Regiones de Amazon Bedrock GA.
    2. Haga clic en el menú desplegable Modelo y seleccione un modelo con el cual comunicarse.
      • Titan Text G1 - Lite: Titan Text G1-Lite de Amazon es una versión más pequeña y eficiente del modelo Titan Text G1 de mayor tamaño, lo que lo hace más adecuado para dispositivos con recursos limitados.
      • Titan Text G1 - Express: El modelo Titan Text G1 - Express de Amazon es un modelo de lenguaje extenso (LLM) versátil y rentable diseñado para una amplia gama de tareas de generación de texto.
      • Otra versión compatible: Para ingresar otros modelos compatibles.
    3. Ingrese un mensaje para que el modelo lo use para generar una respuesta.
      Nota: Las acciones de chat conservan el resultado de la acción de chat anterior dentro de la misma sesión. Si activa las acciones de chat consecutivamente, el modelo puede comprender los mensajes posteriores y relacionarlos con el mensaje anterior. Sin embargo, todo el historial de chat se elimina una vez finalizada la sesión.
    4. Introduzca la longitud máxima.
      De manera predeterminada, si no ingresa un valor, la longitud máxima se establece automáticamente para mantenerla dentro de la longitud máxima de contexto del modelo seleccionado considerando la longitud de la respuesta generada.
    5. Introduzca una Temperatura. Este valor se refiere a la aleatoriedad de la respuesta. A medida que la temperatura se acerca a cero, la respuesta se vuelve específica. Cuanto más alto es el valor, más aleatoria es la respuesta.
    6. Introduzca Predeterminado como nombre de la sesión para limitarla a la sesión actual.
    7. Para administrar los parámetros opcionales, haga clic en Mostrar más opciones y seleccione . Si selecciona , puede agregar otros parámetros como los siguientes: Top P, Agregar instrucciones y Detener secuencias. Para obtener información acerca de estos parámetros opcionales, consulte ‌Modelos de aprendizaje‌.
    8. Guardar la respuesta en una variable. Por ejemplo, la respuesta se guarda en str_ChatResponse-1.
  3. Haga clic en Ejecutar para iniciar el bot.
    Podrá leer el valor del campo simplemente mediante la impresión de la respuesta en un Cuadro de mensaje acción. En este ejemplo, la primera respuesta del chat se almacena en str_ChatResponse-1. Puede agregar solicitudes de chat adicionales para obtener respuestas adicionales como se muestra en el ejemplo.
    Consejo: Para mantener múltiples chats en el mismo bot, deberá crear múltiples sesiones con diferentes nombres o variables.