Anthropic: acción Prompt AI

La acción Prompt AI en Anthropic conecta las automatizaciones con la funcionalidad Prompt AI Amazon Bedrock Anthropic. Esta acción permite a las automatizaciones generar textos con calidad humana, traducir idiomas, escribir distintos tipos de contenido creativo y responder preguntas de manera informativa, todo ello a partir de indicaciones definidas por el usuario.

Antes de empezar

  • Debe tener el rol de Bot Creator para usar la acción de Anthropic Prompt AI en un bot.
  • Asegúrese de que dispone de las credenciales necesarias para enviar una solicitud. Para obtener más información sobre la adquisición de credenciales, consulte Amazon Bedrock: acción Autenticar.

En este ejemplo, se muestra cómo enviar un mensaje en lenguaje natural con la acción de Anthropic Prompt AI y obtener una respuesta adecuada.

Procedimiento

  1. En la Automation Anywhere Control Room, navegue hasta el panel Acciones, seleccione IA generativa > de Amazon Bedrock y arrastre Anthropic: Prompt AI y colóquelo en el lienzo.
  2. Ingrese o seleccione los siguientes campos:

    Anthropic Prompt AI

    1. Ingrese la Región. Para obtener información sobre la región, consulte Regiones de Amazon Bedrock GA.
    2. Seleccione un modelo de lenguaje extenso (LLM) para usar en su indicador del menú desplegable Modelo. Puede seleccionar los siguientes modelos:
      • Claude instantáneo v1.2
      • Claude v1.3:
      • Claude v2:
      • Claude v2.1:
      • Claude 3 Soneto v1
      • Claude 3 Haiku v1
      • Otra versión compatible para ingresar otros modelos compatibles.
      Nota: Cuando selecciona Claude 3 Sonnet v1 o Claude 3 Haiku v1, aparece un cuadro de texto para ingresar una indicación del sistema (opcional). Una indicación del sistema en Claude 3 es una forma de proporcionar contexto, instrucciones y pautas al modelo de lenguaje grande antes de que interactúe con usted. Actúa como una preparación para la conversación, lo que le permite a Claude 3 saber lo que espera de este modelo. Para obtener más información sobre la indicación del sistema, consulte

      Utilice las indicaciones del sistema y la API de mensajes de Anthropic Claude.

    3. Ingrese un mensaje inmediato para que el modelo lo use para generar una respuesta.
    4. Introducir la longitud máxima.
      De manera predeterminada, si no ingresa un valor, la longitud máxima se establece automáticamente para mantenerla dentro de la longitud máxima de contexto del modelo seleccionado considerando la longitud de la respuesta generada.
    5. Introduzca una Temperatura. Este valor se refiere a la aleatoriedad de la respuesta. A medida que la temperatura se acerca a cero, la respuesta se torna más focalizada y determinista. Cuanto más alto es el valor, más aleatoria es la respuesta.
    6. Introduzca Predeterminado como nombre de la sesión para limitarla a la sesión actual.
    7. Para administrar los parámetros opcionales, haga clic en Mostrar más opciones y seleccione . Si selecciona , puede agregar otros parámetros como los siguientes: Top P, Top K, Detener secuencias o ingresar una versión de Anthropic. Para obtener información acerca de estos parámetros opcionales, consulte ‌Modelos de aprendizaje‌.
    8. Guardar la respuesta en una variable.
      Por ejemplo, la respuesta se guarda en str_Anthropic_promptResponse.
  3. Haga clic en Ejecutar para iniciar el bot.
    Podrá leer el valor del campo simplemente mediante la impresión de la respuesta en un Cuadro de mensaje acción. En este ejemplo, str_Anthropic_promptResponse imprime la respuesta.