OpenAI: Acción Prompt AI

El OpenAI: La acción Prompt AI imita los complementos de OpenAI, que toma una pregunta como entrada y devuelve uno o más complementos predichos generados por el modelo.

Antes de empezar

  • Debe tener el Rol de creador de bots para usar la acción Prompt AI OpenAIen un bot.
  • Asegúrese de tener las credenciales necesarias para enviar una solicitud y haber incluido Acción Autenticar antes de llamar cualquier acción de OpenAI.

En este ejemplo, se muestra cómo enviar una consulta en lenguaje natural utilizando la acción Prompt AI OpenAI y obtener una respuesta adecuada.

Procedimiento

  1. En la Automation Anywhere Control Room, navegue hasta el panel Acciones, seleccione IA generativa > de OpenAI, arrastre OpenAI: Prompt AI y colóquelo en el lienzo.
  2. Ingrese o seleccione los siguientes campos:

    Inteligencia Artificial OpenAI Prompt

    1. Para Autenticar, seleccione Última versión para usar Acción Autenticar con la clave API.
      Si selecciona Estar en desuso, puede autenticarse con la clave API sin llamar a la acción Autenticar.
      Nota: La opción Estar en desuso quedará obsoleta en la próxima versión.
    2. Introduzca Predeterminado como nombre de la sesión para limitarla a la sesión actual.
    3. Seleccione un modelo de lenguaje extenso (LLM) para usar en su indicación del menú desplegable Modelo. Puede seleccionar los siguientes modelos:
      • gpt-3.5-turbo-instruct (predeterminado)
      • babbage-002
      • davinci-002
      • text-davinci-003 (obsoleto - 2024-01-04)
      • text-davinci-002 (obsoleto - 2024-01-04)
      • davinci (obsoleto - 2024-01-04)
      • text-curie-001 (obsoleto - 2024-01-04)
      • curie (obsoleto - 2024-01-04)
      • text-babbage-001 (obsoleto - 2024-01-04)
      • babbage (obsoleto - 2024-01-04)
      • text-ada-001 (obsoleto - 2024-01-04)
      • ada (obsoleto - 2024-01-04)
      • Otra versión compatible para ingresar otros modelos compatibles.
    4. Ingrese un Indicador que el modelo usará para generar una respuesta.
    5. Ingrese la cantidad máxima de tokens que desea generar. De manera predeterminada, si no ingresa un valor, la cantidad máxima de tokens generados se establece automáticamente para mantenerla dentro de la longitud máxima de contexto del modelo seleccionado considerando la longitud de la respuesta generada.
    6. Introduzca una Temperatura. Este valor se refiere a la aleatoriedad de la respuesta. A medida que la temperatura se acerca a cero, hace que la respuesta sea más focalizada y determinista. Cuanto más alto es el valor, más aleatoria es la respuesta.
    7. Para administrar los parámetros opcionales, seleccione en Mostrar más opciones, lo que le permitirá agregar otros parámetros, como: Sufijo, Top P, N, Logprobs, Echo, Detener, Penalización de presencia, Penalización de frecuencia, Mejor de, Logit Bias y Usuario. Para obtener información sobre estos parámetros opcionales, consulte Finalizaciones de Open AI.
    8. Guardar la respuesta en una variable. Por ejemplo, la respuesta se guarda en list_OpenAI_prompt_response.
  3. Haga clic en Ejecutar para iniciar el bot. El resultado de un indicador es una lista en la que puede establecer N como parámetro opcional y generar varios avisos para cada entrada. Para leer la respuesta del indicador, puede imprimir la respuesta en una acción de Cuadro de Mensaje. En este ejemplo, el primer elemento de la lista list_OpenAI_prompt_response[0] imprime la respuesta porque N se establece en 1.