Azure OpenAI: Acción Prompt AI

La acción Azure OpenAI: La acción Prompt AI utiliza el extremo de finalización de Microsoft Azure AI para generar texto. Este extremo de finalización proporciona acceso a la interfaz de entrada y salida de texto del modelo. Puede proporcionar al modelo una indicación en lenguaje natural y este generará una finalización.

Antes de empezar

  • Debe tener el rol Bot Creator para usar Azure OpenAI: acción Prompt AI en un bot.
  • Asegúrese de tener las credenciales necesarias para enviar una solicitud y haber incluido Authenticate action antes de invocar cualquier acción de Microsoft Azure OpenAI.

Este ejemplo muestra cómo enviar un indicador en lenguaje natural mediante Azure OpenAI: Prompt AI como acción y obtener una respuesta adecuada.

Procedimiento

  1. En la Automation Anywhere Control Room, navegue hasta el panel Acciones, seleccione IA generativa > Microsoft, arrastre Azure OpenAI: Prompt AI y colóquelo en el lienzo.
  2. Ingrese o seleccione los siguientes campos:

    Azure Prompt AI

    1. Para Autenticar, seleccione Última versión para usar Authenticate action con la clave API.
      Si selecciona Estar en desuso, puede autenticarse con la clave API sin llamar a la acción Autenticar.
      Nota: La opción Estar en desuso quedará obsoleta en la próxima versión.
    2. Introduzca Predeterminado como nombre de la sesión para limitarla a la sesión actual.
    3. Ingrese el ID de implementación. El ID de implementación está vinculado al modelo de lenguaje extenso (LLM) que desea utilizar para su indicador.
    4. Ingrese un Indicador que el modelo usará para generar una respuesta.
    5. Ingrese la cantidad máxima de tokens que desea generar. De manera predeterminada, si no ingresa un valor, la cantidad máxima de tokens generados se establece automáticamente para mantenerla dentro de la longitud máxima de contexto del modelo seleccionado considerando la longitud de la respuesta generada.
    6. Introduzca una Temperatura. Este valor se refiere a la aleatoriedad de la respuesta. A medida que la temperatura se acerca a cero, la respuesta se torna más focalizada y determinista. Cuanto más alto es el valor, más aleatoria es la respuesta.
    7. Haga clic en Mostrar más opciones y seleccione si desea administrar los parámetros opcionales. Si selecciona , puede agregar otros parámetros como los siguientes: Versión de API, Sufijo, Top P, N, Logprobs, Echo, Detener, Penalización de presencia, Penalización de frecuencia, Mejor de, Logit bias y Usuario. Para obtener más información sobre estos parámetros opcionales, consulte Finalizaciones de Azure Open AI.
    8. Guardar la respuesta en una variable. Por ejemplo, la respuesta se guarda en str_promptai_response.
  3. Haga clic en Ejecutar para iniciar el bot. El resultado de un indicador es una lista en la que puede establecer N como parámetro opcional y generar varios avisos para cada entrada. Para leer la respuesta del indicador, puede imprimir la respuesta en una acción de Cuadro de Mensaje. En este ejemplo, el primer elemento de la lista str_promptai_response[0] imprime la respuesta porque N se establece en 1.