Anthropic: action de Prompt de AI

Anthropic A ação de Prompt de IA ​​conecta automações à funcionalidade de Prompt de IA do Amazon Bedrock Anthropic. Ela permite que as automações gerem texto de qualidade humana, traduzam idiomas, escrevam diferentes tipos de conteúdo criativo e respondam a perguntas de forma informativa, tudo com base em instruções definidas pelo usuário.

Pré-requisitos

  • Você precisa ter a função Criador de bots para usar a ação de Prompt de AI Anthropic em um bot.
  • Certifique-se de que você tenha as credenciais necessárias para enviar uma solicitação. Para obter mais informações sobre como adquirir credenciais, consulte Amazon Bedrock: Authenticate action.

Este exemplo mostra como enviar uma mensagem em linguagem natural usando a ação de Prompt de IA Anthropic e obter uma resposta adequada.

Procedimento

  1. Na Automation Anywhere Control Room, acesse o painel Ações, selecione IA generativa > Amazon Bedrock, arraste Anthropic: Use Prompt de AI e coloque-o na tela.
  2. Insira ou selecione os seguintes campos:

    Anthropic Prompt AI

    1. Insira a Região. Para obter informações sobre região, consulte Regiões do Amazon Bedrock GA.
    2. Selecione um LLM (Large Language Model, grande modelo de linguagem) para usar para o seu prompt na lista suspensa Modelo. É possível selecionar os seguintes modelos:
      • Claude Instant v1.2
      • Claude v1.3
      • Claude v2
      • Claude v2.1
      • Claude 3 Sonnet v1
      • Claude 3 Haiku v1
      • Outra versão suportada para inserir outros modelos suportados.
      Nota: When you select Claude 3 Sonnet v1 or Claude 3 Haiku v1, a text box appears for entering a System Prompt (optional). A system prompt in Claude 3 is a way to provide context, instructions, and guidelines to the large language model before it interacts with you. It acts like a set-up for the conversation, letting Claude 3 know what you expect from it. For more information on system prompt, see

      Use system prompts and Anthropic Claude Messages API.

    3. Envie uma mensagem no prompt para ser usada pelo modelo para gerar uma resposta.
    4. Insira o Comprimento máximo.
      Por padrão, se você não inserir um valor, o tamanho máximo será definido automaticamente para mantê-lo dentro do comprimento máximo de contexto do modelo selecionado, considerando o comprimento da resposta gerada.
    5. Digite uma Temperatura. Esse valor se refere à aleatoriedade da resposta. À medida que a temperatura se aproxima de zero, a resposta se torna mais focada e determinística. Quanto maior o valor, mais aleatória é a resposta.
    6. Digite Padrão como o nome da sessão para limitar a sessão à sessão atual.
    7. Para gerenciar os parâmetros opcionais, clique em Mostrar mais opções e selecione Sim. Se você selecionar Sim, poderá adicionar outros parâmetros, como: Top P, Top K, Interromper sequências ou inserir uma Versão antrópica. Para mais informações sobre esses parâmetros opcionais, consulte Aprender modelos.
    8. Salve a resposta em uma variável.
      Neste exemplo, a resposta é salva como str_Anthropic_promptResponse.
  3. Clique em Executar para iniciar o bot.
    Você pode ler o valor do campo imprimindo a resposta em uma action de Caixa de mensagem. Neste exemplo, str_Anthropic_promptResponse imprime a resposta.