Anthropic: Prompt AI 작업

Anthropic Prompt AI 작업은 자동화를 Amazon Bedrock Anthropic Prompt AI 기능에 연결합니다. 이러한 작업을 통해 자동화 기능이 사용자 정의 프롬프트에 따라 인간 수준의 텍스트를 생성하고, 언어를 번역하고, 다양한 유형의 창의적인 콘텐츠를 작성하고, 유익한 방식으로 질문에 답변할 수 있습니다.

전제 조건

  • 봇에서 Anthropic Prompt AI 작업을 사용하려면 Bot Creator 역할이 있어야 합니다.
  • 요청을 보내는 데 필요한 자격증명이 있는지 확인하십시오. 자격증명을 얻는 것에 대한 자세한 내용은 Amazon Bedrock: 인증 작업 항목을 참조하십시오.

이 예시에서는 Anthropic Prompt AI 작업을 사용하여 자연어 메시지를 보내고 적절한 답변을 얻는 방법을 보여줍니다.

프로시저

  1. Automation Anywhere Control Room에서 작업 창으로 이동하여 생성형 AI > Amazon Bedrock을 선택하고 Anthropic: Prompt AI를 드래그하여 캔버스에 놓습니다.
  2. 다음 필드를 입력하거나 선택합니다.

    Anthropic 프롬프트 AI

    1. 지역을 입력합니다. 지역에 대한 자세한 내용은 Amazon Bedrock GA 지역을 참조하십시오.
    2. 모델 드롭다운에서 프롬프트에 사용할 LLM(대규모 언어 모델)을 선택합니다. 다음 모델을 선택할 수 있습니다.
      • Claude Instant v1.2
      • Claude v1.3
      • Claude v2
      • Claude v2.1
      • Claude 3 Sonnet v1
      • Claude 3 Haiku v1
      • 기타 지원 버전을 클릭하여 지원되는 다른 모델을 입력합니다.
      주: Claude 3 Sonnet v1 또는 Claude 3 Haiku v1을 선택하면 시스템 프롬프트(선택 사항)를 입력할 수 있는 텍스트 상자가 나타납니다. Claude 3의 시스템 프롬프트는 대규모 언어 모델이 사용자와 상호 작용하기 전에 컨텍스트, 지침 및 가이드라인을 제공하는 방법입니다. 이것은 대화를 위한 설정처럼 작동하여 Claude 3에게 사용자가 기대하는 바를 알려줍니다. 시스템 프롬프트에 대한 자세한 내용은

      시스템 프롬프트Anthropic Claude Messages API 항목을 참조하십시오.

    3. 모델이 응답을 생성하는 데 사용할 프롬프트 메시지를 입력합니다.
    4. 최대 길이를 입력합니다.
      기본적으로 값을 입력하지 않으면 생성된 응답의 길이를 고려하여 선택한 모델의 최대 컨텍스트 길이 이내로 유지되도록 길이가 자동으로 설정됩니다.
    5. 온도를 입력합니다. 이 값은 응답의 무작위성을 나타냅니다. 온도가 0에 가까워질수록 반응이 더 중점적이고 결정적으로 나타납니다. 값이 높을수록 응답이 무작위일 가능성이 높습니다.
    6. 현재 세션으로 제한하려면 세션 이름으로 Default를 입력합니다.
    7. 선택적 매개변수를 관리하려면 옵션 더 보기를 클릭하고 를 선택합니다. 를 선택하면 다음과 같은 다른 매개변수를 추가할 수 있습니다. Top P, Top K, 순서 중지 또는 Anthropic 버전을 입력합니다. 이러한 선택적 매개변수에 대한 자세한 내용은 Learn Models를 참조하십시오.
    8. 응답을 변수에 저장합니다.
      예제에서는 응답이 str_Anthropic_promptResponse에 저장됩니다.
  3. 실행을 클릭하여 을 시작합니다.
    메시지 상자 작업에 있는 응답을 인쇄하면 필드의 값을 읽을 수 있습니다. 이 예제에서는 str_Anthropic_promptResponse가 응답을 인쇄합니다.