Vertex AI: Chat AI 작업
- 최종 업데이트2024/10/31
Vertex AI: Chat AI 작업
Vertex AI: Chat AI 작업은 모델과 상호 작용하기 위해 Google의 Vertex AI 완성 API를 사용합니다. 대화 형식으로 텍스트를 생성합니다.
전제 조건
- Bot에서 Vertex Chat AI 작업을 사용하려면 Bot Creator 역할이 있어야 합니다.
- 요청을 보내는 데 필요한 자격증명을 보유하고 Google Cloud 작업을 호출하기 전에 Vertex AI: 연결 작업을 포함했는지 확인하십시오.
이 예시에서는 Vertex AI: Chat AI 작업을 사용하여 자연어 메시지를 보내고 적절한 답변을 얻는 방법을 보여줍니다.
프로시저
- Automation Anywhere Control Room에서 작업 창으로 이동하여 생성형 AI > Google을 선택하고 Vertex AI: Chat AI를 드래그하여 캔버스에 놓습니다.
-
다음 필드를 입력하거나 선택합니다.
- 프로젝트 번호/이름을 입력합니다. GCP의 고유한 프로젝트 ID입니다. 프로젝트 ID에 대한 자세한 내용은 Google Cloud 프로젝트의 프로젝트 ID를 참조하십시오.
- 위치를 입력합니다. Vertex AI 위치에 대한 자세한 내용은 Vertex AI 위치 항목을 참조하십시오.
- 게시자 드롭다운을 클릭하고 Google을 선택하거나 제3자를 선택하여 타사 게시자를 입력합니다.
-
모델 드롭다운에서 프롬프트에 사용할 LLM(대규모 언어 모델)을 선택합니다. 다음 모델을 선택할 수 있습니다.
- chat-bison(최신)
- chat-bison-32k(최신)
- chat-bison-32k@002
- chat-bison@001
- chat-bison@002
- codechat-bison
- codechat-bison-32k
- codechat-bison-32k@002
- codechat-bison@001
- codechat-bison@002
- GEMINI-1.0-PRO-001
- 기타 지원 버전을 클릭하여 지원되는 다른 모델을 입력합니다.
-
모델이 응답을 생성하는 데 사용할 채팅 메시지를 입력합니다.
주: 채팅 작업은 동일한 세션 내에서 이전 채팅 작업의 결과를 유지합니다. 채팅 작업을 연속적으로 호출하면 모델이 후속 메시지를 이해하고 이전 메시지와 연관시킬 수 있습니다. 그러나 세션이 종료되면 모든 채팅 기록이 삭제됩니다.
- 생성할 최대 토큰 수(최대 토큰)를 입력합니다. 기본적으로 값을 입력하지 않으면 생성된 응답의 길이를 고려하여 선택한 모델의 최대 컨텍스트 길이 이내로 유지되도록 생성되는 토큰의 최대 개수가 자동으로 설정됩니다.
- 온도를 입력합니다. 이 값은 응답의 무작위성을 나타냅니다. 온도가 0에 가까워질수록 반응이 더 중점적이고 결정적으로 나타납니다. 값이 높을수록 응답이 무작위일 가능성이 높습니다.
- 현재 세션으로 제한하려면 세션 이름으로 Default를 입력합니다.
-
선택적 매개변수를 관리하려면 옵션 더 보기를 클릭하고 예를 선택합니다. 예를 선택하면 다음과 같은 다른 매개변수를 추가할 수 있습니다. Context, Examples, Top K 및 Top P. 이러한 선택적 매개변수에 대한 자세한 내용은 모델 학습하기를 참조하십시오.
주: codechat-bison@002와 같은 Vertex AI 모델에서는 컨텍스트 및 예제를 제공하여 프롬프트를 구체화할 수 있지만, gemini-1.0-pro-001 모델은 현재 이러한 기능을 지원하지 않습니다. 이러한 필드는 인터페이스에서 사용할 수 있지만 비워 두어도 안전합니다.
- 응답을 변수에 저장합니다. 예제에서는 응답이 VertexChatResponse에 저장됩니다.
-
실행을 클릭하여 봇을 시작합니다. 메시지 상자
작업에 있는 응답을 인쇄하면 필드의 값을 읽을 수 있습니다. 이 예제에서는 VertexChatResponse가 응답을 인쇄합니다. 추가 채팅 요청을 추가하여 추가 응답을 받을 수 있습니다.
팁: 동일한 봇에서 여러 개의 채팅을 유지하려면, 서로 다른 이름이나 변수를 사용하여 여러 세션을 만들어야 합니다.