GOAT.AI - Task to AI Agents 소개
에이전트 작업의 목표 지향적 조정. 기본적으로 AI 에이전트는 작업을 실행하기 위해 서로 통신합니다.
예: "다음 달 20km 세미 마라톤에 가장 좋은 날을 선택하세요." AI가 협업을 시작합니다. 날씨 에이전트는 일기예보를 검색하고, 웹 검색 에이전트는 최적의 달리기 조건을 식별하며, Wolfram 에이전트는 "가장 좋은 날"을 계산합니다. 이는 복잡한 작업을 정교하게 단순화하는 연결된 AI의 예술입니다.
자율 에이전트의 중앙 메인프레임인 LLM은 흥미로운 개념입니다. AutoGPT, GPT-Engineer 및 BabyAGI와 같은 데모는 이 아이디어를 간단하게 보여줍니다. LLM의 잠재력은 잘 쓰여진 사본, 이야기, 에세이 및 프로그램을 생성하거나 완성하는 것 이상으로 확장됩니다. 이들은 강력한 일반 작업 해결자로 구성될 수 있으며, 이것이 GOAT.AI(Goal Oriented Orchestration of Agent Taskforce) 구축에서 달성하려는 목표입니다.
LLM 에이전트 태스크 포스 시스템의 목표 지향적 조율이 제대로 존재하고 작동하려면 시스템의 세 가지 주요 핵심 구성 요소가 제대로 작동해야 합니다.
- 개요
1) 기획
- 하위 목표 및 분해: 에이전트는 대규모 작업을 더 작고 관리 가능한 하위 목표로 나누어 복잡한 할당을 더 쉽게 효율적으로 처리할 수 있도록 합니다.
- 반성 및 개선: 에이전트는 과거 행동에 대한 자기 비판 및 반성을 통해 실수로부터 학습하고 향후 단계에 대한 접근 방식을 개선함으로써 결과의 전반적인 품질을 향상시킵니다.
2) 기억
- 단기 기억: 모델이 품질 저하 없이 답변하기 전에 처리할 수 있는 텍스트의 양을 나타냅니다. 현재 상태에서 LLM은 약 128,000개의 토큰에 대해 품질 저하 없이 답변을 제공할 수 있습니다.
- 장기 기억: 이를 통해 에이전트는 장기간에 걸쳐 컨텍스트에 대한 정보를 무제한으로 저장하고 회상할 수 있습니다. 이는 효율적인 RAG 시스템을 위해 외부 벡터 저장소를 사용하여 달성되는 경우가 많습니다.
3) 행동 공간
- 에이전트는 모델 가중치(사전 학습 후 수정하기 어려운 경우가 많음)에서 사용할 수 없는 추가 정보를 얻기 위해 외부 API를 호출하는 기능을 획득합니다. 여기에는 현재 정보 액세스, 코드 실행, 독점 정보 소스 액세스, 가장 중요한 정보 검색을 위한 다른 에이전트 호출이 포함됩니다.
- 행동공간은 무언가를 되찾는 것을 목적으로 하는 것이 아니라 특정 행동을 수행하고 그 결과를 얻는 것을 포함하는 행동도 포함한다. 이러한 작업의 예로는 이메일 보내기, 앱 실행, 현관문 열기 등이 있습니다. 이러한 작업은 일반적으로 다양한 API를 통해 수행됩니다. 또한 에이전트는 액세스 권한이 있는 실행 가능한 이벤트에 대해 다른 에이전트를 호출할 수도 있다는 점에 유의하는 것이 중요합니다.
예: "다음 달 20km 세미 마라톤에 가장 좋은 날을 선택하세요." AI가 협업을 시작합니다. 날씨 에이전트는 일기예보를 검색하고, 웹 검색 에이전트는 최적의 달리기 조건을 식별하며, Wolfram 에이전트는 "가장 좋은 날"을 계산합니다. 이는 복잡한 작업을 정교하게 단순화하는 연결된 AI의 예술입니다.
자율 에이전트의 중앙 메인프레임인 LLM은 흥미로운 개념입니다. AutoGPT, GPT-Engineer 및 BabyAGI와 같은 데모는 이 아이디어를 간단하게 보여줍니다. LLM의 잠재력은 잘 쓰여진 사본, 이야기, 에세이 및 프로그램을 생성하거나 완성하는 것 이상으로 확장됩니다. 이들은 강력한 일반 작업 해결자로 구성될 수 있으며, 이것이 GOAT.AI(Goal Oriented Orchestration of Agent Taskforce) 구축에서 달성하려는 목표입니다.
LLM 에이전트 태스크 포스 시스템의 목표 지향적 조율이 제대로 존재하고 작동하려면 시스템의 세 가지 주요 핵심 구성 요소가 제대로 작동해야 합니다.
- 개요
1) 기획
- 하위 목표 및 분해: 에이전트는 대규모 작업을 더 작고 관리 가능한 하위 목표로 나누어 복잡한 할당을 더 쉽게 효율적으로 처리할 수 있도록 합니다.
- 반성 및 개선: 에이전트는 과거 행동에 대한 자기 비판 및 반성을 통해 실수로부터 학습하고 향후 단계에 대한 접근 방식을 개선함으로써 결과의 전반적인 품질을 향상시킵니다.
2) 기억
- 단기 기억: 모델이 품질 저하 없이 답변하기 전에 처리할 수 있는 텍스트의 양을 나타냅니다. 현재 상태에서 LLM은 약 128,000개의 토큰에 대해 품질 저하 없이 답변을 제공할 수 있습니다.
- 장기 기억: 이를 통해 에이전트는 장기간에 걸쳐 컨텍스트에 대한 정보를 무제한으로 저장하고 회상할 수 있습니다. 이는 효율적인 RAG 시스템을 위해 외부 벡터 저장소를 사용하여 달성되는 경우가 많습니다.
3) 행동 공간
- 에이전트는 모델 가중치(사전 학습 후 수정하기 어려운 경우가 많음)에서 사용할 수 없는 추가 정보를 얻기 위해 외부 API를 호출하는 기능을 획득합니다. 여기에는 현재 정보 액세스, 코드 실행, 독점 정보 소스 액세스, 가장 중요한 정보 검색을 위한 다른 에이전트 호출이 포함됩니다.
- 행동공간은 무언가를 되찾는 것을 목적으로 하는 것이 아니라 특정 행동을 수행하고 그 결과를 얻는 것을 포함하는 행동도 포함한다. 이러한 작업의 예로는 이메일 보내기, 앱 실행, 현관문 열기 등이 있습니다. 이러한 작업은 일반적으로 다양한 API를 통해 수행됩니다. 또한 에이전트는 액세스 권한이 있는 실행 가능한 이벤트에 대해 다른 에이전트를 호출할 수도 있다는 점에 유의하는 것이 중요합니다.
더 보기