오늘은 대규모 언어 모델(LLM)이 긴 문맥을 처리하는 새로운 방법인 체인 오브 에이전트(Chain of Agents, CoA)에 대해 소개해드리려고 해요. 이 방법은 여러 에이전트가 협업해서 긴 문서를 효율적으로 분석하고, 복잡한 질문에도 정확하게 답할 수 있게 해준답니다. 기존 방법의 한계를 뛰어넘는 혁신적인 아이디어인데요, 함께 살펴볼까요?📌 기존 방법의 문제점입력 길이 줄이기 (Input Reduction)예시: RAG(Retrieval-Augmented Generation)는 관련 문맥만 추출해 답변을 생성합니다.단점: 중요한 정보를 놓칠 수 있고, "다단계 추론"이 필요한 질문에 취약해요.예를 들어, "A의 손자는 누구인가?"라는 질문에 A의 아들(B)과 B의 아들(C)을 연결해야 하는데, ..