- Turing Post Korea
- Posts
- LLM 기능을 확장하는 9가지 'Chain-of-X' 기법
LLM 기능을 확장하는 9가지 'Chain-of-X' 기법

CoT (Chain-of-Thought) 프롬프팅은, 복잡한 문제를 논리적인 단계별 순서로 나눠서 해결하도록 해서 ‘AI 모델의 추론 능력을 향상’시켜 줍니다. 특히 이 기법은 최고의 성능을 보여주는 추론 모델에서 그 효과를 계속 입증하고 있는데요. 그렇지만, CoT를 확장하고 다양한 목적으로 사용할 수 있는 유사한 다른 방법들도 있고, 오늘은 그런 방법 9가지에 대해 이야기해 보려고 합니다:
Chain-of-Action-Thought (COAT) → Satori: Reinforcement Learning with Chain-of-Action-Thought Enhances LLM Reasoning via Autoregressive Search (2502.02508)
모델이 언제 더 생각을 해 볼지, 작업을 재확인하거나 다른 접근 방식을 시도해 볼지 등을 가이드하는 특별한 토큰을 사용해서 그 과정의 결정을 도와줍니다.Chain of Draft (CoD) → Thinking Faster by Writing Less (2502.18600)
모델이 ‘짧지만 의미 있는’ 추론 단계를 만들 수 있도록 해서, 비용을 절감하면서도 처리 속도를 향상시켜 줍니다.Chain-of-Agents → Chain of Agents: Large Language Models Collaborating on Long-Context Tasks (2406.02818)
멀티 에이전트 협업을 활용하는 구조로, 작업하는 에이전트가 구조화된 체인에서 텍스트 부분을 처리하고, 관리자 에이전트가 결과를 요약합니다.Chain-of-RAG → Chain-of-Retrieval Augmented Generation (2501.14342)
모든 정보를 한 번에 검색하는 대신 ‘검색 체인’을 만듭니다. 검색 과정, 단계의 숫자 같은 파라미터를 다이나믹하게 조정할 수 있습니다.Chain-of-Shot Prompting (CoS) → CoS: Chain-of-Shot Prompting for Long Video Understanding (2502.06428)
이진 (Binary) 비디오 요약, 그리고 비디오 공동 추론 (Co-Reasoning) 모듈을 사용해서, 모델이 비디오를 이해하는데 더 의미가 있는 중요한 프레임을 선택하게 도와줍니다.Chain of Hindsight (CoH) → Chain of Hindsight Aligns Language Models with Feedback (2302.02676)
모든 피드백을 시퀀스로 변환, 모델을 파인튜닝하고 출력값을 개선합니다.Chain-of-Note (CoN) → Chain-of-Note: Enhancing Robustness in Retrieval-Augmented Language Models (2311.09210)
최종 답변에 정보를 통합하기 전에 관련성 (Relevance)을 평가하기 위해서, 각각의 검색된 문서에 대해서 순차적인 노트를 생성합니다.Chain of Diagnosis (CoD) → CoD, Towards an Interpretable Medical Agent using Chain of Diagnosis (2407.13301)
진단의 과정을 진단 체인 (Diagnosis Chain)으로 변환합니다.Chain-of-Knowledge → What are Chains (!) of Knowledge?
정확성을 향상시키고 오류를 줄이기 위해서, 외부의 지식을 다이나믹하게 끌어들여 활용, LLM을 강화해 줍니다.
*읽어주셔서 감사합니다. 재미있게 보셨다면 친구와 동료 분들에게도 뉴스레터를 추천해 주세요.
Reply