• Turing Post Korea
  • Posts
  • LLM 기능을 확장하는 9가지 'Chain-of-X' 기법

LLM 기능을 확장하는 9가지 'Chain-of-X' 기법

CoT (Chain-of-Thought) 프롬프팅은, 복잡한 문제를 논리적인 단계별 순서로 나눠서 해결하도록 해서 ‘AI 모델의 추론 능력을 향상’시켜 줍니다. 특히 이 기법은 최고의 성능을 보여주는 추론 모델에서 그 효과를 계속 입증하고 있는데요. 그렇지만, CoT를 확장하고 다양한 목적으로 사용할 수 있는 유사한 다른 방법들도 있고, 오늘은 그런 방법 9가지에 대해 이야기해 보려고 합니다:

  1. Chain-of-Action-Thought (COAT) → Satori: Reinforcement Learning with Chain-of-Action-Thought Enhances LLM Reasoning via Autoregressive Search (2502.02508)
    모델이 언제 더 생각을 해 볼지, 작업을 재확인하거나 다른 접근 방식을 시도해 볼지 등을 가이드하는 특별한 토큰을 사용해서 그 과정의 결정을 도와줍니다.

  2. Chain of Draft (CoD)Thinking Faster by Writing Less (2502.18600)
    모델이 ‘짧지만 의미 있는’ 추론 단계를 만들 수 있도록 해서, 비용을 절감하면서도 처리 속도를 향상시켜 줍니다.

  3. Chain-of-AgentsChain of Agents: Large Language Models Collaborating on Long-Context Tasks (2406.02818)
    멀티 에이전트 협업을 활용하는 구조로, 작업하는 에이전트가 구조화된 체인에서 텍스트 부분을 처리하고, 관리자 에이전트가 결과를 요약합니다.

  4. Chain-of-RAGChain-of-Retrieval Augmented Generation (2501.14342)
    모든 정보를 한 번에 검색하는 대신 ‘검색 체인’을 만듭니다. 검색 과정, 단계의 숫자 같은 파라미터를 다이나믹하게 조정할 수 있습니다.

  5. Chain-of-Shot Prompting (CoS)CoS: Chain-of-Shot Prompting for Long Video Understanding (2502.06428)
    이진 (Binary) 비디오 요약, 그리고 비디오 공동 추론 (Co-Reasoning) 모듈을 사용해서, 모델이 비디오를 이해하는데 더 의미가 있는 중요한 프레임을 선택하게 도와줍니다.

  6. Chain of Hindsight (CoH)Chain of Hindsight Aligns Language Models with Feedback (2302.02676)
    모든 피드백을 시퀀스로 변환, 모델을 파인튜닝하고 출력값을 개선합니다.

  7. Chain-of-Note (CoN)Chain-of-Note: Enhancing Robustness in Retrieval-Augmented Language Models (2311.09210)
    최종 답변에 정보를 통합하기 전에 관련성 (Relevance)을 평가하기 위해서, 각각의 검색된 문서에 대해서 순차적인 노트를 생성합니다.

  8. Chain of Diagnosis (CoD)CoD, Towards an Interpretable Medical Agent using Chain of Diagnosis (2407.13301)
    진단의 과정을 진단 체인 (Diagnosis Chain)으로 변환합니다.

  9. Chain-of-KnowledgeWhat are Chains (!) of Knowledge?
    정확성을 향상시키고 오류를 줄이기 위해서, 외부의 지식을 다이나믹하게 끌어들여 활용, LLM을 강화해 줍니다.

*읽어주셔서 감사합니다. 재미있게 보셨다면 친구와 동료 분들에게도 뉴스레터를 추천해 주세요.

Reply

or to participate.