- Turing Post Korea
- Posts
- 2025년 상반기 'AI 101' 되짚기: 9가지 중요 기법
2025년 상반기 'AI 101' 되짚기: 9가지 중요 기법
튜링포스트 코리아 'AI 101 섹션'에서 다룬 것들 중 가장 중요한 핵심 기법들, 다시 한 번 상기해 봅시다

2025년의 상반기를 마무리하는 지금 이 시점에서, 말씀드린 바와 같이 튜링 포스트 코리아는 상반기에 있었던 여러 가지 새로운 기술, 모델 등을 여러분들과 함께 돌아보면서 Recap하는 시간을 가지고 있습니다.
구독자분들이 많이 봐 주시는 ‘AI 101’ 섹션에서 올해 상반기에 포스팅했던 글들을 세 가지 주제로 나눠서 정리하고 있는데요:
핵심적인 기법들 (Methodology & Technique)
주목할 모델들 (AI Models)
AI 영역의 핵심 개념들
오늘은, 그 중 첫 번째로, 2025년 1월부터 6월까지 ‘AI에 대한 우리의 사고방식’에 큰 영향을 준 9가지 주요 기술과 기법을 되짚어 봅니다.
살펴볼 내용이 많기는 하지만, 즐거운 Recap이 되기를 바랍니다!
1. 계속되는 RAG의 진화 - HtmlRAG, 멀티모달 RAG, 에이전틱 RAG을 알아보자
기존의 RAG(Retrieval-Augmented Generation) 기법으로는 불가능했던 일들을 이 세 가지 새로운 RAG 기법을 통해서 할 수 있습니다:
HtmlRAG는 HTML 형식의 문서를 그대로 읽고 활용하게 해 주고,
멀티모달 RAG는 이미지 같은 시각 정보를 검색하고 활용할 수 있게 해 주고,
에이전틱 RAG는 에이전트처럼 목적에 따라서 스스로 판단하고 행동할 수 있는 능력을 RAG에 결합했습니다.
아래 링크의 에피소드에서, 이 세 가지 기법이 어떤 것인지, 왜 주목할 만한지 자세히 살펴보았습니다:
2. ‘지식 증류(Knowledge Distillation)’의 모든 것
지식 증류(Knowledge Distillation), 10여년 전에 처음 제안된 기법이지만, 최근에 더 중요한 AI 기법으로 자리잡고 있죠. 이 지식 증류는, 더 큰 모델(교사 모델)의 지식을 더 작은 모델(학생 모델)에게 효과적으로 전달하는 방식인데, 이 방식으로 작은 모델도 큰 모델의 능력을 어느 정도 이어받을 수 있게 됩니다.
이 글에서는, 지식 증류의 핵심적인 개념부터 꼭 알아야 할 주요 포인트들을 간단하게 정리했습니다:
지식 증류의 기본 개념
다양한 증류 방식
스케일링의 법칙
실제 적용 사례
DeepSeek 덕분에 다시 주목받고 있는 가장 뜨거운 주제 중 하나이니, 아래 글을 통해서 한 번 그 내용을 확인해 보셔도 좋겠습니다:
3. ‘프롬프트 최적화’의 핵심
NTT Data의 AI 엔지니어인 이사벨 곤잘레스(Isabel González)가 정리한 ‘실전 중심의 프롬프트 최적화 전략’은, 더 나은 응답을 이끌어내기 위한 네 가지 핵심 원칙을 중심으로 구성됩니다:
확장(Expansion), 분해(Decomposition), 모호성 제거(Disambiguation), 추상화(Abstraction)가 바록 그 네 가지죠.
실제 업무나 프로젝트에서 바로 적용해 볼 만한 전략이라고 생각합니다:
4. DeepSeek-R1의 비밀 레시피, GRPO, 그리고 Flow-GRPO를 알아봅시다.
DeepSeek의 GRPO(Group Relative Policy Optimization)는 기존의 강화학습 기법인 PPO(Proximal Policy Optimization)를 새롭게 변형한 방식이죠. 기존처럼 '비평자 모델(Critic)'의 평가에 의존하지 않고, 모델이 스스로의 출력 결과를 기준으로 학습하도록 설계되어 있습니다.
이 방식 덕분에, 복잡한 수학 문제나 코딩 작업, 그리고 긴 CoT (Chain-of-Thought; 사고의 흐름) 추론이 필요한 Reasoning 모델에서 특히 효율적으로 작동합니다.
이 글에서는, GRPO를 Flow 모델에 적용한 형태인 Flow-GRPO도 함께 소개했습니다.
강화학습이 어떻게 현실의 한계를 돌파하기 위해서 진화하고 있는지, 그 중심에 어떤 기술이 있는지 확인해 보시고, 또 GRPO가 Flow 모델에 실제로 어떻게 적용되는지도 함께 살펴보시죠:
5. CoA(Chain-of-Agents), CoRAG(Chain-of-RAG)은 무엇인가?
2025년을 대표하는 AI 트렌드, 단연 Chain-of-... 기법, 그리고 에이전트라고 생각합니다. 그리고 RAG(Retrieval-Augmented Generation)도 여전히 가장 뜨거운 주제 중 하나구요.
이 에피소드에서는 특히 주목할 만한 두 가지 혁신적인 기법을 소개합니다:
구글의 Chain-of-Agents(CoA):
긴 문맥이 필요한 작업을 위해서 다수의 에이전트를 구조화된 체인 형태로 연결해서 협업하도록 만든 방식입니다.마이크로소프트의 Chain-of-RAG(CoRAG):
정보를 한 번에 찾는 것이 아니라, 여러 단계를 거치면서 반복적으로 검색하고 추론을 해서, 강력한 멀티홉(Reasoning)을 가능하게 해 줍니다.
요즘의 AI 트렌드를 이해하고 싶다면 꼭 읽어야 할 글이 아닐까 합니다:
6. 추론 (Reasoning) 모델의 엄청난 메모리 사용량, 어떻게 줄일 수 있을까?
요즘 AI 분야에서 추론 과정에서 사고의 흐름을 단계별로 설명하는 Reasoning 모델이 점점 더 주목받고 있죠? 하지만 이런 방식은 메모리의 사용량이 급격히 증가한다는 문제가 있습니다.
이 글에서는 이 문제를 해결하기 위한 두 가지 주요 접근법을 소개합니다:
LightThinker:
모델이 스스로의 '생각의 흐름'을 요약하는 법을 학습하도록 도와주는 방식입니다. 이 요약은 짧고 의미 있는 형태로 정리되고, 모델은 이를 기반으로 해서 문제를 해결할 수 있게 됩니다.DeepSeek의 Multi-head Latent Attention (MLA) 메커니즘: ‘KV 캐시(Key-Value Cache)’를 훨씬 더 작은 형태로 압축해서, 메모리의 부담을 줄입니다.
또 이 두 가지 기술을 결합하는 새로운 아이디어도 함께 제안합니다. AI 모델이 더 적은 메모리로도 깊이 있는 사고를 할 수 있도록 만드는, 가볍고 똑똑한 접근법들을 함께 살펴보세요:
7. Slim Attention, KArAt, XAttention - 혁신적 어텐션 기법 3가지
우리가 매일 사용하는 AI 모델들을 한 단계 더 발전시켜주는 세 가지 주목할 만한 어텐션 메커니즘이 있습니다:
Slim Attention:
긴 문맥(Context)을 더 빠르게 처리할 수 있게, 그리고 메모리 사용량을 최대 32배까지 줄여주는 효율적인 방식입니다.XAttention:
긴 텍스트나 영상처럼 길이가 긴 시퀀스에서, Sparse Attention(희소 어텐션)의 성능을 더욱 향상시키는 기법입니다.Kolmogorov-Arnold Attention (KArAt 및 Fourier-KArAt):
기존 방식과 전혀 다른 접근입니다. 어텐션 자체가 학습 가능하고, 상황에 따라 적응할 수 있도록 설계된 새로운 형태의 메커니즘입니다.
이 글에서는 이 세 가지 어텐션 방식 각각의 특징, 장점과 단점, 그리고 미래 가능성까지 깊이 있게 살펴봅니다. AI 모델의 속도와 효율을 높이는데 관심이 있는 분들이라면 꼭 볼 만한 글입니다:
8. 'MoE 2.0'이란 무엇인가?
Mixture-of-Experts(MoE)는 오랜 역사를 가진 고전적인 AI 기법이지만, 지금 이 순간에도 빠르게 진화하고 있는데요. 이번 글에서는 MoE의 최신 흐름을 완전히 새로운 시각에서 조명합니다.
특히 다음과 같은 최신 기술들을 다룹니다:
S’MoRE(Structural Mixture of Residual Experts):
잔차(Residual) 구조를 기반으로 한 MoE의 새로운 형태Symbolic-MoE:
언어 공간 내에서 기호(Symbol) 수준으로 작동하는 MoE로, 완전히 언어 기반 모델에서도 활용이 가능eMoE, MoEShard, Speculative-MoE, MoE-Gen 등
다양한 환경과 목적에 맞춰 최적화된 최신 기법들
이제 MoE는 단순히 모델을 "쪼개서 쓰는" 기술이 아니라, 다음 세대 AI를 위한 핵심 구성 요소로 떠오르고 있습니다.
이 글을 통해서, 새롭게 등장한 MoE 기법들이 어떤 의미를 갖고 있는지, 앞으로 AI 기술의 방향성에 어떤 영향을 줄 수 있는지를 함께 살펴봅니다:
9. AI가 스스로 만든 함정에서 AI를 구하자: HITL과 합성 데이터의 진화
AI가 스스로 학습하는 시대, 합성 데이터(Synthetic Data)의 역할은 점점 커지고 있습니다. 하지만 이런 인공적으로 생성된 데이터가 실제로 현실적이고, 안전하고, 쓸모가 있으려면, 여전히 사람의 개입(HITL, Human-in-the-Loop)이 중요합니다.
이번 글에서는:
AI가 생성한 데이터를 사람이 어떻게 검토하고, 수정하고, 유효성을 검증하는지
이런 HITL 시스템이 실제 프로젝트에서 어떻게 적용되고 있는지
대표적인 실제 사례들
을 중심으로, 합성 데이터를 더 유용하고 안전하게 만드는 방식을 자세히 소개합니다.
AI 자가학습 시대, 합성 데이터를 믿을 수 있게 만드는 힘 — 사람의 개입. 현실성과 신뢰성을 동시에 확보하기 위한 핵심 전략을 함께 살펴볼 수 있는 글입니다:
읽어주셔서 감사합니다. 친구와 동료 분들에게도 뉴스레터 추천해 주세요!
Reply