Turing Post Korea logo
Turing Post Korea
뉴스레터 가입
  • Turing Post Korea
  • Topics
  • AI 101

AI 101

Interviews with InnovatorsAI 에이전트Community TwistGenAI UnicornsAI Infra Unicorns"Froth on the Daydream"Twitter LibraryAI 101Global AI Affairs
AI 101AI 101
Topic #36: '인과 (Causal) AI'란 무엇인가?
May 12, 2025

Topic #36: '인과 (Causal) AI'란 무엇인가?

Causal AI의 개요와 핵심 원칙, Causal AI가 앞으로 미칠 영향

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #35: '월드 모델 (World Models)'이란 무엇인가?
Apr 26, 2025

Topic #35: '월드 모델 (World Models)'이란 무엇인가?

월드 모델의 역사와 현재 - 그리고 'AI의 미래'를 그릴 때 월드 모델이 필수 요소인 이유

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #34: AI 추론 (Inference)ᄋ��ᅦ 대해 알아두어야 할 것들
Apr 22, 2025

Topic #34: AI 추론 (Inference)에 대해 알아두어야 할 것들

AI의 '추론 (Inference)' 이해를 위해 중요한 개념, 추론의 과정, 그리고 중요 과제

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #33: Slim Attention, KArAt, XAttention - 혁신적 어텐션 기법 3가지
Apr 14, 2025

Topic #33: Slim Attention, KArAt, XAttention - 혁신적 어텐션 기법 3가지

모델이 긴 시퀀스를 적은 메모리로도 잘 다루게 해 주는, '학습하는' 어텐션 메커니즘

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #32: Qwen-Agent 프레임웍은 무엇인가 - Qwen 모델 패밀리 들여다보기
Apr 11, 2025

Topic #32: Qwen-Agent 프레임웍은 무엇인가 - Qwen 모델 패밀리 들여다보기

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #31: 추론 (Reasoning) 모델의 엄청난 메모리 사용량, 어떻게 줄일 수 ᄋ��ᅵᆻ을까?
Mar 28, 2025

Topic #31: 추론 (Reasoning) 모델의 엄청난 메모리 사용량, 어떻게 줄일 수 있을까?

DeepSeek의 MLA, 그리고 앤트그룹의 LightThinker

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #30: '지식 증류 (Knowledge Distillation)'의 모든 것
Mar 15, 2025

Topic #30: '지식 증류 (Knowledge Distillation)'의 모든 것

DeepSeek 때문에 더 주목받게 된 '지식 증류', 그 핵심 아이디어와 종류, 스케일링 법칙, 실제 사례 등

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #29: 허깅페이스의 SmolLM2 모델이 알려주는 '소형모델' 성능의 비밀
Mar 08, 2025

Topic #29: 허깅페이스의 SmolLM2 모델이 알려주는 '소형모델' 성능의 비밀

SLM에서 '데이터셋 품질'과 '적절한 훈련 전략'의 중요성

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #28: MoM (Mixture-of-Mamba)은 무엇인가?
Mar 01, 2025

Topic #28: MoM (Mixture-of-Mamba)은 무엇인가?

Mamba가 멀티모달 데이터를 잘 처리하도록 해 주는 새로운 기법

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #27: CoA(Chain-of-Agents), CoRAG(Chain-of-RAG)은 무엇인가?
Feb 20, 2025

Topic #27: CoA(Chain-of-Agents), CoRAG(Chain-of-RAG)은 무엇인가?

Long Context 및 멀티홉 (Multi-hop) 추론을 위해서 구글, 마이크로소프트가 고안한 또 다른 'Chain' 기법

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #26: 'Test-Time Compute'는 무엇이고, 어떻게 스케일링할까?
Feb 08, 2025

Topic #26: 'Test-Time Compute'는 무엇이고, 어떻게 스케일링할까?

AI 모델의 '추론' 능력을 혁신하는 'Test-Time Compute'. 그 '스케일링'을 위한 기법들

Ksenia Se
Ben Eum
Ksenia Se, +1
AI 101AI 101
Topic #25: '프롬프트 최적화'의 핵심
Feb 07, 2025

Topic #25: '프롬프트 최적화'의 핵심

거대 언어모델을 다룰 때 기억해야 할 원칙, 그리고 실용적인 인사이트

Ksenia Se
Ben Eum
Isabel Gonzalez
Ksenia Se, +2
한국 독자들을 위한 한글판 Turing Post 기사와 뉴스

Turing Post Korea

한국 독자들을 위한 한글판 Turing Post 기사와 뉴스

Home

Posts

Account

Upgrade

© 2025 Turing Post Korea, by Super Alloy (BRN: 699-51-00044).

Privacy Policy

Terms of Use

Powered by beehiiv