AI 시대에 다시 도래할, ‘모두를 위한 귀족정(貴族政)’?
튜링 포스트 코리아의 FOD#111에서, AI 주도권을 둘러싸고 지금 벌어지고 있는 ‘국가 간의 경쟁’이라는 내러티브가 얼마나 위험할 정도로 ‘단순화된 프레임’인지에 대해서 말씀드렸죠.
AI는 개인적이면서도 집단적이고, 정치적으로 큰 함의를 가지기도 하고, (당연하지만) 경제적인 영향도 아주 큰 기술이기 때문에 ‘단순한 승부의 구도’로 접근해서는 안 된다고 생각합니다. 어쨌든 현재 벌어지고 있는 경쟁의 끝에 다다르게 될 결승선 그 너머 생각을 해 보면, 더 근본적인 질문을 우리는 마주하게 됩니다: 바로, 우리가 실제로 만들어가고 있는 세계는 어떤 모습이어야 할까?, 그리고 그 새로운 경제 체제 속에서 ‘좋은 삶(Good Life)’이란 무엇일까? 라는 질문입니다.
이 질문에 대한 답을 한 번 용감하게 상상해 본다면, 그건 어쩌면, 현재 우리가 사는 사회보다는 오히려 먼 과거의 어떤 모습과 닮아 있을지도 모릅니다 - 바로 귀족정(貴族政; Aristocracy) 말이예요.

로마 시대 귀족정의 모습. Image Credit: 챗GPT 생성 이미지
뜬금없이 귀족정인가 하시겠죠? 그런데, 여기서 말하는 ‘귀족정’은 ‘혈통, 토지, 그리고 억압에 기반한 전통적 의미의 귀족제’는 아닙니다. 인간의 정신에 기반한 귀족정이고, 인간이 아닌 노동력(Non-human Workforce) 덕분에 모두가 접근 가능한 형태의, 새로운 귀족정입니다.
‘봉건제’의 맥락을 제거하고 ‘귀족적 삶(Aristocratic Life)’의 역사적인 정의를 한 번 떠올려 보세요. 그건 노동의 필요에 쫓기지 않는 삶, 오히려 노동으로부터의 자유가 보장되는 삶이었다고 할 수 있을 겁니다. 타인의 노동 덕택에 제공되는 풍부한 자원 속에서, 교육, 예술, 철학, 정치 담론, 자기 수향을 위한 시간과 공간이 주어졌습니다. 당시 귀족의 삶이란 건, 생계를 유지하는 것이 목적이 아니라, 의미있는 삶을 살고, 사회에 기여하고, 지적인 한계를 확장해 나가는 게 그 목적이었습니다. 물론, 수천년 간 이런 삶의 형태는 본질적으로 아주 ‘배타적’이었죠 - 극소수의 사람들을 위해서 다수를 억압해야만 유지할 수 있는 구조였으니까요.
어쩌면 AI가 인류 역사상 처음으로, ‘풍요의 구조는 다수에 대한 노동의 억압을 통해서만 만들어질 수 있다’는 그 어두운 공식을 깰 수 있는 기회를 우리에게 가져다 줄 지도 모릅니다.
펜실베니아 대학 워튼 스쿨의 교수인 Ethan Mollick은 최근에 이렇게 말했습니다 - “AI 영역의 리더들이 2035년을 어떻게 그리고 있는지, 그때의 일상은 어떤 모습일지에 대한 명확한 비전(또는 SF 소설같은 이야기라도) 같은 걸 정말 보고 싶습니다.”
Ethan Mollick 교수가 한 번 상상해 볼 만한 그림이 있다고 생각합니다: 바로, AI와 로보틱스가 새로운 글로벌 경제의 기반이 되는 미래죠. AI와 로봇은 지치지 않는, 감정이 없는(Non-Sentient; 꼭 감정이 없어야 하느냐 등에 대해서는 논쟁의 여지가 있습니다만) 노동력으로서 밭을 갈고, 공급망을 관리하고, 제품을 설계, 생산하고, 질병을 치료합니다. 이 미래에서는, 이들이 만들어낼 ‘압도적인 풍요’가 소수의 기술 재벌들이 독점하는 게 아니라 공공의 유틸리티(Public Utility)로서 인류 전체의 공동 유산으로 간주되는 거죠. 물론 이상적(Ideal)이라는 것은 인정합니다.
이런 세계가 올 수 있다면, 인간의 ‘직업’은 어떤 의미를 갖게 될까요? 일단, ‘직업’이 ‘생존’과는 명확히 분리가 되게 됩니다. 우리가 알고 있는 형태의 노동, 즉 주당 40시간을 임금을 위해서 일하는 의무는 더 이상 삶의 중심에 있는 원칙이 아니게 된다는 겁니다. 대신에, 그건 일종의 소명(vocation)이 될 수 있겠죠. 사람들은 전기 기술자, 과학자, 돌봄 노동자, 엔지니어, 지역사회 봉사자 등이 되는 걸 ‘선택’할 수 있게 될 겁니다. 생계를 위해서가 아니라, 그 일이 자신에게 의미를 주기 때문에요. 개인적으로 모든 직업이 무조건적으로 그럴 수 있거나 그래야 한다고 생각한다는 뜻은 아닙니다. 그렇지만, ‘열정을 수익화(Monetize)’해야 한다는 압박이 어느 정도라도 사라지게 된다면, 더 깊고 진정성 있는 몰입이 가능해 질 거라고 생각합니다.
‘교육’ 역시 크게 변화해야 할 겁니다. (다분히) 순종적인 노동자를 길러내기 위해서 설계된 - 물론 이것도 그 시대의 소명이었고 나름대로 큰 의미가 있다고 생각합니다 - 공장형 교육 모델(Factory Model of Schooling)은 이제 구시대의 유물이 될 겁니다. 그 자리를 AI 기반의 개인 튜터, 즉 모든 사람에게 주어지는 아리스토텔레스(Aristotle) 같은 안내자가 대신하게 됩니다. 이 시스템은 표준화된 시험을 치르기 위한 준비를 시키는 게 아니라, 유년기부터 노년기까지 각자 개인의 고유한 잠재력에 맞춰서 호기심, 비판적 사고, 독창성을 길러내는데 집중합니다.
지금부터 드리는 말씀이 가장 중요합니다. 이런 비전 — 앞서 말씀드린, ‘모두를 위한 귀족정’ — 은, 그냥 기다리고 있으면 다가올, 예정되어 있는 유토피아가 아닙니다. 우리가 의식적으로, 의지를 가지고 ‘선택’하고 만들어나가야 하는 하나의 가능성일 뿐입니다. 적어도, 겉으로 보기에 지금 우리가 향하고 있는 방향과는, 사실 아주 극명하게 대비되는 길입니다.
지금 우리가 떠내려서 따라가고 있는 길로 그냥 가다 보면, 오히려 AI는 디지털 봉건주의(Digital Neo-Feudalism)라는 결과물을 낳게 될 가능성이 높습니다. 소수의 엘리트가 모델을 소유하고 통제하고, 대다수는 디지털 오락과 최소한의 생필품에 의존하면서 살아가고, 인간으로서의 잠재력은 전혀 발휘되지 못한 채 남겨지는 구조 말입니다.

‘디지털 봉건주의’ 사회의 모습을 보여줬던 영화, ‘레디 플레이어 원’
‘모두를 위한 새로운 귀족정’, 이 야심찬 목표를 선택하고 나아가려면, 우리가 현재 발딛고 있는 사회적·경제적 계약 구조를 근본적으로 다시 상상해 봐야 합니다. AI가 만들어내는 부를 어떻게 분배할 것인지에 대한 시스템 설계가 필요하구요 — 예를 들면, 보편 기본 소득(Universal Basic Income), 기초 모델의 공공 소유(Public Ownership of Foundational Models), 또는 아직 아무도 생각하지 못한 다른 방식일 수도 있죠. (제가 보편 기본 소득, 기술의 공공 소유 등을 무조건적으로 지지하는 것은 아닙니다. 악마는 디테일에 있어요)
하지만 제가 느끼는 가장 큰 걸림돌은, 사실 ‘정책’이 아닙니다. 제 고민의 지점은, 인간이 스스로를 자유롭게 할 준비가 되어 있지 않다는 점, 심지어는 과연 인간이 스스로에게 개인으로서의 진정한 자유를 가지고 싶어하느냐에 대한 근본적인 의문이 여전히 있다는 점입니다. 이런 의문의 ‘일부’는 물론 우리가 여전히 전통적인 사고방식에 갇혀 있다는 점 때문이라고 이야기할 수 있겠죠. 지난 수백년 동안 우리는 자신의 가치를 경제적 생산성과 동일시해 왔고, 자신의 정체성을 내가 갖고 있는 직업의 이름과 연결지었고, 사회적인 계층과 사다리에서의 위치로 스스로를 정의해 왔기 때문이죠.
이렇게 우리의 몸과 마음에 깊이 뿌리내린 사고방식을 어떻게 바꾸기 시작할 수 있을까요?
명확한 건, 그 시작을 소위 ‘정부의 명령’, 그리고 정책, 규제 같은 것에서 찾을 수는 없다는 겁니다. 우리는 다음 세대를 위한 새로운 이야기(New Story)를 만들어야 합니다: 인간의 가치와 시장 가치(Market Value)를, 적어도 지금처럼 딱 붙어 있는 상태로부터 분리시키는 내러티브를 말이죠.
그리고 ‘공헌(Contribution)’, ‘호기심(Curiosity)’, ‘돌봄(care)’과 같은 가치를 ‘잘 살아낸 삶’을 뜻하는 새로운 기준으로 삼도록 논의를 시작해야 합니다. 물론 이런 변화는 하루아침에 일어나지 않을 겁니다 - 솔직히, 이런 변화가 가능한지도 모르겠어요 ^.^; 어쨌든, 이런 변화는 ‘탈노동(Post-work)’ 프로젝트를 시범적으로 운영하는 지역 사회에서, 표준화된 교육 과정을 폐기하고 창의성과 시민적 덕성을 기르는 모델을 도입하는 학교에서, 그리고 우리 스스로와 자녀에게 성공의 의미를 다시 정의하는 개인의 삶 속에서, 다양한 실험들을 통해서 오랜 시간, 점진적으로 성공과 실패의 경험이 쌓이면서 만들어질 겁니다.
하지만 이 모든 이야기들 이전에, 먼저 이런 질문을 스스로에게 한 번 해 보세요: 당신이, 다른 사람 말고 당신이, 세상의 모든 돈을 가지고 있다면, 어떤 사람이 되고 싶으세요?
이 질문에 대한 답을 알고 계시다면, 당신 주변에 이미 수없이 많이 있는 AI 기술과 도구들을 활용해서 그 방향으로 움직이기 시작하면 됩니다.
이 변화, 이거야말로 우리 시대의 진짜 도전 과제라고 생각합니다.
이 새로운 형태의 지능(Intelligence)을 이용해서, 그냥 우리가 알고 있는 현재의 세계를 단지 더 효율적인 시스템으로 재편하는데 몰입할 수도 있을 겁니다 - 그 세계의 불평등한 현상은 더욱 더 심화되는 채로 말이죠.
아니면, 이 지능을 활용해서 수천 년 동안 우리 모두, 우리 인류를 억눌러 온 고된 노동으로부터 인간을 해방시키고, ‘잘 살아가는 삶을 추구한다’는 걸 소수의 특권층만이 아닌 모두의 권리로 만들어보자는 길을 선택할 수도 있겠죠.
모두를 위한 귀족정(Aristocracy of All), 저는, 우리의 손이 닿는 거리에 있다고까지 이야기하고 싶지는 않습니다. 그렇지만, 한 번 이걸 새로운 목표로 삼고 이전과는 다른 시도를 해 볼 만은 하다고 생각합니다.
그렇다면, 이제 남은 유일한 질문은, 모두가 과연 정말 유연하게 우리의 사고방식을 전환할 수 있느냐는 것 같습니다.
어떠세요? 여러분은, 스스로의 생각, 사고방식, 철학의 전환이 가능할 것 같으신가요?
트위터 라이브러리 (Twitter Library) 🐦
월드 모델(World Models)은 아마도 AI 분야에서 가장 도전적인 영역 중 하나라고 해도 과언이 아닐 겁니다: 추론(Reasoning), 지각(Perception), 계획(Planning)의 경계를 가상의 세계에서 현실 세계로까지 확장하고 있는 분야죠.
월드 모델은 일종의 생성형 AI 시스템이긴 하지만, 모델과 에이전트가 ‘실제 세계 환경’에 대한 내부적인 표현(Internal Representation)을 학습할 수 있게끔 하는 기술입니다.
오늘은 특히 주목할 만한 12가지 월드 모델의 사례를 소개해 볼까 합니다:
*아직 튜링 포스트 코리아 구독 안 하셨나요? 구독해 주시면 매주 중요한 AI 뉴스를 정리한 다이제스트를 받으실 수 있습니다!
튜링 포스트 코리아팀이 읽고 있는 것들
잠깐 뜸했던 ASI(Artificial Super Intelligence) 이야기가 다시 조금씩 수면 위로 올라오는 듯 합니다 - 메타의 ASI를 위한 팀 구성, 곧 발표될 것으로 보이는 GPT-5 이슈 등 때문일까요? 이 논문은, 거대 언어 모델(LLM)이 새로운 상황에 적응하지 못하는 문제를 해결하기 위해서, 스스로 학습하고 발전하는 ‘자가 진화 에이전트’에 대해 다루고 있습니다. 에이전트의 구성 요소, 진화 시점과 방법, 코딩·교육·의료 등에서의 활용, 그리고 안전성과 확장성 같은 도전 과제를 정리해 놓고 있고, 인간 수준 이상의 ASI로 가는 길을 제시합니다.
Mark Zuckerberg is Out of Ideas by Dave Karpf
다소 도발적인 제목인데요. 메타 CEO인 마크 저커버그의 ‘AI 선언문’을 비판하면서, 그의 주장이 '내용이 얕다'고 지적합니다. 여기서 '내용이 얕다'는 건 저커버그가 AI를 '개인 초지능'으로 포장하면서 모두에게 유용한 도구로 만들겠다고 했지만, 구체적이고 실질적인 계획이나 혁신적인 아이디어가 부족하다는 뜻인 듯 합니다. 또, AI가 초래할 수 있는 사회적 문제, 예를 들어 딥페이크나 온라인 학대 같은 중요한 이슈를 깊이 있게 다루지 않고 피상적으로 접근해서, 미래에 부정적인 영향을 끼칠 수 있다고 비판하고 있네요 - 이 비판이 이 시점, 마크 저커버그를 향한 것이어야 하는지는 잘 모르겠습니다.
금주의 주목할 만한 업계 동향 📰
구글, NotebookLM에 ‘비디오’ 기능 추가 및 ‘Deep Think’ 접근 권한 부여
구글 NotebookLM, 한 때 큰 반향을 일으키기도 했고 여전히 저도 종종 사용하고 있는 AI 서비스인데요. 이제는 ‘Video Overviews(비디오 개요)’라는 이름의 기능을 추가, 문서를 AI가 나레이션하는 슬라이드로 바꿔 줍니다. 복자한 데이터를 골치아프지 않게 이해하고 싶다면 괜찮은 기능으로 일단 보입니다.
Studio 패널도 좀 더 세련되어져서, 여러 개의 출력물을 생성할 수도 있게 됐고, 결국 NotebookLM이 차세대의 리서치 어시스턴트 쯤이 될 수 있는 제품으로 주목을 본격적으로 받게 되지 않을까 합니다.
반면에, Deep Think는 일단은 긍정적인 리뷰, 피드백을 받고 있지만, 월 $250 정도의 비용이 듭니다. 모델 카드는 여기를 참조하세요.
Grok의 새 AI 도구 'Imagine'에 대한 약간의 실망(?)
xAI의 Grok이 최근에 "Imagine"이라는 이름의 비디오 및 이미지 생성기를 출시했죠. 몇몇 사용자가 모든 비주얼 AI 모델의 성능을 테스트하려고 "정말 못생긴 커플을 만들어줘"라는 프롬프트를 줬는데, 결과가 생각만큼 인상적이지 않아서 Grok에게 크게 실망했다고 표현하고 있네요. 제가 봐도 ‘못생긴’ 걸로는 보이지 않는데, 어떠세요? 이 포스트는 Grok의 새 기능에 대한 초기 반응일 뿐이지만, AI가 창의적이고 세밀한 이미지를 생성하는 데 아직 한계가 있다고 지적하면서, 그래도 유머러스하게 비판하는 뉘앙스를 담고 있습니다.

새로 나온, 주목할 만한 연구 논문
‘주목할 만한 최신의 AI 모델’을 먼저 소개하고, 각 영역별로 ‘Top Pick’은 해당 논문 앞에 별표(🌟)로 표시했습니다!
주목할 만한 최신 AI 모델
Flux.1 Krea
Flux.1 Krea는 포토리얼리스틱하고 미적으로 풍부한 시각 이미지를 생성하도록 설계된 무료 오픈소스 텍스트-투-이미지(Text-to-Image) 모델입니다. 방대한 크롤링 데이터셋이 아니라 고품질의 수작업으로 선별된 데이터셋으로 학습되었고, 가입이나 결제를 안 해도 10초 이내에 고해상도 이미지를 생성할 수 있습니다. 포토리얼리즘, 픽셀 아트, 3D 렌더링 등 다양한 스타일의 프롬프트를 지원하고, 브라우저를 통해서 접속하거나 로컬에 다운로드해서 사용할 수 있습니다. 빠르고 직관적일 뿐 아니라, 사용자별로 맞춤화할 수 있어서, 전 세계 3천만 명 이상의 사용자로부터 신뢰를 받고 있습니다. —> [블로그 보기]Alphaearth Foundations: An embedding field model for accurate and efficient global mapping from sparse label data
Google DeepMind와 Earth Engine 소속 연구자들이 AlphaEarth Foundations라는 AI 모델을 소개했는데요. 이 모델은 멀티모달의 지구 관측 데이터를 기반으로 통합된 64차원 임베딩 필드(Embedding Field)를 생성합니다. 10×10미터 해상도의 페타바이트(Petabyte)급 이미지를 처리해서 저장 공간을 16배 줄이고, 희소 레이블 환경에서 기존 모델보다 24% 낮은 오류율을 보여줬습니다. 전 세계적으로 배포된 이 임베딩은 Earth Engine 내 위성 임베딩 데이터셋(Satellite Embedding Dataset)을 지원하고, 유엔 식량농업기구(UN FAO), MapBiomas와 같은 파트너들이 미지의 생태계를 분류하고 농업, 삼림 파괴, 토지 변화에 대한 고해상도 매핑을 가속화할 수 있게 돕고 있습니다. —> [논문 보기] [블로그 보기]Meta Clip 2: A worldwide scaling recipe
Meta와 MIT의 연구자들이 Meta CLIP 2를 공개했습니다. CLIP2는 300개 이상의 언어로 이루어진 290억 개의 전 세계 이미지-텍스트 쌍을 기반으로 해서 처음부터 학습시킨 최초의 CLIP 모델입니다. 번역이나 개인 데이터를 사용하지 않고, 메타데이터, 데이터 큐레이션, 학습을 대규모로 확장하는 방식으로 구축했다고 합니다. 새로운 균형 조정 알고리즘은 다국어 데이터를 활용해서 영어의 정확도를 향상시켜 주고, 소위 말하는 ‘다국어의 저주(Curse of Multilinguality)’를 극복합니다. ViT-H/14 모델 기준으로 Meta CLIP 2는 ImageNet에서 81.3%의 성능을 보여주고 있고, XM3600(64.3%), Babel-ImageNet(50.2%), CVQA(57.4%)에서 다국어를 기준으로 새로운 최고 성능을 달성, mSigLIP과 SigLIP 2를 능가하고 있습니다. —> [논문 보기]Falcon-H1: A family of hybrid-head language models
Technology Innovation Institute의 연구자들이 Falcon-H1이라는 LLM 시리즈를 공개했습니다. 이 시리즈는 트랜스포머 기반의 어텐션 메커니즘과 Mamba 기반의 상태공간모델(SSM)을 결합한 새로운 병렬 하이브리드 아키텍처를 사용합니다. 0.5B부터 34B까지 다양한 파라미터 크기로 출시되었는데, 최대 256K 토큰의 긴 컨텍스트에서도 최대 8배 빠른 추론 속도를 제공하고, 최대 70B 규모의 모델과 동등하거나 그 이상의 성능을 발휘합니다. 특히 Falcon-H1-1.5B-Deep 모델은 10B급 모델과 대등한 성능을 보이고, Falcon-H1-34B-Instruct는 수학, 과학, 코드, 다국어 과제에서 18개 언어를 아우르면서 최고의 성능을 기록했습니다. 이 모든 성능은 2.5조(T)~18조 개의 토큰만을 사용해 달성되었다고 합니다.
—> [논문 보기]SmallThinker: Efficient LLMs natively trained for local deployment
상하이 교통대학교와 Zenergize AI 소속 연구자들이 SmallThinker라는 LLM 패밀리를 공개했습니다. 이 모델들은 GPU 없이 온디바이스(On-device)에서 실행될 수 있도록 처음부터 설계된 모델입니다. 세밀하게 구성된 Mixture-of-Experts와 희소 ReGLU 피드포워드 네트워크(FFN), NoPE-RoPE 하이브리드 희소 어텐션, 사전 어텐션 라우터 등을 결합한 새로운 아키텍처를 사용합니다. SmallThinker-4B-A0.6B와 21B-A3B는 각각 1GB와 8GB의 RAM만으로 CPU에서 초당 108 토큰, 30 토큰의 속도를 냅니다. 이 모델들은 MMLU, GPQA, HumanEval 등 다양한 벤치마크에서 Qwen3와 Gemma3 등 더 큰 모델보다 우수한 성능을 보여주고 있습니다. —> [논문 보기]Vl-Cogito: Progressive curriculum RL for advanced multimodal reasoning
알리바바 그룹과 푸단대학교 소속 연구자들이 VL-Cogito를 공개했습니다. 이 모델은 70억(7B) 파라미터 규모의 멀티모달 대형 언어 모델(MLLM)로, 사전 지도 학습(fine-tuning) 없이 점진적 커리큘럼 강화 학습(Progressive Curriculum Reinforcement Learning, PCuRL)을 통해서 학습되었습니다. PCuRL은 난이도에 따른 소프트 가중치 조정과 응답 길이에 따른 다이나믹 보상 메커니즘을 도입해서, 과제의 난이도와 응답의 길이를 다이나믹하게 조절합니다. 총 10개의 멀티모달 벤치마크에서 평가해 보니, 그중 6개 과제에서 최고 점수를 달성했습니다. 특히 Geometry3K와 MathVista에서 각각 7.1%, 5.5% 향상된 정확도를 기록해서, 베이스 모델인 Qwen2.5-VL보다 더 뛰어난 성능을 입증하면서 효율적이고 확장 가능한 추론 능력을 보여주었습니다. —> [논문 보기]
성격(Personality) 제어 및 정렬
🌟 Persona Vectors (by Anthropic)는 언어 모델에서 해석 가능한 활성화 벡터(Interpretable Activation Vectors)를 사용해서 캐릭터 특성(Character Traits)을 모니터링하고 제어하는 방법을 도입, 실시간 감독 및 사전 개입을 할 수 있게끔 해 줍니다. —> [논문 보기]
Goal Alignment in LLM-Based User Simulators for Conversational AI는 시뮬레이션된 사용자 대화에서 목표 상태 추적(Goal State Tracking)을 위한 새로운 프레임웍을 사용해서 목표의 일관성(Goal Coherence)을 추적하고 강제합니다. —> [논문 보기]
🌟 GEPA: Reflective Prompt Evolution Can Outperform Reinforcement Learning (by Berkeley, Stanford, BespokeLabs, Notre Dame, Databricks, MIT)은 자연어 성찰(Natural Language Reflection)을 활용해서 프롬프트를 반복적으로 개선하는데, 정책 그래디언트 기반 강화학습(Policy-Gradient-Based Reinforcement Learning)보다 더 나은 결과를 보여줍니다. —> [논문 보기]
에이전틱 시스템과 자율 시스템
🌟 MLE-STAR (by Google Cloud)는 관련 솔루션을 온라인에서 탐색하고, 타겟팅된 제거 실험(Targeted Ablations)을 통해서 코드를 개선하는 머신러닝 엔지니어링 에이전트(ML Engineering Agent)를 구축합니다. —> [논문 보기]
Agentic Reinforced Policy Optimization은 에이전트가 여러 도구 간의 상호작용을 기반으로 추론을 할 수 있도록 훈련하고, 엔트로피 기반 롤아웃(Entropy-Aware Rollouts)을 사용해서 장기적 제어(Long-Horizon Control)를 더 잘 할 수 있도록 개선을 해 줍니다. —> [논문 보기]
🌟 Deep Researcher with Test-Time Diffusion (by Google)은 연구 논문 작성 과정을 반복적인 초안 개선(Iterative Draft Refinement)으로 모델링하는데, 검색 기반 업데이트(Retrieval-Enhanced Updates)와 확산(Diffusion) 방식의 워크플로우를 활용합니다.
—> [논문 보기]
수학적 추론과 논리적 추론
멀티모달 인터페이스와 UI 에이전트
최적화 및 훈련 효율성
MixGRPO는 선호 정렬(Preference Alignment)을 효율적으로 하기 위해서 확률적 샘플링(Stochastic Sampling)과 결정론적 샘플링(Deterministic Sampling)을 결합한 하이브리드 최적화 방법을 도입합니다. —> [논문 보기]
🌟 On the Expressiveness of Softmax Attention (by Lyle School of Engineering)은 소프트맥스 어텐션(Softmax Attention)을 순환 프로세스(Recurrent Process)로 재정의해서, 이것이 선형 어텐션(Linear Variants)보다 실제로 더 뛰어난 이유를 밝혀냅니다. —> [논문 보기]
프라이버시, 망각, 규제
Efficient Machine Unlearning via Influence Approximation은 망각(Forgetting)을 점진적 학습(Incremental Learning)과 연결하고, 훈련 데이터의 영향을 제거하기 위한 경량 근사 기법(Lightweight Approximation Method)을 제안합니다. —> [논문 보기]
LLM-기반의 추천 및 개인화
RecGPT Technical Report는 추천 시스템(Recommendation Systems)을 사용자 의도(User Intent) 중심으로 재구조화하고, 검색(Retrieval)과 개인화(Personalization) 단계 모두에서 대형 언어 모델(LLM)을 활용합니다. —> [논문 보기]
읽어주셔서 감사합니다. 프리미엄 구독자가 되어주시면 튜링 포스트 코리아의 제작에 큰 도움이 됩니다!



