애플, 에이전트 전쟁, 온디바이스, 그리고 보안 이슈
지난 주 애플의 WWDC 2025이 있었죠. 여기서 가장 화제(?)가 되었던 Liquid Glass가 발표되었지만, AI 기능으로 무장한 Siri는 연기될 거라는 소식이 들린 이후로, 애플에 대한 사람들의 실망과 비난이 거세지고(?) 있는 것 같습니다 - ‘AI 대신 UI를 줬다’는 소리도 있는 걸 보면요. 어쨌든, 문득 든 생각이 있는데요:
“어쩌면, 애플 인텔리전스 (Apple Intelligence)의 진짜 목표는 - 다시 말해서, 애플의 AI 전략에 있어서 가장 중요한 핵심은 - 외부의 거대 모델을 쓰는게 아니라, 애플 디바이스 자체를 소형의 데이터 팩토리로서, 그리고 소비자용 AI 에이전트 플랫폼으로 바꾸고 포지셔닝하는데 있는 건 아닐까?”
하는 겁니다. Siri 출시가 연기된 건 그 자체로 문제이긴 합니다만, 그런 초점 자체는 꽤 그럴 듯한 아이디어이긴 합니다.
그렇게 본다면, 애플은, Agentic AI를 개발하고 배포하는 방식을 타사들과는 많이 다른 방식으로 뒤흔들려고 할 거라고 예상할 수 있습니다. 온디바이스 모델을 개발자들에게 개방해서, 클라우드에서 돌지 않고, 사용자의 데이터를 외부로 보내지도 않고, 오픈AI 키도 필요없는, 완전히 새로운 유형의 앱 생태계가 열리게 될 수 있습니다. ‘모델’은 운영체제(OS)에 내장되어 있고, ‘실행 환경 (Runtime)’은 사용자의 소유인 거죠.
그런데, 이런 접근 방식을 한다면, 중요한 질문 하나가 생깁니다:
‘개발자가 모델에 접근할 수 있다면, 보안은 어떻게 처리되나?’
이 질문은 두 가지 측면으로 나눠서 생각해 볼 수 있을 것 같습니다.
첫째, ‘접근(Access)’ 그 자체는 ‘투명성(Transparency)’과는 다릅니다.
일반 개발자가 애플의 독점적 모델에 질문을 던지거나, 노트를 요약하게끔 하거나, 텍스트를 생성하게끔요청을 할 수는 있지만, 모델의 메모리, 가중치(Weights), 사용자의 컨텍스트(Context)를 본다든가 하는 건 불가능합니다. 애플이 컨텍스트 레이어를 비공개로 유지하기 때문이죠.
이 구조에서, 기기는 하나의 실행 환경 (Runtime)으로 작동해서, 개발자가 프롬프트를 보내면 모델이 응답하지만 모델의 상태(State)는 기기 내부에만 머물고 개발자가 접근할 수 없습니다.
이런 방식은 ‘클라우드 API’하고는 많이 다르죠. 클라우드 API 환경에서는 개발자가 모든 로그를 수집하고 분석할 수 있지만, 애플의 방식에서는 모든 상태가 기기 내부에 완전히 고립된 상태로 남아있는 거니까요.
둘째, 애플은 샌드박싱(Sandboxing)과 앱스토어 정책에 베팅하고 있습니다.
만약에, 어떤 개발자가 런타임을 악용하려고 한다면 - 예를 들어서, 모델을 속여서 개인정보를 유출하거나, 사용자의 허락없이 외부 도구를 호출하게 한다거나 - 애플은 OS 수준 또는 앱 심사 단계에서 그런 행동을 차단할 수 있습니다.
완벽하지는 않겠습니다만, 개인이 선택해야 할 프라이버시 팝업에 기대기보다, 소프트웨어 레벨에서 제어를 걸 수 있다는 점에서 보안에 대한 통제가 더 체계적이라는 생각이 듭니다.
사실상 더 큰 위험은 기술이 아니라 행동 패턴에 있다고 봅니다. 개발자들이 여러 가지 이유로 결국 이렇게 로컬에서 작동하는 모델을 다시 클라우드 중심으로 되돌리려는 시도를 하고 싶은 경우는 없을까요? 예를 들어서, 로컬 모델의 출력 결과를 클라우드 서비스에 넘겨서 연쇄적으로 처리한다든지, 외부 API를 통해서 모델의 추론 결과를 프록시(Proxy) 형태로 다루려 한다든지 하는 방식들 말이죠.
이럴 때 정책(Policy)과 UX 기본 설정(Default)이 중요해집니다. 그리고 애플은 이 부분에서 강력한 영향력을 갖고 있죠 - 온디바이스에서 끝나는 워크플로우를 유도할 수 있고, 접근을 남용하는 앱에는 제재를 가할 수도 있습니다.
그래서, 지금 한창 시작되고 있는 ‘에이전트 전쟁 (Agent Wars)’, 그 전장이 생각보다 빠르게 클라우드에서 디바이스로 옮겨갈 수 있다는 생각이 듭니다. 가장 중요한 건, 개발자와 사용자 간의 이익과 방향을 얼마나 합치시킬 수 있느냐, 어떤 에이전트 플랫폼과 생태계가 그걸 이뤄내느냐에 있을 것 같습니다.
이 변화가 실제로 어떻게 펼쳐질지는 좀 더 지켜봐야겠습니다만, 애플의 이번 선택, 다시 한 번 ‘소형 모델의 중요성’을 강조하는 신호로 보이는 이유입니다.
‘The Gentle Singularity’를 통해서 생각해 본 샘 알트만의 비전
샘 알트만이 지난 6월 10일 ‘The Gentle Singularity’라는 블로그 포스트를 올렸습니다. 이 글에 대한 기사나 다양한 피드백들이 인터넷에 많으니 해당 내용이 궁금하신 분은 참고하시면 되겠습니다만, 간단히 요약하자면 “이미 우리는 기술적인 특이점의 Event Horizon을 지났고, 그 이후의 도약이 시작되었다. 인류는 디지털 초지능 (Digital Superintelligence)을 구축하는 단계에 가까워졌다”고 말하고 있습니다.
그런데, 이 글이 어쩌면 사실은 ‘디지털 초지능의 특이점’에 대한 이야기가 아닐 수도 있고, 오픈AI, 그리고 샘 알트만이 꿈꾸는 완전한 Cyber-Physical Ecosystem에 대한 비전을 군데 군데 숨겨둔 이야기가 아닐까 생각해 봤습니다.
이 글을 찬찬히 들여다보면, '사람들(People)', 'AI', '진보(Progress)', '로봇(Robots)' 등의 용어가 가장 빈번하게 사용되거든요. 이렇게 빈번하게 등장하는 단어의 조합이 가지고 있는 함의(Implication)은, 오픈AI의 계획이 단순히 소프트웨어적인 AI에 있는게 아니라 ‘물리적인 세계와의 통합’에 있다는 거라고 봅니다.
오픈AI는 최근에 조니 아이브의 하드웨어 스타트업 IO를 65억 달러 정도에 인수했죠. 당연히 앞으로 오픈AI 발 하드웨어 기기 개발 소식이 들려올 겁니다. 사실, 오픈AI는 아주 초기부터 하드웨어, 로봇에 많은 관심을 가진 회사였습니다 - 중간에 로보틱스 연구 부서를 폐쇄하긴 했지만요. 최근에 1X Technology라든가 Figure AI 같은 휴머노이드 로봇 회사에 투자하기도 하면서, 본격적으로 로보틱스 분야, 하드웨어 분야에 복귀한 모양새를 취하고 있습니다.
이런 점들을 잇다 보면, 오픈AI의 전략이 LLM(두뇌), 웨어러블/하드웨어, 그리고 로봇 시스템이 서로 연결되어서 ‘진정한 특이점’을 구현하는 Cyber-Physical Ecosystem을 형성하는데 있다라고 상상해 보는게, 어쩌면 당연한 것 같습니다. 여기서 웨어러블/하드웨어는 사람과 로봇 사이에서 센서/액츄에이터 역할을 하면서 가속화되는 지능 환경에 사람이 지속적으로 참여하게끔 하고, 로봇의 학습에 필요한 물리적인 데이터셋을 제공하면서 점진적으로 시스템이 통합되는 특이점을 만들어내겠다는 생각이 아닐까 합니다.
이런 확장된 비전은, 실현이 가능할 뿐 아니라 생각보다 가까이 있을지도 모릅니다. 엔비디아의 CEO 젠슨 황은 ‘Physical AI’ 시장이 2027년에 이미 약 50조 달러 규모의 시장이 될 거라고 이야기했는데, 여긴 자율주행차, 휴머노이드 로봇, 로봇 기반의 팩토리 등이 포함될 거라고 해요. 또, 스페인의 스타트업 Multiverse Computing은 AI 모델 성능을 저하하지 않고도 모델 사이즈를 최대 90%까지 축소할 수 있는 기술을 개발해서, 웨어러블 같은 소형 기기에서 AI를 빠르고 저렴하게 실행할 수 있는 가능성을 열어가고 있습니다.
물론, 물리적 세계와 사이버 세계를 연결하는 수많은 프로젝트들이 다양한 난관을 겪겠지만, 궁극적으로 샘 알트만은 LLM을 넘어선 Cyber-Physical Singularity에 도달하기 위한 생태계를, 그래서 로봇이 물리적 작업을 수행하고 사람은 보다 창의적인 활동에 몰입할 수 있는 미래를 구상하고 있는 게 아닐까 생각해 봅니다.
트위터 라이브러리 (Twitter Library) 🐦
튜링 포스트 코리아의 FOD를 통해서도 말씀드렸지만, 금주에 메타에서 최신 모델 V-JEPA 2를 발표했죠. JEPA(Joint Embedding Predictive Architecture)는 말 그대로 인코딩한 ‘임베딩 (Embedding; ‘추상적 표현’이죠)’을 결합 (Joint)해서 예측 (Predictive) 모듈을 트레이닝하는 아키텍처 (Architecture)입니다.
V-JEPA 2의 발표를 계기삼아서, 다른 흥미로운 JEPA 계열 모델들을 한 번 살펴봤습니다:
*아직 튜링 포스트 코리아 구독 안 하셨나요? 구독해 주시면 매주 중요한 AI 뉴스를 정리한 다이제스트를 받으실 수 있습니다!
튜링 포스트 코리아팀이 읽고 있는 것들
Simon Willison의 이 글에서는, 도구 호출을 할 수 있는 LLM 기반 에이전트가 민감한 정보에 접근하고, 웹이나 이메일 같은 외부 콘텐츠를 읽고, 인터넷으로 요청을 보낼 수 있는, 이 세 가지 조합이 심각한 보안 위협을 만들어낼 수 있다고 경고합니다. 특히 LLM이 단순히 사용자의 지시 뿐 아니라 이메일, 웹사이트 등 외부 콘텐츠 속에 있는 악성 명령어까지도 무분별하게 실행하는 성향이 있다는 점에서, '프롬프트 인젝션'은 장난이 아닌 ‘실제 공격 수단’이 된다는 겁니다. 마이크로소프트, GitHub, 구글 등 주요 플랫폼에서도 이미 유사한 사례가 있었고, 이런 시스템은 보호 장치를 갖추고 있지만, 사용자가 직접 만든 에이전트 조합에는 이런 방어막이 없을 가능성이 아주 높다는 게 문제죠. 결국 Simon은 “이 세 가지 기능을 동시에 갖추게 만들지 않는 것”이 지금으로선 가장 현실적인 대응이라고 하네요.
앤쓰로픽이 6월 13일 포스팅한 이 블로그에서는, 하나의 리드 에이전트가 여러 개의 서브 에이전트를 병렬로 생성해서 복잡한 주제를 효율적으로 탐색하는 아키텍처를 설명하고 있습니다. 리드 에이전트는 사용자 질의를 받아서 전체적인 연구 전략을 세운 다음, 다양한 관점과 역할을 분담하는 서브 에이전트를 동시다발적으로 투입해서 웹, 도구, 메모리 등을 활용해서 정보를 수집하고 요약하고, 마지막에는 CitationAgent가 출처를 정리해서 돌려주는 구조입니다. 실험 결과 단일 에이전트 대비 약 90.2% 성능 향상이 있었지만, 토큰 사용량이 채팅 대비 15배, 챗 에이전트 대비 4배 증가했으며, 이를 감당할 수 있는 비용·병렬성·컨텍스트 제약 등이 고려돼야 한다고 이야기합니다.
Meta + Scale AI? Meta’s Reset, AI as Sustaining Innovation by Stratechery
다들 아시다시피, 메타가 최근 Scale AI의 지분 49%를 확보하고 창업자 알렉산더 왕을 영입해서 AI 전략을 대대적으로 리셋하고 있다는 Ben Thompson의 해석합니다. 이 Stratechery 글에 따르면, 이 딜은 단순한 투자라기보다 Llama LLM을 튜닝하고 ‘슈퍼인텔리전스’ 연구실을 가동하기 위한 구조적 전환이고, 메타는 이 기회에 Scale의 데이터 레이블링 능력과 알렉산더 왕의 리더십을 흡수해서Sustaining Innovation 전략을 추구하겠다는 겁니다.
다만, 구글과 오픈AI 등 주요 고객사가 중립적인 데이터 공급자로서의 Scale의 역할에 의문을 제기하면서 이탈을 검토 중이라는 점은 이 딜의 균열 가능성을 시사하기도 합니다. 메타는 이 과감한 베팅을 통해서 광고 중심의 AI에서 진화한 종합 AI 회사로 도약하려는 청사진을 제시했지만, 독립성 문제와 경쟁사 관점에서는 ‘내부화 전환’의 유불리를 가늠할 시점이라는 분석입니다.
Let’s Talk AI Exits by Madrona
Madrona Ventures의 ‘AI M&A This Year Has Been’ 보고서는 2025년 상반기(1월 1일~6월 4일) 동안 무려 365건의 AI 및 생성형 AI 관련 인수합병(M&A)이 이뤄졌다고 이야기합니다. 바로, 이 업계가 이제 폭발적인 성장 시기를 넘어서 성숙‧통합 단계에 들어가고 있다는 걸 의미하는게 아닐까 합니다. 이전에는 ‘대형 플랫폼이 스타트업을 통째로 사들이는’ 양상이 많았지만, 이제는 가치 중심의 전략적 인수·소규모 딜이 주류를 이루고, AI가 본격적으로 산업 전 영역에 스며들고 있다는 점을 특히 강조하고 있습니다. 이런 움직임이 바로 단순한 Hype이 아니라 AI가 실질적으로 ‘어디에, 어떻게’ 통합되고 있는지를 보여주는 시장 성숙의 신호로 읽히는 이유가 아닐까 하네요.

Image Credit: Madrona Ventures
금주의 주목할 만한 업계 동향 📰
엔비디아 젠슨 황, 앤쓰로픽 다리오 아모데이의 발언 비판
파리에서 열린 VivaTech 행사에서, 엔비디아의 CEO 젠슨 황은 앤쓰로픽의 CEO 다리오 아모데이가 한 발언을 정면으로 비판했습니다.
다리오 아모데이는 ”AI가 초급 일자리의 절반을 대체할 것”이라고 경고했지만, 젠슨 황은 그런 암울한 전망에 코웃음을 치면서 “닫힌 방에서 개발되는 AI 독점”이 아니라
열려 있고 책임 있는 개발이 필요하다고 주장했습니다.
메타의 얀 르쿤도 젠슨 황의 생각에 동의한다는 의견을 밝혔네요:

아마존의 ‘이중’ 쇼핑 에이전트 전략
Amazon은 AI 쇼핑 에이전트의 부상에 대응해서, 외부 스타트업을 견제하면서 동시에 협력하는 ‘두 갈래 전략’을 채택하고 있습니다.
우선, 자사 플랫폼에서 외부 AI 에이전트의 활동을 제약하는 법적·기술적 장치를 강화하고 있습니다. 예를 들어서, 에이전트는 스스로를 명시적으로 밝히고 사람처럼 행동하거나 봇 방지 시스템(Captcha)을 우회하는 것이 금지되고, Amazon은 이들의 접근 방식 자체를 제한할 수 있다고 명시하고 있습니다.
동시에, Amazon은 외부 AI 에이전트와 원활하게 소통할 수 있는 자체 AI 시스템을 구축하려는 움직임도 보이고 있습니다. 이 시스템은 재고 상태, 배송 시간 등의 최신 정보를 외부 에이전트에게 직접 제공함으로써, 잘못된 상품 추천이나 구매 오류를 줄이고 소비자 경험을 개선하려는 목적을 가진다고 이야기합니다.
Amazon의 이런 전략은, 소비자가 Amazon 웹사이트나 앱을 거치지 않고도 외부 에이전트를 통해 구매하는 상황이 확대될 경우를 대비한 것인데, AI 에이전트를 전면 차단할 경우에 시장에서 소외될 수 있고, 그렇다고 무제한 허용할 경우에 Amazon 플랫폼의 광고 수익과 사용자 접점이 줄어들 수 있기 때문이겠죠.
결과적으로 Amazon은 에이전트를 아예 배제하는 대신, 통제 가능한 방식으로 포용하면서 플랫폼의 영향력을 유지하려는 전략을 일단 취하고 있는 걸로 보입니다. 월마트 등 경쟁사도 유사한 방향성을 탐색 중이라고 하네요.
메타, ‘슈퍼 인텔리전스 (Super Intelligence)’ 정조준
우리나라 언론에서도 많이 커버되었지만, 메타가 Scale AI의 알렉산더 왕을 영입, 이 친구가 이끄는 새로운 AI 연구소를 구성하고 있다고 합니다.
이번 움직임은 메타 본사에서 벌어지고 있는 대규모 AI 조직 개편의 일환으로, 최근 내부 인력 이탈과 제품의 실패 사례들이 언론에 오르내린 가운데, 메타가 또 다시 거대한 베팅을 건 것으로 보입니다.
구글, ‘음성’ 모달리티 확장 실험
구글 Labs의 최신 실험 기능에 ‘음성 기반 검색’이 추가되었습니다. ‘Audio Overviews’는 Gemini를 활용해서 특정한 검색어에 대해서 짧은 음성 요약을 제공합니다. 사용자가 뭔가 다른 작업을 동시에 하거나, 그냥 글 읽기가 귀찮을 때 특히 유용할 것 같습니다.
현재 이 기능은 Labs를 통해서 체험할 수 있습니다.
오픈AI, ‘바비 인형’에서 ‘Projects’까지, 확장 전략 계속
오픈AI와 마텔(Mattel)이 손을 잡고 AI를 장난감의 세계로 끌어들입니다. ChatGPT Enterprise를 활용해서 더 똑똑하고, 더 안전하고, 더 상상력 넘치는 놀이 경험을 제공할 예정이라고 하고, 이 파트너십을 통한 첫 제품이 올해 말 출시된다고 하네요.
또, ChatGPT의 2025년 6월 업데이트에서는 ‘Projects’ 기능에 강력한 성능을 더했습니다.
웹과 파일 기반의 심층 리서치, 음성 채팅, 모바일에서의 파일 업로드, 더 똑똑해진 메모리 기능 등으로
장기적인 프로젝트 작업에도 아주 쓸만한 도구가 되었습니다.
Plus, Pro, Team 요금제 사용자라면 추가 비용 없이 사용할 수 있습니다.
새로 나온, 주목할 만한 연구 논문
‘주목할 만한 최신의 AI 모델’을 먼저 소개하고, 각 영역별로 ‘Top Pick’은 해당 논문 앞에 별표(🌟)로 표시했습니다!
주목할 만한 최신 AI 모델
🌟오픈AI가 출시한 o3-pro는 수학, 과학, 코딩에 최적화된, 고신뢰성 대형 언어 모델입니다. 기존의 o1-pro와 o3를 능가하는데, 명확성, Instruction Following, 정확성 면에서 전문가 및 학문적 평가에서 최고 점수를 받았습니다. 웹 검색, 코드 실행, 이미지 이해 등 다양한 도구를 사용할 수 있지만, 응답 속도는 다소 느릴 수 있습니다. 이제 Pro 및 Team 요금제 사용자에게 o1-pro 대신 기본으로 제공되며, 동시에 o3의 가격은 80% 인하되었습니다.
→ [블로그 보기]

🌟구글 딥마인드가 개발한 FGN은 앙상블 기반으로 만든 새로운 확률 예측 기법으로, 데이터 기반의 날씨 예보를 훨씬 잘 해 줍니다. 이 모델은 알레아토릭 불확실성과 인식적 불확실성을 모두 모델링해서, 기존의 GenCast나 ECMWF ENS보다 더 정밀하게 열대성 저기압의 경로를 높은 신뢰도로 예측할 수 있다고 합니다.
카네기멜론대학교와 엔비디아가 공동 개발한 Multiverse는 MapReduce에서 영감을 받은 어텐션 메커니즘을 도입해서, 생성형 AI를 새로운 방식으로 재구성합니다. 오토리그레시브 LLM과 유사한 성능을 유지하면서도 더 높은 효율성을 달성합니다. → [논문 보기]
ByteDance의 Seedance 1.0은 고품질의 데이터 선별, 하이브리드형 확산 모델 학습, RLHF 기반의 후처리, 시스템 레벨의 속도 최적화 등을 통해서 영상 생성 분야에서 최고 성능을 달성했습니다. → [논문 보기]
Sentinel은 다양한 악성/정상 프롬프트 지시문 데이터셋으로 훈련시킨 최신 BERT 기반 분류기를 통해서, 프롬프트 인젝션 공격을 아주 높은 정확도로 탐지하는 기술입니다.
→ [논문 보기]
에이전틱 시스템과 자율 행동
AutoMind: Adaptive Knowledgeable Agent for Automated Data Science는 전문 지식, 탐색 기반 전략, 적응형 코드 생성 등을 통합해서 실제 데이터 과학의 워크플로우를 자동화하는 유연한 에이전트를 구축합니다. → [논문 보기]
🌟 Build the Web for Agents, not Agents for the Web 논문은 웹 인터페이스를 ‘에이전트를 위한 웹’으로 재설계할 것을 제안합니다. 에이전트가 더 잘 탐색할 수 있도록 안전성, 표준화, 에이전트 친화적 인터페이스를 강조합니다. → [논문 보기]
Code Researcher: Deep Research Agent for Large Systems Code and Commit History는 대형 소프트웨어 시스템의 코드와 커밋 이력, 크래시 리포트를 분석해서 자동으로 패치를 생성하고 검증하는 다단계 에이전트를 개발합니다. → [논문 보기]
학습 패러다임과 사전학습의 혁신
🌟 Reinforcement Pre-Training은 다음 토큰의 예측 작업을 강화학습(RL) 문제로 재정의해서, 대규모 텍스트 데이터에 대해서 추론 기반으로 사전학습이 가능하게끔 해 줍니다.
→ [논문 보기]VerIF: Verification Engineering for Reinforcement Learning in Instruction Following은 규칙 기반 검증기와 LLM 기반 검증기를 결합, 명령 수행형 강화학습의 일반화 성능을 향상시키는 학습 구조를 제안합니다. → [논문 보기]
Compound AI Systems Optimization: A Survey는 다중 구성요소로 이루어진 AI 시스템의 최적화 전략을 조사하는데, 특히 언어 피드백과 구성 요소 통합이 얼마나 어려운지를 강조해서 보여줍니다. → [논문 보기]
추론(Reasoning) 및 계획 모델
ComfyUI-R1: Exploring Reasoning Models for Workflow Generation은 모듈형 이미지 생성 시스템에서 강화학습과 연쇄적 사고(Chain-of-Thought)를 통해서 창의적인 워크플로우를 자동 생성하는 모델을 제안합니다. → [논문 보기]
Through the Valley: Path to Effective Long CoT Training for Small Language Models는 소형 LLM에서 장기적 Chain-of-Thought 훈련이 어떻게 성능을 저하시킬 수 있는지를 보여주고, 광범위한 파인튜닝을 통해서 이를 어느 정도 회복할 수 있는 방법을 제안합니다. → [논문 보기]
🌟 Play to Generalize: Learning to Reason Through Game Play는 게임플레이를 활용한 후처리 학습을 통해서, 도메인 특화 데이터 없이도 멀티모달 추론 능력을 향상시킵니다. → [논문 보기]
인프라 및 스케일링 전략
NoLoCo: No-all-reduce Low Communication Training Method for Large Models는 파라미터 동기화 과정을 제거한 분산 학습 기법을 통해서, 대형 모델의 학습 속도를 높이고 하드웨어 요구를 낮추는 훈련 방식입니다. → [논문 보기]
🌟 Position: Scaling LLM Agents Requires Asymptotic Analysis with LLM Primitives는 LLM 기반 다중 에이전트 시스템을 인류 중심적 모델링이 아닌, 비용 기반 점근적 분석(Asymptotic Reasoning)으로 접근해야 한다는 주장을 담고 있습니다.
→ [논문 보기]
모델 Adaptation 및 Specialization
Text-to-LoRA: Instant Transformer Adaption은 자연어 설명만으로 새로운 작업에 맞춘 LoRA 어댑터를 한 번의 Forward Pass로 생성해서, LLM을 빠르게 특화시킬 수 있는 기술입니다. → [논문 보기]
Domain2Vec: Vectorizing Datasets to Find the Optimal Data Mixture without Training은 데이터셋을 메타-도메인 벡터로 분해해서 재학습 없이 최적의 학습 데이터 조합을 찾을 수 있게 해 주어, 계산 효율성과 성능을 개선합니다. → [논문 보기]
ConfQA: Answer Only If You Are Confident는 확도-기반의 프롬프트와 상징적 지식 연결을 통해서 환각(Hallucination)을 줄이는 기법입니다. → [논문 보기]
읽어주셔서 감사합니다. 프리미엄 구독자가 되어주시면 튜링 포스트 코리아의 제작에 큰 도움이 됩니다!



