- Turing Post Korea
- Posts
- ๐FOD#118: OpenAIแแ ก แแ ตแแ ฎแซ แแ งแผแแ กแท(ๆๆ): 'แแ ตแแ กแผแแ กแซ แแ ฉแแ ฉแแ ฅ'แแ ช 'แแ ซแซแแ กแญแแ ณแซ Codex'
๐FOD#118: OpenAIแแ ก แแ ตแแ ฎแซ แแ งแผแแ กแท(ๆๆ): 'แแ ตแแ กแผแแ กแซ แแ ฉแแ ฉแแ ฅ'แแ ช 'แแ ซแซแแ กแญแแ ณแซ Codex'
+ แแ ณแทแแ ฎแแ ด แแ ฎแแ ญ แแ ฒแแ ณ แแ ตแพ แแ งแซแแ ฎ
๋ณด๊ณ ์ โ์ฌ๋๋ค์ ChatGPT๋ฅผ ์ด๋ป๊ฒ ์ฐ๊ณ ์๋๊ฐโ
๊ธ์ฃผ FOD์์๋, ์๋๋ ๋ค๋ฅธ ์ฃผ์ ๋ฅผ ์๊ฐํ๊ณ ์์์ต๋๋ค. ์ต๊ทผ์ โํ๊ฐ(Hallucination)โ์ ๋ํ ์ข์ ๋ ผ๋ฌธ๋ค์ด ๋์์, ์ด ์ด์ผ๊ธฐ๋ฅผ ์ข ํด ๋ณผ๊น ๋ ผ์๋ฅผ ํ๊ณ ์์๊ฑฐ๋ ์.
๊ทธ๋ฐ๋ฐ, ๊ฐ์๊ธฐ ์คํAI๊ฐ ์์์ผ์ ๋ด์ค๋ฅผ ๋ด๋ณด๋์ต๋๋ค - ์ฌ๋๋ค์ด ChatGPT๋ฅผ ์ด๋ป๊ฒ ์ฌ์ฉํ๋์ง ๊ตฌ์ฒด์ ์ธ ์์น๋ค๊น์ง ๋ด์ 63ํ์ด์ง ์ง๋ฆฌ ๋ณด๊ณ ์๋ฅผ ๋์ด์.
์ผ๋จ, ์ด๋ค ์ธ์ฌ์ดํธ๊ฐ ๋ค์ด ์์์ง ํฐ ๊ด์ฌ์ด ์๊ฒผ๊ณ , ๋ณด๊ณ ์๋ฅผ ์์ ์ถ๋ ฅํด์ ์ฝ์ด๋ดค์ต๋๋ค. ์ฝ๋ ๊ณผ์ ์์ ์๊ธด ์๋ฌธ์ ๋ค์ ํ์ธํ๊ณ ๋ช ํํ ํ๋ ค๊ณ ๋ ChatGPTํ๊ณ ์ด์ผ๊ธฐ๋ ์ข ๋๋ ๋ณด๊ตฌ์.
๊ฐ์ธ์ ์ผ๋ก ์ข ๋ฏธ์คํฐ๋ฆฌ๋ค๋ผ๊ณ ์๊ฐํ ๋ถ๋ถ๋ค์ด ์์๋๋ฐ, ์ด ๋ณด๊ณ ์๋ฅผ ์ด ์ฌ๋๋ค์ด ์ด๋ค ์๊ฐ์ผ๋ก ๋ณด๊ณ ์๋ฅผ ๋ฆฌ๋ทฐํ์๊น ํ๋ ํฌ์ธํธ๋ค์ด ์์์ด์.
ํ๋กฌํํธ: ์ด ๋ณด๊ณ ์์ ๋ํด ๋ช ๊ฐ์ง ์๋ฌธ์ด ๊ฐ๋ ์ฌํญ์ด ์๊ฑฐ๋ . ๋๋ ์ด ๋ณด๊ณ ์๋ฅผ ๋ณด๊ณ ์ด๋ค ๋ถ๋ถ์ ์ผ๊ด์ฑ์ด ์๊ฑฐ๋ ์ ํํ์ง ์๊ฑฐ๋, ์๋๋ฉด ๊ฒฐํจ์ด ์๋ค๊ณ ํ๋จํ๋์ง ์ด์ผ๊ธฐ๋ฅผ ํด ์ค.
๋ค, ์ ๊ฐ ๋ณด๊ธฐ์๋, ์ด ๋ณด๊ณ ์ ์ฌ๊ธฐ์ ๊ธฐ์ ์ผ๊ด์ฑ์ด ์๋ ๋ถ๋ถ์ด ๊ฝค ์์ด์. ๋๋ถ๋ถ์ ๊ฒฝ์ฐ์ โ์น๋ช ์ ์ธ ์ค๋ฅโ๋ผ๊ณ ๊น์ง ํ ๊ฑด ์๋์ง ๋ชฐ๋ผ๋, ์ด๋ฐ ์์ ์ค๋ฅ๋ค์ด๋ โ์ด?โ ํ๋ ๋ถ๋ถ๋ค์ด ํ๋ํ๋ ์์ฌ์ ์ ๋ขฐ์ฑ์ ํ ์ง์ ๋ด๋ ๊ฑฐ์ฃ . ๊ฒ๋ค๊ฐ, ๋ณด๊ณ ์ ์ ์ฒด๋ฅผ ํ๋๋ ๋ ํฐ ๋ฌธ์ ์ ๋ ์์ด์.
๊ทธ๋ฐ ์ ๋ค์ ํ ๋ฒ ์ง์ด๋ณผ๊ป์.
๋ณด๊ณ ์์๋ โ2025๋ 7์ ๊ธฐ์ค์ผ๋ก, ChatGPT ์๋น์ ์ฟผ๋ฆฌ์ ์ฝ 70%๋ ์ ๋ฌด์ ๊ด๋ จ์ด ์์๋ค. ์ ๋ฌด ๊ด๋ จ ์ฟผ๋ฆฌ์ ๋น์ ๋ฌด ๊ด๋ จ ์ฟผ๋ฆฌ๊ฐ ๋ชจ๋ ์ฆ๊ฐํ๊ณ ์์ง๋ง, ๋น์ ๋ฌด ์ฟผ๋ฆฌ๊ฐ ๋ ๋น ๋ฅด๊ฒ ์ฆ๊ฐํ๊ณ ์๋คโ๋ ๋ด์ฉ์ด ์ฌ๋ฌ๊ฐ์ง ํํ์ผ๋ก ๋ฐ๋ณตํ๋ฉด์ ๋์ต๋๋ค.
๊ทธ๋ฐ๋ฐ ๊ฐ์ฃผ๋ฅผ ๋ณด๋ฉด ์ด๋ฐ ๋ด์ฉ์ด ์์ด์. โ์ฐ๊ตฌ ์ํ์ ์ธ ๊ฐ์ง ์๋น์ ์๊ธ์ (๋ฌด๋ฃ, Plus, Pro)๋ฅผ ํฌํจํ๋ค. ์คํAI๋ ๋ค๋ฅธ ๋ค์ํ ChatGPT ์๊ธ์ (Business fka. Teams, Enterprise, Education)๋ ์ ๊ณตํ์ง๋ง, ์ด๋ฒ ์ํ์๋ ํฌํจํ์ง ์์๋ค.โ
์ด ๋ฆฌํฌํธ๋ฅผ โ์๋น์ ์ฌ์ฉ ๋ณด๊ณ ์โ๋ก๋ง ๋ณธ๋ค๋ฉด, Teams, Business, Enterprise, Education ๊ณ์ ์ ์ ์ธํ ๊ฑด ๋น์ฐํด ๋ณด์ ๋๋ค - ์ด๊ฒ๋ค์ โ์๋น์ ์๊ธ์ โ๊ฐ ์๋๋ผ ๊ธฐ์ ์ฉ ์ํ์ด๋๊น์. ์ด๊ฒ ๊ทธ ์์ฒด ๋๋ฌธ์ ๋ ผ๋ฌธ์ด ์๋ชป๋ ๊ฑด ๋ฌผ๋ก ์๋์์.
๊ทธ๋ฐ๋ฐ, ๊ทธ๋ฌ๋ฉด โ์ ๋ฌด vs. ๋น์ ๋ฌดโ ์ฌ์ฉ ๋น์ค์ ๋ํด์๋ ์ด๋ป๊ฒ ๊ฒฐ๋ก ์ ๋ด๋ฆด ์ ์๋ ๊ฑธ๊น์?
๋น์ ๋ฅผ ํ์๋ฉด, ๋ง์น ์ฌ๋๋ค์ด ํผ์๋ฅผ ์ด๋ป๊ฒ ๋จน๋์ง์ ๋ํ ๋ณด๊ณ ์๋ฅผ ์ฐ๋ฉด์, ์ผ๋ฐ ์๋น์ด๋ ํ๊ต ์๋น, ํ์ฌ ํํฐ์์ ๋จน๋ ํผ์๋ ๋ค ๋นผ๊ณ ๋๋ฏธ๋ ธ ํผ์ ๋งค์ฅ์์ ํฌ์ฅํด ๊ฐ ๊ฒ๋ง ์ธ๋ ๊ฒ ๋น์ทํ ๊ฑด๋ฐ์.
ํผ๋์ค๋ฌ์ด ๊ฑด ๋ฐ๋ก โ๋ณด๊ณ ์์ ํ๋ ์โ์ด์์. ๋ณด๊ณ ์ ์ ๋ชฉ๊ณผ ๊ฒฐ๋ก ์ ๋ง์น โ์ฌ๋๋ค์ด ChatGPT๋ฅผ ์ด๋ป๊ฒ ์ฌ์ฉํ๋์งโ ์ ์ฒด๋ฅผ ๋ค๋ฃจ๊ณ ์ด์ผ๊ธฐํ๋ ๊ฒ์ฒ๋ผ ๋ณด์ด์ง๋ง, ์ฌ์ค์ โ์๋น์๋ค์ด ChatGPT๋ฅผ ์ด๋ป๊ฒ ์ฌ์ฉํ๋์งโ์ ๋ํ ๋ด์ฉ์ด๋๊น์. ์ด ์ค์ํ ์์์ด ํ๋๊ฐ ๋น ์ง๋ฉด์, ๋ณด๊ณ ์์ ์ค๋ฆฐ ์ฌ์ค๊ณผ ์ธ์ฌ์ดํธ๋ค์ ์์ ํ ๋ค๋ฅด๊ฒ ์ฝํ์ผ ํ๋ ์ํฉ์ด ๋ฉ๋๋ค.
โ์ฌ์ฉ๋์ 70%๊ฐ ๋น์ ๋ฌด ๊ด๋ จโ์ด๋ผ๋ ๋ด์ฉ์ ๋ฌด๋ฃ/Plus/Pro ์ฌ์ฉ์์ ๊ฒฝ์ฐ์๋ ํด๋น๋์ง๋ง, (๋น์ฐํ๊ฒ๋) ์ ๋ฌด์ฉ ์ฌ์ฉ์ด ์๋์ ์ผ ์ ๋ฐ์ ์๋ โ๊ธฐ์ ๊ณ์ โ์ด๋ผ๋ ๊ฑฐ๋ํ ๋ถ๋ถ์ ๋นผ๋๊ณ ์ ์ ์ฒด ์ฌ์ฉ ํจํด์ ์ ์ฉํ ์๋ ์์ต๋๋ค.
โ์ ๋ฌด vs. ๋น์ ๋ฌดโ ์ฌ์ฉ ํธ๋ ๋์ ๋ณํ๋ โ์๋น์ ๊ณ์ โ ๊ทธ๋ฃน ์์์๋ ์ฌ์ค์ด๊ฒ ์ง๋ง, ์ฌ๋ฌด์ค, ๊ต์ค, ๊ธฐ์ ์ํฌํ๋ก์ฐ์์ ์ด๋ค ์ผ์ด ๋ฒ์ด์ง๊ณ ์๋์ง๋ ์ ์๊ฐ ์์ต๋๋ค. ๊ฑฐ๊ธฐ์๋ ์ ๋ฌด์ ๋น์ ๋ฌด ์์ชฝ ๋ชจ๋์ ChatGPT๋ฅผ ์ฐ๊ณ ์์ ํ ๋๊น์.
์ ๋ฆฌํ์๋ฉด ์ด๋ ์ต๋๋ค.
๋ง์ฝ ์ฐ๊ตฌ์๋ค์ด ์ ๋ชฉ์ โ์๋น์๋ค์ด ChatGPT๋ฅผ ์ด๋ป๊ฒ ์ฌ์ฉํ๋์งโ๋ผ๊ณ ํ๋ค๋ฉด ์๋ฌด ๋ฌธ์ ๊ฐ ์์์ ๊ฒ๋๋ค.
๊ทธ๋ฐ ๋ถ๋ถ์ ๋์ณค๊ธฐ ๋๋ฌธ์, ์ด ๋ณด๊ณ ์๋ โChatGPT๊ฐ ๋๋ถ๋ถ ๋น์ ๋ฌด์ฉ์ผ๋ก ์ฌ์ฉ๋๋คโ๋ ์ฃผ์ฅ์ โ์ฆ๊ฑฐโ๋ก ์๋ชป ์ธ์ฉ๋ ์ํ์ด ์์ต๋๋ค. ์ด ์ฃผ์ฅ์ ๋ณด๊ณ ์์์ ์ ํํ ํ๋ณธ ๊ทธ๋ฃน์ ํน์ฑ ๋๋ฌธ์ ๋ณด๊ณ ์ ๋ด์ฉ์ผ๋ก ๋ท๋ฐ์นจํ ์ ์๋ ๋ด์ฉ์ด์ฃ .
๋ณด๊ณ ์ ์ ์๋ค์ โ๋๋ถ๋ถ์ AI ๊ฒฝ์ ๋ถ์์ด ์ ๊ธ ๋ ธ๋์์์ ์์ฐ์ฑ ํฅ์์ ์ด์ ์ ๋ง์ถ๊ณ ์์ง๋ง, ์ผ ์ธ์ ์ธ ํ๋(๊ฐ์ ๋ด ์์ฐ)์ ๋ฏธ์น๋ ์ํฅ๋ ๋น์ทํ ๊ท๋ชจ๊ณ , ์ด์ฉ๋ฉด ๋ ํด ์๋ ์๋คโ๋ผ๊ณ ๋งํ๊ณ ์๋ ์ ์ธ๋ฐ์.
๋ง์ฝ ์ด๋ฐ ์ฃผ์ฅ์ ํ๋ ค๋ฉด, ์ค์ ๋ก ๋น๊ต ๋ถ์์ ํด ๋ณด๊ณ ์ฆ๋ช ์ ํด์ผ๊ฒ ์ฃ - ๊ทธ๋ฐ ๊ณผ์ ์ด ์๋ค๋ฉด, ์ด๋ฐ ๋น๊ต๋ ๊ทธ์ ๊ทผ๊ฑฐ์๋ ์ฃผ์ฅ์ผ ๋ฟ์ด๊ตฌ์.
๋ โ๋น์ ๋ฌด ์ฌ์ฉ์ด ๋ ๋น ๋ฅด๊ฒ ์ฆ๊ฐํ๋ค๋ ์ฌ์ค์, ์์ฑํ AI๋ฅผ ์ฌ์ฉํด์ ์ป๋ ํ์ ์ด๋(Welfare Gain)์ด ์๋นํ ์ ์๋ค๋ ๊ฒ์ ์์ฌํ๋คโ๊ณ ์ฃผ์ฅํ๊ธฐ๋ ํ๋๋ฐ์:
์์ฑํ AI๊ฐ ํ์ ์ด๋์ ๊ฐ์ ธ์จ๋ค๋ ๊ฑด, AI๋ฅผ ์ฌ์ฉํจ์ผ๋ก์จ ๊ฐ์ธ์ด ๋ ํจ์จ์ ์ผ๋ก ์ ๋ฌด๋ฅผ ์ฒ๋ฆฌํ๊ฑฐ๋, ์๋ก์ด ์ฐฝ์๋ฌผ์ ๋ง๋ค๊ณ , ํ์ต ๋ฅ๋ฅ ์ ๋์ด๋ ๋ฑ ์ผ์์ํ์์ ๋๋ผ๋ ํธ์ต์ด ์ปค์ง๋ ๊ฒ์ ์๋ฏธํฉ๋๋ค
์๋ฅผ ๋ค์ด์, ์ ๋ฌด ์๊ฐ ๋จ์ถ(๋ณด๊ณ ์ ์ด์ ์์ฑ, ์๋ฃ ์์ฝ ๋ฑ AI๊ฐ ์ฒ๋ฆฌํ๋ฉด์ ๋จ๋ ์๊ฐ์ ๋ค๋ฅธ ์ค์ํ ์ผ์ ํฌ์), ์ฐฝ์ ํ๋ ์ง์(๊ทธ๋ฆผ, ๊ธ์ฐ๊ธฐ ๋ฑ ์ฐฝ์์ ์ง์ ์ฅ๋ฒฝ์ด ๋ฎ์์ ธ ๋๊ตฌ๋ ์ฝ๊ฒ ์๊ธฐ๋ง์ ์ํ์ ๋ง๋ค ์ ์์), ๊ฐ์ธ ํ์ต ์ฆ์ง(๋ณต์กํ ๋ด์ฉ์ ์ฝ๊ฒ ์ค๋ช ํด ์ฃผ๊ฑฐ๋, ๋ง์ถคํ ํ์ต ์๋ฃ๋ฅผ ๋ฐ์ ์ง์์ ๋น ๋ฅด๊ฒ ์ต๋) ๋ฑ ๊ฐ์ธ์ ์ฌ๊ฐ, ํ์ต, ์๊ธฐ๊ณ๋ฐ ๋ฑ ์ถ์ ์ง์ ๋์ด๋๋ฐ ๊ธฐ์ฌํ๊ณ ์๋ค๋ ๋ป์ ๋๋ค.
์ด ํฌ์ธํธ๋ฅผ ํน๋ณํ ๊ฐ์กฐํ๊ณ ์ถ์ดํ๋ ์ด์ ๊ฐ ์๋์ง๋ ๋ชจ๋ฅด๊ฒ ์ง๋ง, ์ด ์ญ์ ๊ทผ๊ฑฐ๊ฐ ๋น์ฝํฉ๋๋ค.
์๋ฐฑ๋ง, ์์ฒ๋ง ๋ช ์ ์ฌ์ฉ์, ๋ ์๋ฅผ ๊ฐ์ง ์๋น์ค๋ ํ์ฌ๋ผ๋ฉด, ๊ฑฐ๊ธฐ์๋ถํฐ ๋์ค๋ ๋ง์ ๋ํด์ ์ฑ ์์ ์ ธ์ผ ํฉ๋๋ค. ์ด์จ๋ ์ด๋ ๊ฒ ์ฝ๋ ์ฌ๋์ผ๋ก ํ์ฌ๊ธ ์๋ฌธ์ด ๋ค๊ฒ ํ๋ค๋ฉด, ๊ฒฐ๊ตญ์ ์์ ์ ์ ๋ขฐ์ฑ์ ๊ธ์ด ๊ฐ ์ ๋ฐ์ ์์ผ๋๊น์.
์ด๋ ๊ฒ โ์คํAIโ๋ฅผ ์๋ง(?)ํ๋ฉด์ ๋ง๋ฌด๋ฆฌ๋ฅผ ํ๋ ํ๋๋, Codex๋ฅผ ์ถ์ํ๋ค์. ์ด๊ธฐ ๋ฐ์์ด ๋์์ง๋ ์์ ๋ณด์ ๋๋ค. ^.^
์คํAI, ์ ๋ชจ๋ธ โGPT-5-Codexโ ์ถ์
์คํAI์ ์ฝ๋ฉ ์์ด์ ํธ Codex์ ์ ์ฉํ ์ ๋ชจ๋ธ โGPT-5-Codexโ๋ฅผ ๋ด๋จ์ต๋๋ค.
GPT-5-Codex โ big improvement for long-running agentic tasks:
โ Greg Brockman (@gdb)
5:20 PM โข Sep 15, 2025
Codex ๋ฟ ์๋๋ผ Claude Code, Cursor ๋ฑ ์๋ง์ AI ๊ธฐ๋ฐ ์ฝ๋ฉ ๋๊ตฌ๋ค์ด ๊ฐ์ถ์ ์ ํผ์ด๊ณ ์๋๋ฐ์. ์ฌ๋ฌ๋ถ์ ์ด๋ค ๋๊ตฌ์ ์์ ๋ค์ด์ฃผ์๋์?
Codex๋ ์ง์์ ์ ๋ฐ๋ฅด๊ณ , ์๋ต ์๋๋ ๋น ๋ฅด๊ณ , ๊ทธ๋ฆฌ๊ณ ๋น๊ต์ ์ค๋ฅ๊ฐ ์์ด ์ฝ๋๋ฅผ ์์ฑํด์ ์ฃผ๋ชฉ๋ฐ๊ณ ์์ต๋๋ค. ํนํ, ํ ํฐ ์ฌ์ฉ ์ต์ ํ, ์์ ๋์ด๋์ ๋ฐ๋ฅธ ์ค๋งํธํ ์ฒ๋ฆฌ ๋ฐฉ์์ผ๋ก, ์์ด์ ํธ๋ก์์ ๋ฉด๋ชจ๋ฅผ ๊ฐ์กฐํ ๊ฒ ๋๋ณด์ ๋๋ค - ๊ฐ๋จํ ์์ ์ ์์๊ฐ์ ์ฒ๋ฆฌํ๊ณ , ๋ณต์กํ ๋ฌธ์ ๋ฅผ ๋ฐ์ผ๋ฉด ๋ ๊น์ด ์ถ๋ก ์ ํด์ ๊ฐ๋ฐ์์ ์์ฐ์ฑ์ ํ์ธต ๋์ด์ฌ๋ฆฝ๋๋ค. ํ์ง๋ง ์ผ๋ถ ๊ฐ๋ฐ์๋ ๋ณต์กํ ์์ ์ ํ ๋ Codex๊ฐ "์ข ๋๋ฆฌ๊ฒ ๋๊ปด์ง๋ค"๊ณ ํ๊ธฐ๋ ํ๋ค์.

Image Credit: Introducing Updates to Codex
๋ฌผ๋ก , Codex๋ ์ด๋ฏธ์ง ์ ๋ ฅ์ ์ง์ํ์ง ์๋๋ค๋ ๊ฐ, ๋ณต์กํ ๋ฆฌํฉํ ๋ง์ ์ ํ์ด ์๋ค๋ ๊ฐ ํ๋ ํ๊ณ๋ ์์ต๋๋ค. Claude Code๊ฐ ๊ทธ๋ฐ ์ฌ๋ฌ๊ฐ์ง ๋ฉด์์ ์์ฑ๋๊ฐ ์์ง์ ๋๋ค๊ณ ๋ณด์ง๋ง, Codex๋ ๋น ๋ฅด๊ฒ ๋ฐ์ ํ๊ณ ์๋ ๋งํผ, ๊ฒฐ๊ตญ์ ๊ฐ๋ฐ์ ์ํฌํ๋ก์ฐ์ ์ด๋ค ๋๊ตฌ๊ฐ ๋ ์ ๋ฐํ๊ณ ๋ถ๋๋ฝ๊ฒ ํตํฉ๋๋๋๊ฐ ์ฑ๊ณต์ ์ด์ ๊ฐ ๋์ง ์์๊น ์ถ๋ค์.
*์์ง ํ๋ง ํฌ์คํธ ์ฝ๋ฆฌ์ ๊ตฌ๋ ์ ํ์ จ๋์? ๊ตฌ๋ ํด ์ฃผ์๋ฉด ๋งค์ฃผ ์ค์ํ AI ๋ด์ค๋ฅผ ์ ๋ฆฌํ ๋ค์ด์ ์คํธ๋ฅผ ๋ฐ์ผ์ค ์ ์์ต๋๋ค!
ํธ์ํฐ ๋ผ์ด๋ธ๋ฌ๋ฆฌ (Twitter Library) ๐ฆ
๊ฑฐ์ ๋งค์ฃผ RL(๊ฐํ ํ์ต)์ ๋ํ ์๋ก์ด ์ฐ๊ตฌ์ ์๋ฃ๊ฐ ์์์ ธ ๋์ค๊ณ ์์ต๋๋ค. ์ต์ ํธ๋ ๋์ ๋ฐ๋ง์ถฐ ์ง์์ ๋์์์ด โ์๋ก๊ณ ์นจโํ๊ณ ์ ๋ฐ์ดํธํด์ผ ํ์ฃ - ํ๋ค๊ธฐ๋ ํ์ง๋ง์ ^.^;. ๊ทธ๋์ ์ค๋์, ์ฌ๋ฌ๋ถ์ด RL ๋ถ์ผ์์ ๋ค์ฒ์ง์ง ์๋๋ก ๋์์ค 6๊ฐ์ง ๋ฌด๋ฃ ์๋ฃ๋ฅผ ๊ณต์ ํด ๋๋ฆฝ๋๋ค:
๊ธ์ฃผ์ ์ฃผ๋ชฉํ ๋งํ ์ ๊ณ ๋ํฅ ๐ฐ
์ค์ฐ๋กํฝ, MCP ๊ณต๊ฐ
์ค์ฐ๋กํฝ์ MCP ๋ ์ง์คํธ๋ฆฌ๊ฐ ๋๋์ด ๊ณต๊ฐ๋์์ต๋๋ค. ๊ณต๊ฐ์ ์ผ๋ก ์ฌ์ฉ ๊ฐ๋ฅํ MCP ์๋ฒ๋ฅผ ์ฐพ์๋ณผ ์ ์๋, ์ผ์ข ์ ์คํ ์นดํ๋ก๊ทธ์ด์ API์ธ๋ฐ์. ์ด ๋ ์ง์คํธ๋ฆฌ๋, ๊ณต๊ณต, ๊ทธ๋ฆฌ๊ณ ๋ฏผ๊ฐ ํ์ ๋ ์ง์คํธ๋ฆฌ๊ฐ ์๋ก ๋ฐฉํดํ์ง ์๊ณ ์ฑ์ฅํ ์ ์๊ฒ๋ ์ค๊ณ๋ 'Single Source of Truth' ์ญํ ์ ํฉ๋๋ค. ์ปค๋ฎค๋ํฐ๊ฐ ์ง์ ๊ด๋ฆฌํ๋ ๋ชจ๋ธ๊ณผ ์คํ ์์ค ๊ธฐ๋ฐ์ ๊ฐ์ถ ์ด ํ๋ก์ ํธ๋, '๋งฅ๋ฝ์ ์ธ์ํ๋ AI(Context-Aware AI)'๋ฅผ ํ์ฅํ๊ธฐ ์ํ ์์ฃผ ์ค์ํ ๊ธฐ์ด์ ๋๋ค. ์กฐ์ฉํ๊ฒ ์์ํ์ง๋ง, ๊น์ ๋ฟ๋ฆฌ, ๊ทธ๋ฆฌ๊ณ ์๋ํ ์ผ๋ง์ ๊ฐ์ง ํ๋ก์ ํธ๋ผ๊ณ ํ ์ ์์ต๋๋ค.
Oracle์ ํ๊ฒฉ์ ์ธ ํผ๋ฒ
10๋ ๋์ โ์กฐ์ฉํโ ์ธํ๋ผ๋ฅผ ๊ตฌ์ถํด ์จ Oracle, ๋๋์ด AI ๊ฑฐ๋ฌผ๋ค ์ฌ์ด์ ํฐ ์๋ฆฌ๋ฅผ ๋ด๋ฉฐ ๋ฐ์ด๋ค์์ต๋๋ค. ์ฌ์ ์ต๋ ๊ท๋ชจ์ ์ปดํจํ ๊ณ์ฝ์ ์ถ์งํ๊ณ ์๊ณ , AI ์์๊ฐ ๋ฐ๋ ค๋ค๋ฉด์ ๋ฐฑ๋ก๊ทธ๊ฐ ๋์ ๋๊ฒ ๋์ด๋๊ณ ์์ต๋๋ค. ์ด์ Oracle์ โ๋ก์โ ๋ฐ์ดํฐ๋ฒ ์ด์ค ๊ณต๊ธ์ ์ฒด๊ฐ ์๋๋ผ, ๊ธฐ์ ์ฉ AI์ ํต์ฌ ์ฐ๊ฒฐ๊ณ ๋ฆฌ๋ก ์๋ฆฌ๋งค๊นํ๊ณ ์๋ ๊ฒ ๊ฐ๋ค์. AI ๋ชจ๋ธ์ ๋ง๋๋ ๊ตฐ๋น ๊ฒฝ์์ ๋ฐ์ด๋ค์ง ์๊ณ , ๋ค๋ฅธ ํ์ฌ๋ค์ด ๊ทธ ์๋ฅผ ๋ฌ๋ฆด ์ ์๋๋ก ๋ฐ์ดํฐ, ๊ฑฐ๋ฒ๋์ค, ์ ํต์ด๋ผ๋ '์ฒ ๋ก'๋ฅผ ๊น์๋์ ๊ฒ๋๋ค.
Devin, ๋ ๋ฒจ ์ !
์ฝ๋ฉ ์์ด์ ํธ Devin์ ๋ง๋ Cognition AI๊ฐ ์ต๊ทผ 102์ต ๋ฌ๋ฌ(์ฝ 14์กฐ ์)์ ๊ฐ์น๋ก 4์ต ๋ฌ๋ฌ(์ฝ 5,500์ต ์)์ ํฌ์๋ฅผ ์ ์นํ์ต๋๋ค. ์ฌ ์ด๋ง ํด๋ 40์ต ๋ฌ๋ฌ ๊ฐ์น์๋๋ฐ, ๋ฒ์จ ๋ ๋ฐฐ ์ด์ ๋ด ๊ธ์ก์ด์ฃ . 1๋ ๋ ์ ๋ผ์ ์ฐ๊ฐ ๋ฐ๋ณต ๋งค์ถ(ARR)์ด 100๋ง ๋ฌ๋ฌ์์ 7,300๋ง ๋ฌ๋ฌ๋ก ๊ธ์ฆํ๊ณ , ์์ ์๊ฐ์ก(Net Burn)์ 2,000๋ง ๋ฌ๋ฌ ๋ฏธ๋ง์ ๋๋ค. ํ์ฌ์ ๋ฌธํ๋งํผ์ด๋ ๊ณต๊ฒฉ์ ์ธ ์์น๋ผ๊ณ ํ ์ ์๊ฒ ์ฃ ? ์ฅ์๊ฐ ๋ ธ๋, ์ ๋ฆฌํด๊ณ , ๋ฐ์ด์์(Buyout) ๊ฐ์ ์ด์๋ค๋ Cognition AI์ ๋์ ์ธ๊ณ ๋ค์ด์ค๋ ํฌ์์๋ค์ ๋ง์ง ๋ชปํ๊ณ , ์ฑ์ฅ์ ๋ฆ์ถ์ง๋ ๋ชปํ์ฃ . ๊ฐ์น์ ์๋ ๋ฉด์์ ๋ง์น โํ์ดํผ๋ฃจํโ๋ฅผ ํ ๋ฏํฉ๋๋ค. ํ๋งํฌ์คํธ ์ฝ๋ฆฌ์์์ ๊ณง ์ด ํ์ฌ์ ๋ํ ๋ถ์ ๊ธฐ์ฌ๋ฅผ ๋ฐํ ์์ ์ด๋, ๊ธฐ๋ํด ์ฃผ์ธ์.
ํ๋ง ํฌ์คํธ ์ฝ๋ฆฌ์ํ์ด ์ฝ๊ณ ์๋ ๊ฒ๋ค
Magical Thinking on AI by Melanie Mitchell
"Magical Thinking on AI"๋ผ๋ ์ด๋ฆ์ ์ด ๊ธ์์, ๋ฉ๋ผ๋๋ โํ ๋ง์ค ํ๋ฆฌ๋๋จผ์ ์ต๊ทผ ์ฃผ์ฅโ์ ์ฌ๋ ์๊ฒ ๋ค๋ฃน๋๋ค. ํ ๋ง์ค ํ๋ฆฌ๋๋จผ์ AI๋ฅผ ์์ ํ๊ฒ ๋ง๋ค๊ธฐ ์ํด์ ๋ฏธ๊ตญ๊ณผ ์ค๊ตญ์ ํ๋ ฅ์ด ํ์ํ๊ณ , ๋ง์ฝ ์ฐ๋ฆฌ๊ฐ ์ ๋์ํ์ง ๋ชปํ๋ฉด ์ด์ง๋ฅ AI๊ฐ ์์จ์ ์ผ๋ก ์งํํ ์ ์๋ค๋ ์ฐ๋ ค๋ฅผ ์ ๊ธฐํ๋๋ฐ์. ๊ทธ๋ ์ง๋ง ๋ฉ๋ผ๋๋ ์ด๋ฐ ์๊ฐ์ด "๋ง๋ฒ์ ์ฌ๊ณ "๋ผ๊ณ ์ด์ผ๊ธฐํ๋ฉด์ ๋ฐ๋ฐํฉ๋๋ค. AI์ ๋ฅ๋ ฅ์ ๋ฐฉ๋ํ ์ธ๊ฐ ๋ฐ์ดํฐ์์ ๋น๋กฏ๋ ๊ฒ์ด์ง, ์ค์ค๋ก ๋ฐ๋ฌํ ๊ฒฐ๊ณผ๊ฐ ์๋๋ผ๋ ์ ์ ๊ฐ์กฐํ๋ฉด์, ๊ท์ ๋ ํ์ค์ ๋ฐํ์ ๋๊ณ ํด์ผ ํ๋ค๊ณ ์ด์ผ๊ธฐํ๊ณ ์์ต๋๋ค. ์ด ๋ ผ์๋, AI์ ๋ณธ์ง, ๊ทธ๋ฆฌ๊ณ ๊ทธ์ ๋ง๋ ๊ด๋ฆฌ ๋ฐฉ์์ด ๋ญ๊น ํ ๋ฒ ๋ค์ ์๊ฐํด ๋ณด๊ฒ ํ๋ ์ค์ํ ์์ฌ์ ์ ๋ด๊ณ ์์ต๋๋ค.
Demis Hassabis on AI, Creativity, and a Golden Age of Science | All-In Summit
๊ตฌ๊ธ ๋ฅ๋ง์ธ๋์ CEO ๋ฐ๋ฏธ์ค ํ์ฌ๋น์ค๊ฐ AI, ์ฐฝ์์ฑ, ๊ทธ๋ฆฌ๊ณ ๊ณผํ์ ํฉ๊ธ๊ธฐ์ ๋ํด ๋ ผํฉ๋๋ค. AI๊ฐ AlphaFold ๊ฐ์ ํ์ ์ ์ธ ๊ธฐ์ ๋ก ์ธ๋ฅ๊ฐ ์ง๋ฉดํ ๋์ ๋ฅผ ํด๊ฒฐํ ๋ฟ๋ง ์๋๋ผ, ํฅํ 5~10๋ ๋ด์ ์ง์ ํ ๋ฒ์ฉ ์ธ๊ณต์ง๋ฅ(AGI)์ด ๊ฐ๋ฐ๋์ด์ ๊ณผํ๊ณผ ์ฐฝ์์ฑ์ ์๋ก์ด ํฉ๊ธ๊ธฐ๋ฅผ ์ด ๊ฒ์ด๋ผ๋ ์ ๋ง์ ์ ์ํ๊ณ ์์ต๋๋ค. ๋ฐ๋ฏธ์ค ํ์ฌ๋น์ค์ ์ฃผ์ ๋ฉ์์ง๋, AI๊ฐ ๋จ์ํ ๊ธฐ์ ์ ๋ฐ์ ์ํค๋ ๋๊ตฌ๋ฅผ ๋์ด์, ์ธ๊ฐ์ ์ฐฝ์์ฑ์ ์ฆํญ์ํค๊ณ ์ธ๋ฅ์ ์ถ์ ๊ทผ๋ณธ์ ์ผ๋ก ๊ฐ์ ํ๋ ๋ฐ ๊ฒฐ์ ์ ์ธ ์ญํ ์ ํ ๊ฑฐ๋ผ๋, ๊ฝค๋ ๋๊ด์ ์ธ ๋น์ ์ ๋๋ค.
Fully autonomous robots are much closer than you think โ Sergey Levine with Dwarkesh Patel
์ธ๋ฅด๊ฒ์ด ๋ ๋น ๋ฐ์ฌ๋ ์ด ํ์บ์คํธ์์ ์์ ์์จ ๋ก๋ด์ ๋ฐ์ ๊ฐ๋ฅ์ฑ์ ์ง์งํ๊ฒ ํ๊ตฌํฉ๋๋ค. 2030๋ ์ฏค ๊ฐ์ฌ๊น์ง ์ํํ ์ ์๋ ๋ก๋ด์ด ๋ฑ์ฅํ ์ ์๋ค๋ ์ ๋ง์ ๋ด๋๊ณ ์๋๋ฐ์. ์ค์ ๊ฒฝํ์ ํตํ ๊ธฐ์ ํฅ์๊ณผ ํ์ต ๋ฅ๋ ฅ์ ์ค์์ฑ์ ์ญ์คํฉ๋๋ค. ๋นจ๋ ์ ๊ธฐ๋ ์ฃผ๋ฐฉ ์ฒญ์ ๊ฐ์ ์ฑ๊ณผ๋ฅผ ์๋ก ๋ค๋ฉด์, ์์ ์ฑ๊ณผ ๋ฐ์ดํฐ ํ๋ณด์ ๊ณผ์ ๋ฅผ ์ธ๊ธํฉ๋๋ค. ๋ ์ค๊ตญ์ ์ ์กฐ ๊ฒฝ์๋ ฅ๊ณผ ๊ฒฝ์ ์ ํ๊ธํจ๊ณผ๋ฅผ ๊ณ ๋ คํ ๋, ๋ก๋ด ๊ธฐ์ ์ ๊ท ํ ์กํ ์ํ๊ณ ๊ตฌ์ถ์ด ์๊ธํด ๋ณด์ธ๋ค๋ ์ด์ผ๊ธฐ๋ ๋ง๋ถ์ด๊ณ ์์ต๋๋ค.
์๋ก ๋์จ, ์ฃผ๋ชฉํ ๋งํ ์ฐ๊ตฌ ๋ ผ๋ฌธ
โ์ฃผ๋ชฉํ ๋งํ ์ต์ ์ AI ๋ชจ๋ธโ์ ๋จผ์ ์๊ฐํ๊ณ , ๊ฐ ์์ญ๋ณ๋ก โTop Pickโ์ ํด๋น ๋ ผ๋ฌธ ์์ ๋ณํ(๐)๋ก ํ์ํ์ต๋๋ค!
์ฃผ๋ชฉํ ๋งํ ์ต์ AI ๋ชจ๋ธ
VaultGemma โ ๋ํผ๋ฐ์ ํ๋ผ์ด๋ฒ์๋ฅผ ์์ ํ ์ ์ฉํด์ 1B ํฌ๊ธฐ์ ๋์ฝ๋ ์ ์ฉ Gemma ๋ณํ ๋ชจ๋ธ์ ํ๋ จํ๊ณ , ์ค์ฉ์ ์ธ DP ์ค์ผ์ผ๋ง ๋ฒ์น์ ๋ณด์ฌ์ฃผ๊ณ , ํ๋ผ์ด๋ฒ์๋ฅผ ๋ณดํธํ๋ ์ ํ๋ฆฌ์ผ์ด์ ์ ์ํ ๊ฐ์ค์น๋ฅผ ๊ณต๊ฐํฉ๋๋ค. โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
Hunyuan-MT / Hunyuan-MT-Chimera โ 33๊ฐ ์ธ์ด์ ๊ฑธ์น ๋ค๊ตญ์ด ๋ฒ์ญ ๋ชจ๋ธ์ ๊ตฌ์ถํ๊ณ , ํ ์คํธ ์์ ์์ ์ฌ๋ฌ ์ค์ ์ ์ถ๋ ฅ์ ์ง๊ณ, ๊ฒฌ๊ณ ์ฑ์ ๋์ฌ์ WMT2025 ์ฑ๋ฅ์์ ์ต์ฒจ๋จ์ ๋ฌ์ฑํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
mmBERT โ 3T ํ ํฐ์ผ๋ก ํ๋์ ์ธ ๋ค๊ตญ์ด ์ธ์ฝ๋๋ฅผ ์ฌ์ ํ๋ จํ๊ณ , ์ด๋๋ง๋ ์ธ์ด ํ์ต์ ํตํด์ ๊ณ ์์ ๋ฐ ์ ์์ ์ธ์ด ๋ชจ๋์์ ๋ถ๋ฅ์ ๊ฒ์ ์ฑ๋ฅ์ ํฅ์์ํต๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
Qwen3-Next โ ๊ฒ์ดํธ DeltaNet๊ณผ ๊ฒ์ดํธ ์ดํ ์ ์ ๊ฒฐํฉํ๊ณ , ์ดํฌ์ MoE์ ๋ค์ดํฐ๋ธ ๋ฉํฐ-ํ ํฐ ์์ธก์ ์ ์ฉํด์ 80B ํ๋ผ๋ฏธํฐ ์ค ์ฝ 3B๋ง ํ์ฑํํ๋ฉด์ ์ฅ๋ฌธ ์ปจํ ์คํธ๋ฅผ ํจ์จ์ ์ผ๋ก ์ฒ๋ฆฌํ ์ ์๊ฒ ํด ์ค๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
์์ด์ ํธ, ๋๊ตฌ ๋ฐ ํ๊ฒฝ
๐ Tool-space interference in the MCP era: Designing for agent compatibility at scale (Microsoft) โ Model Context Protocol ์ํ๊ณ์์ ๋๊ตฌ ์นดํ๋ก๊ทธ๊ฐ ์ํธ์์ฉํ๋ ๋ฐฉ์์ ๋ถ์ํ๊ณ , ํฌ๋ก์ค ์์ด์ ํธ์ ๋นํจ์จ์ฑ์ ๋ฐฉ์งํ๊ธฐ ์ํ ๋ฐฉ๋ฒ์ ์ ์ํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
๐ Paper2Agent: Reimagining Research Papers As Interactive and Reliable AI Agents (Stanford) โ ์ฐ๊ตฌ ๋ ผ๋ฌธ์ ์ํธ์์ฉ ๊ฐ๋ฅํ๊ณ ์ ๋ขฐํ ์ ์๋ MCP ๊ธฐ๋ฐ ์์ด์ ํธ๋ก ๋ณํ, ์๋ ์ํฌํ๋ก์ฐ๋ฅผ ์คํํ๊ณ ํ์ฅํ ์ ์๋๋ก ํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
๐ Virtual Agent Economies (Google DeepMind) โ ์์ด์ ํธ ๊ฐ ์์ฅ์ ๊ฐ๋ ํํ๊ณ , ๊ฒฝ๋งค ๋ฉ์ปค๋์ฆ, ๋ฏธ์ ๊ฒฝ์ , ๊ทธ๋ฆฌ๊ณ ์กฐ์ ๊ฐ๋ฅํ AI ๊ฒฝ์ ๋ฅผ ์ํ ๊ฑฐ๋ฒ๋์ค๋ฅผ ํ๊ตฌํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
WebExplorer: Explore and Evolve for Training Long-Horizon Web Agents โ ๋ณต์กํ ์น ํ์ ๋ฐ์ดํฐ๋ฅผ ์์ฑํ๊ณ , ์ฅ๋ฌธ์ ์ปจํ ์คํธ์ ๋๊ตฌ ํธ์ถ ๊ธฐ๋ฅ์ ํ์ฉํด์ ์ต์ฒจ๋จ ๋ธ๋ผ์ฐ์ง์ ์ํ ์์ด์ ํธ๋ฅผ ํ๋ จํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
EnvX: Agentize Everything with Agentic AI โ GitHub ๋ฆฌํฌ์งํ ๋ฆฌ๋ฅผ ์์ฐ์ค๋ฌ์ด ์ํธ์์ฉ๊ณผ ํฌ๋ก์ค ๋ฆฌํฌ์งํ ๋ฆฌ ํ์ ์ด ๊ฐ๋ฅํ ์์จ ์์ด์ ํธ๋ก ๋ณํํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
์์ด์ ํฑ RL ๋ฐ ์ฅ๊ธฐ๊ฐ ์คํ(Long-Horizon Execution)
๐ Bootstrapping Task Spaces for Self-Improvement (Meta) โ ํ์์ ๋ฐ๋ณต ํ๋ จ์ ํตํด ์์ ๊ณต๊ฐ์ ํ์ฅํ๊ณ , ์ํ, ๋๊ตฌ ์ฌ์ฉ, ML ์์ ์์ ์ถ๋ก ์ ์๊ธฐ ๊ฐ์ ์ ๊ฐ๋ฅํ๊ฒ ํ๋ ๋ชจ๋ธ์ ํ๋ จํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
AgentGym-RL: Training LLM Agents for Long-Horizon Decision Making through Multi-Turn Reinforcement Learning โ ํ์ค์ ์ธ ํ๊ฒฝ์์ ๋ค์ค ํด ์์ฌ๊ฒฐ์ ์ ์ํ LLM ์์ด์ ํธ๋ฅผ ํ๋ จํ๊ธฐ ์ํ ํตํฉ ํ๋ ์์ํฌ์ ์ค์ผ์ผ๋ง ์ ๋ต์ ์ ๊ณตํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
Harnessing Uncertainty: Entropy-Modulated Policy Gradients for Long-Horizon LLM Agents โ ๋ถํ์ค์ฑ์ ์ธ์งํ ๊ฒฝ์ฌ ์กฐ์ ๋ก ํ์ต์ ์์ ํํ๊ณ , ์์ ์๋ ์ฌ๋ฐ๋ฅธ ์ ๋ฐ์ดํธ๋ฅผ ๊ฐํํ๋ฉฐ ๋ถ์์ ํ ์ ๋ฐ์ดํธ๋ฅผ ์ต์ ํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
Staying in the Sweet Spot: Responsive Reasoning Evolution via Capability-Adaptive Hint Scaffolding โ ๋ชจ๋ธ ๋ฅ๋ ฅ์ ๋ง์ถฐ ์ ์ํ ํํธ๋ฅผ ๋์ ์ผ๋ก ์กฐ์ ํด ๋ฌธ์ ๋๋๋ฅผ ์ ์งํ๋ฉฐ ํ๋ จ ํจ์จ์ฑ๊ณผ ์ผ๊ด์ฑ์ ๋์ ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
Sharing is Caring: Efficient LM Post-Training with Collective RL Experience Sharing โ ๋น๋๊ธฐ ๋กค์์ ๊ณต์ ๋ฅผ ํตํด RL ํ์ ํ๋ จ์ ๋ถ์ฐ์ํค๊ณ , ์ด์ข ํ๋์จ์ด์์ ํจ์จ์ ์ผ๋ก ์ค์ผ์ผ๋งํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
์ถ๋ก , ํ๊ฐ, ๊ทธ๋ฆฌ๊ณ ์ ๋ขฐ์ฑ
๐ The Illusion of Diminishing Returns: Measuring Long Horizon Execution in LLMs โ ๋จ๊ณ๋ณ ์ ํ๋๊ฐ ์ฅ๊ธฐ ์์ ์์ ๊ธฐํ๊ธ์์ ์ธ ์ฑ๊ณผ๋ฅผ ๊ฐ์ ธ์ค๋ ๊ณผ์ ์ ๋ณด์ฌ์ฃผ๊ณ , ์คํ ์ค๋ฅ๊ฐ ์ถ๋ก ๊ฒฉ์ฐจ๋ณด๋ค ๋ ํฐ ์ํฅ์ ๋ฏธ์น๋ ์ด์ ๋ฅผ ์ค๋ช ํด ์ค๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
๐ Why Language Models Hallucinate (OpenAI) โ ํ๊ฐ ํ์์ ํ๋ จ ๋ฐ ํ๊ฐ ์ธ์ผํฐ๋ธ์์ ์ค๋ ํต๊ณ์ ์๋ ฅ์ผ๋ก ์ค๋ช ํ๊ณ , ๋ณด์ ๋ ๋ถํ์ค์ฑ์ด ์๋๋ผ ์คํ๋ ค ์ถ์ธก์ ๋ณด์ํ๋ ๊ฒฝํฅ์ด ์์ธ์์ ๋ฐํ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
Test-Time Scaling in Reasoning Models Is Not Effective for Knowledge-Intensive Tasks Yet โ ์ฌ์ค ์ค์ฌ์ ํ๊ฒฝ์์ ๊ธด ์ถ๋ก ์ด ์ข ์ข ํ๊ฐ์ ์ฆ๊ฐ์์ผ์, Test-Time ์ค์ผ์ผ๋ง์ด ์ฃผ๋ ์ฅ์ ๋ ์ ํ์ ์ผ ์ ์๋ค๋ ๊ฑธ ๋ฐํ๋ ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
์์ , ๋ณด์ ๋ฐ ๊ฐ๊ฑด์ฑ
๐ Reasoning Introduces New Poisoning Attacks Yet Makes Them More Complicated (Google DeepMind) โ CoT(Chain-of-Thought)๋ฅผ ํ์ ์ผ๋ก ํ๋ ๋ถํด๋ ์ถ๋ก ๊ณต๊ฒฉ์ ๋ณด์ฌ์ฃผ๋๋ฐ, ๋์์ ์๋ก์ด ๊ฐ๊ฑด์ฑ๋ ์๋ค๋ ๊ฒ์ด ๋๋ฌ๋ฉ๋๋ค โ[๋ ผ๋ฌธ ๋ณด๊ธฐ]
๐ All You Need Is A Fuzzing Brain: An LLM-Powered System for Automated Vulnerability Detection and Patching (Texas A&M University) โ DARPA์ AIxCC์์ ๊ฒ์ฆ๋ LLM ๊ธฐ๋ฐ ์์คํ ์ ๊ตฌ์ถํด์ ์ํํธ์จ์ด ์ทจ์ฝ์ ์ ์๋์ผ๋ก ํ์งํ๊ณ ํจ์นํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
๐ R2AI: Towards Resistant and Resilient AI in an Evolving World (Tsinghua) โ AI๊ฐ ์ ๋์ ํผ๋๋ฐฑ ๋ฃจํ๋ฅผ ํตํด์ ๋ฉด์ญ๊ณผ ๊ฐ์ ์ ํญ๋ ฅ๊ณผ ํ๋ณต๋ ฅ์ ๋ฐ๋ฌ์ํค๋ ๊ณต์งํ ์์ ํจ๋ฌ๋ค์์ ์ ์ํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
๐ Statistical Methods in Generative AI โ ์์ฑ AI ํ์ดํ๋ผ์ธ์์ ์ ๋ขฐ์ฑ, ๊ณต์ ์ฑ, ์์ ์ฑ์ ๋์ด๊ธฐ ์ํ ํต๊ณ์ ๋๊ตฌ์ ํ์ฉ ๋ฐฉ์์ ์กฐ์ฌํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
์ํคํ ์ฒ ๋ฐ ํธ๋ ์ด๋ ํจ๋ฌ๋ค์
Guided Decoding and Its Critical Role in Retrieval-Augmented Generation โ RAG ์ถ๋ ฅ์ ๊ตฌ์กฐํ๋ ํ์์ผ๋ก ์ ํํ๋ ๋์ฝ๋ฉ ํ๋ ์์ํฌ๋ฅผ ๋น๊ตํ๊ณ , โํ๊ฐ ์ ์ดโ์ โ์ฌ์ฉ์ฑโ ๊ฐ์ ๊ท ํ์ ๋ง์ถ๋ฉด์ ์กฐํ์ํค๋ ๋ฐฉ๋ฒ์ ํ๊ตฌํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
Revolutionizing Reinforcement Learning Framework for Diffusion Large Language Models โ ํ์ฐ ๋ํ ์ธ์ด ๋ชจ๋ธ์ ์ํ ๊ถค์ ์ธ์ง ๊ฐํํ์ต(RL)์ ๋์ ํด์, ๋ ์์ผ๋ฉด์๋ ๊ฐ๋ ฅํ ์ถ๋ก ๋ชจ๋ธ์ ๋ง๋ญ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
๐ Language Self-Play For Data-Free Training (Meta) โ ๊ฒ์ ์ด๋ก ์ ์๊ธฐ ํ๋ ์ด๋ฅผ ํ์ฉํด์ ์ธ๋ถ ๋ฐ์ดํฐ ์์ด ๋ชจ๋ธ์ ๊ฐ์ ํ๋๋ฐ, ๋ฐ์ดํฐ ๊ธฐ๋ฐ ๋ฒ ์ด์ค๋ผ์ธ๋ณด๋ค ์ฐ์ํ ์์ ์ฑ๊ณผ๋ฅผ ๋ณด์ฌ์ค๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
๐ Causal Attention with Lookahead Keys โ ์ ๋ฐฉํฅ ์ปจํ ์คํธ๋ฅผ ํผํฉํ๋ฉด์๋ ์๊ฐํ๊ท ์ ์ฝ์ ๊นจ์ง ์๋๋ก Lookahead ํค๋ฅผ ํ์ฉํด์ ์ธ๊ณผ์ ์ดํ ์ ์ ํ์ฅํฉ๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
๋ฉํฐ๋ชจ๋ฌ ์ถ๋ก ๋ฐ ํตํฉ
๐ Visual Representation Alignment for Multimodal Large Language Models (KAIST) โ ์ฌ์ ํ๋ จ๋ VFM๊ณผ ๋ฉํฐ๋ชจ๋ฌ LLM์ ์๊ฐ ๊ฒฝ๋ก๋ฅผ ์ ๋ ฌํด์ ์ธ๋ฐํ ์๊ฐ์ ์ถ๋ก ์ ํฅ์์ํต๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
Can Understanding and Generation Truly Benefit Together โ or Just Coexist? โ ์ฌ๊ตฌ์ฑ ๊ธฐ๋ฐ์ ๊ฐํํ์ต์ ํตํด์ ์ด๋ฏธ์ง ์ดํด์ ์์ฑ์ ํตํฉํ๊ณ , ์ํธ ๊ฐ์ ๊ฐ๋ฅ์ฑ์ ๋ณด์ฌ์ค๋๋ค โ [๋ ผ๋ฌธ ๋ณด๊ธฐ]
์ฝ์ด์ฃผ์ ์ ๊ฐ์ฌํฉ๋๋ค. ํ๋ฆฌ๋ฏธ์ ๊ตฌ๋ ์๊ฐ ๋์ด์ฃผ์๋ฉด ํ๋ง ํฌ์คํธ ์ฝ๋ฆฌ์์ ์ ์์ ํฐ ๋์์ด ๋ฉ๋๋ค!
Reply