‘네 가지 자유 (Four Freedoms)’의 역사

1941년, 세계가 제 2차 세계대전의 포화 속에서 말 그대로 ‘불타오르고’ 있을 때죠. 미국의 대통령이었던 프랭클린 D. 루즈벨트는 한 연설에서 ‘네 가지 자유’에 대해서 이야기했습니다:

프링클린 루즈벨트가 이야기한 네 가지 자유

  • 언론의 자유 (Freedom of Speech)
    정부의 제약이나 간섭없이 의견을 표현할 수 있는 권리

  • 신앙의 자유 (Freedom of Worship)
    박해받지 않고 어떤 종교든 믿을 수 있고 어떤 종교도 믿지 않을 수 있는 권리

  • 결핍으로부터의 자유 (Freedom from Want)
    모든 사람을 위한 경제적 안정과 적정한 생활 수준

  • 공포로부터의 자유 (Freedom from Fear)
    전쟁과 억압이 없는 세상

이 ‘네 가지 자유'에 대한 연설을 통해서, 왜 미국이 제 2차 세계대전에 관심을 가져야 하는지, 어떤 가치를 위해서 싸워야 하는지, 그리고 전쟁 후의 세계는 어떤 모습이어야 하는지에 대해 제시했는데, 미국인들에게는 전쟁의 의미를 설명하고, 참전의 정당성을 설득하는 중요한 역할을 했습니다. 나중에 이 ‘네 가지 자유'가 UN 인권선언의 기초가 되기도 했구요.

물론 이것들은 ‘미국적인 가치’로부터 출발한 자유였지만, 루즈벨트 대통령은 이런 권리, 이런 자유가 전 세계 모든 곳의 모든 사람들에게 속한 것이라고 분명히 표현했습니다. 이건 ‘인간 존엄성의 핵심’을 보호하는 것이었죠.

‘네 가지 자유’는 시민들에게 경제적 안정과 개인의 자유를 모두 제공하고자 했던 루즈벨트의 ‘뉴딜 정신에’ 깊이 뿌리박혀 있었습니다.

그러부터 약 45년이 흐른 후, ‘자유를 둘러싼 싸움’의 장은 ‘소프트웨어 세계’로 옮겨갔습니다. 80년대 중반까지, ‘기술’은 억만장자의 지갑보다도 더 꽁꽁 잠긴 상태였습니다. 기업들은 프로그램이 어떻게 사용되고, 공유되고, 심지어 들여다보는 것까지도 통제하는게 기본이었습니다. MIT의 프로그래머였던 리차드 스톨만은 "돈을 내거나 입을 다물라"는 이 상황이 마음에 들지 않았고, 1985년 ‘자유 소프트웨어 재단 (FSF: Free Software Foundation)’을 설립했습니다.

루즈벨트에 대한 경의를 표하면서, 리차드 스톨만은 ‘자유 소프트웨어를 위한 네 가지 자유’를 제시했습니다:

Four Freedoms. Image Credit: FSF

  • 자유 0 - 어떤 목적으로든 프로그램을 실행할 수 있는 자유

  • 자유 1 - 프로그램이 어떻게 작동하는지 연구하고 수정할 수 있는 자유

  • 자유 2 - 프로그램의 복사본을 배포할 수 있는 자유

  • 자유 3 - 수정된 프로그램 버전을 배포할 수 있는 자유

이런 스톨만의 행동이 오픈소스 운동의 도화선이 되어서 ‘리눅스’를 탄생시켰고, 지금 서버에서 스마트폰에 이르기까지 모든 걸 작동시키는 원동력이 되었죠 - 동시에, 디지털 권리, 온라인 자율성 등에 대한 끝없는 논쟁의 시작점이 되기도 했구요.

위에 보다시피, 자유 소프트웨어 재단이 이야기하는 ‘자유 소프트웨어 (Free Software)’는 ‘가격’ - 무료로 공개한다 - 에 대한 이야기가 아니라 말 그대로 ‘자유 (Freedom)’에 대한 이야기입니다.

오픈소스 AI, 그리고 ‘오픈’ AI를 향한 ‘네 가지 자유’

이제, 우리는 AI 시대에 와 있습니다. 거대 기업들은 새로운 디지털 왕국의 열쇠를 쥐고 있고 싶어하죠. 지금의 구도라면, AI를 둘러싼 새로운 형태의 억압이 생겨날 가능성도 있겠습니다 - 우리가 의문을 제기하고 확인해 볼 수 없는 알고리즘, 끝없이, 나도 모르게 이어지는 감시, 오래된 편견을 강화하는 AI 편향성 같은 것들이요.

그런 의미에서, DeepSeek 사건 발로 지금 한참 사람들의 입에 오르내리게 된 ‘오픈소스 AI’, 그리고 나아가 ‘오픈’ AI에 대한 논의와 고민은 큰 의미가 있습니다. ‘오픈’ AI라는 표현에서 굳이 ‘오픈’이라는 단어를 따옴표로 묶은 건, 미국의 AI 회사 ‘오픈 AI’를 지칭하는게 아니라는 거죠. 그렇지만, 아이러니하게도 ‘열린 AI’를 위해서 어떤 자유가 필요할까 생각하게 된 건 샘 알트만 때문이기도 합니다.

아래 그림을 한 번 보시면, 오른쪽에 와이컴비네이터의 폴 그레이엄, 오픈AI의 샘 알트만, 그리고 그 옆에 회색 티셔츠를 입은 아론 슈워츠 (Aron Schwartz)가 보이네요.

Image Credit: Flaming Hydra

아론 슈워츠는 ‘지식, 그리고 정보는 자유롭게 댓가없이 공유되어야 한다’는 강력한 믿음을 가졌던 행동주의 컴퓨터 과학자로 유명합니다. RSS 표준의 개발을 도왔고 크리에이티브 커먼즈와 함께 일했는데, 이 모든 활동의 원동력은 정보, 특히 납세자의 돈으로 만들어진 연구는 모두에게 속해야 한다는 신념이었다고 해요. 2010년, 학술 논문의 유료화가 발전을 저해한다고 확신한 아론 슈워츠는 MIT 네트워크를 통해서 JSTOR에서 수백만 건의 학술 논문을 다운로드했습니다. 아론의 동기가 ‘정보는 자유로워야 한다’는 원칙과 신념 때문이긴 했지만, 미 연방 당국은 아론에게 수십년까지 징역형을 받을 수 있는 혐의를 적용했습니다.

결국, 이를 견디지 못하고, 2013년 1월 안타깝게도 목숨을 끊었습니다.

이로부터 2년 후인 2015년, 샘 알트만은 ‘오픈AI (OpenAI)’라는 아름다운 이름을 가진 회사를 공동 설립했습니다. 처음에는, 오픈AI가 아론 슈워츠가 했던 ‘정보의 자유를 위한 투쟁’을 이어받아 할 자연스러운 후계자처럼 보였는데요. 그 이후에 어떤 일들이 일어났는지는 우리 모두 잘 알고 있죠 - 독점적인 코드, 접근의 제한, 유료화, 영리 구조 등입니다. 그리고, 최근에 샘 알트만은 ‘우리가 역사의 잘못된 편에 서 있는지도 모른다’는 톤의 이야기를 했다고는 하는데요:

Image Credit: AMA at Reddit (그러고 보니, 레딧도 아론 슈워츠가 공동 설립자로 참여했네요)

그렇지만, 뭐 상황이 크게 바뀐 건 아직은 없는 것 같습니다: 샘 알트만이 - 또는 오픈AI가 - 자사도 과거 해 왔던 일을 경쟁사가 똑같이 하는 걸 가지고 비난을 하고 있잖아요? 바로 DeepSeek 이야기입니다.

2025년 1월, DeepSeek이 자사 추론 모델 R1을 오픈소스로 - 정확히는 ‘오픈 웨이트’, 즉 모델의 가중치를 공개하는 방식으로 - 공개하면서 모두에게 여러가지 의미로 충격을 주었죠. 이 모델은 수학, 코딩, 추론 과제에서 전반적으로 오픈AI의 o1과 비슷한 성능을 보여줍니다.

이 상황에서 오픈AI가 한 여러가지 대응 중에, 바로 “중국의 AI 스타트업 DeepSeek이 Distillation 기술을 사용해서 자사의 독점 모델을 무단으로 복제했다”고 주장한 게 있었죠. 이런 오픈AI의 비난(?)은, AI의 트레이닝과 관련된 이중 잣대로 비춰지기가 쉽습니다 - 비평가들은 ‘오픈AI가 스스로는 허가없이 방대한 양의 웹 데이터로 AI 모델을 트레이닝했으면서, 이제는 경쟁사들이 자사의 결과물을 사용하는 걸 막으려고 한다’고 지적하기도 합니다.

또 다른 반향을 일으킨 목소리가 있죠 - 바로 앤쓰로픽의 CEO, 다리오 아모데이가 쓴 일종의 ‘선언문’인데요. 기본적으로 ‘미국의 칩 수출 통제를 더욱 강화해서, 중국을 ‘첨단 AI’ 그룹에서 배제해야 한다는 주장으로 읽힙니다.

‘반지의 제왕’에서 빌보 배긴스의 반지에 대한 집착

"It is mine, I tell you. My own. My precious. Yes, my precious."

빌보 배긴스가 사우론의 반지에 점저 영향을 받으면서 한 말. "The Fellowship of the Ring”에서.

그러다가 이런 생각이 들었습니다: 우리가 ‘AI와 관련해서 오픈소스에 대해서 많이 이야기를 하고 있지만, 사실 AI 맥락에서의 오픈소스는 일반적인 소프트웨어에서의 오픈소스와 같을까? 그리고, 오픈소스라는게 가지는 의미가, 각 나라의 생태계가 처한 상황과 입장에 따라서도 - 구체적으로는 - 다르지 않을까?’ 하는 생각이요.

우선, 소프트웨어에서 오픈소스는 단순히 코드를 공유하는 게 아니었어요. 그건 하나의 철학이고, 기술이 어떻게 만들어지고, 소유되고, 통제되는지를 다시 정의한 ‘네 가지의 자유 (Four Freedoms)’에 기반을 둔 거였습니다. 어느 시대든, 그 시대를 형성하는 그런 종류의 ‘진정한 자유’는 결단코 우연히 생겨난 적이 없습니다 - 그 자유를 실현할 기반, 구조, 그리고 의지가 필요합니다.

AI가 바로 지금 그런 변곡점에 있는 것 같습니다.

단순히 더 많은 오픈 모델이나 더 나은 라이센스가 필요한 게 아닐 겁니다. AI가 어떻게 만들어지고, 공유되고, 관리되어야 하는지를 정의하는 자체적인 철학, 핵심적인 자유에 대한 고민과 동의가 필요하죠. 바로, ‘네 가지 자유’의 AI 버전을 써 내려가야 하는 순간에 우리 모두 서 있는 걸지도 모릅니다.

그렇다면, 과연 ‘오픈, 즉 자유로운 AI’를 구성하는 네 가지 자유는 뭘까요? 그리고 일부의 강력한 누군가에게 힘이 더 집중되기 전에 이 자유를 어떻게 만들고 쟁취해야 할까요? 우리가 마법의 반지의 영향력 아래 들어가 버린 빌보 배긴스처럼 되기 전에요.

이 논의는 이제 출발점에 서 있을 뿐입니다. 저희 튜링 포스트에서는, 소프트웨어에서의 ‘네 가지 자유’에 대한 AI 관점의 해석을 해 보고, ‘열린 AI를 위한 여섯 가지 자유’를 먼저 검토해 봐야 한다고 제안합니다. 한 번 이것들 중에 어떤 게 중요한지도 생각해 보시기 바랍니다.

튜링 포스트에서 제안하는, ‘열린 AI가 갖춰야 할 6가지 자유’

루즈벨트가 전후 세계를 이끌어갈 자유를 명확히 표현했고, 스톨만이 디지털 시대를 위해 같은 일을 했다면, 이제는 AI의 자유를 생각하고 정의할 때라고 말씀드립니다.

다시 말씀드리지만, 이건 출발점일 뿐입니다. 어떤 의견이든 있으시다면 환영합니다.

트위터 라이브러리 (Twitter Library) 🐦

가장 최근에 우리 모두가 목도한, 강화학습의 힘을 보여준 사건으로, DeepSeek-R1의 추론 능력을 만들어낸 강화학습 기법, GRPO (Group Relative Policy Optimization)가 있죠. 올해 주목해야 할 핵심 AI 기술 중 하나로 분명 ‘(새로운) 강화학습’이 포함될 수 밖에 없을 텐데요.

앞으로 사람을 많이 도와줄 AI, 나아가 사람 중심의 AI를 만드는 핵심 기술로 자리잡을 강화학습. 오늘은 이 강화학습을 더 깊이 이해하고 활용하는데 도움이 될 무료 소스들 8개를 정리해 봤습니다:

*아직 튜링 포스트 코리아 구독 안 하셨나요? 구독해 주시면 매주 중요한 AI 뉴스를 정리한 다이제스트를 받으실 수 있습니다!

튜링 포스트 코리아팀이 읽고 있는 것들

  • China Talk의 Kevin Xu 인터뷰
    Interconnected의 설립자 Kevin Xu와 중국 오픈소스 AI에 대해서 통찰력있는 이야기를 나눈 China Talk의 글입니다. DeepSeek은 ‘开源情怀(카이위안칭화이: 오픈소스 정신)’이 주도하는 빠르고 학구적인 혁신을 보여줬죠. 엔지니어들은 서구의 기술을 따라잡는 걸 목표로 하지만, 투명성과 국가 이익 사이의 긴장 관계가 향후의 정책 방향을 좌우할 수 있겠습니다.

  • 렉스 프리드먼이 Interconnects의 Nathan Lambert, 그리고 SemiAnalysis의 Dylan Patel과 장장 5시간에 걸친 인터뷰를 했네요.

금주의 주목할 만한 업계 동향 📰

  • 몬트리올 대학교의 교수이자 MILA의 디렉터인 요슈아 벤지오 교수와 96명의 전문가들이 주도해서 만든, 첫 번째 ‘국제 AI 안전 보고서’가 발간되었습니다. 이 보고서는, AI가 우리가 통제할 수 있는 능력보다도 더 빠르게 발전하고 있다고 경고하고 있네요. 사이버 위협, 편향성, 노동 시장 혼란 등이 큰 문제로 대두되면서, 정책 입안자들은 어려운 선택에 직면하고 있습니다: 지금 규제할 것인가, 아니면 나중에 혼란을 감수할 것인가. 우리에게 유일한 희망은 뭘까요? AI가 아직 인간의 손에 있다는 것 정도…?

  • 일레븐랩스가 a16z와 ICONIQ이 리드해서 1억 8천만 달러 규모의 시리즈 C 투자를 유치했습니다. 일레븐랩스의 AI 음성 기술이 좋은 반응을 얻고 있는 가운데, NEA, WiL, 도이치텔레콤 같은 새로운 투자자들과 함께 글로벌 확장을 준비하고 있습니다. 확실히 AI가 주도하는 세상에서, 조용히 있으면 자동적으로 뒤쳐지게 되나 봅니다.

오픈AI, 고삐를 늦추지 않고 반격에 나서다

  • 오픈AI가 차세대 AI 에이전트 기술을 선도하면서 새로운 기술 ‘딥 리서치 (Deep Research)’를 도쿄에서 공개했습니다. 기존의 AI 모델을 뛰어넘어서 더 정교하게 정보를 수집하고 분석한다고 합니다. 특히 다단계의 웹 검색을 수행해서 정보를 수집하고, 이를 종합적으로 분석해서 논리적인 결론을 도출하고, 전문가 수준의 리포트를 만듭니다. 5분에서 최대 30분까지, 시간 제약이 없이 리서치를 수행하는 모델인데, 챗GPT 프로 사용자들에게 오픈되어 있다고 하네요. 그런데 구글이 내놓은 서비스와 이름이 같네요?

  • 시애틀에 기반을 둔 Madrona Venture Group이 차세대 창업자들과 AI 어플리케이션에 투자하기 위한 7억 7천만 달러 펀딩을 마치면서 설립 30주년을 근사하게 축하하게 되었습니다. 나쁘지 않은 (^.^) 생일 선물이네요.

새로 나온, 주목할 만한 연구 논문

금주는 ‘주목할 만한 최신의 AI 모델’을 먼저 소개하고, 각 영역별로 ‘Top Pick’은 해당 논문 앞에 별표(🌟)로 표시했습니다!

주목할 만한 최신 AI 모델

  • Qwen2.5-Max from Alibaba는 20조 개의 토큰으로 전문가 혼합(Mixture-of-Experts) 모델을 훈련시켜서, 높은 추론 능력과 뛰어난 벤치마크 성과를 보여줍니다. 이후로의 개선은 강화학습, 그리고 지능의 확장, 일반화에 초점을 맞춘다고 합니다.

  • Baichuan-Omni-1.5, technical report에서는 텍스트, 오디오, 비전을 통합하는 전방위적인 Omni-Modal 모델을 상세히 소개하는데, 실시간 이중언어 음성 시스템으로 중요한 멀티모달 벤치마크들을 능가하는 성능을 보여줍니다.

  • OpenAI o3-mini는 STEM 영역의 과제에 최적화된, 비용 효율적인 추론 모델입니다. 개인적으로 사용할 때 구글의 Gemini Deep Research보다 뛰어난 성능을 보인다고 합니다.

  • Mistral Small 3은 240억 개의 매개변수를 가진 모델로, 빠른 추론 속도에 중점을 두어서 3배 더 빠른 속도로 실행되고, 로컬에 배포를 지원하면서 더 큰 모델들과 견줄 만한 성능을 보여줍니다.

  • Ai2’s Tülu 3 405B는 RLVR (Reinforcement Learning from Verifiable Rewards; 검증 가능한 보상을 통한 강화학습)을 활용한 모델로 DeepSeek V3와 GPT-4를 능가하는 성능을 보여주는데, 컴퓨팅 자원의 한계가 있더라도 확장 가능성을 높이는 방향의 연구입니다.

강화학습 및 일반화 (Generalization) 관련 연구

  • 🌟 Towards General-Purpose Model-Free Reinforcement Learning은 모델이 필요 없는 강화학습 알고리즘인 MR.Q를 개발했습니다. 환경별로 조정을 하지 않더라도 다양한 작업에서 일반화가 가능하고, 연속 제어 (Continuous Control)라든가 아타리 게임에서 베이스 모델들을 능가할 뿐 아니라 샘플 효율성을 개선했습니다.

  • RL + Transformer = A General-Purpose Problem Solver는 사전 훈련된 LLaMA 3.1 트랜스포머를 강화학습으로 파인튜닝해서 ‘In-Context RL’을 가능하게 해 주었습니다. 이제 모델들은 재훈련을 하지 않고도 기존의 기술들을 조합하고 다이나믹하게 적응하면서 새로운 문제들을 해결할 수 있게 되었습니다.

파인튜닝 vs. 강화학습

  • Critique Fine-Tuning: Learning to Critique is More Effective than Learning to Imitate는 지도학습 파인튜닝(SFT)의 대안으로 CFT(Critique Fine-Tuning)을 제안합니다. 이 기법은 모델이 응답을 단순히 모방하는 대신 오류를 비평하도록 훈련시켜서 추론 능력을 크게 향상시켜 준다고 합니다.

  • 🌟 SFT Memorizes, RL Generalizes: A Comparative Study of Foundation Model Post-training은 LLM의 사후 훈련에서 지도학습 파인튜닝(SFT)과 강화학습(RL)을 비교하는데요. 강화학습이 OOD (Out-of-Distribution) 일반화에서 뛰어난 성능을 보이는 반면에, 지도학습 방식은 주로 데이터를 암기하는데 그치는 걸로 나타났네요. 또, 강화학습은 시각적 인식 능력도 향상시켜주는 걸로 보이네요. (Quoc V. Le와 Sergey Levine이 저자로 참여했습니다.)

오픈AI의 o-시리즈 모델: 그 능력과 안전 이슈

가드레일, 그리고 그 파훼법

새로운 아키텍처 및 트레이닝 패러다임

모델 스케일링 효율화 및 최적화

*리뷰를 남기시려면 로그인하시거나 구독해 주세요. 감사합니다!

읽어주셔서 감사합니다. 프리미엄 구독자가 되어주시면 튜링 포스트 코리아의 제작에 큰 도움이 됩니다!

Reply

Avatar

or to participate

Keep Reading