현지 시각으로 7월 13일, 미국 대통령 선거 유세 현장에서 공화당 후보 트럼프가 피격되는 사건이 발생했는데요. 이 충격적인 사건 직후 몇 시간동안 페이스북, 인스타그램, X, 틱톡 등 주요 소셜미디어에 트럼프 후보와 관련된 글과 영상이 평소대비 17배 치솟았고, 엄청나게 많은 근거없는 주장과 거짓 정보가 돌아다녔다고 합니다. 누군가 AI 시대의 가장 큰 위험은 3D (Disinformation, Deepfake, Discrimination)라고 했다는데, 가짜뉴스와 딥페이크가 정말 골치아픈 사회문제가 될 모양입니다.
오늘 인터뷰한 Oren Etzioni는 워싱턴 대학교의 컴퓨터 사이언스 교수이자 앨런 AI 연구소 (AI2)의 창립 CEO로서 9년간 AI2를 이끈 인물입니다. Oren은 2024년 1월 AI2를 떠나 TruMedia.org라는 비영리 기구를 설립했는데요. 비영리 플랫폼인 TruMedia는 AI 기반의 탐지 도구를 사용해서 딥페이크와 미디어 조작 여부를 찾아내는 것을 주 목적으로 하고 있는 것으로 알려져 있습니다. Oren이 이 플랫폼을 시작하게 된 계기, 동기, 그리고 가짜 정보와 싸우기 위해 사용하는 도구는 어떤 것들일까요? 그리고 Oren은 오픈소스 AI와 그 리스크의 밸런스를 어떻게 맞춰가고 있을까요? 아래 Oren과의 인터뷰에서 한 번 확인해 보시죠.

TrueMedia.org의 딥페이크 체크 화면
안녕하세요 Oren, 인터뷰에 응해주셔서 감사합니다. AI2의 창립 CEO로 아주 오랜 기간 근무하셨고, Madrona VC에서 벤처 파트너, 그리고 다수의 성공적인 엑시트 경험을 가진 연쇄 창업자로도 잘 알려져 있으신데요. 갑자기 AI2의 CEO 자리를 박차고 TrueMedia를 설립하게 된 동기, 이유가 무엇인가요?
네, 일단 저는 AI2의 성공을 아주 기쁘고 자랑스럽게 생각합니다. 아무 것도 없는 상태에서 출발해서 9년 동안 250명의 팀, 1억불 이상 예산 규모의 조직으로 성장을 시켰는데, 이때쯤 정말 ‘휴식’과 ‘새로운 도전’이 필요하다는 생각이 들었어요. 실제로 2023년에 안식년을 가지기도 했구요, 제가 선택한 ‘새로운 도전’이 바로 ‘정치적인 목적으로 배포되는 딥페이크, 가짜뉴스’와 싸우는 것이었어요. 현재 TrueMedia.org는 사람들이 소셜 미디어에 공유되는 이미지, 오디오, 동영상 등이 조작되었는지 여부를 살펴볼 수 있는 서비스를 무료로 제공하고 있는데, 지금까지의 성과에 아주 만족하고 있습니다.
쓰나미처럼 쏟아지는 가짜 뉴스와 잘못된 정보의 홍수 속에서, 당신이 생각하기에 가장 흥미로운 사례는 어떤 것인가요? 그런 상황을 보면서 어떤 생각을 하세요?
2024년은 유난히 많은 나라에서 큰 선거가 있는 해죠. 인도네시아, 인도, 멕시코, 대만 등 올해 치러진 모든 선거에서 잘못된 정보, 허위 정보들을 많이 볼 수 있었어요. 올해 11월 미국 대선에서도 어떤 일이 벌어질지 정말 걱정돼요. 지난 1월 뉴햄프셔의 프라이머리 (예비경선)에서 나타났던 조 바이든 대통령의 ‘가짜 전화’ - 예비경선을 하루 앞두고 민주당 당원들에게 투표를 거부하라고 독려하는 조 바이든 대통령의 가짜 목소리를 담은 전화 - 가 정확히 이 가짜 뉴스의 위험을 알려주는 전조 증상이죠. 앞으로 훨씬 더 많은, 정치적 목적으로 만들어지고 배포되는 가짜뉴스들이 등장할 겁니다.
AI가 만들어내는 잘못된 정보나 허위 정보에 대응하기 위해서 TruMedia.org에서 개발한 도구는 구체적으로 어떤 것이 있는지, 그리고 지금까지 이 도구들이 실제적으로 얼마나 효과적이었는지 알려주실 수 있나요?
다양한 ‘AI 기반 탐지 기술’을 사용하는데요, 일부는 자체적으로 개발한 것도 있지만 대부분은 기술 파트너들의 제품과 서비스를 사용합니다. 세계적으로 최고의 기술을 가진 회사들과 파트너십을 맺고 그 회사들이 가진 최첨단 기술을 사용자에게 제공하고 있습니다. 저희의 탐지 서비스는 크게 네 가지 범주로 분류되는 다양한 측면을 살펴봅니다:
안면 조작 - 딥페이크와 실제 얼굴을 구별하거나, 안면 블렌딩, 스왑, 재현 등의 다른 방법이 사용되었는지 식별합니다.
AI 생성 이미지 - 널리 알려진 이미지 생성용 도구들 - DALL-E, Stable Cascade, Stable Diffusion XL, CQD Diffusion, Kandinsky, Würstchen, Titan, Midjourney, Adobe Firefly, Pixart, Glide, Imagen, Bing Image Creator, LCM, Hive, DeepFloyd, 그리고 GAN 계열의 알고리즘 등 - 로 제작되었는지 여부를 감지합니다.
시각적 노이즈 - 픽셀이나 색상의 변화 등 이미지에 조작 또는 생성으로 인한 인위적인 흔적이 남아 있는지 감지합니다. AI 도구로 이미지를 만들거나 수정할 때, 때로는 어떤 유형의 시각적인 노이즈가 남아있을 수 있으니까요.
오디오 - 오디오가 조작되거나 복제된 흔적이 있는지 감지합니다.
이 프로젝트와 관련해서, 지금 가장 흥미를 가지고 있는 연구 분야는 무엇인가요?
데이터의 모달리티 관련해서는 컴퓨터 비전 영역에 집중하고 있지만, 데이터셋의 보완, 개선을 위한 ‘합성 데이터 생성’ 분야에도 역시 큰 관심을 가지고 실험 중입니다.
AGI가 어떤 것이고, 언제쯤 등장할 것인지 등에 대해서 이야기가 많은데요. AGI에 대한 당신의 의견은 어떤가요?
일단은, AGI라는 단어의 정의 자체가 명확하지 않은 것 같아요. 그래도 그 문제는 일단 제쳐둔다 하더라도, 분명한 것은 AI 기술은 아직 사람이 가진 수준의 지능과는 한참 거리가 멀다는 겁니다. 이런 의견을 글로 적은 적도 있으니 관심있으시면 한 번 보시기 바래요. (편집자 주: 이 글에서 Oren은 ‘AI’가 ‘Scientific AI’, 즉 인간과 같은 지능을 컴퓨터에 구축하기 위한 과학적 탐구, 그리고 ‘Data-centric AI’, 즉 대용량의 데이터를 모델링해서 유용한 의미를 찾아내는 것, 이렇게 두 가지 모두를 의미한다고 이야기하고 있습니다: “우리 모두가, AI가 스스로 좋은 질문을 구성해 내고 인간의 지능이 무엇인지 어떻게 작동하는지 이해하고 재구성하는데 한 줄기 빛을 비춰줄, 그 멀고도 먼 날을 계속해서 기다리고 있어요”)
몇몇 사람들은 수많은 AI 관련 도구들이 오픈소스로 출시, 공개되기 때문에 생기는 보안 관련 리스크가 상당할 거라고 이야기하고 있는 반면, 또 다른 사람들은 “오픈 소스가 바로 더 지능적인 기계를 함께 만들어가는 올바른 방향이다” 이렇게 이야기하기도 하거든요. 오픈소스 AI가 주는 이점과 거기서 오는 오용이나 리스크의 문제 사이의 균형을 어떻게 맞출 수 있다고 생각하세요?
오픈소스 AI의 이점과 그 때문에 발생할 수 있는 리스크 간의 균형을 잘 맞추려면 몇 가지 장치와 준비가 필요해요 - 오픈소스 AI가 물론 혁신을 드라이브하고, 투명성, 접근성을 높여주는 측면이 있지만 반대로 보안이나 오용의 문제를 일으킬 수도 있으니까요. 이 문제들을 관리하려면 AI의 개발, 사용과 관련된 윤리적 가이드라인을 잘 세우고, 공고한 보안 장치들을 마련하고, 또 민감한 도구들에 대해서는 차등화된 접근을 하게 한다거나 하는 등의 조치가 이루어져야 합니다. 규제 기관과 협력해서 표준을 잘 준수한다든지, 커뮤니티의 참여를 유도하고 스스로 오남용을 모니터링하도록 하는 것, 그리고 AI 사용 및 오용에 대한 윤리적인 시사점과 안전하게 코딩하는 체계를 갖추는 것 등에 대한 교육도 필수적이라고 생각합니다. 이런 것들을 포함해서 총체적인 접근을 한다면 아마도 오픈소스 AI의 장점을 잘 활용하면서도 잠재적인 피해를 최소화할 수 있을 거예요.
이전에 당신의 글에서, 정부와 규제 당국, AI 개발사, 그리고 거대 IT 기업들 간의 광범위한 협력이 필요하다고 한 적이 있는데, 이런 협력을 유도하고 촉진하는데 있어서 가장 큰 어려움은 무엇이라고 생각하나요? 어떻게 극복할 수 있을까요?
정부와 규제기관, AI 개발사, 거대 IT 기업 간의 협력이라는 건, 사실 이들 간의 서로 다른 이해관계, 규제의 복잡성, 기술의 급속한 발전, 데이터 프라이버시 문제, 부족한 표준화 문제 등의 어려움을 겪게 됩니다. 이 문제를 해결하려면, 다중 이해관계자가 의사소통하고 협력할 수 있는 플랫폼을 잘 만들고, 글로벌 환경에 맞는 일관된 규제 프레임웍을 개발하고, 규제도 애자일하게 변화와 적응을 해가면서 할 수 있도록 하고, 그 과정에서 투명성과 책임성을 제고하도록 하고, 또 민관 협력을 장려하고 필요한 교육이나 훈련을 적시에 충분히 제공하고, 표준화를 위한 공동의 노력도 해야 합니다. 이렇게 해야만 협업이 효과적으로 진행되면서 이해관계자 간 지나친 격차를 해소하면서 각자의 목표를 어느 정도 조정해서, 결국 안전하고 책임감있는 AI 기술의 개발, 배포가 되는 것이죠. 참고로, 여기 링크의 글에서 AI를 규제하는 방법에 대한 몇 가지 제 아이디어를 논의했었습니다. (편집자 주: 링크의 글에서, Oren은 AI에 대한 정부의 규제가 피해 예방을 위해서 꼭 필요하기는 하지만, 혁신 자체를 억누르지 않도록 신중하게 만들어야 한다고 주장합니다. Oren은 교통, 의료 등과 같은 특정 분야에서는 AI 애플리케이션을 규제하되, AI 연구에 대한 규제는 피해야 한다고 제안합니다. 이런 ‘균형잡힌 접근 방식은, AI의 이점을 잘 활용하면서도 위험이 지나치지 않게 완화하는 것을 목표로 합니다.)
앨런 AI 연구소의 CEO 직은 그만두셨지만, 여전히 AI2 인큐베이터의 테크니컬 디렉터로 활동하고 계신데요. AI 스타트업들의 움직임을 보면서 특히 유망하거나 우려된다거나 하는 트렌드가 있나요?
최근에 DocuSign이 인수한 Lexion (법률영역 GenAI 스타트업)부터 프레젠테이션과 세일즈 코칭을 해 주는 Yoodli.ai, 더 나아가 칩 설계를 더 잘 하게 해 주는 ChipStack까지, 많은 ‘GenAI’ 스타트업들이 주목을 많이 받고 있죠.
앨런 AI 연구소에서의 경험을 바탕으로 생각해 볼 때, AI 혁신을 가속화하기 위해서 학계와 업계 사이의 협업을 촉진하려면 가장 효과적인 전략이 무엇일까요?
여러가지가 있겠지만, 생각나는 것은, 오픈소스를 활용해서 양측 당사자의 지적재산권 (IP) 문제를 해결할 뿐 아니라 자유로운 아이디어를 편하게 교환하고 나눌 수 있도록 하고, 인적 자원들도 공유하고 했던 활동들이 앨런 AI 연구소 관점에서는 큰 도움이 되었다고 봅니다.
일상적인 업무 외에, 산업으로서의 AI를 발전시키고 성장시키기 위해 필수적이라고 생각하시는 다른 관심 연구 분야는 어떤 것들이 있나요?
저는 파운데이션 모델이 어떻게 발전해 나가는지, 그리고 이 파운데이션 모델에 기초한 소프트웨어 에이전트 기술이 어떻게 개발되어 나가는지를 중심으로 면밀하게 살펴보고 있습니다. 아마 향후 10년 안에 이 영역에서 괄목할 만한 발전이 있으리라 기대하고 있어요.
미래의 컴퓨터 과학자, 개발자나 머신러닝 엔지니어들에게, 꼭 컴퓨터 사이언스나 머신러닝 관련이 아니어도 좋으니까, 추천해 주실 만한 책이 있나요?
네. 업무와 관련된 책으로는:
삶에 도움이 되었던 책은:
읽어주셔서 감사합니다. 재미있게 보셨다면 친구와 동료 분들에게도 뉴스레터를 추천해 주세요.



