- Turing Post Korea
- Posts
- 잠깐 멈춰서 AGI에 대해 다시 생각해 보기
잠깐 멈춰서 AGI에 대해 다시 생각해 보기
AI 발전 과정에서 끊이지 않는 AGI 논쟁, 살짝 들여다보기
며칠 전 오픈AI가 o1을 공개했는데요. 바로 오늘, 오픈AI의 직원인 Vahid Kazemi가 “AGI는 이미 달성되었다. o1을 통해서 이게 더 분명해졌고, 이제 AI는 대부분의 작업에서 대부분의 사람보다 더 나은 결과를 보여준다”는 글을 X (구 트위터)에 올리면서, 찬성하는 사람, 그렇지 않다고 보는 사람들이 많은 의견을 나누고 있는 것 같습니다.
In my opinion we have already achieved AGI and it’s even more clear with O1. We have not achieved “better than any human at any task” but what we have is “better than most humans at most tasks”. Some say LLMs only know how to follow a recipe. Firstly, no one can really explain… x.com/i/web/status/1…
— Vahid Kazemi (@VahidK)
9:04 PM • Dec 6, 2024
오픈AI의 공식적인 입장은 물론 아니고 개인적인 의견을 올린 것이구요. 잠시 조용했던 - 다들 좀 지쳤나요? ^.^; - AGI에 대한 이야기가 o1 발표 이후에 다시 수면으로 올라오나 싶네요.
개인적으로, AGI에 대한 이야기에 별로 참여하고 싶어하는 편은 아닙니다만, 이번 기회에 한 번 AGI에 대한 생각을 한같이 해 보면 어떨까 싶네요.
AGI (일반 인공지능; Artificial General Intelligence)는 ‘인공지능’이라는 용어가 만들어진 이후, 수십 년간 AI 연구자들의 ‘최종 목표’ 같은 것이었죠. 단순히 사람의 인지 능력을 ‘흉내내는’ 걸 넘어서, 많은 작업에서 사람의 능력과 ‘견줄 만’하거나, 심지어 그걸 ‘뛰어넘을’ 수 있는 기계를 만드는 비전이니까요.
특히 최근 몇 년간, AI 및 주변 여러 기술의 발전이 빠르게 발전하고 융합하면서, 마치 AGI의 달성이 훨씬 더 가까워진 것처럼 느껴지기도 하지만, 아이러니하게도 ‘AGI가 무엇인가’ 하는 그 정의는 여전히 모호한 상태에 있습니다. 어쩌면 AI 연구자들과 업계 리더들이 일견 비슷하지만 자세히 들여다보면 꽤 차이가 나는 AGI 접근 방식을 이야기하는 근본적인 원인은 바로 “우리가 가진 ‘지능’에 대한 이해 자체의 한계 때문”일지도 모릅니다.
GPT, 챗GPT, Claude 같은 거대 언어모델 (LLM)의 급부상이 사람들로 하여근 AGI에 주목하게 되는데 큰 역할을 했다는건 분명합니다. 이런 모델들이 보여주는, 복잡한 대화를 하는 능력, 창의적인 컨텐츠를 만드는 능력 등 다양한 지적 작업을 수월하게 하는 걸 보면 놀라지 않을 수 없죠. 그러나, 이것들도 애초에 연구자들이 생각했던 AGI의 수준에는 미치지 못한다고 생각합니다. 지금 우리가 보고 있는 AI 시스템이 보여주는 ‘정교하지만 제한적인 능력’, 그리고 AGI가 약속하는 ‘다재다능하고 적응해 나가면서 발전하는 지능’ 사이에는 꽤 큰 갭이 있습니다.
AGI를 둘러싼 근본적 딜레마: 모호한 ‘인간 지능’의 본질, 정의
앞에서 AGI의 핵심 목표가 ‘사람의 지능에 견줄 만하거나 그걸 뛰어넘는, 다재다능한 기계를 만드는 거’라고 했는데요. 그런데, ‘지능 그 자체’를 정의하기도 어려우니, 여러 가지 영역에 걸친 AGI를 정의하는 건 더 어려운 일일 수 밖에 없습니다. 많은 심리학자들, AI 연구자들은 ‘지능의 본질을 정확히 규정하려고 하는 것 자체가 막다른 길’이라는데 의견을 같이 하고 있어요.
자, 애초에 지능을 정의하는게 이렇게 곤란한 일이라면, 그 ‘지능의 일반적 형태 (General Form of Intelligence)’를 측정해 볼 수는 있는 걸까요?
AI 관련 문헌에서 자주 인용되는, ‘AGI의 고전적 정의’라고 한다면, 러셀과 노빅의 유명한 저서 - 거의 텍스트북이죠? - ‘Artificial Intelligence: A Modern Approach (번역판도 있습니다)’에서 제시된 것이 일종의 표준 아닐까 합니다.
번역판 ‘인공지능: 현대적 접근방식’. Image Credit: 교보문고
이 책에서는 AGI를 ‘인간이 할 수 있는 모든 지적인 작업을 이해하고, 학습하고, 수행할 수 있는 시스템’으로 정의하고 있습니다. 아마 이만큼 널리 인용되는 정의는 없을 텐데, 그럼에도 불구하고 여전히 해석의 여지는 많이 남아있죠. 예를 들어서:
AI가 ‘이해한다’는 건 무슨 의미인가요? 사람의 반응을 모방하는 걸로 충분한가요, 아니면 진짜 이해를 한다고 하려면 주관적인 경험이라든가 의식 같은 더 깊은 뭔가가 포함되어야 하는 걸까요?
‘지적인 작업’이란 건 어떻게 구성되는 거죠? 사람의 머리 속에서 이루어지는 작업, 그리고 물리적으로 이루어지는 작업, 이 두 가지의 스펙트럼 사이에서 어디까지가 지적 작업이고 어디부터는 아닌 건가요?
…등등이요. 이렇게 생각하다 보면, AGI에 대해서 수많은 사람들이 쳐다보는 꽤 권위있는 정의라 하더라도, 여전히 그 명확성 (Clarity) 관점에서 많이 아쉽다고 할 수 밖에 없어요.
업계 리더들의 AGI 프레임웍과 정의: 구글, 오픈AI
자, 이렇게 ‘명확성이 부족한’ AGI의 개념에 일종의 ‘구조’를 부여하겠다는 의미에서, 구글 딥마인드라든가 오픈AI 같은 AI 업계의 리더들은 자체적으로 개발한 AGI 프레임웍을 제시하기도 합니다. 물론 이런 프레임웍이 AGI에 대한 논의를 진전시키는데 도움이 되기는 하지만, 동시에 여전히 AGI라는게 뭐가 될 수 있느냐, 또 뭐가 되어야 하느냐 등에 대한 일반의 다양한 해석을 여전히 그대로 반영하고 있기도 합니다.
예를 들어볼께요.
구글 딥마인드는, ‘인간 수준의 지능’에서부터 ‘초인적인 (Superhuman) 능력’까지의 발전 과정을 설명하는 5단계 모델 (단계 ‘0’까지 포함하면 6단계)을 개발, 발표했는데요. 이 구조에서, AGI는 ‘기계가 비(非) 숙련자와 비슷한 수준의 성능을 보여주는 1단계’로부터 ‘모든 인지적 영역에서 모든 인간의 능력을 뛰어넘는 5단계’까지 넓은 범위를 커버합니다. 이렇게 구조화를 하면 딱 봤을 때 단순 명료해 보이기는 하는데, 여전히 몇 가지 중요한 질문에 대한 대답은 담고 있지 않아요 - ‘비(非) 숙련’, ‘숙련’, ‘전문가’ 같은 용어는 학술적 용어가 아닌다보니, 이 모델 내에서 그 의미가 명확하지 않죠. 그리고, 우리가 측정하려고 하는게 ‘특정 작업을 수행하는 기계의 능력’인가요, 아니면 ‘더 광범위한 인지적 영역에서의 역량’인가요?
또 하나는, 사람의 지능은 사실 ‘선형적 (Linear)으로 증가하지 않는다’는 거죠. 지능은 전체적으로 본다면 정규 분포 (Normal Distribution)를 따르고, 보통의 지능 수준에서 높은 수준으로 갈 때의 곡선, 높은 수준에서 천재적인 수준으로 갈 때의 곡선은 그 패턴이 전혀 다릅니다. 구글이 제안한 ‘선형적 발전’ 개념은 이런 복잡성을 적절하게, 잘 받아들일 수 있게 만들어진 건 아니지 않나 해요.
Image Credit: 오리지널 논문
비슷하게, 오픈AI도 ‘AGI의 발전을 점점 더 정교해지는 능력의 관점에서 설명’하는 5단계 프레임웍을 만들어서 발표했습니다. 여기서 ‘능력’이란 건 ‘대화형 상호작용 능력’에서 시작해서, ‘하나의 조직 전체가 수행하는 업무를 처리할 수 있는 정도의 능력’까지를 포함하구요.
구글 딥마인드와 오픈AI의 AGI 단계 비교. Image Credit: LifeArchitect
오픈AI의 모델은, 거대 언어모델 (LLM)이 더 자율적인 시스템으로 진화하면서, 궁극적으로는 문제를 해결하고 혁신해 나가면서, 복잡한 작업을 조정할 수 있는 에이전트가 되어가는 방향에 더 명확한 초점을 맞추고 있는데요. 이 프레임웍도, 구글 딥마인드에서 발표한 것과 마찬가지로, AGI를 하나의 애매한 개념에서 여러 단계를 걸치는 ‘진화’ 내지 ‘발전’으로 이해하도록 하는 기여는 하고 있지만 한 레벨 깊이 들어갔을 때의 구체적인 실체라든가 정의가 여전히 불명확하고, 그리고 단계 간 격차의 불균형이나 불연속성 등을 충분히 고려하지는 못한 것으로 보입니다.
구글 딥마인드와 오픈AI. 그냥 막연하게 생각해 볼 때, 현 시점, 이 두 회사보다 AGI에 가까이 다가가 있는 회사가 있을까요? 그 정도의 회사들이 모두 AGI를 더 잘 이해하고 체계적으로 발전시키기 위한 구체적인 기준점을 만들고자 노력은 했지만, AGI가 진짜 무엇이고 어떤 조건이 필요한지에 대한 종합적인 관점을 제공하는데는 성공했다는 생각은 들지 않습니다. 좀 더 솔직히 말하자면, 이런 프레임웍은 AGI에 대해서 객관적, 보편적으로 받아들여지는 정의를 만들기 위해서라기보다는, 각각 조직의 내부 로드맵, 그리고 상업적인 이해관계를 더 많이 반영하고 있는 것이겠죠.
‘싸구려로 팔아넘긴다’: 제멋대로 AGI 달성 기준 정하기
AGI를 둘러싼 논의나 현상 중에 개인적으로 더 문제라고 생각하는 건, 테크 산업의 몇몇 리더들이 - 의도했든 그렇지 않든 - AGI가 달성해야 할 게 뭐냐를 자의적으로 이야기하면서 AGI의 정의 자체를 격하시키고 있다는 겁니다.
예를 들어서, 엔비디아의 CEO 젠슨 황, AGI를 단순히 ‘기계가 주어진 모든 테스트를 통과할 수 있는 능력’으로 정의하면 되지 않겠느냐, 그렇다면 ‘AGI는 5년 내에 실현될 수 있다’는 이야기를 했습니다.
Image Credit: Forbes
젠슨 황 같은 리더의 이런 발언은 그 자체로 끝나지 않죠. 바로 다음 날부터 각종 매체에서 ‘AGI 5년 내 실현된다’, ‘AGI 이후의 우리의 삶과 일은 어떻게 될까’ 등의 기사가 쏟아지고, 투자 업계와 스타트업 생태계는 또 그 나름대로 후폭풍이든 뒷바람이든 맞아가면서 영향을 받게 됩니다.
이렇게 많은 사람들의 관심을 받는 리더가 AGI에 대해서 이런 접근을 하는 건 큰 문제라고 생각합니다. 일견 그럴듯해 보이지만 실제로는 허상(虛像)을 팔게 되는 거예요. 어떻게 단순하게 ‘테스트를 통과한다’는 게 ‘진정으로 작업을 수행한다’거나 ‘그에 필요한 지능을 갖춘다’는 것과 동일시될 수 있나요?
로봇 청소기로 한 번 비유해 볼까요? 어떤 로봇 청소기가 바닥 표면을 깨끗이 닦을 수있다고 해서, 그게 여러가지 상호 연결된 작업을 포함하는 집 청소의 전반적인 과정을 이해한다고 할 수 있나요? 마찬가지로, AI가 특정한 벤치마크나 표준화된 테스트에서 뛰어난 성과를 보일 수 있지만, 그게 AGI가 지향하는 종류의 일반적 지능을 보유하고 있다는 뜻은 아니라는 겁니다.
이런 방식의 주장은, 아마 AGI를 지나치게 ‘환원주의적 관점’에서 바라보면서 나타나는 오류일 겁니다.
환원주의를 설명할 때 쓴 데카르트의 자동기계. Image Credit: 오리지널 논문
‘전체를 쪼개서 각 부분의 메커니즘을 밝혀내면 전체를 이해할 수 있고, 부분을 모두 합하면 전체가 되고 전체는 다시 부분으로 환원된다’는게 환원주의의 핵심일 텐데요. 이런 관점은 AGI가 가진 복잡성을 다소 지나치게 단순화하고, AGI에 도달하는 과정에서 진실하게, 그리고 정당하게 맞닥뜨려야 할 여러 가지 도전을 잘못 이해하고 피해나가게 할 위험이 있다고 생각합니다 - 성공 기준을 ‘부당하게’ 좁게, 지엽적으로 설정해서, 결국 ‘인간 지능의 모든 영역에서 생각하고, 학습하고, 적응할 수 있는 기계를 만든다’는 진짜 목표를 가린 채 샴페인을 서둘러 터뜨려 버릴 수 있다는 거죠.
AGI 판단 기준: 아직도 튜링 테스트?
‘AGI에 도달했는지를 어떻게 판단할까’하는 논의에 빠지지 않는게 ‘튜링 테스트’죠:
튜링 테스트는 오랫동안 AI 발전의 궁극적 목표 내지는 아주 중요한 마일스톤으로 간주되어 왔습니다. 1950년 앨런 튜링이 고안했는데, 이 테스트는 ‘기계가 사람과 구분할 수 없는 지능적 행동을 보일 수 있느냐’를 평가하죠. 그렇지만, 튜링 테스트는 ‘AGI를 평가하기 위한 실용적 척도'로 의도된 게 전혀 아니죠 - 오히려 일반 대중의 상상력 속에서 독자적인 생명력을 얻게 된, 하나의 사고 실험 (Thought Experiment)에 가깝다고 봐야 합니다.
근본적으로, 튜링 테스트는 ‘기만 (欺瞞)’에 의존하는 실험이기 때문에 문제가 있습니다. 다시 말해서, 기계가 사람을 속이더라도 자신도 사람이라고 믿게 만들 수 있다면 테스트를 통과하는 거예요. 자, 이게 성공했다고 해 보죠. 그렇다고 이게 반드시 기계가 진정한 지능이나 이해력을 가지고 있다는 걸 의미한다고 볼 수 있나요? 그렇지 않다고 생각합니다.
들쑥날쑥한 AI 발전 과정에 맞춰 변화(해야)하는 우리의 기대치
문제를 좀 더 복잡하게 만드는 건, 구체적으로 AI가 어떤 경로를 거쳐 발전하느냐인데요. LLM 같은 현재 주류 AI 시스템들은, ‘특정한 작업’에서는 사람을 훨씬 뛰어넘는 성과를 보이는 반면, 다른 작업에서는 어이없이 형편없는 실패를 하기도 하죠 - 주어진 작업에 따라서, 기계가 믿을 수 없이 강력해 보이다가도, 순간 갑자기 우습게 보이는 상황이에요.
이런 AI 발전의 ‘불균형적인 측면’이, 바로 AI, 그리고 AGI에 대한 우리의 인식을 복잡하게 만듭니다. 사람이라면, 보통은 더 똑똑한 사람이 어디에 있든 전반적으로 더 적은 실수를 할 거라고 기대하고, 대부분 그런 예측이 맞을 거라고 생각합니다. AI는 사람의 그런 패턴을 따르지 않습니다. 복잡한 수학 문제는 몇 초만에 풀어내지만, 아주 간단한 논리 퍼즐, 심지어는 한 단어에 어떤 철자가 몇 개 있는지를 세지 못할 수 있죠.
사람은, ‘지능’이라는 걸 ‘통합적이고 일관적인 특성’으로 생각하는데 익숙하니, 이런 ‘비일관성’과 ‘불균형성’이 AI의 진짜 능력을 평가하는 우리에게 큰 방해물이 됩니다.
또 다른 하나의 요소는, ’AI 시스템이 발전하면서 우리의 기대도 그에 따라 높아진다’는 겁니다.
우리나라에 초기의 챗봇 ‘심심이’라는게 있었는데요:
심심이. Image Credit: 시사위크
초기 심심이는 ‘인터넷으로 모시이불을 팔아보자’는 생각으로 만들었다고 하는데요. 처음 생겼을 때는 신기했겠지만, 오늘날에 심심이의 능력은 아마도 ‘터무니없이 단순한’ 걸로 보이겠죠.
끊임없이 상승할 수 밖에 없는 이런 기대치 때문에, 정작 AGI가 도래했을 때 우리가 예상하는 것만큼 혁명적이거나 대단한 것으로 느껴지지 않을 수도 있다고 생각합니다. 결국, AGI의 도래는, 기계 지능의 갑작스러운 도약이라기보다는, 점진적 개선의 결과일 가능성이 높습니다.
물론 저도, 위에서 지적한 모든 결점들을 해결하는 AGI의 정의, 판단 기준 등을 알고 있다는 이야기가 아닙니다. 앞으로 AGI에 대한 본질적 논의가 진전되면서, 구체적으로, 그리고 영역별로 AGI의 능력을 어디까지로 정의하고 평가할 것인지 등이 결정되리라 생각합니다.
다만, AGI가 달성되었다 아니다를 판단하는 여러가지 중요한 척도 중 하나는, 미국의 대법관 포터 스튜어트가 음란물에 대해서 남긴 유명한 발언에서 힌트를 얻을 수 있다고 생각합니다:
‘보면 안다’는 거예요.
앞으로 있을 많은 노력에도 불구하고 AGI를 명확하고 객관적으로 정의할 수 있을지 어떨지는 모르겠지만, 그 정의의 과정에서 ‘사회적 합의를 통해 무엇이 AGI인지를 인식하는 것’이 아주 중요하다는 겁니다.
AGI는 사회 전반에서, 특히 영향력 있는 리더들과 비평가들이 ‘드디어 기계가 인간과 견줄만한 수준의 지능에 도달했다’는 컨센서스를 이룰 수 있을 때 달성될 겁니다. 이 과정은, AI 시스템에 우리의 일상 생활에 더 많은 자리를 차지하고 더 복잡한 작업을 수행하게 되면서 천천히 일어날 수 밖에 없겠죠. 기술의 혁신이 그대로 선형적으로 사회적 변화로 반영되는 것은 아니니, 지금 우리가 상상하는 것처럼 극적이거나 혁명적인 방식으로 AGI가 우리에게 다가오지 않더라도, 결국 AGI를 받아들이게 될 겁니다.
결국, AGI를 정의한다는 건, 그 기술적 성취에 초점이 있다기보다는 사회적으로 어떻게 수용할 것이냐에 대한 측면을 더 깊게 고려해야 하는 것일 겁니다. 사람으로서 우리는, 사람의 것이든 인공적인 것이든, 지능의 정확한 동의에 모두가 동의하지는 못할 수 있지만, 그리고 그게 우리가 한때 가졌던 미래 지향적인 비전과 일치하지는 않더라도, AGI를 보면 알 수 있을 것이고, 받아들이게 될 겁니다.
어쩌면, AGI를 정의하겠다는 이 ‘실패할 수 밖에 없는’ 시도 자체가, ‘지능 그 자체의 복잡성’을 반영하는 것인가 싶습니다. 가장 중요한 돌파구는, ‘기계가 우리의 인지적 - 그리고 육체적 - 노동을 함께 하는 세상을 인식하고, 거기에 적응할 수 있는 우리 스스로의 능력’일지도 모르겠네요.
읽어주셔서 감사합니다. 재미있게 보셨다면 친구와 동료 분들에게도 뉴스레터를 추천해 주세요.
Reply