튜링 포스트의 Ksenia가 흥미로운 AI 학계 연구자들 또는 업계의 사업가들을 만나 나눈 이야기들을 유튜브 영상과 함께 튜링 포스트 코리아의 ‘Interviews with Innovators’ 시리즈를 통해서 소개해 드립니다.
오늘은 마이크로소프트의 AI 플랫폼을 담당하는 CVP, Eric Boyd와의 인터뷰입니다. Eric은 AI 플랫폼 엔지니어링을 총괄하면서, Azure 기반의 AI 인프라 뿐 아니라 GitHub Copilot, Microsoft 365 Copilot, AI 에이전트 기술 등 전반적인 AI 서비스의 개발을 이끌고 있는 사람으로, 기업 고객이 AI를 도입하는 과정에서 필요한 운영 전략에 대해서 다양하고 심도있는 경험을 한 바 있습니다.
마이크로소프트의 AI 플랫폼은 클라우드 기반 인프라인 Microsoft Azure를 중심으로 구성된 통합 AI 생태계로, 기업과 개발자들이 신뢰할 수 있는 방식으로 AI를 구축하고 배포할 수 있도록 설계되어 있습니다. 이 플랫폼은 거대 언어 모델(LLM)과 멀티모달 모델을 활용한 Azure OpenAI Service, 실시간 의사결정과 자동화를 위한 Azure Machine Learning, 안전한 데이터 관리 및 컴플라이언스를 지원하는 Azure AI Content Safety 등 다양한 구성 요소를 포함합니다. 또, Copilot 및 에이전트 시스템에 필요한 고성능 연산, 추론, 저장소 리소스를 온디맨드로 제공하는 강력한 클라우드 인프라가 핵심입니다.
마이크로소프트는 이 플랫폼 위에서 다양한 AI 제품군을 제공하고 있는데요, 대표적으로 개발자를 위한 GitHub Copilot, 비즈니스 사용자용 Microsoft 365 Copilot, 그리고 산업 특화 솔루션(예: Nuance DAX)들을 포함합니다. 이 플랫폼의 차별점은 '신뢰할 수 있는 AI(Responsible AI)' 원칙에 따라 설계된 보안, 거버넌스, 통제 기능이라고 하는데, 기업 고객이 자체 데이터를 안전하게 활용하면서도 고도화된 AI 자동화를 할 수 있도록 도와줍니다. 특히 에이전트 기반의 워크플로우 구현에 필요한 ID 관리, 접근 제어, 가드레일 등의 엔터프라이즈급 기능은 마이크로소프트만의 경쟁력으로 평가받고 있다고 합니다.
마이크로소프트의 에릭 보이드는, AI가 단순한 보조 역할을 넘어서 실제 독립적인 작업을 수행하는 진짜 ‘에이전트’로 진화하고 있기 때문에, ‘신뢰성’, 그리고 ‘책임 있는 설계’가 아주 중요해졌다고 이야기하고 있습니다. 즉, 기업들이 Copilot을 넘어서 에이전트를 활용하는 단계로 전환하는 과정에서 가드레일과 거버넌스 같은 인프라적 요소가 필수라는 이야기입니다.
또, AI를 자녀 교육이나 직업의 세계에 통합할 수 밖에 없는 과정에서의 현실적인 고민과 시각을 공유하고, AGI 같은 다소 먼 논의보다는 오늘날 유용한 도구로서의 AI 활용에 집중하고 있다고 합니다.
‘정적인 모델’에서 ‘지속적인 학습 루프 (Continuous Learning Loop)’로의 전환, 강화학습 기반 파인튜닝의 부상, 그리고 엔터프라이즈 AI의 미래가 다기능 챗봇이 아니라 ‘일을 해내는’ 전문적인 에이전트라고 보는 이유에 대해서 이야기를 나눠 봅니다:
Q. 안녕하세요, Eric. 오늘 만나뵙게 되어 반갑습니다. 질문으로 바로 들어가 보죠 - 우리가 기업의 운영 자체를 AI에게 맡길 정도로 AI를 신뢰할 수 있는 날은 언제쯤 올까요?
반갑습니다. 불러주셔서 고맙습니다.
아시다시피, AI는 이미 고객지원 시스템부터 코드 작성까지 아주 다양한 분야에서 사용되면서, 우리 일상적인 업무에 큰 영향을 주고 있습니다. 대부분은 사람의 업무를 더 생산적으로 만들어주는 방향으로 사용되고 있죠. "이렇게 하면 더 좋아요"라든가 "이걸 도와드릴게요" 하는 식이예요.
그런데, 질문하신 내용의 핵심은, ‘사람이 감시하지 않아도 될 정도로’ AI를 신뢰할 수 있는 때가 언제 오느냐였잖아요?. 그건 생각할 수 있는 시나리오마다 다릅니다. AI와 관련된 위험이 낮은 경우에는 이미 AI가 자율적으로 처리해도 괜찮다고 여겨지는 상황들이 있는 반면에, 고위험의 시나리오는 아마도 영원히 AI에 맡기지 않을 겁니다.
물론, 우리는 계속해서 학습해 나가야 할 겁니다. 어디까지 AI에게 맡겨도 될지, 신뢰할 수 있는 수준인지 말이죠.
Q. 절대로 절대로 AI를 신뢰할 수 없는 영역이라는게 있다면 어떤 영역일까요?
가장 고위험인 분야겠죠. 예를 들어서 의료 시술이나 핵무기 발사를 위한 결정 같은 건 AI에게 맡기지 않을 거라고 생각합니다. 하지만 점점 더 많은 영역에서 AI가 오히려 사람보다 더 잘하는 경우를 보게 되기는 할 거구요.
예를 들어서 개발자의 관점에서 보면, 불과 몇 년 전만 해도 단순히 코드의 자동완성 정도 할 수 있던 수준에서, 지금은 GitHub 백로그 문제를 해결하라고 에이전트에게 지시하고 있잖아요? 물론 여전히 사람이 코드를 검토하긴 하지만, 에이전트에게 훨씬 많은 책임과 도구를 맡기고 있다는 점에서 큰 진전이 일어나고 있다는 것만은 부인할 수 없습니다.
Q. 마이크로소프트 내부적으로, 아니면 고객사와 함께 진행했던 ‘에이전트’ 영역의 프로젝트 중에 혹시 가장 인상적인 사례가 있다면 어떤 걸까요?
"Dogfooding"이라고 부르는, 우리가 만든 솔루션들을 자체적으로 사용해 보면서 오류도 찾고 하는 작업이 있습니다.
그 중에, 우리가 만든 GitHub 에이전트에 대한 이야기인데요. 초기에 만든 데모 중 하나가 Java 8에서 Java 17로 코드베이스를 업그레이드하는 거였거든요. 아주 지루하면서도 복잡하고 고된 작업인데, 에이전트가 마치 실제 사람인 것처럼 하나하나 문제를 해결하면서 처리하는 걸 봤을 때 아주 놀라웠죠.
다른 하나는 의료 현장에서 있었던 일인데요, Nuance DAX라는 기술로 의사와 환자 간에 나누는 대화를 들으면서 자동으로 의료기록을 생성합니다. 의사는 타이핑을 안 해도 되고, 환자와의 대화에 집중할 수 있죠. 이것도, 기술적으로 여러 가지 이야기를 하기 전에 그 의미가 아주 큰 작업이라고 느꼈어요.
위의 두 가지 예는 아주 일부에 불과하지만, 어쨌든 반복적이고 지루하지만 중요한 작업들을 앞으로는 대부분 AI가 처리하게 될 겁니다. 이미, 사실 그런 세상에 살고 있어요.
Q. 동의합니다, AI는 정말 너무 강력하죠. 하지만, 여전히 AI에 대한 ‘신뢰’가 특히 기업 환경에서 AI를 더 확산시키지 못하게 하는 병목이 되고 있다고 생각해요. 에릭이 보시기엔, 신뢰할 수 있는 AI를 만드는게 어려운가요, 아니면 이해관계자들이 그걸 믿게 만드는게 더 어려운가요?
정말 어려운 질문이네요.
우선은, 양쪽 모두가 협력해야 한다고 생각합니다. 우리는 신뢰할 수 있는 AI를 만드는 데 많은 노력을 하고 있어요 — 모델을 학습시키는 데 사용하는 데이터에서부터, 훈련 방식, 훈련 후에(Post-train) 모델이 특정한 방식으로 지시를 따르고 질문에 대답하도록 만드는 방법에 이르기까지 전반적으로요. 그리고 그 위에 또 Azure Contents Safety 시스템 같은 도구를 추가해서, 개발자들이 AI 모델을 올바르게 사용할 수 있는 통제력을 제공하구요.
하지만 반대의 측면도 있어요 — 우리가 모델에 점점 에이전시 - 즉, 자율성 - 를 부여하기 시작하면서, 이런 질문이 자주 나오죠: “AI가 사람과 같은 수준으로 성능을 내고 실수도 사람만큼 한다면, 괜찮은 걸까?”
현 시점의 대답은, 많은 경우에서 “아니다” 인 것 같아요. 우리는 AI에게 더 높은 기준을 요구해요. 하지만 저로서는, 그건 우리가 앞으로 노력해서 맞춰가야 할 부분이라고 생각해요.
사람도 실수해요. 사람은 완벽하지 않죠. 그걸 받아들이기 어렵다는 점이 있어요.
Q. 사람도 헛소리를 하잖아요 ^.^
네, 사람도 헛소리하죠. 저도 절대 잘못된 말을 해본 적이 없다고는... 말 못하겠네요 ㅎㅎ
그러니까 AI가 우리의 그런 특성을 일부 공유할 때, 그걸 어떻게 받아들이고 살아가야 되는 걸까요? 이건 사실 사회적으로 풀어야 할, 꽤나 큰 질문입니다.
Q. 그러네요. 그렇다면, 마이크로소프트는 초기에 기업을 대상으로 에이전트를 구축하고 배포하면서 어떤 교훈을 얻었나요? 어떤 것 때문에 신뢰가 무너지고, 또 어떤 게 신뢰를 쌓게 해 주던가요?
마이크로소프트 회사 전체적으로 AI를 이야기할 때 ‘코파일럿(Copilot)’이라는 용어를 핵심적으로 사용하잖아요? 이건 정말 중요한 비유이자 메타포라고 생각해요. AI 시스템, 그리고 AI 모델은 사람이 더 나은 성과를 내도록 돕는 존재예요 - 마치 내 어깨 너머로 내가 작업하고 있는 코드를 들여다보는 동료처럼요.
Microsoft 365 Copilot을 예로 들면, 이 모델은 당신의 이메일, 연락처, 문서, 그리고 당신이 가진 관계들을 이해하고, 거기 근거해서 더 나은 방식으로 질문에 답을 할 수 있어요.
하지만 그건 ‘1단계’일 뿐이죠.
이제 ‘에이전트’로 넘어가는 이 ‘다음 단계’에서는, 전혀 다른 역량이 요구돼요. 그래서, 우리는 AI에게 특정한 작업을 수행할 수 있게끔 더 많은 통제권을 부여하고 있죠. 사람들은 이런 에이전트에 대해서 가드레일을 조심스럽게 설정하게 될 거예요.
예를 들어서, 제가 아는, 커머스 마켓플레이스를 운영하는 한 기업은, 분쟁 해결에 AI 에이전트를 활용하고 있어요. 이 에이전트는 일정한 금액까지 환불을 제안할 수 있는 권한을 가지고 있고,
분쟁을 하고 있는 양측 당사자를 어떻게 균형 있게 다룰지를 스스로 판단해요. 물론 에이전트에게 일정한 제약과 제한을 줬지만, 동시에 점점 더 결정 권한을 열어주기 시작하고 있어요.
이 회사의 입장은, “둘 다 만족하는 고객을 만드는 게 낫다. 그걸 에이전트가 해낼 수 있다면 그게 더 좋은 거다.”라는 거예요.
에이전트를 사용하는 기업들에서, 이런 식의 흥미로운 사례들을 점점 더 많이 보고 있습니다.
Q. 정말 흥미롭네요. 그럼, 에이전틱 웹(Agentic Web)에 대해서는 어떻게 생각하시는지, 그 개념에서부터 한 번 말씀해 주세요. Microsoft Build 행사에서 발표했었잖아요?
네. '에이전틱 웹(Agentic Web)'이라는 개념은, 세상이 진짜 변하고 있다는 인식에서 출발한다고 개인적으로는 생각해요. 예전에는, 사실 지금까지도, 대부분의 경우에 검색 엔진에 가서 웹페이지를 찾고, 그걸 읽고 사용하는 방식이죠. 그런데 앞으로는 AI에게 훨씬 더 많은 걸 부탁하게 될 거예요.
예를 들어서, Microsoft 365 Copilot의 일부 리서치 기능 중엔 “문서와 웹에서 필요한 자료를 찾아서 리포트를 만들어 줘”라는 요청이 있어요. 이건 웹을 사용하는 방식 자체를 완전히 바꾸는 겁니다.
컨텐츠를 만드는 사람들 역시 생각하게 될 거예요. “우리 웹사이트에 에이전트를 어떻게 자연스럽게 통합할 수 있을까?” 하고요.
마이크로소프트에서 NLWeb 같은 것도 발표했는데요, 에이전트 통합을 훨씬 쉽게 만들어 주는 도구예요. NLWeb은 사용자가 자연어로 요청하면 AI 에이전트가 웹 컨텐츠를 탐색하고 작업을 수행할 수 있도록 설계된, 에이전트 친화적인 웹 환경 구축을 위한 새로운 웹 통합 프레임워크 정도로 이해하면 될 겁니다.
결국, 현재 우리는 새로운 기술과 새로운 상호작용 방식을 시험하고 맞이하는 단계에 있으니까, 어떤 모습이 이상적인지 다들 고민하고 있다고 봐요. 이건 90년대 중반 인터넷이 처음 대중화되던 시절하고도 비슷해요. 당시엔 TV 광고마다 끝에 ‘.com’이 붙는 걸 두고 다들 웃었지만, 지금은 웹사이트 없는 게 이상하죠.
앞으로는 사람들이 “이 웹사이트에 왜 AI 에이전트가 없죠? 답변도 못 해줘요?” 이렇게 말할 거예요.
그리고, 그런 기업에 대해서는 “이 사이트는 구식이네. 아직 업그레이드가 안 됐구나.”라고 이야기할 거구요.
Q. 혹시 아이가 있으시다면, 최근에 Microsoft Build 무대에서 케빈 스콧도 그랬고, 아이들이 AI를 어떻게 사용하는지에 대한 이야기들이 많이 나왔거든요. Eric은 자녀와 어떤 방식으로 AI에 대해서 이야기를 나누세요? 아이들이 AI를 어떻게 사용하든가요?
글쎄요, 아이가 있어요. 그렇지만 제가 모든 답을 가지고 있는 건 아닐 거예요. 꽤 잘 하고 있다고 생각은 하지만요 ㅎㅎ
아들 둘이 있는데, 18살과 14살짜리예요. 둘 다 온라인 환경에 익숙하고, AI도 편하게 사용하는 거 같아요.
아이들이 AI를 대하는 것고 관련해서 일화가 하나 있는데, ChatGPT가 처음 나왔을 때 저희 아들이 이런 이야기를 했어요: “이건 내 평생 TikTok에서 본 것 중에 제일 빨리 폭발적으로 퍼졌어!!!”
그래서 제가, “TikTok에서? 너 평생 중에 제일?” 하고 되물었죠 ㅎㅎ
그만큼 아이들 세대에겐 이게 정말 직관적으로 다가왔고, 직접 사용하고 교감하는 도구가 됐다는 점이 중요했던 거 같아요.
물론 우려도 많죠 — 교육은 어떻게 될 것인가, 아이들이 여전히 글을 쓸 수 있을까 등등. 그렇지만, 저는 이걸 ‘새로운 도구’로 받아들여야 한다고 생각해요.
제가 고등학생일 때는 선생님들이 학생들이 계산기를 쓰는 걸 걱정했어요. “수학은 손으로 계산해야 해!”라는 식이었죠. 하지만 지금은 — 계산기조차 안 들고 다녀요. 스마트폰을 들고 다니죠. 뭔가 어려운 계산을 해야 하면 손으로 나눗셈 안 하고 그냥 계산기를 켜죠.
AI도 똑같을 거예요. “이건 내가 무언가를 더 잘하게 도와주는 도구다. 그럼 나는 어떻게 이걸 잘 사용할 수 있을까?” 이런 사고방식이 아이들에게 필요하고, 그 아이들을 교육하는 어른들에게도 필요한 접근 방식이에요.
물론, AI를 잘못 사용할 수도 있습니다. 그래서 그것까지 이해해야 하죠.
부모로서 저는 여전히 가장 중요한 건 인격(Character)과 판단력(Judgment)이라고 생각해요. 이건 사회 전체가 함께 키워야 할 핵심적인 자질이에요. 하지만 아이들이 접근할 수 있는 도구들, 그건 배워서 잘 사용할 수 있어야 하죠.
Q. 네, 제게도 도움이 될 것 같네요. 그렇다면 좀 먼 이야기로, AGI에 대한 생각은 어떠세요?
AGI라... 뭐 진짜 훌륭한 SF 소재죠. ASI(초지능), 슈퍼휴먼 인텔리전스, 그런 것들도 마찬가지고요.
이건 거의 철학적 대화에 가까워요. “AGI가 정확히 무엇인가?” “우리가 진짜 거기에 도달했다는 걸 어떻게 알 수 있는가?” 이런 논의는 아마 좋은 와인 한 잔 마시면서 저녁에 친구들과 이야기하면 딱 좋을 주제예요 ㅎㅎ
저는 좀 더 실용적인 쪽에 초점을 두는 편이예요. “이 AI가 AGI인가?” 글쎄요, 전 아닌 것 같아요. 하지만 꽤나 유용한 도구이긴 하죠. 저는 지금 우리가 쓸 수 있는 AI에 더 집중하고 있어요.
AGI에 대한 걱정은, 사실 일자리 변화라든가, 거기서 오는 혼란이 핵심이죠. 그런 걱정은 지금 우리가 가진 AI 도구들만 가지고도 충분히 나올 수 있기는 해요. 이건 사실 산업혁명이나 PC 발명 시기부터 있어왔던 걱정이예요. 사회가 이런 변화들을 겪어내는 건 어려운 과정이지만, 결국 우리는 모두 극복해 왔어요.
그래서 저는 AGI에 대해 사람들이 하는 이야기를 이렇게 들어요: “지금 우리가 알고 있는 세상이 완전히 다른 방식으로 작동할 것이다. 그게 나에게 어떤 의미인가?”
이거야말로 모든 사람이 생각해봐야 할 진짜 중요한 질문이라고 생각해요.
Q. 우리가 그걸 진짜 이해할 수 있는 지점에 가까워지고 있다고 생각하세요? 아니면 여전히 질문만 더 많아지고 있는 건가요?
어떤 분야에서는 실제로 진짜 변화가 일어나는 걸 보고 있죠. 개발자, 프로그래머 같은 직군이 이걸 가장 먼저 겪게 될 것 같아요. 그들의 역할은 확실히 바뀔 겁니다.
예전에는 API를 외워야 했고, 정보를 빠르게 찾아내는 능력이 중요했죠. 하지만 지금은, AI 도구를 잘 다루는 능력이 훨씬 더 중요해졌어요.
또 웃긴 계산기 비유를 들자면, 지금도 몇몇 회사는 면접에서 AI 도구 사용을 금지하려고 해요.
하지만 제가 들은 어떤 회사는 이렇게 말하더군요: “그건 완전 잘못된 접근이에요. 면접 때 AI를 써야 해요.”
결국은 ‘최첨단의 도구를 자유롭게 사용하고, 그걸 능숙하게 다룰 수 있는 사람’을 원하게 될 거예요. 왜냐하면 그게 개발자의 미래이기 때문이죠.
개발자들은 자신의 역할이 어떻게 변하는지를 이해해야 하고, 그 도구에 익숙하고 자연스러워져야 합니다. 그게 핵심이에요.
Q. 그렇다면, 지난 1년간 Eric의 팀에는 어떤 변화가 있었나요?
저희는 일단 GitHub Copilot을 정말 엄청나게 많이 사용해요. 현재 단계에서는, 개발자들의 역할 자체는 예전과 크게 다르지 않지만, 지루하고 반복적인 작업을 훨씬 빠르게 처리할 수 있게 되었어요.
지금 저희는 이제 막 에이전트 영역으로 발을 들여놓기 시작한 단계라고 봐요. 앞으로는 점점 더 ‘내 작업을 도와서 함께 수행해줄 수 있는 에이전트 군단(Fleet)을 갖고 있다는 개념으로 바뀌게 될 거예요. 그리고 그 에이전트들이 내 일을 잘 해내도록 효율적으로 관리하고 지시하는 능력이 중요해질 겁니다. 다만 아직은 그 단계까지 깊이 들어가진 않았지만요.
그래서 지금까지의 가장 큰 변화는 이거예요: Copilot을 어떻게 활용하느냐를 배우는 거요. 예를 들어서, 어떤 작업을 대신 하도록 프롬프트를 잘 짜서 요청하는 거죠. 지금은, 이것만 잘 해도 생산성이 훨씬 높아져요. 그게 저희가 경험한 가장 큰 변화입니다.
Q. 그럼 사람들이 더 생산적이 되고, 에이전트에 대해 더 잘 알게 되고, 에이전트가 제대로 작동하게 되는 데까지 얼마나 걸릴까요?
아... 그건 정말 답하기 어려운 질문이네요. 근데 분명한 건, 이 분야는 엄청 빠르게 발전하고 있다는 거예요. 이게 바로 AI의 지난 몇 년간을 특징짓는 핵심이에요: ‘속도’요.
그래서 아마도 빠르게 전개될 거라고 보는게 맞을 거예요. 물론 그 ‘빠르다’는 게 정확히 어느 정도냐는 게 중요하겠죠. 6개월이 빠른 건가요? 5년이 빠른 건가요? 저는 둘 다 꽤 빠르다고 생각해요.
물론, 완전히 자리잡는 데에는 몇 년 정도 걸릴 거라고 봐요.
이렇게 생각해 볼 수 있어요: 만약 우리가 더 이상 새로운 모델을 하나도 만들지 않는다고 해도, 지금 존재하는 도구들을 가장 효과적으로 사용하는 방법을 알아내는 데만도 5년은 걸릴 겁니다.
그런데 우리는 지금도 계속 새로운 모델들을 내놓고 있잖아요. 그러니 앞으로 적용과 확장의 가능성은 훨씬 더 커지게 될 거예요.
Q. 그럼 2년에서 5년 정도로 보시는 거군요?
네, 맞아요. 인프라가 충분히 갖춰지고, 사람들이 자신의 업무 중 상당 부분에 AI 에이전트를 활용하는 게 자연스러워지는 시점까지는 2년에서 5년이 적절한 타임라인이라고 생각해요.
Q. 그럼 그 2~5년을 내다보면서, 가장 기대되는 점과, 가장 우려되는 점은 무엇인가요?
가장 기대되는 건, 우리가 이 도구들로 원래 하고 싶었던 일을 정말로 할 수 있게 되는 것이죠.
예를 들어서, 제 아들이 좀 외딴 곳엥서 스키를 타고 싶어 했어요. 그런데 저는 어디로 가야 하고, 어떤 가이드를 구해야 하고, 비용은 얼마인지 같은 걸 전혀 몰랐어요. 괜히 잘못 가면 눈사태라도 만나 죽을 수도 있잖아요? 그래서 보통은 몇 시간 동안 검색해서 조사해야 할 텐데, 이제는 AI 에이전트에게 “이걸 조사해서 보고서로 정리해줘”라고 시킬 수 있어요. 그랬더니 5분 만에 다 해왔어요.
이처럼 삶 속의 많은 지루하고 귀찮은 작업들을 없애주는 것, 그게 진짜 흥미로운 부분이라고 생각해요.
의사들이 의무기록 작성이라는 지겨운 일에서 해방되는 것도 그렇고, 제 아내는 변호사인데, 문서 검토나 자료 조사 같은 작업에서도 AI가 큰 도움이 되고 있어요.
결국 우리는 하고 싶은 일에 집중할 수 있게 되는 거예요. “나는 외딴 시골에서 스키를 타고 싶지, 그걸 어떻게 하는지 알아보고 싶진 않다.”는 거예요. 이게 AI가 실현시켜주는 미래죠. 그게 정말 저한테는 흥미로운 미래예요.
Q. 그렇다면, 우려되는 점은요?
이건 정말 강력한 기술이기 때문에, 우리는 항상 고민을 해야 해요: “어떤 가드레일(안전 장치)을 설정해야 할까?” 하는 문제요. 이건 정말 미묘한 균형잡기예요.
지금 우리가 가진 도구 중 어떤 것들은, 만약 제한을 완전히 풀어버린다면 더 흥미로운 일도 할 수 있어요. 하지만 동시에 우리가 불편해할 일들도 할 수 있게 되죠.
그래서 저는 이렇게 생각해요: “어떻게 문제를 안전하게 구성하면서도, 여전히 ‘우와, 이게 된다고?’라는 감동을 줄 수 있을까?” 그게 핵심입니다.
GitHub 에이전트를 예로 들면, GitHub의 이슈를 읽고, 문제를 이해하고, 코드를 작성하고, 테스트까지 하고 — 그 모든 걸 해낼 수 있어요. 하지만 코드를 저장소에 직접 커밋하고 배포할 수는 없어요. 그런 제약을 일부러 걸어뒀어요. 또, 에이전트는 코드를 외부에 이메일로 보내거나 하는 행위도 할 수 없습니다. 아주 제한된 환경에서만 작동하게 해둔 거죠.
그래서 결국, 와우(Wow)라고 외칠 만한 경험은 유지하면서도, 올바른 통제를 갖춘 그 균형을 잡는 게 중요해요.
그리고 이건 저희 마이크로소프트가, 기술을 만드는 사람으로서 그리고 회사로서, 아주 진지하게 고민하고 있는 주제입니다.
Q. 고객사들로부터는 어떤 이야기들을 들으시나요? 그 분들의 질문이나 우려는 어떤 건가요?
고객사에서 자주 듣는 얘기가 있어요:
“이걸 기업 전체에 어떻게 도입하고 관리하죠?”
“조직의 모든 부서가 이 기술에 관심과 흥미를 가지고 있는데, 정작 나는 어떤 규칙을 만들어야 할지 모르겠어요.”
“정보가 잘못 유출되면 어떻게 하죠?”
이런 상황에 대비해서, 비록 아직 많이 주목받지는 못하고 있지만, 중요한 작업을 하나 했어요. 바로 Entra ID 통합 기능을 발표한 거예요. 이제는 각각의 에이전트에 ID를 부여하고, 권한과 접근 범위를 세분화해 중앙에서 통제할 수 있어요.
이런 것들이, 에이전트 기술을 기업에 도입할 때 필요한 핵심적인 기능이 될 겁니다.
그리고 덧붙이자면, 이런 멋진 기술을 엔터프라이즈 환경에서 제대로 작동하게 만드는 일은 정말 어려워요. 하지만 마이크로소프트는 수십 년간 기업 시스템을 구축해 온 경험이 있잖아요. 그 기반 위에서 신뢰할 수 있고 확장 가능한 AI 도입이 가능하리라 봅니다.
Q. 벌써 마지막 질문이네요. 이미 보셨지만 다시 자주 꺼내서 보게 되는 책이 있나요? 일과 관련되었든 그렇지 않든 상관없구요. 에릭님에게 영향을 준 책, 혹은 지금도 영향을 주는 책이 있다면 어떤 건가요?
와, 흥미로운 질문이네요.
전 사람들과 소통하는 방법에 관한 책들을 중요하게 생각해요. 그중에서 제가 정말 중요하게 여기는 책은
『위기 대화(원제: Crucial Conversations)』예요. 감정적으로 민감하고 어려운 주제를 어떻게 다룰지에 대한 책이죠.
이 책을 읽으면서 들었던 생각이 있어요: “이 책을 읽고 나면 아내와의 대화 방식이 바뀌겠구나.”
왜냐면, 어떻게 말문을 열고, 어떻게 대화를 전개할 것인가에 대해 진지하게 생각하게 하거든요. 직장 생활에서도 정말 중요한 기술이라고 생각해요. 그래서 자주 다시 읽습니다.
소설 쪽으로는, 전 SF를 좋아하는 편이에요. 고등학교 시절에 읽었던 책 중 하나인데, 『멋진 신세계(Brave New World)』는 지금도 자주 꺼내서 읽어요. 디스토피아 세계는 늘 재미있고, 생각할 거리를 주죠. “만약 사회가 저 방향으로 흘러갔다면?”이라는 가정을 해 보면 정말 재미있어요. 그 결말까지 상상하게 되죠. 전 그런 책들이 좋아요.
Q. 하지만 요즘은 SF조차도... 시나리오가 좀 고갈된 느낌이에요. AI가 너무 강력해져서, 디스토피아를 상상하기 어려워졌달까요.
대부분의 디스토피아는 세상을 파괴하는 일종의 ‘기폭제’ 같은 사건이 필요해요. 제가 최근에 읽은 『사일로(Silo)』 시리즈처럼요. 사람들이 지하 핵벙커에 살게 되는 배경도 그런 사건이 있거든요.
『헝거게임』 같은 작품도 마찬가지죠. 큰 전쟁, 끔찍한 정부. 대부분의 디스토피아는 무언가 끔찍한 일이 벌어졌다는 전제에서 시작해요.
그런 세계들은 늘 재미있고 자극적이죠. 그런데 생각해 보면, 진짜로 AI 중심의 디스토피아는 아직 별로 없어요.
Q. 맞아요. 그런 세상을 피하려면, 결국 교육이 가장 중요하겠죠. 정말 좋은 대화였어요. 감사합니다!
감사합니다!
읽어주셔서 감사합니다. 재미있게 보셨다면 친구와 동료 분들에게도 뉴스레터를 추천해 주세요.



