• Turing Post Korea
  • Posts
  • AI와 함께 배우기: 우리가 '운전사'가 되는 교육의 미래

AI와 함께 배우기: 우리가 '운전사'가 되는 교육의 미래

아이들과 함께 AI를 이렇게 사용해 보세요

‘AI 리터러시’ 시리즈의 세 번째 에피소드에 오신 여러분, 환영합니다!

이전 두 에피소드에서는 ‘어떻게 아이들이 AI에 - 적절하게 - 익숙하게끔 해 줄 수 있을까’에 대한 기초를 다뤘다고 할 수 있을 텐데요. AI를 일상 속의 새로운 환경으로 이해하는 것부터, 아이들이 스스로 철학자처럼 ‘기계가 진짜로 아는 것이 무엇인가’ 질문할 수 있게끔 하는 법까지요. 이런 내용들이, 아이들로 하여금 AI가 무엇인지 인식하고 질문을 하는 스텝을 넘어서, 실제로 AI와 ‘함께’ 학습하고 창조하는 단계로 나아가는 발판이 될 수 있습니다.

이번 에피소드에서는, ‘AI 리터러시’ 시리즈의 파트너인 스테파니아가 주도적으로 나서서, 과연 ‘AI와 함께 배우는 모습’이 어떤 느낌인지를 보여줍니다. 더 이상 추상적인 정의에 머물지 않고, 데모를 함께 살펴보고 클릭하고 사용해 보고, 인터페이스도 테스트하고, 질문을 던져봤습니다 - 과연 이 도구들이 학생이 AI와 함께 세상을 배우는데 도움을 주는 걸까, 아니면 그냥 더 많은 컨텐츠를 던져댈 뿐일까 하는 질문을요.

여기서, AI와 ‘함께’ 뭔가를 배운다는 작업에 있어서의 ‘텐션(Tension)’이 등장합니다 - 이 과정의 주도권을 시스템이 쥐게 될까요, 아니면 학습자가 쥐게 될까요?

가족과 자동차, 그리고 함께 하는 미디어 경험

‘학습’, ‘러닝’이라는 것 - 예전보다 훨씬 더 자유롭게, 내가 어디 있느냐에 상관없이 할 수 있게 됐죠. 책상에 앉아 있을 필요가 없는 걸 넘어서, 내가 이 세상 어디 있든, 집이나 학교가 아니라 심지어 차량 안에서도 어디서든 학습에 필요한 자료들을 띄울 수 있습니다.

아래에서 말씀드릴 ‘데모’를 보고 나서, 스테파니아가, ‘부모님들이 AI를 학습에 어떻게 활용할까?’라는 질문을 던졌습니다. 운전을 많이 하는 저는 이런 아이디어를 떠올려 봤어요: 운전을 하는 중에, 아이들이 ChatGPT나 다른 AI 모델 - 주로 핸드폰에 있는 거겠죠 - 에 역사, 과학, 아니면 궁금한 어떤 주제든 상관없이 질문을 하게 하는 거죠. AI가 우리가 드라이브하거나 여행할 때 항상 함께하는 선생님인 것처럼요.

아이들은 궁금한 걸 물어볼 때 망설임이 없습니다. 그래서 차 안에서 엄청나게 다양한 질문을 AI에 할 수 있지만, 여기서 아주 중요한 점이 있어요 - 바로, ‘부모의 존재’가 핵심적이고 아주 중요하다는 점이예요. AI가 실수했을 때, 주위에 있는 어른이 끼어들어서 바로잡거나 사실 확인을 도와주거나 할 수 있겠죠. 이런 과정을 통해서, 아이들은 ‘AI도 의심할 필요가 있다’는 것도 배울 수 있어요. 모든 걸 알 수는 없지만, 적절하게 의심할 줄 아는게 중요하잖아요?

이런 경험은 특히 아이들에게는 아주 중요한 기회가 됩니다. 무조건, 단순히 믿는 게 아니라 ‘비판적 사고(Critical Thinking)’을 실시간으로 보여주는 기회가 될 수 있습니다.

아이들은, 아무리 강력하고 똑똑해 보이는 시스템이라도 질문을 받아야 한다는 걸 배우게 되고, 권위에 정중하고 적절하게 도전하고, 검증하고, 확인할 수 있는, 미묘하지만 엄청나게 중요한 기술을 배우는 기회를 얻게 됩니다.

세사미 스트리트. Image Credit: Unsplash

세사미 스트리트를 제작하는 비영리 단체로 Sesame Workshop이라는 곳이 있는데, 여기는 ‘어린이 교육과 엔터테인먼트를 결합한 미디어 컨텐츠를 만들어서 전세계 아이들의 창의력을 키우겠다’는 비전을 갖고 있는 조직입니다. 스테파니아의 말에 따르면, 이 조직 산하의 Joan Ganz Cooney Center의 연구진은 위에서 이야기한 것 같은 상호작용, 교육의 형태를 공동 미디어 참여(Joint Media Engagement)라고 부른다고 해요.

이런 연구에 따르면, 아이와 부모가 함께 미디어를 사용할 때 학습 효과가 크게 향상된다고 합니다. 아이들이 더 오래 집중하고, 더 많이 기억하고, 가족의 대화와 연결된 내용을 오랫동안 떠올린다는 거죠. AI가 부모를 대체하는 게 아니라, 식탁에서의 대화, 또는 차 안에서의 대화에 참여하는 세 번째 팀원으로 함께 하는 구조가 되고, 부모님이 여전히 대화와 가르침에 있어서 주도권을 쥘 수 있습니다.

생성형 AI 모델, 그리고 유즈케이스가 불러온 또 다른 큰 변화가 바로 ‘음성 인터페이스(Voice Interface)의 폭발적 성장’이겠죠. 실제로 대화하는 것 같은 느낌으로 학습 효과를 더욱 키워줄 수도 있습니다. 저만 해도, 핸드폰에 키보드로 쳐 넣는 것보다 AI와 말로 대화하는게 훨씬 편안하거든요. 아이들은 ‘왜’라는 질문을 마구 던질 수 있고, AI 시스템은 - 대부분의 경우에 - 절대로 인내심을 잃지 않죠. 이 과정에서, 부모님은 대화에 더 깊이, 다양한 각도로 파고드는 법을 아이들에게 보여줄 수 있습니다: “야, 이거 흥미롭네? 근데 지금 이야기한 내용의 출처를 알려줄래?” 라든가, “다른 방식으로, 다른 관점에서 이야기해 보자” 라든가 하는 이야기를 할 수 있을 겁니다.

그리고, 생성형 AI를 사용하면서 제가 생각할 때 가장 중요한, 그리고 의미있다고 생각하는 효과 중 하나가 바로 ‘AI를 상대하면서 질문하는 기술을 되살리고, 질문하는 습관을 들이기 좋다’는 점이거든요. 저도 그렇고, 어른들은 가끔 무식해 보일까봐 질문을 멈추는 경우가 있잖아요? 아이들은 상대적으로 그런 걱정이 없습니다. 부모가 먼저 ChatGPT에 다양한 토픽에 대해서 스스럼없이 질문하는 모습을 보여준다면, 아이들은 ‘호기심이란 게 부끄러울 게 없구나, 질문이라는 건 좋은 거구나’라고 자연스럽게 배우게 될 거예요.

구글의 ‘Learn Your Way’: 개인화된 학습인가, 그냥 더 많은 텍스트일 뿐인가?

자, 이제 스테파니아와 직접 시도해본 몇 가지 데모로 넘어가보죠.

먼저 스테파니아가 보여준 건 구글한 최신의 실험, Learn Your Way예요. 새로운 걸 만지작거리는 건 항상 재미있죠 – 대부분의 경우에 제대로 작동하지 않지만, 어떤 잠재력이 보이는지 확인할 수 있으니까요.

이 도구를 쓰는 방법은 간단합니다. PDF나 교과서를 업로드하거나, 미리 만들어진 주제를 선택하는 거예요. 그러면 시스템이 개인화된 학습 가이드를 생성해 줍니다. 슬라이드, 질문, 심지어는 오디오 프롬프트까지 포함해서요.

이론상으로는 정말 강력해 보이는데, 실제로는 어땠을까요? 스테파니아와 함께 “학습에 대해 배우기”를 시도해봤어요. 시스템은 충실하게 슬라이드, 마인드 맵, 본능 대 행동 등에 대한 긴 설명을 생성해 냈습니다. 하지만, 엄청나게 빽빽한 텍스트, 그리고 슬라이드….큰 감흥은 없었어요.

Image Credit: Learn Your Way

스테파니아의 말처럼, 중고등학생쯤 된다면, 이쯤에서 지루함을 느끼겠다 싶었습니다.

가장 아쉽게 느꼈던 부분은 바로 '개인화'였습니다. 분명히 ‘개인화된 정보’를 제공한다고 했는데, 실제로는 그렇게 느껴지지도 않았고, 실질적인 개인화도 아니었습니다.

학습 토픽을 선택한 후에 제가 고를 수 있는 옵션은 ‘스케이트보드를 좋아하는 고등학생’ 또는 ‘음악을 좋아하는 대학생’ 딱 두 가지뿐이었습니다. 그리고 저는 대학생 옵션을 선택했지만, 실제로 받은 가이드는 뭐 일반적인 인쇄물하고 크게 다른 점도 없었구요. 사실상 개인화 옵션의 의미는 없었습니다.

이렇게 느껴진다면, 학습을 도와주려는 도구가 의도하지 않게 복잡해지면서 오히려 사용자에게 정보의 과부하를 안겨주게 되죠. 핵심은 ‘단순함’, 그리고 ‘실질적인 가치’에 있는 건데, 아쉽게도 이 도구는 그 균형을 잡는 데는 - 현재로는 - 실패한 것 같습니다.

NotebookLM: 나를 이해하는 공부 친구

다음으로, 스테파니아가 구글의 NotebookLM으로 진행하고 있는 프로젝트를 소개했는데, 그 때는 느낌이 좀 달랐습니다. 저도 튜링포스트 코리아 구독자 분들께 NotebookLM을 소개한 적 있고, 저도 종종 쓰는 터라, (지금 일본에 있는) 스테파니아가 일본어 공부를 하는데 이 도구를 어떻게 쓰고 있는지 보는 것도 재미있었습니다.

많이들 아시겠지만, NotebookLM 사용할 때는 사용자가 직접 자료를 업로드할 수 있잖아요? 교과서 챕터나 위키피디아, 유튜브 영상 등 어떤 자료든 가능합니다. NotebookLM은 이 자료들을 소화해서 학습 도구로 변환합니다. 듣기가 더 익숙하고 학습하는데 도움이 되는 분들이라면, 오디오 개요(Audio Overview), 플래시카드(Flashcard), 심지어는 미니 팟캐스트까지 만들어주고요.

특히 최근에 추가된 기능인 플래시카드는 언어 학습에는 정말 유용해 보였습니다. NotebookLM이 스테파니아의 교과서에서 직접 플래시카드를 만들어 주더라구요. 어쩌면 학습 방식에 꽤 큰 변화를 가져올 수도 있을 것 같은 느낌이예요.

아이들에게 있어서 이런 점이 왜 중요할까요? 그건, ‘자료에 대한 주인의식’이 학습의 동기를 강력하게 부여하기 때문이라고 합니다.

대부분의 학습 앱을 보면, 아이들에게 미리 만들어진 자료를 제공한다고 합니다. 이런 방식은, 단어 암기 같은 작업에는 효과적일 수 있지만, 아이들이 학교에서 그 주에 배우는 내용과 실제로 바로 바로 연결되기는 힘들겠죠. 이런 일종의 ‘단절감’이 학습에 충분한 흥미를 느끼지 못하는 이유가 되기도 한다고 해요.

여기서 NotebookLM의 가치가 빛을 발합니다: 아이들이, 선생님이 내주신 숙제의 정확한 챕터나 본인이 필기한 것들을 업로드해서, 그걸 바탕으로 학습 자료를 만들 수 있는 겁니다. 이렇게, NotebookLM이 그냥 또 다른 학습 앱이 아니라, 아이들이 스스로 통제하면서 채워 나가는, 자신만의 학습 공간이 되는 거죠.

심리적으로 이 차이는 큰 변화를 만들어 냅니다. 아이들은 자기가 사용하는 말, 그린 그림, 과제가 학습 도구와 과정에 반영되면 더 큰 동기를 부여받으니까요. 누구에게나 똑같이 주어지는 데이터셋이 아니라, 나와 관련된 자료와 직접 대화하는 것 같은 느낌일 겁니다. 그리고, 여기에 부모님이 함께 참여해서 가족의 독서 자료, 역사 프로젝트, 코딩 연습 자료 같은 걸 업로드 한다면, 이 도구는 가족의 공동 학습을 위한 메커니즘 역할을 할 수 있을 겁니다.

여기까지 오게 되면, 학습자가 진짜 주도적으로 학습을 이끌어나갈 수 있게 되는 겁니다.

3가지 주요 챗봇의 학습 모드 비교: Gemini, ChatGPT, Claude

아마 가장 많이들 쓰시는 AI 챗봇이자 서비스가, Gemini, ChatGPT, Claude 아닐까 싶어서, 이런 주요 챗봇들이 어떻게 학습을 도와주는 파트너로 변화하고 있는지 비교를 해 봤습니다.

  • 먼저, Gemini는 "가이드 학습" 모드를 제공했습니다. 저희가 마리 퀴리에 대해 질문했을 때, Gemini는 바로 전체 답변을 주기보다 먼저 세 가지 질문을 던졌습니다. 배우고 싶은 내용을 선택하니까, 개인화된 답변을 제공했습니다. "음악을 좋아하는 중학생"이라는 저희의 요청에 따라, 마리 퀴리의 방사능 발견을 "혼자서 윙윙거리는 마법 기타"에 비유하는 은유적인 표현까지 시도하기도 했습니다.

그렇지만, 저는 은유가 섞인 텍스트가 오히려 내용을 지나치게 복잡하게 만든다고 생각했습니다. 또, 모델이 먼저 답변을 제공하고 추가 질문을 하는 게 아니라, 왜 처음부터 질문을 먼저 던졌는지 명확하지 않았습니다.

제미니의 답변 형식과 내용 중에 아주 좋았던 건, 제공하는 정보의 ‘소스(Source)’를 알려준다는 거였습니다.

  • ChatGPT의 경우에는 '학습 및 탐구' 모드인데, 이 모드는 좀 더 체계적으로 느껴졌습니다. 핵심 요점을 전달하고, 이해도를 묻는 질문을 던지기도 하고, 더 나아가서 해당 토픽에 대해서 숙고할 수 있게끔 유도하는 방식입니다. 가끔은 유도 질문이 과할 때도 있었는데, 학생들이 아직 스스로 질문을 시작하기도 전에 긴 설명이라든가 지시사항을 내뱉는 경우였습니다.

하지만 제가 특히 마음에 들었던 점은, 답변 중간에 학생들이 스스로 생각해 보도록 질문을 던진다는 것이었습니다. 정보의 ‘소스’를 제공하지 않는다는 점은 마이너스였구요.

  • Claude가 가장 심층적인 접근을 보여줬다고 생각합니다. 그리고 가장 길기도 했어요. 마리 퀴리의 삶에 대한 인용문과 시각 자료를 완벽하게 갖춘 포스터 형식의 PDF 문서 전체를 생성했습니다.

인상적이기는 하지만, 위험 부담도 있었습니다. 그렇게 잘 다듬어진 모든 정보가 과연 사실인지 확인하기가 더 어렵다는 점이죠. 신뢰할 수 있는 출처가 없이는 아무리 아름다운 결과물이라도 그 가르침만큼이나 오해를 불러일으킬 수 있습니다. 또, 이 코드를 생성하는 데 시간이 꽤 걸렸는데, 지연 시간(Latency) 자체가 사용자 경험에 아무래도 부정적인 영향을 미칠 수 있습니다.

이런 몇 가지 사례를 통해서 보면, 한 가지 두드러지는 패턴이 있습니다: 시스템이 뭔가를 ‘가르치려고’ 할수록 학습자는 더 수동적이 된다는 겁니다. 대신, 모델이 단순하게 명확한 질문을 하는 걸 넘어서, 우리가 생각하는 걸 새로운 방향으로 이끌어 주려고 할 때는 기분이 좋았습니다.

전반적으로 ‘스터디 모드’를 사용하는 건, 마치 운전석에 앉아 있지만, 옆에 운전 강사가 함께 있는 듯한 느낌이었습니다.

관점을 바꾸는 새로운 접근: ‘소크라테스식’ 수학 선생님

그리고, 스테파니아가 뭔가를 보여줬는데, 그건 스테파니아가 설계에 참여했던 Math Tutor(수학 선생님)이었습니다.

이 시스템은, 다른 도구들과 다르게 절대 정답을 알려주지 않습니다. 대신, 학생의 실수를 감지하고, 그 실수를 야기했다고 생각되는 잘못된 개념(Misconceptions)을 진단한 다음, 그 실수에 맞춤화된 새로운 연습 문제를 생성합니다.

예를 들어서, 대수학 문제에서 분배 법칙(Distribution) 실수를 하면, 시스템이 즉시 이걸 인식하고, 왜 그런 실수를 했는지 설명해준 다음에, 해당하는 오류를 연습할 수 있도록 세 가지의 새로운 문제를 제공합니다. 이 시스템은 중학교 수학에서 흔히 발생하는 55가지 오류 분류 체계를 기반으로 만들어졌다고 하는데, 다양한 연구와 검토를 거쳐 교사들의 승인을 받은 거라고 합니다.

이 모드는 ‘AI가 주도권을 쥐지 않고서, 소크라테스의 문답처럼 가이드 역할을 하는’, 학습의 주체가 되는 학생의 몫을 빼앗지 않으면서도 개인화된 진도를 나가도록 이끌어주는 모드겠죠.

이 데모가 가장 인상깊었습니다 제게는. Khanmigo, Project Chiron 같은 대화형 튜터링 도구들이 있지만, 이런 도구들은 수학적 개념이나 공식, 문제풀이 자체에서 종종 오류를 보이곤 한다고 하거든요. 그런데 스테파니아가 보여준 도구는 실제 수학적 DB에서 오개념(Misconception) 라이브러리에 기반을 둬서 환각(hallucination)의 함정을 피했습니다 - 일종의 RAG 구조같은 거라고나 할까요?

‘정답보다는 질문에 초점을 맞춘 학습 도구’로서의 가능성을 보여준 게 아닌가 생각합니다.

아이들이 모델을 '망가뜨릴' 때, 그 때가 가장 중요한 때

지금까지는, AI가 학습 파트너로서의 역할을 어떤 모드로 수행하는지 - 안내자 역할인지, 정보를 지나치게 퍼붓는지, 인내심있게 기다리면서 질문을 유도하는지 등 - 를 살펴봤다고 할 수 있겠죠. 하지만 AI와 함께 배운다는 건, 시스템이 제공하는 걸 단순히 흡수하는 것만을 의미하는 건 아닙니다.

아이들은, 때로 ‘관점을 뒤집습니다’. 모델을 이렇게 저렇게, 때로는 상상하지 못한 방식으로, 때로는 의도적으로 망가뜨리기도 하겠죠. 그리고 바로 그 지점에서 가장 강력한, 의미있는 학습을 할 수 있습니다.

튜링포스트의 크세니아는 5명의 아이들이 있는데요. 그 중에 한 명이 5살 때 AI 모델로 ‘바람돌이 소닉’ 이미지를 만들고 싶어했었다고 합니다. 시스템에서는 저작권 문제로 생성을 거부했고, 아이는 이것저것 실험을 해 보면서 프롬프트를 바꿔가면서 입력했고, 결국 ‘소닉처럼 생겼지만 소닉은 아닌 고슴도치’를 만들어 달라고 했고, 모델은 곧 완벽한 소닉을 만들어 냈습니다.

만들어진 그림을 보고 아이는 정말 신나했다고 해요. 잠시 후에, 프롬프팅 기술, 그리고 모델이 어떻게 작동하는지 등에 대해서 이야기를 했는데, 이 기회를 이용해서 저작권 문제, 데이터셋 한계, 그리고 모델이 가끔 특정한 지시를 거부하는 이유 등에 대해서 꽤 깊은 대화를 나눴다고 합니다. 이 과정을 요약하면, 다섯 살짜리 아이가 시스템을 ‘해킹’했을 뿐 아니라, 그 경험을 통해서 실세계의 거버넌스 문제에 대해서 이해하게 된, 아주 훌륭한 학습의 순간이 된 겁니다.

그리고 나서 스테파니아가 한 말을 계속 곱씹게 됩니다: “새로운 기술을 사용하면서 이런 마찰(Friction)의 순간을 경험하는 것, 일부러라도 이렇게 설계하고 싶은 아주 좋은 학습의 순간이죠. 시스템이 “이봐, 우리가 실수를 숨겨놨는데, 한 번 찾아볼래?”라고 하면서 우리와 아주 재미있게 뭔가를 배우게 되는 순간이니까요.”

Image Credit: On the Good-Enough Effect: Children Reflect on their AI-Generated Portraits

여기서 더 나아가서, 스테파니아는 “아이들이 생각보다 훨씬 더 자주 AI를 의도적으로 ‘망가뜨리려는’ 시도를 한다”고 이야기합니다. 예를 들어서, 머리 모양을 바꾸거나 안경을 써서 Vision Classifier를 혼란스럽게 만든다거나, 챗봇을 오류에 빠뜨리기 위해서 속임수 질문을 한다거나, 앞뒤가 맞지 않는 모순된 프롬프트를 이미지 생성기에 입력하거나 하는 행동들이요.

아이들은, 이런 엣지 케이스(Edge Cases)를 발견할 때, 파워를 느낀다고 해요. 그리고 그 다음으로 중요한 단계가 ‘그런 태도를 건설적으로 유도’하는 거라고 스테파니아는 이야기합니다. 무슨 이야기냐 하면, 시스템이 실패했을 때 그냥 웃어넘기는게 아니라, “이걸 어떻게 고칠 수 있을까?”라거나 “어떻게 프롬프트나 데이터를 다시 설계하면 더 잘 작동할까?”하는 질문을 하도록 하는 겁니다.

스테파니아는, 이런 과정을 안드레 카파시가 이야기한 ‘Jagged Intelligence’ 개념과 연결해서 이야기합니다:

AI가 수학 올림피아드 같은, 일반 사람에게 너무나 어렵고도 복잡한 작업은 잘 해내는데, 반면에 단어의 글자 수 세는 것 같은 사소한 작업에서는 실패할 수 있다는 겁니다. AI가 보여주는 이런 불균일성은 사람들이 언뜻 이해하기 어렵지만, 이런 현상을 인식하고 알아차리는 것 그 자체가 아이들이 AI를 마법 같거나 전지전능한 존재가 아닌, 시험하고 질문해야 할, 결함이 있을 수 있는 기술로 인식하는 데 도움이 됩니다.

이런 인식이 아이들의 머릿속에 잘 자리잡힌다면, AI 시대에 일종의 면역력과 대비책으로 기능할 것이고, AI가 ‘우리의 능력을 크게 향상시켜 줄 도구’로 활용될 수 있는 기초가 될 겁니다.

가족을 위한 챌린지: AI의 ‘지식 차단(Knowledge Cut-off)’ 날짜 알아내기

이번 에피소드에서, 학습에 초점을 맞추고 모델이 얼마나 신뢰할 수 있는 정보를 제공하는지 확인하는 것에 대해 이야기를 했으니, 이와 관련해서 가족이 함께 해 볼 수 있는 재미있는 챌린지 하나로 마무리할까 합니다.

간단한 과제지만, 재미있는 경험이 될 겁니다:

  1. 지식 차단(Knowledge Cut-Off) 날짜가 알려진 AI 모델을 찾아보세요.

  2. 두 가지 주제에 대해 질문해보세요. 하나는 차단 날짜 이전의 주제이고, 다른 하나는 차단 날짜 이후의 주제로요.

  3. 모델이 정보를 알지 못할 때 어떻게 반응하는지 주의깊게 살펴보세요.

    • 자신이 모른다고 인정하나요, 아니면 환각(Hallucination) 현상을 보이나요?

    • 추측을 기반으로 해서 답변을 하려고 하나요?

  4. 선거, 자연재해, 또는 최근에 발견된 사실들을 주제로 이 챌린지를 시도해 볼 수 있습니다. 이런 실험을 통해서 다양한 모델들이 불확실성을 어떻게 다루는지 감을 잡아볼 수 있고, 진실, 신뢰, 그리고 기계 지식의 한계에 대한 가족 간의 대화를 해 볼 기회가 될 겁니다.

추천 모델:

  • Claude Opus 3: 지식 차단(Knowledge Cut-off) 날짜는 2023년 8월입니다.

  • AI Google Studio의 Gemma: 지식 차단(Knowledge Cut-off) 날짜는 2024년 8월입니다.

  • Hugging Face에 있는 일부 구형 모델들도 시도해볼 수 있습니다.

맺으며

자, 과연 AI와 함께 살아가는 과정의 ‘운전석’에는 누가 앉아 있어야 할까요? 그 답은 명확합니다. 우리 모두, 아이들과 함께, 이 기계를 운전하는 방법을 배우고, 우리가 가진 주체성을 포기하지 않으면서도 AI를 최대한 활용하는데 익숙해져야 합니다. AI 학습 도구의 진짜 가능성은 질문이 폭발적으로 늘어날 수 있는 Safe Space를 만들어 주고, 그러면서도 신뢰가 살아 숨 쉬는 공간을 만드는 데 있다는 것을 깨닫는 것, 무엇보다 중요합니다.

여기서 진정한 ‘AI 리터러시’ 능력은, 어쩌면 신뢰와 겸손일지도 모르겠습니다. 여기서 ‘신뢰’란, 기계의 권위에 대한 신뢰가 아니라, 기계에 질문할 수 있는 우리의 능력에 대한 신뢰입니다. 통제권을 포기하는 겸손이 아니라, 부모, 교사, 학습자로서 우리가 모든 것을 알지 못하지만, 바로 그게 핵심이라는 것을 인정하는 겸손입니다. 이러한 시스템들은 불균일하고, 성능도 들쭉날쭉하고, 어떤 작업에서는 탁월하지만 다른 작업에서는 당황스러울 정도로 서툽니다. 그 역설을 똑바로 인식해야만 우리는 이 운전석에서 능숙하게 운전을 할 수 있을 겁니다.

함께 살펴봤듯이, 바로 아이들이 우리가 나아갈 길을 보여줍니다. 모델을 망가뜨리고, 모델이 하는 어이없는 실수에 웃으면서도 '왜?'라고 묻습니다. ‘학습’이라는 건 선형적으로 일어나는게 아니고, 놀이, 오류, 그리고 토론을 통해 확장된다는 걸 일깨워 주기도 합니다.

가족들이 AI를 함께 사용할 때, 이 기술은 더 이상 블랙박스가 아니라 탐험을 통해 공유하는, 모두의 여정의 일부가 됩니다.

AI 리터러시의 미래는 아이들에게 기계와 그 외의 모든 것에 대해서 질문하는 법을 가르치는 것입니다. 아이들에게 스스로를 신뢰하도록, 즉 묻고, 의심하고, 재구성하고, 이끌어 나가는 법을 가르치는 것입니다. 우리가 그 정신을 계속 유지할 수 있다면, 도구가 아무리 발전하더라도 학습의 진정한 동력은 항상 인간의 호기심이 되지 않을까요?

👉 ‘AI 리터러시’의 다음 에피소드에서는, ‘AI와 함께 창작한다는 것’에 대해서 이야기합니다 – 창의성이라는 게 뭔지, 그 핵심을 놓치지 않으면서도 AI라는 기계와 함께 새로운 걸 만들어간다는 것, 어떻게 할 수 있는 걸까 궁금하지 않으세요? 다음 에피소드로 또 찾아뵙겠습니다!

보너스: 참고자료

Play with AI and ML

읽어주셔서 감사합니다. 친구와 동료 분들에게도 뉴스레터 추천해 주세요!

Reply

or to participate.