• Turing Post Korea
  • Posts
  • 'AI의 철학자'로서의 아이들

'AI의 철학자'로서의 아이들

AI 리터러시 시리즈 제2화에 오신 것을 환영합니다!

글을 시작하며: ‘말’이 가지는 힘

‘AI 리터러시’의 두 번째 에피소드를 읽어주시는 여러분 환영합니다. 이번 에피소드도 지난 번처럼 스테파니아 드루가와 함께 합니다.

두 번째 에피소드를 위한 이야기는 가볍게 시작했지만, 곧 진지한 분위기가 되었습니다 - 아시다시피, 우리가 ‘기계’ - 그리고 AI - 에 대해서 사용하는 단어들, 생각하다(Think), 알다(Know), 상상하다(Imagine), 창조하다(Create) 같은 단어들은 사실 엄청난 무게를 지니고 있잖아요?

‘언어’는 ‘믿음(Belief)’을 형성합니다: 아이한테 “ChatGPT가 스마트(Smart)하네”라고 말을 하면, 그 단어는 단순히 그 상황을 묘사하는 걸 넘어서, 아이의 머릿 속에 멘탈 모델을 만들어 냅니다, 마치 기계가 살아있는 것처럼 느끼는 멘탈 모델을요.

물론, 그런 상상이 틀렸다고 말하는 건 아닙니다. 이건 일종의 철학적인 실험으로 볼 수도 있고, 아이들은 이걸 자연스럽게 받아들입니다. 아이를 키워 보셨다면 아시겠지만, 아이들은 ‘추론’을 하는 과정에서 자주 ‘의인화(Anthropomorphize)’를 하잖아요? 아마존 알렉사 스피커 안에 뭐가 있다고 생각하는지 그려보라고 하면, 아이들은 타이프라이터를 든 작은 사람이라든가 끝없이 펼쳐지는 도서관의 모습을 그리곤 합니다 - 어쩌면, 아이들은 ‘사회가, 그리고 어른들이 소위 말하는 블랙박스가 마치 사람인 것처럼 의도나 자율성을 부여하는 표현을 한다’는 걸 보여주는 거울의 역할을 하고 있는지도 모르겠네요.

여기가 바로 ‘에피소드 2’가 시작하는 지점입니다: 에피소드 1에서도 살짝 말씀드렸지만, ‘리터러시(Literacy)’는 단순하게 기술적인 내용을 교육하는 것만이 아닙니다. 일종의 ‘문화적인 협상’이죠. 그런 관점에서 재미있는 건, 어쩌면 “그런데 로봇이 정말로 아는 건 뭔가요?”라고 천진난만하게 묻는 아이들이야말로 가장 명쾌한 ‘AI 철학자’ 내지 ‘AI 인식론자’일지도 모른다는 점이네요.

‘생각하지 않는’ 모델, 그것의 구조

자, 그럼 “로봇이, AI가 정말 아는 게 뭐냐”는 아이의 질문에 대답을 해 주려면, 그 ‘블랙 박스’안을 살짝 한 번 들여다 봐야겠죠:

스테파니아는 이렇게 이야기합니다:

“AI의 다양한 유형을 구분해서 이야기해 주는게 도움이 된다고 봐요. 각각의 기술이 내부적으로 다르게 작동하는데, 그 중에 어떤 것도 실제로 사람처럼 생각하지는 않으니까요”

스테파니아

아이들이 처음 생성 AI를 만나고 대화를 나누기 시작할 때, 아마 마법사의 마술을 보는 것처럼 느낄 겁니다. ‘AI 리터러시’를 아이들이 가질 수 있게 하는 건, 바로 그 순간의 ‘경이로움’을 ‘호기심’으로 바꾸는 겁니다. 아이들이 “이 상자 안에 내가 생각했던 작은 뇌가 있는 게 아니”라는 걸 깨닫게 되면, 파워(Power)는 아이들에게 돌아갑니다: “이게 뭘 알고 있는 거지?”라는 질문이 “이게 어떻게 작동하는 거지?”라는 질문으로 바뀌면서요.

AI의 주요 기술적 분류는 비교적 간단하게 소개할 수 있습니다:

  • 분류 모델(Classification Models)

AI 기술 중에 ‘매치메이커(Matchmaker)’라고 할 수 있습니다. 입력값을 ‘카테고리’로 분류하면서 학습을 하는데, 예를 들면, 고양이와 강아지 사진 수천 장을 보여주면, “수염과 뾰족한 귀”를 가진 건 고양이, “주둥이와 늘어진 귀”를 가진 건 강아지로 구분할 때까지 가중치(Weights)를 조정하면서 학습해요. 이 계열의 모델들은 가장 오래된 종류라고 할 수 있는데, 그 계보는 1950년대의 퍼셉트론(Perceptron)까지 거슬러 올라갑니다.
2010년대에는 CNN(Convolutional Neural Networks)이 ImageNet에서 갑자기 사람의 능력을 능가하는 성능을 보여줬죠. 현재는 이 기술과 같은 원리로 ‘얼굴 잠금 해제, 스팸 필터 등이 만들어져 있어요. 아마, 아이들은 이 모델이 보여주는 틈, 실수를 좋아할 겁니다 - 치와와처럼 보이는 머핀, 쿠키처러 보이는 달마시안 사진을 보여주면, 모델은 실수를 하기도 합니다 - 왜냐면, 모델은 ‘생각’을 하는게 아니고, 픽셀 패턴을 세는 것이기 때문이죠. 

핵심적인, 기억해야 할 교훈은, ‘기계는 생각하지 않는다’는 거예요. 기계는 ‘셈, 즉 연산’을 하는 겁니다. 그리고 만약에 데이터가 편향된 데이터라든가 카테고리가 잘못된 경우에는, 그 ‘연산’ 자체가 편견을 품게 됩니다. AI 기반의 고용 시스템, AI 기반의 신용 점수 결정 등에도 같은 일이 일어날 수 있어요.

여러 연구들을 살펴보면, 아이들이 ‘분류 모델(Classification Models)’의 결점을 확인하고 이렇게 저렇게 테스트해 보면서 때로는 모델을 ‘부수고’, ‘고치고’ 하는 과정을 거치면서, 분류 모델을 훈련하기 위한 적절한 데이터를 선택하는 방법을 발견한다거나 엣지 케이스를 더 발견하는 것을 포함해서 적극적으로 AI에 대해서 학습하는 기회로 삼을 수 있다고 합니다.

  • 확산 모델(Diffusion Models)

확산 모델은 뭐랄까, ‘예술가’라고나 할까요? 확산 모델은, 이미지를 노이즈로 분해한 다음에 그걸 다시 재구성하는 연습을 통해서 학습한다고 설명하면 됩니다. 강아지 사진을 예로 들자면, 픽셀 단위로 그 그림을 분해한 다음 그 과정을 역으로 거쳐가면서 강아지 그림 그리는 법을 학습하는 거죠.

이 기술을 그리면, 일종의 ‘리믹스(Remix)’를 할 수 있게 됩니다. ‘꽃처럼 보이는 강아지’ 그림을 그럴 듯하게 그리는 건, 이 확산 모델이 재구성하는 법을 배웠기 때문입니다.

이 모델은, 현재 이미지, 비디오, 심지어는 오디오 생성 기술의 중심에 있는 모델이죠. 아이들은 같은 프롬프트라고 할지라도 초기 조건이 무작위로 주어지면서 전혀 다른 결과를 만들어낸다는 걸 빨리 알아챈다고 해요. 여기서 아이들이 얻게 되는 인사이트도 단순합니다: 기계는 ‘상상’하는 게 아니라 ‘리믹스’하는 거라는 거예요.

  • 트랜스포머(Transformers)

트랜스포머는 ‘작가’라고 표현할 수 있을 겁니다. ChatGPT를 비롯한 수많은 지금의 AI 서비스의 핵심에 있는 트랜스포머, 이 친구들은 세상을 있는 그대로 보지 않고, 텍스트를 토큰(Token)으로 나눠 봅니다. 그리고 이 친구들이 하는 건 단 한 가지 일, 바로 ‘다음 단어를 예측(Next-word Prediction)’하는 겁니다: “하늘이”라는 단어를 보면 그 다음에는 “파랗다”라는 단어가 올 거라는 걸 예측하는 거죠. 엄청난 양의 언어로 이루어진 텍스트로 훈련을 해서, 그 표현력이 너무나 유창해졌습니다.

아이들과는 ‘다음 단어 노래방’ 게임을 한 번 해 보면 그걸 더 극적으로 깨달을 수 있을 겁니다. 사람은 ‘놀라움’을 주지만, 기계는 (모델은) ‘확률에 따라’ 움직인다는 걸 느낄 거예요. 기계는 이해하지 않습니다 - 예측만 하는 겁니다.

‘빅 3’ 이외의 다른 것들

앞서 이야기한 분류 모델(Classification Models), 확산 모델(Diffusion Models), 트랜스포머(Transformers)와 더불어서, 아이들이 매일 접하게 되는 AI 도구나 서비스를 구성하는 또 다른 중요한 기술의 계열들도 있습니다:

  • GANs – 결투자(Duelists)

GAN, 즉 생성적 적대 신경망(Generative Adversarial Networks)은 두 개의 모델이 서로 경쟁하게 합니다. 하나는 창작하고, 다른 하나는 비평하죠. 아이들이 이해하기 좋게 이야기한다면, “예술가와 심판” 정도면 어떨까 합니다. GAN은 최초로 사실적인 딥페이크(Deepfakes)를 만들어낸 기술이기도 합니다.

  • 강화 학습(Reinforcement Learning) - 게이머(Gamers)

강화학습을 적용한 모델들은 시행착오를 통해 배웁니다 - 마치 강아지가 막대기를 물어오는 것처럼요. 모델에게 주는 보상 신호(Reward Signals)가 다음 번에는 더 나은 전략을 만들어서 실행하게끔 이끕니다. 강화학습을 적용한 모델들로부터 AlphaGo부터 창고 로봇(Warehouse Robots)까지 다양한 신기술과 제품들이 나왔습니다.

  • Embodied AI(Embodied AI) – 이동체(Movers)

로봇과 에이전트(Agents)는, 인식(Perception), 계획(Planning), 제어(Control)라는 서로 다른 단위를 결합합니다. 단순하게 출력값을 생성하는데서 끝나는 게 아니라, 만약 실수를 하게 되면 물리적인 결과가 생기는 실제 세상에서 행동을 하도록 해 주는 기술입니다.

  • 메모리 증강 시스템(Memory-Augmented Systems) – 도서관 사서(Librarians)

이 새로운 구조는, 모델이 과거에 있었던 대화 등의 상호작용을 “기억”하거나, 외부에 있는 지식을 검색(Retrieve)할 수 있게 해서, 정적인 시스템에 머물지 않고 계속해서 진화하는 협력자(Collaborators)로 바꿔주는 구조입니다.

이런 다양한 시스템과 기술의 계열들을 아이들에게 설명할 때, “기계가 똑똑해”라는 말 대신 “기계는 수학적인 원리를 따라서 작동해”라고 설명해 보세요. 그런 방향으로의 변화는, 일종의 해방감까지도 준다고 합니다. 아이들이 꿈꾸는 마법을 없애자는게 아닙니다. 아이들이 찔러도 보고, 부숴도 보고, 다시 만들어볼 수 있는 뭔가로 재구성을 해 보자는 겁니다. 그럼, 아이들은 이렇게 반응할 겁니다: “그건 어떻게 움직여?” 라구요.

교육을 위한 ‘도구’로서의 의인화(Anthropomorphism)

크세니아와 스테파니아의 대화를 이어가보죠:

크세니아: “그럼 AI에 대해서 어떻게 얘기해야 할까요? AI 모델에는 뇌도, 감정도, 생각도 없는데, 우리는 자꾸 AI가 생각한다고 말하잖아요.”

스테파니아: “의인화(Anthropomorphizing)는 그 자체로 나쁜 게 아니예요. 오히려 세상을 이해하는 데 아주 유용한 메커니즘이죠. 어떨 때 우리는 플러그를 보고 얼굴처럼 생겼다고 생각해요. 인간의 관점에서 배우고 탐구하기 때문에 모든 종류의 기술에 대해 이렇게 이야기를 해 왔던 거죠. 의인화는, 사람으로서 우리의 경험과 무생물이나 도구 사이에 연결고리를 만드는 쉬운 방법이기도 해요. 이건 수천 년 동안 배우면서 만들어 온 습관이기도 하구요.”

어떻게 보면, 아이들이 거꾸로 어른들인 우리에게 일종의 ‘템플릿’ 같은 걸 주는 걸지도 몰라요 - 아이들의 순수한, 호기심 가득한 시각이 우리가 AI를 어떻게 가르치고 설명할지에 대한 아이디어를 준다는 거죠. 아이들은 마법같은 생각에서 시작해요: 아마존 알렉사 안에 작은 도서관 사서가 있다고 생각해요. 그러다가 어른들의 설명을 듣고 도움을 받으면서 그 생각을 풀어내기 시작해요. 알렉사가 사서가 아니라 센서(Sensor)와 데이터베이스(DB)라고 다시 생각을 바꿔요. 여기서의 철학적인 전환은 정말 심오한 거예요: 의인화를 ‘입구’로 삼아서, 시스템적인 사고(System Thinking)에 도달하게 되는 거죠.

이게 바로, 아이들이 ‘AI의 철학자’라고 하는 이유예요. 아이들은 ‘믿음’이라는게 어떻게 만들어지는지, 비유(Metaphor)가 ‘상상’으로부터 ‘설명’으로 어떻게 이동하는지를 보여줍니다. 어른들도 그 궤적을 따라가는 법을 배워야 돼요.

5개의 빅 아이디어, 그리고 그 간극

많은 교육자, 그리고 연구자들이 아이들, 그리고 학생들에게 AI를 가르치기 취한 프레임웍과 구조를 만들기 위해서 노력해 왔어요. 특히, NSF가 자금을 지원한 AI4K12 이니셔티브에서는 다섯 가지 큰 아이디어를 제안했습니다:

  1. 인식(Perception) – 기계는 센서(Sensors)를 통해 인식해요.

  2. 표현(Representation) – 기계는 내부의 모델(Internal Models)을 만들어요.

  3. 학습(Learning) – 기계는 데이터로부터 적응하는 법을 배워요.

  4. 자연스러운 상호작용(Natural Interaction) – 기계는 우리와 소통해요.

  5. 사회적 영향(Societal Impact) – 기계는 우리의 삶을 변화시켜요.

그렇게 보이지 않을지도 모르지만, 이건 아주 획기적인 시작이었습니다. 하지만 스테파니아가 상기시켜 주듯이, 이런 아이디어들은 많은 경우에 너무 추상적인 상태로 남아있기 쉽습니다. 교사들은 “AI가 얼굴을 인식해” 또는 “AI가 영화를 추천해” 정도에서 멈추기가 쉽고, 아이들이 “그런데 이게 내 숙제, 내 TikTok 피드, 내 프라이버시(Privacy)와 어떻게 연결되나요?”라고 질문을 하는 순간, 준비된 커리큘럼은 무너지게 돼요.

여기서 유네스코(UNESCO)와 미국 교육부(U.S. Department of Education)의 프레임웍은 좀 더 나아갑니다. 이 프레임웍에서는 AI 리터러시를 단순한 지식이 아니라 ‘지속 가능한 기술(Durable Skills)’과 ‘미래를 대비한 태도(Future-Ready Attitudes)’로 정의해요. 이 표현이 다분히 관료적으로 들릴지는 모르지만, 그 의미만큼은 급진적이라고 할 수 있습니다: AI와 함께 융성하려면, 인간의 특정한성향(Dispositions)이 필요합니다. 그건 바로, 호기심(Curiosity). 회의적인 태도(Skepticism). 책임감(Responsibility), 그리고 반복해서 배우는 능력 같은 것들입니다.

이 지점이 바로, 저희 ‘AI 리터러시’ 시리즈의 두 번째 에피소드가 여러분에게 새로운 관점을 공유하기 시작하는 지점이라고 생각합니다 - AI 리터러시가 추상적인 개념의 계층에서 머무는게 아니라, 실제 삶에서의 실천으로 이어지는 다리가 되어야 한다는 점에서요.

프롬프트: “Imagine a bridge between neural networks on one side and a smartphone’s photo library on the other side, simple drawing made with colored pencils --16:9”.
Created with Flux.Kontext

크세니아: “지금의 AI 리터러시와 관련된 자료나 의견들이 가진 문제는, 대부분 같은 지점에서 멈춘다는 거예요. 머신러닝이 뭔지 설명은 해 주지만, 그 다음에 So What으로는 이어지는 경우가 거의 없어요.”

스테파니아: “맞아요, 대부분 이게 뭐다라고 정의하는 데서 그치죠. 우리 삶, 일상 생활로의 연결이 빠져 있어요. 그런데, 아이들은 이미 빅테크들이 만든 AI 도구를 어른들보다도 많이 사용하고, 이미 빠져 있다고도 할 수 있죠. 그래서 더더욱 AI 리터러시에 관련된 연구를, 아이들이 실제로 사용하고 있는 AI 제품이나 서비스와 연결할 필요가 있어요.”

인간을 위한 전이학습(Transfer Learning)

기계 학습(Machine Learning)에서, 전이 학습(Transfer Learning)이란 건 ‘하나의 작업에서 얻은 지식을 다른 작업에 활용하는 것’을 뜻합니다. 사람의 학습에서도 비슷한 것이 있을까요? 예를 들어 분류(Classification)에 대해서 배운 걸 고용에서의 편견(Bias)을 이해하는데 적용할 수 있을까요?

스테파니아는 그녀의 동료 낸시 오테로(Nancy Otero)와 함께 이 갭(Gap)을 연구했는데요, 그 과정에서 50가지가 넘는 AI 교육 자료를 분석했다고 해요. 대부분은 개념을 잘 설명했지만, 전이(Transfer)에 대한 내용을 가르치는 자료는 거의 없었다고 합니다. 그래서, 부족한 연결고리는, 바로 아이들의 실제 경험으로 이어지는 적용 사례였던 것이죠.

스테파니아와 낸시가 AI 리터러시를 가정, 그리고 교실의 생활과 연결하기 위해 고안한, 몇 가지의 연결 고리 사례는 이런 것들입니다:

  • 분류(Classification) → 은행 대출 공정성/대학 입학: AI가 사람을 분류(예: 대출 승인 여부)할 때 공정성 문제를 어떻게 가르칠까? 예를 들어, "AI가 왜 누군가의 대출을 거절했을까?"를 통해 편향을 논의

  • 확산(Diffusion) → 딥페이크 인식: 딥페이크 같은 AI 생성 콘텐츠를 아이들이 어떻게 식별할 수 있는지 가르침. 예: "이 영상이 진짜인지 가짜인지 어떻게 알지?"

  • 트랜스포머(Transformers) → AI 답변을 비판적으로 읽기: ChatGPT 같은 AI의 답변을 비판적으로 읽는 법을 가르침. 예: "AI가 말한 게 정말 맞는지 확인해봐!"

  • 강화 학습(Reinforcement Learning) → 인센티브와 행동: AI가 보상을 통해 학습하듯, 사람도 인센티브에 따라 행동이 바뀌는 걸 논의. 예: "왜 게임에서 점수를 받으면 더 열심히 하게 될까?"

  • Embodied AI → 안전: 로봇 같은 AI가 물리적 세계에서 움직일 때 안전 문제를 가르침. 예: "로봇이 사람을 다치게 하지 않으려면 어떻게 해야 할까?"

  • 메모리 시스템(Memory Systems) → 프라이버시/영구성: AI가 데이터를 저장하고 기억하는 방식과 프라이버시 문제를 연결. 예: "AI가 내 정보를 계속 기억한다면 어떤 문제가 생길까?"

(사람에게 있어서의) 전이(Transfer)는, 예를 들자면, 편향되어 있는 이미지 분류기(Image Classifier)를 훈련해 본 어린아이가 그런 비슷한 왜곡(Skew) 때문에 누군가가 일자리를 얻을 기회를 잃을 수 있다는 걸 깨닫게 될 때 일어납니다. 또, 로컬 환경에서 챗봇을 가지고 놀던 십대가, 클라우드 기반의 모델과 자기가 가지고 놀던 모델 간의 프라이버시 조건에 대한 차이를 알아차릴 때 일어나구요. 또, 가족의 활동과 관련한 이야기를 하다가, 그 논의가 시스템의 권한(Power)과 책임(Responsibility)이 어떻게 분배되는지에 대한 토론으로 이어질 때 일어납니다.

AI 리터러시는, 모래상자를 가지고 노는 실험에서 시작해서, 아이들이 노동자(Workers), 시민(Citizens), 창작자(Creators)로 성장하게 되면 마주하게 될 여러 가지 선택지들에 대한 고민으로 확장될 때 비로소 의미가 생기게 됩니다. 아이들이 다양한 환경에서 이런 ‘연결’을 경험하게 되면, AI는 단순히 배우는 대상이 아니라 ‘통제하는 방법(Governance)을 배워야 할 대상’이 됩니다.

아이들: 편향, 예측, 그리고 주체성의 철학자들

철학(Philosophy), 생각보다 자주 ‘아주 간단한 사고 실험(Thought Experiments)’에서 시작합니다. 아이들은 이런 생각의 형식에 대해서 꽤 잘 알아요.

아이들에게 데이터셋(Dataset)을 한 번 줘 보세요: 오렌지 8개, 사과 3개. 그리고 모델(Model)을 훈련(Train)하게 해 보세요. 그리고 난 다음에 묻습니다: “이건 뭘 더 자주 예측할까요?” 그러면 편견(Bias)이 나타나는 걸 보게 될 거예요. 다음으로 묻습니다: “만약 은행의 데이터에도 같은 불균형(Imbalance)이 있다면 어떻게 될까요?” 처음에 머핀과 강아지 모양을 보고 웃던 아이가 갑자기 시민적 규모(Civic Scale)에서의 공정성(Fairness)을 이해하게 되는 순간이 옵니다.

“다음 단어 노래방(Next-Word Karaoke)”을 해보세요. 문장을 시작하고, 아이들에게 다음 단어를 예측하게 한 뒤에 ChatGPT가 한 결과와 비교하게 해 보세요. 아이들은, 인간은 단순한 다음 단어 예측이라는 작업에서도 ‘놀라움’을 주지만, 모델은 확률(Probability)에 얽매인다는 걸 금방 알아차릴 거예요. 이게 바로 아이들에게 더 깊은 인사이트를 불러일으킵니다: 창의성(Creativity)은 기대 수준(Expectation)에서 벗어나는 거예요.

흐릿한 이미지를 주고, 아이들한테 다시 그리게 한 다음 선명한 사진을 보여주세요. 그러면 아마 아이들은 확산(Diffusion)이라는 과정을 직관적으로 이해하게 될 겁니다. 더 중요한 건, 진짜 원래의 이미지와는 다른 버전으로 재구성(Reconstructions)된 결과도 여전히 그럴듯하게 느껴질 수 있다는 걸 보게 된다는 겁니다 — 아이들에게 ‘불확실성의 인식론(Epistemology of Uncertainty)’에 대한 창이 열리는 순간인 거죠.

이 모든 경우에 있어서, 아이들은 학생이기도 하고 철학자이기도 하게 됩니다. 모델의 기계적인 작동에 대해서 이해하고 배우지만, 때로 어른들이 피하는 질문을 던지기도 하거든요. “만약 모델이 틀렸지만 옳은 것으로 들린다면, 결과에 대한 책임은 누가 질까요?” “항상 흔한 과일을 맞춘다면, 드문 과일에 대해서는 절대 배우지 않나요?”

스테파니아: “야스민 카파이(Yasmin Kafai)의 IDC 키노트 중에서 저에게 큰 울림을 준 건, 마이크 아이젠버그(Mike Eisenberg)의 연구가 강조했던, 인간 대 AI(Human vs. AI) 부분이었어요. AI 지능에 대한 인식은, 청소년들이 AI와 함께 공동 창작(Co-Create)을 하는 방식에 큰 영향을 줄 거예요.”

문화, 그리고 ‘생각하는 기계’의 언어

“생각하는 기계(Thinking Machines)”라는 표현은 앨런 튜링(Alan Turing) 시대부터 있던 표현이예요. 이 용어 자체가 일종의 철학(Philosophy)을 재형성한 다음, 공상 과학(Science Fiction)의 영역을 넘어 수많은 산업을 바꿨죠. AI가 널리 퍼진 오늘날에는 가정, 학교 등에까지 영향을 미치고 있습니다. 아이가 “ChatGPT, 나한테 이거 설명해 줄래?”라고 묻고, 대부분의 선생님들보다 따뜻한 목소리로 답을 받는다면, 이미 그건 ‘중립적’인 상호작용이 아닙니다 - 이건 문화적인 기대 수준(Cultural Expectations)을 재프로그래밍(Reprogramming)하는 것에 가깝습니다.

언어, 이건 우리가 현재를 이해하고 미래를 설계하는 방식을 형성하게 됩니다. 만약 이 시스템들을 “코파일럿”이라고 부른다면, 동시에 우리는 이것과 함께 조종석을 공유한다고 가정하게 되는 거예요. “예언자(Oracles)”라고 부른다면, 의심할 수 없는 지혜(Wisdom)를 갖고 있는 뭔가를 전제로 하게 되고요. “조수(Assistants)”라고 부른다면, 종속(Servitude)을 전제로 하게 되죠. 그 이름표, 즉 레이블(Label)이 곧 설계의 지침(Design Brief)이 되는 겁니다.

아이들은 성인 연구 그룹보다 더 빠르게 이 점을 알 수 있게 보여줍니다. 가만히 생각해 보면, 아이들은 일종의 메타포 속에 살아가요. 기계 안에 작은 사람을 그리는 아이들의 그림은 중세의 호문쿨루스 이론(Homunculus Theory of the Mind)을 떠올리게 합니다. “AI가 원하는 게 뭐야?”라는 캐주얼한 질문은 거버넌스(Governance)에서의 논쟁을 앞서서 보여주고요.

그런 의미에서, 아이들을 연구하는 것은 사회의 철학(Philosophy)을 생생한, 살아있는 형태로 탐구하는 것, 그것과 다름 아닙니다.

‘AI 리터러시’를 위해서 가정, 학교에서 할 수 있는 7가지 활동

아이들과 함께 할 만한 ‘AI 리터러시’ 활동을 아래와 같은 7가지로 정리해 봅니다. 다양한 환경에서 한 번 해 보시고, 또 다른 활동이 있다면 저희에게도 알려주세요:

  1. 그릇 속의 편견(Bias in a Bowl). 오렌지와 사과로 모델(Model)을 훈련(Train)하게 해 보세요. 데이터의 불균형(Imbalance)이 예측의 왜곡(Skewed Predictions)을 초래하는지 논의하고, 실제 시스템(Real Systems)에서의 공정성(Fairness)과 연결해서 심화된 논의를 해 보세요.

  2. 다음 단어 노래방(Next-Word Karaoke). 인간 대 트랜스포머(Transformer). 누가 더 다음 단어를 예측하는데 있어서 놀라움을 주나요?

  3. 의인화 일지(Anthropomorphism Diary). 가족 구성원들이 기계에 인간적 특성(Human Traits)을 부여할 때마다 기록을 남기세요. 그게 도움이 되는지, 오해를 일으키는지에 대해 토론해 보세요.

  4. 프레임웍 횡단로(Framework Crosswalk). AI4K12의 다섯 가지 아이디어, 유네스코(UNESCO)의 기술(Skills), 미국 교육부(Dept of Education)의 정의를 인쇄해 주세요. 학생들이 중복과 격차를 매핑(Map)하게 하세요.

  5. 로컬 대 클라우드의 차이 논의(Local vs. Cloud Debate). 작은 모델을 로컬에서 실행하고, 클라우드 환경의 챗봇과 비교해 보세요. 프라이버시(Privacy), 속도(Speed), 제어(Control)의 장단점(Trade-Offs)에 대해 논의하세요.

  6. 비유 설계하기(Design a Metaphor). 아이들에게 AI에 대한 새로운 비유(Metaphor)를 만들어보라고 도전적인 과제를 줘 보세요—“생각하는 기계(Thinking Machine)”가 아니라 새롭고 신선한 걸요. 그 메타포들을 모아서 전시도 해 보고 함께 생각해 보세요. 이 비유들은 미래에 펼쳐질 문화(Future Culture)의 씨앗이 될 겁니다.

  7. ‘누가 더 많이 아나?’ 게임을 아래와 같은 템플릿을 사용해서 한 번 해 보세요.

맺으며: 핵심 메시지

AI 리터러시는 절대! 기술적 지식의 체크리스트가 아닙니다. 이건 언어(Language), 상상(Imagination), 주체성(Agency)을 중심으로 형성된 문화적인 실천(Cultural Practice)이라고 할 수 있습니다. AI에 정통한 아이들을 키운다는 건, ‘생각하지 않는 기계(Non-Thinking Machines)’에 대해서 사회가, 그리고 인간이 어떻게 생각해야 하는지를 가르칠 수 있는 철학자(Philosophers)를 키우는 겁니다.

스테파니아: “세상은 적어도 아직은 인간 중심적(Anthropocentric)이에요. 기계는 패턴(Patterns)을 인식하지만, 사람은 의미(Meaning)를 창조해요. 우리의 역할은 이 둘을 신중하게 연결하는 거예요.”

크세니아: “그리고 다음에는 기계와 함께 창작(Creation)하는 방법에 대해 이야기할 거예요. 단순히 AI의 ‘마법을 한꺼풀 벗겨내는’ 데 그치지 않고, 오히려 그런 상상력을 활용해서 뭔가를 만드는 법을 신비화(De-Mystify)하는 데 그치지 않고, 그 같은 상상력을 활용해 만드는 법에 대해서 이야기할 겁니다.”

보너스: 참고자료

Play with AI and ML

읽어주셔서 감사합니다. 친구와 동료 분들에게도 뉴스레터 추천해 주세요!

Reply

or to participate.