Stack Overflow에서 2년 만에 질문 수가 76% 줄었습니다. 나쁜 질문이 사라진 게 아니라, 좋은 질문을 올리던 사람들이 질문 올리는 걸 멈춰버린 겁니다. 물어보니, "내가 공들여 쓴 질문이 AI 답변이랑 같은 취급을 받을 것 같아서"라는게 그 이유였습니다.

Stack Overflow 연간 통계. Image Credit: Grimmelmann, "Gresham's Law 2.0"
AI의 시대, 이런 현상은 Stack Overflow만의 이야기가 아닙니다.
거짓말쟁이보다 더 위험한 것
2025년 메리엄-웹스터가 선정한 올해의 단어는 AI 슬롭(Slop)이었습니다. AI가 쏟아내는 저품질 컨텐츠. 가축 사료. 찌꺼기. 단어는 맞는데, 그게 가리키는 게 정확히 무엇인지는 아직 우리가 제대로 이해하지 못하고 있다고 생각합니다.
AI 슬롭의 문제가 ‘저품질’의 컨텐츠인 것 뿐이라면 해결책은 간단해요. 좋은 것만 읽으면 됩니다. 예전의 나쁜 컨텐츠 — 클릭베이트 제목, 오타투성이 스팸, 어색한 광고 문구 — 는 티가 났고, 티가 났기 때문에 무시할 수 있었어요. 지금의 AI 슬롭은 다릅니다. 문장이 매끄럽고, 논리 구조가 있고, 전문 용어도 제 자리에 들어가 있어요. 읽고 나면 뭔가 이해한 것 같은 느낌이 드는데 — 그게 느낌일 뿐이라는 게 문제입니다.
미디어 철학자 L.M. Sacasas는 AI를 "자동화된 소피스트"라고 불렀습니다. 고대 그리스의 소피스트는 진실보다 설득이 목표였지만, 그래도 사람이었죠. 의도가 있었고, 잡히면 책임을 물을 수 있었습니다.
철학자 해리 프랭크퍼트는 거짓말쟁이와 헛소리꾼(Bullshitter)을 구분합니다. 거짓말쟁이는 진실을 알면서 숨기기 때문에 반박할 수 있고 증거로 맞설 수 있어요. 헛소리꾼은 달라요 — 참과 거짓 자체에 무관심하고, 그럴듯하게 들리는 것을 만들어낼 뿐입니다.
AI는 어떤 면에서는 헛소리꾼조차 아닌 존재입니다. 의도도 무관심도 아무 것도 없이, 다음에 올 확률이 가장 높은 단어를 고를 뿐이고, 그게 사실인지는 계산에 들어가지 않습니다.
이게 왜 중요하냐면, 우리가 쌓아온 ‘신뢰 시스템’ 전체가 "어딘가에는 진실과 관계를 맺고 있는 누군가가 있다"는 전제 위에 서 있기 때문이에요. 전문가를 믿는 건 그 전문가가 사실을 알 것이라는 전제가 있어서이고, 저널리즘을 믿는 건 거기 사람들이 팩트를 확인한다는 전제가 있어서잖아요?. 그럴듯한 AI 컨텐츠는 이런 전제를 침식해 버립니다. 잘못된 정보를 퍼뜨려서가 아니라, "진실에 책임을 지는 저자"라는 개념 자체를 무의미하게 만들어버리는 거예요.
Ethan Mollick이 반복해서 경고하는 것도 이겁니다. AI의 오류는 그럴듯하기 때문에 사람들이 확인을 안 합니다. AI가 잘할수록 사람들은 더 방심해요. 품질과 경계심이 반비례하는 역설이죠.
Gresham과 Akerlof
악화가 양화를 구축한다는 걸 설명하는 그레샴의 법칙이 있습니다 — 위조 동전과 진짜 동전이 공존할 때 사람들이 진짜를 쓰지 않고 모아두면서 시장에 나쁜 돈만 남는 현상이에요.
코넬대 법학 교수 Grimmelmann은 2024년에 이 법칙을 컨텐츠 생태계에 적용해서 "그레샴의 법칙 2.0"이라고 불렀습니다 — AI가 만든 쓰레기 컨텐츠의 홍수가 인터넷 전반을 압도하면서 좋은 컨텐츠가 스스로 무대에서 내려온다는 거예요. 개인에게는 합리적인 행동 - 진짜 동전을 쓰지 않고 모아두는 것 - 이 집합적으로는 파괴적인 결과 - 시장에 위조 동전만 남게 되는 것 - 를 낳는다는 역설의 구조도, 직관적으로 와 닿는 측면이 있습니다.

이런 이야기겠죠. Image Credit: 게티 이미지
그런데, 개인적으로 이 비유가 놓치고 있는 핵심이 있다고 생각합니다.
그레샴의 법칙이 작동하려면 결정적인 조건이 있어야 합니다. 그건 바로, 강제된 등가성이예요 (등가교환? 갑자기 강연금 생각이…^.^) — 국가가 ‘악화’와 ‘양화’를 법적으로 같은 가치로 취급하도록 강제하는 것이요. 사람들이 금화를 쓰지 않는 이유는 나라가 금화와 위조 동전을 동일한 1달러로 받으라고 강요, 강제하기 때문이죠. 이 강제가 없으면 법칙 자체가 성립하지 않는 겁니다
그런데, 컨텐츠 시장에는 사실 근본적으로는 강제가 없다고 할 수 있죠. 유튜브는 조회수로, 뉴스레터는 이탈률로, 검색은 클릭 패턴으로 품질을 차별화하려고 합니다. AI 슬롭과 좋은 글을 법적으로 동일하게 취급하는 제도적 장치가 없는 겁니다.
그레샴의 법칙에다가 "2.0"이라는 버전 번호를 붙인 건 이런 핵심 조건을 우회하기 위한 수사적인 선택이라고 할 수 있을 텐데, 작동 조건을 바꿔야만 적용 가능한 법칙이라면 그게 여전히 같은 법칙인지 반문 정도는 할 수는 있겠죠.
저는 조지 애컬로프의 레몬 마켓(Lemon Market) 이론이 AI 슬롭의 경우에 훨씬 잘 들어맞는 것 같아요.
애컬로프는 1970년 중고차 시장을 분석했어요. 판매자는 차가 좋은지 나쁜지(즉, "레몬"인지) 알지만 구매자는 모르는 거죠. 이 정보의 비대칭 때문에, 구매자는 내가 사는 차가 잘 해 봐야 평균적인 품질이려니 가정하고 중간 가격만 내려고 하고, 그 가격에 좋은 차를 팔 이유가 없는 판매자들은 천천히 시장을 떠나게 됩니다. 결국 ‘레몬’만 남는 겁니다 — 강제가 없이도, 자연스럽게 말이예요.
AI 슬롭이 정확히 이 구조입니다. 독자들은 지금 읽는 글이 AI 슬롭인지 좋은 글인지 구별할 수 없어요. 정보의 비대칭이 발생합니다. 그러면 독자는 평균을 가정하고 신뢰를 낮추는데, 실제로 AI가 쓰지 않은 글에 대해서도 마찬가지 자세를 보이게 되는 거죠. 그 낮아진 신뢰 수준에서는, 다시 좋은 글을 쓸 인센티브가 사라집니다. Stack Overflow 전문가들이 떠나는 건, 금화를 금고에 보관하는 게 아니라, 시장이 자신의 글을 레몬과 같은 가격으로 취급한다는 신호를 읽고 ‘나오는’ 거예요.

그레샴의 법칙 vs. 레몬 마켓 이론. Image Credit: 튜링포스트
두 이론의 차이는 또, 이렇게 정리해 볼 수도 있습니다: 그레샴은 "좋은 것이 물러난다"는 현상을 포착하고, 레몬 마켓은 "왜 물러나는가"의 메커니즘을 설명하는 것으로요. AI 슬롭 문제를 해결하려면 현상이 아니라 메커니즘을 봐야 한다고 생각하고, 그래서 레몬 마켓이 더 유용한 틀이라고 생각합니다.
이렇게 보면, AI 슬롭에 대한 처방도 달라질 수 밖에 없죠. 그레샴의 시각에서는 "나쁜 것을 강제로 걷어내라"가 답이지만, 레몬 마켓의 처방은 신호의 복원입니다 — 독자가 ‘품질을 다시 구별할 수 있게’ 만드는 것이요.
한 블로거가 공들여 쓴 이메일을 보냈다가 "이거 AI가 쓴 거 아니야?"라는 말을 들었는데, 그 이야기를 듣고 블로거는 "우리는 글을 잘 쓰면 의심받는 세상을 만들고 있다."고 한탄했다고 해요.

Image Credit: 튜링포스트
음악 평론가이자 문화 비평가 Ted Gioia는 이 흐름을 가장 선명하게 짚은 사람 중 하나입니다. Ted는 이미 이렇게 말했습니다. "신뢰는 세상에서 가장 희소한 자원이다. 다른 어떤 것도 근접하지 못한다."
정보가 폭발적으로 넘쳐나는 시대에 오히려 신뢰가 사라지고 있다는 역설인 것이죠. AI 슬롭과의 싸움은 결국 품질의 문제가 아니라 신뢰 신호를 복원하는 싸움입니다.
한국이 세계 1위인 이유, 그리고 그 역설
슬프게도, 조회수를 기준으로 AI 슬롭을 가장 많이 소비하는 세계 1위의 국가는 바로 우리나라, 한국입니다. 한국 기반 채널의 누적 조회수는 자그마치 84억 5천만 회. 2위 파키스탄(53억)의 1.6배, 3위 미국(34억)의 2.5배예요.

한국, AI 슬롭 최고 소비국가. Image Credit: 튜링포스트 코리아
왜 이렇게 우리나라에서 AI 슬롭 소비가 많을까요? 이 숫자를 처음 봤을 때 저도 선뜻 납득이 안 됐지만, 한 번 네 가지 정도로 요인을 생각해 봤습니다.
첫째, 가장 검증된 이유라고 한다면, 아마 AI 도입의 속도일 겁니다. Microsoft AI 확산 보고서에 따르면 한국은 2025년 하반기에 생성형 AI 사용률이 6개월 만에 가장 크게 뛴 나라였어요. 글로벌 순위로 7계단이 상승했죠. 이 속도가 슬롭 소비와 생산 양쪽을 모두 견인했다고 추측할 수 있습니다.

엄청난 속도의 생성형 AI 확산. Image Credit: 튜링포스트
둘째, "AI 부업"의 열풍입니다. "ChatGPT와 영상 생성 AI만 있으면 하루 1시간에 월 300만 원"을 약속하는 유료 강의가 온라인을 가득 메웠죠, 아마 여러분들도 그런 유튜브 영상이나 쇼츠를 못해도 몇 번씩은 보셨을 겁니다.
한국의 AI 슬롭 채널들은 조회수만 높은 게 아닙니다. 글로벌 Top 10 수익 채널 중 4개가 한국 채널이래요! 레몬 마켓의 언어로 말하자면, 생산 비용이 거의 0인 레몬을 대량으로 공급할 인센티브가 극도로 커진 구조라고 할 수 있겠죠.

위와 같은 채널들을 유튜브에서 삭제하고는 합니다. Image Credit: 튜링포스트
셋째, 컨텐츠 유형과 알고리즘의 궁합입니다. 한국 기반의 AI 슬롭의 주력 컨텐츠는 동물 영상, 가짜 K-Pop, 치유 컨텐츠 같은 것들인데, 이런 포맷들은 언어의 장벽 없이 글로벌 알고리즘을 탑니다. 숫자가 흥미로운 구조를 보여줘요.

한국 vs. 스페인 AI 슬롭 구독자 수와 조회수
넷째, 기술에 대한 얼리어답터 문화와 미디어 리터러시 격차가 같은 곳에 공존합니다. 한국은 널리 알려진 신기술의 테스트 마켓이자 스마트폰 초 고보급률 국가예요. 동시에 유튜브를 주요 정보 채널로 쓰는 고령층의 AI 슬롭 오인 소비가 실제로 꽤 많이 보고되고 있습니다. 레몬 마켓으로 말하면, 정보 비대칭에 가장 취약한 집단이 AI 도입이 가장 빠른 생태계 안에 함께 있는 구조예요.
이 역설은 지금부터 다룰 내용과 직결됩니다. AI 기본법이 2026년 1월 22일 발효됐어요. 아시아태평양 최초의 포괄적 AI 규제입니다. YouTube도 같은 달 대규모 제재를 단행했구요.

유튜브, 가만히 있지 않습니다. Image Credit: 튜링포스트
규제를 가장 먼저 만든 나라가 AI 슬롭을 가장 많이 소비하는 나라이기도 한 이 ‘역설’이 스스로 증명하는 게 있어요 — 레몬을 걷어내는 것만으로는 충분하지 않다는 것이예요. 정보의 비대칭 자체를 해소해야 합니다. 신뢰를 회복할 신호를 복구해야 한다는 말입니다.
신뢰는 공유재다 — 그리고 지금 소진되고 있다
ESCP 비즈니스 스쿨의 경영학자 Acquier와 Cossey는, AI 슬롭이 만드는 문제를 "인식론적 오염(Epistemic Pollution)"이라고 부르면서 환경 오염에 직접 비유했습니다. 미세플라스틱처럼 조용하게, 그리고 광범위하게 퍼져나가는 오염이요. 그렇다면 오염을 만드는 건 누구일까요?
강을 오염시키는 공장이 있다면, 주민들에게 "물을 직접 검사하세요"라고 말하는 건 해결책이 당연히 아니겠죠. 그런데 지금 AI 슬롭을 둘러싼 논의는 대부분 그 방향으로 흘러가고 있어요. "AI 탐지 도구를 쓰세요", "더 비판적으로 읽으세요", "출처를 확인하세요." 오염을 만든 쪽에 책임을 묻는 대신, 소비자에게 검사를 떠넘기는 겁니다.
신뢰도 마찬가지입니다. 검토를 제대로 하지 않고 AI 컨텐츠를 올리는 건 개인 입장에서는 효율적이겠죠. 하지만 그런 행동이 모이면서 우리 모두가 공유하는 ‘신뢰라는 자원’을 조금씩 소진시킵니다. 그리고 그 소진에 대해서 아무도 직접 비용을 치르지 않아요. 전형적인 공유재의 비극입니다.
Reddit에서 누군가 남긴 댓글이 이 느낌을 정확하게 짚었습니다. "AI의 존재 자체가 방 안에 스파이를 두는 것과 같다. 의심 자체가 적이다." AI 슬롭을 직접 마주치지 않아도, 신뢰라는 자산은 이미 흔들리고 있어요. 그리고 그 의심은 지금 YouTube 피드 전체로 번져가고 있습니다.
해결책이라 부를 수는 없지만, 그래도 이야기해야 할 것들
해결책의 목록을 나열해 보려다가, 중간에 한 번 멈칫했습니다. 강을 오염시켜 놓고 소비자에게 정수기를 권하는 것과 얼마나 다른지 확신이 없어서요.
하지만 레몬 마켓 이론이 꾸준이 우리가 바라봐야 할 방향을 이야기해 주기는 합니다 - 바로, 정보 비대칭이 문제라면, 해결의 방향은 신호의 복원이라는 걸요.
기술적인 수준에서 가장 주목할 것은 C2PA(컨텐츠 출처 및 진위 연합)입니다. AI 탐지기가 아니에요 — 탐지기는 작동하지 않습니다. 미국 헌법도, 성경 원문도 AI가 생성한 것으로 판정된 적이 있어요.
C2PA는 접근 자체가 다릅니다. 컨텐츠가 만들어지는 순간 암호화 서명을 붙입니다. "이게 AI인가 아닌가"를 사후에 추론하는 게 아니라, 출처를 처음부터 기록하는 거예요. 레몬 마켓과 비교하자면, 차량 이력 조회가 하는 역할 같다고 할 수 있겠죠. Adobe, Microsoft, Google, OpenAI, Meta, BBC가 모두 참여해 있고, 삼성 갤럭시 S25가 C2PA를 지원한 세계 최초 스마트폰이었습니다. 한국소프트웨어산업협회(KOSA)도 마크애니와 MOU를 맺고 C2PA 기반 워터마크 기술을 회원사에 무료 제공하기로 했구요. 물론 한계는 분명합니다 - 이미 인터넷에 존재하는 수백억 개의 컨텐츠에는 적용하기가 거의 불가능하고, 시장에 참여하는 모두가 채택하지 않는다면 결국은 갈라파고스 섬처럼 되어버릴 수도 있겠죠.
같은 논리가 소프트웨어 생태계에서도 작동하는 장면이 있어요. 2026년 3월, Apple은 Replit과 Vibecode 같은 바이브코딩 앱들의 업데이트를 차단했습니다. AI가 코드를 썼다는 이유가 아니었어요 — Xcode를 통해서 AI로 만든 앱은 여전히 앱스토어에 올라올 수 있습니다. Apple이 막은 건 앱스토어 심사 체크포인트를 우회하는 행위였습니다.
‘AI 생성’ 여부가 아니라 인간의 검토를 거쳤는가가 기준인 겁니다. 심사 통과 자체가 ‘품질 신호’로 기능한다는 점에서, C2PA와 같은 논리입니다. AI 슬롭이라는 현상은 텍스트와 영상을 넘어서 또 다른 형태로 소프트웨어 생태계로도 번지고 있고, 각각의 플랫폼은 고유한 형태로 같은 질문을 마주하게 됩니다 — 신뢰의 신호를 어떻게 복원할 것인가 하는 질문 말이예요.
커뮤니티의 수준에서는 Ted Gioia의 관찰이 유효하게 보입니다. Ted는 이걸 "매크로컬처(대형 플랫폼)와 마이크로컬처(뉴스레터, 소규모 커뮤니티)의 전쟁"이라고 부르는 것으로 보이는데, 매크로컬처는 정보 비대칭에 구조적으로 취약하고, 마이크로컬처는 신호를 자연스럽게 복원합니다. 이름 있는 창작자, 직접적인 구독 관계, 알고리즘 없이 이루어지는 유통이라는 것 자체가 레몬을 구별하는 신호로 기능하기 때문인 모양입니다.
Maggie Appleton은 이걸 "다크 포레스트 이론"으로 설명했습니다. 공개 인터넷이 레몬으로 가득 찰수록 신뢰할 수 있는 목소리들은 더 작고 폐쇄적인 공간으로 이동한다는 거예요. 뉴스레터, 소규모 커뮤니티, 서로 아는 사람들의 공간으로요. 이 뉴스레터를 구독하시는 분들이 여기 있는 이유 중 하나가 아닐까요.

Maggie Appleton의 Dark Forest Theory. Image Credit: maggieappleton.com
결국, 우리 개개인에게로
Simon Willison의 기준은 단순합니다. "내가 온라인에 뭔가를 올리면, 내가 그 내용에 책임이 있고 내 명성의 일부를 거기에 거는 것이다. AI는 이걸 절대로 할 수 없다."
레몬 마켓 언어로 하면, 이건 신호입니다. 이름과 명성을 거는 행위가 독자에게 품질의 근거가 됩니다. 중고차 딜러가 자기 이름을 걸고 보증서에 서명하는 것처럼요.
AI 슬롭을 한 번 정의내려보자면, ‘누가 요청한 적도 없고, 검토받지도 않은 AI 컨텐츠’겠죠. 뒤집어 말하면, 검토도 거치고 누군가 책임을 지는 AI 컨텐츠는 슬롭이 아닙니다. 그리고 그 책임의 표시 자체가 정보의 비대칭을 줄이는 신호입니다.
Mollick도 같은 원칙을 실천합니다. 바로 뭐가 됐든 초안은 직접 쓴다는 겁니다. 생각이 먼저고 AI는 그 다음이에요. AI가 인용한 링크는 직접 클릭해서 확인합니다. "AI 없이도 이 주장에 서명할 수 있는가?"하는 질문을 어떤 글이든 발행하기 전에 스스로에게 꼭 한다고 합니다.
절대 AI를 덜 쓰라는 이야기가 아닙니다. ‘생각하는 자리’ 그리고 ‘책임지는 자리’를 AI에게 넘기지 말라는 이야기예요.
Stack Overflow 이야기로 돌아가면 — 질문 숫자가 76% 줄어든 그 공간에서, 남아 있는 질문들의 품질은 별로 나빠지지 않았습니다. 그 질문들을 올리는 사람들이 있어요. "AI가 있는데 굳이 이걸 올리나"라는 생각에도 불구하고, 자기 이름을 걸고 질문하는 사람들이요. 그게 레몬 시장에서 품질 신호를 복원하는 방법 중의 중요한 하나입니다.
언젠가는 규제가 AI 컨텐츠에 워터마크를 의무화하고, 플랫폼이 AI 슬롭이 올릴 수 있는 수익을 차단하고, 새로운 기술이 컨텐츠의 출처를 자동으로 증명하는 시대가 오겠죠. 하지만 그 모든 구조가 갖춰지더라도, 결국 우리 개개인에게 이 하나의 질문일 겁니다.
“지금 내가 올리는 이것이, 우리 모두의 신뢰라는 자산을 조금씩 갉아먹고 있는 건가, 아니면 되살리고 있는 건가?”
*읽어주셔서 감사합니다. 재미있게 보셨다면 친구와 동료 분들에게도 뉴스레터를 추천해 주세요.


