유튜브 AI 슬롭 수익화 정지 — 도구가 아니라 사람이 문제다

유튜브가 AI 양산 콘텐츠 수익화를 막은 날

2025년 7월 15일이었다. 유튜브가 YPP(YouTube Partner Program) 약관에서 단어 하나를 바꿨다. "repetitious content"가 "inauthentic content"가 됐다. 그땐 별 일 없어 보였다. 정책 노트 한 줄이었고, 본인들도 "minor update"라고 했다.

그게 신호였다. 본격적인 차단은 2026년 1월부터 들이닥쳤다.

처음에는 이름 모를 페이스리스 채널 몇 개가 사라졌다. 그러다 1월 말부터 매주 큰 채널이 한두 개씩 떨어져 나갔다. Tubefilter가 2026년 1월 29일자 기사에서 본격 단속을 다뤘고, 2~3월에는 구독자 수백만짜리 AI 채널이 통째로 수익화를 잃거나 채널이 닫혔다. 4월 시점에 정리된 통계로는 16개 메이저 AI 채널이 정리됐고, 누적 조회수 47억 회, 구독자 3,500만 명, 연 추정 수익 1,000만 달러가 한 분기 만에 증발했다.

한국이 흥미롭다. 2025년 12월 가디언이 전 세계 인기 유튜브 채널 1만 5,000개를 조사했는데, 그중 278개가 AI 전용 채널이었다. 누적 조회수 630억 회, 연 수익 추정 1,700억 원. 그리고 이 슬롭(slop) 콘텐츠를 가장 많이 본 나라가 한국이었다. 84.5억 회. 2위 파키스탄(53.4억), 3위 미국(33.9억), 4위 스페인(25.2억)을 다 합한 것보다 많다. 한국에서 인기 있는 '3분 지혜' 한 채널이 한국 전체 AI 슬롭 조회수의 4분의 1을 가져갔다.

그래서 코드 매일 짜고, AI랑 매일 일하는 사람 입장에서 이걸 어떻게 봐야 하는지를 좀 길게 풀어보고 싶었다. 정책에 화내거나 환영하는 건 둘 다 쉽다. 진짜 어려운 건 양쪽을 같이 보는 거다.

정책의 진짜 워딩, repetitious에서 inauthentic으로

먼저 단어부터.

유튜브가 바꾼 건 정확히 한 단어다. repetitious(반복적인)inauthentic(비진정성) 으로 갈렸다. 이게 왜 중요하냐면, "반복"은 객관적으로 셀 수 있는 속성이지만 "비진정성"은 판단이 들어가는 단어이기 때문이다. 같은 포맷의 영상을 백 개 올려도 그 안에 사람의 의도와 노력이 들어가 있으면 비진정성이 아니다. 반대로 한 번 만든 영상이라도 템플릿에 데이터만 갈아끼운 거면 비진정성이다.

공식 문서는 비진정성 콘텐츠를 이렇게 설명한다. 영상 하나하나가 거의 차이가 없는 템플릿으로 만들어졌거나, 손쉽게 대량 복제 가능한 구조이거나, 의미 있는 내레이션·논평·교육 가치 없이 슬라이드쇼만 늘어놓은 콘텐츠.

좀 더 구체적인 카테고리도 있다. 위키 본문을 그대로 AI 음성으로 읽어주는 영상. 똑같은 슬라이드 템플릿에 텍스트만 바꾼 영상. 다른 사람 영상을 단순히 자국어로 번역해서 AI 더빙으로 재녹음한 영상. 같은 폼·같은 음악·같은 인트로를 데이터만 바꿔서 찍어내는 채널.

여기서 사람들이 가장 많이 오해하는 지점이 있다. AI를 쓰면 수익화가 막히는 게 아니다. 유튜브 Head of Creator Liaison인 르네 리치(Rene Ritchie)가 정책 발표 직후 커뮤니티에 직접 답글을 남겼다. 요지는 "이번 변경은 오랫동안 있어온 정책을 더 명확히 한 작은 업데이트일 뿐이다. AI 도구를 활용해 스토리텔링을 강화하는 크리에이터를 유튜브는 환영한다." 본인의 표현으로 'welcomes'였다.

다시 말해 정책의 타격 대상은 AI 자체가 아니라 사람의 의도와 노력이 빠진 양산형 구조다. 유튜브는 도구를 금지한 게 아니라 도구를 쓰는 방식을 단속하기 시작한 것뿐이다.

AI 슬롭이라는 단어, 어디서 왔고 무엇을 가리키는가

이 글에서 계속 쓰게 될 단어 하나를 짚고 가자. AI 슬롭(AI slop).

위키피디아의 정의는 이렇다. 생성 AI로 만든 디지털 콘텐츠 중 노력·품질·의미가 결여된 것으로 인지되며, 어텐션 이코노미에서 우위를 점하거나 돈을 벌기 위해 클릭베이트 형태로 대량 생산된 것. 'slop'이라는 단어 자체가 원래 영어에서 돼지 먹이 찌꺼기를 가리키는 말이라 어감 자체가 비하적이다. 한국 언론은 이걸 'AI 찌꺼기'로 옮긴다.

학술 논의는 슬롭의 세 가지 속성을 정리한다. superficial competence(겉만 그럴싸함), asymmetric effort(만든 사람의 노력 < 보는 사람이 들이는 시간), mass producibility(대량 생산성). 셋 다 충족되면 슬롭이라는 거다. 셋 중 하나라도 빠지면, 그건 그냥 AI를 활용한 콘텐츠지 슬롭이 아니다.

이 단어가 얼마나 빠르게 퍼졌냐 하면, 2025년 12월에 메리엄-웹스터와 미국방언학회가 동시에 'slop'을 올해의 단어로 뽑았다. 사전이 한 단어를 그렇게 빠르게 등재하는 일이 흔하지 않다. 그만큼 이 현상이 사회적 임계점을 넘었다는 뜻이다.

슬롭의 경제학을 보여주는 사례가 포춘에 실렸다. 2025년 12월 30일자 기사다. 22살 미시시피 주립대 중퇴생 어데이비아 데이비스(Adavia Davis). 5개의 페이스리스 유튜브 채널을 운영한다. 가장 잘 되는 채널이 'Boring History'. 6시간짜리 '잠들 때 듣는 역사' 다큐다. 데이비드 애튼버러를 닮은 영국식 AI 음성이 끊임없이 나레이션을 깐다. 시청자는 이걸 자장가로 튼다.

기술 스택이 흥미롭다. 데이비스의 동업자가 만든 'TubeGen'이라는 자동화 파이프라인이 핵심이다. Claude로 스크립트를 쓰고, ElevenLabs로 영국식 내레이션을 입히고, 자동 어셈블리로 영상을 조립한다. 6시간짜리 한 편이 60달러에 만들어진다. 8만 원이 채 안 된다.

포춘이 직접 검증한 데이비스의 애드센스 기록은 이렇다. 월 매출 4만~6만 달러, 운영비 6,500달러, 연 수익 약 70만 달러. 하루 작업 시간 평균 2시간.

이게 슬롭의 가장 깔끔한 형태다. 의미 있는 인간 개입이 거의 없고(asymmetric effort), 6시간짜리 영상이 그럴싸하게 흘러가고(superficial competence), 같은 파이프라인으로 매주 새 영상을 찍어낼 수 있다(mass producibility). 위키피디아의 정의가 그대로 살아 움직이는 사례다.

문제는 이런 채널이 한두 개가 아니라는 것이다. 가디언 조사에서 잡힌 278개 AI 전용 채널이 연 1억 1,700만 달러를 가져간다. 한국이 그 시장의 가장 큰 소비국이다.

망치는 죄가 없다, 망치를 든 손이 문제다

여기서부터 좀 다른 이야기를 해야겠다.

이 정책을 두고 인터넷에서 가장 많이 보이는 반응이 두 갈래다. 한쪽은 "그러게 AI 콘텐츠는 막아야 한다"는 환영이고, 다른 쪽은 "유튜브가 결국 AI를 막네"라는 분노다. 둘 다 같은 오해를 깔고 있다. 도구에 죄를 묻고 있다는 점에서.

망치를 생각해 보자.

망치는 집을 짓는 데 쓸 수도 있고, 유리창을 깨는 데 쓸 수도 있다. 똑같은 망치다. 둘 다 같은 무게로, 같은 손잡이로, 같은 헤드로 박힌다. 망치가 유리창을 깬다고 해서 망치를 부수면 어떻게 될까. 집 짓는 사람도 같이 멈춘다. 그렇다고 망치를 그냥 두면 유리창은 계속 깨진다.

그래서 사람들은 의도를 본다. 유리창을 깬 사람이 잡혀가지 망치 회사가 잡혀가지 않는다. 망치는 도구다. 도구는 도덕적 속성을 갖지 않는다. 도덕은 도구를 든 손에 있다.

AI도 그렇다. Claude로 스크립트를 쓴다는 행위 자체에는 죄가 없다. ElevenLabs로 음성을 합성한다는 것도 마찬가지다. 6시간짜리 영상이 자동으로 조립된다는 것도 그 자체로는 가치 중립적이다. 단지 그걸 사용하는 사람의 의도가 무엇이냐가 변수다.

내가 매일 하는 일이 그렇다. AI에게 코드를 쓰라고 시킨다. 그 코드를 그대로 PR에 넣는다면 그건 슬롭 코드다. 같은 도구로 같은 분량을 짜더라도, 내가 코드를 읽고 의도를 검증하고 수정하고 그 결과에 책임을 지면 그건 슬롭이 아니다. 도구는 같다. 손이 다르다.

바이브 코딩 강의의 진짜 현실에서 한 번 다룬 적이 있다. "AI에게 시키면 한 달 만에 앱 출시" 같은 광고가 사기인 이유는 AI 코딩이 안 되기 때문이 아니라, 그렇게 만든 결과물에 의도와 검증과 책임이 다 빠져 있기 때문이다. 망치 자체에 죄가 있는 게 아니라, 망치를 들고 유리창을 깨러 가는 사람에게 죄가 있다. 똑같은 구조다.

여기까지가 이 글이 정책에 대해 가지는 첫 번째 입장이다. 유튜브가 AI를 막은 게 아니라 슬롭을 만드는 사람을 막았다. 그리고 그 결정 자체는 옳다고 본다.

다만 그렇다고 다음 질문이 사라지진 않는다. 그러면 사람들은 왜 망치로 유리창을 깨러 가는가.

사람들은 왜 망치로 유리창을 깨러 가는가

이 부분을 생략하면 글이 거짓말이 된다.

양산형 채널을 만든 사람들을 "쉽게 돈 벌려는 사람들"이라고 한 줄로 정리하는 건 편하다. 편한 만큼 게으르기도 하다. 누구나 같은 자리에 서면 같은 선택을 할 가능성이 있다. 도덕적 우월감으로 끝낼 일이 아니다.

먼저 환상이 있다. 한국에서 종합소득세를 신고한 유튜버가 2024년 기준 3만 4,806명이다. 1인당 평균 수입이 7,100만 원으로 잡힌다. 평균만 보면 꽤 괜찮아 보인다. 그런데 분포를 까보면 다른 그림이 나온다. 상위 1%(348명)가 한 명당 평균 12억 9,000만 원을 번다. 상위 10%가 전체 유튜버 수익의 47%를 가져간다. 하위 50%(1만 7,000명)는 한 명당 연 2,463만 원, 월 205만 원이다. 영상 한 편 만드는 데 들어가는 시간을 생각하면 최저시급도 안 나온다.

문제는 사람들이 평균을 보지 않는다는 거다. 인스타·유튜브 알고리즘이 보여주는 건 상위 1%의 라이프스타일이다. 외제차 리뷰, 두바이 디지털 노마드, 한 달에 1,000만 원 자동 수익 인증샷. 그게 유튜브의 기본값처럼 느껴진다. 평균 자영업이 1년 안에 22%가 폐업하고 5년 안에 60%가 폐업한다는 통계는 보여주지 않는다.

다른 한 축은 진짜 절박함이다. KDI와 통계청 자료를 보면 2024년 한국에서 폐업 신고를 한 사람이 100만 8,282명이다. 사상 최초로 연간 폐업자가 100만을 넘었다. 자영업 5년 생존율은 40.2%. 소매업과 음식점 두 업종이 폐업의 45%를 차지한다. 그 자리에 있던 사람들이 어디로 가겠는가.

같은 시기에 N잡러 통계가 같이 움직였다. 50대 이상의 N잡 비중이 43.1%로 전 연령대 1위다. 60대 부업자는 7.6만 명에서 12.9만 명으로 1년 만에 70% 가까이 늘었다. 40대~50대 초반 부업자가 가장 많이 관심 갖는 직군 중 하나가 '유튜브 크리에이터'다. 이유는 단순하다. 유튜브는 자본 0원으로 시작 가능한 거의 유일한 사업이다. 가게 보증금도 권리금도 없고, 시작에 인허가도 안 든다.

그 사이에 강의 산업이 자라났다. "GPT 자동화로 월 3,000만 원", "노코드 AI로 100억 매출", "잠자는 동안 자동 수익이 들어오는 시스템". 이런 광고가 인스타 피드와 유튜브 광고에 도배됐다. 미국에서는 FTC가 이런 '수익 보장' AI 부업 강좌를 단속해서 수백만 달러 벌금을 부과했지만, 한국에는 비슷한 단속 장치가 거의 없다. 강의 가격은 19만 9,000원에서 시작해 600만 원짜리 마스터 코스까지 다양하다.

자, 이걸 다 합치면 어떤 그림이 나오느냐. 50대 후반 가장이 운영하던 음식점이 코로나·고금리·임대료를 못 버티고 폐업했다. 퇴직금은 가게를 정리하면서 다 들어갔다. 다음 일자리를 찾기엔 나이가 걸린다. 인스타 피드에는 "AI 자동화로 한 달 100개 영상 양산, 자동 수익 파이프라인" 광고가 뜬다. 후기는 화려하다. 강의 듣는 데 50만 원, 강의가 시키는 도구 사는 데 30만 원. 망치를 빌렸다. 망치로 무엇을 할 수 있는가.

이걸 보고 "쉽게 돈 벌려는 사람들이 나쁜 거지"로 끝내면 그건 사실의 절반이다. 동기에는 환상도 있고 절박함도 있다. 환상은 비판할 수 있지만, 절박함은 비판하기 전에 먼저 봐야 한다.

다만 동기를 이해하는 것과 결과를 다르게 평가하는 건 별개다. 이 글은 양산이라는 선택을 권하지 않는다. 데이비스 사례가 화려해 보여도, 양산 채널의 실제 생존율은 가혹하다. 가디언 조사에 잡힌 278개 채널은 살아남은 자들이고, 그 옆에는 시작했다가 1년 안에 사라진 수만 개의 채널이 있다. 양산 강의를 듣고 도구를 사고 영상을 백 개 올린 사람 대부분이 수익화 조건(구독자 1,000명, 시청 시간 4,000시간)도 못 채우고 멈춘다. 그리고 채운 사람도 2026년 정책 단속에 채널 자체를 잃었다.

동기를 이해해도 결과는 변하지 않는다. 양산은 사람을 살리지 않는다. 한 번 작동하더라도 길게 작동하지 않고, 길게 작동하더라도 결국 알고리즘이나 정책에 의해 정리된다. 망치로 유리창을 깨서 안에 있는 동전을 줍는 일은 가끔 성공하지만, 그게 직업이 될 수는 없다.

그래서 이 섹션은 두 방향을 동시에 향한다. 양산 진입자를 조롱하지 않는다. 그러면서도 양산이 답이라고 말하지도 않는다.

그럼에도 정책이 모호하다는 비판은 정당하다

정책에 동의한다고 해서 정책이 완벽하다는 뜻은 아니다.

가장 큰 문제는 하이브리드 크리에이터에 대한 알고리즘 오인 단속이다. 디지데이(Digiday)가 정책 발표 직후 인터뷰한 베넷 산토라(Bennett Santora)라는 크리에이터의 사례를 보자. 채널 이름은 'StoriezTold'. 동물에 관한 단편 픽션을 만든다. 기존 영상 클립을 스티치(stitch)하고 거기에 자기가 쓴 나레이션을 입히는 방식이다. AI도 일부 사용한다.

산토라의 인용문이 정확하다. "우리가 올리는 모든 영상은 다른 동물의 다른 이야기인데, 그래도 알고리즘은 이걸 repetitious로 분류할 수 있다."

문제가 보이는가. 같은 포맷에 다른 내용을 담는 채널은 어떻게 판정할 것인가. 같은 톤, 같은 길이, 같은 인트로 비주얼인데 매 영상의 스토리는 다른 채널은? 정책 본문은 "템플릿에 데이터만 갈아끼우는 것"을 슬롭으로 본다고 했지만, 실제 알고리즘이 그걸 얼마나 정밀하게 구분할까.

사실 비슷한 우려가 한국에도 있다. 경제 뉴스를 매일 같은 인트로로 만드는 채널, 같은 음성·같은 스튜디오로 매일 다른 IT 소식을 다루는 채널, 같은 보드게임 룰북을 같은 톤으로 설명하는 채널. 이들은 슬롭이 아니다. 매번 다른 의도와 다른 검증이 들어간다. 그런데 알고리즘이 보기엔 표면적 패턴이 비슷하다.

2026년 1~4월 단속 와중에 실제로 진정성 있게 운영하던 중소 채널이 함께 휘말렸다는 보도가 적지 않다. 유튜브는 30일 대기 후 YPP 재신청이 가능하다고 했지만, 30일 동안 수익이 막히는 게 1인 크리에이터에겐 치명적이다. 동시에 채널 정리에 항의해도 사람이 검토하기까지 시간이 걸린다.

이 부분은 정책의 책임이다. 슬롭 단속 자체는 옳지만, 단속 도구가 정밀하지 않으면 결과적으로 '도구를 진지하게 쓰는 사람'까지 같이 친다. 모든 망치를 부수면 집을 짓던 사람도 멈춘다는 비유가 여기서 살아난다.

또 하나의 문제가 있다. 책임 전가다. 유튜브는 정책을 모호하게 정의해 놓고 판정 권한은 자기가 갖는다. 크리에이터는 사후에 결과로만 알 수 있다. 무엇이 슬롭이고 무엇이 아닌지 미리 알 방법이 없다. 본인이 만든 영상이 슬롭으로 분류되는 순간 한 달간 수익이 0이 된다. 이런 비대칭 권력이 정책의 가장 큰 약점이다.

딸깍으로 만든 제품은 딸깍으로 복사된다에서 비슷한 문제를 다룬 적이 있다. 도구가 좋아질수록 책임의 선이 흐려진다. AI가 만든 코드의 버그는 누구의 버그인가. 같은 질문이 콘텐츠에도 적용된다. 알고리즘이 잘못 분류한 책임은 알고리즘 회사가 진다고는 하지만, 정작 손해는 크리에이터가 입는다.

그래서 이 글의 입장은 이렇다. 정책 방향은 옳다. 다만 집행 방식은 더 정교해져야 한다. AI 옹호도 비판도 아니라, 사람의 의도와 검증을 식별할 수 있는 정책으로 가야 한다.

진짜 활용과 양산의 차이는 무엇인가

자, 그러면 슬롭과 진짜 AI 활용의 경계선을 어디서 그어야 할까.

이걸 개발자 워크플로우 언어로 정의해 보자. PR 리뷰를 해본 사람이라면 자연스럽게 들어올 거다. 좋은 PR과 나쁜 PR을 가르는 기준이 세 개 있다. 의도(intent), 검증(validation), 책임(accountability). 이 세 축을 콘텐츠 제작에 그대로 가져올 수 있다.

의도는 이 영상을 왜 만드는가의 문제다. 시청자에게 무엇을 전하고 싶은가. 어떤 질문에 답하고 싶은가. 어떤 관점을 제시하고 싶은가. 슬롭 채널의 의도는 보통 "조회수"에서 멈춘다. 무엇을 전하느냐가 아니라 알고리즘이 무엇을 좋아하느냐가 의도의 자리에 들어간다. 그러면 영상은 시청자를 향하지 않고 알고리즘을 향한다. 결과물에 그게 그대로 묻는다.

검증은 영상에 들어간 정보가 사실인가, 인용은 정확한가, 데이터는 최신인가, 추론은 맞는가의 문제다. AI는 자신감 있게 틀린다. 위키 본문을 그대로 읽어주는 채널이 위험한 이유가 여기 있다. AI가 정리한 텍스트를 그대로 읽으면 환각(hallucination)이 그대로 영상으로 송출된다. 아무도 검증하지 않은 정보가 6시간짜리 다큐 형태로 나오면, 시청자는 그게 사실이라고 믿는다. 진짜 활용은 AI 결과물을 1차 자료와 대조하고 직접 수정하는 단계가 반드시 들어간다.

책임은 잘못됐을 때 누가 답하는가의 문제다. 슬롭 채널의 책임은 보통 "익명"이다. 채널 운영자가 누구인지 모른다. 실수가 발견되면 채널이 사라지거나 영상이 비공개 처리된다. 진짜 활용은 운영자의 이름이 박혀 있다. 데이터를 잘못 다뤘으면 정정 영상을 올리고, 표현이 편향됐으면 사과하고, 시청자가 비판하면 답한다. 책임이라는 건 결국 얼굴을 가지고 있느냐의 문제다.

자기 점검 체크리스트로 옮기면 이렇게 된다.

  • 이 영상의 핵심 메시지를 한 줄로 말할 수 있는가? 그 메시지가 알고리즘이 아닌 시청자를 향해 있는가?
  • AI가 생성한 텍스트·음성·이미지를 실제로 검토했는가? 1차 자료와 대조했는가?
  • 영상에 나오는 인용·통계·인물 인용이 맞는지 직접 확인했는가?
  • 시청자가 영상에 오류를 지적하면 정정할 의지와 채널이 있는가?
  • 같은 채널에서 다음 영상을 만들 때, 이번 영상의 피드백이 반영되는가?
  • 하루에 영상 100개를 찍어내는 게 가능한 구조인가? 가능하다면 사람의 손이 들어갈 자리가 있는가?
  • 영상 제작 과정에서 본인이 새로 배운 것이 있는가? AI가 던진 결과를 그대로 받아쓰지만 않았는가?

이 일곱 개 질문 중 다섯 개 이상에 "아니다"가 나오면 그 채널은 슬롭에 가깝다고 봐도 된다. 반대로 다섯 개 이상이 "그렇다"이면 도구를 진지하게 쓰는 채널이다. 도구는 같다. 손이 다르다.

이게 AI 시대 개발자가 가져야 할 마음가짐과 같은 결이다. AI가 만든 결과물에 책임을 지는 사람과 그냥 갖다 쓰는 사람의 차이는, 시간이 지날수록 벌어지지 좁혀지지 않는다.

AI 시대 크리에이터에게 남는 질문

이쯤 되면 한 가지가 분명해진다.

효율과 진정성은 이분법이 아니다. AI를 안 써야 진정성이 있는 게 아니고, AI를 잘 써도 진정성을 가질 수 있다. 거꾸로도 마찬가지다. 손으로 다 만들어도 의도가 빈 콘텐츠가 있다. 카메라 직접 들고 직접 편집하는 채널 중에도 슬롭은 많다. 도구의 종류로는 슬롭과 진짜를 가르지 못한다. 의도와 검증과 책임이 있느냐가 가른다.

그럼에도 시장에는 시간차가 있다. 양산은 빨리 망하고, 진짜 활용은 늦게 큰다. 이게 AI 시대 콘텐츠의 본질적 비대칭이다.

양산이 빨리 망하는 이유는 명확하다. 슬롭은 다른 슬롭과 차별화되지 않는다. TubeGen으로 6시간짜리 역사 다큐를 만들 수 있다는 사실은, 다른 사람도 똑같이 만들 수 있다는 뜻이다. 진입 장벽이 60달러다. 60달러짜리 진입 장벽 뒤에 있는 시장에 모이는 게 무엇이겠는가. 60달러짜리 경쟁자들이다. 데이비스가 운 좋게 먼저 시작했을 뿐, 같은 자리를 두고 새로운 데이비스가 매주 등장한다. 그리고 그중 99%는 손익분기점을 못 넘긴다.

여기에 알고리즘과 정책이 더해진다. 2026년 1월부터 시작된 단속이 그 신호다. 유튜브는 슬롭을 거른다. 광고주들은 슬롭 옆에 자기 광고가 붙는 걸 싫어한다. 시청자도 결국 슬롭에 지친다. 시간이 지나면 슬롭의 단가가 떨어진다. 한 편에 60달러로 만들어 8만 원 받던 게 4만 원, 2만 원, 만 원으로 떨어진다. 슬롭 산업의 마진은 결국 0에 수렴한다.

진짜 활용이 늦게 크는 이유도 같은 메커니즘의 반대편이다. 의도·검증·책임이 들어간 콘텐츠는 만드는 데 시간이 들고, 첫 영상에서 잘 안 되고, 분량 대비 조회수도 안 나온다. 그런데 누적이 되면 이상한 일이 일어난다. 같은 사람의 5번째 영상은 1번째보다 낫고, 50번째는 5번째보다 명백히 낫고, 500번째는 다른 차원이다. 시청자가 이걸 안다. 이름이 쌓이고, 신뢰가 쌓이고, 채널이 쌓인다. 100만 슬롭 채널이 사라지는 동안 5만 진짜 채널은 살아남는다.

이게 AI에게 도메인을 이해시킨다는 것에서 이야기했던 도메인 깊이 문제와 같은 구조다. 도구가 좋아질수록 도구만으로 만들 수 있는 것들의 가치는 떨어진다. 도구로 만들 수 없는 것의 가치는 오른다. 사람의 안목, 도메인 이해, 결과에 책임지는 능력. 이 세 가지가 그 자리에 남는다.

AI 시대 크리에이터의 진짜 무기는 AI를 빨리 쓰는 능력이 아니다. AI 결과물을 정확히 평가하고 자기 의도에 맞게 다시 빚어내는 안목이다. 이 안목은 양산해서 늘지 않는다. 한 편 한 편 진짜로 만들어 본 사람만 갖게 된다.

망치를 들고 무엇을 지을 것인가

다시 망치 이야기로 돌아간다.

이 글은 정책에 분노하지도 환영하지도 않는다. AI를 옹호하지도 비난하지도 않는다. 양산 채널 운영자를 조롱하지도, 미화하지도 않는다. 도구의 결백을 굳이 변호할 필요도 없고, 도구의 죄를 묻는 것도 헛수고다. 망치를 든 손이 무엇을 짓느냐가 결국 남는 질문이다.

다만 글을 마치면서 두 종류의 독자에게 다른 메시지를 남기고 싶다.

도구를 진지하게 쓰는 사람에게. 정책 단속에 너무 위축되지 마라. 의도가 있고, 검증을 거치고, 책임을 지고 있다면 당신은 슬롭이 아니다. 알고리즘이 잘못 분류할 수는 있지만, 시간이 지나면 시장과 시청자가 당신을 알아본다. 양산이 빨리 망하는 동안 당신은 천천히 자란다. 30일 단속을 두려워해서 도구를 안 쓰지 마라. 도구는 더 잘 쓰는 쪽으로 가야 한다.

지금 절박함 속에서 양산을 고민하는 사람에게. 환상을 의심해라. 상위 1%가 보여주는 라이프스타일이 평균이 아니다. 폐업률 22%와 5년 생존율 40%가 자영업의 평균인 것처럼, 유튜브에도 평균이 있다. 양산 강의가 약속하는 자동 수익은 평균이 아니라 극단적인 예외다. 그리고 그 예외도 2026년 단속을 견디지 못했다. 60달러 진입 장벽 뒤에 60달러짜리 경쟁자들이 있고, 알고리즘과 정책이 그들을 정리하고 있다. 그 자리에 들어가지 마라.

대신 권하고 싶은 건 한 가지다. 만약 정말 시작해야 한다면, 당신이 진짜 알고 있는 한 분야에서 시작해라. 식당을 20년 했으면 식당 운영을 다루고, 자동차 정비를 했으면 자동차 정비를 다루고, 공장을 운영했으면 공장 운영을 다뤄라. 거기에 AI를 도구로 더해라. 영상 편집에 AI, 자막에 AI, 썸네일에 AI. 그러나 콘텐츠의 핵심은 당신의 경험이다. 그건 60달러로 복제되지 않는다. 그게 도구 시대에 인간이 가지는 유일한 진짜 자산이다.

마지막으로 하나만 묻고 글을 닫는다.

당신이 만들고 있는 콘텐츠를, 의도·검증·책임 세 축으로 점검해 보면 어디가 가장 약한가? 의도가 알고리즘을 향해 있는가, 시청자를 향해 있는가? 검증을 정말 직접 하고 있는가, AI 결과를 그대로 송출하고 있는가? 잘못됐을 때 답할 얼굴이 있는가, 익명 뒤에 숨어 있는가?

이 세 질문의 답이 정해지면, 망치로 무엇을 지을지도 정해진다.


참고 자료

댓글

이 블로그의 인기 게시물

개발자는 코드를 쓰는 사람이 아니다 — AI 시대에 남는 자리는 '책임'에 있다

Harness Engineering in Practice — How Anthropic Designs AI Agents

What Is Harness Engineering — Designing the Reins for AI Agents