로봇이 차를 만들어도 책임은 사람에게 남는다 — 10년째 주변에 하는 말
로봇이 차를 만들어도 책임은 사람에게 남는다 — 10년째 주변에 하는 말
며칠 전 엔트로픽에서 소스맵이 외부로 노출된 사고가 있었다.
이 사고 자체보다 더 인상적이었던 건 사건 직후 개발자 커뮤니티에서 가장 먼저 돌았던 질문이다.
"이거 사람 실수야, AI 실수야?"
누가 배포 설정을 잘못 건드린 건지, 아니면 AI 에이전트가 파일을 건드리다 놓친 건지. 진짜 원인이 뭔지는 엔트로픽 내부에서만 알겠지만, 외부에서 이 질문이 가장 먼저 나왔다는 게 내겐 더 흥미로웠다.
이게 2026년의 풍경이다. 사고가 나면 원인이 사람인지 AI인지부터 궁금해지는. 그리고 그 질문 뒤에는 더 불편한 질문이 따라붙는다.
"AI가 한 일이면 누가 책임지냐?"
요즘 개발자 진로를 고민하는 학생들, 취업 앞둔 컴공과 4학년들, 주니어들이 제일 많이 꺼내는 주제도 결국 이 지점을 맴돈다. AI가 이렇게 빠르게 발전하면 내 자리가 남을까. 내가 공부한 게 5년 뒤에도 쓸모 있을까. 지금 이 업계에 들어가는 게 맞는 선택일까.
이 고민의 가장 밑바닥에 있는 질문은 사실 하나다. "AI가 모든 걸 할 수 있게 되면, 내가 할 일이 남긴 남는가."
로봇이 차를 만들어도 책임은 사람에게
불안을 줄이기 위해 추상적으로 접근하지 말고, 구체적인 예부터 보자.
자동차 공장에 가보면 로봇이 대부분의 공정을 처리한다. 용접도 로봇이 하고, 도장도 로봇이 하고, 조립의 상당 부분도 로봇이 한다. 이미 수십 년 전부터 그래왔다.
여기서 결함이 하나 생겼다고 치자. 브레이크 배관이 잘못 조립됐고, 그 차가 출고돼서 사고로 이어졌다. 언론에 나간다. 리콜이 걸린다. 이 사고의 책임이 누구에게 있는지 생각해보자.
"그 라인의 용접 로봇에 있습니다."
이렇게 끝나는 사고는 없다. 누구도 그렇게 말하지 않는다. 책임은 결국 제조사로 간다. 더 구체적으로는 그 공정을 설계한 엔지니어, 품질 검수를 통과시킨 담당자, 최종 출고를 승인한 관리자에게 간다. 로봇이 수행한 작업이었더라도, 그 로봇이 어떤 동작을 하도록 만든 사람, 로봇의 결과물이 안전한지 확인한 사람이 책임의 마지막 자리에 있다.
AI라고 해서 이 구조가 바뀌지 않는다.
AI 에이전트가 코드를 짰다. 그 코드가 서비스에 들어갔다. 결함이 있었다. 장애가 났다. 사용자 데이터가 유출됐다. 이 순간 "AI가 짠 겁니다"로 끝나는 사고는 없다. 그 코드를 리뷰한 사람, 머지한 사람, 배포를 승인한 사람, 그 에이전트를 설계한 팀 — 어딘가에서 누군가가 이름을 올리고 있어야 한다.
엔트로픽 소스맵 유출이 "사람 실수냐 AI 실수냐"로 논의되는 건, 실제로는 책임 소재의 질문이다. 근데 그 질문의 답이 "AI"로 끝나는 사회는 아직 없다. 아마 꽤 오랫동안 없을 것이다.
책임 구조는 기술보다 훨씬 천천히 바뀐다
여기서 한 가지 자주 오해되는 지점이 있다. "AI가 더 자율적으로 되면 결국 책임도 AI에게 넘어가는 거 아니냐"는 기대다.
방향은 그럴 수 있다. 근데 속도가 문제다.
자율주행이 좋은 예다. 레벨 3~4 기술은 이미 몇 년 전에 "거의 다 됐다"는 상태가 됐다. 센서, 판단, 제어 모두 상당 수준이다. 그런데도 완전 자율주행이 일상화되지 않는 핵심 이유는 기술이 아니다. 사고가 났을 때 누구 책임인지 — 제조사인지, 운전자인지, 소프트웨어 공급자인지, 도로 관리 기관인지 — 가 법적으로 정리되지 않아서다.
기술이 "할 수 있게 되는 것"과 사회가 "그 결과를 감당하는 구조를 만드는 것"은 완전히 다른 속도로 움직인다. 후자는 법, 보험, 조직 문화, 판례가 얽혀 있어서 훨씬 느리다. 몇십 년 단위로 움직인다.
AI 코딩도 같은 구간에 있다. AI가 아무리 많은 코드를 자율적으로 쓰게 돼도, 그 코드가 일으킨 문제의 법적·조직적 책임을 AI에게 귀속시키는 시스템은 아직 없다. 가까운 몇 년, 아니 10년 단위에서도 그 시스템이 완성될 가능성은 낮다. 각국 법제, 제조물 책임법 개정, 보험 상품, 내부 감사 기준 — 이 모든 게 맞물려야 하는데 지금은 첫 단추도 제대로 못 끼운 상태다.
그 사이에 개발자의 자리가 없어진다? 오히려 반대다. 이 과도기 내내, 어딘가에 이름을 올려서 결과를 감당하는 사람이 필요하다. 그게 개발자다.
기업 입장에서 보면 더 선명해진다
이걸 개인 관점으로만 보면 추상적으로 들린다. 기업 입장에서 보면 훨씬 선명해진다.
지금은 단순히 "AI가 빠르니까 곧 다 흡수된다"는 식의 공기가 떠돌고 있다. 방향 자체는 맞다. 도메인을 이해하는 AI도 오고 있고, 책임까지 커버하는 구조에 대한 논의도 시작됐다. 근데 "방향이 맞다"와 "실무에 먹힌다"는 완전히 다른 문제다.
지금 현실의 기업 환경에서 AI 도입은 이렇게 세 단계로 나뉘어 있다.
- 도메인 이해 보조 AI → 이미 쓰는 중이다. 문서 요약, 코드 리뷰 보조, 용어 설명, 온보딩 가이드. 이 영역은 자리를 잡았다.
- 판단을 같이 하는 AI → 일부 영역에서 도입 중이다. 설계 대안 제시, 테스트 케이스 생성, 장애 원인 후보 좁히기. 사람 판단을 보조하는 선까지는 왔고, 최종 결정은 여전히 사람이 한다.
- 책임까지 넘기는 AI → 아직은 이야기 단계다. 논의는 활발한데, "실제 도입된 엔터프라이즈 제품이 있냐"고 물으면 대부분 멈춘다.
세 단계의 차이가 왜 생기는지 들여다보면, 위로 갈수록 기술 문제가 아니라 구조 문제에 부딪히기 때문이다.
기업에서 장애가 하나 나면, 모든 프로세스가 사람을 기준으로 추적된다.
- 누가 코드를 커밋했는가
- 누가 PR을 승인했는가
- 누가 배포를 실행했는가
- 누가 사후 감사에서 설명할 것인가
이 전부가 사람 이름으로 로그에 남는다. 감사팀도, 법무팀도, 보안팀도 이 기준으로 문서를 만든다. "AI가 판단했다"는 로그 자체는 남길 수 있다. 근데 그 로그를 법정에서, 감사 보고서에서, 고객 커뮤니케이션에서 "책임 소재"로 삼을 수 있는 체계는 아직 만들어지지 않았다.
이 체계를 바꾼다는 건 모델 성능이 올라가서 해결되는 일이 아니다. 감사 기준, 내부 통제, 법무 정책, 보험 상품, 업계 표준 — 이 전부가 같이 움직여야 한다. 모델 성능이 지금의 100배가 돼도 이 체계가 자동으로 따라오진 않는다.
그래서 기업 현장의 현실적 속도는 이렇게 보는 게 맞는 것 같다. 앞으로 몇 년은 "도메인 이해 보조"의 범위가 넓어지고, "판단을 같이 하는 AI"가 더 많은 영역에 들어온다. 근데 "책임까지 넘기는 AI"는 파일럿은 있을 수 있어도 실무 표준이 되기까지 훨씬 긴 시간이 걸린다.
개인이 느끼는 기술 변화 속도와, 기업이 실제로 AI에게 책임을 위임할 수 있는 속도 사이에는 간극이 있다. 이 간극이 바로 개발자의 자리가 한동안 유지되는 이유다.
인건비 vs 토큰비용 vs 책임
지금 AI가 붐처럼 번지는 이유를 단순화하면 두 줄이다. "코드를 잘 짠다." "토큰비용이 인건비보다 훨씬 싸다." 이 두 줄이면 경영진의 눈이 번뜩일 만하다.
시니어 개발자 한 명의 월급이 몇백~천만 원대라면, 그만큼의 일을 해내는 AI 에이전트의 토큰비용은 그보다 훨씬 적다. 속도도 몇 배 빠르다. 표면적인 ROI만 보면 "왜 안 쓰지"라는 질문이 나올 법한 그림이다.
근데 이 계산식에는 한 항이 빠져 있다. 책임 비용이다.
실제로 장애가 터졌을 때 기업이 감당해야 하는 것들은 개발자 한 명의 월급보다 훨씬 크다.
- 장애 대응 인건비 (야간/주말 포함)
- 고객 이탈, SLA 위약금, 보상 비용
- 감사·규제 이슈 대응
- 브랜드 신뢰 손실
- 법적 리스크
이 비용들은 "책임 소재가 명확할 때만" 관리할 수 있다. 제조사는 제조물 책임 보험을 들 수 있고, 임원은 D&O 보험으로 커버되고, 개발팀은 사후 프로세스로 재발 방지를 약속할 수 있다. 이 구조가 성립하려면 책임의 주체가 사람이거나, 최소한 사람을 기준으로 정의된 조직이어야 한다.
AI에게 책임을 넘긴다는 건 이 보험·감사·법무 체계를 전부 다시 설계한다는 뜻이다. 모델이 아무리 좋아져도 이 부분은 따라오지 않는다.
그래서 기업의 진짜 계산식은 이렇게 돼 있다.
인건비 − 토큰비용 − (장애 기대비용 × 책임 불확실성)
토큰비용이 아무리 싸도 책임 불확실성이 높으면, 앞의 두 항이 만든 절감 효과가 상쇄된다. 오히려 마이너스가 나오는 영역이 생각보다 많다.
그래서 실무 현장에서는 자연스럽게 한 가지 구조가 자리잡고 있다. "구현은 AI에게, 책임은 사람에게." AI가 코드의 대부분을 쓰더라도, 최종 게이트에는 사람 이름이 올라간다. PR을 승인하는 사람, 배포 버튼을 누르는 사람, 감사에서 설명할 사람.
이 구조 안에서 개발자의 본질은 "코드를 치는 사람"이 아니라 "리스크를 받아내는 사람" 쪽으로 이동한다. 전자는 AI가 점점 많이 가져가지만, 후자는 기업이 당분간 사람에게 고정해둘 수밖에 없는 자리다. 그리고 이 자리에 있는 사람은 토큰비용으로 대체되지 않는다. 기업이 지불하는 건 인건비가 아니라 "책임을 질 수 있는 사람의 값"이기 때문이다.
AI 시대에 몸값이 벌어지는 지점도 여기다. 같은 연차, 같은 기술 스택이어도 "이 사람이 서명한 결과는 믿을 수 있다"는 신뢰를 쌓은 사람과 그렇지 않은 사람의 차이가 점점 커진다. 구현 속도 차이가 아니라 책임 신뢰도 차이에서 격차가 벌어진다.
1인 개발과 대기업은 다른 게임이다
한 가지 짚어야 할 게 있다. "AI가 개발자를 대체한다"는 체감이 강한 층위가 어디인지다.
솔직히 말하면, 이 체감이 가장 센 곳은 1인 개발자, 인디 해커, 스타트업 초기, 소규모 팀이다. 유튜브나 X에서 "AI로 혼자 앱 하나 만들었다" "에이전트로 SaaS 런칭했다" 같은 사례가 쏟아지는 영역이기도 하다. 이 층위에서는 체감대로다. 구현 대부분을 AI가 가져가고, 조직 운영 부담도 적으니까, "혼자서 다 된다"는 감각이 진짜로 성립한다.
근데 이걸 대기업에 그대로 옮기면 그림이 전혀 다르다.
대기업에서 장애가 나면 어떻게 되는지 상상해보자. 보고 라인이 즉시 올라간다. 팀장, 파트장, 본부장, 임원, 때로는 대외 커뮤니케이션팀까지. 장애 원인을 요약해서 올려야 한다. 이 자리에서 팀장한테 이렇게 말할 수 있을까.
"AI가 짠 코드에서 장애가 났습니다."
안 된다. 이 문장은 조직에서 성립하지 않는다.
팀장이 이어서 물을 것이다. "그래서 누가 리뷰했어? 누가 승인했고 누가 배포했어? 이 PR에 이름 올린 사람은 누구야?" 이 질문들에 답을 못 하면, 장애의 책임이 커지는 게 아니라 그 사람의 책임이 커진다. 체인이 끊겨 있는 배포를 올린 사람이 결국 책임지는 구조다.
1인 개발자는 이 체인이 자기 혼자다. 망하면 자기가 감당한다. 본인이 받아낼 수 있는 수준이면 그냥 감수하면 된다. 그래서 "AI에게 전부 맡겼다"가 편하게 성립한다.
대기업은 이 체인이 훨씬 길다. 수십, 수백 명의 이름이 엮여 있고, 각자가 자기 영역의 책임을 나눠 갖는다. 여기서 "AI가 했다"는 변명은 체인을 끊는 시도다. 조직은 끊긴 체인을 절대 용납하지 않는다. 감사 단계에서 가장 먼저 지적되는 게 바로 "책임 추적 불가" 상태다.
한 번 더 강조하면, 이건 "대기업이 느리다"는 이야기가 아니다. 책임의 크기가 다르다. 1인 서비스에서 장애가 나면 사용자 몇 명이 불편하다. 대기업 서비스에서 장애가 나면 수십만, 수백만 명이 영향받고, 매출·규제·언론이 동시에 걸린다. 감당해야 하는 것의 총량이 다르고, AI에게 위임할 수 있는 범위도 그에 비례해서 다를 수밖에 없다.
그래서 같은 AI 시대를 사는데 개발자들이 느끼는 온도가 다르다. 1인 개발·스타트업 쪽에서는 "다 해결됐다"는 말이 실감 난다. 대기업 쪽에서는 "AI가 코드를 쓸수록 책임질 사람이 더 중요해진다"는 감각이 오히려 또렷해진다. 둘 다 같은 AI를 보고 있는데, 서 있는 위치에서 보이는 그림이 다른 거다.
한 단계 더 들어가면, 중소기업에서는 또 다른 풍경이 나온다. 중소기업 경영자의 계산은 1인 개발자와도, 대기업과도 다르다.
"AI가 코드 잘 짠다고? 좋지. 근데 개발자 한 명당 매달 30만 원짜리 툴을 회사가 결제해야 한다고?"
이 질문 앞에서 많은 중소기업이 멈춘다. 사람도 줄이고 있는 마당에, 남은 개발자한테 월 30만 원짜리 AI 에이전트를 회사 비용으로 붙여주는 결정은 쉽게 나오지 않는다. 그래서 현장에서는 자연스럽게 "필요하면 개인이 결제해서 써"로 간다. 전사적으로 고성능 AI 툴을 깔아주는 중소기업은 생각보다 드물다.
유튜브에서 자주 보이는 "작은 팀이 AI로 SaaS 하나 만들었다"는 사례도 뜯어보면 대부분 창업자 본인이 돈을 쓰는 구조다. 월급 받는 중소기업 개발자의 현실은 다르다. 툴값은 개인 주머니에서 나가거나, 무료 플랜의 한계 안에서 일하거나 둘 중 하나다.
결과적으로 AI를 실무에서 풀로 돌리는 개발자는 두 극단에 몰려 있다.
- 본인이 돈을 써도 레버리지가 되는 1인 개발자·창업자
- 회사가 전사적으로 AI 툴을 깔아주는 대기업·테크 기업
중소기업 월급쟁이 개발자는 이 두 극단 사이에 낀다. 회사는 지원 안 해주고, 본인이 내기엔 부담스러운 중간 구간. 이 구간이 생각보다 크고, 여기 있는 개발자가 보는 "AI 시대"는 유튜브 콘텐츠 속 풍경과 결이 꽤 다르다.
진로를 고민하는 학생이 놓치면 안 되는 지점이 여기다. 노출되는 콘텐츠 대부분은 1인 개발·인디 영역에서 나온다. "AI로 이렇게 빨리 만든다"는 사례의 대부분이 그 층위다. 근데 실제로 많은 개발자가 일하게 되는 중견기업·대기업 환경에서는 그림이 정반대다. 오히려 거기서는 책임질 수 있는 사람의 가치가 매년 올라가고 있다.
20년째 주변에 해오는 말
이 이야기를 20년 전부터 후배들한테 해왔다. 그때는 AI 얘기가 아니었다. 그때는 클라우드였고, 그 전에는 프레임워크 폭발이었고, 그 전에는 오픈소스 확산이었다.
매번 반복된 패턴이 있다. 새로운 기술이 나오면 "이걸로 다 해결된다"는 분위기가 먼저 돈다. "개발자가 할 일이 줄어든다"는 불안이 뒤따른다. 실제로 몇 년 지나면 그 기술이 어떤 공정을 흡수한다. 근데 "개발자가 없어진다"는 예측은 매번 빗나간다. 사라진 건 특정 구현 작업이고, 남은 건 그 기술을 쓰는 판단과 그 결과의 책임이다.
그래서 20년째 같은 말을 한다.
"기술이 아무리 바뀌어도, 그 결과에 이름 올리는 자리는 안 없어진다. 그러니까 사라질 걸 붙잡지 말고, 안 사라질 걸 쌓아라."
안 사라지는 건 뭐냐. 구체적으로 말하면 이런 것들이다.
- 문제가 뭔지 정의할 수 있는 능력 (기술이 뭐든 필요하다)
- 여러 후보 해법 중에 우리 상황에 맞는 걸 고를 수 있는 판단력
- 결과가 왜 맞고 왜 틀린지 설명할 수 있는 이해도
- 그 판단이 틀렸을 때 고쳐낼 수 있는 대응력
이 네 가지는 언어가 바뀌어도, 프레임워크가 바뀌어도, AI가 코드를 쓰기 시작해도 남는다. 오히려 구현이 자동화될수록 이 네 가지의 가치가 올라간다. 구현이 쉬워질수록 "뭘 구현할 것인가"와 "그 구현이 우리한테 맞는가"를 정하는 사람이 귀해지기 때문이다.
불안의 방향을 바꾸는 것
컴공과 4학년이 AI 때문에 진로를 고민하는 걸 탓할 생각은 없다. 나라도 지금 입학했으면 똑같은 고민을 했을 것 같다. 변화 속도가 빠르다는 체감이 있다. 그 체감은 사실이다.
근데 그 불안의 방향이 중요하다.
"AI가 내 자리를 뺏는 거 아닌가"로 불안해하면, 대응 방법이 없다. 뺏길지 말지는 본인이 결정할 수 없는 일이니까.
"AI 시대에 책임질 수 있는 개발자가 되려면 지금 뭘 쌓아야 하나"로 불안해하면, 대응 방법이 많다. 공부할 것도, 경험할 것도, 시도할 것도 명확해진다.
두 질문은 비슷해 보이지만 완전히 다른 결과를 만든다. 첫 번째 질문에 갇힌 사람은 취업 공고만 들여다보면서 기술 트렌드 따라다니느라 몇 년을 쓴다. 두 번째 질문을 쥔 사람은 같은 시간에 문제 정의, 설계, 실패 해석 같은 능력을 쌓는다. 5년 뒤 격차는 의외로 크게 벌어진다.
결국 남는 건 감당할 수 있는 사람이다
엔트로픽 소스맵 유출 같은 사건은 앞으로도 반복될 것이다. AI가 코드의 점점 더 많은 부분을 쓰게 되면서, 사고의 원인이 사람인지 AI인지 헷갈리는 순간이 늘어날 것이다. 그때마다 "이거 누가 책임지냐"는 질문이 따라붙을 것이다.
그리고 그 질문의 답은 한동안, 아마도 꽤 오랫동안, 사람으로 끝날 것이다.
로봇이 자동차를 만들어도 사고 나면 제조사가 책임지듯이. 에이전트가 코드를 써도 장애 나면 그걸 배포한 팀이 책임진다. 이 구조는 기술보다 훨씬 느리게 바뀐다.
그러니까 AI가 불안한 학생, 주니어, 취업 준비생한테 하고 싶은 말은 이거다.
불안은 자연스럽다. 근데 AI가 뭘 할 수 있게 됐는지만 보면서 불안해하지 말고, AI가 만든 결과를 "감당할 수 있는 사람"이 되는 쪽에 시간을 쏟아라. 도메인을 이해하고, 판단 근거를 쌓고, 실패를 해석해보고, 다른 사람에게 설명해봐라. 이게 쌓이는 동안에도 AI는 계속 발전할 거다. 근데 그 발전과 함께 책임질 수 있는 사람의 가치도 같이 올라간다.
20년째 같은 말을 하는데, 이번에도 틀릴 것 같지는 않다.
댓글
댓글 쓰기