AI에게 시나리오를 던지면 생기는 일

 


이 프로젝트를 진행하면서, AI와 가장 많이 대화한 건 시나리오 설계였다. 시스템 구조, 캐릭터 설정, 갈등 패턴, 시간 구조. 모든 과정에서 AI를 썼다.

솔직한 후기를 남기려 한다. AI가 뭘 잘하고, 뭘 못 하고, 어떻게 써야 효과적인지.

AI가 잘하는 것

구조 정리. 이건 압도적이다. "감정 시스템을 설계하고 싶어"라고 말하면, 체계적인 변수 구조와 계층 분리를 즉시 제안한다. 사람이 하면 며칠 걸릴 정보 정리를 몇 분에 해낸다. 3계층 감정 모델의 골격은 AI와의 대화에서 한 시간 만에 나왔다.

변수 간 일관성 검증. "이 이벤트에서 신뢰가 올라가면 긴장은 어떻게 돼야 해?" 같은 질문에 논리적으로 답한다. 변수가 많아지면 사람은 빠뜨리는 게 생기는데, AI는 빠뜨리지 않는다. Part 9에서 3계층 모델의 변수 간 상호작용을 정의할 때, AI가 "신뢰가 높고 긴장도 높은 상태"의 의미를 즉시 분석해줬다. 사람이면 "그런 조합이 가능한가?"부터 고민할 텐데, AI는 가능한 모든 조합과 각각의 의미를 체계적으로 정리해준다.

패턴 제시. "갈등의 종류를 분류해줘", "엔딩 구조의 패턴을 정리해줘" 같은 요청에 광범위한 패턴을 빠르게 나열한다. 바닥부터 시작하지 않아도 된다. AI가 내놓은 10개 패턴 중 2~3개를 골라서 깊이 파면 된다.

코드 생성. Ren'Py용 이벤트 함수, 감정 변화 로직, 조건 분기 코드를 빠르게 만들어준다. 초안으로서 매우 유용하다. Part 9에서 3계층 감정 모델을 코드로 옮길 때, AI가 기본 구조를 30분 만에 만들어줬다. 성향층, 순간 감정층, 관계층의 상호작용 로직까지 포함해서. 물론 세부 수치 조정은 직접 해야 했지만, 골격을 잡는 속도는 압도적이었다.

AI가 못하는 것

감정의 무게 판단. "이 두 선택지 중 어느 쪽이 더 아프냐?" AI는 논리적으로 분석하지만, 감각적으로 판단하지 못한다. "솔직하게 말한다"와 "침묵한다" 중 어느 쪽이 이 맥락에서 더 무거운지는 경험에서 나오는 판단이다.

클리셰 회피. AI에게 "시나리오를 만들어줘"라고 하면, 높은 확률로 익숙한 패턴이 나온다. 옥상 고백, 우연한 재회, 비 오는 날의 우산. 개별 요소는 나쁘지 않지만, 조합이 뻔하다. AI는 "흔하지 않은 것"보다 "가장 자주 등장하는 것"을 먼저 제안하는 경향이 있다.

뉘앙스 있는 대사. AI가 쓰는 대사는 문법적으로 정확하고 의미도 통한다. 하지만 "이 한 줄이 가슴을 찌른다"는 수준의 대사는 잘 나오지 않는다. 대사의 힘은 논리가 아니라 여백과 뉘앙스에서 오는데, AI는 여백을 채우려는 경향이 있다.

실제로 AI에게 이별 장면의 마지막 대사를 요청했을 때, "나는 너를 진심으로 좋아했어. 하지만 우리의 타이밍은 맞지 않았던 것 같아"를 내놨다. 문법적으로 완벽하고 의미도 정확하다. 하지만 현실에서 사람은 이렇게 말하지 않는다. 말이 끊기고, 핵심을 피하고, 엉뚱한 말을 하다가 나중에 후회한다. "그래, 잘 가" 한마디가 "나는 너를 진심으로 좋아했어"보다 더 아플 수 있다. 이 차이를 AI는 아직 잡지 못한다.

"왜 이게 슬픈지" 설명. 구조적으로 왜 슬픈 패턴인지는 설명할 수 있다. 하지만 "왜 이 특정 장면에서 내 마음이 아픈지"는 설명하지 못한다. 감정의 일반론은 잘하지만, 감정의 특수성은 약하다. 예를 들어 AI에게 "타이밍이 어긋나는 관계가 왜 슬프냐"고 물으면, "기대와 현실의 불일치가 만드는 상실감"이라고 정확하게 설명한다. 하지만 "중학교 때 '같이 가자'라고 한 마디 못 한 채 뒤돌아선 장면이 왜 가슴이 아프냐"고 물으면, 비슷한 일반론을 반복한다. 그 장면만의 특수한 아픔 — 뒤돌아서는 발걸음의 무게, 말하려다 삼킨 공기의 감각 — 은 AI의 영역이 아니다.

효과적인 사용법

이 프로젝트를 통해 발견한, AI와 시나리오를 짤 때 효과적인 방법들.

완성품을 요청하지 마라. 재료를 요청해라. "시나리오 써줘"보다 "이 상황에서 가능한 갈등 패턴 10개 줘"가 훨씬 좋다. AI는 완성작보다 재료 제공에 강하다. 10개 중 2~3개를 골라서 사람이 조합하면 된다.

질문으로 깎아라. "이 캐릭터 만들어줘"보다 "이 캐릭터가 거짓말할 때는 언제야?", "이 캐릭터가 가장 비합리적인 순간은?" 같은 질문이 더 좋은 결과를 낸다. 질문이 캐릭터를 깎아내는 조각칼이다.

AI의 답에 "왜?"를 붙여라. AI가 "이러면 좋겠다"고 제안하면, "왜?"를 붙여야 한다. 이유를 설명하게 하면 AI의 답이 더 깊어지고, 동시에 그 이유가 내 설계에 도움이 된다.

클리셰가 나오면 반대를 물어라. "옥상에서 고백하는 게 좋겠다"고 AI가 말하면, "옥상 말고 다른 데서 하면 어떤 느낌이 달라져?"를 물어라. AI가 다른 옵션을 탐색하게 만들면 의외의 답이 나온다. 실제로 이렇게 물었더니 "빈 교실에서 정리하는 중에 우연히 마주치는 상황"이 나왔다. 옥상 고백보다 훨씬 일상적이고, 그래서 더 현실적이다. 이 "반대를 묻는" 테크닉은 Part 14의 갈등 설계에서도 썼다. "악역이 만드는 갈등 말고 다른 방법은?" 이 질문이 선의의 충돌이라는 핵심 아이디어를 끌어냈다.

초안은 AI, 감각은 사람. AI가 만든 초안에서 논리적으로 맞지만 감정적으로 안 맞는 부분을 사람이 잡아내야 한다. 이 역할 분리가 가장 효율적이다.

이 시리즈 전체가 사실 이 원칙의 실증이다. Part 9의 3계층 감정 모델 골격은 AI가 제안했고, Part 11의 컨텍스트 시스템 구조도 AI가 초안을 잡았다. 하지만 "비 오는 밤에 왜 '괜찮아?'가 다르게 들리는지"를 판단한 건 내 경험이었다. Part 14의 선의의 충돌 갈등도 마찬가지다. AI가 패턴을 나열하면, 사람이 "이건 진짜 아프겠다"와 "이건 구조만 맞고 감정은 없다"를 구분한다.

AI와의 대화에서 배운 것

이 프로젝트에서 AI는 공동 작업자라기보다 대화 상대에 가까웠다. 내 생각을 정리하고, 빠진 부분을 짚어주고, 가능성을 넓혀주는 역할. 시나리오 자체를 만들어주는 건 아니지만, 시나리오를 만드는 과정을 돕는 거다.

특히 인상적이었던 건, AI와 대화하면서 내 생각이 명확해지는 경험이었다. 혼자 생각하면 뭉뚱그려지는 것들이, AI에게 설명하려고 하면 구체화된다. "이 캐릭터는 이런 사람이야"라고 AI에게 말하려면, 먼저 내가 정확히 알아야 하니까.

이건 고무 오리 디버깅과 비슷하다. 문제를 설명하다 보면 답이 보이는 현상. AI가 고무 오리보다 나은 점은, 실제로 의미 있는 질문을 돌려준다는 거다.

한 가지 예를 들자면, Part 13의 캐릭터 설계에서 "행동과 내면의 불일치"라는 핵심 개념이 나온 건, 내가 AI에게 "이 캐릭터가 왜 매력적인지 모르겠어"라고 투덜댔기 때문이다. AI가 "그 캐릭터의 행동과 감정이 일치하나요?"라고 물었고, 그 질문이 방향을 잡아줬다. AI가 답을 준 게 아니라, 질문이 내 사고를 움직인 거다. 이 경험은 AI 협업의 본질을 보여준다. AI는 사고의 촉매제다. 반응 자체가 아니라 반응을 일으키는 역할.

다음 편에서는 "유치함"의 문제를 다룬다. 판타지 설정이 아닌 현실적 관계, "특별한 사건"이 아닌 "선택의 누적"으로 서사를 만드는 법.


다음 편: 유치함을 벗기는 법 — 현실 기반 시나리오

댓글

이 블로그의 인기 게시물

사랑을 직접 올리지 않는 설계

감정을 변수로 옮기다 — 3계층 감정 모델

시작의 충동 — "타로 웹앱을 만들어볼까?"