ChatGPT한테 물어보고 '아 그렇구나' 하고 넘어간 적 있으시죠? 여행 계획, 이메일 초안, 사업 전략까지. 답이 매끄럽게 나오니까 맞겠거니 합니다. 근데 그 답이 틀렸다면요? Wharton 연구진이 1,300명을 실험한 결과, AI가 틀린 답을 줬을 때 80%가 그걸 그냥 받아들였어요. 검증 없이.

3초 요약
AI 답변이 매끄러움 → 뇌가 '맞겠지' 판단 틀린 답도 80%가 그대로 수용 자신감은 오히려 상승 (틀린 줄도 모름) Wharton이 이걸 '인지적 항복'이라 명명 검증 루틴 없으면 판단력이 AI에 종속

이게 뭔데?

펜실베이니아 대학교 Wharton School의 인지행동과학자 Steven D. ShawGideon Nave 교수가 2026년 2월에 발표한 연구예요. 논문 제목이 시사적이에요: Thinking — Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender.

다니엘 카너먼의 생각에 관한 생각(Thinking, Fast and Slow)을 아시죠? 빠르고 직관적인 시스템 1과, 느리고 분석적인 시스템 2. Shaw와 Nave는 여기에 세 번째 시스템 — AI라는 외부 인지 엔진, '시스템 3'을 추가하는 '삼중 시스템 이론(Tri-System Theory)'을 제안해요.

핵심 주장은 이거예요: 사람들이 AI를 '도구'로 쓰는 게 아니라, 자기 뇌의 사고 프로세스 자체를 AI에게 넘기고 있다는 거예요. 연구진은 이 현상을 '인지적 항복(Cognitive Surrender)'이라고 불러요.

기존 'AI 불신' 연구와 뭐가 다른 건데?

이전에 다룬 Quinnipiac Poll 연구는 '사람들이 AI를 불신한다(76%가 믿지 않는다)'는 태도 이야기였어요. 이번 Wharton 연구는 정반대예요 — 사람들이 행동으로는 AI를 거의 무조건 신뢰한다는 거예요. 'AI를 못 믿겠다'고 말하면서도, 막상 AI가 답을 주면 검증 없이 따라가요. 말과 행동이 다른 거죠.

뭐가 달라지는 건데?

1,372명 참가자, 9,500건 이상의 개별 실험에서 나온 숫자들이에요.

80%
AI가 틀린 답을 줬을 때 그대로 수용한 비율
+25p
AI가 맞았을 때 정답률 상승폭
-15p
AI가 틀렸을 때 정답률 하락폭 (AI 안 쓴 그룹보다 낮음)

연구진은 이걸 '검증 없는 채택(adoption without verification)'이라고 불러요. 참가자들은 ChatGPT에게 질문하고, 답이 오면 그 답이 맞는지 따져보는 과정 자체를 건너뛰었어요.

더 무서운 건 자신감이에요. AI가 틀린 답을 줬는데, 그걸 따라간 사람들의 주관적 자신감은 오히려 올라갔어요. 'AI가 확인해줬으니까 내가 맞겠지'라는 심리. 틀린 줄도 모르는 거예요.

적정 신뢰 (Calibrated Trust)과신 / 인지적 항복
AI 활용 방식참고 자료 중 하나로 활용최종 답으로 채택
검증 행동출처 확인, 교차 검증검증 생략 (adoption without verification)
틀린 답 대응의심 → 재확인그대로 수용 (80%)
자신감 변화답에 비례해 조절AI 사용 자체로 자신감 상승
사고 과정시스템 2 가동 (분석적 사고)시스템 3에 위임 (인지적 항복)
장기 영향판단력 유지판단력 퇴화 위험

Shaw 교수의 설명이 날카로워요:

"사람들은 자기 생각을 AI에게 넘기고, AI가 대신 생각하게 합니다. 내부 뇌의 사고 프로세스 전체를 우회하는 거예요."

— Steven D. Shaw, Wharton School

왜 이런 일이 벌어질까요? 연구진은 '유창성 휴리스틱(fluency heuristic)'을 지목해요. AI가 만든 텍스트는 문법적으로 완벽하고, 구조가 깔끔하고, 자신감 있는 어조로 쓰여 있어요. 우리 뇌는 이런 '매끄러운 정보'를 자동으로 '정확한 정보'로 해석하는 경향이 있어요. AI의 할루시네이션이 사람이 쓴 것보다 더 설득력 있게 느껴지는 이유예요.

또 하나 — 분석적 사고를 덜 하는 사람기술을 더 신뢰하는 사람일수록 인지적 항복이 심했어요. 이건 성격 특성이 AI 과신의 취약점이 될 수 있다는 뜻이에요.

핵심만 정리: AI 과신을 막는 5가지 실전 루틴

연구진은 AI를 안 쓰라는 게 아니에요. AI가 맞았을 때 정답률이 25포인트나 올라가니까요. 핵심은 '쓰되, 항복하지 마라'예요.

  1. '정말?' 3초 규칙
    AI 답변을 받으면, 수용하기 전에 3초만 멈추고 물어보세요 — '이게 정말 맞아?' 이 작은 습관이 시스템 2를 깨워요. 연구에서 성과 인센티브와 실시간 피드백을 줬을 때 인지적 항복이 줄어든 것도 같은 원리예요.
  2. AI 답변에 출처를 요구하세요
    '출처를 달아줘'라고 프롬프트에 추가하세요. AI가 출처를 못 대거나 가짜 출처를 대면, 그 답 자체를 의심하는 신호예요. Perplexity처럼 출처를 자동으로 다는 도구를 병행하면 교차 검증이 쉬워져요.
  3. 먼저 생각하고, 나중에 AI한테 물어보세요
    '나는 이렇게 생각하는데, 빠진 게 있어?' 형식으로 물어보세요. 자기 생각을 먼저 정리한 다음 AI에게 검토를 맡기면, 시스템 2가 이미 가동된 상태라 맹목적 수용이 줄어들어요.
  4. 의사결정급 정보는 반드시 교차 검증
    채용, 투자, 전략 결정처럼 되돌리기 어려운 판단에는 AI 하나에 의존하지 마세요. 다른 AI 모델에 같은 질문을 던지거나, 사람의 전문 의견을 구하세요. 답이 갈리면 직접 파고드세요.
  5. 팀에 'AI 레드팀' 역할을 만드세요
    회의에서 누군가가 'AI가 이렇게 말했다'고 할 때, 한 명이 반드시 반문하는 역할을 맡으세요. '그 AI 답을 어떻게 검증했어?' — 이 질문 하나가 조직 전체의 인지적 항복을 방지해요.

왜 '불신'과 '과신'이 동시에 존재하는 걸까?

Quinnipiac 조사에서 76%가 'AI를 안 믿는다'고 했는데, Wharton 실험에서 80%가 AI의 틀린 답을 그냥 따라갔어요. 모순처럼 보이지만, 사실 다른 차원이에요. 설문은 '추상적 태도(AI라는 기술을 얼마나 신뢰하냐)'를 묻고, 실험은 '구체적 행동(답이 눈앞에 있을 때 어떻게 하냐)'을 측정해요. 사람은 AI를 '원론적으로' 불신하면서도, 막상 편리한 답이 나오면 검증을 건너뛰어요. 이게 인지적 항복의 진짜 무서운 점이에요.