하루하루뉴스

AI 환각, 왜 생기나? OpenAI가 밝혀낸 충격적 진실과 해법

factalgorithm 2025. 9. 8. 14:50

최근 인공지능을 활용하는 사람들이 가장 자주 겪는 불편 가운데 하나가 바로 ‘AI 환각(hallucination)’이다. 챗봇이나 생성형 AI가 실제로는 존재하지 않는 정보를 자신 있게 말하는 현상인데, 이 문제는 기술 신뢰성을 흔들며 전 세계적으로 우려를 낳아왔다. 그런데 드디어 OpenAI가 환각의 근본 원인을 규명하고, 공식 논문을 통해 결과를 공개했다. 이번 발표는 향후 AI 발전 방향에 있어 중요한 변곡점으로 평가받고 있다.


1. OpenAI가 AI 환각 문제의 구조적 원인을 규명했다.  
2. 정확도만 중시하는 평가 체계가 불확실성 인정을 억눌렀다.  
3. “모른다”라는 대답을 허용했을 때 환각이 크게 줄어든 것으로 확인됐다.  

OpenAI 연구진은 환각을 단순한 오류가 아닌 ‘구조적 산물’이라고 규정했다. 지금까지 언어 모델은 답을 맞히면 높은 점수를 받고, “모른다”고 답하면 감점되는 방식으로 훈련돼왔다. 이 때문에 모델은 정답을 확신하지 못하더라도 추측을 해서라도 대답하는 성향을 강화해온 것이다. 결국 이런 학습 구조가 AI 환각을 불가피하게 만든다는 설명이다.  

실제로 발표된 논문 *Why Language Models Hallucinate*는 이를 실험으로 입증했다. 연구팀은 모델이 “모른다(IDK)”라고 답할 수 있도록 허용했을 때 환각 발생률이 유의미하게 감소한다는 결과를 제시했다. 기존의 평가 방식이 AI에게 “틀리더라도 답하는 것이 낫다”는 전략을 학습시킨 셈이다.  

대표적인 사례로 Adam Tauman Kalai의 생일 질문이 언급됐다. 한 연구자가 챗봇에 생일을 묻자, 모델은 “03-07”, “15-06”, “01-01” 등 서로 다른 날짜를 자신 있게 제시했지만 모두 오답이었다. 정확히 모른다고 답하기보다, 여러 번 그럴듯한 추측을 만들어낸 것이다. 논문 제목이나 연구자의 업적을 묻는 질문에서도 같은 문제가 반복됐다. 이는 단순한 우연이 아니라 학습 구조적 특성이 만들어낸 결과였다.  

OpenAI는 이를 ‘Teaching to the test’ 문제로 규정했다. 지금까지 언어 모델은 정답 여부만으로 평가돼왔기 때문에, 모델 입장에서는 불확실성을 인정하는 것보다 추측이라도 답하는 것이 유리한 학습 전략이 됐다. 다시 말해 평가 방식 자체가 환각을 강화하는 요인으로 작용한 것이다.  

해결책으로 OpenAI는 평가 기준의 변화를 제안했다. 앞으로는 정확도뿐 아니라 “모른다”라는 답변도 긍정적으로 평가해야 한다는 것이다. 불확실성을 인정하는 습관을 학습시킴으로써, 모델이 신뢰성 있는 답변을 내놓도록 유도할 수 있다는 설명이다.  

이번 연구는 AI 환각 문제가 단순히 기술적 미성숙 때문이 아니라, 훈련과 평가 체계 전반에 뿌리내린 구조적 문제임을 드러냈다. 따라서 더 많은 데이터를 주입하거나 알고리즘만 개선하는 것이 아니라, 학습 문화 자체를 바꿔야 하는 과제가 된 것이다.  

OpenAI의 발표는 앞으로 모든 AI 개발사에 중요한 기준을 제시한다. 단순히 정답률을 높이는 것이 아니라, 모델이 필요할 때는 겸손하게 “모른다”라고 대답하도록 훈련하는 것이 핵심이다. 이는 실제 사회에서 안전하고 신뢰성 있게 AI를 활용하기 위해 반드시 필요한 변화라 할 수 있다.  

AI 확산이 가속화되는 시대, 환각 문제를 해결하는 것은 기술 개선을 넘어 사회적 신뢰와 안전성을 확보하는 핵심 조건이다. 이번 연구는 인공지능의 교육과 평가 방식을 근본적으로 재검토해야 한다는 점을 일깨워주는 신호탄이며, 앞으로 우리가 주목해야 할 중대한 변화로 기록될 것이다.