최근 챗GPT 등 생성형 AI 기술 발전으로 업계에선 할루시네이션을 최소화하는 것을 과제로 보고 있습니다. 광범위한 데이터 학습 시, 생성형 AI의 특성상 할루시네이션은 필연적인 오류로 여겨지기 때문이죠. 이 글에서는 할루시네이션의 뜻, 사례, 최소화 등에 대해 알아보도록 하겠습니다.
할루시네이션 뜻
‘할루시네이션'(Hallucination)은 생성형 AI(인공지능)가 거짓 정보를 사실인 양 생성·전달하는 현상입니다. 할루시네이션은 환각, 환영, 환청을 뜻하는 영어 단어인데요.
AI가 허위 정보를 전달하거나 처리하는 정보의 맥락 등을 오해해 잘못 표현하는 것 등이 이에 해당합니다.
할루시네이션은 실제 사실과 AI를 거친 정보가 다른 내재성 환각과 실제로 존재하지 않는 사실을 창작해서 제공하는 외재적 환각으로 나뉩니다.
할루시네이션 사례
할루네이션의 사례는 굉장히 많습니다.
1. 갭의 수익 보고서
마이크로소프트가 빙 AI를 공개할 당시, 빙 AI에게 의류기업 갭(Gap)의 수익 보고서를 분석하라고 요청했다. 빙 AI는 갭의 영업이익률이 5.9%라고 답했는데, 보고서에 5.9%라는 수치는 없으며 실제 이익률은 4.6%였습니다.
2. 이스라엘-팔레스타인
AI 챗봇인 구글의 ‘바드’와 마이크로소프트(MS)의 ‘빙’은 최근 이스라엘-팔레스타인 간 상황에 대해 “휴전 중”이라는 오답을 내놓기도 했습니다.
3. 허위 사건
미국 맨해튼 연방법원에서는 변호사 두 명이 GPT로 조사한 판례를 제출했다가, 최소 6건이 실존하지 않는 사건인 게 드러나며 징계를 받았습니다.
할루시네이션 최소화
사용자 입장에서 외재성 환각은 구분하기 쉽지만, 교묘하게 숫자나 출처가 바뀐 내재성 환각은 구분이 어렵습니다. 특히 GPT-3처럼 데이터가 한정된 생성형 AI일수록 할루시네이션 발생이 심한 편입니다.
할루시네이션을 최대한 피하기 위해서는 데이터의 출처를 확실히 해야 합니다. 프롬프트를 정밀하게 입력하는 것도 도움이 됩니다. AI의 답변은 정보를 나열했을 뿐, 이해하고 제공하는 게 아닙니다.
따라서 질문할 때 ‘공식 보고서나 논문 검색 등을 인용해서’ 설명해 달라고 하거나, ‘최근 5년 간, 국내에서 기사로 확인할 수 있는 내용’ 같은 문장을 덧붙이면 정확성이 향상될 수 있습니다.