본문 바로가기
Editor Ko's/비전문가를 위한 AI

할루시네이션이란?

by malzacookie 2023. 10. 17.

AI 관련 정보를 접하다 보면 할루시네이션이라는 단어를 마주하게 됩니다.

 

할루시네이션(hallucination)은 영어로 직역하면 '환각'이라는 의미입니다. 의료를 포함한 일상 속 에서는 약물이나, 질병에 의해 일어나는 현상이나 질환을 의미하기도 하죠.

 

💡

Editor Ko SAY :

 

AI 분야에서 할루시네이션이란, AI 모델에 정확한 데이터가 없거나 부정확한 데이터 또는 잘못된 알고리즘에 의하여 사실이나 진리와는 다른 출력값을 내는 현상을 말합니다.

 

AI는 사람처럼 경험이나 지능을 통해 사고를 하는 생물이 아닙니다. 방대한 데이터와 규칙(알고리즘)을 입력시켜 적절한 출력값을 내도록 만들어 낸 기계일 뿐이죠.

 

그렇기 때문에 교육 데이터의 사실 여부, 데이터의 업데이트 여부, 엔지니어의 의도적인 (데이터 및 알고리즘) 조작 등 여러 요인에 의하여 부정확한 정보(할루시네이션)를 제공할 가능성이 현 기준으로 아주아주 높기 때문에 AI를 활용하시는 모든 분들은 이를 인지하고 주의해야 합니다.

 

.

.

.

 

실제 예시로, 챗GPT 돌풍이 불어닥친 지난 2023년 봄.

 

저는 GPT-3.5 무료버전을 실험해보면서 뚱딴지 같은 질문을 해 본적이 있습니다. 영희와 박철수의 사랑이야기를 이야기해 달라고 했었는데... 당시에는 마치 실제로 있는 사실인 양, 허구의 이야기가 굉장히 구체적인 출력값으로 나오는 현상을 봤던 기억이 납니다.

 

하여 바로 방금 전, 23년 10월 16일 기준으로 비슷하게 GPT-4.0에게 질문해봤습니다.

 

GPT-4.0가 출력한 권박사와 에디터ko의 사랑이야기

 

당시엔 기정 사실인 양 설명했다면, 현재 GPT는 허구의 이야기라고 미리 양해를 구하는 모습을 발견할 수 있었습니다.

 

GPT-3.5의 출력값

그리고 3.5ver은 아예 모른다고 이야기 하는군요.

 

.

.

.

 

GPT 외 모델에서도, 저는 처음 AI 모델의 할루시네이션 현상을 확인했을 땐, 단순하게 '역시 기계는 사람의 지능을 따라오질 못하는 군...' 이라고 생각했었습니다.

 

하지만 생각해보면, 인간 중에서도 우기기 능력이 특화되어 있는 사람들이 많습니다. 그들은 없는 얘기를 잘도 사실인 양 지어내곤 하죠. 심지어 사실이 아님에도 실제 사건이라고 믿는 사람들이 있어요. 일종의 허언증처럼요.

 

그러한 경우를 생각해보면, 할루시네이션 현상에 있어서는 '과연 생성 AI 모델이 우리 인간의 뇌보다 떨어진다고 말할 수 있을지 모르겠다...'는 생각을 했습니다.

 

오늘의 결론 :)

챗GPT를 포함한

LLM(초거대 언어 모델)을 사용할 때는

잘못된 정보를 출력값으로 받을 수 있으므로

이 사실을 늘 인지하면서

사실 여부를 꼭! 확인 하셔야 합니다.

 

 

AI 비전문가로써, 저와 같은 사람을 위해 AI 지식을 나눕니다.
전문가 분들의 반박 시 님 말이 다 맞습니다. 댓글 반박 환영