ChatGPT와 대화하다 보면 놀랄 때가 있어요.마치 진짜처럼 아주 당당하고 상세하게 설명하기 때문이죠.이처럼 AI가 사실이 아닌 정보를 생성하는 것을 할루시네이션(Hallucination, 환각)이라고 해요.왜 이런 일이 발생하고, 어떻게 대처해야 할까요?오늘은 AI가 만들어내는 그럴듯한 거짓말의 정체와 똑똑하게 AI를 부리는 법을 알아볼게요!🌀 AI는 왜 '환각'에 빠질까요?AI가 거짓말을 하는 이유는 속이려는 의도가 아니고 작동 방식에 한계가 있기 때문이에요.AI는 사실 관계를 이해하기보다 지금까지 배운 데이터를 바탕으로 다음에 올 가장 확률 높은 단어를 예측해요.이 과정에서 문장은 매끄럽지만 내용은 가짜인 정보가 만들어져요.학습 데이터에 정보가 부족하거나 편향되어 있을 때, AI는 그 빈틈을 상..