LLM의 할루시네이션 현상을 해결하는 방법
LLM을 학술 논문 작성과 같이 팩트체크가 중요한 글 작성에 사용할때 가장 문제가 되는 것은 LLM이 가지는 특성인 할루시네이션이다. LLM은 많은 양의 텍스트 문서를 통하여 학습되면서 부지불식간에 이러한 텍스트 문서의 내용에 대한 정보를 단편적으로 가지고 있지만, 어디까지나 LLM은 이러한 문서를 기반으로 '그럴싸한 문장을 만들어 내는 도구' 인 관계로 논문의 참고 문헌과 같이 팩트 그 그대로가 중요한 정보를 생성할 때 '그럴싸하지만 실제로는 존재하지 않는 가공의 정보' 를 만들어 낼 우려가 있다.
이러한 것에 대처하기 위해서는 결국 프롬프트를 통하여 사전에 참고할 정보를 제공하는 것이 중요하다. 사실 MS Copilot 이나 Gemini 와 같은 도구에서 어떤 질문을 주면, 내부적으로는 이의 키워드를 이용하여 검색을 실시하고, 이렇게 검색된 결과를 프롬프트로 LLM에 주어서, 이러한 정보를 기반으로 응답을 얻어내는 것이 한...