“AI 모델이 잘못된 판단 내리는 할루시네이션…신뢰성 확보는 우리 사회가 직면한 과제”
2024년 11월 12일 치러진 카이스트 강연에서는 로봇 공학과 인공지능의 융합이 가속화됨에 따라 대두되고 있는 ‘로봇의 할루시네이션(거짓정보) 문제’를 집중 조명됐다. 로봇이 환경을 인식하고 판단하는 과정에서 발생할 수 있는 오류와 그로 인한 신뢰성 저하 문제를 해결하기 위한 새로운 연구 방향을 제시했다.
강 교수는 2023년 서울대학교에서 블록체인과 보안을 주제로 특강을 시작으로, 2024년 1월에는 하버드대학교, 보스턴대학교, 예일대학교에서 대형 언어 모델(LLM)의 할루시네이션 연구를 발표하며 국제적인 학술 활동을 이어왔다.
강장묵 교수는 “AI 모델이 실제로 존재하지 않는 정보를 생성하거나 잘못된 판단을 내리는 현상을 ‘할루시네이션(Hallucination)’이라고 한다. 예를 들어, 자율주행 차량이 도로에 없는 장애물을 인식하거나, 반대로 존재하는 장애물을 인식하지 못하는 상황을 말한다. 이는 로봇의 오작동을 유발하여 ‘안전 사고‘로 이어질 수 있어 심각한 문제로 대두되고 있다”고 설명했다.
그러면서 “이러한 문제를 해결하기 위해 경량화된 특화 언어 모델(sLLM)이 주목받고 있다. sLLM은 특정 분야에 최적화된 작은 규모의 언어 모델로, 로봇 내부에 직접 탑재되어 실시간 처리와 보안 강화를 동시에 실현한다. 이를 통해 할루시네이션 발생을 줄이고 로봇의 신뢰성을 높일 수 있다”고 덧붙였다.
아울러 “로봇의 안전한 운용을 위해서는 AI 모델의 할루시네이션 문제를 근본적으로 해결해야 한다. AI 기반 로봇의 신뢰성 확보는 우리 사회가 직면한 중요한 과제다. 이를 위해 다양한 연구와 기술 개발이 이루어지고 있으며, 이러한 노력이 모여 로봇 기술의 발전을 이끌 것”이라고 강조했다.
박찬웅 기자 rooney@ilyo.co.kr