
[산업일보]
생성형 인공지능(AI)이 산업계 화두로 떠오르면서 활용법에 관한 강의, 도서 등이 쏟아지고 있다. 이와 관련 AI의 한계를 정확하게 인지한 후 활용해야 한다는 의견이 나오고 있다.
20일 경기도청에서 열린 ‘GPT 혁신포럼’에 참석한 한상기 테크프론티어 대표는 “GPT4가 단어의 관계를 확률로 계산해 특정 질문에 가장 근사한 답을 예측하는 것”이라며 “환각(Hallucination, 幻覺)은 근본적으로 발생할 수밖에 없다”고 지적했다.
대규모 언어 모델(LLM, Large Language Model)이 기반인 AI가 전혀 사실이 아닌 말이나 엉뚱한 대답을 하는 것은 필연적이라는 얘기다.
환각의 주요 사례는 간단한 낱말 문제 맥락에서 한 자릿수 연산, 물리적 세계에 대한 추론, 역사 문제 오류, 인간사고 과정에 대한 추론, 성과 인종에 대한 차별 등이 있다.
한 회사의 연구를 근거로 든 한 대표는 “챗GPT가 내놓는 결과물에서 환각에 해당하는 대답이 15~20% 나타날 수 있다”고 말했다.
포럼에서는 GPT3 논문 공개 당시 물리적 추론능력이 다른 알고리즘에 비해 떨어진다는 문제가 언급됐다는 내용도 나왔다.
한 대표는 생성형 인공지능을 정보 검색용으로 사용하는 게 아니라 코딩, 글쓰기 등을 돕는 용도로 써야 한다고 강조했다.
그는 “생성이기 때문에 뭔가를 만들 때, 발표를 준비할 때, 글을 쓰거나, 생각을 시작할 때 사용하는 것”이라고 설명했다.