생성형 인공지능(AI)인 챗GPT(ChatGPT)가 화제인 가운데, 향후 새로운 이슈가 발생할 수 있다는 의견이 나왔다.
20일 경기도청 1층 대강당과 온라인 생중계로 동시 진행된 ‘챗GPT 시대의 변화와 기회-GPT 혁신포럼’에서는 최재식 카이스트 인공지능연구센터장이 ‘생성형 AI와 ChatGPT 활용전략’을 주제로 발표했다.

최재식 센터장은 “챗GPT는 여러 가능성도 있고, 한계도 있다. 문해력이 많이 좋아진 것은 굉장히 긍정적인 면이다”라면서도 챗GPT가 가지는 여러 가지 한계점을 설명했다.
최 센터장이 밝힌 챗GPT의 한계는 ▲잘못된 사실에 대한 팩트 체크가 이뤄지지 않아 가스라이팅을 당할 수 있는 점 ▲기존의 데이터를 잘 분해·요약하거나, 이를 짜깁기해 설명하는 능력은 좋아졌으나 예측은 하지 못하는 점 ▲지역 정보가 많이 빠져 있어 답변이 정확하지 않은 점 ▲답변에 대한 출처를 모르는 점 등이다.
이어 “있는 정보를 재가공해서 짜깁기한 답변을 주고, 이것으로 수익을 내게 된다면 일부분은 저작권자에게 가야 하는 것 아닌가라는 저작권에 대한 이슈가 발생할 수 있다고 본다”고 말했다.
이에 대한 해결 방법 중 하나로 최 센터장은 “AI의 신뢰성을 위해 설명가능한 AI로 나아가야 한다”고 했다.
기존의 인공지능 기술들은 결정론적(Determinist)이기 때문에 신뢰를 받고, 인증을 받으면 됐다. 그러나 사람들이 점차 자율적인 것을 원하면서 AI에 자율성이 강화되기 시작했다. 자율성으로 이뤄지는 완전 자동화는 불안을 야기할 수 있기 때문에 확인의 과정이 필요하다는 것이 최 센터장의 설명이다.
그는 “간단한 설명만으로도 사람이 훨씬 AI를 안전하게 사용할 수 있다”면서 “AI 안의 설명성을 보는 기술로 사례를 많이 만들어야 한다”고 강조했다.