본문 바로가기
챗GPT로 인해 불거질 수 있는 이슈는?
조해진 기자|jhj@kidd.co.kr
페이스북 트위터 카카오스토리 네이버블로그 프린트 PDF 다운로드

챗GPT로 인해 불거질 수 있는 이슈는?

최재식 카이스트 인공지능연구센터장, 설명 가능한 인공지능의 필요성 강조

기사입력 2023-03-20 22:50:38
페이스북 트위터 카카오스토리 네이버블로그 프린트 PDF 다운로드
[산업일보]
생성형 인공지능(AI)인 챗GPT(ChatGPT)가 화제인 가운데, 향후 새로운 이슈가 발생할 수 있다는 의견이 나왔다.

20일 경기도청 1층 대강당과 온라인 생중계로 동시 진행된 ‘챗GPT 시대의 변화와 기회-GPT 혁신포럼’에서는 최재식 카이스트 인공지능연구센터장이 ‘생성형 AI와 ChatGPT 활용전략’을 주제로 발표했다.

챗GPT로 인해 불거질 수 있는 이슈는?
최재식 카이스트 인공지능연구센터장 (사진=챗GPT 시대의 변화와 기회-GPT 혁신포럼 영상 캡처)

최재식 센터장은 “챗GPT는 여러 가능성도 있고, 한계도 있다. 문해력이 많이 좋아진 것은 굉장히 긍정적인 면이다”라면서도 챗GPT가 가지는 여러 가지 한계점을 설명했다.

최 센터장이 밝힌 챗GPT의 한계는 ▲잘못된 사실에 대한 팩트 체크가 이뤄지지 않아 가스라이팅을 당할 수 있는 점 ▲기존의 데이터를 잘 분해·요약하거나, 이를 짜깁기해 설명하는 능력은 좋아졌으나 예측은 하지 못하는 점 ▲지역 정보가 많이 빠져 있어 답변이 정확하지 않은 점 ▲답변에 대한 출처를 모르는 점 등이다.

이어 “있는 정보를 재가공해서 짜깁기한 답변을 주고, 이것으로 수익을 내게 된다면 일부분은 저작권자에게 가야 하는 것 아닌가라는 저작권에 대한 이슈가 발생할 수 있다고 본다”고 말했다.

이에 대한 해결 방법 중 하나로 최 센터장은 “AI의 신뢰성을 위해 설명가능한 AI로 나아가야 한다”고 했다.

기존의 인공지능 기술들은 결정론적(Determinist)이기 때문에 신뢰를 받고, 인증을 받으면 됐다. 그러나 사람들이 점차 자율적인 것을 원하면서 AI에 자율성이 강화되기 시작했다. 자율성으로 이뤄지는 완전 자동화는 불안을 야기할 수 있기 때문에 확인의 과정이 필요하다는 것이 최 센터장의 설명이다.

그는 “간단한 설명만으로도 사람이 훨씬 AI를 안전하게 사용할 수 있다”면서 “AI 안의 설명성을 보는 기술로 사례를 많이 만들어야 한다”고 강조했다.

4차 산업혁명 시대, 산업전시회와 기업의 발전 양상을 꼼꼼히 살피며 현장의 목소리를 듣겠습니다.


0 / 1000
주제와 무관한 악의적인 댓글은 삭제될 수 있습니다.
0 / 1000




추천제품