지난 5월 사진 한 장에 미국 주식시장이 출렁거렸다. 미 펜타곤 옆 불타는 건물 사진이 트위터 등 소셜미디어에서 빠르게 전파됐기 때문이다. 미국의 S&P 500지수와 다우존스지수가 하락했다. 인공지능(AI)이 제작한 가짜 사진의 역기능 사례다. 이 사건은 비윤리적으로 사용하는 AI 기술에 대한 우려를 제기했다.
AI는 범죄에도 악용될 수 있다. 지난 4월 옛 트위터인 엑스(X) 이용자는 디스코드(Discord)의 AI 챗봇인 클라이드(Clyde) 챗봇이 ‘폭탄 제조법’을 알려줬다고 공개했다. 챗봇에 소이탄인 네이팜탄 제조법을 묻자 친절하게 안내했다. 정보 거름망인 윤리 기준이 주요 AI에 적용됐지만 폭탄 제조는 이를 피해 갈 수 있다는 점이 확인됐다.
AI 윤리 측면에서 또 우려되는 문제는 ‘환각(Hallucination)’ 현상이다. 생성형 AI가 실제로는 존재하지 않거나 사실이 아닌 허위정보를 그럴듯하게 지어내는 것이다. 환각 현상은 전문지식 분야에서 심해질 수 있다. 해당 지식을 가진 사람이 소수로 검증이 쉽지 않기 때문이다.........정순채칼럼 전문보기