[정순채 칼럼] 통제규범이 필요한 인공지능 역기능

by 관리자 posted Jan 17, 2024
?

단축키

Prev이전 문서

Next다음 문서

ESC닫기

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄

 

지난해 5월 KT는 아나운서 17명의 음성을 학습한 인공지능(AI) 오디오북 4종을 공개했다. 미국 할리우드 배우와 각본 작가는 AI가 일자리를 빼앗아가고 있다며 총파업 중 합의했다. 9월에는 존 그리샴(John Grisham) 등 미국 작가협회 소속 17명이 챗GPT 훈련에 작품이 사용된 작가들을 대표해 오픈AI를 상대로 소송을 제기했다.

이는 AI의 후천적 부작용 중 하나인 저작권 침해사례다. 가짜뉴스 등을 쏟아내는 딥페이크(Deepfake) 문제도 심각하다. 선천적 한계인 AI의 양극화와 치우침(Bias)도 문제다. 경제적으로 심화한 AI 양극화는 AI 실업을 초래한다. 없는 사실을 그럴듯하게 지어내는 ‘AI 환각(Hallucination)’은 검증이 쉽지도 않다.

우리나라가 글로벌 AI 표준에서 앞서려면 선천적 한계와 후천적 부작용까지 해결할 수 있는 AI 통제 방안을 제시해야 한다. 투명성과 책무성, 회복 가능성과 설명성 등 요건에 맞는 ‘신뢰 가능 AI’를 선보여야 한다. AI 제도화의 미래는 ‘통제(Alignment)’와 ‘지배구조(Governance)’를 어떻게 설계하느냐에 달려 있다.

AI 통제는 인류사회 가치관과 AI 윤리를 일치시키는 작업이다. 인간이 생산한 데이터는 사회의 모순을 그대로 담고 있어 우리 편견을 반영한다. 그 데이터로 학습시킨 AI 모델은 정보 오류로 사실과 다른 결론을 내릴 수밖에 없다. 통제나 정렬로 인간 사회의 나쁜 편견을 배우지 않는 ‘착한 AI’로 키워야 한다......................정순채 칼럼 통제규범이 필요한 인공지능 역기능 전문