서울과기대 겸임교수 법무법인 린 전문위원
"생성형 AI가 해킹 공격 등에 대비가 충분하지 않다"
지난달 18일 일론 머스크 테슬라 최고경영자(CEO)는 ‘지구에서 가장 똑똑한 AI’라며 ‘그록(Grok)3’을 공개했다. 그 후 세계 소셜미디어에선 개인정보 유출 우려 목소리가 높다. 지난해 나온 이전 AI 모델들이 X(SNS)에 올라온 텍스트와 사진, 영상 등을 사용자 동의 없이 학습 데이터로 활용한 사실이 드러났기 때문이다.
머스크는 월 3억 명이 넘는 X 사용자들의 데이터를 활용하는 것으로 알려졌다. 최근에는 자사 AI 사용자들에게 엑스레이, MRI(자기공명영상) 등 민감한 개인 의료기록 입력을 권해 논란이 됐다. 모두 AI 성능 향상이 목적이었다.
AI 학습에 사용하는 데이터는 미공개 상태이다. 생성형 AI의 등장으로 개인정보 유출 위험이 커지고 있다. 사용자들의 민감 정보를 무작위로 수집해 AI를 학습시켜 문제가 되고 있다. AI 기업들은 AI 고도화를 위해 사용자 동의 없이 데이터를 끌어모은다. 내 정보가 언제, 어떻게 쓰였는지조차 파악하기 어렵다.
생성형 AI는 데이터가 많을수록 성능이 높아진다. 오픈 AI 등 AI 빅테크 기업들은 데이터 수집과 가공에 고비용을 투자한다. 데이터 수집이 최소한의 범위를 넘거나 수집된 데이터가 목적 외 용도로 사용되는 경우가 많다고 한다.
최근 생성형 AI는 텍스트를 비롯해 음성과 이미지 생성까지 ‘블랙홀(blackhole)’처럼 데이터를 흡입하고 있다. 과거 수집 대상은 개인 신상이나 검색기록 정도였다. 현재 AI 기업은 소셜미디어와 스마트폰 등 각종 앱에 남긴사진과 음성, 녹음, 영상까지 닥치는 대로 수집 중이다.
사용자들이 AI 챗봇과 나눈 대화 기록에는 개인의 관심 분야와 일상 등 세밀한 내용이 담겨 있다. 이런 데이터들은 베일에 싸인 AI 학습 알고리즘으로 어떻게 사용됐는지 알기 어렵다.
생성형 AI가 해킹 공격 등에 대비가 충분하지 않다는 판단이다. 현재 사용되는 보안프로그램 대부분은 기존 앱이나 컴퓨터 프로그램에 최적화됐다. AI 모델 대상 맞춤형 보안 시스템은 약하다는 지적이다.
생성형 AI 모델이 외부 공격에 취약한 점도 드러나고 있다. 서울아산병원 심장 내과 김영학 교수 연구팀은 1월 의료 업무용으로 개발한 AI 모델 상대 의도적 인 악성 공격을 했다. 결과는 ‘약 81% 확률로 민감한 정보에 접근할 수 있다’고........................[정순채 칼럼] 생성형 AI의 데이터 ‘블랙홀' 전문 보기 SDG뉴스 http://www.sdgnews.net