기사 메일전송
[기자수첩] 가짜들이 판치는 세상에서 외쳐본다
  • 홍지성 기자
  • 등록 2023-09-01 17:39:16
기사수정

현 사회는 인공지능 기술을 활용해 특정 인물의 얼굴, 신체 등을 원하는 영상에 합성할 수 있는 시대에 도달했다. 이처럼 AI 기술을 활용한 이미지 합성 기술인 ‘딥페이크’는 누구나 무료 소스 코드와 머신러닝 알고리즘으로 손쉽게 제작할 수 있고, 진위를 가리기 어려울 만큼 정교하다는 점이 특징이다. 실제 딥페이크가 긍정적으로 활용된 사례도 찾아볼 수 있다. SKT는 지난 2020년 5월 독립기념관과 협약을 맺고, 지난달 11일부터 실감형 콘텐츠를 선보였다. 본 콘텐츠는 SKT의 AI 이미지 복원 기술인 슈퍼노바로 재현된 독립운동가 동영상 미디어아트, AI 미디어 로봇이 답해 주는 독립운동의 역사 등을 웹 증강현실(AR) 기술로 제작했다. 그중 미디어아트는 독립운동가의 흑백 사진을 복원해 컬러 이미지로 영상화하고 립싱크 기술을 적용해 성우가 녹음한 독립운동가 목소리와 인물의 입모양이 서로 일치하도록 구현됐다.

 하지만 위 기술을 악용하는 사례도 증가하는 추세다. 지난 3월 페이스북에서 엠마 왓슨과 똑같은 얼굴을 한 여성이 카메라 앞에서 성행위를 시작하는 듯한 광고가 게시됐지만, 영상 속 여성은 실제 ‘엠마 왓슨’이 아니었다. 이에 전문가는 딥페이크가 점차 음란물을 만드는 데 악용되고 있다며 지적했다. 한국도 딥페이크 관련 범죄로부터 안전하지 않는 상황이다. 지난 2020년 6월을 시작으로 AI 기술 관련 허위영상물을 무단 제작 혹은 유포한 행위가 적발될 시 5년 이하 징역 또는 5,000만 원 이하 벌금을 부여하고 있다. 하지만 2021년 6월부터 9월까지 3개월 동안 방송통신심의위원회가 차단하거나 삭제한 허위영상물만 약 2,000여 건에 달했고, 딥페이크 악용 피해는 더욱 악랄하고 교묘하게 커져가고 있다. 

 특히 SNS를 활용한 AI 기술 관련 허위영상물 악용 범죄가 기승을 부리고 있지만 처벌은 여전히 어렵다. SNS를 통해 활발히 이뤄지는 허위영상물 유통은 신고가 없으면 단속이 어려울 뿐만 아니라 제작자가 SNS 계정을 돌연 삭제하면 경찰의 단속을 피하기 쉽기 때문이다. 이처럼 AI 기술 관련 허위영상물 유통이 사회를 위협하고 있지만 당국에서는 체계적인 규제 마련도 갖추지 않고 있다는 점이 현실이다. 이에 기자는 AI 기술을 활용한 발전이 빠르게 이뤄지고 있는 만큼 악용 관련 대응책도 신속히 등장해야 한다고 본다. 따라서 아직 AI 기술 관련 허위영상물 범죄 대책도 제대로 마련돼있지 않는 상황이라는 점을 고려하면 해당 기술의 활용은 잠시 멈춰야 한다고 생각한다.

 

홍지성 기자 Ι wltjd0423@kyonggi.ac.kr

TAG
0
모바일 버전 바로가기