미국 AI 합성 ‘가짜 음란물’ 국내 아이돌 표적 삼아...유명인 이어 일반인 성범죄 악용 우려
‘가짜 음란물’ 캡쳐 사진. 음란물 주인공이 K팝 아이돌 걸그룹 멤버를 연상케해 충격을 주고 있다.
지난해 12월 마더보드 등 해외 정보기술(IT)매체에 따르면 최근 미국 온라인 커뮤니티인 ‘레딧(Reddit)’에 ‘딥페이크(Deepfakes)’라는 누리꾼은 갤 가돗(Gadot) 등 할리우드 유명 여배우 얼굴을 실제 포르노 배우의 몸과 합성한 영상을 공개해 논란이 되었다.
이 영상은 아마추어 컴퓨터 프로그래머로 알려진 딥페이크가 자체 개발한 AI로 제작됐다. 딥페이크에 따르면 구글 이미지 검색, 홈페이지 사진, 유튜브 동영상을 이미지 데이터로 활용해 기존 동영상에 유명인의 얼굴을 덧입히는 학습을 시작했고, 기존 프르노 동영상에 가돗의 얼굴을 합성해 실제와 거의 똑같은 동영상을 만들어냈다.
딥페이크는 또 가돗 외에도 오브리 플라자, 엠마 왓슨, 스칼렛 요한슨 등 다른 할리우드 유명 여배우의 얼굴을 합성한 음란물도 공개했다.
현재 한 커뮤니티 사이트에는 이같은 방법으로 제시카알바와 메간폭스 등의 가짜 음란물이 버젓이 재생되고 있으며, 한국 인기 걸그룹 멤버인 XX와 XXX의 가짜 영상도 올려져 있다. 문제는 이들의 이름을 영상과 함께 그대로 올려놓고 있어 혼란을 가중시키고 있다.
갈수록 비약적으로 발전하는 AI의 활용도가 도를 넘어선 것인데 매우 심각한 초상권 침해, 사생활 침해로까지 번지는 등 유명인을 넘어 일반인까지 성범죄 목적으로 쓰일 소지마저 높다는 지적이다. 특히, 누구나 쉽게 구할 수 있는 오픈 소스를 악용해 AI가 악의적인 방법으로 이용될 수 있다는 점에서 전문가들은 우려를 표하고 있다.
유명인의 가짜누드는 어제오늘의 일이 아니지만 AI를 이용해 영상에서 특정 인물과 표정을 모방하는 건 훨씬 심각해 보인다. 최근 국내 사회관계망서비스(SNS)에서도 일반인의 얼굴을 음란물에 합성해 주는 이른바 ‘지인능욕’ 계정이 등장해 논란이 되기도 했다. 정부당국의 엄중한 대응이 절실해 보인다.
서동철 기자 ilyo1003@ilyo.co.kr