기술 장벽 빠른 속도로 낮아져 음성·영상·사진 등 기승…‘핑거프린팅’ ‘워터마킹’ 등 해결책 모색중
두 고령의 후보가 다시 맞붙게 되자 일각에서는 또 한 번 ‘나이 리스크’를 염려하고 있다. 누가 당선되든 80대에 임기를 마치게 되기 때문이다. 하지만 이번 대선의 잠재적인 위험 요소는 어쩌면 다른 데 있을지 모른다. 바로 인공지능(AI)이다. 특히 하루가 다르게 기술이 발전하고 있는 생성형 AI를 이용한 딥페이크 기술은 놀랍다 못해 공포스러울 정도다. 선거철만 되면 떠도는 음모론이나 가짜 뉴스와는 차원이 다르기에 선거 결과를 뒤집을 만큼 막대한 영향력을 행사할 수도 있다. 과연 이번 선거는 전문가들이 예상하는 것처럼 ‘딥페이크와의 전쟁’이 될까.
“이번주 화요일에 투표를 하면 공화당이 도널드 트럼프를 다시 대선 후보로 선출하도록 돕는 것이다.” “투표는 이번주 화요일이 아니라 11월에 하라.” “11월 선거를 위해 당신의 한 표를 아껴라.”
최근 바이든 대통령은 뉴햄프셔주 프라이머리(예비경선) 직전 민주당원들에게 전화를 걸어 녹음된 음성 메시지로 이렇게 독려했다. 요컨대 유권자들에게 경선에 참여하지 않도록 설득한 것이다.
하지만 이는 가짜 음성이었다. AI로 생성된 ‘로보콜’, 즉 바이든 대통령을 사칭하는 조작된 목소리였다. 이 ‘로보콜’에는 심지어 바이든 대통령이 평소 자주 사용하는 문구인 ‘참으로 말도 안 되는 소리’(What a bunch of malarkey)까지 담겨 있어서 모두가 감쪽같이 속고 말았다. 얼마나 많은 사람들이 이 전화를 받았는지, 그리고 누가 만들었는지는 아직 알려진 바 없다.
카린 장-피에르 백악관 대변인은 “이 전화는 가짜이며 대통령이 녹음한 게 아니다”라고 서둘러 해명했으며, 트럼프 선거캠프 역시 혹시 튈 불똥을 염려해 이 전화와 관련이 없다고 선을 그었다.
이런 속임수는 어쩌면 시작에 불과할지도 모른다. 비영리 시민운동단체인 ‘퍼블릭 시티즌’의 로버트 와이스만 대표는 성명에서 이 사태를 가리켜 “정치적 딥페이크 순간이 도래했다는 새로운 증거다”라고 주장했다. 그러면서 “만일 딥페이크가 선거일 하루 전날 후보자가 술에 취했거나, 논리에 맞지 않는 말을 하거나, 평판이 나쁜 인물과 만나는 모습을 조작해서 공개할 경우 박빙의 선거를 쉽게 흔들 수 있다”고 염려했다. 또한 “딥페이크의 홍수 속에서는 유권자들은 진짜와 가짜를 구별하지 못하게 된다. 더 나아가 딥페이크가 유행하면 유권자들은 오히려 진짜 콘텐츠의 진실을 부정하게 된다. 진짜도 가짜라고 일축할 수 있다”라고 경고했다.
사실 딥페이크에 대한 경고는 몇 년 전부터 꾸준히 제기돼 왔다. ‘딥러닝’과 ‘페이크’의 합성어인 딥페이크는 AI를 이용해 얼굴이나 음성 등을 진짜와 똑같이 조작해서 만드는 사진 파일, 동영상, 혹은 목소리를 일컫는다. AI로 교묘하게 조작한 가짜 콘텐츠는 두려움을 넘어 공포로 다가온다. 딥페이크 기술이 나날이 발전하면서 이제는 진짜와 가짜를 구분하기가 너무나도 어려워졌기 때문이다. 이에 ‘딥미디어’의 리즐 굽타 최고경영자(CEO)는 “미래에는 무엇이 진짜이고 가짜인지 구분할 수 없게 될 것”이라고 경고하기도 했다.
일례로 힐러리 클린턴 전 국무장관이 “나는 사실 론 디샌티스를 매우 좋아한다. 그는 이 나라가 필요로 하는 바로 그런 부류의 사람이다. 진심이다”라고 고백하는(?) 선거 홍보 영상을 본 사람들은 충격을 받았다. 너무 진짜 같아서 순간 클린턴이 정말로 공화당 후보를 적극 지지한다고 착각한 것이다. 물론 이는 조작된 딥페이크였다.
지난해 6월에는 트럼프 전 대통령이 전 국립알레르기·전염병연구소 소장인 앤서니 파우치 박사와 포옹하는 조작된 이미지가 유포됐는가 하면, 트럼프가 길거리에서 도망치다 경찰에 체포되는 가짜 이미지도 파장을 일으켰다.
바이든 대통령 역시 딥페이크에서 자유로울 수 없었다. 트랜스젠더들을 상대로 “당신들은 절대로 진짜 여자가 될 수 없다”고 폭언하는 가짜 영상이나, 징병제를 다시 도입해 미국인들을 우크라이나에 파병 보내겠다는 영상 역시 모두 조작된 것이었다.
더욱 심각한 문제는 딥페이크의 장벽이 빠른 속도로 낮아지고 있다는 데 있다. 누구나 쉽게 사용할 수 있을 만큼 비용이나 사용법 측면에서 접근성이 좋아졌다는 의미다. ‘챗GPT’나 ‘미드저니’ 같은, 저렴하고 직관적이며 효과적인 생성형 AI 도구들이 대거 등장하면서 정치에 영향을 미치기 위해 악용되는 사례가 빈번해지고 있다. 전 백악관 최고정보책임자(CIO) 테레사 페이튼은 “AI 알고리즘을 활용하기 위해 더 이상 프로그래머가 될 필요는 없다”고 말했다. 기술적 배경이 없어도 누구나 손쉽게 딥페이크를 만들 수 있게 됐기 때문이다.
이런 까닭에 ‘딥미디어’에 따르면, 지난해 온라인에 올라온 동영상 딥페이크는 2022년 같은 기간에 비해 세 배, 음성 딥페이크는 여덟 배나 증가했다. 이는 몇 번의 클릭만으로 몇 초 만에 진짜 같은 가짜를 만드는 것이 가능해졌기 때문이다.
저렴한 비용 역시 확장에 한몫을 했다. 가령 목소리 복제는 2022년 말까지만 해도 서버 비용과 인공지능을 훈련하는 데 1만 달러(약 1330만 원)의 비용이 들었다. 하지만 이제는 스타트업 도구를 이용하면 몇 달러에 음성 복제 서비스를 마음껏 사용할 수 있다. ‘일레븐랩스’ ‘리젬블AI’ ‘리스피처’ ‘레플리카 스튜디오’와 같은 스타트업 등이 그 예다.
‘일레븐랩스’의 경우, ‘구글’과 ‘팔란티어’ 출신인 피오트르 다브코프스키와 마티 스타니스제프스키가 설립한 스타트업으로, 기본적인 AI 오디오 생성 도구를 무료로 제공하고 있다. 구독료는 한 달에 1달러(약 1300원)에서 330달러(약 44만 원)까지 다양하며 더 정교한 서비스를 원하는 사람들은 그 이상을 지불해야 한다. 또한 ‘미드저니’나 ‘달리’와 같은 인공지능 도구 역시 60달러(약 8만 원)에 구독 가능하다.
AI 및 딥페이크 전문가이자 ‘어도비’, ‘메타’ 등의 고문인 헨리 아이더는 “시각 자료의 조작에 관해서는 많은 사람들이 포토샵에 익숙하거나 적어도 그런 가짜가 존재한다는 사실을 알고 있다”고 말했다. “하지만 오디오 파일이 어떻게 조작될 수 있는지 아는 사람은 극히 적다. 그래서 정말로 이 부분에 있어서는 취약한 상태다”라고 우려했다.
실제 텍스트를 음성으로 변환하는 AI 시장은 지난 1년에 걸쳐 폭발적으로 성장했다. 전문가들은 AI가 만든 가짜 음성이 가짜 이미지보다 진위 여부를 알아내기가 훨씬 더 어렵다고 경고한다. 이미지는 화질의 결함, 이상한 그림자, 흐릿함 또는 부자연스러운 움직임과 같이 진짜가 아니라는 점을 알려주는 시각적 지표가 여럿 있다. 반면, 오디오는 수상한 점을 쉽게 알아챌 수 없다. 수상한 점이 있다 해도 배경 소리나 음악에 묻혀 버리기 때문이다.
그렇다면 마냥 당하고만 있어야 할까. AI 기술이 발전함에 따라 세계 각국의 정부는 AI가 공공질서를 파괴하는 것을 막기 위한 대응책을 모색하고 있다. 미국의 경우, 아직까지는 선거 운동에서 AI를 사용하는 것을 막는 연방법이나 규제는 없다. 하지만 이미 13개 주가 규제 조치를 취했다는 사실은 고무적이다. 캘리포니아, 텍사스, 위스콘신, 미네소타, 미시간, 워싱턴 등이 그렇다. 이 가운데 딥페이크를 제한하기 위한 주법을 제정한 곳은 미네소타, 미시간, 워싱턴 등이다.
미네소타주의 경우 상대 후보자를 해치려는 의도로, 혹은 선거 결과에 영향을 미치려는 의도로 딥페이크를 제작하는 행위를 경범죄로 규정하고 있으며, 이 경우 90일 이하의 징역 또는 1000달러(약 130만 원) 이하의 벌금형에 처하도록 하고 있다. 미시간주는 선거 90일 전부터는 현저하게 오해를 살 만한 미디어를 배포하는 행위를 금지하고 있다. 이를 위반할 경우, 90일 이하의 징역 또는 500달러(약 70만 원) 이하의 벌금형에 처하고 있다.
소셜미디어 플랫폼 회사와 빅테크 기업도 조치를 취하기 시작했다. 지난해 11월, 페이스북과 인스타그램을 소유한 메타와 마이크로소프트는 플랫폼에 정치 홍보 영상을 업로드할 경우, AI를 사용해서 만들었는지 여부를 공개하도록 의무화할 예정이라고 발표했다. 이른바 ‘라벨링 제도’다. 구글 역시 지난해 9월에 비슷한 내용의 발표를 했다.
챗GPT를 출시하면서 업계의 판도를 바꾼 오픈AI의 샘 알트먼 CEO는 정치 분야에서만큼은 생성형 AI 사용을 제한하는 조치를 취했다. 예를 들어 이미지 생성기 ‘달리’로 특정 정치인의 이미지를 만드는 것을 금지토록 했다. 실제 트럼프와 바이든의 이미지 제작을 시도할 경우 “우리의 콘텐츠 정책을 따르지 않을 수 있다”는 메시지가 나타나면서 사용이 제한된다. 다만 마이크 펜스 부통령을 포함한 몇몇 정치인의 이미지는 그대로 사용할 수 있다.
하지만 이런 조치들이 과연 효과적으로 가짜 정보를 색출해낼 수 있을지는 의문이다. 코로나19 팬데믹(대유행) 이후 대규모 인원 감축을 시행한 탓에 인력이 부족해진 까닭이다. X(옛 트위터)는 일론 머스크에 인수된 후 임원진을 대거 해고한 바 있으며, 콘텐츠 검증 시스템을 포함한 핵심 기능 일부도 삭제했다. 한때 플랫폼에서 가짜 뉴스를 가려내는 임무를 맡았던 팀은 해체된 반면 음모론자들과 극단주의자들의 계정들은 복원됐다.
이에 대해 비영리 감시 단체인 ‘어카운터블테크’의 공동 설립자인 제시 레리히는 “트위터야말로 가장 책임감 있는 플랫폼 가운데 하나였다. 어떻게든 가짜 정보를 없애는 기능을 테스트하려는 의지를 보였다. 그러나 분명히 이제 그들은 그때와는 정확히 반대쪽에 있는 듯하다”며 아쉬워했다.
메타와 유튜브도 2020년 이후 수천 명의 직원과 계약직을 해고했으며, 이 가운데는 일부 콘텐츠 모더레이터(유해 콘텐츠를 검열하고 플랫폼을 관리하는 사람)들이 포함돼 있었다. 워싱턴대의 가짜뉴스 전문가인 케이트 스타버드는 이에 대해 “2020년보다 2024년 상황이 더 나빠질 수 있는 발판이 마련된 셈”이라며 우려를 나타냈다.
기술적인 해결책도 속속 도입될 예정이다. C2PA(콘텐츠 출처 및 진위 확인을 위한 연합)는 가짜 정보를 가려낼 수 있는 업계 표준을 개발하기로 했다. 즉, 콘텐츠의 출처와 히스토리를 인증하기 위한 기술 표준으로, 전자 장치(휴대폰, 비디오카메라)로 만든 모든 콘텐츠에 암호화 서명을 하고, 이미지를 캡처한 사람, 장소, 시간을 문서화하도록 한 것이다. 이렇게 암호화된 서명은 중앙 저장실에 보관되고, 필요한 경우 콘텐츠를 제작한 사람이 합법적으로 제작했다는 사실을 증명하는 데 사용될 수 있다.
핑거프린팅이나 워터마킹도 고려 대상이 되고 있다. 핑거프린팅은 텍스트, 오디오, 비디오 등 미디어 콘텐츠에 저작권 정보와 이를 구매한 사용자의 정보를 삽입하는 기술로, 훗날 불법 배포자를 추적하는 데 사용될 수 있다. 워터마킹은 이미지와 비디오에 디지털 워터마크를 삽입하는 것으로, 일종의 서명 역할을 한다.
AI를 이용한 가짜 정보에 대한 우려는 단순히 진위 여부를 넘어 사회 문제로 확장될 수 있다는 점에서 더욱 심각하다. 잘못된 정보를 추적하는 무당파 ‘민주주의보장동맹’의 브렛 샤퍼 선임연구원은 “만약 사람들이 궁극적으로 선거와 관련된 정보를 믿지 않게 된다면 민주주의는 작동을 멈출 것이다”라고 경고했다.
그리고 잊지 말아야 할 점은 가짜 뉴스가 진짜 뉴스보다 더 멀리 퍼져 나간다는 사실이다.
출처 없다면, 어색하다면 의심…‘포브스’의 딥페이크 식별 방법
과연 지금 보고 있는 영상이나 사진은 진짜일까, 아니면 딥페이크로 만든 가짜일까. 다음은 ‘포브스’가 밝힌 딥페이크 식별법이다.
#이상한 부분이 있는가
사진이나 동영상에서 어색하거나 이상한 부분, 혹은 어울리지 않게 삽입된 부분을 찾아라. 가령 양쪽 신발이 다르거나, 귀걸이 짝이 맞지 않거나, 턱 모양이 이상한지 확인한다. 트럼프가 체포되는 순간을 조작한 사진의 경우 손가락이 없거나 다리가 하나 더 있는 등 자세히 보면 이상한 곳이 많다.
#눈동자의 움직임을 보라
종종 딥페이크로 만든 동영상에서는 사람들이 눈을 이상하게 깜박이거나 눈동자의 움직임이 부자연스러운 경우가 많다. 눈을 한 번도 깜박이지 않거나, 반대로 너무 많이 깜박이는 경우 가짜일 확률이 높다.
#오디오 및 비디오 품질을 확인하라
많은 딥페이크 동영상은 음성과 영상이 일치하지 않는 경우가 많다. 한마디로 입술과 목소리가 부자연스럽게 따로 노는 것이다. 블라디미르 푸틴 러시아 대통령이 우크라이나와 평화를 이뤘다고 주장하는 영상에서도 목소리와 입술 모양이 일치하지 않아 가짜임이 드러났다.
#출처를 확인하라
딥페이크가 나날이 진화하고 있기 때문에 한눈에 가짜인지 알아차리는 게 점점 어려워지고 있다. 이때 진위를 식별하는 가장 확실한 방법은 출처를 확인하는 것이다. 조 바이든 대통령의 영상의 원본 출처는 반드시 백악관, 공식 정부 기관 또는 신뢰할 수 있는 뉴스 플랫폼이어야 한다.
이 밖에도 예측모델 및 분석 대회 플랫폼인 ‘캐글’은 뺨과 이마의 피부에 주목하라고 주문했다. 피부가 지나치게 매끄럽거나, 반대로 주름이 너무 많다면 이는 가짜일 확률이 높다. 또한 피부의 노화 정도가 머리카락과 눈의 노화 정도와 유사한지도 눈여겨봐야 한다.
수염이나 구레나룻이 어색한 경우도 많으며, 안경이 빛에 반사되는 모습이 자연스럽지 않은 경우도 많다. 가령 눈이 부실 정도로 반사가 심하거나, 고개를 돌릴 때 반사 각도가 변하지 않는 경우도 있다. 딥페이크는 조명의 자연스런 변화를 완벽하게 묘사하지 못하는 경우가 많다.
김민주 해외정보작가 world@ilyo.co.kr