똑닮은 손석구 아역·부활한 송해…진짜 같은 가짜 괜찮을까?

bet38 아바타


넷플릭스 ‘살인자ㅇ난감’ 속 손석구와 그의 아역 /사진=넷플릭스, X 캡처

“손석구 아역 너무 똑같아서 놀랐어요”, “감독이 보자마자 ‘이거지!’ 소리쳤을 듯.”

넷플릭스 시리즈 ‘살인자ㅇ난감’에 등장한 손석구 아역이 놀라운 싱크로율로 화제를 모았다. 쌍꺼풀 없는 눈에 날렵한 입매까지 손석구의 실제 어린 시절 모습과 똑 닮아 시청자들의 감탄이 쏟아졌다. “손석구 친척 아니냐”는 반응까지 나올 정도였다.

하지만 이는 인공지능(AI) 기술을 적용해 구현해낸 딥페이크였다. ‘살인자ㅇ난감’의 이창희 감독에 따르면 손석구의 어린 시절 사진을 수집해 2D를 3D로 변환하는 이미지 모델링 작업을 거쳤고, 이를 실존하는 아역 강지석 배우의 연기와 합성했다. 그렇게 손석구와 똑 닮은, 현실에는 존재하지 않는 아역이 탄생했다.

콘텐츠 업계에서는 이미 딥페이크 기술이 꽤 빈번하게 활용되고 있다. 최근 JTBC 드라마 ‘웰컴투삼달리’에서는 주연 배우들의 어린 시절이 그려지면서 과거 ‘전국노래자랑’ 진행자였던 송해가 딥페이크 기술로 부활해 등장했다. 움직임에는 다소 어색한 면이 있었지만, 예전 모습 그대로 회상신을 재현해낼 수 있었다. 이 밖에도 디즈니플러스 시리즈 ‘카지노’에서는 30대의 최민식이, 광고에서는 20대의 윤여정이 나타나 놀라움을 안겼다.

드라마 '웰컴투삼달리'·'카지노'·TV 광고에서 각각 딥페이크를 활용한 사례 /사진=JTBC, 디즈니플러스, KB라이프생명 제공

드라마 ‘웰컴투삼달리’·’카지노’·TV 광고에서 각각 딥페이크를 활용한 사례 /사진=JTBC, 디즈니플러스, KB라이프생명 제공

반응은 나쁘지 않다. ‘살인자ㅇ난감’ 시청자 A씨는 “보면서 딥페이크라고 생각하지 못했다. 사실을 알고 나서 놀라긴 했지만 안 닮은 얼굴이 나와서 몰입을 깨는 것보다는 훨씬 좋은 방법이라고 본다”고 말했다. 업계 관계자 또한 “닮은꼴 아역을 섭외하거나 배우가 다른 나이대를 연기하기 위해 분장 혹은 컴퓨터 그래픽으로 얼굴을 만들어내는 데는 표현적인 한계가 있다. 딥페이크는 정교함을 높이기 위한 시간과 비용이 많이 들긴 하지만 짧은 분량에는 더 효과적일 수 있다”고 전했다.

외모뿐만 아니라 목소리를 되살리는 것도 가능하다. 영화 ‘탑 건: 매버릭’에서는 발 킬머가 인후암 투병으로 목소리가 나오지 않자 AI에 과거 배우의 목소리를 학습시켜 음성을 복제하는 기술을 썼다. 디즈니플러스 ‘만달로리안’에서는 마크 해밀의 젊은 시절 목소리가 등장하기도 했다.

일상에는 더욱 깊숙이 파고든 상태다. 생성형 AI를 하나의 놀이처럼 이용하는 문화도 빠르게 퍼졌다. 대표적인 게 사회관계망서비스(SNS)상에서 인기를 끌고 있는 ‘AI 커버 곡’이다. 유명 가수들의 목소리를 AI에 학습시켜 이를 통해 다른 가수의 노래를 커버하는 콘텐츠를 만드는 식이다. 브루노 마스·임재범 등이 뉴진스의 ‘하입 보이’를 부르는 영상에 “신선하다”는 반응이 이어졌지만, 저작권 침해라는 업계의 주장과 충돌하고 있다.

당사자의 동의 없는 콘텐츠 제작도 문제점으로 부각되고 있다. 그룹 엑소 백현이 태연의 ‘To. X’를 부르고, 장기하가 작사·작곡한 ‘밤양갱’을 아이유가 불렀다는 식의 ‘AI 커버 곡’이 SNS상에서 화제가 되고 있다. 실제 가수들과는 전혀 무관한 콘텐츠이지만 ‘전 연인이 부르는’ 식의 키워드와 함께 퍼지며 의도치 않은 상황이 펼쳐지게 된 셈이다. 한 가요 관계자는 “원저작권자들의 동의 없이 콘텐츠를 무한대로 재생산해내고 있다. 이미 놀이처럼 즐기는 분위기가 된 데다가 이를 제지할 수 있는 마땅한 방법도 없는 상황”이라고 토로했다.

인기 못지 않게 부작용도 발생해 국내외로 규제의 목소리가 높아지고 있다. 기술력이 정교해져 진짜와 가짜의 구분이 불분명해진 탓에 관련 범죄가 급증하고 있기 때문이다.

지난달 미국에서는 팝스타 테일러 스위프트의 사진을 합성한 딥페이크 음란 이미지가 엑스(X·옛 트위터) 등에서 확산해 논란이 됐다. 국내도 마찬가지다. 올해 초 조인성·송혜교 얼굴과 음성으로 딥페이크를 만들어 투자를 권유하는 사기 범죄가 발생하기도 했고, 심지어는 윤석열 대통령의 모습을 담은 딥페이크 영상이 퍼져 경찰이 수사에 착수했다.

윤석열 대통령 모습이 등장하는 딥페이크 영상 /사진=틱톡 캡처

윤석열 대통령 모습이 등장하는 딥페이크 영상 /사진=틱톡 캡처

특히 총선을 앞두고 딥페이크의 위험성이 더 강조되고 있다. 공직선거법 개정으로 지난달 29일부터 딥페이크를 활용한 선거운동이 원천 금지됐다. 그런데도 지난달 29일부터 이달 16일 사이 딥페이크를 활용한 선거 운동 행위로 공직선거법을 위반한 사례가 129건으로 집계됐다.

김명주 서울여자대학교 정보보호학과 교수(바른AI연구센터장)는 한경닷컴에 “규제는 어쩔 수 없이 해야 하지만 그것만으로 모든 걸 해결할 수는 없다. 딥페이크 동영상을 만들어 외국 사이트를 통해 돌린다면 책임자를 찾는 게 쉽지 않다”고 말했다.

이어 “초반에는 선관위 단속 때문에 소강상태가 될 테지만 선거 직전에 활성화하는 게 문제다. 원인을 찾는 데 시간이 드는 데다가 자칫 원인도 규명하지 못하고 끝날 수 있기 때문에 규제를 갖고 움직이는 입장에서는 조심할 거고, 만드는 사람은 마구 만들어낼 것”이라고 덧붙였다.

현재 딥페이크로 인한 피해 예방책으로 가장 주목받고 있는 건 ‘자율 규제’다. 국내외 플랫폼 사업자들이 자체적으로 허위 정보에 대응하도록 하는 것이다. 페이스북 모회사 메타, 구글, 챗GPT 개발사 오픈AI 등이 AI로 만든 콘텐츠에 이를 알리는 라벨이나 워터마크를 부착하겠다는 방침을 밝혔다. 국내 플랫폼들도 비슷한 방안을 고심 중이다.

김 교수는 “우리나라는 아직 유럽연합이나 미국의 행정명령에 준하는 규제조차도 없다. 완전 자율적이다. 그나마 선거에서는 쓰지 말아야 한다는 게 처음으로 나온 규제다. 법은 사건이 발생해야 하는 거고, 범죄도 법에서 규정하는 조건대로 발생해야만 처벌할 수 있다. 법은 후속적이고 엄격한 것”이라며 ‘AI 윤리’에 대해 강조했다.

그는 “표현의 도구로써 딥페이크 기술 자체가 나쁜 건 아니다. 쓰는 용도, 사람에 따라 창의적으로 도움이 되도록 쓸 수 있다”면서 “AI 시대에서는 윤리와 양심이 개발자뿐만 아니라 이용자한테도 필요하다. AI 기술을 정확하게 알고, 바르게 쓰는 방법에 대한 고민과 논의를 할 시점이다. 아울러 교육도 같이 이뤄져야 한다”고 생각을 밝혔다.

김수영 한경닷컴 기자 swimmingk@hankyung.com

Tagged in :

bet38 아바타

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다