[뉴스NOW] 전국에 퍼지는 '딥페이크' 공포...경찰 '긴급 스쿨벨' 발령

[뉴스NOW] 전국에 퍼지는 '딥페이크' 공포...경찰 '긴급 스쿨벨' 발령

2024.08.28. 오후 12:50
댓글
글자크기설정
인쇄하기
AD
■ 진행 : 정지웅 앵커
■ 출연 : 염건웅 유원대 경찰소방행정학부 교수

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스NOW] 명시해주시기 바랍니다.

[앵커]
딥페이크 성범죄에 대한 공포가 빠르게 퍼지고 있습니다.대학가와 군대, 심지어 초·중·고등학교까지 확산한 것이 알려지면서 충격을 주고 있는데요.

경찰이 대대적인 단속에 나섰지만좀 더 강력한 처벌과근본적인 문제 해결책이 필요해 보입니다.

이대로 괜찮은 건지,염건웅 유원대 경찰 소방행정학부 교수와자세한 이야기 나눠보겠습니다. 어서 오세요.

[염건웅]
안녕하세요.

[앵커]
딥페이크, 그러니까 AI 기술로 특정 인물의 얼굴을 다른 영상에 합성하는 것을 말합니다. 이 딥페이크를 이용한 성범죄로 지금 전국의 학교현장이 발칵 뒤집혔는데요. 집계된 상황은 어느 정도 수준입니까?

[염건웅]
일단 딥페이크라는 용어를 우리가 알아야 할 것 같은데요. 딥페이크라고 하는 것은 특정 인물의 얼굴 등을 인공지능 AI 기술을 접목해서 합성을 하는 겁니다. 그래서 특정 영상의 편집물이 나오게 되는 건데 이것이 영상일 수도 있고 사진일 수도 있어요. 지금 현재 논란이 되는 건 지금 최근에 굉장히 많은 피해가 발생했고 보고됐기 때문에 현황이 집계가 되고 있는데요. 최근에 보면 3년 7개월 정도 허위영상물 범죄 통계 현황을 경찰청에서 집계된 걸 보면 2021년에 156건에서 2023년에 180건이었는데 올해 상반기에만 297건, 약 300여 건 정도가 집계됐습니다. 굉장히 많이 늘고 있고요. 특히 올해 굉장히 많이 늘어난 추세가 보여지고 있는데.

지금 딥페이크 맵이라고 하는 게 인터넷에 떠 있어요. 이게 피해 학교 지도가 공개되어 있는데 여기에 표시된 학교는 545곳으로 지금 표시가 되어 있습니다. 그런데 이게 실제 집계현황인지 확인될 수 없고요. 다만 최근에 한 교원단체에서 긴급조사를 했는데 이 545곳의 피해 학교 명단 중에서 40여 곳이 일치한다고 지금 집계가 되었어요. 그리고 이런 합성물을 만들어주는, 일명 봇이라고 불리는 그런 프로그램이 있는데 이 봇의 이용자 수는 약 22만 명을 넘는다고 알려져 있습니다. 그리고 텔레그램이라는 프로그램을 이용해서 지금 딥페이크 영상들이 유포되고 있기 때문에 그 텔레그램을 이용해서 들어가서 보면 바로 대학별 겹지방, 이런 것들이 검색돼요. 3500명, 그다음에 2000명, 이런 방들이 지금 존재하고 또 예를 들어 텔레그램 딥페이크 채널이라는 건 검색하면 13만 3400여 명이 검색이 돼요. 그러니까 굉장히 많은 가입자를 갖고 있고 이들이 장기적으로 가해자이며 또 유포자가 될 수 있다는 거죠.

[앵커]
지금 저희가 성범죄 용어 보여드리고 있습니다. 지능방, 합사방, 어떻게 보면 한번 들으면 잘 이해 안 가는 용어들의 채팅방들이 있는데 이거 설명을 해 주시죠.

[염건웅]
딥페이크의 피해 대상이 누구냐면 보통은 학교 친구, 또는 선생님, 최근에는 군인까지 있어요. 그래서 아는 지인도 여기 포함되고 친인척까지 포함되는데. 그러다 보니까 아는 사람이라는 용어를 지인이라고 하잖아요. 그러니까 지능방이라는 게 있어요. 지인능욕방이라고 하고요. 합사방이라는 게 있습니다. 합성사진방이고요. 겹지방 또는 겹지인방이라고 불리는 것은 겹치는 지인방. 지인이 서로 겹친다는 얘기죠. 딥페방은 딥페이크방이라고 해서 지금 여기 딥페이크 성범죄 용어가 지금 다양하게 존재하고 있습니다.

[앵커]
지금 범죄 대상을 보자면 친구뿐만 아니라 선생님이나 아니면 가족까지도 달한다고 하고 있습니다. 심지어 경쟁까지 붙는다 이런 얘기도 있는데. 상상이 안 가는데 대체 어떤 심리로 이런 걸 하는 걸까요?

[염건웅]
일단은 여기 지금 대다수가 10대가 가해자예요. 그러니까 아까 제가 잠깐 통계 말씀드렸지만 2023년 통계 중 297건이 허위영상물 범죄 통계로 잡혔는데 이 중에 10대 청소년들이 범죄의 중심에 있다는 의미의 통계가 나옵니다. 그러니까 1월부터 7월까지 해당 범죄 관련 피의자 178명 가운데 131명, 73.6%가 10대였습니다. 그러니까 가해자의 70%가 넘는 비율로 지금 10대가 이것을 만들고 유포하고 있다고 보시면 될 것 같아요. 그러다 보니까 10대들이 주로 가해자로 존재하는 딥페이크 영상물 성범죄에 어떤 10대들의 심리가 작용하나, 이런 것들이 우리가 궁금할 수밖에 없는데요.

텔레그램을 사용하기 때문에 이게 보안성과 익명성을 바탕으로 하고 있단 말이에요. 그러니까 일종의 보호막을 형성해서 여기서 안심하게 되죠. 나는 걸리지 않을 것이다라는 그런 안심을 갖게 되고. 그다음에 이것을 시청하거나 소지하면 처벌대상이 아니에요. 10대들도 이걸 잘 알고 있고요. 이건 시청해 봤자 처벌대상 아니기 때문에 이거 보는 게 뭐가 문제 있겠어. 그리고 또 이런 심리가 특히 있죠. 이게 사람의 직접적인 온몸을 찍는 게 아니라 얼굴하고 다른 몸을 합성하는 거잖아요. 그러다 보니까 이게 실제 사람이라고 생각을 안 해 버리는 거예요. 실제 현존하는 인물이라고 생각하지 않고 약간 이걸 장난이다라고 단순 장난이나 흥미유발 차원에서 이런 것들을 접하게 되고.

[앵커]
범죄가 아니라 장난이라 생각한다는 거죠?

[염건웅]
그렇죠. 범죄라고 생각을 사실 거의 안 하고 여기 딥페이크에 발을 들여놓게 된다고 보시면 될 것 같아요. 그러니까 이게 재미나 흥미를 위해서 여기 가입조건도 보면 자기들끼리 게임도 해요. 게임을 해서 여기에다가 자기들끼리 지는 사람은 자기 지인의 연락처를 올리게 한다든지, 이런 식으로 게임까지 하고 내기도 하고. 이런 것들을 보면 결국 재미나 흥미를 위해서 참여를 하고 이것이 유행처럼 번지고 있다고 보시면 될 것 같은데 특히나 10대들은 아직까지는 자아가 제대로 형성되지 않았기 때문에 호기심에 대해서 이걸 통제하는 부분이 조금 부족해요. 그러니까 남들에게 관심이나 주목을 받기 위한 그런 연령대이기도 하거든요. 그래서 이런 것들을 현재 방치하고 있는 상태나 마찬가지다. 그러다 보니까 10대들에게 이것이 일종의 유행처럼 번지고 이것이 범죄라는 인식도 하지 못하기 때문에 이런 문제점들이 발생한다고 볼 수 있습니다.

[앵커]
그러면 지금 이 시기에 해외에서도 이런 범죄가 빈번한지 궁금하고. 만약에 있다면 우리랑 비교했을 때 어느 정도 수준입니까?

[염건웅]
해외도 텔레그램이 매개체거든요. 텔레그램이 문제가 뭐냐 하면 여기가 불법의 온상이에요. 범죄의 온상. 그래서 여기 텔레그램에서 보면 지금 미국이나 홍콩, 브라질, 독일 같은 경우도 이 모든 텔레그램을 규제하고자 하는 움직임들이 계속 있어요. 예를 들어 텔레그램, 이전에도 이런 불법 성범죄 유통물들을 올리는 유사한 플랫폼들이 있었거든요. 이게 뭐냐 하면 텀블러라는 플랫폼도 있었고요. 그다음에 최근에 디스코드라는 것도 있기는 한데 이런 것들은 문제가 됐을 때 미국 정부에서는 이걸 원천적으로 다운로드를 차단하는 방법을 모색했고요.

그다음에 애플 클라우드를 사용했을 때 이런 것들을 테러리스트들이 사용을 했더니 이런 것들을 원천 차단하기 위해서 이스라엘 업체를 이용해서 해결하는 경우도 있었고 홍콩 같은 경우는 2020년에 보안법이 제정됐는데 해외 사이트를 전부 차단하겠다, 이렇게 지금 추진하고 있는데 반대의 논리도 있기는 해요. 이게 표현의 자유를 침해하는 부분도 있기 때문에. 그리고 브라질 같은 경우와 독일 같은 경우는 지금 강력하게 벌금을 부과하는 방안을 시행하고 있고요.

그다음에 독일 같은 경우에는 EU 연합을 중심으로 해서 텔레그램을 규제하자는 방안을 논의 중인데. 중요한 거 하나 말씀드리면 지금 현재 사이버방지협약이라는 게 만들어졌습니다. 이게 전 세계 UN에서 이번에 통과가 됐어요. 만장일치로 통과됐는데 우리나라는 아직 가입이 안 되어 있거든요. 여기 가입을 빨리 해야만 기술지원이라든지 공조나 협조, 국제적인 지원을 받을 수 있기 때문에 빨리 가입을 해야 할 것 같습니다.

[앵커]
이런 딥페이크 앱에 누구나 쉽게 접근이 가능한 것도 문제가 될 것 같은데요. 저희가 어제 저희 프로그램에서 이 관련한 실험 같은 걸 해 봤습니다. 저희가 직접 보여드리겠습니다. 이 화면 보시면 왼쪽이 원본 영상이고요. 오른쪽이 저희 회사 뉴스앵커의 얼굴인데요. 보시는 것처럼 이게 합성영상이 아니라 마치 실제로 찍은 영상처럼 상당히 생생하거든요. 수준이 이 정도까지 높게 올라온 거죠?

[염건웅]
과거에 우리가 합성영상이라고 하면 사실 얼굴과 몸통이 다르게 보이거든요. 그리고 목 부분 같은 경우도 특히나 이음새가 보였어요. 그런데 지금은 합성을 해도 이게 그냥 한 사람으로 보이는 거예요. 이 사람이 하는 행동이라든지 이 사람의 모습으로 보이기 때문에 이것이 전문가가 봐도 이걸 합성물이라고 구별하기 굉장히 어렵습니다. 이건 영상분석을 정밀하게 해야지 구별할까 말까거든요. 그러니까 일반인이 봤을 때는 합성 딥페이크 영상 같은 경우는 거의 구별하기 어렵다. 그러면 결국 이 딥페이크 영상들이 돌아다니게 되면 내가 어느 순간 어디에서 내 영상이 돌아다닐 수 있다는 거잖아요. 제가 성착취 대상이 돼서 영상이 돌아다닌다는 두려움과 불안감이 들 것이고 또 반대로 말하면 내가 아는 사람들이 보통 이 성착취물들을 유포하는 가해자, 또는 만드는 사람들이기 때문에 내가 친한 지인이 범인이다, 가해자다, 이런 생각 때문에 굉장히 괴로움과 고통을 받을 수밖에 없는 거죠.

[앵커]
저희가 일종의 유명인도 저희가 합성하는 실험을 한번 해 봤는데요. 저희가 추가로 보여드리도록 하겠습니다. AI 관련된 전문가분이 어제 저희 오후 뉴스에 나오셨는데 지금 왼쪽에 영상이 있는데요. 왼쪽에 누구인지 아마 많은 분들은 아실 겁니다. 얼굴만 보시면 일론 머스크 얼굴입니다. 그 얼굴을 오른쪽에 계신 전문가분의 얼굴 이외의 부분과 합성을 한 건데요. 지금 조금 끊기듯이 보이기는 하는데 이게 만약에 사진이라고 생각하면 일론 머스크가 말을 하는 것처럼 보이지 않습니까?

[염건웅]
저는 왼쪽 사진을 먼저 봤거든요. 그래서 YTN하고 일론 머스크가 인터뷰를 했나 착각을 했었어요. 그런데 오른쪽을 보니까 전문가가 하는 행동이 왼쪽하고 똑같잖아요. 그러면 전문가가 지금 일론 머스크가 된 거잖아요. 왼쪽 사진만 누구에게 보여줬으면, 예를 들어 SNS로나에게 지금 영상이 왔다고 하면서 하면 일론 머스크가 저한테 말을 시킨다고 착각할 것 같아요.

[앵커]
이렇게 누구나 쉽게 접근을 해서 앱을 활용할 수 있다는 게 범죄의 또 다른 방법으로도 많이 악용될 수 있지 않습니까?

[염건웅]
아까 텔레그램이라든지 이런 걸 사용했을 때 지금 당연히 딥페이크 범죄를 말씀드리고 있지만 보이스피싱 범죄라든지 다른 범죄에도 활용되고 있어요. 특히 마약 범죄에도 활용이 되고 있고요. 심지어는 텔레그램 같은 경우에 지금 극단주의 하마스라는 테러 단체가 있거든요. 이들이 이스라엘을 공격할 때라든지 테러를 저지를 때도 텔레그램을 활용합니다. 그러다 보니까 각종 테러단체 또 범죄단체 모든 이런 불법적이고 범법을 저지르는 집단들이 다 텔레그램을 이용해서 지금 이런 것들을 소통하고 여기에 영상물들이라든지 게시물들을 올리고 있다라는 문제가 있고 그런데 텔레그램의 문제가 뭐냐 하면 국내법상 최근에는 이런 통신보호법 관련해서 국내법으로 압수수색 영장을 받아서 범죄 혐의점이 있으면 메신저라든지 온라인 서비스를 조사를 할 수 있어요. 그런데 텔레그램 같은 경우는 해외에 서버를 갖고 있는 업체이다 보니까 수사 협조가 안 된다는 문제가 있죠.

[앵커]
서울경찰청이 어제입니다. 긴급스쿨벨이라는 걸 발령했다고 하는데 이건 어떤 제도죠?

[염건웅]
일단 학교, 학부모들에게 주의 대응 등급을 부여해서 이 알리미를 통해서 알려주는 제도인데요. 청소년과 관련한 중요 이슈가 발견되면 이런 것들을 알리미를 통해서 알려주는데 실시간 전파하는 거고요. 그다음에 이게 올해 들어 두 번째 발령된 것입니다. 그래서 특히나 굉장히 딥페이크 성범죄가 올해 들어 증가했고 지금 굉장히 심각한 상황이기 때문에 지금 긴급 스쿨벨을 발령했습니다.

[앵커]
일부 보도를 보면 피해자들의 부모님들이 아니라 가해자들의 부모들이 디지털 장의사라고 하죠. 인터넷에 돌아다니는 영상을 지워달라는 요청을 계속해서 한다고 해요. 이게 뭔가 뒤바뀐 것 같아요.

[염건웅]
그러니까 지금 맘카페에서 난리가 났어요. 맘카페에 이런 영상 올린 걸 빨리 지우라고 독려를 하고 있고 그다음에 디지털 장의사 쪽에서도 인터뷰한 내용을 보면 하루에 몇 건 올까 말까 했는데 지금 몇십 건씩 오고 있다. 그런데 뭔가 봤더니 가해자들 쪽에서 영상을 지워달라 그러더라고 해서 그런 내용들이 지금 있더라고요.

[앵커]
이렇게 의뢰를 하게 되면 그 영상 완벽하게 삭제할 수 있습니까?

[염건웅]
삭제가 가능하죠. 왜냐하면 텔레그램은 지워버리면 서버에서 못 찾습니다.

[앵커]
누가 영상을 다운받아서 그냥 가지고 있을 가능성도 충분히 있죠?

[염건웅]
이 영상이 한 건이 돌게 되면 1개가 촬영되면 유포는 최소 2만 개에서 3만 개가 돼요. 그러니까 무슨 얘기냐면 한 번 돌면 몇만 건의 영상이 이미 돌아다닌다고 보시면 될 것 같아요. 그래서 딥페이크가 무서운 거거든요. 그러니까 한 건이 돌아다녔는데 몇만 건이 돌아다닌다? 결국 찾아서 찾아서 찾아서 지운다고 해도 어느 곳에인가 남아 있을 가능성이 있다는 거죠.

[앵커]
지금 누구나 피해자가 될 수 있는 상황인 것 같은데 그러면 가장 좋은 예방법은 SNS에 있는 제 사진을 다 내리는 것밖에 없습니까?

[염건웅]
그렇죠. 일단은 현재로써는 방법은 SNS라든지 인스타그램이라든지 블로그에 올라온 자신의 사진들을 삭제하는 게 가장 좋고요. 여의치 않다면 비공개할 수 있거든요. 비공개를 해서 이런 사진들이 범죄에 악용되지 않도록 하시는 것이 가장 좋은 방법일 것 같습니다.

[앵커]
기술은 이제 하루가 다르게 발전하고 있는데 윤리나 법률 같은 차원에서의 수준은 이를 쫓아가지 못하고 있는 것 같습니다.

더 이상 소 잃고 외양간 고치지 않도록 대책이 시급한 것 같습니다.

여기까지 듣겠습니다.

염건웅 유원대 교수와 함께했습니다. 고맙습니다.






※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
2024 YTN 서울투어마라톤 (2024년 10월 5일)