[이슈ON] "혹시 우리 학교도?"...딥페이크 성범죄 명단 '발칵'

[이슈ON] "혹시 우리 학교도?"...딥페이크 성범죄 명단 '발칵'

2024.08.27. 오후 5:07
댓글
글자크기설정
인쇄하기
AD
■ 진행 : 김영수 앵커, 이하린 앵커
■ 출연 : 김덕진 IT커뮤니케이션연구소장

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스ON] 명시해주시기 바랍니다.

[앵커]
다른 사람의 얼굴을 음란물에 합성하는'딥페이크 성범죄' 피해가 무차별적으로 번지고 있습니다.

대학은 물론이고 초중고등학교에서도성범죄물 피해가 발생한 것으로 알려지면서충격을 주고 있습니다. 전문가와 함께 관련 내용 자세히 짚어보겠습니다. 김덕진 IT커뮤니케이션연구소장 스튜디오에모셨습니다. 어서 오세요.

[김덕진]
안녕하세요. 반갑습니다.

[앵커]
소장님, 지금 굉장히 심각한 상황이라고 들었습니다. 우리나라 전체에 퍼져 있는 상황이라서 자세히 짚어보겠습니다. 먼저 딥페이크 어떤 뜻입니까?

[김덕진]
두 단어의 합성어죠. 딥러닝 얘기할 때 AI 얘기고 페이크, 속이다. AI 기술을 갖고 속인다라고 보시면 될 것 같은데. 어떤 식으로 많이 속이냐면 사람들의 얼굴을 바꾸는 일종의 페이스 스와핑이라고 하거든요. 얼굴을 바꾼다거나 또 최근에는 생성형 AI 챗GPT 같은 것들이 좋아지다 보니까 예전에는 그래픽으로 바꿔야 되는 걸 요즘에 글자만 쓰면 그림이 그려진다든지 이런 것들이 있거든요. 그래서 기존에 있었던 이미지랑 또 이런 생성형 기술을 합쳐서 악용하는 이런 사례들까지 있어서 명확하게 딥페이크라는 말 자체는 그런 악용되는 부작용에 대한 용어는 아닌데 이게 그런 것들이 많다 보니까 요즘에는 그냥 딥페이크라고 말하면 마치 우리가 악용되는 기술이 통용이 되니까 용어가 돼버렸다, 이렇게 말씀드릴 수 있을 것 같습니다.

[앵커]
악용되는 기술 말씀하셨는데 성범죄에 악용되고 있잖아요. 어떻게 이용하는 건가요?

[김덕진]
실제로 한 대학에서 여학생의 얼굴을 음란물에 합성을 해서 이거를 이른바 딥페이크로 유포를 하는데 이걸 어디에 하느냐? 텔레그램 대화방에 유포하다 보니까 파장이 일고 있는 거죠. 예전에 이런 거 만들 때 최소 몇십 분, 혹은 만들 때도 예를 들면 피해자가 되는 사람의 이미지를 수십장을 쓰면 됐었는데 이제는 한 장, 두 장이면 금방 뚝딱하고 만들어지거든요. 그렇게 되다 보니까 너무 쉽고 그리고 만들어지면 만든 사람도 신기하고 이렇게 되니까 이거를 퍼뜨릴 수 있는 채널인 익명성 있는 텔레그램에 퍼뜨리니까 이게 계속적으로 문제가 커지고 있다 이렇게 말씀드릴 수 있겠습니다.

[앵커]
얼마나 쉽게 만들 수 있는 겁니까?

[김덕진]
직접 보여드리는 게 좋을 것 같아서 앵커님의 사진을 하나를 받았어요. 그래서 실제로 여기에 앵커의 사진이 있는데 이 앵커의 사진을...

[앵커]
소장님의 휴대폰을 화면으로 연결했습니다.

[김덕진]
이렇게 휴대폰을 연결하고 이 부분에서 제가 앱을 설치해서 실제 이거는 앵커님이 아니잖아요. 그런데 앵커님이 아닌 것을 제가 여기다가 한번 눌러서 얘한테 앵커님의 사진을 넣었어요. 그럼 얘가 지금 뭔가 실행이 되고 있죠. 보시면 밑에 프로그레싱 해서 18% , 20% 실시간으로 하고 있는 건데 다 됐습니다.

[앵커]
제 얼굴이 들어갔네요.

[김덕진]
아까는 아니었잖아요. 그런데 아까 보면 저렇게 진짜 사진 찍으신 것처럼. [앵커] 10초 정도 걸린 것 같아요.

[김덕진]
그렇습니다. 이런 것들이 어떻게 되는 거냐면 일반 앱에서 다른 인플루언서들 영상이나 예를 들면 춤추는 영상이 있을 수 있잖아요. 거기에 제가 사진 한 장 넣었죠. 그런데 그 사진 한 장도 보시는 것처럼 그냥 이미지에서 얼굴을 골라준 게 아니라...

[앵커]
증명사진을 넣었는데 온갖 표정이 다 나와요.

[김덕진]
AI가 사진 골라서 10초 안에 나오는 겁니다. 제가 다운을 받으면 동영상 파일로 저장이 되거든요. 그걸 제가 메신저에 보내면 누가 한 건지 모르는 이런 기술들이 나오니까 우리가 예전에는 이런 거 하려면 말씀하신 대로 복잡한 프로그래밍도 있어야 하고 코드도 있어야 되는데 앱 설치하고 사진 하나 넣고 10초면 이렇게 나온다, 그러면 이제 이걸 갖고 어떻게 활용을 할 것이냐. 악용을 할 것이나 고민이 될 수밖에 없는 상황이다라고 말씀드릴 수 있을 것 같습니다.

[앵커]
10초에 저렇게 만들 수 있다면 초등학생도 만들려면 저 앱만 있으면 만들 수 있습니까?

[김덕진]
요즘에는 앱뿐만 아니라 여러 가지 서비스를 통해서 다 가능하죠.

[앵커]
어떤 서비스로 가능해요?

[김덕진]
예를 들면 제일 문제가 되고 있는 텔레그램을 통해서인데요. 예를 들면 텔레그램을 통해서만 그러면 텔레그램 자체가 이걸 하느냐라고 생각할 수 있는데 그건 아니고요. 정확하게 표현을 드리면 보통 이런 것들을 할 때는 이른바 오픈소스 기반의 프로그래밍 코드가 있습니다. 그런데 그 코드를 어떠한 컴퓨터나 아니면 클라우드 서버에 설치해야 돼요. 그런데 설치를 한 것을 일반 사람들이 쓰긴 어렵잖아요. 그럼 어떻게 해야 되느냐. 이 메신저랑 AI 챗봇을 통해서 연동을 할 수 있습니다. 그럼 어떻게 되느냐?

사용자들이 아까 그런 앱처럼 이 메신저에다가 사진을 올리는 거예요. 그럼 이런 서비스가 되어 있는 대화방에. 그러면 사진을 올리게 되면 그걸 받은 사람이 아까 그런 프로그램을 대신 실행시켜주는 겁니다. 실행을 시켜줘서 결과가 나오는데 중요한 건 이렇게 할 때 컴퓨터의 자원을 쓰거든요. 그러다 보니까 방을 만든 사람이 대부분 돈을 요구해요. 예를 들면 얼마를 내면 이렇게 해준다라는 거예요. 그런데 그렇게 하면서 또 나쁜 게 그걸 홍보를 해야 되는데 학생들이 돈이 없잖아요. 그러니까 너네가 이 방을 홍보해 주면 쉽게 말해서 크레딧을 주는 거예요. 그렇게 치면 그 사람들이 돈을 내지 않고도 몇 개 이렇게 만들 수 있는 거니까.

[앵커]
카톡방을 보여주고 있는데 텔레그램 방인가요?

[김덕진]
저거 같은 경우는 기본적으로 지금 나오는 게 텔레그램이고요. 저런 데 보시면 피해를 받으신 분들이 저렇게 영상 찍은 적이 없는데라는 얘기가 나오는 겁니다. 저게 예를 들면 지인이나 아는 사람, 이런 사람들 방에다 올려서 기본적으로 만든 거를 서로 공유하는데. 이게 또 요즘에 이슈가 되는 게 그게 결국 진짜 있는 사람을 가지고 만든 거잖아요. 그러면 그 사람의 연락처나 이런 걸 지인들이 알고 있지 않습니까? 그러면 그거까지 같이 공유를 해서 정말 나쁜 이야기지만 대화방에서 서로가 어떻게 보면 합성한 영상을 보고 그리고 그 사람의 연락처나 이런 걸 공유하면서 나쁜 얘기들을 하는 거예요.

그러다 보니까 그중에서 어떤 사람이 실제 보시는 것처럼 실제 있는 인물한테 그런 거 찍으셨나요 이렇게 하면서 장난으로 메시지를 보내고. 이런 게 현상으로 나오니까 결국에는 텔레그램이라고 하는 걸 기반으로 해서 되게 쉬운 거죠. 왜냐하면 기존에 있었던 외부서비스들은 쓰게 되면 기록이 남잖아요. 그리고 내가 회원가입을 해서 들어갔다는 게 남는데 저 텔레그램 자체는 기본적으로 보안성이나 익명성에 있어서 좀 어느 정도의 특징을 보이다 보니까 결국 저 안에서 만드는 게 불편하더라도 말씀드린 것처럼, 그러니까 일반 서비스에서 클릭하는 것보다 불편하지 않으니까 내 신분이 드러나지 않으니까 저렇게 요청을 하고 받고 그걸 가지고 대화방을 만드는 형태로 진화하고 있습니다.

[앵커]
기술이 얼마나 정교한지 소장님께서 화상으로 생방송하면서 일론 머스크 얼굴을 합성하는 경우가 있었잖아요. 저희가 그런 그림을 보면서 설명을 드리도록 하겠습니다. 이 영상인데요. 소장님이시고요. 일론 머스크 얼굴이 합성되는 거죠.

[김덕진]
방금 제가 컴퓨터에서 하고 온 건데요. 지금 보시는 것처럼 저 위에 일론 머스크 사진 한 장만 넣은 거예요.

[앵커]
웃고 있고 손을 흔들고요.

[김덕진]
저입니다. 그러니까 제가 지금 저희 회사에 있는 컴퓨터에서 카메라로 찍어서 저렇게 한 건데 저거 어떻게 하는 거냐면 말씀드린 대로 온라인에 있는 소스를 받아서 컴퓨터에 설치를 한 다음에 저렇게만 하면 되는 거예요.

[앵커]
프로그램 다운로드만 받으면 되는 거군요.

[김덕진]
기본적으로 어느 정도 개발지식이 있어야 하는데 기초적인 지식만 한두 달 정도 코딩을 배운 사람들이라면 저렇게 설치를 해서 할 수 있는 겁니다. 그렇게 해서 저렇게 하면 저 같은 경우 끊기잖아요. 왜 끊기냐면 제 컴퓨터의 이른바 GPU가 안 좋아서 그러는데. 예를 들어서 제 컴퓨터가 고성능 컴퓨터면 저게 제가 얘기하는 것처럼 실시간으로 나와요.

[앵커]
다른 사기에도 활용되겠네요.

[김덕진]
저렇게 한 다음에... 그래서 최근에 보시면 이슈가 되는 게 바로 저런 거라고 생각하시면 될 것 같습니다.

[앵커]
급속도로 발전할 것 같은데요.

[김덕진]
맞습니다. 제가 이런 얘기를 드리는 게 기술의 변곡점들이 몇 번 있었어요. 우리가 말하는 알파고가 나왔던 2016년에 딥러닝이라는 게 그때부터 발전이 됐고요. 그다음에 최근에 챗GPT라고 하는 녀석이 2022년 12월에 나오고 나서 생성형 AI 기술이 계속적으로 진화할 때 이때 기술의 변곡점이 있었습니다. 이게 어떻게 다르냐면 처음에는 이런 것들을 이미지를 여러 장을 빠르게 학습을 해서 그걸 기반으로 합성을 하는 거에 가까웠거든요.

그런데 최근에 나오는 생성형 이미지들, 특히나 얼굴을 넣었을 때 이 얼굴에다가 안타깝지만 나체 사진이 만들어지는. 이런 것 같은 경우 구조적으로 설명드리면 정확하게 말하면 이게 합성이 아니라 몸을 그려내는 거예요, AI가. 그래서 제가 이미지를 넣게 되면 그 이미지에서 아까 보신 것처럼 자동으로 얼굴만 딱 뽑아요. 그리고 몸에 있는 구조를 체크를 합니다.

그리고 예를 들면 쇼핑몰에서 좋게 쓰는 기능에서 어떻게 쓰냐면 옷을 바꾸거나 아니면 실제로 한 사람의 모델이 입은 것을 모델을 바꾸거나 이런 것들이 최근에 되게 편해졌어요. 버튼만 몇 번 누르면 돼요. 그런데 그런 것들을 악용하면 반대로 얘기한 대로 옷을 입고 있는 게 아니라 옷을 벗고 있는 것 같은 그림도 아까 보신 것처럼 몇 초 안에 만들어지는 겁니다. 그러면 그렇게 했을 때 그게 아무리 가짜더라도 실제 사람의 얼굴을, 특히나 내 지인들을 얼굴을 하고 있는 모습이 가짜의 몸을 가지고 나온 것이 공유된다. 그러면 당연히 그 사람과 주변에 아주 큰 파장을 일으킬 수밖에 없다, 이렇게 말씀드릴 수 있는 것이죠.

[앵커]
그렇다면 저렇게 누구든지 활용을 해서 범죄에 이용한다. 특히 초등학생도 할 수 있다. 실제로 초등학교에서 이런 피해를 입은 학생들이 엄청 늘고 있다던데요.

[김덕진]
참 안타까운 얘기죠. 왜냐하면...

[앵커]
학교 명단도 돌고 있대요.

[김덕진]
이번에 어떤 이유 때문에 그러냐면 말씀하신 대로 텔레그램에서 범죄자들을 수사를 통해서 잡았는데 그들이 들어간 방들이 있을 거잖아요. 그 방들을 봤더니 이게 생각보다 아주 대규모고 구체화되어 있다는 거예요. 그래서 특정 학교 방, 아니면 특정 이런 그룹방 이런 것들이 있으니까 그걸 방을 보고 이런 게 있어? 그러면 이거에 대해서 우리가 고민을 하는 이런 상황이라고 보시면 될 것 같고요. 그래서 예를 들면 그런 데 심지어 몇천 명이 들어가 있는 방이 있다 보니까 역으로 거기에서 영상이 나왔다 그러면 몇천 명이 이걸 볼 수 있는 상황이 되니 당연히 지금 대학생들뿐만 아니라 특히나 초중고 학부모분들이 두려움에 떨고 있는 상황이라고 말씀드릴 수 있습니다.

[앵커]
방의 이름이 지능방, 겹지인방 이런 채널이라고 하던데 무슨 뜻인가요?

[김덕진]
이것도 안타까운 얘기인데 겹지인방이라는 얘기가 예를 들면 두 사람이 있잖아요. 그런데 이 사람과 이 사람의 같은 지인이라는 거예요. A라는 사람의 지인, B라는 사람의 지인. 그래서 이 겹치는 지인에 대한 정보를 이 두 명은 알 거잖아요. 이 두 명의 정보를 합치고 이미지를 합쳐서 이 한 사람 것을 같이 만드는 거예요. 그렇게 되면 그 부분에 있어서 이슈가 되는 거죠. 결국에는 이게 다른 사람들을 계속 초대할 때도 아는 사람이 있는 사람들만 초대하니까 서로 간에 비밀로 만드는 이런 구조들까지 나올 수 있다고 말씀드릴 수 있습니다.

[앵커]
지금 성범죄 피의자 연령대를 보니까 10대, 20대가 다수네요. 특히 10대가 70%가 넘네요.

[김덕진]
그런데 이게 생각해 보면 그럴 수밖에 없는 게 새로운 기술이 나오고 그런 기술에 대해서 검색이나 여러 가지 행동을 통해서 할 수 있다면 당연히 젊은 층이나 어린 층에서 관심을 가질 수밖에 없다는 거예요. 그리고 또 한 가지, 말씀드린 것처럼 예전에는 복잡한 프로그래밍이 필요했는데 클릭 몇 번만 하면 가능하잖아요. 그러면 호기심이 당연히 발동하죠. 그러면 내 친구가 뭔가를 했는데 된대요. 그러면 나도 해 볼 수 있을 것 같은데. 나도 해 볼 수 있는 것 같은데 이렇게 되는 거죠. 그러면 거기서 문제는 그거를 범죄로 인식하거나 우리 사회에서 실제로 그런 것들에 대한 위험성이나 문제에 대해서 가이드라인이 나오고 얘기를 했으면 마치 우리가 악플 같은 경우에 최근에 거의 안 쓰잖아요.

왜냐하면 악플을 잘못 쓰면 우리가 신고당할 수 있다라는 걸 수많은 피해를 당하고 나서 우리가 인지를 했고 법이 생기지 않았습니까? 그러니까 안 하는데 지금 이 부분에 대해서는 그런 것들이 잘 되지 않았다는 거죠. 그러니까 호기심이 생긴다는 거고요. 솔직히 말씀을 드리면 제가 이러한 방송을 2021년에도 했었고 2023년에도 했었고 해외에서는 이미 2019년부터 문제가 됐어요. 그럴 때마다 반복적으로 말씀드리는 게 이제라도 소 잃고 외양간이라도 고쳐야 된다는 얘기를 드렸거든요. 그랬는데 계속 기술은 진화하고 있고 1시간 걸리던 게 몇 초면 되는 상황이지만 여전히 외양간은 열려 있는 이런 상황이 지금의 우리 상황이라는 거죠.

[앵커]
10대 피의자가 70%를 차지한다고 저희가 그래프로도 보여드렸는데 10대 피의자가 많다 보니까 교사를 대상으로 한 음란물도 제작되고 있다고 하더라고요.

[김덕진]
이게 그래서 참 안타까운 것 같습니다. 말씀드린 대로 다른 사람이 아닌 내 주변 사람들을 활용하는데 주변 사람들이 결국에는 교사라고 하는 위치가 가지고 있는 것들이 있다 보니까 이 부분에 있어서 교사분들은 상당히 지금 충격을 받으시는 것 같아요. 우리 학생들이 어떻게 내 사진을 가지고 이렇게 만들 수 있느냐. 이러다 보니까 상당히 충격도 있고 그 부분에 있어서 교사협이나 국가 차원에서 시스템 만들어줘야 한다, 이런 얘기가 나오고 있는 것 같습니다.

[앵커]
군에서도 문제가 심각한가 봐요.

[김덕진]
여군을 대상으로 한 성범죄물도 나오고 있고. 여기서 문제가 뭐냐 하면 이건 또 이 방들이 이른바 인증한 사람들끼리만 들어갈 수 있다는 이야기가 계속 나오고 있습니다. 내가 군인이다라는 걸 인증을 해야 하는 거예요. 그러니까 실제 군인들끼리 이렇게 해서 좀 안타깝게 여군들에 대한 것들을 만들고 그러다 보니까 이 부분에 있어서 피해규모를 확인해야 한다는 얘기가 국방부에서 계속 나오고 있는 상황이라고 보시면 될 것 같습니다.

[앵커]
이렇게 자기들끼리 아는 사람들 대상으로 범죄를 저지르는 것도 문제인데 추가 범죄 그러니까 돈을 받고 대신 이런 영상물을 만들어주는 것도 문제가 될 것 같아요.

[김덕진]
충분히 가능하겠죠. 아까 말씀드린 것처럼 지금 어떻게 보면 텔레그램의 구조 자체도 내가 직접 만든다기보다는 그런 큰 서버나 시스템을 갖고 있는 곳에 부탁을 해서 만드는 쪽에 가깝다고 보시면 돼요. 그렇기 때문에 이런 부분에 있어서 말씀하신 것처럼 비용을 받고 더 심한 이런 영상이나 더 자세한 영상을 만들어달라고 하는 가능성이 충분히 있다고 보고요. 실제 그런 부분에 있어서 금액과 방식이 달라졌을 뿐이지 비슷한 형태의 진화가 가능하다고 말씀드릴 수 있겠습니다.

[앵커]
과거 n번방 사건 때처럼 추가 범죄 가능성도 높은 것 같은데요?

[김덕진]
아무래도 계속적으로 그런 것들을...

[앵커]
범죄는 계속 발전하잖아요.

[김덕진]
그리고 안타까운 얘기인데 이런 얘기 드리면 조금 조심스럽지만 실제로 그런 결과물을 만드는 사람들의 대화를 보면 실제 이거를 어떤 범죄나 피해로 생각하지 않고 일종의 작품을 만들거나 자기네들의 작업물을 좀 더 퀄리티를 높이는 것 같은 대화들이 나오는 걸 보고 개인적으로 충격을 많이 받거든요. 한 번 하는 것 자체가 문제인데 오히려 계속 보다 보면 좀 더 정교하게, 이번에는 더 비슷한 것 같아요, 이런 대화들이 나오는 것 자체. 결국 이거는 말씀하신 대로 자칫 잘못하면 범죄랑 연결될 수 있는 부분도 존재하죠. 그래서 기술이라고 하는 것은 중립적이지만 그 기술이 사람을 죽일 수도 있고 또 사람을 살릴 수 있다. 그래서 양날의 검이라는 얘기를 많이 하거든요. 최근에 생성형 AI를 보면 마치 이것은 단순한 칼의 수준을 넘어서서 일종의 핵과 같은 연료, 이런 것들을 대중에게 그냥 던져준 것과 같다는 느낌이 종종 들기도 해요. 그래서 그런 부분에 있어서 잘 관리하면서 이 에너지를 잘 쓰면 좋은 거잖아요. 그런데 못 쓰면 이게 사람에게 피해를 주고 죽이기도 하잖아요. 그래서 그런 부분에서 조금 더 AI 기술에 대해서 우리가 정확하게 알고 또 이 부분을 우리가 어떻게 교육해야 되는지. AI 리터러시가 그 어느 때보다도 필요하고 그런 근본적인 대책부터 우리가 시작을 해야 한다는 말씀을 꼭 이번에 드리고 싶습니다.

[앵커]
내 사진 도용되는 게 두렵다 보니까 요즘 카카오톡 프로필 사진을 내리거나 사물 사진으로 바꾸거나 이런 움직임들이 있다고 하더라고요.

[김덕진]
맞습니다. 실제로 일종의 가이드라인까지 나오고 있고 이런 것들을 내가 어떻게 해야 된다. 예를 들면 제일 높은 게 가족분들이 우리 아이 사진 SNS에서 지워야 된다, 이런 이야기가 나오고 있는데 지금 보신 것처럼 예전에는 수많은 각도 영상이 필요했는데 앞서 제가 만든 거 보시면 평면으로 있는 이미지 한 장으로 만들어졌잖아요. 행동은 지금 우리가 어느 정도, 예를 들면 우리 아이의 프라이버시를 지키기 위한 행동에서 되게 중요한 부분이지만 그 행위가 딥페이크 범죄, 그러니까 딥페이크가 범죄가 되는 것들을 근본적으로 막기에는 어렵다는 거죠. 말씀드린 대로 이미지 한 장이면 되니까요. 그런 부분에서의 고민이라고 생각합니다.

[앵커]
과거 n번방 사건도 그랬습니다마는 국내 SNS는 검경이 수사를 하고 압수수색도 할 수 있는데. 텔레그램은 쉽지 않다면서요? 어떻게 수사를 하고 범인을 잡아야 할까요?

[김덕진]
이 부분에 있어서 계속적으로 문제가 되다 보니까 이번에 아시겠지만 텔레그램의 창업자가 프랑스에서 실제로 구속되는 사례가 생겼습니다. 체포되는 사례가 생긴 이유가 결국 포인트는 거기서도 비슷했어요. 플랫폼 자체가 범죄에 악용될 수 있는 것을 그대로 뒀다. 그래서 그 부분에 있어서 조사가 들어가고 있는 상황이거든요. 그래서 이게 비단 우리나라뿐만 아니라 글로벌적으로 문제가 되고 있는 부분을 우리가 알 수 있고요. 그래서 현재 지금 상황에서는 우리가 수사를 한다고 하면 일종의 우리가 잠입수사라고 표현을 하잖아요. 그 메신저에 들어가서 하는 부분이 가장 현실적입니다. 그외에 요청을 받아서 하는 것들이 어렵다 보니. 그래서 그런 게 수사에 난관이 있는 부분 중 하나라고 볼 수 있는 거죠.

[앵커]
누구나 피해자가 될 수 있는 상황인데. 피해를 예방하는 방법, 또는 피해를 당했을 때는 어떻게 대처해야 할까요?

[김덕진]
피해를 당했을 때는 안타깝지만 지금은 자기가 적극적으로 대처하는 부분들이 중요한 것 같은데 다행인지 모르겠지만 우리나라 정부에서 여러 가지 대책을 내놓고 있고 그중 하나가 여가부에서 그러한 피해를 당한 여성들 같은 경우에는 삭제 혹은 피해에 대한 지원책을 마련하겠다고 하는 상황이거든요. 이거를 단순히 개인의 문제가 아니라 구조적인 시스템 문제에서 접근해야 한다는 말씀을 드리고 싶습니다.

[앵커]
기술이 예상보다 크게 발전이 돼서 사진 한 장으로 거의 동영상까지 완벽하게 만들어내고 구현해내고 있습니다. 알아야 막을 수 있는데요. 3~4년 전부터 대책을 마련해야 한다는 목소리를 내셨는데 지금이라도 늦지 않았습니다. 적극적인 대책이 필요한 상황입니다. 김덕진 IT커뮤니케이션연구소장과 함께 했습니다. 잘 들었습니다.


YTN 이승배 (sbi@ytn.co.kr)

※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
2024 YTN 서울투어마라톤 (2024년 10월 5일)