"교황이 저런 패딩을?"...몸집 커진 AI, 파급력 어디까지 [Y녹취록]

"교황이 저런 패딩을?"...몸집 커진 AI, 파급력 어디까지 [Y녹취록]

2023.07.06. 오전 09:44.
댓글
글자크기설정
인쇄하기
AD
■ 진행 : 김대근 앵커
■ 출연 : 김덕진 IT커뮤니케이션연구소 소장

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라이더] 명시해주시기 바랍니다.

◇앵커>그러니까 이게 문구를 쳐 넣으면 이게 음성으로 변환돼서 실제 현장에서 얘기가 있었던 것처럼 들리게 만들 수 있다. 그런 기술이군요. 그런데 이게 삭제되지 않고 영상이 유튜브에 계속 올라와 있다고 하더라고요. 그러면 저거 계속 믿을 수도 있는 거잖아요.

◆김덕진>맞습니다. 그게 문제가 되는 건데요. 실제로 저 영상 같은 경우에도 말씀하신 것처럼 천만 뷰가 넘었으니까 많은 사람들이 보고 이거 진짜인가라고 놀랄 수 있다는 것이죠. 그런데 이런 것들이 비단 최근에 유튜브 영상뿐만 아니라 여러 가지 이미지나 동영상 형태를 통해서도 많은 사람을 혼란하게 하고 있습니다.

◇앵커>지금 보시는 저 사진도 조작된 거예요?

◆김덕진>맞습니다. 저거 같은 경우에 우리가 생성형이미지라고 하는 최근에 기술이 있죠. 생성형 AI를 통해서 텍스트로 상황을 넣은 거예요. 펜타곤이 폭발한 것 같다, 이런 식으로 텍스트를 넣으면 그걸 활용해서 저렇게 이미지의 형태로 만들어주는 AI 툴들이 최근에 존재합니다.

◇앵커>그러니까 지금 미국 국방부 건물이 폭발하는 그런 사진인데 저게 가짜라는 거죠?

◆김덕진>맞습니다. 정확하게 말하면 생성, 그러니까 만들어낸 거죠. 그러니까 그림과 같은 형태라고 보시면 될 것 같은데 최근에 인공지능 기술이 너무 좋아지다 보니까 뭔가 내가 프롬프트라고 하는 명령어의 형태로 텍스트 몇 줄을 쓰면 저 정도 형태의 이미지가 나오는 거죠. 그런데 저 이미지가 워낙 비슷하다 보니까 저기에다가 SNS의 트위터 글 같은 것, 그래서 이게 실제로 폭발한 것 같다, 이렇게 넣었더니 문제는 뭐냐 하면 최근에 주식 같은 걸 하실 때 보면 인공지능이나 자동으로 주가가 움직이는 이런 프로그램 시스템들이 많단 말이에요. 그러니까 그런 것들이 저게 진짜인 거라고 바로 인지를 한 다음에 바로 주식을 예를 들면 빠르게 파는 겁니다. 그렇게 되니까 실제로 주가가 출렁거리게 되고 그것 때문에 많은 사람들은 이게 진짜인가라고 하니까 같이 실제 경제적인 영향을 미쳤던 상황이라고 볼 수 있을 것 같습니다.

◇앵커>조작된 사진인데 지금 주식시장에도 영향을 미칠 수 있는 아주 위험한 상황이었고. 저것뿐만이 아닙니다. 최근에 조작돼서 논란이 됐던 그런 사진들이 또 있는데 사례를 보면서 얘기를 해볼까요.

◆김덕진>실제로 최근에 이슈가 됐었던 것 중의 하나가 저기 보시는 것처럼 AI가 만든 가짜 교황 사진인데요.

◇앵커>패딩을 입고 있어요.

◆김덕진>그렇죠. 그외에도 선글라스를 끼고 있는 여러 가지 모습들이 나오기도 해서 저렇게 교황님이 패션이 좋은가 했더니 저게 보니까 알고 봤더니 아까 말씀드린 글자를 써서 만든 이미지의 형태였고요.

◇앵커>그렇군요. 교황도 요즘에 저런 패딩을 입나 했는데 그게 아니라는 거죠.

◆김덕진>소위 힙하다라고 표현할 수 있을 것 같지만 그건 아니고요. 그다음에 또 가장 이슈가 됐던 게 도널드 트럼프 전 대통령에 대한 체포 사진이 있었습니다.

◇앵커>경찰에 체포되는 거 아니에요?

◆김덕진>실제로 저걸 보시면 경찰에 소환이 됐으니까 정말 저런가라고 할 수도 있지만 저것도 가짜입니다. 왜냐하면 실제로 트럼프 대통령이 소환되기는 했지만 전 대통령에 대한 예우 차원에서 실제 포토라인에 선 적이 없거든요. 그런데 사람들이 뭔가 저렇게 잡혀간다고 하니까 궁금하니까 상상력을 동원해서 자기가 글자로 텍스트 프롬프터를 쓴 거예요. 그냥 문구를 쳐넣으면 저렇게 만들어낸다는 거죠. 그렇습니다. 그러다 보니까 저게 어떤 사람들은 재밌다고 하지만 앞뒤의 맥락을 모르는 사람들은 저기에다가 예를 들면 트럼프 전 대통령이 뭔가 경찰에 소환됐다라고 하면 저게 진짜 이미지냐, 이렇게 착각을 하는 거죠.

◇앵커>믿을 수도 있겠네요. 이것뿐만 아니라 최근 논란이 됐던 사진이 있는데 튀르키예 강진이 났을 때 모금을 한다면서 사진을 공개를 했는데 저게 또 가짜 사진이었다는 거죠.

◆김덕진>맞습니다. 저런 게 진짜인지 아닌지 사람들이 헷갈리다가 한 가지 잘못된 것을 발견한 거예요. 저기 자세히 보시면 저 소방관의 손가락이 다섯 개가 아니라 여섯 개인 것을 볼 수 있습니다.

◇앵커>손가락이 왜 6개입니까?

◆김덕진>저게 최근에 만들어지는 생성형 AI들의 한계이기도 한데요. 기존에 있었던 데이터들을 가지고 텍스트를 쳤을 때 이미지가 나오는데 이상하게 그런 것들이 손가락, 발가락 개수를 정확하게 표현을 못 했었어요. 그러다 보니까 저게 6개, 7개 혹은 다리가 2개아니라 3개가 나오는 경우도 있었는데 그런데 저것도 최근에는 빠르게 업데이트돼서 요즘 나오는 이미지들은 저 손가락조차도 5개로 제대로 나오는 것을 볼 수 있습니다.

◇앵커>저런 사진 같은 경우에는 사기 행각에 악용될 수 있는 거잖아요.

◆김덕진>맞습니다. 말씀하신 펀딩이나 이런 데 충분히 악용될 수 있는 사례죠.


대담 발췌 : 김서영 디지털뉴스팀 에디터



※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]