[뉴스라운지] 양날의 검으로 떠오른 'AI'...현주소와 향후 과제는?

[뉴스라운지] 양날의 검으로 떠오른 'AI'...현주소와 향후 과제는?

2023.07.14. 오후 7:49.
댓글
글자크기설정
인쇄하기
AD
■ 진행 : 함형건 앵커
■ 출연 : 최재식 카이스트 김재철AI대학원 교수

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라운지] 명시해주시기 바랍니다.

[앵커]
매주 금요일 인공지능과 인구 감소, 기후위기 등 미래 사회를 뒤흔들어 놓을 주요 화두를 깊이 있게 다루고 대응책을 논의해보는 코너인 '비전 카페'입니다.

오늘은 첫 순서로 생성형 AI의 가능성과 향후 과제가 무엇인지, 최재식 카이스트 김재철AI대학원 교수와 이야기 나눠보겠습니다. 지난해 말에 챗GPT가 등장을 하면서 그야말로 AI 열풍이라고 표현해도 될 만큼 관심이 굉장히 뜨거웠죠. 이제 반 년이 훨씬 넘은 시점인데 현 시점에서는 그러면 이 AI 열풍, 어떻게 객관화해서 판단해 볼 수 있을지 이런저런 얘기해 보겠습니다.

한 반 년 지나면서 그동안 챗GPT 같은 이른바 생성형 AI라고 하죠. 여기에 대해서 기대 섞인 전망, 그리고 여러 가지 우려와 걱정 함께 대두가 됐었습니다. 현 시점에서 어떻게 보고 계신가요?

[최재식]
오픈AI, 챗GPT가 활용이 세계적으로 파급을 주고 있는데요. 그런데 사용자 수의 증가와 함께 그만큼 수입도 늘어야 된다라는 그런 목소리도 높아지고 있습니다. 챗GPT 경우에는 경쟁 서비스가 계속 늘어나면서 트래픽이 9.7% 감소했다는 소식도 있는데요.

그래도 이게 전반적으로 이런 생성형AI의 기술적인 대세가 꺾이는 것은 아니라고 볼 수 있는 게 지금 아직도 세계적으로 불경기인데 이런 생성형 AI에 전 세계적으로 51개 스타트업이 18조 원 정도 투자를 받았다고 하니까요.

그러니까 아마 지금도 사람들이 계속 이 새로운 기술로 시장을 확대할 거라고 생각하는 것으로 보입니다.

[앵커]
챗GPT 같은 경우도 버전이 업그레이드 되면서 일부 성능이 개선됐다는 그런 평가도 있었습니다마는 현 시점에서 보면 그 같은 생성형 AI 인공지능이 발전 단계가 있지 않습니까? 어느 정도까지 온 건가요, 지금?

[최재식]
사람들이 이견이 있는 게 그러니까 이 생성형 AI가 정말 사람 수준의, 우리가 AGI라고 하는데요. 범용인공지능, 사람처럼 새로운 다양한 데이터를 가지고 학습을 해서 그냥 국지적으로 눈으로 보는 거, 이해하는 거, 말하는 것만 잘하는 게 아니라 정말 생각하고 이해해서 새로운 것을 생성하고 이런 것들을 잘하느냐, 이거는 아직 사람들마다 좀 이견이 있는 것 같습니다.

그중에서 언어를 이해하는 것은 아주 사람들이 잘 안 쓰는 표현들도 이제 잘 이해하는구나 이런 것들은 되게 좋아진 것 같고 말귀를 알아듣는다, 이런 거요. 나머지 부분은 아직도 조금 부족한 부분이 있다고 보입니다.

[앵커]
범용인공지능이라는 것이 어떻게 보면 인공지능 연구자들이 목표로 삼고 있는 그런 것일 것 같은데 그러면 저 정도 단계가 되면 말씀하신 대로 인공지능이 자체적으로 사람의 도움 없이도 스스로 똑똑해지고 업그레이드 되고 그런 단계를 말하는 겁니까?

[최재식]
그렇죠. 사실 지금 인공지능은 사람들이 학습데이터를 다 만들어주고 어떻게 학습할지도 알려주고 이러면 학습이 되는데 사람이 하는 것처럼 가서 나는 이번에 저걸 학습해야지, 이번에는 손으로 학습해야지 이번에는 눈으로 학습해야지 다양한 것들에 대한 데이터를 내가 직접 가져오고 가공해서 지식의 형태로 저장할 수 있는 형태라고 보일 텐데요. 아직은 그렇지는 않지만 예를 들면 제 생각에는 코딩을 학습하는 것은 이런 챗GPT가 코딩을 굉장히 잘하거든요.

그러니까 코딩을 할 때 어떻게 하냐면 기본적으로 남들은 어떻게 코딩을 하는지 돌려보고 그리고 에러가 나오면 에러는 무슨 이유 때문인지 고쳐보고 다시 돌려본 다음에 보고. 이런 것들은 아직 나오지 않았지만 그런 시스템들이 조만간 나올 수도 있을 만큼 아주 간단한 범위에서는 범용인공지능으로 나갈 수 있지 않을까 생각합니다.

[앵커]
알겠습니다. 생성형 AI에 대한 관심도가 굉장히 높아졌습니다마는 사실 챗GPT 개발한 회사가 오픈AI라는 재단입니다마는 이게 완성된 제품이 아니었다고 해요. 연구용 시제품이라고 하는데 그래서 여러 가지 한계점도 있었는데 과감하게 공개를 했단 말이죠. 그 이후에 여러 가지 문제점이 지적이 되면서 사실 오픈AI의 CEO조차도 그 한계점와 위험성 그리고 규제 필요성에 대해서 촉구하고 나서기도 했어요. 그렇다면 너무 조기에 공개했던 거 아닌가, 무모했던 것 아닌가, 이런 시각도 있던데 어떻게 보십니까?

[최재식]
사실 무모한 면이 있기는 했는데 그래도 챗GPT 우리가 처음에 봤을 때 신기하다, 이런 것도 잘하지 않나, 잘하는 게 신기하다. 이런 것처럼 이런 투자금이 18조 원처럼 모이는 것은 사람들의 기대가 많이 커져서 그런 것들은 좀 긍정적인 효과로 볼 수 있을 것 같습니다. 다만 샘 알트먼 CEO가 이런 것들을 유의해야 했다고 생각한 것은 만약에 오픈소스로 공개가 돼서 적국이라 해야 되나, 이런 것들을 악용할 그런 단체들한테 넘어가면 사람들이 거기에 속거나 아니면 나쁜 의도로 사용될 수 있다. 이런 얘기를 한 것이고요.

예를 들면 인터넷 안에서도 사실 악성 정보, 다크웹이라든가 마약이라든가 아니면 사람들을 가스라이팅 한다든가 이런 것들을 사실 악용해서 나쁜 의도를 가지고 학습하면 문제가 생길 수도 있으니까 이런 점을 계속 주의해야 될 것 같습니다.

[앵커]
챗GPT를 이용할 수 있게 무료 버전, 유료 버전 이렇게 공개돼 있고 말씀하신 대로 소스 코드도 그럼 이미 공개되어 있는 상태인 거죠?

[최재식]
사실 정확한 소스코드는 클로즈드라고 해서 이게 어떤 원리로 작성되어 있는지는 아는데 정확하게 학습 시작부터 끝까지 어떻게 되어 있는지 공개하지는 않죠.

[앵커]
전 과정을 공개하는 것은 아니고.

[최재식]
그래서 사실 크게는 지금 이렇게 클로즈드코드 진영이 있고 그리고 오픈AI는 클로즈드소스 코드고 거기에 대항해서 메타기업이 오픈으로 소스코드를 만들어서 이게 자급모델로 혹은 일반적인 연구자들도 같이 개발에 참여할 수 있게 해 보자, 이렇게 두 가지 흐름이 있습니다.

[앵커]
알겠습니다. 그렇다면 챗GPT 같은 이런 생성형AI 이런 방식이 과연 잘하는 것이 무엇이고 못하는 것이 무엇인가. 그동안 여러 가지 지적이 있었습니다마는 다시 한 번 정리를 해 보죠. 일단 가장 큰 장점은 뭐라고 보셨습니까?

[최재식]
보통 사람들은 이럴 때 어떻게 하지? 이런 것들을 굉장히 잘해요. 그러니까 창의적이라면 어떻게 해야 할까, 혹은 직원을 평가하라면 어떻게 해야 될까, 이런 문제를 굉장히 잘하고 그래서 온라인에 있는데 이런 질문들을 요약해서 내가 어떻게 하면 좋을 텐데라고 하는 것들은 되게 잘하고. 그런데 아직 잘 못하는 것은 그러니까 환각 혹은 거짓 답변이라고 하는데 답변을 얘기했는데 틀린다든가 아니면 수식하는 것들도, 수식도 많이 틀리는 경우도 있고.

[앵커]
산수를 잘 못하는군요.

[최재식]
산수를 잘 못하는데 이게 산수를 기호로 배워야 되는데 글로 배우다 보니까 얘는 다 외우는 것 아닐까? 이런 생각을 사람들이 하는 경우도 있습니다. 그래서 이런 답변들은 아직. 그리고 또 중요하게는 아직 사람도 그랬듯이 답변을 했는데 어디서 들었는데 어디서 들었는지 모르고 답을 한 경우 어디서 들었는지 누구한테 배웠는데 이걸 모르고 답변하는 경우 있잖아요. 챗GPT가 딱 누구 말을 했는데 어디서 배웠는지는 모르기 때문에.

[앵커]
출처가 뭔지를 밝힐 수 없는 거군요.

[최재식]
네, 출처를 아직 못 밝혀서 그것 때문에 지금 저작권 소송도 그렇고, 그러니까 오픈AI도 어떻게 할 수 없는 상황이죠.

[앵커]
그 부분은 굉장히 치명적인 약점 같은데요.

[최재식]
그렇죠. 그런데 이런 GPT 모델의 근본적인 문제, 지금으로서는 그런데요. 그런데 앞으로 이것들 개선하는 기술은 계속 개발될 것으로 생각합니다.

[앵커]
지금 교수님이 여러 가지 지적해 주셨습니다마는 챗GPT가 못하는 것, 이런 생성형 AI가 잘 못하는 부분 중에 하나가 예측을 잘 못하는 것이기도 해서 앞으로 사회가 어떻게 변할지 아니면 기업이 어떻게 변할지, 주가가 어떻게 변할지 이런 걸 여기다 물어보고 그걸 믿으시면 안 되는 거죠.

[최재식]
그렇죠.

[앵커]
대표적으로 잘 못하는 부분입니다. 저희가 챗GPT의 기능을 다시 한 번 확인해 보기 위해서 하나 질문을 던진 게 있었는데요. 물론 이거는 챗GPT의 현재 버전, 그중에서 4.0 유료 버전은 아니고 3.5버전으로 저희가 질문한 게 있었습니다. 화면을 띄워주시겠습니까?

시를 하나 지어달라고 했는데요. 인공지능에 대해서 그동안 제기되고 있는 여러 가지 기대와 우려, 종합적으로 이것을 시적인 언어로 표현해달라, 특히 윤동주 시인의 느낌으로 시를 지어달라고 했습니다. 그랬더니 그럴 듯하게 시를 짓기는 했는데 저 산출된 결과물이 과연 윤동주 시인의 어법에 맞는 그런 시인지는 정확하게는 잘 모르겠고요.

왜냐하면 윤동주 시인 말고 다른 국내 대표 시인의 이름을 바꿔가면서 질문을 던졌더니 비슷한 결과물이 또 나오더라고요. 그래서 이것이 챗GPT의 한계인지 이게 왜 저런 결과물이 나온 건지 궁금했습니다.

[최재식]
이거를 저희가 로컬인포메이션이라고 지역 정보라고 하는데요. 사실 챗GPT 입장에서는 윤동주 시인이든 아니면 다른 시인이든 그 지역 나라에 있는 되게 세밀한 정보니까 이런 정보로는 학습이 안 돼서 그럴 가능성이 높고. 그래서 사실 우리가 비슷하게 이 근처 맛집을 알려줘. 그러면 챗GPT가 가상으로 있어 보일 만한 맛집을 얘기하는데 그런 맛집이 없을 경우가 많아요.

그래서 제 생각에는 이 GPT가 우리가 파운데이션 모델이라고 하는데 인간의 일반적인 언어의 상식을 배우는 모델이 있고 이걸 가져와서 우리의 회사나 나라나 지역 정보를 가지고 학습하는 그런 모델들이 앞으로 계속 더 많이 개발되면서 이런 윤동주 시인의 시감을 잘 못 이해하는 것들도 고치지 않을까 생각합니다.

[앵커]
이를테면 구체적으로 저희가 윤동주 시인 말고 김수영 시인의 느낌으로 시를 지어줘. 그래도 비슷한 결과물이 나온단 말이죠. 그거는 이 시스템의 알고리즘의 문제라기보다는 그러면 학습 과정에서의 문제가 생긴 거라고 보십니까?

[최재식]
네, 충분히 그러니까 윤동주 시인과 또 다른 시인의 시를 학습하지 못해서.

[앵커]
국내 데이터를 충분히 학습했더라면 좀 더 나은 결과물이 나왔을 것이다. 여러 가지 이런 약점과 한계점에도 불구하고 어쨌든 산업적으로나 아니면 일반인들 사이에서도 상당히 관심도가 높아진 상태이기 때문에 그러면 이런 생성형 AI, 챗GPT 같은 대화형 AI, 생성형 AI 등장이 어떤 의미를 가지는지 과거에 인터넷이 등장하거나 아니면 스마트폰이 등장하거나 이런 새로운 기술이 등장할 때마다 우리 사회에 굉장히 큰 변화를 가져왔는데요. 이것이 어떤 기술 문명의 중요한 전환점이 될지, 또는 AI 기술의 대전환점이 될지 여러 가지로 평가하시는 부분들이 많습니다. 교수님은 어떻게 보고 계신지요?

[최재식]
저는 정말로 이 기술이 발전된 것은 맞고. 그런데 이런 생성형 AI로 완전히 대전환됐다기보다는 AI 기술이 시각, 청각 그리고 제어, 자율주행 자동차도 보면 15년 정도 이전에는 상상하기 힘들었던 거거든요. 그러니까 AI가 점진적으로 이렇게 계속 증가해서 발전해서 우리 삶에 왔는데 이번에는 언어의 영역에 왔구나. 그런데 사실 문해력의 경우에는 실제로 그 내용을 정확하게 이해하는지 잘 모르겠지만 적어도 답변을 보면 이해하고 답변하는 것 같은 느낌은 사람이 많이 받을 때가 있거든요.

그래서 또 언어가 생각의 그릇을 담고 다양성이 있고 언어도 되게 여러 언어가 있는데 챗GPT나 바드나 이런 모델들이 그걸 또 어느 정도 사람들 상용화될 수 있는 수준까지 대응하는 걸 보니 발전한 것 같습니다.

그래서 이런 자동화가 굉장히 가속화되는 영역이 분명히 있을 것 같고요. 콜센터라든가 번역이라든가. 제가 어느 학교의 통번역하시는 대학원생들 앞에 강의를 한 적이 있었는데요. 질문이 1시간이 나왔어요. 저희는 앞으로 어떻게 해야 되나요? 우리는 이 통번역을 AI가 다 하는 것 아닌가요, 이런 질문이 왔는데요.

[앵커]
특히 AI가 잘하는 분야 중 하나로 평가되기 때문에.

[최재식]
그렇죠. 그런 부분은 확실히 AI가 많이 사용이 되게 되겠죠.

[앵커]
여러 가지 평가가 있을 수 있겠습니다마는 현 시점에서 우려의 시선들 얘기해 보겠습니다. 특히 세계적인 석학들이 이런 AI가 등장하면서 여러 가지 인류에 위협이 될 것이다, 그런 경고의 목소리도 있고요. 어느 정도 수준의 AI에 대해서 얘기하느냐에 따라서 달라질 수 있겠습니다마는 이를테면 노엄 촘스키 MIT 명예교수 같은 경우 지난 3월에 뉴욕타임스에 기고한 글이 있었죠. 거기서는 챗GPT 같은 생성형AI를 사이비 과학에 비유하기도 했습니다. 한계점이 뚜렷하다.

또는 다른 세계적인 석학들이 여러 분이 공동선언문 형식으로 발표한 것도 있었고요. 거기서는 인류의 커다란 위협이 될 것이라고 경고성의 목소리가 나오기도 했는데 여러 가지 다양한 의견이신데 동의하시는 부분이 있습니까? 어떻게 보고 계신지요?

[최재식]
저는 사실 관점의 차이라고 보는데요. 이게 사실 이런 대형 언어 모델, 챗GPT 같은 것들은 우리가 정말 원리를 하나하나씩 다 이해하지 않고 잘 답변하는 것 같은 거, 잘 대답하는 것 같은 게 안전할까. 혹은 맞는 걸까, 이런 것들에 대한 의심이 있으신 것 같고 그런데 저는 개인적으로는 정말 원자력 폭탄 같은 인류에 위협이 되는 문제를 찾지 못하겠습니다.

그럴 것 같지는 않고 순기능도 많을 것 같은데 아까 잠깐 말씀드린 것처럼 지금 아직 안 풀렸는데 이 질문에 답변할 수 있는 연구자들이 풀 수 있는 문제 중에 하나가 정말 그러면 챗GPT가 정확하게 그 문제를 이해하고 답변을 했는가, 이거를 사실 잘 우리가 밝히는 것 자체는 사실 이 질문을 우리가 할 수 있을 것 같은데요.

그런데 아까 말씀드린 것처럼 위협이 될 수 있는 요소는 이런 걸 가지고 사람들이 쉽게 다크웹, 음란물, 마약, 밀수 정보를 쉽게 접근하게 된다든가 아니면 챗GPT가 어떤 가스라이팅 하는 사람의 말과 생각을 잘 받아들여서 사람들을 자기 앞에 앉혀서 계속 채팅하고 싶게 만드는 거죠. 가지 마세요. 이거 하세요. 이런 식으로. 이런 정도는 조금 위협이 될 수 있는데 사람의 생명과 재산에 되게 큰 위협이 될 정도는 아직은 아닌 것 같습니다, 저는.

[앵커]
하지만 챗GPT 자체가 가짜 정보를 만들어낼 수가 있기 때문에 여론을 오도한다든가 그 부분에 대해서는 우려되는 바가 많이 있습니다마는 그러면 기술적으로 봤을 때 이른바 환각 현상이라고도 우리가 부르고 있습니다마는 그런 잘못된 정보를 마치 진짜인 것처럼 그럴 듯하게 꾸려내게 답변하는 그런 부분들, 이건 기술적으로 많이 보완될 여지가 있습니까? 어떻게 전망하고 계신지요?

[최재식]
환각현상이라고 하는 것은, 사실 환각 현상이 되게 나빠 보이지만 지금 인터넷에 많이 사람들이 쓰는 것들 중에는 세종대왕이 알패드를 던진 사건에 대해서도 얘기해 줘. 그러면 사실 실제로 있을 수 없는 일이잖아요, 왜냐하면 시대가 다르니까. 그런데 챗GPT가 막 소설을 씁니다. 재미있게 써요.

이런 것처럼 환각 현상이라고 하는 것은 말을 했는데 사람의 상식으로 보기에는 말이 안 되는 그런 말들인데 사실 환각 현상이 일어나는 것 자체도 챗GPT가 답변하는 원리 때문에 그런데요. 결국은 사람들이 생성한다고 얘기하지만 되게 많은 경우에는 챗GPT가 답변하는 게 각각 문서들에 있는 지식을 각각 우리가 복사 붙여넣기라고 하는데 가져와서 가져와서 조합해 보고 말이 되나, 그리고 다음에 또 가져와서 조합하는, 이런 과정을 거치는데 사실 그때 이렇게 가져와서 붙이고, 이렇게 가져와서 붙일 때 말이 되는 건가, 이걸 검증하는 기술이 아직 부족해서. 사람들은 말을 생성할 때 이 말과 이 말이 그럴 듯하게 말고 사실관계가 맞는가. 이런 것들을 확인하고 대답하는데 챗GPT가 그 사실관계를 확인하는 게 아직은 사람 상식이 부족한 거죠.

[앵커]
오픈AI 같은 경우 시간이 해결해 줄 것이다, 이렇게 얘기하고 있는데 근본적인 한계가 있는 겁니까? 어떻게 보십니까?

[최재식]
오픈AI가 물론 안에서는 하고 있겠지만 실제 오픈AI가 알려진 챗GPT 3.5나 4에서 얘기한 학습방법만 가지고는 그대로 해결되기는 어렵고 사람도 말은 하지만 잘 말하기 위해서는 되게 많이 배워야 되죠, 오랫동안. 그런 것처럼 다른 종류의 이런 말을 검증하는, 거르는 도구들이 계속 더 많이 만들어지지 않을까 생각합니다.

[앵커]
저희가 이 비전카페에서 공통질문을 앞으로 계속드릴 건데요, 출연자분마다. 그러면 오늘의 주제인 생성형 AI, 인공지능은 5년 후, 10년 후에는 어떤 모습으로 변할지 전망을 해 주시겠습니까?

[최재식]
제 생각에 5년 후, 10년 후에는 이런 생성형 AI가 되게 다양화돼 있을 것 같아요. 그러니까 우리는 지금 챗GPT만 그리고 바드만 생각하지만 사실 공개 소프트웨어 포함해서 한국형 AI 챗GPT 거대언어모델도 포함해서 다양화되어 있을 것 같고 그리고 하나 확실한 것은 우리가 생성형 AI, 다양화된 파운데이션 모델로 만들어진 응용프로그램을 훨씬 더 많이 쓰고 있을 것 같습니다.

그러니까 지금 우리가 클릭클릭을 하면서 우리가 웹서핑을 하거나 하는 것을 대화형으로 한다든가 아니면 말로 한다든가 이런 것들이 훨씬 더 많이 보급화되어 있을 것으로 생각하고 그런 회사들도 더 많아질 거라고 생각합니다.

[앵커]
일각에서는 이른바 특이점에 대해서 관심이 많으신데요. 2045년쯤 특이점이 올 것이다, 이런 예상도 십수 년 전에 이미 책을 통해서 나오기는 했습니다마는 여기에 대해서는 너무나 전문가들 사이에서도 의견이 엇갈리기 때문에 말하자면 인공지능이 인류의 지능을 뛰어넘는 순간, 그런 순간이 올지, 이를테면 논란거리이기는 합니다마는 과연 이게 고도로 발전하면 인공지능이 인간과 같은 의식을 가지게 될지, 여기에 대해서는 여러 궁금증이 증폭되고 있는 상황입니다. 어떻게 보고 계시죠?

[최재식]
사실 제가 챗GPT의 거짓 답변하는 것 때문에 부족하다고 얘기를 하면서도 또 반대로 하나 제가 생각하는 게 그러면 나는 챗GPT처럼 그 많은 정보를 알고 있는가, 생각을 해 보면 특정한 분야에서 이미 AI 컴퓨터는 사람의 지적 능력을 넘어선 것들이 많이 있어요.

아주 고도화되게 잘 미세한 것들을 검출한다든가, 그런데 우리가 여기서 특이점이라고 얘기하는 건 모든 지능적인 부분에서 사람을 뛰어넘으면서 또 동시에 사람을 제어할 수 있을 만큼 사회적으로도 아까 우리가 가스라이팅 얘기를 했는데 이런 것까지 발전할 것인가. 그런데 중요한 것은 그러한 발전이 혹시 있다고 하면 사람들이 미리 알 거고.

그래서 아까 제가 말씀드린 것처럼 여러 가지 기술들을 통해서 이런 AI가 올바른 사람을 이롭게 하는 방향으로 계속 발전할 수 있도록 우리가 계속 관심을 갖고 더 개발을 해야 하지 않을까 이렇게 생각을 합니다.

[앵커]
알겠습니다. 인공지능이 우리 사회를, 우리의 미래를 어떻게 변화를 가져올 것인가 오늘 여러 가지 얘기를 했습니다마는 사실 많은 희망과 가능성도 내포하고 있습니다마는 반대로 부정적인 우려가 되는 지점들도 많이 있습니다. 이를테면 가짜 정보의 확산이라든가 일자리의 소멸, 그리고 저작권 침해 문제라든가 여러 가지 법적, 윤리적 문제도 제기되고 있습니다마는 이런 부분에 대해서는 저희 비전카페 코너에서 추후에라도 저희가 별도로 구체적으로 다루도록 하겠습니다.

오늘 말씀 여기까지 듣겠습니다. 최재식 카이스트 김재철AI대학원 교수와 함께했습니다. 고맙습니다.




※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]