AD
YTN라디오(FM 94.5) [YTN 뉴스FM 슬기로운 라디오생활]
□ 방송일시 : 2025년 2월 4일 (화)
□ 진행 : 박귀빈 아나운서
□ 출연자 : 김명주 AI안전연구소 초대소장
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◇박귀빈 아나운서(이하 박귀빈): 중국 스타트업이 개발한 인공지능 AI 모델 딥시크가 세계 AI 시장 판을 흔들고 있습니다. 딥시크가 가성비 AI를 구현했다는 점에는 이견이 없는데요. 서비스 이용 과정에서 개인 정보 유출에 대한 우려도 함께 제기되고 있습니다.일부 국가에서는 딥시크 이용을 제한하기도 했죠. 관련 내용 전문가와 이야기 나눠봅니다. AI 안전연구소 초대 소장으로 계시죠? 김명주 서울여대 정보보호학과 교수 전화 연결합니다. 소장님 안녕하세요
◆김명주 AI안전연구소 초대소장 (이하 김명주): 네 안녕하세요
◇박귀빈: 지난 연말에 국내 첫 AI 안전연구소가 출범하고 초대 소장이 되셨는데요. 먼저 AI 안전연구소 소개 좀 부탁드려요.
◆김명주: 안전 연구소가 좀 약간 생소하긴 한데 이게 연구소 제목에 나타나 있는 것처럼 그 AI를 국민들이 사용할 때 불안해하고 있는 요소들이 있어요. 그래서 그런 부분들을 기술적으로 검증을 하는 기관이고 또 이번 딥시크 같은 경우 외국산 AI가 국내에 들어올 때 과연 이런 부분들을 또 믿고 쓸 수 있을까 하는 부분들 그리고 또 우리나라 기업들이 해외에 수출할 때 안전 문제로 인해서 발목 잡히는 일이 없도록 도와주는 연구소가 안전 연구소다 이렇게 이해하시면 될 것 같습니다.
◇박귀빈: 네 AI에 대해서는 많은 분들이 AI라는 용어도 익숙해지고 챗GPT도 많이 들었고 이렇게 생각하실 것 같은데 갑자기 딥시크라는 게 나오면서 AI 시장의 판을 흔들었다 막 이런 이야기가 나오면서 이건 또 뭔데 이러시는 분들 많으실 것 같아요. 사실 저도 그렇고요. 딥시크의 등장이 AI 시장에 충격을 주는 거는 왜 그렇습니까?
◆김명주: 이게 보통 AI도 여러 종류가 있는데 우리가 잘 알고 있는 챗GPT라든지 이런 부분들은 보통 이제 거대 AI라고 불러요. 프런티어 AI라고 부르는데 얘들은 만들려면 돈이 많이 듭니다. 그래서 한번 훈련시켜서 실제 서비스까지 가는 데 들어가는 돈이 챗GPT 같은 경우는 몇 조 원이 들어가거든요. 엄청나게 큰 돈이 들어가는데 이번에 중국에서 만든 딥시크는 성능은 거의 비슷하면서 돈은 챗GPT보다 어떤 경우는 10분의 1 혹은 20분의 1 정도밖에 들지 않았다. 그리고 거기 사용되는 하드웨어 장비 중에 GPU라는 게 있는데 GPU도 최신 거 아니고 옛날 거 썼는데 성능도 괜찮게 나왔다 이렇게 하니까 이게 굉장히 파급 효과가 컸던 거죠.
◇박귀빈: 실제 돈이 많이 절감된 거는 맞는 건가요? 지금 중국 업체 측에서 그렇게 밝힌 건데
◆김명주: 그런데 실제로 보면 이게 숨겨져 있는 비용들이 많아요. 그래서 약간 의도성이 있는 게 아닌가 이렇게 이야기를 하는데 성능이 좋다고 하는 모델이 딥시크 중에서 R1이라는 모델인데 이게 트럼프 대통령 취임하는 날 공개했거든요.그래서 이게 챗GPT O1하고 이렇게 필적한다고 이야기했는데 그러면 그 R1에 들어가는 비용을 말을 해야 되는데 그 비용을 이야기하지 않고 R1의 기초 모델이 되는 게 한 달 전에 나왔었어요. V3라고 그 V3의 비용을 가지고 R1에다가 붙여서 이야기를 하니까 V3에서 R1으로 가는 데 또 비용이 추가로 들거든요. 그리고 추가로 드는 비용은 또 쏙 뺀 거죠. 그래서 사실은 지금처럼 비용이 현격히 줄었다라기보다는 줄기는 줄었지만 찾아보면 결국은 비슷한 비용이 들었을 것이다 이렇게 보는 사람들이 더 많습니다.
◇박귀빈: 그럼 성능은 어떻습니까? 오픈 AI의 챗GPT하고 이번 딥시크하고 성능은 어떤 것 같아요?
◆김명주: 이것도 딥시크에서 발표하는 그 논문을 보면은 챗GPT보다 더 뛰어나다 하는 부분이 있는데 특히 얘들이 이제 추론이라고 그래서 주로 수학이나 과학이나 코딩 이런 쪽에 굉장히 좀 뛰어난 능력이 있거든요. 그래서 수학 같은 경우는 이제 여러 가지 이렇게 테스트할 수 있는 문제집들이 있어요. 그래서 AIME 주로 미국에서 많이 쓰고 있는 2024년도 기준으로 했을 때는 얘가 챗GPT 더 뛰어나고 그다음에 코딩하는 분야도 뛰어나고 이렇게 딥시크에서 발표를 하는데 실제 그렇지 않은 다른 분야 사실 저희 연구소도 지금 계속 테스트를 하고 있거든요. 테스트를 하고 있는데 내부적으로는 좀 심각하게 성능이 떨어지는 부분이 상당히 많이 있습니다. 그리고 대개는 한글이나 이런 걸로 대화를 하면 한글로 대답을 해야 되는데 상당수가 중국어로 대답을 자꾸 해서 일반적으로 사용하기는 좀 불편하지 않을까 하는 생각이 좀 들어요
◇박귀빈: 그러면 전체적으로 봤을 때 일단 스타트업입니다. 이름도 좀 생소한 스타트업이고 또 대학을 갓 졸업한 200명의 직원 연구자 개발자들이 모여서 만든 거고 이게 불과 2년밖에 안 된 회사라면서요. 그래서 여러 가지 비용도 아직은 더 많이 들었을 것 같은 게 추정이 되고 성능도 보니까 조금 살펴볼 부분이 있긴 하겠으나 좀 놀랄 만한 성과는 맞습니까?
◆김명주: 주목할 부분들은 지금 이제 방금 말씀하셨던 부분들이 사실 주목할 요소인데 AI를 개발할 때 돈이 가장 많이 들어가는 데가 이제 계산하는 분야입니다. 컴퓨팅 하드웨어 분야고 그다음으로 많이 들어가는 데가 인건비거든요. 그런데 이제 중국 쪽은 아무래도 인건비가 미국보다 훨씬 싸니까 그런 면에서도 저렴하고 그다음에 또 하나는 AI 지금 이런 챗GPT 같은 걸 만드는 기술 가운데서 최근 한 1~2년 사이에 이렇게 영역별로 이렇게 쪼개서 만드는 기술들이 나왔어요. 보통 MoE 라고 하는데 그래서 과학 분야 수학 분야 무슨 분야별로 이렇게 따로따로 내부적으로 쪼개서 만드는 기술이 있는데 MoE 기술을 아주 적극적으로 도입해서 쓰고 있는 인공지능이 바로 딥시크라고 보시면 될 것 같아요. 그래서 결국 이제 좀 낮은 인건비에다가 알고리즘 보통 소프트웨어죠 소프트웨어 측면에서 좀 혁신적인 방법을 쓰고 그리고 하드웨어도 그렇게 최신의 것을 쓰지 않았음에도 불구하고 가장 좋은 환경을 가졌던 기업하고 비교했을 때 성능이 비슷하다 이런 면에서는 상당히 많이 주목을 받는 거고 그게 우리나라한테 주는 메시지도 있죠. 왜냐하면 우리나라도 사실은 돈으로 해서 미국을 따라잡을 수는 없잖아요. 그렇기 때문에 우리도 결국은 인력 문제 그다음에 아이디어 문제 여러 가지 주변에 돈이 아니고 자본이 아닌 다른 쪽에 키가 있기 때문에 그쪽으로 우리도 투자를 하게 되면 비슷한 결과를 얻지 않을까 하는 일종의 희망의 메시지가 우리한테 전해진 거죠.
◇박귀빈: 주목할 만한 성과가 맞다 이런 말씀이신 거잖아요.
◆김명주: 네 상당히 기존의 틀을 벗어났던 접근이라서 주목할 만한 성과는 맞다 라고 보는 게 맞습니다.
◇박귀빈: 그게 어떻게 가능했을까요?
◆김명주: 그게 아까 말씀드렸던 것처럼 그런 약간 자본 중심에서 사고가 벗어났고요. 하나의 키워드로 표현한다고 그러면 창의력
◇박귀빈: 중국 정부에서의 지원이나 뭐 이런 것도 있었던 걸까요?
◆김명주: 당연히 있겠죠. 왜냐하면 모든 중국의 기업들은 중국 정부가 사실은 주주 역할들을 다 하고 있는 보통 국가 기업처럼 운영이 되기 때문에 그 뒤에 상당히 많은 것들이 있고 그리고 몇 가지 의심스러운 부분들이 있어요. AI에서 굉장히 중요한 게 데이터인데 학습하는 데이터가 아주 좋을수록 아주 많을수록 얘가 성능이 뛰어나거든요. 그런데 그 짧은 기간에 그 많은 데이터를 어떻게 구입했을까 어떻게 얻었을까 생각을 해보니까 자기들이 일일이 다 얻은 게 아니고 이미 챗GPT라든지 이런 데 만들어 놓은 것들을 그 안에서 이렇게 자기들이 가져다가 다시 쓴 게 아닐까 뭐 보통 그걸 증류라고 보통 표현하는데 증류 과정을 통해서 데이터를 이렇게 일종의 훔쳤다고 보는 거죠. 그래서 오픈AI 에서 이거에 대해서 조사하겠다 이제 그렇게 보는 거여서 이게 데이터가 어디서 나오는지 정확히 밝혀지지 않으면 그 의심을 피할 수 없고요. 또 하나는 이게 오픈 소스라고 그래서 이 AI의 소스 코드를 자기들이 처음부터 개발한 게 아니에요. 이미 공개돼 있는 걸 가져다가 자기들이 변경해서 쓰는 거기 때문에 그 부분도 우리나라 입장에서 볼 때는 우리나라도 오픈 소스를 중심적으로 활동을 하니까 그렇다면 우리도 오픈 소스 중심으로 개발을 시작하면 우리도 1~2년 내에 그렇게 좋은 성과를 내지 않을까 하는 이제 가능성들이 보이는 거죠.
◇박귀빈: 네 어떤 부분에서는 약간의 지금 의혹되는 부분도 있고 그래서 오픈 AI 쪽에서 조사도 좀 요구해서 진행될 수도 있을 것 같은 그런 분위기이긴 한데 사실 우려 나오는 것 중에 또 하나가 큰 문제가 개인정보 유출 문제더라고요. 이건 왜 그런가요?
◆김명주: 이게 개인정보 유출 문제는 사실 그 집단에 중국이라는 나라가 있는 거랑 같이 연관이 있어요. 왜 그러냐면 틱톡도 사실 그런 문제인데 개인 정보를 이제 가져가게 되면 뭐 챗GPT도 개인 정보를 가져가거든요. 개인 정보를 가져가게 되면 그게 중국 서버 중국 쪽에 있는 서버에 보관돼 있도록 돼 있고 혹시 개인 정보에 관해서 무슨 분쟁이 생기면 중국 안에 있는 법정에서 다투도록 되어 있어요. 약관에 그러니까 우리나라 입장에서는 어떤 개인 정보 이슈를 어 말하려고 그래도 그 뒷단에 있는 중국 정부라든지 중국 법원을 통해서 이야기해야 되는 상황이고 그게 좀 투명하지 않다는 의심들을 계속 받아왔잖아요.그리고 챗GPT하고 딥시크 R1하고 이렇게 약관을 비교해 보면 거의 비슷한데 몇 가지 좀 특이한 게 나옵니다. 그중에 하나가 이런 표현이 나오는데 사용자가 키보드를 통해서 입력하는 패턴들 이런 것들도 우리가 명확하게 좀 가져가겠다 이런 표현이 딥시크에 나오는데 이거는 어떤 거가 있냐면 보통 일반적으로 말로 이렇게 하는 게 아니라 보통 시스템 보통 프롬프트라고 그래서 관리자 모드로 들어갈 수 있는 그런 단어들이 몇 개 있어요. 그런 걸 통해서 관리자 모드로 들어가는 것들도 우리가 과감하게 찾아내서 그것도 관리하겠다 그러니까 어떤 걸 입력해서 뭘 의도하는지도 우리가 파악하겠다 그렇게까지 보시면 될 것 같고 그거는 사용하는 도중에 개인 사용자의 사용 패턴 그다음에 사용하는 의도 그다음에 그 사람이 가지고 있는 정보들을 충분히 본인들이 가져가서 분석하겠다는 경고로도 볼 수 있습니다.
◇박귀빈: 근데 챗GPT 같은 경우도 이거를 이용하는 모든 사람들의 정보가 사실은 수집이 되지 않습니까? 개인 정보가 그러면 챗GPT 오픈 AI와 딥시크가 개인정보 보호 관리 부분이 정확하게 어떤 부분이 지금 다르게 관리되고 있는 건가요?
◆김명주: 이제 중요한 부분은 이게 원래 AI와 관련돼서 사용자의 정보를 가져와서 서비스하는 거는 전혀 문제가 안 돼요. 다들 그렇게 하니까 그런데 이거를 제3자한테 인수하는 굉장히 중요합니다. 그러니까 그 안에서 쓰고 있는 개인 정보를 예를 들어서 챗GPT는 다른 서비스하는 회사랑 어떤 거를 서비스를 공유하기 위해서 데이터를 넘길 수도 있거든요. 심지어 챗GPT가 망하면 그 데이터를 인수할 회사들이 또 가져가겠죠. 그런 부분에 있어서 명확하게 어떻게 개인 정보를 다룰 것인지를 명확히 해주고 있는데 딥시크 안에 들어가시면 그게 없어요. 아주 두리뭉실하게 돼 있고 심지어 어떤 개인 정보를 인수할 때 제3자한테도 인수할 수 있다는 표현이 나오거든요. 제3자라는 이야기는 개인 정보와 관련된 딥시크나 딥시크의 데이터를 인수할 다른 회사 말고 전혀 관련이 없는 제3자도 그거를 가져갈 수 있다고 생각을 하는데 그 3자가 누구일까 많은 사람들은 그거 중국 정부 아니냐라는 생각을 하게 되는 거죠. 그래서 그런 표현들이 살짝살짝 보여지는 부분들이 은연 중에 딥시크 안에 들어가 있는 정보들이 보이지 않게 회사 바깥으로 나갈 수 있고 그게 이제 공공기관의 활용되고 심지어 그걸 이용해서 또 다른 AI의 서비스에 공개적으로 데이터가 쓰이는 게 아닐까 이런 걱정들을 많이 하게 되는 거죠.
◇박귀빈: 챗GPT같은 경우는 기존의 AI 챗GPT 같은 경우는 개인정보 보호 관리를 어떻게 할 것이다라고 명확하게 명시가 돼 있는데 딥시크는 그렇지 않다.
◆김명주: 이걸 가져가서 언제까지 보관하고 어떤 목적으로 쓰고 만약에 다른 회사한테 넘겨줄 경우에 어떤 목적으로 넘겨줄지를 명확하게 표시를 하는데 딥시크는 아직 그게 안 돼 있어서 그래서 이번에 이탈리아에서 한 3주간 일단 얘를 폐쇄시켰어요. 폐쇄시키고 딥시크한테 우리나라 이탈리아 국민들의 정보를 어디까지 가져가고 어떻게 가져가고 어떻게 처리할 건지를 밝혀라 그렇지 않으면 우리 못 쓰게 하겠다 그렇게 이야기했는데 이탈리아는 항상 유럽연합을 대표해서 항상 행동을 해왔어요. 챗GPT 때도 똑같은 일을 했거든요. 그런데 챗GPT는 그거에 대해서 반응을 해서 오픈했고 딥시크가 어떻게 반응을 할지 지켜봐야 되는 거죠.
◇박귀빈: 국가 안보도 위태롭게 할 수 있는 문제이기 때문에 굉장히 중요한 것 같은데요. 지금 보면 미국, 텍사스, 대만 유럽 등에서 딥시크 이용 금지 조치 취하고 있습니다. 우리 정부는 공식 질의서를 발송했다고 하던데요. 나중에 그 답변에 따라서 규제 어떻게 할 것인가 논의를 하게 되는 건가요?
◆김명주: 이제 개인정보보호위원회에서는 개인 정보 차원에서 아마 질의서 발송한 걸로 알고 있고요. 저희 안전 연구소도 지금 테스트를 하고 있는데 저희는 좀 약간 다른 관점에서 합니다. 그러니까 예를 들면 이게 숨겨져 있는 코드는 없나 이 안에 그다음에 이제 특히 중국 같은 경우는 세계 최초로 국가가 AI에 관해서 규제를 했던 나라예요. 그래서 2023년 8월달에 이 생성형 AI에 관한 규제 24개 항을 만들었는데 여기서 굉장히 중요한 게 당성 테스트입니다. AI가 답하는 게 중국의 사회주의 체제에 반하는 거면 답을 못하게 하고 인정을 안 해주기 때문에 그래서 딥시크가 도널드 트럼프 대통령 취임 때 공개됐던 이야기는 당성 테스트를 통과했다는 이야기예요. 그래서 시진핑이라든지 뭐 중국이 불편해하는 질문들을 하면 당연히 회피하거나 대답을 안 해 줍니다. 그 이야기는 얘가 글로벌하게 봤을 때 공정한 AI가 아니라는 뜻이죠. 네 그래서 이제 이런 것들을 가져다가 다운로드 받아서 아까 오픈 소스 말씀을 드렸는데 그 위에서 우리가 조금씩 조금씩 고쳐서 새로운 AI를 만들면 그 저변에는 중국 국가 입장에서의 편파성이 다 녹아져 들어가 있는 거예요. 그래서 그런 것들을 좀 찾아서 이제 노티스를 이제 해 줄 생각을 가지고 있습니다.
◇박귀빈: 지금 일반 국민들 우리나라 국민들이 어플 다운로드 통해서 딥시크 이용할 수 있는 상태입니까?
◆김명주: 현재는 할 수 있는데 아마 잘 터지지 않을 겁니다. 최근에 뭐 해킹도 많이 당하고 공격도 많이 받고 또 이게 서버들이 느려지고 하기 때문에 잘 들어가지 않는데 이미 들어가신 분들은 사용할 수 있고요. 또 기다려서 또 터주면 또 사용할 수 있기 때문에 사용해도 되고 또 하나는 이제 오픈 소스라고 해서 소스가 공개되어 있기 때문에 이제 컴퓨터를 좀 하시는 분들은 자기 PC에 다운로드 받아서 얘를 이제 돌릴 수가 있습니다. 로컬하게 자기 컴퓨터 안에서
◇박귀빈: 그런데 소장님이 보실 때 이거 다운로드 받아서 그냥 사용해도 괜찮을까요? 우리 정부가 지금 공개 질의서 발송해서 답변 기다리고 있다면서요.
◆김명주: 제가 그 소장으로서 말씀드리는 건 아니고 개인적으로 말씀드릴 때는 쓰지 말라고하고싶습니다. 그 안에 어떤 시한폭탄이 있는지 모르는데 그걸 가지고 썼을 때 그거로 인한 개인 정보뿐만이 아니라 그게 설치돼 있는 서버나 PC나 이런 관련된 정보들도 사실은 유출될 가능성도 체크를 해봐야 된다. 그렇게 보고 있기 때문에 아직까지는 안전하다는 이야기가 나올 때까지는 급하게 쓰지 않는 게 좋겠다는 생각을 하고 소스가 탐이 나서 다운로드 받으신 분들은 가지고는 계시지만 그거를 실제 실행 파일로 바꿔서 설치해서 쓰시는 거는 좀 만류하고 싶습니다.
◇박귀빈: 예 알겠습니다. AI 패권 경쟁 앞으로 나라별로 더 치열하게 경쟁할 것 같고 그리고 개인 정보 유출 문제 정말 AI 안전에 대한 문제가 점점 더 부각될 것 같습니다. AI 안전 연구소에서 어떤 역할을 하실 계획인지 끝으로 마무리 말씀 들어볼까요?
◆김명주: 네 안심이라는 키워드의 반대말이 사실 위험인데 AI 안에 사실 아직까지 밝혀지지 않은 위험이 대단히 많이 있어요. 그래서 나라별로 지금 AI 안전연구소를 세워서 이거에 대한 대응을 하고 있고 우리나라도 지금 여섯 번째로 세운 국가인데 국민들이 AI를 쓸 때 좀 걱정하는 부분들이 좀 줄어들 수 있도록 선제적으로 좀 안전에 관한 부분들을 정책이나 기술들을 잘 연구해서 우리 국민들한테 안심할 수 있고 또 기업들이 AI를 통해서 글로벌 경쟁을 할 때 다른 나라보다 안전한 AI라는 이미지를 가질 수 있도록 도와주는 데 최선을 다하도록 하겠습니다.
◇박귀빈: 알겠습니다. 지금까지 AI 안전연구소 김명주 소장이었습니다. 소장님 고맙습니다.
◆김명주: 네 감사합니다.
YTN 이은지 (yinzhi@ytnradio.kr)
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
□ 방송일시 : 2025년 2월 4일 (화)
□ 진행 : 박귀빈 아나운서
□ 출연자 : 김명주 AI안전연구소 초대소장
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◇박귀빈 아나운서(이하 박귀빈): 중국 스타트업이 개발한 인공지능 AI 모델 딥시크가 세계 AI 시장 판을 흔들고 있습니다. 딥시크가 가성비 AI를 구현했다는 점에는 이견이 없는데요. 서비스 이용 과정에서 개인 정보 유출에 대한 우려도 함께 제기되고 있습니다.일부 국가에서는 딥시크 이용을 제한하기도 했죠. 관련 내용 전문가와 이야기 나눠봅니다. AI 안전연구소 초대 소장으로 계시죠? 김명주 서울여대 정보보호학과 교수 전화 연결합니다. 소장님 안녕하세요
◆김명주 AI안전연구소 초대소장 (이하 김명주): 네 안녕하세요
◇박귀빈: 지난 연말에 국내 첫 AI 안전연구소가 출범하고 초대 소장이 되셨는데요. 먼저 AI 안전연구소 소개 좀 부탁드려요.
◆김명주: 안전 연구소가 좀 약간 생소하긴 한데 이게 연구소 제목에 나타나 있는 것처럼 그 AI를 국민들이 사용할 때 불안해하고 있는 요소들이 있어요. 그래서 그런 부분들을 기술적으로 검증을 하는 기관이고 또 이번 딥시크 같은 경우 외국산 AI가 국내에 들어올 때 과연 이런 부분들을 또 믿고 쓸 수 있을까 하는 부분들 그리고 또 우리나라 기업들이 해외에 수출할 때 안전 문제로 인해서 발목 잡히는 일이 없도록 도와주는 연구소가 안전 연구소다 이렇게 이해하시면 될 것 같습니다.
◇박귀빈: 네 AI에 대해서는 많은 분들이 AI라는 용어도 익숙해지고 챗GPT도 많이 들었고 이렇게 생각하실 것 같은데 갑자기 딥시크라는 게 나오면서 AI 시장의 판을 흔들었다 막 이런 이야기가 나오면서 이건 또 뭔데 이러시는 분들 많으실 것 같아요. 사실 저도 그렇고요. 딥시크의 등장이 AI 시장에 충격을 주는 거는 왜 그렇습니까?
◆김명주: 이게 보통 AI도 여러 종류가 있는데 우리가 잘 알고 있는 챗GPT라든지 이런 부분들은 보통 이제 거대 AI라고 불러요. 프런티어 AI라고 부르는데 얘들은 만들려면 돈이 많이 듭니다. 그래서 한번 훈련시켜서 실제 서비스까지 가는 데 들어가는 돈이 챗GPT 같은 경우는 몇 조 원이 들어가거든요. 엄청나게 큰 돈이 들어가는데 이번에 중국에서 만든 딥시크는 성능은 거의 비슷하면서 돈은 챗GPT보다 어떤 경우는 10분의 1 혹은 20분의 1 정도밖에 들지 않았다. 그리고 거기 사용되는 하드웨어 장비 중에 GPU라는 게 있는데 GPU도 최신 거 아니고 옛날 거 썼는데 성능도 괜찮게 나왔다 이렇게 하니까 이게 굉장히 파급 효과가 컸던 거죠.
◇박귀빈: 실제 돈이 많이 절감된 거는 맞는 건가요? 지금 중국 업체 측에서 그렇게 밝힌 건데
◆김명주: 그런데 실제로 보면 이게 숨겨져 있는 비용들이 많아요. 그래서 약간 의도성이 있는 게 아닌가 이렇게 이야기를 하는데 성능이 좋다고 하는 모델이 딥시크 중에서 R1이라는 모델인데 이게 트럼프 대통령 취임하는 날 공개했거든요.그래서 이게 챗GPT O1하고 이렇게 필적한다고 이야기했는데 그러면 그 R1에 들어가는 비용을 말을 해야 되는데 그 비용을 이야기하지 않고 R1의 기초 모델이 되는 게 한 달 전에 나왔었어요. V3라고 그 V3의 비용을 가지고 R1에다가 붙여서 이야기를 하니까 V3에서 R1으로 가는 데 또 비용이 추가로 들거든요. 그리고 추가로 드는 비용은 또 쏙 뺀 거죠. 그래서 사실은 지금처럼 비용이 현격히 줄었다라기보다는 줄기는 줄었지만 찾아보면 결국은 비슷한 비용이 들었을 것이다 이렇게 보는 사람들이 더 많습니다.
◇박귀빈: 그럼 성능은 어떻습니까? 오픈 AI의 챗GPT하고 이번 딥시크하고 성능은 어떤 것 같아요?
◆김명주: 이것도 딥시크에서 발표하는 그 논문을 보면은 챗GPT보다 더 뛰어나다 하는 부분이 있는데 특히 얘들이 이제 추론이라고 그래서 주로 수학이나 과학이나 코딩 이런 쪽에 굉장히 좀 뛰어난 능력이 있거든요. 그래서 수학 같은 경우는 이제 여러 가지 이렇게 테스트할 수 있는 문제집들이 있어요. 그래서 AIME 주로 미국에서 많이 쓰고 있는 2024년도 기준으로 했을 때는 얘가 챗GPT 더 뛰어나고 그다음에 코딩하는 분야도 뛰어나고 이렇게 딥시크에서 발표를 하는데 실제 그렇지 않은 다른 분야 사실 저희 연구소도 지금 계속 테스트를 하고 있거든요. 테스트를 하고 있는데 내부적으로는 좀 심각하게 성능이 떨어지는 부분이 상당히 많이 있습니다. 그리고 대개는 한글이나 이런 걸로 대화를 하면 한글로 대답을 해야 되는데 상당수가 중국어로 대답을 자꾸 해서 일반적으로 사용하기는 좀 불편하지 않을까 하는 생각이 좀 들어요
◇박귀빈: 그러면 전체적으로 봤을 때 일단 스타트업입니다. 이름도 좀 생소한 스타트업이고 또 대학을 갓 졸업한 200명의 직원 연구자 개발자들이 모여서 만든 거고 이게 불과 2년밖에 안 된 회사라면서요. 그래서 여러 가지 비용도 아직은 더 많이 들었을 것 같은 게 추정이 되고 성능도 보니까 조금 살펴볼 부분이 있긴 하겠으나 좀 놀랄 만한 성과는 맞습니까?
◆김명주: 주목할 부분들은 지금 이제 방금 말씀하셨던 부분들이 사실 주목할 요소인데 AI를 개발할 때 돈이 가장 많이 들어가는 데가 이제 계산하는 분야입니다. 컴퓨팅 하드웨어 분야고 그다음으로 많이 들어가는 데가 인건비거든요. 그런데 이제 중국 쪽은 아무래도 인건비가 미국보다 훨씬 싸니까 그런 면에서도 저렴하고 그다음에 또 하나는 AI 지금 이런 챗GPT 같은 걸 만드는 기술 가운데서 최근 한 1~2년 사이에 이렇게 영역별로 이렇게 쪼개서 만드는 기술들이 나왔어요. 보통 MoE 라고 하는데 그래서 과학 분야 수학 분야 무슨 분야별로 이렇게 따로따로 내부적으로 쪼개서 만드는 기술이 있는데 MoE 기술을 아주 적극적으로 도입해서 쓰고 있는 인공지능이 바로 딥시크라고 보시면 될 것 같아요. 그래서 결국 이제 좀 낮은 인건비에다가 알고리즘 보통 소프트웨어죠 소프트웨어 측면에서 좀 혁신적인 방법을 쓰고 그리고 하드웨어도 그렇게 최신의 것을 쓰지 않았음에도 불구하고 가장 좋은 환경을 가졌던 기업하고 비교했을 때 성능이 비슷하다 이런 면에서는 상당히 많이 주목을 받는 거고 그게 우리나라한테 주는 메시지도 있죠. 왜냐하면 우리나라도 사실은 돈으로 해서 미국을 따라잡을 수는 없잖아요. 그렇기 때문에 우리도 결국은 인력 문제 그다음에 아이디어 문제 여러 가지 주변에 돈이 아니고 자본이 아닌 다른 쪽에 키가 있기 때문에 그쪽으로 우리도 투자를 하게 되면 비슷한 결과를 얻지 않을까 하는 일종의 희망의 메시지가 우리한테 전해진 거죠.
◇박귀빈: 주목할 만한 성과가 맞다 이런 말씀이신 거잖아요.
◆김명주: 네 상당히 기존의 틀을 벗어났던 접근이라서 주목할 만한 성과는 맞다 라고 보는 게 맞습니다.
◇박귀빈: 그게 어떻게 가능했을까요?
◆김명주: 그게 아까 말씀드렸던 것처럼 그런 약간 자본 중심에서 사고가 벗어났고요. 하나의 키워드로 표현한다고 그러면 창의력
◇박귀빈: 중국 정부에서의 지원이나 뭐 이런 것도 있었던 걸까요?
◆김명주: 당연히 있겠죠. 왜냐하면 모든 중국의 기업들은 중국 정부가 사실은 주주 역할들을 다 하고 있는 보통 국가 기업처럼 운영이 되기 때문에 그 뒤에 상당히 많은 것들이 있고 그리고 몇 가지 의심스러운 부분들이 있어요. AI에서 굉장히 중요한 게 데이터인데 학습하는 데이터가 아주 좋을수록 아주 많을수록 얘가 성능이 뛰어나거든요. 그런데 그 짧은 기간에 그 많은 데이터를 어떻게 구입했을까 어떻게 얻었을까 생각을 해보니까 자기들이 일일이 다 얻은 게 아니고 이미 챗GPT라든지 이런 데 만들어 놓은 것들을 그 안에서 이렇게 자기들이 가져다가 다시 쓴 게 아닐까 뭐 보통 그걸 증류라고 보통 표현하는데 증류 과정을 통해서 데이터를 이렇게 일종의 훔쳤다고 보는 거죠. 그래서 오픈AI 에서 이거에 대해서 조사하겠다 이제 그렇게 보는 거여서 이게 데이터가 어디서 나오는지 정확히 밝혀지지 않으면 그 의심을 피할 수 없고요. 또 하나는 이게 오픈 소스라고 그래서 이 AI의 소스 코드를 자기들이 처음부터 개발한 게 아니에요. 이미 공개돼 있는 걸 가져다가 자기들이 변경해서 쓰는 거기 때문에 그 부분도 우리나라 입장에서 볼 때는 우리나라도 오픈 소스를 중심적으로 활동을 하니까 그렇다면 우리도 오픈 소스 중심으로 개발을 시작하면 우리도 1~2년 내에 그렇게 좋은 성과를 내지 않을까 하는 이제 가능성들이 보이는 거죠.
◇박귀빈: 네 어떤 부분에서는 약간의 지금 의혹되는 부분도 있고 그래서 오픈 AI 쪽에서 조사도 좀 요구해서 진행될 수도 있을 것 같은 그런 분위기이긴 한데 사실 우려 나오는 것 중에 또 하나가 큰 문제가 개인정보 유출 문제더라고요. 이건 왜 그런가요?
◆김명주: 이게 개인정보 유출 문제는 사실 그 집단에 중국이라는 나라가 있는 거랑 같이 연관이 있어요. 왜 그러냐면 틱톡도 사실 그런 문제인데 개인 정보를 이제 가져가게 되면 뭐 챗GPT도 개인 정보를 가져가거든요. 개인 정보를 가져가게 되면 그게 중국 서버 중국 쪽에 있는 서버에 보관돼 있도록 돼 있고 혹시 개인 정보에 관해서 무슨 분쟁이 생기면 중국 안에 있는 법정에서 다투도록 되어 있어요. 약관에 그러니까 우리나라 입장에서는 어떤 개인 정보 이슈를 어 말하려고 그래도 그 뒷단에 있는 중국 정부라든지 중국 법원을 통해서 이야기해야 되는 상황이고 그게 좀 투명하지 않다는 의심들을 계속 받아왔잖아요.그리고 챗GPT하고 딥시크 R1하고 이렇게 약관을 비교해 보면 거의 비슷한데 몇 가지 좀 특이한 게 나옵니다. 그중에 하나가 이런 표현이 나오는데 사용자가 키보드를 통해서 입력하는 패턴들 이런 것들도 우리가 명확하게 좀 가져가겠다 이런 표현이 딥시크에 나오는데 이거는 어떤 거가 있냐면 보통 일반적으로 말로 이렇게 하는 게 아니라 보통 시스템 보통 프롬프트라고 그래서 관리자 모드로 들어갈 수 있는 그런 단어들이 몇 개 있어요. 그런 걸 통해서 관리자 모드로 들어가는 것들도 우리가 과감하게 찾아내서 그것도 관리하겠다 그러니까 어떤 걸 입력해서 뭘 의도하는지도 우리가 파악하겠다 그렇게까지 보시면 될 것 같고 그거는 사용하는 도중에 개인 사용자의 사용 패턴 그다음에 사용하는 의도 그다음에 그 사람이 가지고 있는 정보들을 충분히 본인들이 가져가서 분석하겠다는 경고로도 볼 수 있습니다.
◇박귀빈: 근데 챗GPT 같은 경우도 이거를 이용하는 모든 사람들의 정보가 사실은 수집이 되지 않습니까? 개인 정보가 그러면 챗GPT 오픈 AI와 딥시크가 개인정보 보호 관리 부분이 정확하게 어떤 부분이 지금 다르게 관리되고 있는 건가요?
◆김명주: 이제 중요한 부분은 이게 원래 AI와 관련돼서 사용자의 정보를 가져와서 서비스하는 거는 전혀 문제가 안 돼요. 다들 그렇게 하니까 그런데 이거를 제3자한테 인수하는 굉장히 중요합니다. 그러니까 그 안에서 쓰고 있는 개인 정보를 예를 들어서 챗GPT는 다른 서비스하는 회사랑 어떤 거를 서비스를 공유하기 위해서 데이터를 넘길 수도 있거든요. 심지어 챗GPT가 망하면 그 데이터를 인수할 회사들이 또 가져가겠죠. 그런 부분에 있어서 명확하게 어떻게 개인 정보를 다룰 것인지를 명확히 해주고 있는데 딥시크 안에 들어가시면 그게 없어요. 아주 두리뭉실하게 돼 있고 심지어 어떤 개인 정보를 인수할 때 제3자한테도 인수할 수 있다는 표현이 나오거든요. 제3자라는 이야기는 개인 정보와 관련된 딥시크나 딥시크의 데이터를 인수할 다른 회사 말고 전혀 관련이 없는 제3자도 그거를 가져갈 수 있다고 생각을 하는데 그 3자가 누구일까 많은 사람들은 그거 중국 정부 아니냐라는 생각을 하게 되는 거죠. 그래서 그런 표현들이 살짝살짝 보여지는 부분들이 은연 중에 딥시크 안에 들어가 있는 정보들이 보이지 않게 회사 바깥으로 나갈 수 있고 그게 이제 공공기관의 활용되고 심지어 그걸 이용해서 또 다른 AI의 서비스에 공개적으로 데이터가 쓰이는 게 아닐까 이런 걱정들을 많이 하게 되는 거죠.
◇박귀빈: 챗GPT같은 경우는 기존의 AI 챗GPT 같은 경우는 개인정보 보호 관리를 어떻게 할 것이다라고 명확하게 명시가 돼 있는데 딥시크는 그렇지 않다.
◆김명주: 이걸 가져가서 언제까지 보관하고 어떤 목적으로 쓰고 만약에 다른 회사한테 넘겨줄 경우에 어떤 목적으로 넘겨줄지를 명확하게 표시를 하는데 딥시크는 아직 그게 안 돼 있어서 그래서 이번에 이탈리아에서 한 3주간 일단 얘를 폐쇄시켰어요. 폐쇄시키고 딥시크한테 우리나라 이탈리아 국민들의 정보를 어디까지 가져가고 어떻게 가져가고 어떻게 처리할 건지를 밝혀라 그렇지 않으면 우리 못 쓰게 하겠다 그렇게 이야기했는데 이탈리아는 항상 유럽연합을 대표해서 항상 행동을 해왔어요. 챗GPT 때도 똑같은 일을 했거든요. 그런데 챗GPT는 그거에 대해서 반응을 해서 오픈했고 딥시크가 어떻게 반응을 할지 지켜봐야 되는 거죠.
◇박귀빈: 국가 안보도 위태롭게 할 수 있는 문제이기 때문에 굉장히 중요한 것 같은데요. 지금 보면 미국, 텍사스, 대만 유럽 등에서 딥시크 이용 금지 조치 취하고 있습니다. 우리 정부는 공식 질의서를 발송했다고 하던데요. 나중에 그 답변에 따라서 규제 어떻게 할 것인가 논의를 하게 되는 건가요?
◆김명주: 이제 개인정보보호위원회에서는 개인 정보 차원에서 아마 질의서 발송한 걸로 알고 있고요. 저희 안전 연구소도 지금 테스트를 하고 있는데 저희는 좀 약간 다른 관점에서 합니다. 그러니까 예를 들면 이게 숨겨져 있는 코드는 없나 이 안에 그다음에 이제 특히 중국 같은 경우는 세계 최초로 국가가 AI에 관해서 규제를 했던 나라예요. 그래서 2023년 8월달에 이 생성형 AI에 관한 규제 24개 항을 만들었는데 여기서 굉장히 중요한 게 당성 테스트입니다. AI가 답하는 게 중국의 사회주의 체제에 반하는 거면 답을 못하게 하고 인정을 안 해주기 때문에 그래서 딥시크가 도널드 트럼프 대통령 취임 때 공개됐던 이야기는 당성 테스트를 통과했다는 이야기예요. 그래서 시진핑이라든지 뭐 중국이 불편해하는 질문들을 하면 당연히 회피하거나 대답을 안 해 줍니다. 그 이야기는 얘가 글로벌하게 봤을 때 공정한 AI가 아니라는 뜻이죠. 네 그래서 이제 이런 것들을 가져다가 다운로드 받아서 아까 오픈 소스 말씀을 드렸는데 그 위에서 우리가 조금씩 조금씩 고쳐서 새로운 AI를 만들면 그 저변에는 중국 국가 입장에서의 편파성이 다 녹아져 들어가 있는 거예요. 그래서 그런 것들을 좀 찾아서 이제 노티스를 이제 해 줄 생각을 가지고 있습니다.
◇박귀빈: 지금 일반 국민들 우리나라 국민들이 어플 다운로드 통해서 딥시크 이용할 수 있는 상태입니까?
◆김명주: 현재는 할 수 있는데 아마 잘 터지지 않을 겁니다. 최근에 뭐 해킹도 많이 당하고 공격도 많이 받고 또 이게 서버들이 느려지고 하기 때문에 잘 들어가지 않는데 이미 들어가신 분들은 사용할 수 있고요. 또 기다려서 또 터주면 또 사용할 수 있기 때문에 사용해도 되고 또 하나는 이제 오픈 소스라고 해서 소스가 공개되어 있기 때문에 이제 컴퓨터를 좀 하시는 분들은 자기 PC에 다운로드 받아서 얘를 이제 돌릴 수가 있습니다. 로컬하게 자기 컴퓨터 안에서
◇박귀빈: 그런데 소장님이 보실 때 이거 다운로드 받아서 그냥 사용해도 괜찮을까요? 우리 정부가 지금 공개 질의서 발송해서 답변 기다리고 있다면서요.
◆김명주: 제가 그 소장으로서 말씀드리는 건 아니고 개인적으로 말씀드릴 때는 쓰지 말라고하고싶습니다. 그 안에 어떤 시한폭탄이 있는지 모르는데 그걸 가지고 썼을 때 그거로 인한 개인 정보뿐만이 아니라 그게 설치돼 있는 서버나 PC나 이런 관련된 정보들도 사실은 유출될 가능성도 체크를 해봐야 된다. 그렇게 보고 있기 때문에 아직까지는 안전하다는 이야기가 나올 때까지는 급하게 쓰지 않는 게 좋겠다는 생각을 하고 소스가 탐이 나서 다운로드 받으신 분들은 가지고는 계시지만 그거를 실제 실행 파일로 바꿔서 설치해서 쓰시는 거는 좀 만류하고 싶습니다.
◇박귀빈: 예 알겠습니다. AI 패권 경쟁 앞으로 나라별로 더 치열하게 경쟁할 것 같고 그리고 개인 정보 유출 문제 정말 AI 안전에 대한 문제가 점점 더 부각될 것 같습니다. AI 안전 연구소에서 어떤 역할을 하실 계획인지 끝으로 마무리 말씀 들어볼까요?
◆김명주: 네 안심이라는 키워드의 반대말이 사실 위험인데 AI 안에 사실 아직까지 밝혀지지 않은 위험이 대단히 많이 있어요. 그래서 나라별로 지금 AI 안전연구소를 세워서 이거에 대한 대응을 하고 있고 우리나라도 지금 여섯 번째로 세운 국가인데 국민들이 AI를 쓸 때 좀 걱정하는 부분들이 좀 줄어들 수 있도록 선제적으로 좀 안전에 관한 부분들을 정책이나 기술들을 잘 연구해서 우리 국민들한테 안심할 수 있고 또 기업들이 AI를 통해서 글로벌 경쟁을 할 때 다른 나라보다 안전한 AI라는 이미지를 가질 수 있도록 도와주는 데 최선을 다하도록 하겠습니다.
◇박귀빈: 알겠습니다. 지금까지 AI 안전연구소 김명주 소장이었습니다. 소장님 고맙습니다.
◆김명주: 네 감사합니다.
YTN 이은지 (yinzhi@ytnradio.kr)
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]