AD
[앵커]
중국 스타트업이 출시한 인공지능 AI 모델 딥시크가 전 세계 인공지능 시장을 흔들고 있습니다.
가성비를 앞세운 딥시크는 고성능 AI 모델보다 적은 돈으로 단기간에 어떻게 성능 좋은 인공지능을 개발할 수 있었을까요?
딥시크만의 특징은 무엇인지 권석화 기자가 정리했습니다.
[기자]
지난달 20일 공개된 중국 AI 모델 '딥시크 R1'
미국이 주도하던 AI 시장을 단숨에 뒤집어 놓았습니다.
오픈AI의 챗GPT, 구글의 제미나이 등 최신 AI 모델과 맞먹는 성능에 개발비용은 현저히 낮은 '가성비'로 큰 주목을 받았습니다.
딥시크가 사용한 GPU는 엔비디아의 고성능 H100이 아닌 저사양 H800 칩 2천여 개로, 개발 비용은 우리 돈 80억 원, 빅테크가 쓴 돈의 10분의 1 수준입니다.
가성비 개발이 가능했던 핵심은 크게 두 가지로, 전문가 혼합 기법 MoE와 정확도 보상입니다.
전문가 혼합 기법은 특정 분야의 여러 전문가가 모여 머리를 맞대 작업하듯, 특화된 LLM 모델 여러 개를 모아 필요에 따라 특정 모델만 활성화하는 방식입니다.
딥시크의 기술보고서에 따르면, R1의 매개변수는 6710억 개지만, 실제 작업에는 340억 개 정도만 선별적으로 사용합니다.
즉, 딥시크는 모든 매개변수를 구동에 쓰지 않아 다른 AI 모델보다 메모리 사용량이 적고 작업 속도가 빠른 겁니다.
딥시크는 또, 지도학습을 거치지 않고 바로 강화학습을 시켜 AI를 고도화했습니다.
직접 학습이 아닌 다른 AI가 훈련시키는 강화 학습을 통해 인건비를 아낀 겁니다.
무엇보다 전문가들은 딥시크가 오픈소스를 사용했다는 점에 주목합니다.
오픈소스를 이용해 개발한 딥시크를 다시 오픈소스에 공개했는데, 이를 통해 전 세계 개발자들이 딥시크 AI를 시험하고 개선하는 등 개발에 참여할 수 있습니다.
[김명주 / AI안전연구소 초대소장 : 이게 오픈 소스라고 그래서 이 AI의 소스 코드를 자기들이 처음부터 개발한 게 아니에요. 이미 공개돼 있는 걸 가져다가 자기들이 이제 변경해서 쓰는 거기 때문에. 우리도 오픈 소스 중심으로 개발을 시작하면 우리도 1~2년 내 그렇게 좋은 성과를 내지 않을까….]
AI 업계에 아직은 절대 강자가 없다는 걸 확인시켜준 딥시크 쇼크.
전문가들은 딥시크로 인해 미국 빅테크를 추격할 가능성이 확인된 만큼 국내 AI 산업계도 우리만의 강점을 발굴해 새로운 발전 방향을 찾아야 한다고 강조했습니다.
YTN 사이언스 권석화입니다.
영상편집 : 황유민
그래픽 : 이원희
YTN 권석화 (stoneflower@ytn.co.kr)
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
중국 스타트업이 출시한 인공지능 AI 모델 딥시크가 전 세계 인공지능 시장을 흔들고 있습니다.
가성비를 앞세운 딥시크는 고성능 AI 모델보다 적은 돈으로 단기간에 어떻게 성능 좋은 인공지능을 개발할 수 있었을까요?
딥시크만의 특징은 무엇인지 권석화 기자가 정리했습니다.
[기자]
지난달 20일 공개된 중국 AI 모델 '딥시크 R1'
미국이 주도하던 AI 시장을 단숨에 뒤집어 놓았습니다.
오픈AI의 챗GPT, 구글의 제미나이 등 최신 AI 모델과 맞먹는 성능에 개발비용은 현저히 낮은 '가성비'로 큰 주목을 받았습니다.
딥시크가 사용한 GPU는 엔비디아의 고성능 H100이 아닌 저사양 H800 칩 2천여 개로, 개발 비용은 우리 돈 80억 원, 빅테크가 쓴 돈의 10분의 1 수준입니다.
가성비 개발이 가능했던 핵심은 크게 두 가지로, 전문가 혼합 기법 MoE와 정확도 보상입니다.
전문가 혼합 기법은 특정 분야의 여러 전문가가 모여 머리를 맞대 작업하듯, 특화된 LLM 모델 여러 개를 모아 필요에 따라 특정 모델만 활성화하는 방식입니다.
딥시크의 기술보고서에 따르면, R1의 매개변수는 6710억 개지만, 실제 작업에는 340억 개 정도만 선별적으로 사용합니다.
즉, 딥시크는 모든 매개변수를 구동에 쓰지 않아 다른 AI 모델보다 메모리 사용량이 적고 작업 속도가 빠른 겁니다.
딥시크는 또, 지도학습을 거치지 않고 바로 강화학습을 시켜 AI를 고도화했습니다.
직접 학습이 아닌 다른 AI가 훈련시키는 강화 학습을 통해 인건비를 아낀 겁니다.
무엇보다 전문가들은 딥시크가 오픈소스를 사용했다는 점에 주목합니다.
오픈소스를 이용해 개발한 딥시크를 다시 오픈소스에 공개했는데, 이를 통해 전 세계 개발자들이 딥시크 AI를 시험하고 개선하는 등 개발에 참여할 수 있습니다.
[김명주 / AI안전연구소 초대소장 : 이게 오픈 소스라고 그래서 이 AI의 소스 코드를 자기들이 처음부터 개발한 게 아니에요. 이미 공개돼 있는 걸 가져다가 자기들이 이제 변경해서 쓰는 거기 때문에. 우리도 오픈 소스 중심으로 개발을 시작하면 우리도 1~2년 내 그렇게 좋은 성과를 내지 않을까….]
AI 업계에 아직은 절대 강자가 없다는 걸 확인시켜준 딥시크 쇼크.
전문가들은 딥시크로 인해 미국 빅테크를 추격할 가능성이 확인된 만큼 국내 AI 산업계도 우리만의 강점을 발굴해 새로운 발전 방향을 찾아야 한다고 강조했습니다.
YTN 사이언스 권석화입니다.
영상편집 : 황유민
그래픽 : 이원희
YTN 권석화 (stoneflower@ytn.co.kr)
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]