상세 컨텐츠

본문 제목

AI업계의 메기일까, 딥시크 등장

경제 흐름, 그리고 이슈

by laissezfaire 2025. 2. 2. 17:28

본문

 


요새 딥시크 충격, 딥시크 쇼크 등으로 시끄러운데 

딥시크, 갑툭튀 느낌이긴 하지만 사실 AI 활발하게 쓰는 사람들에겐 상당히 익숙했던 곳이에요. 

 

요새 챗GPT 뿐 아니라 이미지, 영상 쪽 특화된 AI까지 해서 
AI 구독비용만 한달에 10~20만원씩 지출하는 경우 흔한데
비용 부담이 크니까 무료 버전 찾는 사람들이 대부분 추천하는 게 
구글 AI 스튜디오와 딥시크거든요. 

 


딥시크는 중국 AI 개발 기업이고 
1월 20일에 추론모델 R1 챗봇 앱 공개하면서 
저비용에 이렇게 성능 좋은 AI를 개발했다는 놀라움에 
기존 AI 개발을 주도해온 미국이 발칵 뒤집힌 상황이에요. 


딥시크가 기사 헤드라인에 본격 등장하기 시작한 게 1월 27일인데 
그날 엔비디아가 딥시크 쇼크로 하루에 17% 폭락하면서 
시총 846조7000억원 가량이 증발할 정도였어요. 

 

토종 중국인이 설립한 AI 개발사

딥시크는 중국인이 설립한, 
그것도 해외 유학경험 없고 실리콘밸리 경험도 없는 
토종 중국인 량원평이 공동설립한 기업이에요.   

량원평은 1985년생, 아직 30대네요. 
항저우 저장대학에서 전자정보와 컴퓨터 공학 전공이에요. 엔지니어인 거죠. 
이런 엔지니어가 2015년에 퀀트 헤지펀드인 하이 플라이어 퀀트 설립했어요. 

퀀트는 수학적, 통계적 기법으로 투자하는 건데 

금융공학을 전공한 사람들이 많이 합니다. 

 

량원평은 알고리즘에 딥러닝 기법을 접목한 AI 트레이딩으로 자금 모아 
하이 플라이어 퀀트를 중국 최대 규모의 퀀트 펀드 중 하나로 키웠어요. 
현재 80억달러, 11조원 넘는 자산을 운용하고 있다고 합니다. 

량원평 딥시크 설립자, 사진마다 왜 이리 이미지가 다른지..


하이플라이어펀드가 퀀트 펀드다 보니 
2019년부터 사내에 딥러닝 플랫폼 부서 만들어서 
대규모언어모델(LLM) 훈련을 위해 
엔비디아 칩 1만개 확보하고 클러스터를 구축했는데요. 

하이플라이어 펀드에서 이 사업부를 분사해서 
설립한 게 바로 딥시크예요. 


첫 AI 모델 딥시크코더를 2023년 11월에 선보였고 
이후 딥시크 매스, 딥시크, VL, VL2, 코더2, V3 등의 모델을 출시했어요. 

V3는 대규모 언어모델(LLM)으로 오픈AI의 챗GPT 4o 모델과 필적

그리고 1월 20일에 선보인 건 추론형 AI 모델인 R1인데 

LLM은 질문을 하면 거기에 맞는 답을 찾아주거나 글을 작성해주거나 PPT 파일을 만들어주는 작업에 강하다면

추론형은 보다 복잡한 수학문제, 과학문제를 푸는데 적합해요. 

딥시크가 이 R1 모델을 출시하자마자 미국 앱스토어에서 챗GPT 제치고 무료앱 1위에 올랐어요. 


딥시크는 이 R1 모델이 오픈AI의 추론형 AI모델인 o1이나 앤스로픽의 클로드 3.5 모델, 메타의 라마 3.1 모델과 비교해 성능이 뒤지지 않는다고 주장하고 있어요. 

 

열악한 개발환경에서 저비용으로 만든 작품?


딥시크 LLM 모델인 V3 개발비용이 560만달러(80억원)
오픈AI 챗GPT 개발비용 50억달러(7조 넘어)
메타의 라마3 개발비용의 10분의 1 

게다가 이 LLM 모델도 단 두 달 만에 개발했다고 밝혀. 

 

미국 빅테크들 AI 개발비용에 비하면 엄청 저렴한 건데요. 

그동안 AI 개발에만 수조원이 투입될 정도로 정말 돈 먹는 하마였는데. 

 

이렇게 싸게 먹혔던 건 일단 하드웨어에서의 비용 절감. 

AI는 사실 반도체 칩이 핵심이에요. 
그런데 미국이 대중수출 규제에 나서면서 
엔비디아가 성능이 좀 떨어지는 그래픽저장장치(GPU)만 팔았는데

성능이 떨어지는 H800으로 개발한 거예요.

이 칩은 미국의 고성능칩 수출 규제로 엔비디아가 H100의 사양을 낮춰서 출시한 칩입니다. 


AI 선두 기업들이 1만6000개 이상의 칩을 사용해 챗본을 훈련시킨 반면
딥시크는 엔비디아 GPU 약 2000개를 사용해 개발하다니. 

저사양 칩을 사용한데다, 
사용한 칩 개수도 적으니 
개발비용이 적게 들어가고 효율은 높아질 수밖에


게다가 랑원평 자신도 토종 중국인이지만 
딥시크에 실리콘 밸리 출신도, 해외 유학파도 없고 
대부분 중국 토종 공대 출신. 
연구개발 인력 180여명으로 
오픈AI 개발인력인 1200여명의 6분의 1 수준이에요. 

 

또 한가지는 중국이 정보에 대한 문턱이 낮다는 점이에요. 

AI를 개발하려면 대규모 데이터를 확보해서 계속 학습을 시켜야 하는데

미국은 데이터 라벨링 비용이 상당히 높아요. 

개인정보보호도 까다롭고, 데이터를 쓰려면 비용을 지불해야 합니다. 

그런데 중국은 그 장벽이 낮거든요. 

 

그리고 AI는 전기 먹는 하마예요. 

아무래도 전력 비용이 비싼 미국보다 저렴한 중국에서 

개발비용이 덜 들어갈 수밖에요. 

 

어찌 됐든 저사양 칩으로 이렇게 챗GPT에 필적할만한 AI를 만들었다니 

AI 업계에 그야말로 쇼크였어요. 

미국의 AI칩 수출 규제의 한계를 보여줬다는 지적이 나오고 있어요. 

 

딥시크의 AI 특징은

 

오픈AI나 앤스로픽, 구글 같은 곳에서는 모든 숫자를 소수점 32자리 기록한다면 
딥시크는 8자리로만 기록하면 어떻지, 충분히 정확하잖아라고 접근했다고 합니다.

결과적으로 메모리 사용량이 75% 감소하는 거죠. 

기존 AI는 단어를 하나씩 읽는데 
딥시크 AI는 문장을 한 번에 처리하는 멀티 토큰 시스템 도입했고요. 

전문가 시스템을 구축했어요.

거대한 AI가 모든 것을 다 알도록 만들기 위해 기존 모델은 1조8000억개의 파라미터가 활성화되는데  
딥시크는 6710억개의 파라미터 중 단지 370억개만 활성화했습니다. 
한 사람이 의사, 변호사, 엔지니어 역할을 모두 하게 하기보다 
필요한 경우에만 전문가를 호출하도록 설계했기 때문이라고 하네요. 

모든 기술을 오픈소스로 공개해서 누구나 검증할 수 있도록 했다는 것도 특징이에요. 

 

딥시크가 AI 시장에 메기가 될 것 같다는 느낌이 드네요. 

아마 미국 AI 빅테크들은 계속 딥시크 흠집 내기를 할 것 같고요. 

자금 더 필요하다는 어필을 다소 과장해서 하고 있었는데 

딥시크가 저렇게 저비용으로 개발했다고 하니 

문제 있다, 진정한 AI는 아니다, 우리는 기술 수준이 다르다 주장하겠죠. 

 

중국은 계속 미국의 대중제재에도 스스로 강해지고 있다는 메시지를 계속 주고 싶어 할 거고요. 

중국 내부적으로도 경기 침체로 인해 선단 산업 투자 집중에 대한 부정적 여론도 환기시켜야 하니까요.

한동안 미국과 중국의 AI 경쟁이 이어질 것 같습니다. 

 

관련글 더보기