성장할 기업&브랜드

딥시크(DeepSeek)가 촉발한 AI산업의 변화: 딥시크를 주목하는 이유

영수증 연구소 2025. 4. 18. 14:10
728x90
반응형

 

 

 

딥시크(DeepSeek)는 2023년 중국 AI 스타트업 Moonshot AI(문샷 AI)가 개발한 모델입니다. 창업자는 량원펑(Liang Wenfeng)으로, 전 퀀트 헤지펀드 하이플라이어(High-Flyer) CEO 출신입니다. 고비용 AI의 한계를 깨기 위해, 누구나 접근 가능한 오픈소스 AI 개발을 목표로 창업했습니다. 량원펑은 중국 칭화대에서 수학, 컴퓨터 과학 계열을 전공한 것으로 알려져 있으나, 공식적인 부분은 명확하게 알려져 있지 않긴 합니다. 퀀트 헤지펀드 하이플라이어의 공동 창업자였던 그는 인공지능이 금융보다 훨씬 더 큰 변화를 일으킬 것이라고 판단했다고 합니다. 그리고 AI는 소수의 대기업이 독점해서는 안 된다는 생각을 가지고 2023년 AI 스타트업 문샷 AI(Moonshot AI) 설립하고 2025년 1월 고성능이면서도 오픈소스 기반인 딥시크(DeepSeek R1) 을 발표하면서, 전세계적인 주목을 얻게 됩니다. 

 

 

 

 

 

 

왜 딥시크는 주목을 얻었을까?

오픈AI가 선보인 이후, 지금까지 AI는 누가 더 큰 모델을 더 빠른 속도로 훈련을 시키느냐에 대한 관점이었습니다. 구글 CEO 순다르 피차이는  2024년 7월 Alphabet 실적 발표 컨퍼런스콜 AI에 대한 “과소 투자의 위험은 과잉 투자의 위험보다 훨씬 더 크다”라며, AI 분야에서의 선도적 위치를 유지하기 위해 과감한 투자의 필요성을 강조하기도 했습니다. 그만큼 지금까지의 AI는 규모의 경쟁, 투자의 경쟁이라고 해도 과언이 아닐 정도 빅테크 기업들의 투자 양상을 보여왔습니다. 

 

하지만 딥시크(DeepSeek) R1의 공개로 이러한 공식이 바뀔 수 있다는 가능성으로 인해, 전세계에서 주목을 얻게 되었습니다. 즉 작고 가볍고 빠르게 쓸 수 있는 AI모델의 가능성을 딥시크를 통해 보여준 것입니다. 그리고 오픈소스 기반이었다는 점에서 특정 기업에 의해서 AI산업이 집중되는 부분을 피해를 막을 수 있을 수 있다는 점에서 긍정적이었다고 볼 수 있겠네요. 현재 AI에서 모델 개발 중심(Value Chain Upstream)의 경쟁으로 이루어지고 있지만, 실제 빠르게 성장할 시장은 AI를 서비스로 구현하는 영역라는 점에서 앞으로의 경쟁은 AI를 얼마나 잘 응용하고 사람들에게 유용하게 만들 수 있다는 어플리케이션 중심(Downstream)의 경쟁으로 판도를 변화시킨 시발점이 될 수 있을 것으로도 생각되네요. 

 

 

딥시크 vs 오픈AI 비교, 출처: 헤럴드경제

 

 

 

챗GPT와 딥시크 개발 스펙

딥시크 R1은 중국 전용 AI GPU인 엔비디아 H800 2,048개를 활용해 훈련되었으며, 총 훈련 비용은 약 560만 달러(약 75억원)로 알려져 있습니다. 알려진 것처럼 엔비디아 H800은 미국 정부의 중국 수출 규제로 인해, H100을 다운그레이드한 버전입니다. AI 연산을 빠르게 하기 위해 GPU 내부에 특별히 설계한 연산 장치인 Tensor 코어 수와 메모리에서 데이터를 얼마나 빠르게 읽고 쓸 수 있느냐를 의미하는 메모리 대역폭이 H100에 비해 떨어짐에도 불구하고, 딥시크 R1은 낮은 GPU를 기반으로도 오픈AI에 챗GPT만큼의 성능을 만들어낸 부분에서도 높은 평가를 받고 있습니다. 또한 GPU수에 있어서도 GPT3는 약 1만개 이상, 딥시크 R1은 2,048개로 차이를 보여주고 있다는 점도 딥시크가 주목된 배경이기도 합니다.  

 

 

<챗GPT와 딥시크 개발 스펙 비교>

 

 

 

 

 

AI(인공지능)시대를 위한 용어 정리: AI관련 알아두면 좋은 키워드 이해

최근 AI(인공지능) 산업의 부각은 우리가 살아가는 방식과 기술의 미래를 새롭게 정의하고 있습니다. 인공지능 기술은 우리 일상에 깊숙이 스며들어 있으며, 다양한 분야에서 혁신을 이끌고 있

receipt-lab.co.kr

 

 

 

 

딥시크의 MoE(Mixture of Experts): 자원 효율성 모델

파라미터(매개변수)는 원래 수학이나 공학 용어로 <함수나 시스템의 동작을 규정하는데 사용되는 변수>를 의미합니다. 쉽게 말해, 뭔가를 계산하거나 작동시킬 때 기준이 되는 숫자값이라고 보면 되는데요. 그리고 AI에서는 처음 백지상태에서 시작을 해서, 사람이 주는 데이터를 보면서 학습을 하게 되면서 스스로 기준값을 만들게 됩니다. 이것을 파라미터라고 하는데요. 요리의 레시피를 가정해 본다면, 레시피에 간장 1스푼, 설탕 2스푼이라는 숫자값이 있다면 이 숫자값이 바로 파라미터입니다. 즉 요리를 하는 과정에서 필요한 양념 등이 파라미터고, AI에서 학습은 요리를 먹은 고객들의 피드백을 통해 맛있는 레시피를 만들어가는 과정을 학습이라고 보면 되겠습니다. 즉 파라미터의 수는 요리를 위한 모든 양념들이고, 학습은 요리에 대한 고객들의 피드백을 받아 파라미터 값을 조정해 가는 과정입니다. 참고로 파라미터 수는 AI 학습과에 증가하는 것이 아니라, 파라미터 값이 조정되는 것입니다. 그리고  AI는 학습할수록 똑똑해지지만, 파라미터 값은 계속된 학습 과정으로 새로운 값으로 증가하는 것이 아니라, 새롭게 덮어써지는 과정으로 좋은 값으로 바뀌어져 가는 과정입니다.  

 

복잡하긴 하지만, 파라미터에 대한 설명을 한 이유는 바로 딥시크가 6,710억개의 파라미터 수를 가지고 있음에도 불구하고, 딥시크의 MoE(Mixture of Experts)는 많은 파라미터를 효율적으로 관리하는 방식입니다. GPT4보다는 적은 파라미터 수를 가지고 있긴 하지만, 한번에 쓰는 파라미터 수는 37억개 정도라고 발표를 했는데요. 이를 통해 가볍고 빠른 AI가 가능하도록 만들어 낸 부분이 바로 딥시크의 가장 큰 특징입니다. 예를 들어 도서관에 책이 6,710권이 있음에도 모든 책을 보는 것이 아니라, 수행하는 업무에 따라 필요한 책만 37권을 사용하는 것이 바로 딥시크라는 점입니다. 모든 책을 다 찾아보는 것이 오픈AI의 방식이라면, 딥시크는 MoE라는 방식을 통해 효율적으로 AI를 활용하기에 H100보다 낮은 H800을 가지고도 챗GPT와 유사한 성능 역시 발휘를 하고 있는 점입니다.

 

결론적으로 보면, 딥시크는 자원 효율성에 집중한 AI모델입니다. 그래서 제한된 GPU자원으로도 뛰어난 성능을 만들어 냈다는 점입니다. 오픈AI의 GPT-3/4는 최고급 인프라와 막대한 예산을 바탕으로 훈련되어, 다양한 언어, 분야, 멀티모달 대응까지 가능한 AGI라면, 딥시크는 기존 규모와 투자가 아닌, 효율성을 중심으로 만들어 낸 AI모델이고, 이러한 방식을 오픈소스로 배포한 부분에서 AI산업에서 뒤쳐진 국내에서도 딥시크와 같은 방법으로 접근을 생각해 볼 수 있다는 가능성을 열어주기도 한점에서 의미가 있겠습니다. 즉 거대한 플랫폼이 지배하던 AI산업에서, 모두가 사용할 수 있는 작고 똑똑한 AI의 가능성을 열어줌으로서 공공재로서의 AI에 대한 접근성을 열어준 사건이라고도 하겠습니다. 

 

 

 

 

AI
by the people
for the people

디즈니 X 엔비디아 X 구글 딥마인드, 차세대 로봇 블루

 

728x90
반응형