하루만에 삼성전자 2.5개를 날려버린 중국고래 이야기 - 딥시크
※ 들어가기 전에, 일단 저는 해당 분야의 전문가나 전공자가 아님을 미리 말씀드립니다.
여러 기사와 전문가들의 분석 등을 정리 요약 한 것이라 일부 잘못된 정보가 있거나 최신의 정보가 반영되지 않을 있을 수 있다는 점 양해바랍니다.

2025년 1월, 한 기업의 AI모델의 등장이 하루아침에 미국 증시를 뒤흔들어 놓았다.
당시 엔비디아의 주가는 -17%까지 떨어졌고, 시가총액은 하루만에 846조가 증발했다.
이는 한국의 삼성전자 시가총액의 2.5배나 되는 어마어마한 금액이다.
이런 대격변을 일으킨 것은 중국에서 23년에 탄생한 신생 AI기업 단 한 곳이 이뤄낸 결과였다.

국내에서 비교적 잘 알려진 중국 AI모델은 ‘알리바바 클라우드’가 발표한 Qwen이라는 모델인데,
이 Qwen을 중심으로 해서 중국 AI가 상당히 경쟁력이 있다는 것은 이미 널리 알려진 사실이다.
하지만 딥시크라는 신생 기업이 작년에 V1을 시작으로 V3까지, 이후 R1모델 까지 발표하며 분위기가 이상해지기 시작.
사건은 V3가 출시된 후 한 달도 지나지 않아 출시한 R1에서 발생했다.
해당 모델은 V3를 가져다가 엄청 긴 논리의 흐름이 잘 가공된 생각의 사슬(COT - Chain of Thought) 데이터들을 준비해서
강화학습을 시켰는데, AI에게 데이터를 학습시킴에 있어 일종의 기출문제or쪽집개 공부법을 채용한 것이다.



더 정확히 말하자면 딥시크가 데이터들을 가지고 강화학습만을 한 것은 아니고, ‘COT 데이터'를 가지고
‘슈퍼바이즈드 파인튜닝’을 한 다음 어느정도 자릴 잡았을 때 강화학습을 열심히 돌렸더니 챗GPT-o1급의
성능이 나오더라는 것. 딥시크는 이를 콜드스타트 데이터(Cold Start Data)라고 표현했음.
또한 이름만 ‘오픈’이지 실제론 굉장히 폐쇄적으로 운영했던 오픈AI와는 달리, 중국의 딥시크는 이 기술들의
디테일을 오픈소스로 세간에 모두 공개했고, 이것이 엄청난 파장을 일으키며 전 세계 증시를 뒤흔들어논 것.


근데 조금 이상하다. 물론 어떤식으로 학습시켰는지를 오픈소스로 깐다는것은 대단한 일이긴 하지만,
오픈소스로 자신만의 노하우를 까는 AI기업이 딥시크만 있는것도 아니고, 또 그런 기업들은 사방에 널려있음.
그런데 왜 딥시크가 정보를 깠을 때 전 세계가 뒤집어졌을까?? 그것은 딥시크가 발표한 놀라운 비용절감에 있음.

사실 업계에선 진짜 80억만으로 GPT-o1급 AI를 만들었다고 생각하지 않음.
하지만 대중들에겐 왜 하필 80억이라는 비용이 각인됐을까??
딥시크는 V3모델을 실제로 2천장 정도의 H800으로 두달 간 학습을 시켜서 만들어냈다고 하는데, 이 비용이 약 80억임.
하지만 이건 어디까지나 모델 하나를 트레이닝 시키는데 들어간 시간과 비용이지
딥시크가 V1~R1까지 오기까지 투자했던 수많은 실험들, GPU, 시간, 데이터 이런 비용들은 모두 빠져있는 수치임.
즉, 이 80억이라는 수치는 딱 원트에 모델 제작에 성공했을때나 가능한 비용이라는 것.
또 하나의 재밌는 사실은, 사실 이런게 가능했던 건 GPT나 제미나이 같은 선행 AI가 있었기 때문에 가능했다는 점인데
어떻게 이런 선행자가 있어서 딥시크가 빠른 도약이 가능했냐?를 이해하려면 한 가지 머신러닝 기술을 알아야 함.
인공지능 분야에서 혁신적 기술이다라고 얘기하는 것들 중 최근 가장 주목받는 것은 바로 '증류(Distillation)' 시스템임

즉, 딥시크가 GPT5나 o1등의 모델을 가지고 그 안에 있는 많은 지식 데이터들 혹은 COT데이터들을 만들어내서
얘를 가지고 학습을 시킨 것이 아니냐는 확신 아닌 의심을 하고 있는 것.
(참고로 오픈AI 약관에는 경쟁모델을 만들 때 이런 짓을 하지 말라고 명시돼 있음)
즉 딥시크가 아래의 짤처럼 했다는 것이다
실제로 딥시크를 돌렸을 때 “오픈AI정책에 반하는 행위이므로 안됩니다”등의 문구들이 나왔다는 제보가 수도 없이 쏟아지기도 했음.
다만 이 지식 증류는 굉장히 널리 쓰이는 기법으로(특히 연구할 때), 작년에는 구글에서 오픈AI 데이터를 그렇게 가져가서
데이터를 학습시키곤 했다는 내부고발 비슷한 것도 나왔음. 물론 구글은 공식적으로 이를 부인함.
딥시크가 이런식으로 데이터증류를 통해 비용을 절감한 면은 분명히 있음.
미국이 처음 AI를 만들때는 말 그대로 데이터를 엄청 많이 갈아넣어서 비용이 훨씬 많았을텐데
후발주자들이 이걸 데이터 디스틸 기법으로 증류해 시간과 비용을 줄이고 있는건 공공연한 사실이기 때문.
다만 이런 딥시크에도 단점은 생길 수 있는데, 사람으로 치면 기출문제 위주로 푸는 방식으로 학습한 AI라
실제 기업에서 도입을 해서 사용할 때나 공공분야에서 적용해서 사용할 때는 조금 더 점검이 필요할 수 있다는 것.
(원래 족보보면 시험은 잘치는데, 그렇다고 그 분야에서 현명해지냐는 좀 다른 문제로 빠지기 때문)

또 하나 생각해봐야 할 게 있는데
최근 엔비디아가 AI칩으로 급격하게 성장한 것은 H100이라는 칩 덕분이었음.
기업들에서도 눈에 불을 키고 확보하려고 하는 칩이 바로 이 H100이라는 칩임.
하지만 중국은 공식적으로 이 H100칩을 쓰지 못하게 돼있음. 바로 미국의 대중제재 때문.
그래서 딥시크는 ‘대외적으로는’ H100 모델의 하위호환인 H800으로 학습을 시킨것으로 알려져 있음.

그런데 실질적으로 딥시크의 모회사인 환팡(High-Flyer)이 H100도 몇만 장 가지고 있다는 썰이 돌고 있고
아무래도 중국이다보니, 이 H800으로만 딥시크 모델을 만들었다는 것도 의심하고 있는 상황임.
뭣보다 H100을 사용했다고 공식적으로 발표해버리면 큰일나기 때문에 중국에선 절대적으로 부인할 것이고.
여기서 딥시크의 모회사인 환팡(하이플라이어 - High Flyer)에 대해서도 간략하게 알아보겠음.
환팡은 중국의 헤지펀드 퀀트 회사임. 근데 왜 AI기업도 아닌 투자회사가 이런 고성능 AI를 만들어냈냐??
그건 최근의 경제흐름을 어느정도 파악해야 하는데, 몇 년 전부터 실제로 컴퓨터 머신러닝을 굉장히
잘하는 능력자들이 퀀트회사로 많이 갔음. 그래서 오히려 그쪽이 컴퓨터 엔지니어링 능력이 굉장히 뛰어난 상황이 됐음.
보통 투자회사가 머신러닝 능력자들을 섭외하는 것은 주식 자동화매매 알고리즘과 시스템을 제작하기 위해서인데,
딥시크의 경우 이렇게 섭외한 머신러닝 능력자들을 가지고 퀀트 뿐 아니라 생성형 AI에도 많은 투자를 한 케이스인 것.

딥시크의 모델은 V1 → V2 → V3 → R1으로 발전해왔는데, 딥시크V2에서 처음 MLA라는 기법을 공개함.
기존의 트랜스포머에서는 멀티헤드 셀프 어텐션(MHSA - Multi-Head Self-Attention)이라는 기법을 씀. 이게 기본값임.
근데 V2에서 개발한 새로운 기법이 이를 활용한 MLA(Multi-Head Latent-Attention)임. 이게 또 히트를 침.

특히 학습할 때 말고 서비스할 때 들어가는 비용을 ‘인퍼런스 비용’이라고 하는데, MLA가 이 비용을 획기적으로 줄여줌.
보통 데이터가 들어가면 이 데이터에 대해 트랜스포머는 '쿼리-키-밸류'라고 하는 세가지 정보를 만들어 냄.
이 쿼리-키-밸류를 행렬연산해서 결과를 만들고 나면 그 다음에 어떤 단어가 올지 예측하는 구조임.
(이 쿼리-키-밸류의 작동원리까지 자세히 파고 들어가면 글이 너무 디-ㅂ하고 루-즈해지니 패스하겠다)
근데 딥시크의 MLA가 이 쿼리-키-밸류를 최적화하는 기법을 좀 바꿔놨음. 연산을 할 때도 훨씬 덜 해도 되도록.
이걸 딥시크 V2에서 처음으로 만들어내며 적용한거임. 이러면 인퍼런스 비용이 상당히 많이 절약됨.
또 하나는 MOE임(Mixture Of Experts).

이 MOE는 만드는 방법이 굉장히 다양함. 딥시크도 자신들만의 MOE를 설계해서 이 MOE를 더 효과적으로 개선했음.
그리고 이 MOE를 효과적으로 개선하는데 있어서 위에 적힌 저 MLA기법이 쓰인 것.

다만 MOE가 학습할 때는 효율적이지만 추론할때는 비싸지는 구조임.
V3가 약 6700억개의 매개변수를 가지고 있는데, 한 번 글 쓸 때는 그 전체를 쓰는게 아니라
그 중에 한 두개 혹은 세개 정도만을 꺼내서 쓰는 방식으로 작동됨
트랜스포머 구조를 보면 연산을 하는 부분을 계산하는 블럭이 있고, 기억이나 메모리에 해당하는 모듈이 있음.
거기가 우리가 MLP(Multilayer Perceptron)라고 부르는 인공 신경망(Neural Network)구조로 돼 있는데, 이 부분을 쪼개놓는 것.

그러다보니 연산은 여러개 중에 세 개만 쓰니까 빠를 것이고 전기도 덜 먹겠지만
모델이 통째로 따로 있는 게 아니라서 메모리를 한번에 다 쓰는 게 아니라 필요할 때 마다
필요한 것들을 따로 빼내 먹을 수 있도록 부분 부분으로 쪼개져있음.
이게 무슨얘기냐, 어찌됐든간에 모델 자체는 메모리에 계속 떠 있어야 한다는 거.
그래야만 떠 있는 상태에서 메모리중에 필요한 일부만 꺼내서 계산할 수 있음.
그런데 이렇게 되면?? 그만큼 GPU를 많이 써야된다는 것임. 어디에 무슨 질문이 어떤 루트를 탈 지 모르기 때문에 모델이 계속 떠있어야 하니까.
그래서 비용이 낮아지기는 커녕 오히려 비용이 더 높아질수도 있다는 것임.

또 하나의 특징은 딥시크는 우리가 AI에게 질문을 던졌을 때 그 질문에 대한 답을 하는 ‘AI의 추론 과정’을 사용자가 볼 수 있도록 공개했다는 것임.
이를 의식했는지 오픈AI도 이젠 보여주긴 하지만, 요약해서 보여주는 정도고 딥시크는 말 그대로 추론 과정을 싹 다 까버림.

딥시크가 제공하는 API 서빙 비용을 보면 실제로 굉장히 저렴함.
DeepSeek-V3가 1M TOKENS 기준으로 $1.25달러밖에 안함. 최근 R1모델도 $7.00수준.
현재 비싼 가격으로 논란이 되고있는 OpenAI사용 비용에 비하면 매우 저렴한 수준임.
우리가 주목해야 하는 것은 이들이 현재 이 서비스를 원가 이하로 제공하고 있을 수도 있다는 것.
여러가지 목적이 있겠지만 높은 확률로 유저들의 데이터를 수집할 수 있기 때문인듯 함.
딥시크의 개인정보 지침을 보면 사용자 데이터와 관련된 것을 중국 서버에 저장하고 또한 그 저장된 정보를 중국 정부가 활용할 수 있다고 적혀있음.
그래서 최근 여러 국가들이 딥시크 사용을 금지하는 것이기도함.
사실 이 방법은 오픈AI같은 곳들도 써먹었던 흔한 방법인데, 먼저 무료로 풀어서 사용자를 끌여들이고
인지도를 높이면서 시장의 파이를 먹은 이후에 유료화로 전환해서 수익을 남기는 것은 매우 일반적인 패턴임.
다만 그 방법을 쓴 딥시크의 국가가 중국이기 때문에 기관이나 기업들이 사용을 꺼려하는 것.

그럼 딥시크 사태가 발발한 이후 오픈AI쪽은 어떨까??
딥시크가 공개된 이후 오픈AI는 높은 비용과 폐쇄성으로 딥시크와 비교되며 뭇매를 맞고 있는 것이 사실
오픈한다고 해놓고 클로즈한 운영을 해버렸으니, 일종의 업보청산을 당하고 있는 셈.
현재 CEO인 샘 올트먼의 경우에도 “다른 형태의 전략이 필요하다”고 말하고 있는 상황임.
그러나 오픈AI역시 억울한 부분이 있는데, 오픈AI는 이쪽 업계에선 나름 ‘퍼스트무버’임.
퍼스트무브는 후발주자인 패스트팔로워에 비해 상대적으로 비용과 시간이 많이 드는게 부정할 수 없는 사실이기 때문.
그렇게 오픈AI는 압도적으로 높은 비용을 부담할 수 밖에 없었고
MS의 투자 등 비영리재단으로 시작했음에도 영리로 갈 수 밖에 없었던 이유가 있었음.
확실히 위기라고 느껴지는 것은, 얼마전 샘 올트먼의 한국 방문이었음.
올트먼은 삼성, SK, 카카오등을 연이어 만났고, 일본 소프트뱅크도 찾아갔으니 누가 봐도 급해보이는 모습임.
또 한국에 왔을때 빌더랩이라는 행사장에서 국내 스타트업을 만났는데, 관련인들의 증언에 의하면 3가지 이야기를 함.
Q. 오픈AI는 한국 개발 커뮤니티에 관심이 있나?
A. 적극적이다. 그래서 한국에 많이 온다
Q. 할로시네이션 등 안전성 이슈가 끊이질 않는다. 계획은?
A. 초기버전은 50%가 문제성 답변이었다. 극적으로 줄어드는 중이니 걱정은 되지 않는다
Q. 요즘 오픈소스가 힘을 받고있는데 이에 대해 어떻게 생각하느냐?
A. (대답을 흐리며) 오픈소스가 어느정도 공간을 차지한 것 같다. 이에 대해선 아직 마땅한 전략을 찾지 못했다
후일담에 의하면 딥시크에 대한 발언을 하기를 굉장히 부담스러워했다고 함.

메타의 경우 이번 사태가 발발한 이후 워 룸(War Room - 전략실)까지 네개나 배치하며 호들갑을 떨고 있는 상황임.
현재 중국의 경우엔 기업도 그렇지만 정부도 최대한 많이 중국의 AI를 전세계에 퍼뜨리고 싶어함.
메타 역시 전세계 오픈소스 패권을 가져가기 위해 경쟁을 할 것으로 보임.
과거엔 메타가 거의 독보적으로 오픈소스 시장을 휩쓸고 있었지만
지금은 오히려 딥시크가 추론모델을 먼저 만들어버릴 정도로 상황이 급변한 상황임.
그러다보니 이제는 얼마만큼 경쟁력있고 빠르게 만드느냐는 속도전으로 넘어가게 될 것 같고.
이젠 단순 기술만의 문제가 아닌 국가 안보, 헤게모니 등 패권싸움으로 번질 위험도 높기 때문에
미국에서 국가 안보를 이유로 오픈소스에 대해서도 제재할 가능성도 충분히 있는 상태.
이러한 상황임에도 불구하고 최근 메타의 추이를 보면 실적이 좋았음.
그 이유는 AI를 써서 광고효율성을 높였고(인스타나 페북 등), 직원들을 일부 해고를 해도 충분히 회사가 돌아가고 매출이 유지되는 시스템을 구축했기 때문.
지금까지는 인공지능 모델을 훈련시키는데 RLHF(Reinforcement Learning from Human Feedback)라는 강력한 기술을 썼음.

근데 메타가 딥시크를 보니, “어? 얘네는 RLHF를 굳이 안하고 강화학습만 했는데도 저정도 퍼포먼스가 나오네?”라고 생각했을거고.
그러니 이제 메타는 딥시크에 대응하기 위해 배치한 네개의 워룸을 이용해 딥시크의 노하우, 즉 방법론만 다시 빼와서 응용할 가능성이 높아 보임.
과거엔 딥시크가 오픈AI나 메타의 기술들을 가져왔다면, 이젠 역으로 메타나 오픈AI등이 중국의 기술을 가져오고 있다는 것.
중요한건 이런 방식을 채택하면 현재 상대적으로 AI계통에서 뒤쳐져있는 애플도 빠르게 치고 올라올 확률이 생긴다는 것.
이 부분은 굉장히 중요한데, 어떻게보면 한국에게도 AI강국으로 갈 수 있는 한줄기 빛이 내려온 것이기도 하기 때문임.


뉴욕타임스에선 미국이 딥시크처럼 혁신하지 못한 이유를 위와 같이 분석하고 있음.
AGI(인공일반지능)이란 명칭과는 달리 “인간을 초월한 고도의 인공지능”을 뜻하는데,
말 그대로 미국은 더 진보한 AI를 만들기 위해 퍼포먼스를 높이는 쪽을 위주로 달려왔다는 것.

빵빵한 지원을 받은 미국과는 달리, 중국의 경우엔 섬에 표류된 상황이었다 할 수 있음.
반도체도 안 좋고, 뭘 좀 해보려고 해도 미국의 제재와 제약이 끊임없이 들어오고 있는 상황이라
어떻게든 그 ‘악조건 속에서의 효율화’를 달성해야만 했던 절실한 사정이 있었던 것.
그러다보니 기존의 구형 장비와 칩들을 가지고도 성능을 뽑아내려는 고민을 많이 했을 것이고
그러한 고민들이 지금의 딥시크 사태를 발생시킨 주요한 원인이 됐다는 것임.
일각에선 ‘미국이 너무 방만했던게 아니냐?’라고도 하지만, 꼭 그렇지만도 않은게
위에 설명한 이유들로 미국은 계속 퍼스트무브를 했을 뿐, 방만 때문도, 능력 부족 때문도 아니었다는 것.
GPT-o1의 경우에도 퍼스트무버였기 때문에, 갈아넣을 데이터를 셀프로 만들어야 했음.
심지어 이 데이터는 인터넷 크롤링만으로도 만들 수 없고 실제 전문가들을 데려다 엄청 정교하게 만들어야됨.
그런데 후발주자들은? 그렇게 구축해 놓은 것을 그냥 딸ㅡ깍으로 안들키고 디스틸레이션(증류) 해버리면 그만임.

현재의 인공지능은 페이즈1에서 페이즈2로 전환된 상태임.
페이즈1은 규칙 기반 인공지능으로, 사전에 정의된 규칙과 지식을 기반으로만 작동함.
페이즈2는 학습 기반 인공지능으로, 대량의 데이터를 통해 스스로 학습하고 패턴을 인식하게 됨.
최근 딥시크발 사태로 인해 "아니 지금 미국처럼 대규모 투자를 안해도, 데이터센터가 많이 없어도,
최신형 칩이 없어도, 칩이 많지 않아도 괜찮은 모델이 만들어지네??"라는 주장이 나오고 있는 상황.
그러나 인류는 결국 AGI(인공일반지능) 향해 나아가게 될 것이고, 여기엔 더 좋고 강력한 칩이 많이 쓰이게 될 것은 명백한 사실임.
그러니 AGI를 만들기 위해서 GPU를 더 많이 갈아넣고 더 좋은 성능의 GPU를 투입해야 할 가능성이 굉장히 높음.
즉, 제본스의 역설이 발동할 확률이 높다는 것.

또한 우리는 대형언어모델(LLM - Large Language Model)만 볼 게 아님.
이번 CES2025에서도 피지컬 AI를 언급했고 딥시크 R1의 깃허브에도 나와있듯이 앞으로는
소형언어모델(SML - Small Language Model) 같은 특화모델들이 우리의 일상(자동차, 로봇, 사물 등)에 스며들게 될텐데
이 피지컬AI 시대로 가면 기본적으로 멀티모달을 해야하고, 멀티모달은 기본적으로 텍스트보다 훨씬 더 많은 GPU를 필요로 함.

한가지 고려해야 할 점은, 단기적으로는 미국 트럼프 정부가 격차를 벌리기 위해 GPU 수출 통제를 굉장히 엄격하게 할 수 있다는 점.
예를들면 현재 엔비디아 싱가폴의 매출이 북미지역 다음으로 제일 많음. 근데 과연 실제 싱가폴의 수요가 그렇게 많을까???
무슨얘기냐면, 엔비디아 칩이 현재 우회경로를 통해 중국으로 유입되고 있을 가능성을 부정할 수 없다는 뜻임(아마도 매우).
결국 단기적으로 봤을 땐 고성능 GPU가 없어도 강력한 AI를 만들 수 있기에 GPU가 필요없어 보일 수 있으나
오히려 딥시크로 인해 “이정도면 할만한데??”라는 기회의 장이 열리면 너도나도 다 이 시장에 뛰어들게 되며
AI관련 장비들의 수요가 오히려 지금보다도 더 폭발적으로 뛸 확률도 충분히 고려해야 한다는 것임.

업계 전문가의 경험에 의하면 현재 중국의 AI는 엄청난 수준이라고 함.
학회를 가도 소속과 상관없이 대부분 중국인이라고 봐야 할 정도.
전 세계 고급 AI인재 절반은 중국인이라고 할 수 있으며, 이중 약 57%가 미국에서 근무 중.
AI관련 논문에서도 중국과 미국이 삐까할 정도로 많이 치고 올라온 상태이며
알리바바 클라우드의 경우 신규 AI모델 100여개를 오픈소스로 배포하기도 함.
여기에다 국가에서도 적극적으로 AI와 관련된 지능정책을 내놓고, 관련 기업들도 굉장히 많은 상태.
휴머노이드의 경우에도 중국 정부의 보고서를 보면 7천여개를 투자해주겠다 적혀있음.
중국 대표 기업중 하나인 화웨이에서는 현재 ‘추론 특화 AI’칩으로 엔비디아의 빈자리를 채우려고 노력을 하는 등
중국은 악조건 속에서 자립할 수 있는 기반을 내부에서 다지고 있다는 것이 가장 무서운 점이라고 할 수 있겠음.
특히 미국의 제약으로 인해 중국은 저렴한 화웨이 등 중국산 칩을 활용해 자국의 AI산업을 발전시키려는 시도를 분명히 할 것이고
그러한 과정에서 중국의 AI하드웨어 산업 역시도 지금보다 훨씬 더 커질 가능성이 높다는 점도 또 하나의 공포스런 요인임.
이게 무서운 점은, 현재 미국과 함께하는 국가들은 저러한 중국의 AI제품이나 서비스들을 이용할 수 없겠지만
미국의 손이 뻗치지 않는 국가에서는 상대적으로 저렴하고 성능도 좋은 중국산 AI제품을 거절할 일이 없다는 점.
상황이 이렇다 보니 이 기조가 단순 기술전쟁에서 그치지 않고 자칫 지정학적 리스크로까지 이어질 수 있기에
AI패권전쟁이 격화되면 진짜 강대강의 정면충돌로까지 이어질 가능성도 충분히 있을 수 있는 시나리오임.

딥시크가 우리나라에게 던져준 기회는 분명히 존재함.
현재 네이버나 LG의 AI만 보더라도 페이즈1의 끝자락 정도까지는 와 있는 것으로 보임.
이제 페이즈2로 넘어가려는 과도기에 고맙게도 딥시크가 이런 혁신적인 레시피를 공개해준 것.
물론 다른 국가의 AI들도 한국과 비슷한 상황이기에, 이제부터 우리가 얼마나 더 빠르게 치고가느냐가
이후 경쟁에서 우리나라를 AI강국의 반열에 올려놓느냐 못올려놓느냐를 판가름하게 될 것으로 보임.
게다가 우리는 미국의 적극적 기술 제재를 받지 않기 때문에, 지금이라도 정부와 기업, 민관이 합심해서
최대한 빠르게 장비들을 확보하고, 딥시크의 혁신적 레시피를 적극 활용한다면 가능성은 충분히 있다고 봄.
실제로 딥시크 창업자인 량원평은 “우리의 문제는 고급 칩에 대한 금지조치이다”라고 말할 정도였으니
한국이 이런 고급칩을 공급 받을 수 있는 환경에 있다는 것 자체가 굉장한 매리트 중에 하나이기도 함.
또한 지금은 위기를 맞이했지만 우리나라는 여전히 제조업 강국이기에, 앞으로는 인류삶의 기본이 될
'디바이스' 사업에 적극적으로 AI를 탑재하며 효율화 및 특화 작업을 한다면 경쟁력도 갖출 수 있음.

생각보다 시각적 자료에 욕심이 나서 좀 더 보강하며 만들다보니 토~일 사이에 올리겠다는 약속을 지키지 못했습니다.
그래도 지금 보시는 콘텐츠가 제 기준에선 욕심을 덜어내고 꽤 경량화 한 콘텐츠이긴 합니다.
원래는 이 내용이 전부 더 압축 요약돼서 풀 이미지로 만들어 졌었거든요.
기존에는 이런 자료 하나 만드는데 최소 일주일 이상은 꼬박 소요됐었는데, 경량화 작업을 한 이후 한 3일 정도로 줄어든 것 같습니다.
딥시크의 창업자 량원평에 대해서도 다루려고 했는데, 이거 하나만해도 분량이 꽤 상당해서 나중에 부록으로라도 다뤄보겠습니다.














