중국판 AI 모델 ‘딥시크’ 출시 챗GPT 제치고 앱스토어 1위
" 저가형 칩으로 AI 시스템 설계...엔비디아 및 나스닥 기술주 충격 "
본문
중국 AI 스타트 기업 딥시크 [사진=로이터]
중국의 인공지능 스타트업 딥시크가 미국을 흔들고 있다. 딥시크가 출시한 AI 모델 ‘딥시크 R1’이 ‘챗GPT’에 필적하는 성능을 발휘하는 것으로 알려지며 출시하자마자 미국 무료 앱 다운로드 순위 1위를 기록했다.
딥시크는 엔비디아가 중국 수출용으로 성능을 낮춰 출시한 저사양 칩 ‘H800’ 모델을 사용하여 기존 AI 모델 V3를 개량 발전시켰다. 저렴한 GPU로 고성능 AI 시스템을 설계하며 오픈AI의 챗GPT 및 엔비디아를 비롯한 미국의 AI 반도체 기술주들에 큰 타격을 주고 있다.
미국이 반도체 수출을 제한했는데도, 중국이 저사양 칩으로 고성능 AI 제품을 개발하자 AI 모델 개발에 필수적인 것으로 여겨졌던 엔비디아의 최첨단 AI 칩이 필요하지 않을 수 있다는 전망이 나오기 시작했다.
이에 엔비디아의 매출에 큰 타격을 줄 것으로 시장은 우려하며 엔비디아의 시가총액은 2조 8천800억 달러로 3조 달러 아래로 떨어졌다. 지난 24일 3조 4천927억 달러에서 6천127억 달러(880조 3천273억원)가 증발했다.
시가총액 순위도 1위에서 단번에 3위로 주저앉으며, 4위 아마존(2조 4천550억 달러)에 쫓기게 되었다.
딥시크가 개발한 AI 모델 'V3'에 투입된 비용은 557만 6천 달러(약 78억 8천만 원)에 달하는 것으로 알려졌다.
이는 메타의 최신 AI 모델 라마(Llama)3에 엔비디아의 고성능 칩 ‘H100′으로 훈련한 비용의 10분의 1 수준이다.
AI 개발 비용에 수백억 원에서 수십조 원을 쏟아붓는 미국 빅테크 기업에 비해 크게 낮은 수준이다.
언어 모델 라마를 개발하는 페이스북의 메타플랫폼은 올해 데이터 센터 등 AI 인프라 구축에 최대 650억 달러(93조 원)를 투자할 계획이라고 밝힌 바 있다.
딥시크가 미국 대기업들이 지출하는 비용보다 적은 비용으로 강력한 LLM(대형 언어 모델)을 개발한 것은 중국 AI가 얼마나 발전했는지를 보여준다. 딥시크는 비용 효율적인 학습을 달성하도록 설계된 새로운 아키텍처를 활용해 그래픽 처리 장치가 LLM을 학습하는데 278만 GPU 시간만 필요로 했다. 이는 페이스북의 메타가 자체 모델을 훈련하는 데 필요한 3,080만 GPU보다 훨씬 적은 시간이다. 미국이 중국에 대해 고사양 반도체 칩 수출을 통제한 것이 무색해졌다.
딥시크의 '저렴한' AI 모델 개발 방식이 확산한다면 엔비디아가 그동안 비싼 최신 AI 칩을 앞세워 올렸던 막대한 매출과 순이익은 크게 줄어들 수 있다. 이에 시장은 2000년대 닷컴 버블을 떠올리며 미국 빅테크 기업의 ‘거품 설’을 제기하고 있다. 그간 뉴욕증시는 전 세계에서 현재 수준의 AI를 구현할 수 있는 기업은 미국에만 있었기 때문에 주가에 AI 프리미엄을 더 얹었지만, 딥시크의 부상은 이를 무너뜨린 것이다.
반면 도널드 트럼프 대통령은 딥시크에 우호적인 시선을 보냈다. 트럼프 대통령은 딥시크 충격에 대해 “(딥시크의 기술이) 정말 사실이라면 나는 긍정적으로 생각한다. 여러분(미국의 빅테크)도 그렇게 할 수 있기 때문”이라며 “돈을 많이 쓰지 않고도 같은 결과를 얻을 수 있다”고 말했다. 트럼프 대통령은 “딥시크 출시는 미국이 경쟁에서 승리하기 위해 집중해야 한다는 경각심을 불러일으킨다”고 덧붙였다.
저작권자 © 업뉴스 무단전재 및 재배포 금지
