딥시크, 패러다임 시프트…국내 AI 생산성 향상 기대
샘 올트먼, 카카오·SK 등 국내 기업 경영진과 회동 예정 “활용 중심 국내 기업, 딥시크 통해 생산성 향상시킬 것”
【투데이신문 최주원 기자】 딥시크 충격파가 연일 사회를 강타하고 있는 가운데 AI 오픈 소스를 활용한 국내 기업의 사업 확장과 성장에 이목이 집중되고 있다.
4일 업계에 따르면 이날 서울 플라자호텔에서 개최된 비공개 워크숍 ‘빌더 랩’에서 오픈AI는 카카오와 협업을 전격 발표했다. 샘 올트먼은 카카오 정신아 대표를 비롯해 SK 그룹 최태원 회장, 삼성전자 경영진, 크래프톤 김창한 대표 등 국내 주요 기업 경영진과 만나 AI 분야에서의 사업 다각화 기회를 모색할 예정이다.
이번 샘 올트먼의 방한 및 국내 기업 회동은 투자 유치와 AI 데이터센터 설립을 위한 글로벌 네트워크 구축과 동시에 트럼프 집권 기간 중 발생한 딥시크 여파에 대한 전방위적 대응 차원으로 풀이된다.
지난해 12월 대형 언어 모델(LLM) V3를 개발한 딥시크는 지난달 20일 추론에 특화된 R1 모델을 발표하며 챗GPT 오픈AI와 비슷한 수준을 보이고 있다는 평가를 받고 있다.
이에 따라 금융시장도 큰 변동을 겪고 있다. 엔비디아 주가는 17% 이상 급락하며 시가총액 850조원이 증발했고, 투자자들은 AI 시장에서 중국 기업의 부상과 엔비디아의 독점적 위치가 위협받는 것에 대해 우려를 나타내고 있다.
오픈AI는 딥시크가 자사 모델을 활용한 ‘증류(Distillation)’ 방식이라며 IP 침해라고 주장하고 나섰다. ‘증류’ 기술은 사전에 학습된 AI 모델의 출력 결과를 활용해 이를 다른 모델에 학습시켜 유사한 기능을 개발하고 적용하는 프로그래밍 과정을 뜻한다. 다만 오픈AI 역시 인터넷 데이터를 무차별적으로 크롤링했다는 비판을 받고 있어 정보 저작권 논란은 계속될 전망이다.
딥시크는 기존의 거대 언어 모델(LLM)과 달리 훨씬 적은 비용과 GPU 자원을 사용해 유사한 성능을 구현한 것이 특징이다. 메모리 사용량을 75% 줄이고 속도를 두 배 향상시키며 API 비용을 95% 절감하는 등 AI 모델 개발 비용을 획기적으로 낮추는 데 기여할 수 있다. 또 강화학습(RL) 중심의 학습 방식을 채택해 이전 모델들과 달리 RL만으로도 추론할 수 있는 가능성을 보였다.
특히 딥시크는 엔비디아의 고사양 AI 가속기 대신 저사양 AI 가속기 ‘H800’을 사용해 학습됐음에도 불구하고 챗GPT와 유사한 성능을 보여줬다. 이는 AI 반도체 시장의 경쟁 구도를 변화시키고 반도체 업계의 투자 패턴을 바꿔놓을 가능성이 크다.
이러한 특징 덕분에 딥시크는 낮은 비용으로 AI 모델을 활용하려는 기업들에게 강력한 대안이 될 가능성이 커졌다. 이는 기업들이 자원과 비용을 효율적으로 사용할 수 있도록 도와줄 수 있다는 목소리가 나온다.
서울대학교 산업공학과 조성준 교수는 딥시크 오픈 소스로 AI를 사용하는 기업들에게 큰 영향을 미칠 것이라 전망하며 국내 기업들도 생산성을 높일 기회가 될 것이라고 예상했다.
조 교수는 “빅테크가 아닌 저예산 회사들은 기존 오픈 소스의 낮은 성능으로 애를 먹었다”며 “딥시크가 뛰어난 성능을 오픈 소스로 제공하면서 시장에 막대한 영향을 미칠 수 있다”고 언급했다.
이어 “AI 개발 경쟁은 주로 미국과 중국이 주도하고 있고 한국은 AI 활용 쪽에 더 중점을 두는 상황”이라며 “국내 다양한 기업들이 딥시크 AI를 이용해 생산성을 향상시킬 가능성이 높다”고 전망했다.