다음은 인공지능(AI) 번역을 통해 생산한 콘텐츠로, 원문은 1월2일 블룸버그 보도입니다.
[서울=뉴스핌] 황숙혜 기자 = 중국의 인공지능 기업 딥시크(DeepSeek)가 AI 개발을 더 효율적으로 만드는 접근법을 제시한 논문을 공개했다.
엔비디아(NVDA) 칩에 자유롭게 접근하지 못하는 상황에서도 오픈AI(OpenAI) 등과 경쟁하려는 중국 AI 업계의 의지를 보여줬다는 평가다.
창업자 량원펑(Liang Wenfeng)이 공동 저자로 참여한 이 논문은 'Manifold-Constrained Hyper-Connections(다양체 제약 하이퍼 커넥션, mHC)'라는 프레임워크를 소개한다. 저자들에 따르면 이 프레임워크는 첨단 AI 시스템의 학습 과정에서 연산 및 에너지 요구량을 줄이면서도 확장성을 개선하도록 설계됐다.

딥시크의 이런 연구 공개는 과거에도 대형 모델 출시의 전조 역할을 해 왔다. 항저우에 기반을 둔 이 스타트업은 1년 전, 실리콘밸리 경쟁사 대비 매우 낮은 비용으로 개발한 추론 특화 모델 R1을 내놓으며 업계를 놀라게 했다. 이후 여러 소형 플랫폼을 선보였고, 오는 2월 춘절 무렵 출시가 예상되는 차세대 플래그십 시스템 'R2'에 대한 기대가 커지고 있다.
중국 스타트업들은 여전히 상당한 제약 속에서 운영되고 있으며, 미국은 AI 개발과 운영에 필수적인 최첨단 반도체에 대한 접근을 막고 있다. 이러한 제약으로 인해 연구자들은 비전통적인 방식과 아키텍처를 모색할 수밖에 없는 상황이다.
비정통적 혁신으로 알려진 딥시크는 이번 최신 논문을 공개 저장소 arXiv와 오픈소스 플랫폼 허깅페이스(Hugging Face)를 통해 발표했다. 논문에는 19명의 저자가 이름을 올렸으며, 량원펑의 이름은 마지막에 위치한다.
딥시크의 연구 방향을 꾸준히 이끌어 온 창업자는, 대규모 AI 시스템을 구상하고 구축하는 방식을 근본적으로 다시 생각하라는 메시지를 팀에 전달해 왔다.
이번 연구는 학습 불안정성, 확장성 제한과 같은 문제를 다루면서, 새로운 방법이 "효율성을 보장하기 위한 엄격한 인프라 최적화(rigorous infrastructure optimization)"를 포함한다고 강조한다.
실험은 30억~270억 매개변수 규모의 모델들에서 수행됐으며, 이는 2024년 바이트댄스(ByteDance Ltd.)가 발표한 하이퍼 커넥션 아키텍처 연구를 토대로 한 것이다.
저자들은 이 기법이 "기초 모델(foundational models)의 진화를 위한 유망한 방향"을 제시한다고 평가했다.
shhwang@newspim.com













