런던, 영국--(뉴스와이어)--AI 추론에 대한 수요 증가를 충족하는 아시아에서 가장 큰 클라우드 제공업체는 어디일까? 옴디아(Omdia)의 최신 연구는 AI 추론 작업의 진화하는 과제, 처리량, 대기 시간, 다양한 AI 모델 지원 간의 주요 장단점, 가능한 솔루션 등에 대한 심층적인 분석을 제공한다. 이 보고서는 화웨이(Huawei), 바이두(Baidu), 알리바바(Alibaba), 바이트댄스(ByteDance), 텐센트(Tencent), 네이버(NAVER) 및 SK텔레콤 엔터프라이즈(SK Telecom Enterprise)와 같은 회사에 대한 자세한 내용을 제공한다. 이들 회사가 제공하는 GPU, AI 가속기 및 AI 최적화 CPU, 가격, 엔비디아 GPU(NVIDIA GPU) 비축량, AI 서비스 포트폴리오, 자체 AI 모델 및 맞춤형 칩 프로젝트의 현재 상태를 조사한다.
미국의 수출 통제가 시행되기 전인 2024년과 2025년 초에 엔비디아 H800(NVIDIA H800) 및 H20 GPU가 대량으로 비축되었음에도 불구하고 이러한 고성능 칩은 중국 클라우드 서비스에서 찾기가 어려우며, 이는 하이퍼스케일러의 자체 모델 개발 프로젝트에 주로 사용됨을 시사한다. 마찬가지로 중국 AI 칩 프로젝트를 사용하는 옵션은 상대적으로 적으며, 바이두의 온프레미스 클라우드 제품과 일부 화웨이 클라우드(Huawei Cloud) 서비스는 예외이지만 여전히 제한적이다. 중국 하이퍼스케일 기업들은 디컬플된 사전충전 및 생성과 같은 모범 사례를 채택하고 기초 AI에 대한 중요한 연구를 발표하는 데 훨씬 앞장서 있다. 그러나 연구 논문에서는 몇 가지 주목할만한 예외를 제외하고는 훈련 실행이 서양 GPU를 사용하여 수행된다고 자주 언급한다.
옴디아의 수석 분석가이자 보고서의 저자인 알렉산더 해로웰(Alexander Harrowell)은 “중국 반도체의 진정한 승리는 가속기가 아닌 CPU에 있다. 중국 Arm 기반 CPU는 분명히 대규모로 생산 중이며 일반적으로 아마존 웹 서비시(AWS)의 그래비톤(Graviton) 시리즈와 같은 방식으로 병렬 워크로드에 최적화되어 있다. 알리바바의 YiTian 710과 같은 제품은 사용자 기반이 상대적으로 작고 워크로드 다양성이 높은 기업에서 알리바바 큐원3(Alibaba Qwen3)와 같은 현 세대의 소형 AI 모델에 서비스를 제공하기 위한 경제적으로 매력적인 솔루션을 제공한다”라고 밝혔다.
최신 GPU가 필요한 경우 옴디아가 발견한 가장 강력한 제품은 SK텔레콤이 람다 랩스(Lambda Labs)와 협력하여 구축하고 있는 서비스형 GPU(GPU-as-a-Service) 제품이었다. 옴디아는 최신 GPU 및 잠재적으로 추가 훈련 데이터에 액세스하기 위해 중국 워크로드를 대규모 방화벽 외부로 이동하는 데 상당한 관심을 목격했다. 다른 중요한 발견 중에서도 거의 모든 회사가 이제 미세 조정 및 기타 사용자 정의가 가능한 서비스형 모델 플랫폼을 제공하고 있어 이런 플랫폼은 기업이 AI 기능에 액세스하는 가장 일반적인 방법 중 하나가 된다. 중국 하이퍼스케일러는 특별히 에지에서 AI 애플리케이션을 지원하는 데 관심이 있다. 예를 들어 바이트댄스는 레스토랑 주방을 모니터링하고 셰프가 모자를 쓰고 있는지 여부를 보고할 수 있는 사전 패키지 솔루션을 제공한다.
옴디아 소개
옴디아(Omdia)는 나스닥 상장사인 Informa TechTarget, Inc.(TTGT)의 일원으로, 선도적인 기술 리서치 및 컨설팅 제공 기관이다. Omdia는 업계 리더들과의 심도 깊은 대화를 바탕으로 수십만 개의 데이터 포인트에 기반한 기술 시장 전문성을 보유하고 있으며, 이러한 전략적 시장 인텔리전스는 고객이 경쟁 우위를 확보할 수 있도록 한다. Omdia는 R&D부터 ROI까지 산업을 선도할 수 있는 가장 유망한 기회를 발굴하고 있다.
이 보도자료는 해당 기업에서 원하는 언어로 작성한 원문을 한국어로 번역한 것이므로 번역문의 정확한 사실 확인을 위해서는 원문 대조 절차를 거쳐야 한다. 처음 작성된 원문만이 공식적인 효력을 갖는 발표로 인정되며 모든 법적 책임은 원문에 한해 유효하다.