퀄컴 테크놀로지스(NASDAQ:QCOM)는 월요일(27일) 데이터센터용 차세대 인공지능 추론 최적화 솔루션 출시를 발표했다. 해당 솔루션은 퀄컴 AI200 및 AI250 칩 기반 가속기 카드와 랙으로 구성된다.
퀄컴은 자사의 신경망 처리 장치(NPU) 기술 리더십을 기반으로 한 이 솔루션들이 랙 스케일 성능과 우수한 메모리 용량을 제공하여 빠른 생성형 AI 추론을 가능하게 하며, 달러당 및 와트당 높은 성능을 제공한다고 설명했다.
퀄컴 AI200은 대규모 언어 및 다중 모달 모델(LLM, LMM) 추론과 기타 AI 워크로드를 위해 낮은 총 소유 비용(TCO)과 최적화된 성능을 제공하도록 설계된 전용 랙 레벨 AI 추론 솔루션이다.
성능
카드당 768GB의 LPDDR을 지원하여 더 높은 메모리 용량과 낮은 비용을 제공하면서 AI 추론을 위한 탁월한 확장성과 유연성을 가능하게 한다.
퀄컴 AI250 솔루션은 근접 메모리 컴퓨팅 기반의 혁신적인 메모리 아키텍처로 데뷔하여, 10배 이상의 효과적인 메모리 대역폭과 현저히 낮은 전력 소비를 제공함으로써 AI 추론 워크로드의 효율성과 성능에서 세대적 도약을 제공한다.
이를 통해 하드웨어를 효율적으로 활용하는 분산형 AI 추론이 가능해지며, 고객의 성능 및 비용 요구 사항을 충족한다.
두 랙 솔루션 모두 열 효율성을 위한 직접 액체 냉각, 확장성을 위한 PCIe, 스케일 아웃을 위한 이더넷, 안전한 AI 워크로드를 위한 기밀 컴퓨팅, 랙 수준 전력 소비 160kW를 특징으로 한다.
퀄컴 AI200 및 AI250은 각각 2026년과 2027년에 상용화될 예정이다.
경쟁사
퀄컴의 AI 가속기 경쟁사로는 엔비디아(NASDAQ:NVDA)의 H100 및 H200 칩, AMD(NASDAQ:AMD)의 인스팅트 MI300X 가속기, 인텔(NASDAQ:INTC)의 가우디(Gaudi) 가속기 등이 있다.
알파벳(NASDAQ:GOOGL) 구글은 텐서플로(TensorFlow) 및 파이토치(PyTorch)를 비롯한 널리 사용되는 기계 학습 프레임워크에 최적화된 자체 텐서 프로세싱 유닛(Tensor Processing Unit: TPU)을 개발했다.
아마존(NASDAQ:AMZN)의 아마존웹서비스(AWS)는 고객이 머신러닝 애플리케이션을 보다 효과적으로 확장할 수 있도록 인페렌티아 칩을 개발했다.
주가 움직임: 월요일 정규장에서 퀄컴 주가는 11.09% 상승한 187.68달러에 마감했다.
Qualcomm 제공 사진
다른 트레이더들보다 30분 일찍 시장 움직임에 대한 독점 뉴스를 받아보세요.
Benzinga Pro의 독점 뉴스를 통해 수백만 명의 다른 트레이더보다 더 빠르게 유용한 투자 뉴스를 확인할 수 있습니다. 여기를 클릭하여 14일 무료 체험을 시작하세요.

