Qualcomm daagt Nvidia uit met interne AI Accelerator-chips

Qualcomm heeft officieel deelgenomen aan de AI-chiprace met de lancering van zijn twee nieuwe acceleratorchips. Met deze stap streeft het bedrijf naar een grote verschuiving van zijn traditionele focus op halfgeleiders voor smartphones en draadloze connectiviteit. Met de lancering van zijn nieuwe AI200- en AI250-chips heeft het bedrijf zichzelf gepositioneerd als een nieuwe uitdager in de bloeiende datacentermarkt, die momenteel wordt gedomineerd door Nvidia en AMD.

Qualcomm kondigt AI200- en AI250-acceleratorchips aan

Volgens een officiële aankondiging is Qualcomm van plan zijn nieuwe acceleratorchip, de AI200, in 2026 op de markt te brengen. De AI250 zal later in 2027 op de markt komen. Beide chips zijn ontworpen voor grootschalige, vloeistofgekoelde serverracks. Ze zijn in staat een heel rack van stroom te voorzien met maximaal 72 chips die als één systeem fungeren.

Qualcomm bouwt zijn datacenterchips op dezelfde hexagon neurale verwerkingseenheid (NPU) als zijn mobiele processors. Volgens de algemeen directeur datacenter en edge van het bedrijf, Durga Malladi, maakt dit deel uit van een strategische zet. Dat zegt ze “We hebben ons eerst op andere domeinen bewezen en daarna opgeschaald naar datacenterniveau.”

De nieuwe AI-chips concurreren op kosten, efficiëntie en flexibiliteit

In tegenstelling tot NVIDIA, waarvan de GPU’s voornamelijk worden gebruikt voor het trainen van AI-modellen, richten de chips van Qualcomm zich op gevolgtrekkingen, waardoor vooraf getrainde modellen efficiënt worden uitgevoerd. Het bedrijf beweert dat zijn rack-scale-systemen minder zullen kosten in gebruik. Er wordt gezegd dat het ongeveer 160 kilowatt per rack verbruikt, ongeveer vergelijkbaar met de systemen van Nvidia.

Malladi voegt in haar verklaring verder toe dat Qualcomm modulaire verkoop zal aanbieden. Klanten kunnen volledige racks of afzonderlijke componenten kopen. Interessant is dat zelfs concurrenten als Nvidia of AMD de CPU’s of andere datacenteronderdelen van Qualcomm zouden kunnen gebruiken. Er wordt ook gezegd dat de nieuwe AI-kaarten 768 GB geheugen kunnen verwerken, waarmee ze zowel NVIDIA als AMD in deze statistiek overtreffen.

Thijs Van der Does