Geloof het of niet, ondanks al het geld dat in AI wordt gestoken, is het niet zo winstgevend als je zou denken. Al deze injectie van fondsen en investeringen is voor een toekomst waarin AI de belangrijkste drijvende kracht zou kunnen worden. Maar voorlopig verliezen de meeste AI-bedrijven geld. Dit komt door dure hardware, de kosten om datacenters draaiende te houden en meer. Maar Google heeft misschien een oplossing voor dat probleem gevonden door Samsung zijn TPU te laten bouwen.
Toekomstige Google TPU-chips kunnen door Samsung worden gemaakt
Volgens een recent bericht op X door @jukan05 zou Google de productie van zijn TPU aan Samsung kunnen uitbesteden. Het lijkt erop dat leidinggevenden van Google een bezoek hebben gebracht aan de halfgeleiderfabriek van Samsung in Taylor, Texas. Tijdens het bezoek werd ook besproken hoeveel TPU’s Samsung mogelijk zou kunnen leveren.
Dit is goed nieuws voor Samsung. De Zuid-Koreaanse technologiegigant is misschien wel toonaangevend op het gebied van de verkoop van smartphones, maar dat geldt alleen voor de consument. Wat de zakelijke kant betreft, loopt Samsung ver achter op TSMC, dat chips produceert voor bedrijven als Apple, Qualcomm, NVIDIA en meer.
Google zou mogelijk met Samsung kunnen samenwerken, wat zou kunnen bijdragen aan de CV van het bedrijf, wat in de toekomst andere bedrijven zou kunnen aantrekken die zich misschien willen losmaken van hun afhankelijkheid van TSMC. Op dit moment is de TPU van Google ontwikkeld in samenwerking met Broadcom. Er wordt gezegd dat het 80% minder kost dan NVIDIA’s H100, terwijl het vergelijkbare, zo niet betere prestaties biedt.
Als Google voor Samsung zou kiezen in plaats van voor TSMC, zou dit in de toekomst tot nog goedkopere TPU’s kunnen leiden. Dit zou de totale kosten van Google kunnen verlagen als het gaat om het bouwen van toekomstige datacenters of het upgraden van bestaande datacenters.
Wat is de TPU van Google en waarom is deze belangrijk?
Het uitvoeren van AI-modellen vergt veel middelen. Zelfs het bedanken van een AI en hem laten zeggen: “Graag gedaan” kost meer middelen dan je zou denken, ook al zijn het maar een paar woorden en een paar karakters.
Dit is de reden waarom bedrijven als NVIDIA de focus hebben verlegd naar het ontwikkelen van meer hardware voor AI. Met de TPU van Google heeft het bedrijf een aangepaste AI-chip gemaakt die is ontworpen om AI- en machine learning-taken te versnellen. Dit omvat trainingsmodellen zoals Gemini voor taken als beeldherkenning, het aansturen van neurale netten, gevolgtrekkingen en meer.
De aanpak van Google is anders dan die van NVIDIA. De TPU van Google is ontworpen voor neurale netwerkwiskunde, terwijl de GPU’s van NVIDIA zijn ontworpen voor bredere AI-gerelateerde werklasten. De samenwerking tussen Google en Broadcom en Samsung zou kunnen resulteren in goedkopere TPU’s, waardoor de kosten van Google Cloud zouden kunnen worden verlaagd en tegelijkertijd de datacenterdominantie van NVIDIA zou worden uitgedaagd.