Het werk van Openai in de technische industrie leidde tot de huidige situatie waarin bedrijven met elkaar concurreren om de krachtigste AI in de palm van onze handen te plaatsen. Nu zou Deepseek een vergelijkbare situatie kunnen repliceren, maar in termen van het verlagen van de kosten voor het ontwikkelen van krachtige AI -modellen. Openai vermoedt echter dat zijn AI -modellen illegaal werden gebruikt om Deepseek’s te trainen.
Deepseek’s impact op de huidige AI -industrie en de aandelen van grote bedrijven
De opkomst van Deepseek schudde de basis van de kunstmatige intelligentie -industrie zoals wij die kennen. Het Chinese bedrijf presenteerde modellen die in staat waren om te matchen-of zelfs te overtreffen-veel andere bekende en gevestigde. Dat gezegd hebbende, de reële impact van Deepseek komt voort uit de kostenpercentage die ze hebben bereikt. Het bedrijf beweert dat ze slechts ongeveer $ 6 miljoen hebben besteed aan het trainen van hun AI -modellen. Dit is slechts een klein deel van de miljoenen/miljarden die andere grote namen tot nu toe hebben geïnvesteerd.
Volgens het team achter Deepseek zijn de lage kosten te wijten aan het feit dat ze duizenden oudere NVIDIA H800 -chips gebruikten in plaats van modernere en dure hardware om de R1- en V3 -modellen te trainen. De ontwikkeling resulteerde in een verlies van meer dan 17% van de aandelenwaarde van Nvidia in slechts één dag. Dit komt overeen met ongeveer $ 600 miljard aan kapitalisatie.
Maar wat als Deepseek hun toevlucht nam tot bepaalde “snelkoppelingen” waar het niet over sprak bij het lanceren van zijn modellen? Dat is het vermoeden dat momenteel wordt gehouden door Openai, het moederbedrijf van Chatgpt. Openai en Microsoft onderzoeken momenteel of Deepseek de OpenAI -API heeft gebruikt om GPT -modellen met hun eigen te integreren.
Microsoft en Openai hebben naar verluidt bewijs dat Deepseek GPT gebruikt om zijn modellen te trainen
Microsoft Security Researchers vertelden Bloomberg dat ze eind 2024 een grootschalige gegevens-exfiltratie van Openai Developer Accounts detecteerden. De Redmond Giant vermoedt dat deze ontwikkelaarsaccounts waren aangesloten bij Deepseek. Aan de andere kant vertelde Openai de Financial Times dat het bewijs vond van Deepseek met behulp van gegevensdistillatie. Distillatie is een techniek waarmee grote datasets kunnen worden “gecomprimeerd” in kleinere voor gebruik in Training AI -modellen.
In dit geval vermoeden Openai en Microsoft dat Deepseek destillatie gebruikte om GPT -modellen in hun eigen te integreren. Dit zou hen alle miljoenen hebben bespaard die Openai heeft geïnvesteerd in kunstmatige intelligentietraining. Hoewel OpenAI via zijn API ontwikkelingen op zijn platform toestaat, verbiedt het gebruiksbeleid desistillatie van gegevens strikt.
‘We weten dat bedrijven in PRC (China) – en anderen – voortdurend proberen de modellen van het leiden van ons AI -bedrijven te destilleren‘Staat de verklaring van Openai. ‘Als de toonaangevende bouwer van AI, houden we ons aan tegenmaatregelen om ons IP te beschermen, inclusief een zorgvuldig proces waarvoor grensmogelijkheden moeten worden opgenomen in uitgebrachte modellen, en geloven we naarmate we verder gaan dat het van cruciaal belang is dat we nauw samenwerken met de Amerikaanse overheid om de meest capabele modellen het beste te beschermen tegen inspanningen van tegenstanders en concurrenten om Amerikaanse technologie te nemen,”Voegt het bedrijf toe.
Vermoedens hebben het kabinet van Trump al bereikt
David Sacks, degene die door de nieuwe administratie in Washington is gekozen om AI en Crypto in het land af te handelen, vertelde Fox News dat “Er is substantieel bewijs dat wat Deepseek hier deed is dat ze kennis hebben gedestilleerd uit Openai -modellen en ik denk niet dat Openai hier erg blij mee is. “