Deepseek is het grootste verhaal in AI sinds Chatgpt op de markt kwam. Het verscheen uit het niets en versloeg de beste AI -modellen op de markt voor een fractie van de kosten. Het is echter vooral bekend om de controverses die zich opstapelen. Het toevoegen van een nieuwe controverse aan de stapel, het lijkt erop dat Microsoft deepseek onderzoekt.
In slechts een paar dagen is Deepseek van een rijzende ster gegaan naar een stijgende bezorgdheid over beveiliging en veiligheid. Volgens een recent rapport is Deepseek R1 een nogal gevaarlijk model, omdat het gemakkelijk is om te misleiden om schadelijke inhoud te produceren. Mensen kunnen het krijgen om hen te vertellen hoe ze bepaalde wapens kunnen bouwen, giftige stoffen kunnen maken, malware kunnen ontwikkelen, enz.
Daarnaast heeft alleen de aanwezigheid ervan een enorme crash van bijna biljoen dollar op de aandelenmarkt voor AI-bedrijven veroorzaakt. Alleen Nvidia verloor in slechts één dag bijna $ 600 miljard. Er komen andere controverses en informatie uit over deze chatbot. Bekijk ons stuk over alles wat je moet weten over Deepseek.
Microsoft onderzoekt Deepseek
Het was slechts een kwestie van tijd voordat andere AI -bedrijven kennis namen van Deepseek. Microsoft heeft een reden om een beetje overstuur te zijn bij deze nieuwkomer. Het was een van de top 10 bedrijven die waarde verloor op de aandelenmarkt vanwege de crash. Het verloor $ 72,2 miljard op de aandelenmarkt.
Dat is echter niet de reden dat Microsoft Deepseek onderzoekt. Volgens het rapport zag Microsoft een grote extractie van gegevens uit de systemen van Openai. Toen hij er dieper in keek, zag het bedrijf dat een groep mogelijk een hoop van de gegevens van het bedrijf heeft gestolen via de API van Openai. Microsoft concludeerde dat de mensen die hiervoor verantwoordelijk zijn, mogelijk verbonden zijn met Deepseek.
Naar verluidt heeft de groep de gegevens van Chatgpt gedistilleerd in het model van Deepseek. Dit proces, destillatie genoemd, is wanneer iemand de output van het ene AI -model haalt en deze gebruikt om een ander te trainen. Het lijkt er dus op dat deze groep de output van Chatgpt heeft genomen om Deepseek R1 te trainen. Dit proces klinkt behoorlijk schaduwrijk en het smeekt om problemen, omdat het model gegevens krijgt die mogelijk onnauwkeurig zijn.
Op dit moment is er nog steeds een heleboel informatie die we niet weten. Geen van beide betrokkenen (Microsoft, Openai, Deepseek, High-Flyer) heeft tot nu toe commentaar gegeven op de beproeving. Als het echter blijkt dat Deepseek de gegevens heeft gestolen, dan kan het een moeilijke tijd doorgaan.