Deepseek’s geheime saus? Een scheutje Google Gemini

Eerder dit jaar barstte Deepseek schijnbaar uit het niets op met een AI -model dat zich op een aantal van de beste leek te houden. Het bedrijf heeft onlangs de nieuwste update van zijn AI -model aangekondigd, maar de nieuwste Deepseek -update heeft misschien Google Gemini gebruikt om zichzelf te trainen.

Deepseek traint zichzelf met Google’s Gemini

Volgens een bericht op X door Sam Paech, een reden waarom het nieuwste Deepseek -model “klinkt” anders dan de vorige iteratie, is dat het Google Gemini gebruikte om zichzelf te trainen. Paech is niet de enige die dit denkt. De ontwikkelaar van speechmap merkt op dat de sporen van Deepseek veel als die van Gemini hebben gelezen. Voor degenen die onbekend zijn, zijn sporen de denkprocessen die het AI -model doorloopt voordat hij tot een conclusie komt.

Dit is niet de eerste keer dat de ontwikkelaars van Deepseek ervan worden beschuldigd van het gebruik van andere AI’s om hun eigen AI -model te trainen. Toen Deepseek voor het eerst arriveerde, vermoedde Openai dat Deepseek Chatgpt had gebruikt om zichzelf te trainen. Het is een van de redenen waarom Deepseek beweerde dat zijn trainingsproces veel minder kostte dan de concurrentie.

In tegenstelling tot andere AI -modellen die onbewerkte gegevens gebruiken om te ‘leren’, gebruikt Deepseek een proces dat destillatie wordt genoemd. Het gaat om het gebruik van de output van andere AI -modellen om zichzelf te onderwijzen. Het is vergelijkbaar met het concept van de student-leraar, waarbij de leraar de kennis die ze eerder van boeken hebben geleerd, destilleert van iets dat de student kan begrijpen.

Het is weliswaar een efficiëntere methode, maar er is de kwestie van de ethiek erachter. De servicevoorwaarden van Openai verbieden klanten zelfs om de AI -modeluitgangen van het bedrijf te gebruiken om hun eigen concurrerende AI te bouwen. Als dat het geval is, heeft Deepseek het beleid van Openai duidelijk geschonden.

Ethisch twijfelachtig, maar efficiënt

Hoewel de acties van Deepseek ethisch twijfelachtig zijn, vinden sommigen dat het logisch is. Nathan Lambert, een onderzoeker bij het non -profit AI Research Institute AI2, zegt bijvoorbeeld dat het logisch is dat Deepseek Google Gemini zou gebruiken om zichzelf te trainen.

Volgens Lambert, “Als ik diep was, zou ik zeker een heleboel synthetische gegevens maken van het beste API -model dat er is. Ze hebben een tekort aan GPU’s en zijn gelijk met contant geld. Het is letterlijk effectief beter opgelost. Ja op de Gemini -distillvraag.”

Laten we niet vergeten dat de handelsoorlog in de VS en China de technologische vooruitgang van China belemmert. Dit omvat het blokkeren van toegang tot meer geavanceerde halfgeleidertechnologie en het beperken van het type technologie dat naar China kan worden geëxporteerd. Het is dus niet verwonderlijk dat Chinese bedrijven, zoals Deepseek, alternatieve manieren vinden om hun modellen te trainen.

Thijs Van der Does