Google is een van de hoknamen op het gebied van kunstmatige intelligentie. De DeepMind Division van het bedrijf produceert tientallen ontwikkelingen en technologieën die uiteindelijk hun weg vinden naar de kernproducten en -diensten van Google. Onlangs deelde Google Deepmind een veiligheidspaper dat waarschuwde voor het Agi -tijdperk. Er zijn echter stemmen die zich verzetten tegen de conclusies van het document.
Openai bedacht de term AGI (kunstmatige algemene intelligentie) een tijdje geleden. Het verwijst naar kunstmatige intelligentiesystemen die in staat zijn om vrijwel elke taak die een mens zou kunnen doen uit te voeren. Er zijn heel verschillende opvattingen onder experts in het veld over wanneer AGIS aankomt. Sommige zijn optimistisch, terwijl anderen minder zijn.
Veiligheidspapier onthult Google Deepmind’s kijk op Agi
Volgens Google DeepMind zou True Agis al in 2030 kunnen aankomen. “(We verwachten) de ontwikkeling van een uitzonderlijke AGI vóór het einde van het huidige decennium, “stelt het document.” Een uitzonderlijke AGI is een systeem dat een capaciteit heeft dat ten minste het 99e percentiel van bekwame volwassenen overeenkomt met een breed scala aan niet-fysieke taken, inclusief metacognogitieve taken zoals nieuwe vaardigheden leren,. “
Het bedrijf beschrijft deze potentiële realiteit echter niet als volledig positief. De krant waarschuwt dat deze systemen kunnen veroorzaken ‘ernstige schade. ” Er staat ook dat de komst van de technologie zou kunnen met zich meebrengen “existentiële risico’s” Dat “Vernietig de mensheid permanent. “
Het DeepMind -team benadrukt de belangrijkste verschillen tussen hun “AGI -risicobeperking” -benadering en die van anderen. De filiaal van Google zegt dat antropische minder nadruk legt op “Robuuste training, monitoring en beveiliging. ” Aan de andere kant is Openai overdreven optimistisch over “automatiseren”Uitlijningsonderzoek, volgens DeepMind. Uitlijningsonderzoek is een methode voor AI -veiligheidsonderzoek.
AI Superintelligence is niet levensvatbaar, gelooft het bedrijf
Deepmind -onderzoekers hebben ook twijfels over de levensvatbaarheid van AI ‘Superintelligence’, iets dat Openai ook heeft verwezen. De krant zegt dat er momenteel geen “isAanzienlijke architecturale innovatie“Dat wijst in die richting. Ze zien echter wel de mogelijkheid van”Recursieve AI -verbetering”Met bestaande technologie. Dat wil zeggen, AI die meer geavanceerde AIS kan creëren door onderzoek. Deepmind waarschuwt echter dat dit erg gevaarlijk zou zijn.
‘Het transformerende karakter van AGI heeft het potentieel voor zowel ongelooflijke voordelen als ernstige schade,“Het document leest.”Als gevolg hiervan is het, om AGI op verantwoorde wijze te bouwen, van cruciaal belang voor Frontier AI -ontwikkelaars om proactief van plan te zijn om ernstige schade te beperken. “
Er zijn experts die het niet eens zijn met DeepMind
Er zijn enkele stemmen in de industrie die het niet eens zijn met de conclusies van het DeepMind -rapport. Heidy Khlaaf, hoofd -AI -wetenschapper bij het non -profit AI Now Institute, beweert dat het nog steeds te vroeg is om te verwachten dat het AGI -concept “Rigoureus wetenschappelijk geëvalueerd. ” Matthew Guzdial, universitair docent aan de Universiteit van Alberta, zegt dat de door DeepMind genoemde recursieve AI -verbetering ook onrealistisch is.We hebben nog nooit enig bewijs gezien dat het werkt‘Zei hij.
Sandra Wachter – een onderzoeker die technologie en regelgeving studeert aan Oxford – gelooft dat de echte zorg de training is van toekomstige AI’s met “Onnauwkeurige uitgangen. ” Ze lijkt te verwijzen naar het groeiende gebruik van synthetische gegevens in de industrie.
‘Met de proliferatie van generatieve AI -uitgangen op internet en de geleidelijke vervanging van authentieke gegevens, leren modellen nu van hun eigen output die doordrenkt zijn met mistruths of hallucinaties‘Zei ze.’Op dit moment worden chatbots voornamelijk gebruikt voor zoek- en waarheidsvriendingsdoeleinden. Dat betekent dat we voortdurend het risico lopen om te worden gevoed. “