We zijn op een punt beland waarop we AI-bedrijven niet echt kunnen vertrouwen, maar we moeten de bedrijven die zich inspannen wel krediet geven. Hoewel OpenAI zeker zijn geheimen heeft, onderneemt de AI-startup in ieder geval stappen om het vertrouwen van het publiek te winnen. Volgens een nieuw rapport beloofde OpenAI het AI Safety Institute vroegtijdig toegang te geven tot zijn nieuwste model.
Verschillende landen ontwikkelen afdelingen die zich toeleggen op het analyseren van AI en het beperken van potentiële gevaren. In de VS is er een afdeling die het AI Safety Institute heet. Deze afdeling is verantwoordelijk voor het waarborgen dat AI op geen enkele manier schade toebrengt aan mensen. Het is een relatief nieuwe afdeling, die is gepositioneerd om een cruciale entiteit te worden in de AI-industrie in de toekomst.
OpenAI geeft het Amerikaanse AI Safety Institute vroegtijdig toegang tot zijn nieuwste model
OpenAI geeft het AI Safety Institute vroege toegang tot zijn nieuwste funderingsmodel. Dat is een behoorlijk grote stap. Een van de belangrijkste dingen die alle overheidsinstanties willen, is dat AI-bedrijven transparant zijn en hen op de hoogte stellen van waar ze aan werken. Het is heel goed mogelijk dat een bedrijf een product op de markt brengt dat daadwerkelijk schade veroorzaakt. Soms kan het moeilijk of onmogelijk zijn om de schade terug te draaien.
In een bericht van OpenAI CEO Sam Altman krijgen we het nieuws dat het bedrijf toegang geeft tot zijn nieuwste foundation model. Het bericht vermeldde echter niet welk model, dus we weten niet of het vroege toegang biedt tot een baanbrekend model of een model voor kleinere applicaties.
Ook vermeldt de post dat het slechts het volgende model is. We weten niet of het bedrijf vroege toegang tot toekomstige modellen gaat bieden. Hoe dan ook, dit is nog steeds een geweldige stap om te zetten.
Het bedrijf onderneemt andere stappen
In de post stelde Altman ook dat het bedrijf 20% van zijn computerbronnen gaat besteden aan zijn veiligheidsinspanningen binnen het bedrijf. Dit is goed om te horen, want er was recentelijk wat drama rondom de veiligheidsinspanningen van het bedrijf. Er waren berichten dat het bedrijf bronnen van zijn veiligheidsteam afleidde. OpenAI heeft echter intern een nieuw team samengesteld.