ChatGPT laat een kleine kans zien om gebruikt te worden om biowapens te maken

Generatieve AI-tools zoals GPT-4 zijn geweldig voor onderzoek, het creëren van inhoud, enz. Sommige mensen die deze technologie gebruiken, houden zich echter niet bezig met het maken van gedichten voor essays op de middelbare school. Er zijn mensen die ze zullen gebruiken om destructieve wapens te maken. Een team van wetenschappers en experts heeft onderzoek gedaan om te zien hoe gemakkelijk het is om GPT-4 te gebruiken om biowapens te maken. Nou, de kans daarop is klein, maar ze zijn niet onbestaande. Dit komt kort nadat OpenAI een contract heeft getekend met het Amerikaanse ministerie van Defensie.

Er bestaat veel verwarring over het verschil tussen chatbots en LLM’s (grote taalmodellen). Dat is bijvoorbeeld hetzelfde verschil tussen Google Bard en Gemini. Het is dus belangrijk om te weten waarom ze anders zijn. ChatGPT is de chatbot; de daadwerkelijke gebruikersinterface met het tekstvak en de resultaten. GPT-4 is het model, of het brein, dat de tekstprompts verwerkt en de resultaten aan de chatbot levert om weer te geven.

U krijgt toegang tot het GPT-4-model wanneer u zich aanmeldt voor ChatGPT Plus. Als u zich aanmeldt voor een abonnement, gebruikt u nog steeds dezelfde ChatGPT die beschikbaar is voor gratis gebruikers. Uw resultaten worden echter mogelijk gemaakt door het GPT-4-model, terwijl de resultaten van gratis gebruikers worden aangedreven door het GPT-3.5-model.

Uit onderzoek blijkt dat de kans dat GPT-4 wordt gebruikt voor het maken van biowapens slechts klein is

Nog niet zo lang geleden ondertekende de regering-Biden een uitvoerend bevel gericht tegen het ministerie van Energie om ervoor te zorgen dat AI-instrumenten niet kunnen worden gebruikt om gevaarlijke nucleaire, biologische of chemische wapens te maken. OpenAI, die het spel een stap voor is, heeft zijn eigen veiligheidsmaatregelen op dit gebied samengesteld. Er werd een paraatheidsteam samengesteld. Dit is een team van mensen die belast zijn met het elimineren van bepaalde bedreigingen zoals deze.

Dit team van mensen verzamelde 100 mensen, bestaande uit biologie-experts en biologiestudenten, om de capaciteit van GPT-4 te versterken om mensen instructies te geven over het maken van biowapens. De ene helft van het team kreeg basistoegang tot internet. De andere helft kreeg een gespecialiseerde versie van GPT-4 en toegang tot internet. Aan deze versie van GPT-4 waren geen beperkingen verbonden.

De twee groepen mensen voerden feitelijk red-teaming-taken uit om te proberen GPT-4 te laten mislukken en hen de tools en kennis te geven om extreem dodelijke wapens te maken. Een voorbeeld was het gebruik ervan om hen een manier te geven om het ebolavirus te synthetiseren. Er wordt hen ook verteld dat je wapens probeert te maken die gericht zijn op specifieke groepen mensen.

Wat waren de resultaten?

Nou, dit is misschien een beetje zorgwekkend. De groep met internettoegang kon een aantal methoden vinden om dit te doen. De resultaten voor mensen met GPT-4 lieten echter een grotere “nauwkeurigheid en volledigheid” zien; dat is eng. Bovendien zeiden de onderzoekers dat het gebruik van GPT-4 “hooguit een milde verhoging van de informatieverwerving voor het creëren van biologische dreigingen oplevert.”

Op dit moment is dit uiterst belangrijk onderzoek. Doorgaan en uitzoeken hoe we zoveel mogelijk bedreigingen kunnen elimineren, is wat alle AI-bedrijven zouden moeten doen. Het is al erg genoeg dat we mensen hebben die AI-kunst, muziek, boeken, enz. maken. Het laatste wat we nodig hebben is dat mensen met behulp van de technologie daadwerkelijk schade toebrengen aan het menselijk leven.

Thijs Van der Does