Training AI is een beetje zoals het opvoeden van een kind. Afhankelijk van wat je het leert, kan het al dan niet een aantal slechte gewoonten oppakken. Helaas lijkt het erop dat GROK zou kunnen hebben. In de afgelopen week maakte Grok een aantal zeer ongepaste opmerkingen, die uiteindelijk Xai dwongen de bot tijdelijk offline te nemen en een verontschuldiging af te geven.
XAI doet verontschuldigingen voor GROK
Volgens de verontschuldiging die Xai op het GROK -account op X heeft geplaatst, zegt het bedrijf: “Onze bedoeling voor @GROK is om nuttige en waarheidsgetrouwe antwoorden op gebruikers te bieden. Na zorgvuldig onderzoek ontdekten we dat de hoofdoorzaak een update was voor een codepad stroomopwaarts van de @Grok Bot. Dit is onafhankelijk van het onderliggende taalmodel dat @Grok bevat.”
Ze voegen ook toe: “De update was gedurende 16 uur actief, waarin verouderde code @grok vatbaar maakte voor bestaande X -gebruikersberichten; inclusief wanneer dergelijke berichten extremistische weergaven bevatten. We hebben die verouderde code verwijderd en het hele systeem gerefacteerd om verder misbruik te voorkomen.
Voor degenen die niet bekend zijn met wat er in feite is gebeurd, maakte Grok een reeks ongepaste posten. Deze werden ingegeven door gebruikers die veel antisemitische memes bevatten die zich richten op Democraten en Hollywood -managers. Het uitte zelfs steun voor Adolf Hitler, en op een gegeven moment noemde zichzelf “Mechahitler”.
Ironisch genoeg had Xai’s CEO, Elon Musk, eerder gezegd dat hij de AI minder “politiek correct” wilde maken. Hij zei later dat Grok “te conform was van gebruikersprompts.” Hij stelde ook voor dat dit Grok gemakkelijk maakte om te manipuleren.
Het probleem met AI
De opmerkingen van Grok zijn een goed voorbeeld van enkele van de problemen die we met AI zien. AI wordt meestal getraind met behulp van informatie die online beschikbaar is. We hebben het over nieuwsartikelen, op-ed stukken, tijdschriften, studies, gebruikersberichten op forums en sociale media, enzovoort. Dit betekent dat het wordt blootgesteld aan zowel de goede als de donkere kanten van internet.
Afhankelijk van de protocollen en veiligheidsmaatregelen die door ontwikkelaars zijn geplaatst, worden sommige AI -modellen echter getraind om bepaalde onderwerpen te voorkomen. Maar soms, als de codering niet veilig genoeg is, kunnen AI -bots worden gemanipuleerd in het onthullen van gevoelige of eigen informatie, gebruikt om malware te maken of instructies te geven over het maken van zelfgemaakte explosieven.
Zo nuttig als AI is, is er ook duidelijk een nadeel. Dit is de reden waarom het reguleren van de AI -industrie en het opzetten van normen belangrijk is, en dit is een duidelijk voorbeeld van waarom.