Microsoft heeft een nieuwe AI-correctietool die probeert te voorkomen dat AI-modellen feitelijk onjuiste inhoud genereren. Simpel gezegd zet Microsoft AI in om te voorkomen dat een andere AI afval uitspuwt, een fenomeen dat algemeen bekend staat als AI-hallucinaties.
De “Correctie”-functie van Microsoft probeert AI-hallucinaties aan te pakken
Generatieve kunstmatige intelligentie (Gen AI) is getuige geweest van een fenomenale adoptie. Een flink aantal van deze Gen AI-chatbots genereren echter vaak vol vertrouwen inhoud die niet accuraat is.
Microsoft probeert AI-hallucinaties aan te pakken met zijn nieuwe “Correctie” -functie. Het is gebaseerd op de bestaande ‘Groundedness Detection’ van Microsoft. De nieuwe AI-corrigerende AI-tool verwijst in essentie door AI-gegenereerde tekst naar een ondersteunend document dat door de gebruiker is ingevoerd.
Microsoft zal de nieuwe correctietool aanbieden als onderdeel van de Azure AI Safety API van Microsoft. Gebruikers van Gen AI-platforms zoals OpenAI’s GPT-4o en Meta’s Llama zouden de nieuwe functie binnenkort moeten ervaren.
De functie Correcties probeert inhoud te markeren die mogelijk niet feitelijk juist is. Vervolgens wordt de tekst op feiten gecontroleerd door deze te vergelijken met een bron van waarheid.
Microsoft beweert dat deze functie afhankelijk is van een basisdocument, waarbij mogelijk door gebruikers geüploade transcripties betrokken zijn. Dit zou kunnen betekenen dat de verantwoordelijkheid voor het certificeren van de juistheid van een document niet bij de eindgebruiker hoeft te liggen. De AI zou op basis van gegronde documenten kunnen vertellen wat als feit moet worden beschouwd.
Microsoft zet ‘Evaluaties’ ook in als een ‘vertrouwelijke gevolgtrekking’-laag
Microsoft heeft gesuggereerd dat zijn AI-correctietool hallucinaties in realtime zou kunnen aanpakken. Naast het aanpakken van AI-hallucinaties zet Microsoft ook ‘Evaluaties’ in.
Volgens Microsoft is ‘Evaluations’ een proactief risicobeoordelingsinstrument. Het zal fungeren als een vertrouwelijke gevolgtrekkingslaag. Met andere woorden: het Gen AI-platform zal de inhoud door deze laag doorgeven voordat er voorspellingen worden gedaan.
De nieuwe tool zal naar verluidt proberen ervoor te zorgen dat gevoelige informatie veilig en privé blijft tijdens het gevolgtrekkingsproces. Dit zou potentiële privacyproblemen kunnen wegfilteren. Met deze nieuwe tools lijkt Microsoft twee veelvoorkomende problemen met Gen AI aan te pakken: privacy en nauwkeurigheid.