De volgende grote stap voor AI-bedrijven is een goed labelsysteem om mensen te laten weten wanneer content kunstmatig is gegenereerd. Bedrijven als Meta zijn hierin vooropgelopen, maar er zijn nog een paar bugs die opgelost moeten worden. Volgens een nieuw rapport moest Meta zijn AI-label veranderen naar “AI Info” na klachten van fotografen.
Het bedrijf heeft een systeem dat content markeert waarvan het denkt dat deze met AI gegenereerd kan zijn. De meeste door AI gegenereerde afbeeldingen op het platform zijn voor de hand liggend, maar de technologie is zo ver gevorderd dat sommige media het oog kunnen misleiden. Daarom is een goed labelsysteem belangrijk.
We zitten momenteel in een verkiezingsjaar en laten we eerlijk zijn, Facebook staat niet bepaald bekend als een platform vol met accurate informatie. Dus er is altijd de dreiging van misinformatie via door AI gegenereerde afbeeldingen.
Meta moest zijn AI-label veranderen na klachten van fotografen
Een probleem waar we mee te maken hebben, afgezien van het ontbreken van AI-labels, is dat bedrijven content ten onrechte als AI-gegenereerd labelen. Dit is iets waar fotografen al een tijdje mee te maken hebben, aangezien Meta echte afbeeldingen als AI-gegenereerd lijkt te labelen. Een voorbeeld was een 40 jaar oude foto van een honkbalwedstrijd. Zoals je kunt raden, was AI-afbeeldingsgeneratie in 1984 nog niet zo geweldig.
Dus, als gevolg daarvan heeft Meta het label “Made with AI” veranderd in “AI Info”. Dit lijkt een kleine verandering, maar het is iets waarvan het bedrijf hoopt dat het het uit de problemen houdt. In plaats van te zeggen dat de afbeelding is gemaakt met AI-technologie, zal het in feite zeggen dat er mogelijk sprake is geweest van AI-manipulatie.
Veel afbeeldingen die tegenwoordig worden gepost, zijn bewerkt met een soort AI-tool zoals de Generative Fill-tool van Photoshop. Het punt is dat wanneer bepaalde tools zoals deze worden gebruikt, Photoshop metadata aan de afbeelding toevoegt, zodat het platform weet dat er AI is gebruikt. Platforms zoals Facebook, Instagram en Threads gebruiken deze data om te bepalen of er sprake is geweest van AI-manipulatie.
Op dit moment wachten we nog steeds op een goed labelsysteem, maar we weten niet zeker of dat er ooit gaat komen. De bedrijven die aan de labelsystemen werken, steken ook miljarden dollars in het realistischer maken van AI-beelden.