Meta wil dat u openbaar maakt wanneer u AI-inhoud plaatst, anders wordt deze mogelijk verwijderd

Er is geen ontkomen aan; Door AI gegenereerde inhoud overspoelt vrijwel het internet. Bedrijven als Google en Adobe willen het gemakkelijker maken om te bepalen wanneer inhoud met AI wordt gegenereerd. Volgens een nieuw rapport wil Meta dat gebruikers bekendmaken wanneer ze AI-inhoud plaatsen. Als dat niet het geval is, lopen ze het risico dat het wordt verwijderd.

Het is moeilijk om ergens op internet te gaan zonder enige vorm van AI-inhoud te zien. Instagram staat vol met door AI gegenereerde afbeeldingen, YouTube staat vol met door AI gegenereerde video’s, enz. Dit is de reden waarom bedrijven op zoek zijn naar tools om beter te kunnen identificeren wanneer inhoud synthetisch is.

Google heeft een watermerksysteem genaamd SynthID om te identificeren wanneer mensen inhoud maken met behulp van de beeldgenerator. Het bedrijf breidde dat ook uit naar audiobestanden. Meta heeft ook een watermerksysteem dat van toepassing is op afbeeldingen gemaakt met de Imagine AI-generator. Sommige door AI gegenereerde media zijn duidelijk door AI gegenereerd, maar veel inhoud die tegenwoordig wordt gepost kan de massa voor de gek houden.

Dat is een probleem zoals het is. 2024 is echter een verkiezingsjaar, en dat maakt AI een vruchtbare voedingsbodem voor desinformatie en misleidende beelden. Daarom is het van cruciaal belang dat deze bedrijven het gemakkelijk maken om AI-inhoud te identificeren.

Meta wil dat gebruikers bekendmaken of ze AI-inhoud plaatsen

Meta is eigenaar van Facebook, Instagram en Threads. Dit zijn drie applicaties die heel veel door AI gegenereerde inhoud hebben gezien. Het is zover dat mensen vrezen dat het deze platforms zal overrompelen. Meta werkt aan tools waarmee mensen kunnen identificeren wanneer AI werd gebruikt om inhoud te maken. Het zal worden toegepast op inhoud die is gemaakt met behulp van Google, Adobe, MidJourney, enz. Het creëren van tools die kunstmatig gecreëerde inhoud kunnen detecteren is een enorme uitdaging.

Welnu, het bedrijf roept de hulp in van mensen die de berichten plaatsen om AI-inhoud te helpen identificeren. Het bedrijf gaat van mensen eisen dat ze bekendmaken of de inhoud met AI is gemaakt. Als ze dat niet doen, en Meta vaststelt dat het door AI is gegenereerd, kan de maker met enkele gevolgen te maken krijgen. Nick Clegg, Meta’s president van Global Affairs, zei dat als een gebruiker zijn AI-inhoud niet openbaar maakt, de “reeks van straffen die van toepassing zullen zijn het volledige spectrum zal bestrijken, van waarschuwingen tot en met verwijdering.”

Dit is een stap in de goede richting

De bedrijven die ons de tools leveren om door AI gegenereerde inhoud te creëren, geven ons nu tools om de inhoud te helpen identificeren. Dit is absoluut een stap in de goede richting, omdat het niet te zeggen is welk effect generieke AI-contacten zullen hebben op de technologiegemeenschap. Zeker, onschuldige posts op sociale media en AI-filter-selfies zijn niet schadelijk. Er kunnen echter enkele grote gevolgen zijn als door AI gegenereerde inhoud te reëel wordt.

We hebben al gezien dat AI wordt gebruikt om publieke figuren na te bootsen en hen onsmakelijke dingen te laten doen of zeggen. Een voorbeeld is de huidige controverse over AI-generatorpornografie van Taylor Swift.

Het goed kunnen controleren van deze inhoud is een van de meest cruciale dingen die technologiebedrijven kunnen doen. Als ze de bal laten vallen, moeten we gewoon afwachten en de consequenties op de harde manier ontdekken

Thijs Van der Does