Kunstmatige intelligentie (AI) is ons leven op de een of andere manier overgenomen. Omdat technologiebedrijven zwaar investeren in AI, zijn ze ook verantwoordelijk voor het beschermen van hun platforms, vooral voor kinderen. Gezien de zorgen, hebben grote bedrijven zoals Google, Openai, Discord en Roblox gezamenlijk een nieuwe kinderveiligheidsgroep gevormd en het Robuste Open Online Safety Tools (ROOST) initiatief op de AI Action Summit in Parijs gelanceerd.
Google, Openai, Discord & Roblox hebben een nieuwe kinderveiligheidsgroep opgericht om online schade aan te pakken
Roost is een nieuwe non-profit organisatie die tot doel heeft de kinderveiligheid online te verbeteren. Bedrijven die de handen ineen slaan met de kinderveiligheidsgroep, hebben toegang tot gratis AI-tools met open-source. Ze kunnen dergelijke hulpmiddelen gebruiken om materialen voor seksueel misbruik van kinderen (CSAM) te detecteren, te beoordelen en te rapporteren.
Volgens het gezamenlijke persbericht is dit initiatief bedoeld om ‘samen te brengen’de expertise, middelen en investeringen“Om een meer toegankelijke en transparante veiligheidsinfrastructuur te creëren om online schade aan te pakken met betrekking tot AI. Verschillende filantropische organisaties zoals de Knight Foundation, de Patrick J. McGovern Foundation en de AI Collaborative hebben ook het initiatief gesteund.
Bluesky, Microsoft, Mozilla en GitHub zijn ook enkele van de belangrijkste partners van dit initiatief. Ongetwijfeld is het initiatief dat wordt gelanceerd onder de kinderveiligheidsgroep geweldig en zo. Maar het valt nog te bezien of het enkele van zijn grote doelen kan bereiken.
De oprichtende partners hebben een vlekkerige geschiedenis als het gaat om het reguleren van hun platform
Laten we Roblox als voorbeeld nemen; Het bedrijf heeft een slecht track record van het reguleren van zijn platform. Vorig jaar sloeg Hindenburg Roblox in een van zijn rapporten.
Hoewel Google uitstekend werk doet om online kinderveiligheid te zorgen voor kinderveiligheid, worstelt het nog steeds om de distributie van expliciete AI-gegenereerde inhoud te bestrijden. Daarom kunnen we alleen maar wachten en hopen dat de kinderveiligheidsgroep alle lof krijgt om zijn werk te doen.