Google bevestigt dat Android SafetyCore AI-aangedreven contentclassificatie op de apparaat mogelijk maakt

Google is ingegaan om te verduidelijken dat een nieuw geïntroduceerde Android System SafetyCore-app geen client-side scanning van inhoud uitvoert.

“Android biedt veel bescherming op de apparaat die gebruikers beschermen tegen bedreigingen zoals malware, messaging-spam en misbruikbescherming en telefonische zwendelbescherming, met behoud van de privacy van gebruikers en het behouden van gebruikers in controle over hun gegevens,” vertelde een woordvoerder van het bedrijf aan The Hacker News. toen ze bereikten voor commentaar.

“SafetyCore is een nieuwe Google System Service voor Android 9+ apparaten die de on-apparaat-infrastructuur biedt voor veilig en privé-classificatie om gebruikers te helpen ongewenste inhoud te detecteren. Gebruikers hebben controle over SafetyCore en SafetyCore classificeert alleen specifieke inhoud wanneer een app erom vraag via een optioneel ingeschakelde functie. “

SafetyCore (pakketnaam “com.google.android.safetycore”) werd voor het eerst geïntroduceerd door Google in oktober 2024, als onderdeel van een reeks beveiligingsmaatregelen die zijn ontworpen om oplichting en andere inhoud die als gevoelig wordt beschouwd op de Google -berichten -app voor Android.

De functie, die 2 GB RAM vereist, rolt uit naar alle Android-apparaten, met Android-versie 9 en later, evenals die met Android GO, een lichtgewicht versie van het besturingssysteem voor smartphones op instapniveau.

Client-side scanning (CSS) wordt daarentegen gezien als een alternatieve benadering om on-evice analyse van gegevens mogelijk te maken in tegenstelling tot het verzwakken van codering of het toevoegen van backdoors aan bestaande systemen. De methode heeft echter ernstige privacyproblemen geleid, omdat het rijp is voor misbruik door de dienstverlener te dwingen om te zoeken naar materiaal buiten de aanvankelijk overeengekomen reikwijdte.

In sommige opzichten zijn de gevoelige waarschuwingen van Google voor de berichten-app veel vergelijkbaar met de communicatie-veiligheidsfunctie van Apple in iMessage, die gebruik maakt van machine learning op de apparaten om foto- en video-bijlagen te analyseren en te bepalen of een foto of video naaktheid lijkt te bevatten.

De beheerders van het GrapheneOS-besturingssysteem herhaalde in een bericht dat op X wordt gedeeld, dat SafetyCore geen scanning aan de client-side biedt en voornamelijk is ontworpen om modellen voor machine-learning op de apparaten aan te bieden die door andere toepassingen kunnen worden gebruikt om inhoud te classificeren als spam, zwendel of malware.

“Het classificeren van dit soort dingen is niet hetzelfde als proberen illegale inhoud te detecteren en te rapporteren aan een service,” zei Grapheneos. “Dat zou de privacy van mensen op meerdere manieren enorm schenden en er zouden nog steeds valse positieven bestaan. Het is niet wat dit is en het is niet bruikbaar.”

Thijs Van der Does