Apple heeft zijn Private Cloud Compute (PCC) Virtual Research Environment (VRE) publiekelijk beschikbaar gesteld, waardoor de onderzoeksgemeenschap de privacy- en veiligheidsgaranties van zijn aanbod kan inspecteren en verifiëren.
PCC, dat Apple eerder dit jaar onthulde, wordt op de markt gebracht als de “meest geavanceerde beveiligingsarchitectuur die ooit is ingezet voor cloud-AI-computing op schaal.” Met de nieuwe technologie is het de bedoeling om computationeel complexe Apple Intelligence-verzoeken naar de cloud te verplaatsen op een manier die de privacy van de gebruiker niet opoffert.
Apple zei dat het “alle beveiligings- en privacyonderzoekers (of iedereen met interesse en technische nieuwsgierigheid) uitnodigt om meer te leren over PCC en hun eigen onafhankelijke verificatie van onze claims uit te voeren.”
Om het onderzoek verder te stimuleren, zei de iPhone-maker dat het het Apple Security Bounty-programma uitbreidt met PCC door geldelijke uitbetalingen aan te bieden variërend van $50.000 tot $1.000.000 voor daarin geïdentificeerde beveiligingsproblemen.
Dit omvat fouten die de uitvoering van kwaadaardige code op de server mogelijk maken, en exploits die gevoelige gegevens van gebruikers of informatie over de verzoeken van de gebruiker kunnen extraheren.
Het VRE wil een reeks hulpmiddelen bieden waarmee onderzoekers hun analyse van PCC vanaf de Mac kunnen uitvoeren. Het wordt geleverd met een virtuele Secure Enclave Processor (SEP) en maakt gebruik van ingebouwde macOS-ondersteuning voor geparavirtualiseerde grafische afbeeldingen om gevolgtrekking mogelijk te maken.
Apple zei ook dat het de broncode die bij sommige componenten van PCC hoort, toegankelijk maakt via GitHub om een diepere analyse mogelijk te maken. Dit omvat CloudAttestation, Thimble, splunkloggingd en srd_tools.
“We hebben Private Cloud Compute ontworpen als onderdeel van Apple Intelligence om een buitengewone stap voorwaarts te zetten op het gebied van privacy in AI”, aldus het in Cupertino gevestigde bedrijf. “Dit omvat het bieden van verifieerbare transparantie – een unieke eigenschap die het onderscheidt van andere servergebaseerde AI-benaderingen.”
De ontwikkeling komt omdat breder onderzoek naar generatieve kunstmatige intelligentie (AI) nieuwe manieren blijft ontdekken om grote taalmodellen (LLM’s) te jailbreaken en onbedoelde output te produceren.

Eerder deze week heeft Palo Alto Networks een techniek beschreven genaamd Deceptive Delight, waarbij kwaadaardige en goedaardige zoekopdrachten worden gecombineerd om AI-chatbots te misleiden om hun vangrails te omzeilen door te profiteren van hun beperkte ‘aandachtsspanne’.
De aanval vereist minimaal twee interacties en werkt door de chatbot eerst te vragen verschillende gebeurtenissen logisch met elkaar te verbinden – inclusief een beperkt onderwerp (bijvoorbeeld hoe je een bom maakt) – en hem vervolgens te vragen de details van elke gebeurtenis uit te leggen.
Onderzoekers hebben ook een zogenaamde ConfusedPilot-aanval gedemonstreerd, die zich richt op op Retrieval-Augmented Generation (RAG) gebaseerde AI-systemen zoals Microsoft 365 Copilot door de dataomgeving te vergiftigen met een ogenschijnlijk onschadelijk document dat specifiek vervaardigde tekenreeksen bevat.
“Deze aanval maakt manipulatie van AI-reacties mogelijk door simpelweg kwaadaardige inhoud toe te voegen aan documenten waar het AI-systeem naar verwijst, wat mogelijk kan leiden tot wijdverbreide verkeerde informatie en gecompromitteerde besluitvormingsprocessen binnen de organisatie”, aldus Symmetry Systems.
Daarnaast is gebleken dat het mogelijk is om met de computationele grafiek van een machine learning-model te knoeien en ‘codeloze, heimelijke’ achterdeurtjes te plaatsen in vooraf getrainde modellen als ResNet, YOLO en Phi-3, een techniek met de codenaam ShadowLogic.
“Backdoors die met deze techniek zijn gemaakt, zullen blijven bestaan door middel van verfijning, wat betekent dat basismodellen kunnen worden gekaapt om door de aanvaller gedefinieerd gedrag in elke downstream-applicatie te activeren wanneer een trigger-invoer wordt ontvangen, waardoor deze aanvalstechniek een groot impact heeft op de AI-toeleveringsketen.” Dat zeggen Hidden Layer-onderzoekers Eoin Wickens, Kasimir Schulz en Tom Bonner.
“In tegenstelling tot standaardsoftwarebackdoors die afhankelijk zijn van het uitvoeren van kwaadaardige code, zijn deze backdoors ingebed in de structuur van het model, waardoor ze moeilijker te detecteren en te beperken zijn.”