Artificial Intelligence (AI) Company Anthropic heeft onthuld dat onbekende dreigingsacteurs zijn Claude Chatbot gebruikten voor een “invloed-as-a-service” -operatie om zich bezig te houden met authentieke accounts op Facebook en X.
De geavanceerde activiteit, gebrandmerkt als financieel gemotiveerd, zou zijn AI-tool hebben gebruikt om 100 verschillende personen op de twee sociale mediaplatforms te orkestreren, waardoor een netwerk van “politiek uitgelijnde accounts” wordt gecreëerd die zich bezighouden met “10s of duizenden” authentieke accounts.
De nu verstoorde operatie, zeiden antropische onderzoekers, prioriteit, prioriteit aan doorzettingsvermogen en levensduur boven vitaliteit en probeerde gematigde politieke perspectieven te versterken die Europees, Iraanse, Iraanse, de Verenigde Arabische Emiraten (VAE) en Keniaanse belangen ondersteunden of ondermijnden.
Deze omvatten het promoten van de VAE als een superieure zakelijke omgeving, terwijl ze kritisch waren over Europese wettelijke kaders, gericht op verhalen over energiezekerheid voor het Europees publiek en culturele identiteitsverhalen voor het Iraanse publiek.
De inspanningen duwden ook verhalen ter ondersteuning van de Albanese figuren en bekritiseerden oppositiefiguren in een niet -gespecificeerd Europees land, evenals bepleitte ontwikkelingsinitiatieven en politieke figuren in Kenia. Deze invloedsactiviteiten zijn consistent met campagnes met de staat, hoewel precies wie achter hen zaten onbekend blijft, voegde het eraan toe.
“Wat vooral nieuw is, is dat deze operatie Claude niet alleen gebruikte voor het genereren van inhoud, maar ook om te beslissen wanneer BOT-accounts voor sociale media commentaar zouden geven, zoals, zoals of opnieuw versterken van authentieke gebruikers van sociale media,” merkte het bedrijf op.
“Claude werd gebruikt als een orkestrator die besliste welke acties sociale media botaccounts zouden moeten nemen op basis van politiek gemotiveerde persona’s.”
Het gebruik van Claude als een tactische engagement-beslisser, ondanks dat de chatbot werd gebruikt om passende politiek uitgelijnde reacties in de stem van de persona en moedertaal te genereren en aanwijzingen te creëren voor twee populaire hulpmiddelen voor beeld-generatie.
De operatie wordt beschouwd als het werk van een commerciële dienst die geschikt is voor verschillende klanten in verschillende landen. Ten minste vier verschillende campagnes zijn geïdentificeerd met behulp van dit programmatische raamwerk.
“De operatie implementeerde een zeer gestructureerde op JSON gebaseerde benadering van persona management, waardoor het continuïteit kan handhaven op platforms en consistente engagementpatronen vaststelt die authentiek menselijk gedrag nabootsen,” zeiden onderzoekers Ken Lebedev, Alex Moix en Jacob Klein.
“Door dit programmatische framework te gebruiken, kunnen operators hun inspanningen efficiënt standaardiseren en schalen en systematisch volgen en bijwerken van persona -attributen, betrokkenheidsgeschiedenis en verhalende thema’s in meerdere accounts tegelijkertijd mogelijk maken.”

Een ander interessant aspect van de campagne was dat het “strategisch” de geautomatiseerde accounts instrueerde om te reageren met humor en sarcasme op beschuldigingen van andere verslagen dat ze bots kunnen zijn.
Anthropic zei dat de operatie de noodzaak van nieuwe kaders benadrukt om invloedsoperaties te evalueren die draaien rond het opbouwen van relaties en gemeenschapsintegratie. Het waarschuwde ook dat soortgelijke kwaadaardige activiteiten de komende jaren gebruikelijk zouden kunnen worden omdat AI de barrière verder verlaagt om invloedscampagnes uit te voeren.
Elders merkte het bedrijf op dat het een geavanceerde dreigingsacteur verbood met behulp van zijn modellen om gelekte wachtwoorden en gebruikersnamen te schrapen die zijn geassocieerd met beveiligingscamera’s en methoden te bedenken om op internet gerichte doelen met brute-force te bedenken met behulp van de gestolen referenties.
De dreigingsacteur gebruikte Claude verder om berichten te verwerken van informatie -logboeken voor het op Telegram geplaatst, maakt scripts om doel -URL’s van websites te schrapen en hun eigen systemen te verbeteren om beter te zoeken.
Twee andere gevallen van misbruik die in maart 2025 door Anthropic is gespot door Anthropic, worden hieronder vermeld –
- Een wervingsfraudecampagne die Claude gebruikte om de inhoud van oplichting te verbeteren die zich richt op werkzoekenden in Oost -Europese landen
- Een beginnende acteur die Claude gebruikte om hun technische mogelijkheden te verbeteren om geavanceerde malware te ontwikkelen buiten hun vaardigheidsniveau met mogelijkheden om het donkere web te scannen en niet-detecteerbare kwaadaardige ladingen te genereren die de beveiligingscontrole kunnen ontwijken en langdurige aanhoudende toegang tot gecompromitteerde systemen kunnen behouden
“Deze casus illustreert hoe AI mogelijk de leercurve voor kwaadwillende actoren kan afvlakken, waardoor personen met beperkte technische kennis geavanceerde hulpmiddelen kunnen ontwikkelen en mogelijk hun progressie kunnen versnellen van activiteiten op laag niveau naar meer ernstige cybercriminele inspanningen,” zei Anthropic.