In dit artikel zullen we een kort overzicht geven van het platform van Pillar Security om beter te begrijpen hoe ze AI -beveiligingsuitdagingen aanpakken.
Pillar Security is het bouwen van een platform om de hele softwareontwikkeling en de implementatie -levenscyclus te dekken met als doel vertrouwen te geven in AI -systemen. Met behulp van zijn holistische aanpak introduceert het platform nieuwe manieren om AI-bedreigingen te detecteren, te beginnen bij pre-planningfasen en helemaal doorloopt. Onderweg krijgen gebruikers zichtbaarheid in de beveiligingshouding van hun applicaties, terwijl ze een veilige AI -uitvoering inschakelen.
Pillar is uniek geschikt voor de uitdagingen die inherent zijn aan AI -beveiliging. Mede-oprichter en CEO Dor Saris komt uit een cyber-offensieve achtergrond, nadat hij een decennium heeft besteed aan het leiden van beveiligingsoperaties voor overheids- en bedrijfsorganisaties. Mede-oprichter en CTO Ziv Karlinger daarentegen hebben meer dan tien jaar besteed aan het ontwikkelen van defensieve technieken, het veiligstellen van financiële cybercriminaliteit en het beveiligen van supply chains. Samen vormt hun Red Team-Blue Team-benadering de basis van de beveiliging van de pijler en is het een belangrijke rol bij het verminderen van bedreigingen.
De filosofie achter de aanpak
Voordat u naar het platform duikt, is het belangrijk om de onderliggende aanpak van Pillar te begrijpen. In plaats van een siled systeem te ontwikkelen waarbij elk stuk van het platform zich op een enkel gebied richt, biedt Pillar een holistische aanpak. Elk component binnen het platform verrijkt het volgende, waardoor een gesloten feedback -lus wordt gecreëerd waarmee beveiliging zich kan aanpassen aan elke unieke use case.
De detecties die worden gevonden in het gedeelte Posture Management van het platform worden verrijkt door gegevens die zijn gedetecteerd in het gedeelte Discovery. Evenzo zijn adaptieve vangrails die worden gebruikt tijdens runtime gebouwd op inzichten uit dreigingsmodellering en rood teaming. Deze dynamische feedbacklus zorgt ervoor dat live verdedigingen worden geoptimaliseerd naarmate nieuwe kwetsbaarheden worden ontdekt. Deze aanpak creëert een krachtige, holistische en contextuele verdediging tegen bedreigingen voor AI -systemen – van build tot runtime.
AI Workbench: bedreigingsmodellering waar AI begint
Het Pillar -beveiligingsplatform begint bij wat ze de AI Workbench noemen. Voordat een code wordt geschreven, stelt deze veilige speeltuin voor het modelleren van bedreigingen beveiligingsteams in staat om te experimenteren met AI -use cases en proactief potentiële bedreigingen toe te wijzen. Deze fase is cruciaal om ervoor te zorgen dat organisaties hun AI -systemen afstemmen op bedrijfsbeleid en wettelijke eisen.
Ontwikkelaars en beveiligingsteams worden geleid door een gestructureerd modelleringsproces van de dreigingen, waardoor potentiële aanvalsscenario’s worden gegenereerd die specifiek zijn voor de case van de toepassingsgebruik. Risico’s zijn afgestemd op de zakelijke context van de applicatie en het proces is afgestemd op gevestigde kaders zoals Stride, ISO, Mitre Atlas, OWASP Top tien voor LLMS en Pillars eigen zeilraamwerk. Het doel is om vanaf de eerste dag beveiliging en vertrouwen op het ontwerp op te bouwen.
AI Discovery: realtime zichtbaarheid in AI-activa
AI -sprawl is een complexe uitdaging voor beveiligings- en bestuursteams. Ze missen zichtbaarheid in hoe en waar AI wordt gebruikt in hun ontwikkelings- en productieomgevingen.
Pillar hanteert een unieke benadering van AI -beveiliging die verder gaat dan de CI/CD -pijplijn en de traditionele SDLC. Door rechtstreeks te integreren met code -repositories, dataplatforms, AI/ML -frameworks, IDP’s en lokale omgevingen, kan het automatisch elk AI -actief binnen de organisatie automatisch vinden en catalogiseren. Het platform toont een volledige inventaris van AI -apps, inclusief modellen, tools, datasets, MCP -servers, coderingsagenten, meta -prompts en meer. Deze zichtbaarheid begeleidt teams, die helpen de basis te vormen van het beveiligingsbeleid van de organisatie en een duidelijk begrip van de bedrijfsgebruiksvoorziening mogelijk te maken, inclusief wat de applicatie doet en hoe de organisatie deze gebruikt.
AI-SPM: AI-risico in kaart brengen en beheren
Na het identificeren van alle AI -activa kan Pillar de veiligheidshouding begrijpen door elk van de activa te analyseren. Tijdens deze fase voert het AI Security Posture Management (AI-SPM) van het platform een robuuste statische en dynamische analyse uit van alle AI-activa en hun onderlinge verbindingen.
Door de AI -activa te analyseren, creëert Pillar visuele representaties van de geïdentificeerde agentische systemen, hun componenten en hun bijbehorende aanvalsoppervlakken. Bovendien identificeert het de supply chain, gegevensvergiftiging en risico’s van model/prompt/toolniveau. Deze inzichten, die binnen het platform verschijnen, stellen teams in staat om prioriteit te geven aan bedreigingen, omdat het precies aantoont hoe een dreigingsacteur door het systeem kan bewegen.
AI Red Teaming: Simulatie van aanvallen voordat ze gebeuren
In plaats van te wachten tot de applicatie volledig is gebouwd, bevordert Pillar een trust-by-design-aanpak, waardoor AI-teams kunnen testen terwijl ze bouwen.
Het platform voert gesimuleerde aanvallen uit die zijn afgestemd op de AI System Use Case, door gebruik te maken van gemeenschappelijke technieken zoals snelle injecties en jailbreaking naar geavanceerde aanvallen op zakelijke logica kwetsbaarheden. Deze Red Team -activiteiten helpen vast te stellen of een AI -agent kan worden gemanipuleerd om ongeautoriseerde terugbetalingen te geven, gevoelige gegevens te lekken of onbedoelde toolacties uit te voeren. Dit proces evalueert niet alleen het model, maar ook de bredere agentische toepassing en de integratie ervan met externe tools en API’s.
Pillar biedt ook een unieke mogelijkheid door rood teaming voor gereedschapsgebruik. Het platform integreert dreigingsmodellering met dynamische toolactivering, waarbij rigoureus wordt getest hoe geketend gereedschap en API -oproepen kunnen worden bewapend in realistische aanvalsscenario’s. Deze geavanceerde aanpak onthult kwetsbaarheden die traditionele snel gebaseerde testmethoden niet kunnen detecteren.
Voor ondernemingen met behulp van derden en ingesloten AI-apps, zoals copilots of aangepaste chatbots waar ze geen toegang hebben tot de onderliggende code, biedt Pillar Black-box, doelgerichte rode teaming. Met alleen een URL en referenties, kunnen de tegenstanders van Pillar elke toegankelijke AI-toepassing stress-test, alterneren of extern. Deze agenten simuleren real-world aanvallen om gegevensgrenzen te onderzoeken en blootstellingsrisico’s aan het licht te brengen, waardoor organisaties met vertrouwen AI-systemen van derden kunnen beoordelen en beveiligen zonder ze te integreren of aan te passen.
Vangrails: handhaving van runtime beleid die leert
Naarmate AI-applicaties in de productie gaan, worden realtime beveiligingscontroles essentieel. Pilaar behandelt deze behoefte met een systeem van adaptieve vangrails die inputs en uitgangen tijdens runtime bewaken, ontworpen om het beveiligingsbeleid af te dwingen zonder de prestaties van applicaties te onderbreken.
In tegenstelling tot statische regelsets of traditionele firewalls, zijn deze vangrails model agnostisch, applicatie-gecentreerd en continu evolueren. Volgens Pillar putten ze uit telemetriegegevens, inzichten die zijn verzameld tijdens het rode team en bedreigingsinformatie -feeds om zich in realtime aan te passen aan opkomende aanvalstechnieken. Hierdoor kan het platform zijn handhaving aanpassen op basis van de bedrijfslogica en het gedrag van elke applicatie en zeer nauwkeurig zijn met meldingen.
Tijdens de walkthrough zagen we hoe vangrails fijn kunnen worden afgestemd om misbruik te voorkomen, zoals data -exfiltratie of onbedoelde acties, met behoud van het beoogde gedrag van de AI. Organisaties kunnen hun AI-beleid en aangepaste regels voor code-code voor toepassingen afdwingen met vertrouwen dat beveiliging en functionaliteit naast elkaar zullen bestaan.
Sandbox: bevattende agentisch risico
Een van de meest kritieke zorgen is overmatig bureau. Wanneer agenten acties kunnen uitvoeren die verder gaan dan hun beoogde scopes, kan dit leiden tot onbedoelde gevolgen.
Pilaar behandelt dit tijdens de bedrijfsfase door middel van veilige sandboxing. AI -agenten, inclusief geavanceerde systemen zoals coderingsagenten en MCP -servers, lopen in strak gecontroleerde omgevingen. Deze geïsoleerde runtimes passen nul-trust-principes toe op afzonderlijke agenten van kritieke infrastructuur en gevoelige gegevens, terwijl ze nog steeds productief kunnen werken. Elk onverwacht of kwaadaardig gedrag is opgenomen zonder het grotere systeem te beïnvloeden. Elke actie wordt vastgelegd en ingelogd, waardoor teams een gedetailleerde forensisch pad hebben dat na het feit kan worden geanalyseerd. Met deze insluitingsstrategie kunnen organisaties AI -agenten veilig de kamer geven die ze nodig hebben om te bedienen.
AI Telemetrie: waarneembaarheid van prompt naar actie
Beveiliging stopt niet zodra de applicatie live is. Gedurende de levenscyclus verzamelt Pillar continu telemetriegegevens over de gehele AI -stapel. Prompts, agentacties, gereedschapsoproepen en contextuele metadata zijn allemaal in realtime vastgelegd.
Deze telemetrie bevat diep onderzoek en naleving van de naleving. Beveiligingsteams kunnen incidenten van symptoom tot oorzaak volgen, abnormaal gedrag begrijpen en ervoor zorgen dat AI -systemen binnen beleidsgrenzen werken. Het is niet genoeg om te weten wat er is gebeurd. Het gaat erom te begrijpen waarom er iets heeft plaatsgevonden en hoe het kan voorkomen dat het opnieuw gebeurt.
Vanwege de gevoeligheid van de telemetriegegevens kan de pilaar worden geïmplementeerd in de cloud van de klant voor volledige gegevensbeheersing.
Laatste gedachten
Pilaar staat uit elkaar door een combinatie van technische diepte, inzicht in de praktijk en flexibiliteit van enterprise-grade.
Opgericht door leiders in zowel offensieve als defensieve cybersecurity, heeft het team een bewezen staat van dienst van baanbrekend onderzoek dat kritieke kwetsbaarheden heeft ontdekt en gedetailleerde real-world aanvalsrapporten heeft geproduceerd. Deze expertise is op elk niveau ingebed in het platform.
Pillar hanteert ook een holistische benadering van AI -beveiliging die zich verder reikt dan de CI/CD -pijplijn. Door beveiliging te integreren in de plannings- en coderingsfasen en rechtstreeks verbinding te maken met code -repositories, dataplatforms en lokale omgevingen, wint pilaar vroege en diepe zichtbaarheid in de gebouwde systemen. Deze context maakt een precieze risicoanalyse en zeer gerichte test van Red Team mogelijk naarmate de ontwikkeling vordert.
Het platform wordt aangedreven door de grootste AI-bedreigingsinformatie-feed in de industrie, verrijkt door meer dan 10 miljoen real-world interacties. Deze dreigingsgegevens voeden geautomatiseerde testen, risicomodellering en adaptieve verdedigingen die evolueren met het dreigingslandschap.
Ten slotte is pijler gebouwd voor flexibele implementatie. Het kan op gebouwen, in hybride omgevingen of volledig in de cloud worden uitgevoerd, waardoor klanten volledige controle krijgen over gevoelige gegevens, prompts en eigen modellen. Dit is een cruciaal voordeel voor gereguleerde industrieën waar gegevensresidentie en beveiliging van het grootste belang zijn.
Samen maken deze mogelijkheden Pillar een krachtige en praktische basis voor veilige AI-acceptatie op schaal, waardoor innovatieve organisaties AI-specifieke risico’s kunnen beheren en vertrouwen krijgen in hun AI-systemen.