Ekhbary
Monday, 23 February 2026
Breaking

Anthropic's 'Veiligheid Eerst' AI Botst met Pentagon te midden van de Uitbreiding van Autonome Agenten

Het AI-bedrijf staat voor een ethisch dilemma nu de militair

Anthropic's 'Veiligheid Eerst' AI Botst met Pentagon te midden van de Uitbreiding van Autonome Agenten
7DAYES
20 hours ago
12

Verenigde Staten - Ekhbary Nieuwsagentschap

Anthropic's 'Veiligheid Eerst' AI Botst met Pentagon te midden van de Uitbreiding van Autonome Agenten

Anthropic, een toonaangevend bedrijf op het gebied van kunstmatige intelligentie (AI) opgericht op het principe van 'veiligheid eerst' (safety first), bevindt zich op een cruciaal punt in zijn relatie met het Amerikaanse Ministerie van Defensie (het Pentagon). Met de recente lancering van zijn meest geavanceerde autonome agenten, neemt de militaire vraag naar deze geavanceerde mogelijkheden toe, wat een diepe uitdaging vormt voor de fundamentele ethische verplichtingen van het bedrijf en zijn strategie voor wereldwijde expansie.

Op 5 februari onthulde Anthropic Claude Opus 4.6, zijn krachtigste AI-model tot nu toe. Een belangrijk kenmerk van deze release is de mogelijkheid om teams van autonome agenten te coördineren—meerdere AI's die taken kunnen verdelen en parallel kunnen werken om complexe doelen te bereiken. Slechts twaalf dagen na de release van Opus 4.6, introduceerde het bedrijf Sonnet 4.6, een kosteneffectiever model dat echter concurreert met Opus in codeer- en computergerelateerde vaardigheden. Terwijl de eerste computerbesturingsmodellen van Anthropic, geïntroduceerd eind 2024, nauwelijks een webbrowser konden bedienen, demonstreert Sonnet 4.6 nu menselijke capaciteiten bij het navigeren van webapplicaties en het invullen van formulieren, aldus het bedrijf. Beide modellen beschikken over een werkgeheugen dat groot genoeg is om een kleine bibliotheek op te slaan, waardoor complexere en langdurigere operaties mogelijk zijn.

De zakelijke sector vertegenwoordigt momenteel ongeveer 80 procent van de inkomsten van Anthropic, en het bedrijf heeft onlangs een financieringsronde van $30 miljard afgesloten, met een duizelingwekkende waardering van $380 miljard. Volgens alle beschikbare statistieken is Anthropic een van de snelst groeiende technologiebedrijven in de geschiedenis. Echter, onder de oppervlakte van grote productlanceringen en indrukwekkende waarderingen schuilt een aanzienlijke bedreiging: het Pentagon heeft aangegeven Anthropic mogelijk te classificeren als een "leveringsketenrisico"—een label dat doorgaans is gereserveerd voor buitenlandse tegenstanders—tenzij het bedrijf zijn beperkingen op militair gebruik versoepelt. Een dergelijke classificatie zou Pentagon-aannemers er effectief toe kunnen dwingen Claude uit gevoelige projecten te verwijderen, wat de adoptie ervan in kritieke defensietoepassingen mogelijk zou belemmeren.

De spanningen escaleerden na een operatie op 3 januari, waarbij Amerikaanse speciale operatietroepen een inval deden in Venezuela, wat resulteerde in de gevangenneming van Nicolás Maduro. Rapporten van The Wall Street Journal suggereren dat Claude tijdens deze operatie werd gebruikt via de samenwerking van Anthropic met defensieaannemer Palantir. Axios meldde verder dat dit incident reeds gespannen onderhandelingen over de precieze toegestane toepassingen van Claude heeft verergerd. Toen een Anthropic-manager contact opnam met Palantir om te informeren of de technologie betrokken was bij de inval, zou de vraag onmiddellijk alarm hebben veroorzaakt binnen het Pentagon. Hoewel Anthropic betwist dat dit contact bedoeld was om afkeuring van de specifieke operatie te signaleren, vertelde een hoge ambtenaar van de regering aan Axios dat minister van Defensie Pete Hegseth "dicht bij" het verbreken van de banden staat, en voegde eraan toe: "We zullen ervoor zorgen dat ze een prijs betalen voor ons op deze manier te dwingen."

Deze botsing benadrukt een fundamentele vraag: kan een bedrijf dat is opgericht met de missie om een AI-catastrofe te voorkomen, zijn ethische integriteit behouden wanneer zijn krachtigste tools—autonome agenten die enorme datasets kunnen verwerken, patronen kunnen identificeren en kunnen handelen op basis van hun conclusies—beginnen te opereren binnen geclassificeerde militaire netwerken? Is een 'veiligheid eerst'-AI werkelijk compatibel met een klant die systemen eist die kunnen redeneren, plannen en autonoom kunnen handelen op militaire schaal?

Anthropic heeft twee duidelijke rode lijnen vastgesteld: het verbieden van massasurveillance van Amerikanen en het verbieden van volledig autonome wapens. CEO Dario Amodei heeft verklaard dat Anthropic "de nationale verdediging op alle mogelijke manieren zal steunen, behalve die welke ons meer op onze autocratische tegenstanders zouden laten lijken." Hoewel andere grote AI-laboratoria, waaronder OpenAI, Google en xAI, hebben ingestemd met het versoepelen van beveiligingsmaatregelen voor gebruik in de niet-geclassificeerde systemen van het Pentagon, zijn hun tools nog niet ingezet binnen de geclassificeerde netwerken van het leger. Het Pentagon daarentegen benadrukt dat AI-mogelijkheden "voor alle wettige doeleinden" beschikbaar moeten zijn.

Deze wrijving test direct de centrale these van Anthropic. Het bedrijf werd in 2021 opgericht door voormalige leidinggevenden van OpenAI die vonden dat de industrie veiligheid niet serieus genoeg nam. Ze positioneerden Claude als het ethisch verantwoorde alternatief. Eind 2024 maakte Anthropic Claude toegankelijk op een Palantir-platform met een cloudbeveiligingsniveau tot "geheim", waardoor Claude, volgens openbare verslagen, de eerste grote taalmodel werd die binnen geclassificeerde systemen opereert.

De huidige patstelling dwingt tot een kritische beoordeling of een 'veiligheid eerst'-identiteit duurzaam is zodra een technologie is geïntegreerd in geclassificeerde militaire operaties en of dergelijke rode lijnen praktisch afdwingbaar zijn. Emelia Probasco, senior fellow bij het Center for Security and Emerging Technology van Georgetown University, merkt op: "Deze woorden lijken eenvoudig: illegale surveillance van Amerikanen. Maar als je er dieper op ingaat, zijn er hele legers van advocaten die proberen die zin te interpreteren."

De historische context is ook relevant. Na de onthullingen van Edward Snowden verdedigde de Amerikaanse regering de bulkverzameling van telefoonmetadata—oproepgegevens die gedetailleerd beschrijven wie wie wanneer en hoe lang belde—en voerde aan dat dergelijke gegevens niet dezelfde privacybescherming genoten als de inhoud van gesprekken. Het privacydebat concentreerde zich destijds op menselijke analisten die deze gegevens onderzochten. Stel je nu een AI-systeem voor dat enorme datasets opvraagt, netwerken in kaart brengt, patronen detecteert en personen van belang markeert. Het bestaande wettelijke kader is ontworpen voor een tijdperk van menselijke beoordeling, niet voor analyse op maschinelen schaal.

"In zekere zin is elke vorm van massale gegevensverzameling waar je een AI naar laat kijken, per definitie massasurveillance", zegt Peter Asaro, medeoprichter van het Internationaal Comité voor Robotwapenbeheersing. Axios meldde dat een hoge ambtenaar betoogde dat er "aanzienlijke grijze zones" zijn rond de beperkingen van Anthropic en dat het "onwerkbaar is voor het Pentagon om individuele gebruiksscenario's te onderhandelen" met het bedrijf. Asaro biedt twee interpretaties van deze klacht: een milde interpretatie die suggereert dat surveillance in het AI-tijdperk werkelijk onmogelijk te definiëren is, en een pessimistische interpretatie dat "ze het echt willen gebruiken voor massasurveillance en autonome wapens en dat niet willen zeggen, dus noemen ze het een grijze zone".

Wat betreft Anthropic's tweede rode lijn, autonome wapens—nauw gedefinieerd als systemen die doelen selecteren en aanvallen zonder menselijk toezicht—lijkt de definitie beheersbaar. Asaro ziet echter een meer verontrustende grijze zone. Hij wijst naar de Israëlische systemen "Lavender" en "Gospel", die naar verluidt AI gebruiken om enorme lijsten met doelen te genereren die aan menselijke operators worden voorgelegd ter goedkeuring voordat aanvallen worden uitgevoerd. "Je hebt in wezen het doelwit-element geautomatiseerd", legt Asaro uit, "wat iets is waar we ons erg zorgen over maken en nauw verwant is, zelfs als het buiten de strikte definitie valt." De cruciale vraag is of Claude, opererend binnen de systemen van Palantir op geclassificeerde netwerken, vergelijkbare functies zou kunnen uitvoeren—het verwerken van inlichtingen, het identificeren van patronen en het markeren van personen van belang—zonder dat Anthropic precies kan afbakenen waar het analytische werk eindigt en het richten begint.

De Maduro-operatie dient als een cruciale testcase voor dit onderscheid. "Als je gegevens en inlichtingen verzamelt om doelen te identificeren, maar mensen beslissen: 'Oké, dit is de lijst met doelen die we daadwerkelijk gaan bombarderen'—dan heb je dat niveau van menselijk toezicht dat we proberen te eisen", zegt Asaro. "Aan de andere kant word je nog steeds afhankelijk van het systeem voor besluitvorming." Dit roept zorgen op over het potentieel van systemen om quasi-autonoom te worden, zelfs met een mens in de lus. De uitdaging voor Anthropic ligt in het waarborgen dat zijn rode lijnen duidelijk en afdwingbaar blijven naarmate zijn technologie wordt geïntegreerd in complexe, risicovolle militaire omgevingen waar snelheid en precisie van het grootste belang zijn, en de grenzen tussen inlichtingenanalyse en targeting voortdurend evolueren.

Trefwoorden: # Anthropic # Claude # AI # Pentagon # autonome agenten # AI-veiligheid # militaire AI # AI-ethiek # Palantir # AI-regulering # AI-beleid