AI-revolutie zet juristen, beveiligers, beleggers én Trump op scherp
In dit artikel:
Anthropic heeft in korte tijd met nieuwe AI-tools grote onrust veroorzaakt in juridische, beveiligings- en informatiedomeinen — en op de beurs — waarna de Amerikaanse president Donald Trump het bedrijf op de zwarte lijst zette.
Wat er gebeurde: Anthropic, bekend van de ChatGPT-concurrent Claude, introduceerde plug-ins die automatisch contracten kunnen beoordelen, geheimhoudingsclausules uitpluizen en kant-en-klare juridische antwoorden leveren. Later volgde een tool om software automatisch op beveiligingslekken te scannen. Zulke mogelijkheden maken dat bedrijven minder vaak externe advocaten, juridische adviseurs of beveiligingsspecialisten hoeven in te schakelen, wat voor gebruikers kosten bespaart maar tegelijk de toekomst van bestaande dienstverleners bedreigt. Na de aankondigingen kelderden aandelen van onder meer Wolters Kluwer en andere uitgevers en softwareleveranciers; in totaal verdampte in korte tijd zo’n 285 miljard dollar aan beurswaarde.
Waarom beleggers panikeren: de tools illustreren dat AI niet alleen routinetaken automatiseert, maar ook diensten kan raken die tot voor kort als hooggespecialiseerd en veilig tegen automatisering werden gezien. Een essay van James van Geelen (Citrini Research) schetste daarnaast een scenario van snelle AI-verbetering dat massale ontslagen en economische ontwrichting zou kunnen veroorzaken; het stuk en de voortdurende productlanceringen leidden tot extra nervositeit waardoor ook namen als IBM, American Express, Mastercard, Visa en Uber koersverlies leden.
Politieke reactie en gevolgen: hoewel het Pentagon vorig jaar nog miljoenencontracten sloot met Anthropic en andere AI-leveranciers, sprak Anthropic-topman Dario Amodei zich openlijk uit tegen gebruik van zijn systemen voor massasurveillance en volledig autonome wapens. Als reactie verbood president Trump eind februari het gebruik van Anthropic-producten door federale diensten en plaatste het bedrijf op de zwarte lijst. Kort daarna tekende concurrent OpenAI wel een deal met het leger.
Publieke en personele reactie: consumenten reageerden enthousiast; de Claude-app steeg naar de top van de Amerikaanse App Store-downloads. Medewerkers bij grote AI-bedrijven hebben via open brieven aangedrongen op vergelijkbare morele grenzen als die Anthropic stelde.
Nuance: Anthropic zegt AI juist te willen toepassen om democratieën te beschermen. Er zijn berichten dat Claude in opsporings- en militaire contexten is ingezet, maar het bedrijf keert zich specifiek tegen toepassingen voor massasurveillance en autonome dodelijke wapens. De zaak illustreert hoe snel technologische doorbraken economische, ethische en geopolitieke spanningen kunnen oproepen, en dat regelgeving, marktreacties en maatschappelijke waarden samen bepalen hoe ver AI-integratie straks reikt.