In de Verenigde Staten groeit het aantal wetsvoorstellen rondom kunstmatige intelligentie razendsnel. Volgens een recente telling zijn er in de eerste weken van 2025 al 781 voorstellen ingediend, waarmee de recordstand van 743 uit heel 2024 ruimschoots is ingehaald.
Deze toename laat zien dat individuele staten steeds vaker zelf spelregels opstellen, terwijl een overkoepelend federale lijn ontbreekt. Critici waarschuwen dat deze versnippering kan leiden tot verwarring en hoge kosten voor bedrijven. De voorstanders noemen het juist broodnodige marktordening. De vraag is of de federale overheid snel genoeg met duidelijke richtlijnen komt of dat staten elkaar de wet blijven voorschrijven.
Staten versus federale overheid
Staten als Maryland, Texas en Massachusetts nemen het voortouw met voorstellen die variëren van verplichte transparantie over AI-gebruik tot strengere eisen voor bedrijven die AI inzetten bij belangrijke beslissingen, zoals kredietverstrekking en verzekeringsclaims. Deze daadkracht aan de basis komt echter niet uit de lucht vallen: veel beleidsmakers vinden dat Washington tekortschiet in het bieden van duidelijke en uniforme regels, vooral nu Europa al ver is met de uitwerking van brede AI-wetgeving.
Daarnaast is er de toenemende onrust over de impact van zogeheten risicovolle AI, bijvoorbeeld bij medische beoordelingen of strafrechtelijke procedures. Zonder eensgezinde nationale kaders ontstaan in de ene staat strenge sancties voor ondeugdelijk algoritmegebruik, terwijl in een naburige staat mildere normen gelden. Dit kan leiden tot een lappendeken van regels die bedrijven verplichten om zich overal verschillend aan te passen, wat innovaties juist kan afremmen. Tegelijkertijd benadrukken organisaties die zich inzetten voor privacy en ‘eerlijke AI-toepassingen’ dat deze wetgevende golf een signaal is dat er serieus wordt gekeken naar de gevolgen en gevaren van de technologie.
Een kwestie van hoog risico
Een van de grootste splijtzwammen is de definitie van ‘hoogrisico AI’. Maryland’s wetsvoorstel H.B. 1331 beperkt nadrukkelijk het gebruik van AI in situaties met grote maatschappelijke gevolgen, terwijl Texas met zijn Responsible AI Governance Act een bredere set regels voor bijna elke AI-toepassing voorstelt. De vraag is of deze uiteenlopende benaderingen helpen of juist verwarrend werken. Ondertussen geven cijfers aan dat men in 2023 nog maar 200 AI-gerelateerde wetten behandelde, wat aangeeft hoe snel de wetgevende machine is gaan draaien. Dit verschil voedt de discussie over hoe AI het best gereguleerd kan worden zonder innovatie in de kiem te smoren.
Conclusie
De explosie aan AI-wetgeving in de Amerikaanse staten onderstreept de zoektocht naar een balans tussen stimulering van technologische vooruitgang en bescherming van burgers en bedrijven. Terwijl de EU werkt aan een overkoepelende AI-Act, lijkt de federale overheid in de VS vooralsnog niet klaar om één eenduidig kader te bieden.
De vraag blijft of de groeiende stapel wetsvoorstellen uiteindelijk zal leiden tot een duidelijke nationale strategie, of dat staten individueel de koers blijven bepalen. De uitkomst daarvan komt niet alleen neer op politieke wilskracht, maar ook op de urgentie die men voelt rondom de risico’s en kansen van slimme algoritmes.
Feedback of een fout gevonden?
We doen ons best om accurate en actuele informatie te leveren. Zie je een fout of heb je een aanvulling? Laat het ons weten. We waarderen je input!