De Partij voor de Dieren wil kunstmatige intelligentie (AI) onder publieke en democratische controle brengen, met nadruk op ecologische grenzen, mensenrechten en sociale rechtvaardigheid. Ze erkennen de existentiële risico’s van AI, pleiten voor streng toezicht, transparantie en ethische toetsing, en willen commerciële inzet van AI beperken tot duurzame en sociaal rechtvaardige toepassingen. AI mag volgens de PvdD geen menselijke interactie vervangen in essentiële sectoren zoals zorg en onderwijs.
De PvdD vindt dat AI nu te veel wordt gestuurd door de belangen van grote techbedrijven, wat risico’s voor mens, dier en natuur oplevert. Ze willen AI snel onder publieke en democratische controle brengen, met nadruk op ecologische grenzen, mensenrechten, dierenwelzijn en sociale rechtvaardigheid.
“De Partij voor de Dieren wil dat AI snel onder publieke en democratische controle komt, met nadrukkelijke aandacht voor ecologische grenzen, mensenrechten, dierenwelzijn, mededogen en sociale rechtvaardigheid.”
De partij erkent de systemische en existentiële risico’s van AI en wil structureel investeren in AI-veiligheidsonderzoek. Ze pleiten voor internationale samenwerking en toezicht.
“Nederland erkent publiekelijk de systemische en existentiële risico’s van AI en investeert structureel in AI-veiligheidsonderzoek. Daarnaast worden we aanjager van een daadkrachtige uitvoering van de Europese AI act, en pleiten we voor een internationaal AI-veiligheidsverdrag en AI-toezichtsautoriteit.”
De PvdD wil verplichte transparantie over de onzekerheid van AI-antwoorden, energie- en waterverbruik van AI-systemen, en eist ethische toetsing en anti-discriminatie bij AI die invloed heeft op mensenlevens.
“Daarom moet het voor gebruikers altijd duidelijk zijn dat AI-antwoorden onjuist kunnen zijn. Transparantie over onzekerheid is essentieel om misleiding en maatschappelijke schade te voorkomen.”
“Transparantie over energie- en waterverbruik van AI-systemen is verplicht.”
“Alle AI-systemen die invloed hebben op mensenlevens, inclusief systemen die worden ingezet ten behoeve van de veiligheid, worden aan de voorkant ontworpen en later getoetst op beheersbaarheid, ethiek, lichamelijke integriteit en privacy. Deze systemen moeten aantoonbaar anti-discriminatoir zijn.”
AI mag volgens de PvdD alleen commercieel worden ingezet als het verenigbaar is met duurzame en sociaal rechtvaardige principes. AI mag geen menselijke interactie vervangen in sectoren waar dat essentieel is, zoals zorg, onderwijs en cultuur.
“AI mag uitsluitend commercieel worden ingezet wanneer de toepassing verenigbaar is met duurzame en sociaal rechtvaardige principes. Toepassingen die bijdragen aan ongelijkheid, overconsumptie en gedragsmanipulatie vallen daar niet onder en krijgen in Nederland geen ruimte.”
“AI mag geen vervanging zijn voor essentiële menselijke interactie in sectoren waar menselijke interactie belangrijk is, zoals binnen de zorg, onderwijs en cultuur. Technologie moet daar ondersteunend zijn – niet het menselijke contact verdringen.”
Volt pleit voor streng toezicht op het gebruik van AI, met nadruk op transparantie, mensenrechten en non-discriminatie. Ze willen dat algoritmes openbaar en toetsbaar zijn, bescherming van makers bij GenAI, en duidelijke regels voor het gebruik van AI door burgers en overheid. Hun beleid richt zich op ethisch gebruik, bescherming van rechten en het voorkomen van misbruik.
Volt wil dat alle algoritmen, inclusief AI, transparant, herleidbaar en vrij van discriminatie zijn, vooral bij gebruik door de overheid. Dit moet misbruik en ongelijke behandeling voorkomen en het vertrouwen van burgers in AI-systemen vergroten.
“Algoritmen, inclusief daarop gebaseerde kunstmatige intelligentie (AI), mogen niet discrimineren en moeten transparant en herleidbaar zijn. Daarom worden alle algoritmes openbaar gemaakt in het algoritmeregister en vooraf getoetst op mensenrechten en non-discriminatie, zeker bij gebruik in handhaving en toezicht.”
Volt wil dat bedrijven die generatieve AI (GenAI) aanbieden transparant zijn over hun trainingsdata, licenties afsluiten met rechthebbenden, en dat door GenAI gemaakte content geen auteursrecht krijgt. Dit beschermt de rechten van makers en voorkomt misbruik van hun werk.
“GenAI-bedrijven worden verplicht volledige transparantie te bieden over de oorsprong van hun trainingsdata en een licentie af te sluiten bij de organisatie die de auteursrechten beheert.”
“GenAI moet een digitaal watermerk bevatten en de aanbieder draagt zelf zorg voor het up-to-date houden van de veiligheid en de effectiviteit. Content die met GenAI wordt gegenereerd krijgt geen auteursrecht. Alleen mensen kunnen auteursrecht krijgen.”
Volt wil dat burgers weten hoe AI wordt ingezet, welke data worden gebruikt en of content door AI is gegenereerd. Dit moet zorgen voor meer grip en vertrouwen in digitale diensten.
“Voor Nederlanders moet het duidelijk zijn hoe zij AI in kunnen zetten en hoe ze risico’s kunnen vermijden. In overeenkomst met de AVG moet het transparant zijn hoe persoonlijke data worden gebruikt en of de content die ze te zien krijgen gegenereerd is door AI.”
Volt steunt initiatieven die ondernemers helpen AI op een ethisch verantwoorde manier toe te passen, bijvoorbeeld via de AI-fabriek in Groningen. Dit moet innovatie stimuleren zonder ethische grenzen te overschrijden.
“Volt steunt de bouw van de AI-fabriek in Groningen. Deze fabriek moet actief ingezet worden om ondernemers te helpen AI op een ethisch verantwoorde en innovatieve manier in te zetten.”
Volt ziet AI als hulpmiddel voor werknemers en wil extra begeleiding bij omscholing in sectoren waar veel automatisering plaatsvindt, om negatieve gevolgen voor werkenden te beperken.
“AI is er om Nederlandse werknemers te steunen. We pleiten ervoor om sectoren, waar veel automatisering plaatsvindt, extra te begeleiden bij het omscholen van werknemers.”
GroenLinks-PvdA erkent zowel de kansen als de risico’s van kunstmatige intelligentie en pleit voor strengere regulering van AI-systemen, met bijzondere aandacht voor mensenrechten en transparantie. Ze willen riskante AI-toepassingen zoals realtime gezichtsherkenning verbieden, eisen duidelijke labeling van AI-gegenereerde content, en stellen paal en perk aan het gebruik van persoonlijke data voor AI-training. De partij zet in op Europese samenwerking en toezicht om burgers te beschermen tegen misbruik en discriminatie door AI.
GroenLinks-PvdA wil riskante AI-systemen, met name voor realtime gezichts- of emotieherkenning, verbieden vanwege de grote risico’s voor privacy en mensenrechten. Ze zien deze technologieën als te gevaarlijk voor grootschalige inzet en willen burgers beschermen tegen massasurveillance.
“We verbieden riskante AI-systemen, zoals systemen voor realtime gezichts- of emotieherkenning.”
De partij vindt het essentieel dat AI-gegenereerde content altijd herkenbaar is, zodat burgers weten wanneer ze met door AI gemaakte informatie te maken hebben. Dit moet misleiding en manipulatie tegengaan.
“AI-gegenereerde content moet altijd als zodanig herkenbaar zijn, met duidelijke bronvermelding.”
GroenLinks-PvdA wil voorkomen dat mensen verplicht worden hun data af te staan voor het trainen van AI-modellen, om zo de controle over persoonlijke gegevens te waarborgen.
“Het verplicht afstaan van data voor het trainen van AI-modellen is niet toegestaan.”
De partij pleit voor samenwerking met Europese toezichthouders en regelgeving om toezicht op algoritmes en AI-systemen te versterken, en om export van risicovolle AI-software te beperken.
“We versterken de algoritmetoezichthouder en faciliteren samenwerking met andere Europese toezichthouders.”
“Met nieuwe Europese regelgeving voorkomen we de export van (AI)software in de surveillance- en veiligheidssector naar landen waar mensenrechten worden geschonden.”
De SGP pleit voor een terughoudend en ethisch verantwoord AI-beleid, waarbij menselijke waardigheid, morele verantwoordelijkheid en transparantie centraal staan. AI mag nooit de eindbeslisser zijn; er moeten strikte ethische kaders, menselijke controle en onafhankelijke evaluaties zijn om misbruik, vooringenomenheid en privacy-schendingen te voorkomen.
De SGP benadrukt dat AI altijd ondergeschikt moet zijn aan de mens, die als enige moreel verantwoordelijk kan worden gehouden. Ze waarschuwen voor een te controlerende overheid door AI en eisen dat de eindbeslissing altijd bij een mens ligt.
“Kunstmatige intelligentie (AI) dient zich te verhouden tot een onderliggend mensbeeld. De mens beschikt over een ziel, verstand en geest, maar AI niet. Bijbels gezien is de mens daarom de enige die moreel verantwoordelijk gehouden kan worden voor de functie die technologie vervult. Ook zijn we ervoor beducht dat AI leidt tot een te grote controlerende overheid.”
“De eindbeslissing moet altijd bij een mens liggen.”
De SGP wil dat AI-systemen voldoen aan ethische principes zoals proportionaliteit, subsidiariteit, dataminimalisatie en transparantie. Ze pleiten voor ethische richtlijnen, regelmatige controles en onafhankelijke evaluaties om eerlijkheid, veiligheid en betrouwbaarheid te waarborgen.
“De potentie van AI is groot. Het is van belang dat rekening gehouden wordt met ethische kaders en publieke waarden. AI-systemen moeten voldoen aan de principes van proportionaliteit, subsidiariteit, dataminimalisatie en transparantie.”
“Er moeten ethische richtlijnen worden geïntegreerd voor AI waaronder het voorkomen van vooringenomenheid en het beschermen van privacy. Regelmatige controles en onafhankelijke evaluaties zijn noodzakelijk om te garanderen dat AI-systemen op een eerlijke, veilige en betrouwbare manier functioneren.”
“Er dient altijd helder onderscheid te zijn tussen wat door een mens en wat door AI”
De SP is zeer kritisch over het gebruik van AI en algoritmes door de overheid, vooral waar het gaat om geautomatiseerde besluitvorming die impact heeft op mensenlevens. De partij wil menselijke controle verplicht stellen bij belangrijke besluiten, discriminatie door AI en risicoprofilering verbieden, en is fel tegen Europese plannen voor chatcontrole die privacy ondermijnen.
De SP vindt dat algoritmes en AI nooit zelfstandig mogen beslissen over zaken die grote gevolgen hebben voor mensen, zoals uitkeringen. Er moet altijd een mens betrokken zijn bij zulke besluiten, om willekeur en onrecht te voorkomen.
“Bij beslissingen die impact hebben op iemands leven, bijvoorbeeld bij de aanvraag voor een uitkering, blijven altijd mensen betrokken. We staan niet toe dat dergelijke beslissingen volledig geautomatiseerd worden via algoritmes.”
De partij wil dat risicoprofilering en AI niet mogen leiden tot discriminatie, en stelt dat het gebruik van algoritmes en geautomatiseerde besluitvorming door de overheid alleen mag als mensenrechten gewaarborgd zijn. Dit is een reactie op misstanden zoals bij de Belastingdienst.
“Stop digitale discriminatie vanuit de overheid. Risicoprofilering en AI mogen niet leiden tot discriminatie.”
“De inzet van algoritmen, Kunstmatige Intelligentie en geautomatiseerde besluitvorming om fraude op te sporen en besluiten te nemen is niet langer toegestaan wanneer mensenrechten niet gewaarborgd kunnen worden.”
De SP is uitgesproken tegen het EU-voorstel om chatberichten te controleren met AI, omdat dit de vertrouwelijkheid van communicatie en het recht op privacy ernstig aantast.
“We zijn tegen het plan van de EU om apps zoals WhatsApp of Signal verplicht berichten te laten controleren op ongewenste inhoud voordat ze worden verstuurd. Om dat te kunnen doen, moeten de apps eerst je berichten ontsleutelen, waardoor je privégesprekken niet meer écht privé zijn.”
“We zijn tegen het EU voornemen om chatcontrole verplicht te stellen. Dit zal de vertrouwelijkheid van communicatie ondermijnen.”
50PLUS ziet kunstmatige intelligentie (AI) vooral als een kans om het leven van ouderen te verbeteren, mits de overheid regie voert en digitale inclusie waarborgt. Ze willen dat AI en digitale technologie ouderen ondersteunen bij zelfstandig wonen en zorg, en pleiten voor betere coördinatie van AI-implementatie door de overheid. Gemeenten moeten wettelijk verantwoordelijk worden voor digitale zelfredzaamheid van ouderen.
50PLUS beschouwt AI als een hulpmiddel om het leven van ouderen makkelijker te maken, de zorg te verbeteren en zelfstandig wonen te ondersteunen. De partij benadrukt dat technologische vooruitgang ouderen niet mag uitsluiten, maar juist moet helpen bij hun dagelijkse leven en zorgbehoeften.
“Kunstmatige Intelligentie (AI) in dienst van ouderen. AI biedt enorme kansen voor ouderen. 50PLUS omarmt technologie die het leven makkelijker maakt, zorg verbetert en ouderen langer zelfstandig laat wonen.”
50PLUS vindt dat de overheid een actievere rol moet nemen in de coördinatie van digitale zaken en AI-implementatie. Dit is nodig om versnippering te voorkomen en ervoor te zorgen dat technologische ontwikkelingen daadwerkelijk bijdragen aan het welzijn van ouderen.
“Digitale zaken en AI-implementatie worden door de overheid beter gecoördineerd.”
Om te voorkomen dat ouderen buitengesloten raken door digitalisering en AI, wil 50PLUS dat gemeenten wettelijk verplicht worden om digitale inclusie en zelfredzaamheid van ouderen te waarborgen, vergelijkbaar met hun verantwoordelijkheid voor de WMO.
“Digitale inclusie: een gemeentelijke plicht. Gemeenten krijgen de wettelijke taak om digitale inclusie van ouderen te waarborgen. Net zoals gemeenten verantwoordelijk zijn voor de WMO, worden zij ook verantwoordelijk voor de digitale zelfredzaamheid van hun oudere inwoners.”
FVD ziet kunstmatige intelligentie (AI) vooral als een kans om de overheid efficiënter te maken en de bureaucratie te verminderen. Hun belangrijkste concrete voorstel is het breed inzetten van AI binnen de overheid om de productiviteit te verhogen en het aantal ambtenaren te verminderen. Daarnaast wil FVD innovatie stimuleren door onder andere blockchainbedrijven te ondersteunen en privacy te waarborgen.
FVD wil kunstmatige intelligentie inzetten om de overheid efficiënter te laten werken en het aantal ambtenaren terug te dringen. Dit wordt gepresenteerd als een manier om de productiviteit te verhogen en de overheid te moderniseren, met als doel minder bureaucratie en meer innovatie.
“We zetten kunstmatige intelligentie in binnen de overheid, zodat productiviteit stijgt en minder ambtenaren nodig zijn.”
Naast AI-beleid pleit FVD voor het stimuleren van innovatie (waaronder blockchain) en het beschermen van privacy, wat samenhangt met hun visie op digitale modernisering en technologische vooruitgang.
“We stimuleren innovatie door het ondersteunen van blockchainbedrijven, zodat innovatie wordt gestimuleerd en financiële vrijheid wordt vergroot.”
“We maken anonimiteit de norm. We verzetten ons tegen verplichte identiteitskoppeling aan accounts, zodat iedereen zonder angst kennis kan vergaren en meningen kan uiten.”
DENK pleit voor streng toezicht op het gebruik van kunstmatige intelligentie (AI) door de overheid en bedrijven, met bijzondere aandacht voor privacy en het voorkomen van discriminatie. De partij wil de Autoriteit Persoonsgegevens versterken op AI-gebied en het gebruik van afkomstgerelateerde gegevens in risicomodellen verbieden, om zo burgers beter te beschermen tegen misbruik en discriminatie door AI-systemen.
DENK wil dat de Autoriteit Persoonsgegevens (AP) meer middelen, bevoegdheden en expertise krijgt op het gebied van kunstmatige intelligentie. Dit is bedoeld om de privacy van burgers beter te beschermen en om te voorkomen dat AI-systemen leiden tot discriminatie of misbruik van persoonsgegevens.
“Sterker toezicht door de Autoriteit Persoonsgegevens. De AP krijgt extra middelen, bredere bevoegdheden en diepgaande expertise op het gebied van kunstmatige intelligentie.”
Om discriminatie door AI-systemen te voorkomen, wil DENK het gebruik van afkomstgerelateerde gegevens in risicomodellen door de overheid verbieden. Dit is een reactie op eerdere schandalen waarbij AI-systemen discriminerend uitpakten.
“Beroepsmatige discriminatie door ambtenaren moet zwaarder worden bestraft en risicomodellen met afkomstgerelateerde gegevens worden verboden.”
Het CDA noemt kunstmatige intelligentie (AI) slechts één keer in haar verkiezingsprogramma en beperkt zich tot het inzetten van AI bij de Belastingdienst om de uitvoering te verbeteren. Er is geen sprake van een breed of samenhangend AI-beleid, noch van ethische, maatschappelijke of economische kaders rondom AI. Het CDA ziet AI primair als een instrument om de efficiëntie van overheidsprocessen te verhogen.
Het CDA wil AI inzetten om de druk op de uitvoering bij de Belastingdienst te verlichten, met als doel een flexibelere en efficiëntere overheid. Er wordt geen aandacht besteed aan bredere AI-beleidsvraagstukken zoals ethiek, toezicht, transparantie of maatschappelijke impact; de focus ligt uitsluitend op praktische toepassing binnen de belastingaangifte.
“Door inzet van AI bij de aangiftebehandeling willen we de druk op de uitvoering verlichten.”
De ChristenUnie ziet kunstmatige intelligentie (AI) als een grote maatschappelijke uitdaging die duidelijke ethische kaders en regie van de overheid vereist. Hun belangrijkste voorstel is het beschermen van de rechtsstaat en burgers tegen de potentiële risico’s van AI, waarbij kansen voor maatschappelijke vooruitgang wel benut moeten worden. De partij benadrukt het belang van overheidsregie en ethische grenzen bij de inzet van AI.
De ChristenUnie vindt dat de opkomst van AI ontwrichtende gevolgen kan hebben voor de rechtsstaat en samenleving. Daarom pleiten zij voor strikte ethische kaders en actieve sturing door de overheid om risico’s te beperken en kansen verantwoord te benutten.
“De opkomst van kunstmatige intelligentie (AI) is een van de grootste maatschappelijke uitdagingen van onze tijd, met potentieel ontwrichtende gevolgen voor onder andere de rechtsstaat. Daarom vindt de ChristenUnie dat dit duidelijke ethische kaders en regie van de overheid vraagt. We moeten onze democratie, mensen en natuur beschermen tegen de potentiële risico’s en tegelijkertijd de kansen benutten voor maatschappelijke vooruitgang.”
D66 ziet kunstmatige intelligentie (AI) als een technologie met grote kansen, maar ook aanzienlijke risico’s voor werk, veiligheid en democratie. Ze willen voorkomen dat Nederland en Europa afhankelijk worden van ongewenste of vijandige machten op het gebied van AI, en pleiten daarom voor een krachtig Europees en Nederlands AI-beleid gericht op autonomie en veiligheid.
D66 maakt zich zorgen over de afhankelijkheid van Nederland en Europa van buitenlandse, mogelijk vijandige, machten op het gebied van AI. Ze willen dat Nederland en Europa meer regie nemen over de ontwikkeling en toepassing van AI, om zo de eigen veiligheid, democratie en economische positie te beschermen.
“De strijd om de dominantie op het gebied van AI in de wereld is in volle gang. Nederland en Europa dreigen nog afhankelijker te worden van vijandige of ongewenste machten. D66 wil dat we...”
NSC erkent dat kunstmatige intelligentie (AI) grote en onzekere effecten zal hebben op de arbeidsmarkt en wil bedrijven stimuleren om hun personeel bij te scholen om met deze veranderingen om te gaan. Verder bevat het programma geen concrete of onderscheidende beleidsvoorstellen specifiek gericht op AI-regulering, ethiek of innovatie, maar beperkt zich tot het arbeidsmarktperspectief.
NSC ziet de opkomst van AI vooral als een arbeidsmarktvraagstuk en wil bedrijven stimuleren hun personeel wendbaar te maken voor de impact van AI. Het beleid richt zich op het vergroten van de weerbaarheid van werknemers tegen zowel positieve als negatieve gevolgen van AI, zonder in te gaan op bredere AI-regulering of ethische kaders.
“We voorzien dat de doorontwikkeling van kunstmatige intelligentie (AI) grote en onzekere effecten zal hebben op de arbeidsmarkt, zowel in positieve als in negatieve zin. Bedrijven moeten gestimuleerd worden om hun personeel bij te scholen zodat zij wendbaar met deze veranderingen om kunnen gaan.”
De VVD noemt kunstmatige intelligentie (AI) slechts één keer in haar verkiezingsprogramma, en dan uitsluitend in de context van het verminderen van dierproeven door innovatieve onderzoeksmethoden. Er is geen sprake van een breed of samenhangend AI-beleid, noch van concrete voorstellen over AI-regulering, ethiek, arbeidsmarkt, veiligheid of digitalisering. Het programma bevat dus geen uitgewerkt standpunt over AI-beleid.
De VVD ziet AI als een innovatief hulpmiddel om het aantal dierproeven te verminderen, door alternatieve onderzoeksmethoden te stimuleren. Dit standpunt richt zich uitsluitend op de toepassing van AI in de wetenschap, niet op bredere maatschappelijke, economische of ethische aspecten van AI-beleid.
“Dankzij nieuwe onderzoeksmethoden en innovatieve alternatieven zoals de inzet van AI kunnen dierproeven vervangen, verminderd of verfijnd worden.”
Niet expliciet genoemd in verkiezingsprogramma
Niet expliciet genoemd in verkiezingsprogramma
Niet expliciet genoemd in verkiezingsprogramma
Niet expliciet genoemd in verkiezingsprogramma
Niet expliciet genoemd in verkiezingsprogramma