D66 benoemt in haar verkiezingsprogramma niet expliciet een verplicht algoritmeregister, maar zet sterk in op transparantie, democratische controle en regie over algoritmes en data, vooral bij de overheid en in de publieke sector. De partij wil dat mensen zelf de regie krijgen over hun data en dat er onafhankelijke controle komt op digitale systemen, met stevige handhaving van Europese regels en een focus op publieke waarden.
D66 wil dat burgers en de overheid meer grip krijgen op algoritmes en digitale infrastructuur, met nadruk op transparantie, democratische controle en het voorkomen van afhankelijkheid van grote techbedrijven. Hoewel een verplicht algoritmeregister niet letterlijk wordt genoemd, pleit D66 voor stevige handhaving, onafhankelijke controle en het inzichtelijk maken van gebruikte algoritmes, vooral in de publieke sector.
“D66 staat voor democratische grip en onafhankelijke controle op ons digitale bestaan. Digitale autonomie is daarvoor cruciaal.”
“We kiezen voor Europese oplossingen en stevige handhaving van Europese regels.”
“Digitale autonomie gaat verder dan wetten. D66 introduceert het Baas-over-eigen-bitsprincipe. Mensen krijgen zelf de regie over hun online leven. Dat geldt ook voor Nederland en de Europese Unie: we zorgen voor digitale onafhankelijkheid, van de cloud en infrastructuur tot apps en algoritmes.”
D66 wil wettelijke waarborgen tegen discriminerend gebruik van algoritmes door de overheid, zoals etnisch profileren, en pleit voor het inzichtelijk maken van gebruikte kenmerken bij risicoprofilering. Dit raakt aan de transparantie-eis die een algoritmeregister zou kunnen invullen.
“Overheidsorganisaties mogen geen etniciteit of nationaliteit meer gebruiken om mensen in te delen in risicogroepen. Ook kenmerken zoals de wijk waarin iemand woont, de taalvaardigheid van mensen en hun mentale welzijn worden niet meer gebruikt bij risicoprofilering.”
NSC wil dat het gebruik van algoritmen en modellen door de overheid transparanter en controleerbaarder wordt, om discriminatie en fouten te voorkomen. Ze pleiten voor een verplichte vastlegging van overheidsalgoritmen in een openbaar algoritmeregister, gekoppeld aan strenge wetenschappelijke standaarden en periodieke toetsing. Hiermee wil NSC burgers beter beschermen tegen onterechte profilering en ondoorzichtige besluitvorming.
NSC stelt dat alle door de overheid gebruikte algoritmen en modellen verplicht moeten worden geregistreerd in een openbaar algoritmeregister. Dit moet transparantie waarborgen en burgers beschermen tegen misbruik, discriminatie en fouten door algoritmische besluitvorming. De partij koppelt deze verplichting aan het invoeren van wetenschappelijke standaarden en periodieke toetsing van algoritmen.
Naast registratie wil NSC dat het gebruik van algoritmen door de overheid aan strenge, openbare en navolgbare wetenschappelijke standaarden moet voldoen. Periodieke kwalitatieve en kwantitatieve toetsing is vereist om discriminatie en onterechte profilering te voorkomen. Deze eisen zijn onlosmakelijk verbonden met de verplichting tot registratie.
“We willen daarom een verplichte wetenschappelijke standaard voor het gebruik van modellen en algoritmen door de overheid. Deze standaarden moeten openbaar en navolgbaar zijn. Algoritmische risicoprofilering moet periodiek onderworpen worden aan een kritische kwalitatieve en kwantitatieve toets om te voorkomen dat mensen gediscrimineerd worden of ten onrechte als fraudeur worden aangemerkt. Vastlegging in het algoritmeregister wordt verplicht.”
“We komen met een verplichte wetenschappelijke standaard voor het gebruik van modellen, rekeninstrumenten en algoritmen door de overheid. Deze standaard moet openbaar en navolgbaar zijn. Daarbij moet duidelijk zijn wat het toepassingsbereik is, of het instrument correct binnen dat bereik wordt gebruikt en of voldoende wordt gelet op de statistische en methodologische beperkingen. Algoritmische risicoprofilering moet periodiek onderworpen worden aan een kwalitatieve en kwantitatieve toets om te voorkomen dat mensen gediscrimineerd worden of ten onrechte als fraudeur worden aangemerkt. Vastlegging in het algoritmeregister wordt verplicht.”
Het VVD-verkiezingsprogramma bevat geen concrete voorstellen of standpunten over een verplicht algoritmeregister. De partij richt zich vooral op het verminderen van regeldruk, het schrappen van onnodige regels en het stimuleren van digitalisering en kunstmatige intelligentie binnen de overheid, zonder specifieke aandacht voor transparantie of registratie van algoritmes.
De VVD benoemt nergens expliciet een verplicht algoritmeregister en kiest juist voor het beperken van administratieve lasten en het schrappen van regels. Transparantie over algoritmes of verplichte registratie wordt niet genoemd; de nadruk ligt op deregulering en digitalisering.
“We lichten alle wet- en regelgeving door en behouden alleen de regels die evident noodzakelijk zijn.”
“We zetten het mes in de bureaucratie. Daartoe maken we een Deltaplan minder regels, rapportages en procedures.”
“We verplichten alle departementen om per kabinetsperiode aantoonbaar wet- en regelgeving te schrappen of te versimpelen.”
“De VVD wil een overheid die Estland naar de kroon steekt als het gaat om digitalisering. We zien kunstmatige intelligentie als kans en niet alleen als risico.”
De SGP benoemt het belang van transparantie en controleerbaarheid van algoritmes, maar pleit niet expliciet voor een verplicht algoritmeregister. Hun focus ligt op het herleidbaar maken van algoritmes en het waarborgen van menselijke controle en ethische kaders bij AI-systemen. Concrete voorstellen voor een verplicht algoritmeregister ontbreken; de partij richt zich vooral op transparantie, ethiek en technologische soevereiniteit.
De SGP vindt het essentieel dat algoritmes altijd te herleiden zijn, zodat beslissingen controleerbaar blijven. Dit is bedoeld om eerlijkheid, veiligheid en betrouwbaarheid van AI-systemen te waarborgen, maar een verplicht algoritmeregister wordt niet genoemd. De partij adresseert hiermee het probleem van ondoorzichtige besluitvorming door algoritmes.
“Algoritmes moeten altijd te herleiden zijn zodat beslissingen en de manier waarop deze tot stand gekomen zijn duidelijk en controleerbaar blijven.”
De SGP benadrukt dat AI-systemen aan ethische richtlijnen moeten voldoen en dat de eindbeslissing altijd bij een mens moet liggen. Dit standpunt is breder dan alleen een algoritmeregister en richt zich op het voorkomen van vooringenomenheid en het beschermen van privacy.
“AI-systemen moeten voldoen aan de principes van proportionaliteit, subsidiariteit, dataminimalisatie en transparantie. De eindbeslissing moet altijd bij een mens liggen.”
“Er moeten ethische richtlijnen worden geïntegreerd voor AI waaronder het voorkomen van vooringenomenheid en het beschermen van privacy.”
De SP is kritisch over het gebruik van algoritmes door de overheid en wil dat bij besluiten met impact op mensen altijd menselijke betrokkenheid blijft. Ze pleiten voor volledige transparantie over de gebruikte algoritmes en gegevens, maar noemen nergens expliciet een verplicht algoritmeregister; hun focus ligt op menselijke controle, transparantie en het voorkomen van digitale discriminatie.
De SP wil dat algoritmes nooit zelfstandig beslissingen nemen over mensen en dat altijd duidelijk is welke gegevens aan besluiten ten grondslag liggen. Dit moet misbruik, discriminatie en ondoorzichtige besluitvorming voorkomen.
“Algoritmes nemen geen beslissingen over ons. Bij beslissingen die impact hebben op iemands leven, bijvoorbeeld bij de aanvraag voor een uitkering, blijven altijd mensen betrokken. We staan niet toe dat dergelijke beslissingen volledig geautomatiseerd worden via algoritmes. Ook moet het altijd duidelijk zijn welke gegevens de basis waren voor het besluit.”
“Bij digitale hulpmiddelen als AI wordt altijd weergegeven welke gegevens de basis waren voor het besluit.”
De SP wil risicoprofilering en AI-gebruik door de overheid aan banden leggen om discriminatie te voorkomen. Ze eisen dat de inzet van algoritmen niet langer is toegestaan als burgerrechten niet gewaarborgd zijn.
“Stop digitale discriminatie vanuit de overheid. Risicoprofilering en AI mogen niet leiden tot discriminatie. Verschillende overheidsorganisaties, zoals de politie en belastingdienst, maken gebruik van profileringsalgoritmes om fraude of verdacht gedrag te voorspellen. Maar profileringsalgoritmen bevatten te vaak vooroordelen van hun makers of zijn getraind met beperkte datasets. De inzet van algoritmen, Kunstmatige Intelligentie en geautomatiseerde besluitvorming om fraude op te sporen en besluiten te nemen is niet langer toegestaan wanneer mensen rechten niet gewaarborgd kunnen worden.”
Volt pleit voor een verplicht algoritmeregister waarin alle door de overheid gebruikte algoritmen transparant worden gemaakt en vooraf worden getoetst op mensenrechten en non-discriminatie. Zij willen dat iedereen inzage krijgt in deze algoritmen en dat publieke AI gratis beschikbaar wordt gesteld. Het register moet bijdragen aan een eerlijke, controleerbare en transparante digitale overheid.
Volt wil dat de overheid verplicht een algoritmeregister invoert waarin alle gebruikte algoritmen inzichtelijk zijn, met als doel transparantie, controleerbaarheid en bescherming van grondrechten. Dit moet discriminatie tegengaan en burgers de mogelijkheid geven te weten welke algoritmen hun leven beïnvloeden.
“Iedereen moet inzage kunnen hebben in de informatie en algoritmes die door de overheid gebruikt worden. Daarvoor is het van belang dat we zo snel mogelijk overschakelen naar open standaarden en een verplicht algoritmeregister invoeren.”
“Daarom worden alle algoritmes openbaar gemaakt in het algoritmeregister en vooraf getoetst op mensenrechten en non-discriminatie, zeker bij gebruik in handhaving en toezicht.”
Volt wil het bestaande algoritmeregister uitbreiden en voorzien van duidelijke kaders, zodat bedrijven weten wat er van hen verwacht wordt en burgers beter beschermd zijn. Dit moet bijdragen aan een verantwoorde inzet van AI en het ondersteunen van bedrijven in hun transitie.
“Daarom breiden we het algoritmeregister uit en leggen we duidelijke kaders vast. Binnen die kaders lichten we kansen en risico’s toe om bedrijven te ondersteunen bij hun transitie.”
Het CDA noemt in haar verkiezingsprogramma nergens expliciet een verplicht algoritmeregister. Het programma benadrukt vooral het belang van naleving van bestaande AI-wetgeving, digitale ethiek en transparantie, maar doet geen concreet voorstel voor een verplicht register waarin gebruikte algoritmes openbaar moeten worden gemaakt. Er zijn geen specifieke beleidsmaatregelen of standpunten over een verplicht algoritmeregister terug te vinden.
Het CDA benoemt het belang van toezicht op AI en transparantie, maar doet geen concreet voorstel voor een verplicht algoritmeregister. De partij richt zich op naleving van bestaande wetgeving en het bevorderen van digitale ethiek, zonder het register als instrument te noemen.
GroenLinks-PvdA wil dat overheidsorganisaties transparanter worden over het gebruik van algoritmen en pleit voor wettelijke verplichtingen rond transparantie en uitlegbaarheid bij geautomatiseerde besluitvorming. Ze stellen voor dat overheidsorganisaties verplicht een impactanalyse uitvoeren op rechtsgelijkheid en grondrechten bij nieuwe technologie, maar een expliciet "verplicht algoritmeregister" wordt niet genoemd. De kern van hun visie is het waarborgen van transparantie, uitlegbaarheid en het voorkomen van discriminatie door algoritmen bij de overheid.
GroenLinks-PvdA wil dat transparantie en uitlegbaarheid bij iedere vorm van geautomatiseerde beoordeling wettelijk verplicht worden gesteld, zodat burgers inzicht krijgen in de werking van algoritmen die hen raken. Dit moet misstanden zoals discriminatie en schending van grondrechten voorkomen. Hoewel een expliciet algoritmeregister niet wordt genoemd, impliceert deze verplichting een vergelijkbare mate van openheid.
“Transparantie en uitlegbaarheid worden wettelijk verplicht bij iedere vorm van geautomatiseerde beoordeling.”
De partij stelt voor dat overheidsorganisaties verplicht worden om voorafgaand aan de inzet van nieuwe technologie of data een impactanalyse uit te voeren op rechtsgelijkheid en grondrechten. Dit is bedoeld om de risico’s van algoritmen voor burgers te beperken en misbruik te voorkomen.
“Overheidsorganisaties worden verplicht tot een impactanalyse op rechtsgelijkheid en grondrechten bij inzet van nieuwe technologie of data.”
De Partij voor de Dieren (PvdD) pleit voor meer transparantie en controle op het gebruik van algoritmes, met name door bedrijven en de overheid. Zij willen bedrijven verplichten openheid te geven over de werking van hun algoritmes, maar een expliciet voorstel voor een verplicht algoritmeregister wordt niet genoemd. De kern van hun visie is dat burgers zeggenschap en inzicht moeten krijgen in hoe algoritmes hun leven beïnvloeden, ter bescherming van privacy en tegen discriminatie.
De PvdD wil dat bedrijven meer openheid geven over de werking van hun algoritmes, zodat burgers beter beschermd zijn tegen misbruik, discriminatie en privacy-schendingen. Dit voorstel adresseert het gebrek aan inzicht in hoe data en algoritmes worden ingezet, maar noemt geen verplicht algoritmeregister als concrete maatregel.
“Bedrijven worden gedwongen meer transparantie te geven over hun opslag en gebruik van data en de werking van algoritmes.”
De partij pleit voor strengere en openbare controle op het gebruik van algoritmes door veiligheidsdiensten, met nadruk op privacy en het voorkomen van etnisch profileren. Dit standpunt richt zich op transparantie en verantwoording, maar spreekt niet expliciet over een verplicht algoritmeregister.
“Er komt een sterkere en openbare controle op het functioneren van de veiligheidsdiensten. Daarnaast moet duidelijk worden hoe de privacy van mensen gewaarborgd is in de algoritmes die de diensten gebruiken. Ook moet worden aangetoond dat de inzet van deze algoritmes niet leidt tot etnisch profileren.”
De ChristenUnie wil het algoritmeregister uitbreiden en verplicht stellen, zodat transparant wordt hoe algoritmes door de overheid worden ingezet. Hiermee beoogt de partij meer grip en controle op het gebruik van algoritmes, met het oog op privacy, transparantie en het voorkomen van ongewenste beïnvloeding door technologie.
De ChristenUnie vindt dat de overheid transparant moet zijn over het gebruik van algoritmes, vooral vanwege de risico’s voor privacy en de invloed van technologie op de samenleving. Door het algoritmeregister verplicht te maken, wil de partij burgers inzicht geven in welke algoritmes worden gebruikt en hoe deze beslissingen beïnvloeden.
“Het algoritmeregister wordt uitgebreid en verplicht gesteld, zodat transparant is hoe algoritmes worden ingezet.”
DENK pleit voor een verplicht algoritmeregister voor zowel overheden als bedrijven, om transparantie en bescherming van digitale mensenrechten te waarborgen. Zij willen dat het gebruik van algoritmen inzichtelijk en controleerbaar wordt, zodat discriminatie en machtsmisbruik door technologie kunnen worden voorkomen. Dit register maakt deel uit van bredere voorstellen rondom een algoritmewet en versterkt toezicht.
DENK wil dat alle algoritmen die door overheden en bedrijven worden ingezet, verplicht worden geregistreerd in een openbaar algoritmeregister. Dit moet zorgen voor transparantie, controleerbaarheid en bescherming tegen discriminerende of onrechtmatige algoritmen. Het voorstel is onderdeel van een bredere inzet op digitale mensenrechten en het voorkomen van machtsmisbruik door technologie.
“Er komt een verplicht algoritmeregister, dat geldt voor zowel overheden als bedrijven die algoritmen inzetten.”
Niet expliciet genoemd in verkiezingsprogramma
Niet expliciet genoemd in verkiezingsprogramma
Niet expliciet genoemd in verkiezingsprogramma
Niet expliciet genoemd in verkiezingsprogramma
Niet expliciet genoemd in verkiezingsprogramma
Niet expliciet genoemd in verkiezingsprogramma
Niet expliciet genoemd in verkiezingsprogramma