Inclusieve AI begint en eindigt met menselijke ethiek

Erdinç Saçan schreef voor het Fontys collega een boek over Inclusieve Artificial Intelligence. Vragen waar in het boek over wordt nagedacht zijn onderandere: “Kunnen we algoritmen inzetten voor het algemene belang, om zo discriminatie en ongelijkheid te bestrijden?” & “Algoritmes nemen steeds meer beslissingen voor ons. Hoe zorgen we ervoor dat dit op een inclusieve manier gebeurt?”

In dit boek komen ook de visies van 40 experts naar voren, waaronder die van mij. (pagina 46, 47, 48. Klik >hier< voor de .pdf versie van het boek Inclusieve Artificial Intelligence.

About: Erdinç Saçan werkt bij Fontys Hogeschool ICT als docent en coördinator. Ook is hij als Practor verbonden aan ROC Tilburg en is hij trainer bij Google Digitale Werkplaats en ICM.


——————————————————————————————————————-

Rick Bouter – Co-founder en voorzitter, Techthics Techthics is een christelijke platform welke zich bezing op de impact van technologie op ethiek en christelijke religie. In het dagelijks leven is Rick werkzaam bij Accenture.

Bewustwording, bezinning, actie

Als we ons niet bewust zijn van zaken als bias en inclusie kunnen we ons er ook niet goed op bezinnen. Bezinning is nodig om een gewenste situatie te definiëren en vervolgens acties te ondernemen die naar deze ‘future state’ wijzen. Maar, voordat we met elkaar de race naar inclusiviteit beginnen, is het wel goed om de observatie te maken. AI maakt niet per definitie eerlijk. Een goed voorbeeld hiervan is het onderzoek van VU-promovenda Elmira van den Broek. Zij onderzocht de eerlijkheid van het selecteren met algoritmen binnen een grote multinational. “Er kwam allerlei casuïstiek op tafel waarbij de matchscore die AI berekent niet strookt met het beeld dat managers hebben bij een kandidaat.” (Bron: ‘Selecteren met een algoritme: eerlijk of niet?’) Inclusieve Tech begint bij jezelf.

Verder denk ik dat het goed is om niet direct naar anderen te wijzen, maar eerst naar jezelf te kijken. De laatste tijd is er veel kritiek op overheidsinstanties. Maar niet alleen overheidsinstanties zijn debet aan het ondermaats toetsen van hun algoritmen en de uitkomsten/gevolgen hiervan. Om maar te zwijgen van demitigerende acties die zijn ingesteld om de ongewenste situatie te corrigeren of te voorkomen. Hoe gaat jouw bedrijf of organisatie met inclusieve tech om?

“AI maakt niet per definitie eerlijk.”

Zelfregulering vs. Eigen-verantwoordelijkheid
Zelfregulering door bedrijven blijkt helaas niet afdoende. Het is duidelijk dat zowel de overheid, de bedrijven als de gebruiker/burger verantwoordelijkheid moet nemen, zelf actie moet ondernemen. Eén van de manieren om burgers te mobiliseren is door de broncode in te stellen (open source), zodat er ook in dit kader proactieve participatie komt.

Een volgende observatie is dat het gebruik van algoritmen niet volledig aan een ‘vrije markt’ overgelaten kan worden. Onafhankelijke en juridische/ethische kaders, onder meer over de bescherming van privacy en het niet toepassen van technologie/data voor verkeerde doeleinden, zijn nodig. Toetsen kan alleen als er een consistent en eenduidig wettelijk kader voor is. Een eerste start in dit kader van discriminatie en bias (maar ook privacy) kan een classificatie framework zijn. Dit raamwerk zou antwoord moeten geven op een vraag, niet op de situatie specifieke context van een individu. Een voorbeeld is de aan/verkoop van alcohol. Niemand hoeft je naam, geboortedatum, etniciteit te weten. Een vinkje dat voor de verkopende partij aangeeft dat de aankopende partij gerechtigd is, is afdoende.

Data-eigenaarschap
Ook zaken als datakwaliteit en minimalisatie kunnen helpen. Dit zou via data-eigenaarschap kunnen worden geregeld. Hierbij krijgt en behoudt het individu het recht om voor de gestelde vraag de juiste data te delen.

“Er is een breder kader nodig om AI te duiden en op een ethisch/filosofisch niveau te bepalen welke rol het in ons leven moet spelen.”

Big Tech
Big Tech is de laatste tijd, terecht, in opspraak. Waar wijzelf continu het (data) product zijn van techgiganten, moeten we ons realiseren dat we hiermee het recht van privacy ook deels zelf hebben opgegeven. De laatste tijd zien we een kanteling waarbij mensen zich bewuster zijn van het recht van privacy en de persoonlijke data die ze delen. Een goede ontwikkeling; verandering begint bij jezelf.

Techno-kritischeid geboden
Vandaag de dag is inclusie een sterk buzzword. Echter is het volgens mij maar een klein stukje van de responsible technology puzzel. Er is een breder kader dan inclusie nodig om technologieën als AI te duiden en om op een ethisch/filosofisch niveau te bepalen welke rol technologie in ons leven moet spelen. Als dit ethisch/filosofisch kader staat, is het ook makkelijker hier proactief beleid op te maken, voor zowel overheid als bedrijfsleven.

“Als we technologie ten volle willen benutten hebben we mensen nodig die ethisch verantwoorde keuzes kunnen maken.”

Daarom roep ik mensen op om zich, ongeacht levensovertuiging, rang of ras, te bezinnen op een constructief-kritische houding ten opzichte van technologie. Vooral roep ik de overheids- en onderwijssector op om dit te integreren in het onderwijs. Een terecht grote zorg is het aantal digibeten in Nederland: naar verluidt zijn zo’n vier miljoen mensen in Nederland laag digitaal vaardig. (Bron:
Stichting lezen en schrijven’). Digitale gelijkheid start bij fysieke ongelijkheid. Vervolgens is en blijft technologie een middel. Wel een middel waar tegenwoordig niemand meer omheen kan. Als we technologie ten volle willen benutten (de positieve zaken omarmen en de negatieve kant voorkomen) hebben we mensen nodig die ethisch verantwoorde keuzes kunnen maken. Zo helpen we allemaal mee aan responsible tech. Ook jij.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.