20 jan 2021

Tussenkomst Hoorzitting Artificiële Intelligentie

Op 20 januari vond er in de Commissie Economie een hoorzitting plaats met verschillende academici over artificiële intelligentie. Soetkin sprak in haar tussenkomst over vier aspecten rond het thema: discriminatie en bias, ecologie, werkgelegenheid en privacy. Hieronder kun je haar tussenkomst, met de vragen die ze aan de sprekers stelde, lezen.  

 

De technologieën van artificiële intelligentie ontwikkelen zich op hoge snelheid. Ze hebben de potentie om onze levens ingrijpend te veranderen op gebieden als gezondheidszorg, landbouw, industrie en de strijd tegen klimaatverandering. Tegelijkertijd zijn er ook uitdagingen en aandachtspunten verbonden aan de uitrol van AI: denk aan gegevensbescherming, mogelijk misbruik, transparantie van besluitvorming, discriminatie en ecologische impact. We moeten ervoor zorgen dat AI betrouwbaar is, en fundamentele rechten als menselijke gelijkwaardigheid en bescherming van het privéleven niet uit het oog verliest. Het is daarom belangrijk om AI en de bijbehorende technologieën goed te omkaderen zodat we ze op een veilige en duurzame manier kunnen inzetten voor de sociale en ecologische transitie.

Ik zou graag wat dieper ingaan op een aantal specifieke uitdagingen.

Op Europees niveau wordt er al voor gewaarschuwd in het actieplan tegen racisme van de Europese Commissie: “The use of algorithms can perpetuate or even stimulate racial bias if data to train algorithms does not reflect the diversity of EU society”. Met andere woorden, als we algoritmes niet op de juiste manier trainen, zullen alledaagse discriminatie en racisme van de 'echte wereld' worden gekopieerd naar de artificiële intelligentie systemen. 

Dit heeft verstrekkende gevolgen, bedenkende dat deze technologieën worden gebruikt voor het opsporen van criminelen, bij rekruteringsprocessen, voor het verstrekken van leningen, enzovoort. We moeten absoluut voorkomen dat we etnisch profileren en andere vormen van discriminatie inbouwen in AI systemen.

Discriminerende algoritmes zijn geen abstract probleem, maar een reële mogelijkheid: een studie van MIT uit 2018 toonde aan dat AI systemen die verkocht worden door Microsoft, Amazon en IBM een sterke bias vertonen wat betreft gender en huidskleur. De drie gezichtsherkenningssystemen herkenden substantieel vaker het juiste geslacht als het om mannen ging. Het foutenpercentage bij mannen met een lichte huid was slechts 1%. Bij vrouwen met een donkere huidskleur liep het foutenpercentage op tot 35%! Ook iconische vrouwen als Oprah Winfrey, Michelle Obama en Serena Williams werden niet juist herkend. 

Een probleem dat hier mogelijk achter zit, is dat algoritmes vooral worden getraind met beelden van witte mannen en worden gecontroleerd door witte mannen. Slechts 2% van de werknemers in technische posities bij Facebook en Google heeft een donkere huidskleur (2018). En bij acht grote technologiebedrijven was slechts een vijfde van het technische personeel vrouw.

Een manier om meer ethische en inclusieve AI systemen te creëren, zou dus kunnen zijn om alle bevolkingsgroepen actief te betrekken bij het ontwikkelen en besturen van AI. Dit kan gaan over opleidingen en training, maar ook het proactief rekruteren bij technologiebedrijven en onderzoeksteams. 

  • Wat zijn volgens u maatregelen die genomen kunnen worden om discriminatie en bias door algoritmes te voorkomen? Dhr. Heymans had het al over de toolkits en hun beperkingen. Welke rol kunnen beleidsmakers spelen?

 

Artificiële intelligentie kan ons helpen om de klimaatverandering beter en effectiever te bestrijden met bijvoorbeeld nauwkeurige voorspellingen en modellen, monitoring van broeikasgasuitstoot en berekenen van maximale energie-efficiëntie. Maar er is ook een duidelijk negatieve impact van AI op het klimaat en het leefmilieu, door de hoge energieconsumptie.

Het opslaan, verwerken, analyseren en rondsturen van grote hoeveelheden data door de technologieën die we gebruiken kost erg veel energie. Denk bijvoorbeeld aan de koeling van datacenters: er zijn voorspellingen dat datacenters tegen 2025 maar liefst 10% van ons totale elektriciteitsverbruik zullen uitmaken. 

Uit MIT onderzoek bleek bovendien dat het trainen van een 'standaard' algoritme dezelfde koolstofvoetafdruk heeft als een vlucht van de ene naar de andere kant van de Verenigde Staten. Voor een meer geavanceerd algoritme is de CO2-impact zelfs vijf keer zo groot als de volledige levensloop van een Amerikaanse auto, inclusief de productie. 

  • Hoe kijkt u tegen dit aspect aan en wat kan er gedaan worden om de negatieve ecologische impact van AI in te perken? 

 

Artificiële intelligentie heeft ook een impact op de arbeidsmarkt. Sommige jobs zullen zich verplaatsen naar andere regio's in de wereld, bepaalde jobs zullen misschien zelfs helemaal verdwijnen op termijn omdat ze vervangen kunnen worden door technologie of robots. Routinetaken worden geautomatiseerd, en automatisering kan kansen ­creëren voor productievere en creatievere banen. De OESO waarschuwde in 2017 echter ook dat door automatisering steeds meer mensen uit de middenklasse moeten overschakelen naar laaggeschoolde jobs, de lonen aan de onderkant van onze arbeidsmarkt laag blijven en de loonkloof met de tobjobs steeds groter wordt. 

Het lijkt daarom belangrijk om in te zetten op het ontwikkelen van vaardigheden die mee zijn met de veranderende arbeidsmarkt en klaar zijn voor de toenemende invloed van AI. Opleidings- en onderzoekscentra spelen hier een belangrijke rol in. Een sterke samenwerking met de sociale partners is nodig om te zorgen dat werkgevers én werknemers betrokken worden bij de uitrol en het gebruik van AI op het werk. Ook moeten we zorgen dat KMOs ook toegang hebben tot AI, niet enkel de grote bedrijven.

  • Welke maatregelen kunnen er volgens u op het niveau van het Gewest genomen worden om onze arbeidsmarkt klaar te stomen voor verder doorgedreven AI? 
  • Hoe kunnen KMOs gesteund worden om AI op een duurzame en veilige manier toe te passen?

 

Een laatste belangrijke uitdaging als het over AI gaat, is privacy. Met artificiële intelligentie kunnen snel grote hoeveelheden informatie worden verzameld en verwerkt, en profielen van mensen worden gemaakt op basis van hun (online) gedrag, die gebruikt worden voor bijvoorbeeld marketing op maat, tracking, gedragsbeïnvloeding en gepersonaliseerde adviezen of diagnoses.

Mensen hebben vaak niet door hoeveel en welke data er over hen verzameld, geanalyseerd en gedeeld wordt. Daarnaast is het soms onduidelijk voor gebruikers, regelgevers, toezichthouders en zelfs de ontwerpers van een AI systeem, hoe een algoritme tot een bepaalde beslissing komt en waarom. Transparantie over hoe een algoritme een beslissing maakt en welke data het daarvoor gebruikt, is erg belangrijk om de controle te behouden over nieuwe technologieën. Ook moet de hoeveelheid verzamelde data proportioneel zijn met wat het doel ervan is, en uiteraard de regels rond gegevensbescherming volgen.

  • wat is uw analyse van de bestaande wetten rond gegevensbescherming (bv GDPR), volstaan die om privacy van de nieuwe AI technologieën te garanderen?
  • hoe kan voor voldoende transparantie worden gezorgd over de verzameling en verwerking van data?  
Cookies op groen.be

Groen gebruikt functionele en analytische cookies die noodzakelijk zijn om de website goed te laten functioneren. Deze cookies verwerken geen persoonsgegevens en hier is geen toestemming voor nodig.

Als je daarvoor toestemming geeft, maken we ook gebruik van marketingcookies. Die stellen ons in staat om de website beter af te stemmen op jouw voorkeuren.

Je kunt je instellingen altijd weer wijzigen op de pagina over de cookies.

Voorkeuren aanpassen
Alle cookies accepteren