Verslag vergadering Commissie voor Economie, Werk, Sociale Economie, Wetenschap en Innovatie
Vraag om uitleg over beleidsvoorstellen rond artificiële intelligentie in Vlaanderen
Verslag
De heer Gryffroy heeft het woord.
Minister, op 31 januari van dit jaar vernamen we via de pers dat Ginni Rometty, de topvrouw van IBM, op het Wereld Economisch Forum van Davos pleitte voor meer regels inzake artificiële intelligentie (AI). Ze werd daarin gesteund door Googletopman Sundar Pichai, die eerder stelde dat AI te belangrijk is om niet te reguleren.
Concreet stelt IBM voor dat bedrijven onder andere de werking van hun AI-systeem grondig moeten documenteren, zodat achteraf kan worden uitgezocht waarom een systeem een bepaalde beslissing heeft genomen. Deze aanbevelingen komen er nadat gebleken is uit een studie door het Amerikaanse National Institute of Standards and Technology (NIST) dat bestaande gezichtsherkenningstechnologie die gebruikmaakt van AI, mensen discrimineert of kan discrimineren op basis van leeftijd, ras en etniciteit.
Met het Vlaams Beleidsplan Artificiële Intelligentie werd voorzien in de oprichting van het Kenniscentrum Data & Maatschappij, dat zal focussen op de ethische en juridische vragen rond AI. Het ontbreekt momenteel echter aan duidelijkheid over een ethisch kader voor artificiële intelligentie.
Daarom heb ik volgende vragen. Hoe beoordeelt u de studie door het NIST? Hoe staat u tegenover de uitspraken en maatregelen die IBM voorstelt? Welke plannen hebt u voor het ontwikkelen van een ethisch kader voor AI? Welke rol ziet u hierin weggelegd voor het Kenniscentrum Data & Maatschappij?
De heer Annouri heeft het woord.
Tijdens de plenaire vergadering van 29 januari kwam het gebruik van artificiële intelligentie door de Vlaamse Dienst voor Arbeidsbemiddeling en Beroepsopleiding (VDAB) ter sprake, en het is duidelijk dat iedereen daarom bekommerd is. In een reactie van VDAB stellen zij dat ze AI gebruiken met alle beste bedoelingen, dus enkel wanneer dit een voordeel oplevert voor alle burgers, en dat ze daar heel bewust en transparant mee omgaan. Maar wanneer je een algoritme baseert op data waar vooroordelen en discriminatie in zitten, gaat het die uiteraard overnemen en is het ontzettend moeilijk om die bias eruit te krijgen. Het probleem van die discriminerende software zit dus niet bij de intenties van de gebruiker, wel bij die onbedoelde neveneffecten, zoals onder andere Amazon heeft moeten vaststellen nadat ze hier al mee aan de slag waren gegaan. Om dat tegen te gaan, is dus vooral de expertise over de werking van algoritmes essentieel.
In uw reactie op 29 januari verwees u naar het feit dat intussen het Kenniscentrum Data & Maatschappij is opgericht. Dat is uiteraard een heel positieve zaak, maar dat kenniscentrum is een middel om beleid te voeren en uiteraard geen doel op zich. Die rol hebben zij alleszins meteen goed opgenomen, want in hun laatste nieuwsbrief verwijzen ze naar de paper ‘Robot Rules: Regulating Artificial Intelligence’, waarin Jacob Turner drie concrete beleidsvoorstellen uitwerkt voor een ethisch discours rond AI in Vlaanderen.
Ten eerste is het belangrijk om burgers en stakeholders te betrekken. Op die manier kunnen de burgers en de groepen die het meest beïnvloed worden door de technologie, deel uitmaken van het proces. Twee van de belangrijkste factoren voor het succes in dit verband zijn voorlichting en het onderwijs.
Ten tweede is dit het juiste moment om van AI-ingenieur een gereguleerd beroep te maken. Een gestandaardiseerde beroepskwalificatie zou de regel moeten worden bij het aanwerven van AI-technici.
Ten slotte zou Vlaanderen een pionier moeten zijn van een burgercode voor AI-ethiek, namelijk een licentie voor het veilig en ethisch gebruik van AI. Kortom, men zou zich moeten houden aan bepaalde minimumnormen wanneer men in staat is om enige invloed uit te oefenen op de keuzes die de AI maakt.
Daarom heb ik volgende concrete vragen aan u: wat is uw standpunt over de regulerende rol die Vlaanderen hierin kan opnemen? Wat is uw oordeel over de beleidsvoorstellen van Jacob Turner? Hebt u zelf nog andere voorstellen? Gaat u daarmee aan de slag? Op welke manier ziet u dat?
Minister Crevits heeft het woord.
Dank u wel voor de interessante vragen, die heel breed en fundamenteel zijn en ook meegenomen worden in de beleidsontwikkeling inzake artificiële intelligentie.
Collega Annouri, u verwijst naar een discussiepaper van het Kenniscentrum Data & Maatschappij. Zij hebben met de jurist en auteur Jacob Turner een buitenlandse deskundige aangezocht om de maatschappelijke discussie over AI aan te zwengelen. De uitdagende voorstellen van Turner zijn geen aanbevelingen van het kenniscentrum. Ze hebben gewoon Turner gevraagd.
Collega Gryffroy, u maakt melding van uitspraken van toplui van IBM en Google over het opleggen van verplichtingen ten aanzien van bedrijven die AI ontwikkelen.
Ik deel in elk geval het uitgangspunt dat wordt aangebracht. AI is te belangrijk in het maatschappelijke verkeer om het niet te reguleren. Er is dus zeker wat nodig.
Ik zal enkele reflecties geven, en een stuk mijn visie op de noodzaak van een Europees optreden.
In de eerste plaats is er de houding binnen de Vlaamse overheid. Het is in elk geval wenselijk voor entiteiten van Vlaanderen die artificiële intelligentie toepassen, om dat goed te kaderen in de vorm van charters of regelgeving. Dit zal ook een positieve impact hebben naar de ontwikkelaars. Het is uiteraard aan de bevoegde collega-ministers om voor hun eigen entiteiten zo nodig initiatieven te nemen.
Het Kenniscentrum Data & Maatschappij is opgericht om expertise aan te bieden om hen hierbij te ondersteunen. Wie vorige week in de plenaire was, is getuige geweest van de vraag die me werd gesteld over artificiële intelligentie. Daar heb ik gezegd, over VDAB en de toepassingen, dat het goed zou zijn dat VDAB naar het kenniscentrum gaat om het ethisch kader rond hun eigen toepassing te laten bekijken. Ondertussen gebeurt dat. Dat is goed.
We mogen toepassingen niet a priori verbieden en ik ben dat geenszins van plan. We dreigen zo geen gebruik te kunnen maken van de voordelen die AI op het vlak van efficiëntie en effectiviteit kan bieden. We moeten, denk ik, sowieso kiezen voor een aanpak die de mens centraal stelt.
Een leeraanpak inzake AI betekent dat de gevolgen van AI-toepassingen doorlopend worden geëvalueerd en waar nodig bijgestuurd. Een aanpak waarbij de mens centraal staat, wil zeggen dat het nog steeds een persoon is die de finale beslissing moet nemen, nooit de computer. Zie ook de vragen over VDAB.
Als we breder kijken dan de organisaties van de Vlaamse overheid, dan blijken de regulerende mogelijkheden van de Vlaamse Regering in het maatschappelijke verkeer eerder beperkt. Een groot deel van de aspecten die te maken hebben met AI, waaronder het gebruik van data of de effecten voor de openbare veiligheid, is een federale bevoegdheid. AI is bijvoorbeeld reeds onderhevig aan bestaande regelgeving inzake consumentenrecht, fundamentele rechten en wetgeving met betrekking tot productveiligheid en -aansprakelijkheid. Een stuk van de regelgeving zit dus federaal.
We leven ook in een geglobaliseerde wereld, en – zoals u weet – zetten China en de Verenigde Staten ook zeer hard in op AI. Ik pleit allerminst om hun filosofieën inzake deze technologie over te nemen, maar wel om hier een gezamenlijk Europees antwoord op te voorzien. Als elke regio of elke lidstaat in de EU zijn eigen regelgevend kader inzake AI opstelt, dreigen wij de ‘Digital Single Market’ volledig te desintegreren en wordt het praktisch onmogelijk om in Europa grensoverschrijdend te werken.
Europa zit echter niet stil. Vorig jaar heeft het met betrokkenheid van ethici en bedrijven de ‘Ethics Guidelines for Trustworthy AI’ opgesteld en dit jaar mogen we de start van de discussie over een regelgevend kader inzake AI verwachten. Ik vat een aantal richtlijnen voor u samen.
De commissie ziet verschillende opties om het wetgevend kader aan te passen. In de eerste plaats mikt men op aanpassingen aan de bestaande EU-wetgeving om bescherming te bieden tegen bijkomende risico’s, zoals cyberdreigingen, bedreigingen van de persoonlijke veiligheid en privacyinbreuken. Voor producten met een hoog risico zou men specifieke verplichtingen opleggen. Men denkt daarbij aan toepassingen in gezondheidszorg, openbare veiligheid of transport. De commissie ziet ook een nood aan een systeem van publiek toezicht. Dit zou zoveel mogelijk gebouwd worden op het netwerk van bestaande autoriteiten. Mijn administratie zal dit EU-dossier met behulp van het kenniscentrum van nabij opvolgen. Dat kenniscentrum is dus geen dag te vroeg opgericht.
De beleidsvoorstellen van Jacob Turner zijn zeker interessant, en we nemen ook initiatieven die in de richting gaan van de aanbevelingen.
Wat het betrekken van burgers betreft en de rol van het onderwijs, wil ik erop wijzen dat we in onze beleidsagenda AI een integrale aanpak voorstaan. Hierbij zullen we ook middelen uitrekken voor initiatieven in het onderwijs en het betrekken van burgers. We moeten komen tot een zeker niveau van AI-geletterdheid bij lerenden en werkenden.
Voor het vraagstuk van de kwalificaties van de AI-ingenieurs verwacht ik in de eerste plaats dat de universiteiten hun opleidingsprofielen permanent gaan bijsturen.
Ik heb al gezegd dat wij voor een leeraanpak rond AI zijn en ik heb daarrond al een aantal krijtlijnen gegeven.
De studie van het NIST in de VS toont aan dat bij het ontwikkelen van AI-toepassingen veel afhangt van de kwaliteit, de breedte en hoeveelheid van de data die men gebruikt. In het geval van deze studie is de link tussen de foto’s die gebruikt worden en de kwaliteit van de toepassing, zeer duidelijk. Het NIST toont daarbij aan dat AI-toepassingen raken aan ethische kwesties en toont nogmaals het belang van de balans en de grootte van de datasets aan. Uit dat onderzoek haal je dus de grote nood aan duidelijke argumenten voor kwaliteitsstandaarden aangaande het gebruik van datasets.
Wat IBM betreft, zullen AI-toepassingen die gebaseerd zijn op statistische verwerking, zoals gezichtsherkenning, altijd voor een stuk een ‘black box’ zijn, wat wil zeggen dat de exacte factor of factoren die een keuze van de toepassing bepalen, niet precies aan te wijzen zullen zijn. Er zijn tal van maatregelen die dit aspect van AI kunnen verzachten, waaronder het nauwkeurig documenteren van de ontwikkeling van de AI-toepassing. Zoals ik al zei, moeten we er ook voor zorgen dat mensen verantwoordelijk blijven voor de uiteindelijke beslissing.
Wij bespreken de mogelijkheid om het Kenniscentrum Data & Maatschappij een checklist te laten opstellen die onderzoekers en bedrijven in staat stelt ‘ethisch by design’ te zijn. Als dat het geval is, zullen elementen zoals een degelijke documentatie hier zeker een onderdeel van uitmaken.
Er is ook een EDUbox ontwikkeld rond artificiële intelligentie. Ik weet niet of u dat hebt, maar daarin worden onder andere allerlei zaken gezegd over gezichtsherkenning. Ik had ze graag aan alle aanwezige parlementsleden bezorgd, maar ik heb er niet genoeg bij me. Ik zal proberen ervoor te zorgen dat u er wel eentje krijgt. Het is samen met imec, Mediawijs en Technopolis ontwikkeld. Ik heb het mee als voorbeeld om te tonen dat we er wel mee bezig zijn om het ook bij het bredere publiek te krijgen. Ik zal proberen voor alle hier aanwezigen een exemplaar te versieren.
De heer Gryffroy heeft het woord.
Eigenlijk maakt u mij van langsom meer overtuigd van het confederalisme. Ik zal u uitleggen waarom. We komen hier in een spanningsveld dat we met technologie vooruit willen. We zien dat ook bij 5G. Artificiële intelligentie heeft gigantische mogelijkheden, maar er zijn inderdaad ook een aantal gevaren rond. Ik denk dat collega Annouri daar zeker verder op zal inspelen.
Om die gevaren op Vlaams niveau aan te pakken, hebben we niet de beslissingsbevoegdheid. Dan gaat het bijvoorbeeld over veiligheid, over een aantal ethische kwesties, over de privacy. U verwijst terecht naar Europa, dat bezig is een dossier op te maken. Maar ik vrees, en ik zou daar graag uw mening over weten, dat we wel willen vooruit gaan, op een bepaald ogenblik, als het gaat over die technologie, maar dat men op een hoger niveau nog niet klaar is met het aanpassen van een aantal regels over ethiek, privacy en veiligheid, waardoor wij geremd worden in de ontwikkeling van onze technologie.
De heer Annouri heeft het woord.
Hebt u dezelfde conclusies?
Ik denk dat die EDUbox over artificiële intelligentie meteen een mooi voorbeeld is van heel goed werk dat verzet wordt, maar het is ook wel opvallend dat geen enkel parlementslid daarvan op de hoogte was. Als er zulke dingen gebeuren, moeten we er ook vooral voor zorgen dat ze bekend raken bij het brede publiek en dat iedereen weet dat die dingen bestaan en er gebruik van kan maken. Dit is het eerste dat ik ervan hoor; ik weet niet of mijn collega’s op de hoogte waren. Dat is een van de grote uitdagingen.
U verwijst naar Europa. Dat is heel terecht. Europa komt deze maand met zijn plannen in verband met artificiële intelligentie, op 19 februari, als ik met niet vergis. U kreeg deze voormiddag nog het compliment als een trein door uw beleidsdomein heen te donderen, vandaar dat ik deze concrete vraag stel. Er zijn inderdaad collega’s op het federale niveau die daar mee bezig zijn en ook mensen op Europees niveau. In hoeverre hebt u daar zelf ook contacten mee gehad? In hoeverre hebt u contact met Europese instellingen om te zien wat Vlaanderen daarin kan doen, wat we kunnen bijdragen en hoe we daarin mee deel kunnen uitmaken van de oplossing? Want ik zie toch liever samenwerkingen dan dat we nadenken over dingen die ons in de weg staan.
Ik kom bij een tweede punt. Ik denk dat het klopt dat, als het gaat over veiligheid, er dingen moeten gebeuren op niveaus die ons overstijgen als Vlaanderen. Maar als het gaat over mensen vormen, mensen de tools geven of mensen opleiden om ermee om te gaan, maar ook om waakzaam te zijn en om potentieel te zien, hebben wij hier in Vlaanderen alle sleutels in handen. Ik ben blij dat u verwijst naar onderwijs, dat u zegt dat u kijkt naar de universiteiten om daar meer werk van te maken. Mijn concrete bijkomende vraag is op welke manier u samenwerkt met de andere bevoegdheidsdomeinen en -niveaus om ervoor te zorgen dat we in Vlaanderen zo goed mogelijk mee kunnen doen om deze problemen op te lossen.
Minister Crevits heeft het woord.
Misschien eerst iets rechtzetten: die EDUbox is iets wat verspreid wordt in de derde graad van het secundair onderwijs. Het heeft dus te maken met de opleiding, maar het is niet gratis. Het toont wel aan dat men bezig is met het vormen van jongeren in dat verband. Dat jullie het niet kennen, is misschien niet zo erg. Dat is niet negatief bedoeld. De focus ligt daar nu vooral op het onderwijs.
Collega Annouri, uiteraard houden wij de vinger aan de pols. In de vorige legislatuur is een geïntegreerde beleidsagenda artificiële intelligentie gemaakt. Gedurende vele jaren maken wij grote bedragen vrij om te investeren in onderzoek, in begeleiding van bedrijven enzovoort. Evident wordt de manier waarop Europa ermee omgaat en het kader dat men daar wil maken, een van de prioritaire zaken voor ons om te volgen.
Collega Gryffroy, los van de staatsstructuurvoordelen is dit een dossier dat bij uitstek bovenregionaal moet worden aangepakt. Als iedereen dat op zijn eigen manier en met zijn eigen standaard gaat doen, kom je wat mij betreft in een slechte situatie. Dat is ook de reden waarom we vanuit onze eigen ervaringen dat Europees dossier absoluut prioritair gaan volgen. Ik ben ook bijzonder blij dat we zelf ons eigen kenniscentrum hebben opgericht om die ethische component goed te bewaken en te begeleiden.
De heer Gryffroy heeft het woord.
Minister, ik ben er 100 procent mee akkoord dat je het niet te regionaal moet bekijken, maar zelfs bij voorkeur op Europees niveau. Ik wil gewoon meegeven dat we moeten opletten dat de technologievooruitgang die wij willen maken, straks niet vertraagd wordt door elementen die plots naar boven komen als privacy, een federale bevoegdheid, of cybersecurity, een federale bevoegdheid, enzovoort. Dat wil ik voorkomen. We zien dezelfde discussie ook omtrent 5G. Dat is krak dezelfde discussie. Men wil dat uitrollen, maar iemand zegt dan: ‘de privacy’. Daar zijn we niet voor bevoegd en dan staan we daar. Uiteraard moet het op Europees niveau gebeuren. Maar als we willen vooruitgaan, dan moeten we af en toe eens onze hakken in het zand zetten als er te veel wordt doorverwezen naar het federale niveau.
De heer Annouri heeft het woord.
Ik ben helemaal akkoord dat het bovenlokaal is. Het is zelfs geen kwestie van het Europese niveau, maar we moeten ook kijken naar de Verenigde Staten en andere grootmachten die dat al volop ontwikkelen, en dat nauwlettend in de gaten houden. Ik vrees dat het ethisch kompas van andere landen niet per se zo zuiver is als wat we in Europa of in de Verenigde Staten proberen te doen.
Voor mij staan mens en milieu centraal in wat ik op politiek vlak wil doen. Artificiële intelligentie en ontwikkelingen bieden ongelooflijk veel potentieel, maar die moeten ook ten dienste staan van de mens en het milieu en we mogen ze op geen enkele manier blootstellen aan vooroordelen of andere elementen die een negatieve impact hebben. Het zou zelfs perfect zijn als het gaat over algoritmes, dat elke burger continu weet aan welke algoritmes hij wordt blootgesteld en om welke redenen. Als we op onze smartphone een advertentie krijgen, kunnen we aanklikken waarom we deze advertentie te zien krijgen. Eigenlijk zou het niet meer dan logisch zijn dat we ook zouden weten waarom en aan welke algoritmes we continu worden blootgesteld op internet en op sociale media. Daarover zouden we moeten nadenken als we echt willen dat dergelijke zaken ten dienste staan van mens en milieu, en niet omgekeerd.
De vragen om uitleg zijn afgehandeld.