Brussel's zoektocht naar kunstmatige intelligentie

De Europese Unie heeft een reeks richtlijnen gepubliceerd over hoe bedrijven en overheden ethische toepassingen van kunstmatige intelligentie moeten ontwikkelen.
Deze regels uit Brussel zijn niet zoals die van Isaac Asimov in zijn boek "Three Laws of Robotics." Ze bieden geen oplossing voor de onduidelijke en diffuse problemen die de samenleving kunnen treffen als Kunstmatige Intelligentie
geïntegreerd gaat worden in sectoren als gezondheidszorg, onderwijs en consumententechnologie. Brussel hoopt op dit vlak een leidende rol in de wereld te kunnen vervullen - een wensdroom die gedoemd is te mislukken.

De Europese Commissie zal deze zomer een proefproject starten om ethische richtlijnen te testen die het heeft ontwikkeld voor het gebruik van kunstmatige intelligentie - en nee, we bedoelen hiermee niet dat EU-politici een IQ-upgrade krijgen om ethisch te handelen (wat overigens best wel een goed idee zou zijn).
Bedrijven, overheidsinstellingen en andere organisaties kunnen nu toetreden tot de Europese KI-alliantie (de kunstmatige intelligentie alliantie, niet te verwarren met een andere KI), die de leden officieel zal informeren wanneer de pilot start.

Maar het plan heeft verschillende zwakke punten. Gaat het Brussel wel ècht om ethiek? De zeven opgestelde richtlijnen komen bij ons nogal utopisch over, zeker als we kijken waar ze vandaan komen. We bedoelen dat de Europese Unie nu niet bepaald uitblinkt wat betreft onpartijdigheid en fundamentele rechten (punt 1), betrouwbaarheid (2), privacy en discriminatie (3), transparantie (4), eerlijkheid (5), welzijn - en wie beoordeelt wat positief is? (6), en het waarborgen van zaken (7). Trouwens, waarom zouden we KI-robots nodig hebben in een restaurant of een volledig geautomatiseerde Bol.com-winkel?

"De ethische dimensie van KI is geen overbodige luxe of optie", zei Andrus Ansip, vicevoorzitter van de Digitale Eengemaakte Markt, in een verklaring. "Onze samenleving kan alleen op basis van vertrouwen ten volle profiteren van technologie. Iedereen heeft baat bij ethische KI en dat kan een concurrentievoordeel voor Europa opleveren: Europa wordt leider op het gebied van mensgerichte KI waarop men kan vertrouwen."

De EU en vertrouwen..... een contradictio in terminis. Als dat maar goed gaat.

Terwijl de VS een meer vrije marktbenadering hebben, aangedreven door bedrijfsreuzen als Google (dat haar eerste plan na ruim een week al in de kliko gooide) en Amazon, en China voor een gecentraliseerde aanpak heeft gekozen, probeert Brussel officieel een andere weg in te slaan richting het ontwikkelen van KI, door de nadruk te leggen op de rol van ethiek.

Afgelopen zomer heeft de commissie een groep "onafhankelijke" deskundigen aangesteld om te helpen bij het ontwikkelen van een reeks ethische richtlijnen. Die groep heeft zeven algemene richtlijnen opgesteld die onlangs officieel zijn gepresenteerd en zullen worden beoordeeld op een in het leven geroepen forum. We noemen ze even in onze eigen bewoordingen:
1. Menselijke tussenkomst en toezicht: KI-systemen moeten onpartijdige maatschappijen mogelijk maken, door menselijk ingrijpen en fundamentele rechten te ondersteunen en de menselijke autonomie niet te verminderen, beperken of misleiden.
2. Robuustheid en veiligheid: betrouwbare KI vereist dat algoritmen veilig, betrouwbaar en robuust genoeg zijn om met fouten of inconsistenties in alle levensfasen van KI-systemen om te gaan.
3. Privacy en gegevensbeheer: burgers moeten volledige controle hebben over hun eigen gegevens, terwijl gegevens over hen niet zullen worden gebruikt om deze te schaden of te discrimineren.
4. Transparantie: de traceerbaarheid van KI-systemen moet worden gewaarborgd.
5. Diversiteit, non-discriminatie en eerlijkheid: KI-systemen moeten rekening houden met het hele scala aan menselijke moglijkheden, vaardigheden en vereisten, en zorgen voor toegankelijkheid.
6. Maatschappelijk en ecologisch welzijn: KI-systemen moeten worden gebruikt om positieve sociale verandering te bevorderen en duurzaamheid en ecologische verantwoordelijkheid te vergroten.
7. Verantwoording: er moeten mechanismen worden ingesteld om de verantwoordelijkheid en verantwoording voor KI-systemen en hun resultaten te waarborgen.

Om te beginnen is het onduidelijk of het ècht om ethiek gaat - of alleen om acceptatie. Er zijn nogal wat bedenkingen over kunstmatige intelligentie.

Aan de andere kant zijn de richtlijnen tot nu toe vrijblijvend. Ze klinken goed - zo moeten de capaciteiten en doelen van KI transparant worden gemaakt voor de betrokkenen en moeten beslissingen die door KI worden genomen zo veel mogelijk worden uitgelegd. Maar regelgeving is niet gepland - daar zal Brussel ongetwijfeld een eigen draai aan geven.

En het klinkt allemaal wel leuk, maar waar we ons zorgen over maken is de resolutie van het Europees nepparlement over de "Civil Law Rules of Robotics", en haar aanbeveling aan de Europese Commissie in paragraaf 59 f):

Op de lange termijn een specifieke rechtspersoonlijkheid creëren voor robots, zodat in elk geval de meest geavanceerde autonome robots de status kunnen krijgen van elektronisch persoon die verantwoordelijk is voor het vergoeden van veroorzaakte schade, en eventueel uitgaan van elektronische persoonlijkheid als robots autonome beslissingen treffen of anderszins onafhankelijk reageren met derden.

Het creëren van een juridische status van een "elektronische persoon" voor "autonome", "onvoorspelbare" en "zelflerende" robots wordt gerechtvaardigd door de onjuiste bevestiging dat aansprakelijkheid voor schade onmogelijk te bewijzen is. Vanuit een technisch perspectief biedt deze resolutie veel vooroordelen op basis van een overwaardering van de feitelijke mogelijkheden van zelfs de meest geavanceerde robots, een oppervlakkig begrip van onvoorspelbaarheid en zelflerend vermogen en, een robotperceptie vervormd door science-fiction en een paar recente sensationele persberichten. Het bevestigt ons idee dat de parlementariërs van de EU meer lezen in comic-books dan in wetenschappelijke literatuur.
Dat blijkt temeer omdat een juridische status voor een robot niet kan niet worden afgeleid van het model van natuurlijke personen, omdat de robot dan óók mensenrechten zou hebben, zoals bijvoorbeeld het recht op waardigheid, het recht op zijn integriteit, het recht op vergoedingen of het recht op burgerschap, dus direct confronteren met de mensenrechten. Dit zou in tegenspraak zijn met het Handvest van de Grondrechten van de Europese Unie en het Verdrag tot bescherming van de Rechten van de Mens en de fundamentele vrijheden.

Volgens de EU-commissie zal in eerste instantie een proeffase worden gestart waarin de industrie, onderzoeksinstituten en autoriteiten ethische KI-beoordelingslijsten zullen testen die bij de richtsnoeren zijn gevoegd. Op basis van de feedback wil Brussel beslissen over verdere stappen in 2020. U ziet al: het individu is in deze plannen al helemaal weggecijferd.

Het wordt nog interessant om te zien wie verantwoordelijk zal worden gehouden voor Kunstmatige Intelligentie in de EU. Tot dusverre is het een obscuur netwerk van onderzoekers, lobbyisten en gebruikers. Deze zijn niet gebaseerd op ethische richtlijnen, maar op onderzoeksstrategieën en commerciële aspecten.

Vergeet niet dat KI twee kanten heeft: het is zowel fundamenteel onderzoek - als een gigantische, wereldwijde competitie voor de beste geesten en de meest lucratieve producten. Van een "Europese"', vooral ethische KI is nog weinig te zien. Eerder een inhaalrace.... de EU heeft herhaaldelijk gezegd dat zij een leider wil zijn in ethische KI, maar deze rol wordt onder omstandigheden gedeeltelijk door de EU opgedrongen. Het vervelende is: de EU kan op dit vlak niet concurreren met Amerika en China - 's werelds leiders in Kunstmatige Intelligentie - als het gaat om investeringen en baanbrekend onderzoek. Daarom is gekozen voor ethiek als beste keuze om de toekomst van de technologie vorm te geven.

We zijn sceptisch over de aanpak die wordt gevolgd: het idee dat door het creëren van een gouden standaard voor ethische Kunstmatige Intelligentie, die de plaats van de EU in de wereldwijde ontwikkeling van KI moet bevestigen, is wel erg kort door de bocht. Om een leider te zijn in ethische KI moet je éérst leiden in Kunstmatige Intelligentie zelf.

Afdrukken Doorsturen