De Europese Unie heeft een reeks richtlijnen gepubliceerd over hoe bedrijven en overheden ethische toepassingen van kunstmatige intelligentie moeten ontwikkelen.
Deze regels uit Brussel zijn niet zoals die van Isaac Asimov in zijn boek "Three Laws of Robotics." Ze bieden geen oplossing voor de onduidelijke en diffuse problemen die de samenleving kunnen treffen als Kunstmatige Intelligentie
geïntegreerd gaat worden in sectoren als gezondheidszorg, onderwijs en consumententechnologie. Brussel hoopt op dit vlak een leidende rol in de wereld te kunnen vervullen - een wensdroom die gedoemd is te mislukken.
De Europese Commissie zal deze zomer
een proefproject
starten om
ethische richtlijnen te testen die het heeft ontwikkeld voor het
gebruik van kunstmatige intelligentie - en nee, we bedoelen hiermee
niet dat EU-politici een IQ-upgrade krijgen om ethisch te handelen (wat
overigens best wel een goed idee zou zijn).
Bedrijven, overheidsinstellingen en andere organisaties kunnen nu
toetreden tot de
Europese KI-alliantie
(de
kunstmatige intelligentie alliantie, niet te verwarren met een andere
KI), die de leden officieel zal informeren wanneer de pilot start.
Maar het plan heeft verschillende zwakke punten. Gaat het Brussel wel
ècht om ethiek? De zeven opgestelde richtlijnen komen bij ons nogal
utopisch over, zeker als we kijken waar ze vandaan komen. We bedoelen
dat de Europese Unie nu niet bepaald uitblinkt wat betreft
onpartijdigheid en fundamentele rechten (punt 1), betrouwbaarheid (2),
privacy en discriminatie (3), transparantie (4), eerlijkheid (5),
welzijn - en wie beoordeelt wat positief is? (6), en het waarborgen
van zaken (7). Trouwens, waarom zouden we KI-robots nodig hebben in
een restaurant of een volledig geautomatiseerde Bol.com-winkel?
"De ethische dimensie van KI is geen overbodige luxe of optie", zei
Andrus Ansip, vicevoorzitter van de Digitale Eengemaakte Markt, in een
verklaring. "Onze samenleving
kan alleen op basis van vertrouwen ten volle profiteren van
technologie. Iedereen heeft baat bij ethische KI en dat kan een
concurrentievoordeel voor Europa opleveren: Europa wordt leider op het
gebied van mensgerichte KI waarop men kan vertrouwen."
De EU en vertrouwen..... een contradictio in terminis. Als dat maar
goed gaat.
Terwijl de VS een meer vrije marktbenadering hebben, aangedreven door
bedrijfsreuzen als
Google (dat haar eerste plan
na ruim een week
al in de
kliko gooide) en Amazon, en China voor een gecentraliseerde aanpak
heeft gekozen, probeert Brussel officieel een andere weg in te slaan
richting het ontwikkelen van KI, door de nadruk te leggen op de rol
van ethiek.
Afgelopen zomer heeft de commissie een groep "onafhankelijke"
deskundigen aangesteld om te helpen bij het ontwikkelen van een reeks
ethische richtlijnen. Die groep heeft zeven algemene richtlijnen
opgesteld die onlangs officieel zijn gepresenteerd en zullen worden
beoordeeld op een in het leven geroepen forum. We noemen ze even in
onze eigen bewoordingen:
1. Menselijke tussenkomst en toezicht: KI-systemen moeten onpartijdige
maatschappijen mogelijk maken, door menselijk ingrijpen en
fundamentele rechten te ondersteunen en de menselijke autonomie niet
te verminderen, beperken of misleiden.
2. Robuustheid en veiligheid: betrouwbare KI vereist dat algoritmen
veilig, betrouwbaar en robuust genoeg zijn om met fouten of
inconsistenties in alle levensfasen van KI-systemen om te gaan.
3. Privacy en gegevensbeheer: burgers moeten volledige controle hebben
over hun eigen gegevens, terwijl gegevens over hen niet zullen worden
gebruikt om deze te schaden of te discrimineren.
4. Transparantie: de traceerbaarheid van KI-systemen moet worden
gewaarborgd.
5. Diversiteit, non-discriminatie en eerlijkheid: KI-systemen moeten
rekening houden met het hele scala aan menselijke moglijkheden,
vaardigheden en vereisten, en zorgen voor toegankelijkheid.
6. Maatschappelijk en ecologisch welzijn: KI-systemen moeten worden
gebruikt om positieve sociale verandering te bevorderen en
duurzaamheid en ecologische verantwoordelijkheid te vergroten.
7. Verantwoording: er moeten mechanismen worden ingesteld om de
verantwoordelijkheid en verantwoording voor KI-systemen en hun
resultaten te waarborgen.
Om te beginnen is het onduidelijk of het ècht om ethiek gaat - of
alleen om acceptatie. Er zijn nogal wat bedenkingen over kunstmatige
intelligentie.
Aan de andere kant zijn de richtlijnen tot nu toe vrijblijvend. Ze
klinken goed - zo moeten de capaciteiten en doelen van KI transparant
worden gemaakt voor de betrokkenen en moeten beslissingen die door KI
worden genomen zo veel mogelijk worden uitgelegd. Maar regelgeving is
niet gepland - daar zal Brussel ongetwijfeld een eigen draai aan geven.
En het klinkt allemaal wel leuk, maar waar we ons zorgen over maken is
de resolutie van het Europees nepparlement over de "Civil Law Rules of Robotics",
en haar aanbeveling aan de Europese Commissie in paragraaf 59 f):
Op de lange termijn een specifieke rechtspersoonlijkheid
creëren voor robots, zodat in elk geval de meest
geavanceerde autonome robots de status kunnen krijgen van elektronisch
persoon die verantwoordelijk is voor het vergoeden van veroorzaakte
schade, en eventueel uitgaan van elektronische persoonlijkheid als
robots autonome beslissingen treffen of anderszins onafhankelijk
reageren met derden.
Het creëren van een juridische status van een "elektronische persoon"
voor "autonome", "onvoorspelbare" en "zelflerende" robots wordt
gerechtvaardigd door de onjuiste bevestiging dat aansprakelijkheid
voor schade onmogelijk te bewijzen is. Vanuit een technisch
perspectief biedt deze resolutie veel vooroordelen op basis van een
overwaardering van de feitelijke mogelijkheden van zelfs de meest
geavanceerde robots, een oppervlakkig begrip van onvoorspelbaarheid en
zelflerend vermogen en, een robotperceptie vervormd door
science-fiction en een paar recente sensationele persberichten. Het
bevestigt ons idee dat de parlementariërs van de EU meer lezen in
comic-books dan in wetenschappelijke literatuur.
Dat blijkt temeer omdat een juridische status voor een robot niet kan
niet worden afgeleid van het model van natuurlijke personen, omdat de
robot dan óók mensenrechten zou hebben, zoals bijvoorbeeld het recht
op waardigheid, het recht op zijn integriteit, het recht op
vergoedingen of het recht op burgerschap, dus direct confronteren met
de mensenrechten. Dit zou in tegenspraak zijn met het Handvest van de
Grondrechten van de Europese Unie en het Verdrag tot bescherming van
de Rechten van de Mens en de fundamentele vrijheden.
Volgens de EU-commissie zal in eerste instantie een proeffase worden
gestart waarin de industrie, onderzoeksinstituten en autoriteiten
ethische KI-beoordelingslijsten zullen testen die bij de richtsnoeren
zijn gevoegd. Op basis van de feedback wil Brussel beslissen over
verdere stappen in 2020. U ziet al: het individu is in deze plannen al
helemaal weggecijferd.
Het wordt nog interessant om te zien wie verantwoordelijk zal worden
gehouden voor Kunstmatige Intelligentie in de EU. Tot dusverre is het
een obscuur netwerk van onderzoekers, lobbyisten en gebruikers. Deze
zijn niet gebaseerd op ethische richtlijnen, maar op
onderzoeksstrategieën en commerciële aspecten.
Vergeet niet dat KI twee kanten heeft: het is zowel fundamenteel
onderzoek - als een gigantische, wereldwijde competitie voor de beste
geesten en de meest lucratieve producten. Van een "Europese"', vooral
ethische KI is nog weinig te zien. Eerder een inhaalrace.... de EU
heeft herhaaldelijk gezegd dat zij een leider wil zijn in ethische KI,
maar deze rol wordt onder omstandigheden gedeeltelijk door de EU
opgedrongen. Het vervelende is: de EU kan op dit vlak niet concurreren
met Amerika en China - 's werelds leiders in Kunstmatige Intelligentie
- als het gaat om investeringen en baanbrekend onderzoek. Daarom is
gekozen voor ethiek als beste keuze om de toekomst van de technologie
vorm te geven.
We zijn sceptisch over de aanpak die wordt gevolgd: het idee dat door
het creëren van een gouden standaard voor ethische Kunstmatige
Intelligentie, die de plaats van de EU in de wereldwijde ontwikkeling
van KI moet bevestigen, is wel erg kort door de bocht. Om een leider
te zijn in ethische KI moet je éérst leiden in Kunstmatige
Intelligentie zelf.