Hoe AI de overheid kan transformeren

Digitalisering binnen de overheid gaat al jaren gestaag vooruit, maar de inzet van kunstmatige intelligentie (AI) legt een fundamentele spanning bloot. MIT-onderzoek laat zien dat AI alleen waarde oplevert als organisaties zichzelf opnieuw uitvinden. Zonder die transformatie is AI bouwen op drijfzand: een reeks pilots, mooie demo’s en losse tools die uiteindelijk in de praktijk vastlopen. Volgens het onderzoek State of AI in Business 2025 levert 95 procent van de GenAI-pilots geen blijvend resultaat op, terwijl miljarden worden geïnvesteerd. Slechts 5 procent slaagt erin om AI daadwerkelijk in hun werkprocessen te verankeren.

Botsende werelden: stabiliteit versus wendbaarheid

Waarom zijn de MIT-bevindingen juist voor de overheid relevant? Dat heeft te maken met de organisatie en manier van werken van de overheid. Overheidsorganisaties zijn traditioneel ingericht op stabiliteit, risicobeheersing en hiërarchische verantwoording. Dat botst met wat implementatie van AI vereist, namelijk: korte leercycli, ruimte om te experimenteren en samenwerking over organisatiegrenzen heen. AI-toepassingen werken pas goed als systemen kunnen leren, geheugen opbouwen en context meenemen. Waar de klassieke projectaanpak uitgaat van vooraf vastgestelde specificaties, vraagt AI juist om iteratie, bijsturen en experimenteren.

Wat de overheid kan leren van Spotify en ING

Dat het anders kan bewijzen koplopers buiten de overheid. Spotify veranderde zijn hele werkstructuur om technologiegedreven innovatie mogelijk te maken. Hun organisatiemodel met squads, tribes en chapters zorgt ervoor dat kleine multidisciplinaire teams end-to-end verantwoordelijkheid hebben. Het resultaat: wekelijkse updates, snelle experimenten met AI-functies en directe feedback van gebruikers. Niet de technologie, maar de organisatievorm maakt dit tempo mogelijk. ING kopieerde dit model en transformeerde van traditionele bank naar digitale dienstverlener. Dankzij agile principes en multidisciplinaire teams werd ING wendbaarder, klantgerichter en innovatiever. Als een bank met een diep verankerd risicomodel deze stap kan maken, kan de overheid dat ook.

AI als katalysator voor een nieuwe manier van werken

Voor de overheid betekent dit concreet dat AI niet langer moet worden gezien als een ICT-project, maar als katalysator voor een nieuwe manier van werken. Dat begint bij cross-functionele teams waarin beleidsmakers, uitvoerders, ICT-specialisten en juristen samenwerken. Het vraagt om experimenteerruimte met budget en mandaat, en om nieuwe rollen zoals productowners dienstverlening en ethische AI-experts. Ook de verantwoording moet veranderen: niet alleen sturen op efficiency, maar ook op leervermogen en gebruikerstevredenheid.

Lessen uit het MIT-onderzoek

Het MIT-onderzoek biedt waardevolle lessen voor de overheid. Een belangrijke waarschuwing is om niet te blijven hangen in mooie pilots met generieke chatbots. Die werken prima in een demo, maar lopen vast in complexe werkprocessen zoals bij vergunningverlening of in de sociale zekerheid, waar context cruciaal is. Succesvolle organisaties investeren juist in opbouw van geheugen en lerend vermogen. Ook blijkt dat externe partnerships tweemaal zo succesvol zijn dan alles zelf ontwikkelen. Voor de overheid betekent dit dat samenwerking met gespecialiseerde leveranciers, mét kennis van publieke processen, essentieel is.

Daarnaast moet de overheid oog hebben voor onvermijdelijke ‘shadow AI’: ambtenaren die al persoonlijke AI-tools gebruiken. In plaats van dit te verbieden, kan de overheid beter veilige alternatieven aanbieden die aansluiten bij AVG- en beveiligingsrichtlijnen. Op die manier benut je de energie van onderop, zonder de risico’s uit het oog te verliezen.

Naar een mensgerichte overheid

Voor burgers opent deze transformatie de deur naar een overheid die niet langer procesgericht, maar mensgericht werkt. Een overheid die dienstverlening personaliseert, proactief meedenkt bij levensgebeurtenissen en transparant is over hoe beslissingen tot stand komen. Vertrouwen ontstaat pas als mensen ervaren dat AI hen ondersteunt, niet vervreemdt.

AI kan de overheid helpen sneller, persoonlijker en betrouwbaarder te worden. Maar dat lukt alleen als de organisatie zelf mee verandert. Zonder die transformatie blijft AI een marginaal experiment. Met die transformatie kan AI uitgroeien tot motor van een moderne, lerende en wendbare overheid.

Wikipedia en AI: De Les van de bovenbazen

In het stripverhaal ‘De bovenbazen’ van Marten Toonder is winst het hoogste doel. De natuur is daarin de vijand, want die werkt gratis. “Roei de natuur uit, want natuur is onze grootste vijand. Die vernieuwt zichzelf, voel je wel? En dat soort dingen meer…” Uiteindelijk wordt ingezien dat het vernietigen van de natuur ook het einde betekent van de winstmachine zelf. Deze les is actueler dan ooit nu AI-modellen gratis en massaal informatie gebruiken die door mensen is opgebouwd, zonder daar iets voor terug te geven.

AI vernietigt de bron

Wikipedia is een van de laatst overgebleven fijne plekken op internet, waar vrije kennisdeling zonder commercieel belang centraal staat. De encyclopedie wordt door vrijwilligers bijgehouden en verbetert zichzelf continu.

Maar net zoals de bovenbazen de natuur willen uitroeien, dreigt AI hetzelfde te doen met Wikipedia. Chatbots halen hun kennis grotendeels uit bronnen als Wikipedia, zonder dat Wikipedia daar iets voor terugkrijgt. Hierdoor dreigt de natuurlijke samenwerking tussen mensen wereldwijd te verdwijnen.

“Natuur? Bah, meneer! De natuur is de vijand van het kapitaal. De natuur werkt gratis! En gratis is een vloek! Een gruwel!”

Als AI Wikipedia overbodig maakt, droogt de bron op. Wikipedia heeft donateurs en actieve gebruikers nodig om te blijven bestaan. Als AI de rol van encyclopedie overneemt zonder iets terug te geven, zal het platform verzwakken en op den duur verdwijnen. Dit is hetzelfde principe als in ‘De bovenbazen’: als je de natuur uitroeit, verdwijnt ook de basis van je eigen bestaansrecht.

Hoe Wikipedia en AI naast elkaar kunnen bestaan

De les van ‘De bovenbazen’ is duidelijk: het vernietigen van de bron is uiteindelijk ook het vernietigen van jezelf. AI-bedrijven en Wikipedia zouden elkaar kunnen versterken in plaats van verdringen. Een mogelijkheid is dat AI-systemen Wikipedia ondersteunen, bijvoorbeeld door foutdetectie en suggesties voor verbeteringen, terwijl ze tegelijkertijd een vorm van compensatie bieden voor het gebruik van Wikipedia’s content. Dat kan door financiële bijdragen van AI-bedrijven, maar ook door integratie van Wikipedia-bronnen in AI-systemen, zodat gebruikers gestimuleerd worden om de originele encyclopedie te blijven raadplegen.

De toekomst vraagt om een samenwerking waarin AI Wikipedia versterkt in plaats van vervangt. Alleen dan blijft vrije kennis voor iedereen beschikbaar en voorkomen we dat de digitale wereld hetzelfde lot ondergaat als de natuur in ‘De bovenbazen’.

Bron: Marten Toonder, De bovenbazen (2012), uitgegeven door De Bezige Bij.

Breek hekken af, bouw digitale tafels

De uitspraak “When you have more than you need, build a longer table, not a higher fence” roept op tot openheid en inclusie. In plaats van mensen buiten te sluiten, zouden we moeten streven naar verbinding en samenwerking. Dit ideaal is niet alleen relevant in sociale en politieke discussies, maar ook in de digitale wereld. Toch lijkt de oorspronkelijke belofte van het internet – een open ruimte voor iedereen – steeds vaker te wijken voor economische machtsconcentratie en gesloten ecosystemen.

Van openheid naar controle

Het internet begon als een plek waar kennis vrij gedeeld kon worden en waar iedereen toegang had tot informatie en netwerken. Sociale media boden een platform voor activisme en maatschappelijke veranderingen, zoals te zien was tijdens de Arabische Lente, Black Lives Matter en #MeToo. Ook economische kansen groeiden: kleine bedrijven, freelancers en contentmakers konden wereldwijd publiek bereiken via platforms als YouTube, Instagram en TikTok.

Toch is deze openheid steeds meer onder druk komen te staan. Een handvol grote technologiebedrijven – Apple, Amazon, Google, Meta, X en TikTok – beheersen het digitale landschap. Zij verdienen miljarden door gebruikersdata te verzamelen en verhandelen, vaak zonder transparantie. Sociale media en online diensten lijken gratis, maar in werkelijkheid betalen gebruikers met hun data, aandacht en gedragingen. Algoritmes manipuleren gedrag, versterken polarisatie en verspreiden desinformatie, met negatieve gevolgen voor de samenleving en mentale gezondheid.

De digitale wereld als zero-sum game

Het ideaal van een open en verbonden internet is in veel opzichten vervangen door een zero-sum game: een paar grote bedrijven concentreren de macht, terwijl miljarden gebruikers product én consument tegelijk zijn geworden. Big Tech bepaalt de regels, en de rest van de wereld moet zich eraan aanpassen. Dit leidt tot afhankelijkheid en een verlies van digitale autonomie.

Maar het kan ook anders. In plaats van hogere hekken te bouwen, kunnen we juist langere tafels maken door het digitale speelveld eerlijker en toegankelijker te maken. Dit vraagt om bewuste keuzes op het gebied van regelgeving, technologie en gebruikersgedrag.

Regulering en digitale soevereiniteit

Om de balans te herstellen, moeten overheden Big Tech reguleren. Europa kan hierin een voortrekkersrol spelen door digitale soevereiniteit te versterken en afhankelijkheid van enkele grote Amerikaanse bedrijven te verminderen. Belangrijke maatregelen zijn:

  • Interoperabiliteit verplicht stellen bij sociale media, zodat gebruikers vrij kunnen overstappen zonder hun netwerk kwijt te raken.
  • Striktere privacywetten en transparantie-eisen, zodat gebruikers meer controle krijgen over hun data.
  • Beperking van gepersonaliseerde advertenties die gebaseerd zijn op extreme dataverzameling.
  • Ondersteuning van open-source AI en gedecentraliseerde platforms, zodat innovatie niet alleen in handen van Big Tech blijft.

Zelf bijdragen aan langere tafels

Gebruikers kunnen nu al kiezen voor alternatieven die meer openheid en controle bieden. Denk aan open-source AI-modellen in plaats van gesloten systemen zoals GPT-4 van OpenAI. Of aan gedecentraliseerde sociale netwerken zoals Mastodon en Bluesky, die transparanter en democratischer zijn dan commerciële platforms. Ook open cloud-initiatieven en federatieve netwerken bieden meer controle over data en opslag dan de gesloten ecosystemen van AWS, Google Cloud en Microsoft Azure.

De vraag blijft: gebruiken we technologie om meer mensen te betrekken en te verbinden (langere tafels), of om exclusiviteit en controle te vergroten (hogere hekken)? Veel Big Tech-bedrijven roepen op tot samenwerking en inclusie, maar hun beleid vertelt een ander verhaal. Daarom blijft de discussie over openheid en controle cruciaal in de digitale wereld. We staan op een kruispunt: kiezen we voor gesloten systemen met steeds hogere muren, of bouwen we samen aan een internet waarin iedereen een plek aan tafel heeft?

Kun je AI inzetten voor bestaanszekerheid?

De nieuwe driedelige dramaserie De Toeslagenaffaire legt de pijnlijke realiteit bloot van een schandaal dat tienduizenden gezinnen in chaos stortte. Het verhaal toont een schrijnende kloof tussen de technocratische systeemwereld van de Belastingdienst en de levens van gewone mensen, die steeds verder verstrikt raakten in ongrijpbare regels. Dit drama is niet alleen een herinnering aan wat er misging, maar ook een oproep tot verandering: technologie moet worden ingezet om mensen te helpen, niet om hen te beschadigen.

Wat ging er mis?

De toeslagenaffaire illustreert hoe technologie verkeerd kan worden ingezet. Een risicomodel, bedoeld om fraude te bestrijden, werd een instrument van discriminatie. Mensen met een migratieachtergrond en lage inkomens werden doelwit van een systeem dat bevooroordeeld was door foutieve aannames en selectiebias. Het resultaat? Gezinnen werden onterecht bestempeld als fraudeurs, met financiële wanhoop en diep persoonlijk leed tot gevolg.

Technologie zoals kunstmatige intelligentie (AI) en algoritmes kunnen krachtige tools zijn, maar ze zijn geen neutrale instrumenten. Ze dragen de waarden, aannames en beperkingen van hun makers met zich mee. En als die waarden niet expliciet gericht zijn op rechtvaardigheid en inclusiviteit, kunnen technologieën bestaande ongelijkheden versterken in plaats van verkleinen.

AI: een kracht voor rechtvaardigheid

AI kan echter meer zijn dan een controlemiddel. Het kan een bondgenoot worden in de strijd voor bestaanszekerheid en rechtvaardigheid, mits het op de juiste manier wordt ingezet. Hier zijn een paar manieren waarop AI een positieve rol kan spelen:

  1. Bias voorkomen
    Gevoelige gegevens zoals nationaliteit en inkomen kunnen geanonimiseerd worden om te voorkomen dat ze discriminatie veroorzaken. Bias-detectietools kunnen worden ingezet om ongelijkheden in modellen tijdig te signaleren en te corrigeren.
  2. Proactieve ondersteuning
    In plaats van wantrouwen te zaaien, kan AI worden gebruikt om kwetsbare gezinnen vroegtijdig te signaleren. Gemeenten zoals Nijmegen en Amsterdam gebruiken AI voor vroegsignalering van schulden. Ze signaleren betalingsachterstanden vroegtijdig en bieden hulp aan voordat problemen escaleren.
  3. Betrokkenheid en transparantie
    Burgers, experts en maatschappelijke organisaties kunnen worden betrokken bij het ontwerp van AI-systemen. Hierdoor worden technologieën ontwikkeld die beter aansluiten bij de behoeften van mensen. Bovendien moeten AI-systemen altijd uitlegbaar zijn, zodat elke beslissing begrijpelijk en herleidbaar is.
  4. Ruimte voor maatwerk
    Technologie mag nooit een vervanging zijn van de menselijke maat. Bij complexe situaties moet er altijd ruimte blijven voor maatwerk en empathie.

Een toekomst met compassievolle technologie

De overheid staat voor een belangrijke keuze: blijft technologie een middel om te controleren, of wordt het een hulpmiddel om te ondersteunen? De toeslagenaffaire laat zien hoe fout het kan gaan, maar biedt ook lessen voor een betere toekomst. Door AI te gebruiken met aandacht voor menselijke waarden, kan technologie een krachtig instrument worden voor rechtvaardigheid en bestaanszekerheid.

De menselijke maat: dat is de sleutel tot technologie die werkt voor iedereen.

Het herstel van vertrouwen in de overheid begint hier. Laten we technologie opnieuw vormgeven – niet om mensen achtervolgen, maar om hen vooruit te helpen. Want echte vooruitgang meet je niet in cijfers, maar in levens die erop vooruitgaan.

Verbieden technologische vooruitgang is geen optie

Staatssecretaris Alexandra van Huffelen wil rijksambtenaren voorlopig verbieden om AI-software zoals ChatGPT te gebruiken. Zij vindt de risico’s op het vlak van privacy en auteursrechten te hoog. Dat schrijft de Volkskrant op basis van een conceptvoorstel, dat de krant heeft ingezien. Het voorstel wordt binnenkort in de ministerraad besproken. Als die met het voorstel instemt, dan zal het verbod behalve voor overheidsdiensten ook voor hun leveranciers gaan gelden.

Het voornemen van de staatssecretaris van Digitale Zaken roept bij mij herinneringen op aan de ‘Donnerbrief’ uit 2011 over de toepassing van cloudcomputing binnen het Rijk.  In die Kamerbrief ontvouwt minister Donner zijn Cloud strategie voor de Nederlandse overheid. De Public Cloud wordt in de ban gedaan. ‘Ik moet vaststellen dat de argumenten tegen het toepassen van open cloud computing op dit moment globaal zwaarder wegen dan de voordelen. Deze argumenten hebben te maken met de onvolwassenheid van de markt en de eisen die worden gesteld aan de informatiebeveiliging.’ schrijft minister Donner. De brief vermeldt nog wel dat er ruimte ligt voor experimenten met cloud computing, zij het beperkt.

Terwijl organisaties wereldwijd de transitie maakten naar de publieke cloud, koos de Nederlandse overheid destijds voor een gesloten Rijkscloud in eigen beheer. Daarmee werden lagere beheerkosten en een groter gebruikersgemak beoogd. Het tegenovergestelde was het resultaat. De kosten liepen door investering in eigen infrastructuur en mensen fors op. De technologische achterstand ten opzichte van andere organisaties nam verder toe. In de praktijk bleek het verbod op gebruik van de publieke cloud ook moeilijk te handhaven. De voordeur was weliswaar gesloten, maar de achterdeur stond nog open voor ingebruikname van nieuwe SaaS-applicaties (waarvan een aantal onveilig). Vorig jaar is het Rijksbrede cloudbeleid uiteindelijk herzien en mogen overheidsorganisaties onder voorwaarden gebruik maken van publieke clouddiensten. Dit opent de weg voor versnelling van innovatie, die overheidsorganisaties kan ondersteunen bij het behalen van hun doelstellingen.

Het voorgenomen verbod op gebruik van AI-software betreft de gratis diensten. De staatssecretaris erkent dat generatieve AI ook kansen en mogelijkheden biedt. Voordat ze AI-toepassingen breed wil integreren binnen de Rijksoverheid, laat ze verschillende experimenten uitvoeren. Dat lijkt het standaard overheidsantwoord op technologische ontwikkelingen. Het klinkt weinig voortvarend. De mogelijkheden binnen de overheid liggen nu al voor het oprapen, bijvoorbeeld ondersteuning bij: het vertalen van overheidsjargon in gewone mensentaal (bijvoorbeeld voor publiekscommunicatie), het maken van een managementsamenvatting van lange teksten, of het opstellen en vertalen van brieven, e-mails etc.

Simpelweg verbieden van een razend populaire chatbot remt de innovatie en kan mogelijk averechts uitpakken. AI-tools zijn niet meer weg te denken uit de samenleving. De ontwikkeling van generatieve AI gaat razendsnel. Het gebruik van AI-tools laat zich niet afremmen en zal blijven toenemen. Oogluikend toestaan, zoals nu regelmatig het geval bij ingebruikname van SaaS-applicaties, vormt een bedrijfsrisico op het vlak van data, privacy en informatiebeveiliging. Dit stelt iedere overheidsorganisatie voor het dilemma: kiezen voor verbieden of verantwoord gebruik? Mijn advies is: benut de efficiencyvoordelen die AI-tools bieden, maar investeer in training en het opstellen (en handhaven) van spelregels.

Poëzie van brandend bos. Nu te zien!

Kunstenaar is Oscar Santillán maakt gebruik van data die satellieten verzamelen van bosbranden op aarde. Met een groep experts ontwikkelde hij een kunstwerk dat een brug slaat tussen wereldwijde klimaatproblemen en de exploderende potentie van nieuwe technologieën, met de blockchain als artistiek medium.

Satellieten registreren bosbranden op aarde. Op basis van real-time satellietdata schrijft een AI-systeem een gedicht over het brandende bos, dat in een digitale animatie wordt getoond op schermen in de binnentuin van een Haags overheidsgebouw. Elke animatie van een gedicht is uniek en onvervangbaar en fungeert als een overlijdensbericht opgeslagen als een NFT. De locatie en de datum van de brand zijn voor iedereen toegankelijk in de NFT-metadata via Ethereum blockchain.

In de afgelopen decennia zijn bosbranden wereldwijd aanzienlijk in omvang en intensiteit toegenomen. Ze vormen een ernstige bedreiging voor ecosystemen, biodiversiteit en menselijke gemeenschappen. Ze leiden ook tot bodemerosie, verslechtering van de waterkwaliteit, verhoging van de uitstoot van broeikasgassen, waaronder CO2, en dragen bij aan klimaatverandering. Herstel van ecosystemen na bosbranden kan jaren of zelfs decennia duren, en sommige schade is mogelijk onomkeerbaar.

Klimaatverandering speelt een cruciale rol bij het versterken van de omstandigheden die leiden tot grotere bosbranden. De opwarming van de aarde leidt tot langere en intensere hittegolven, waardoor de droogte in veel bosgebieden toeneemt. Bosbranden in Canada hebben dit jaar al meer dan tien miljoen hectare bos verwoest. Dat komt neer op een gebied dat 2,5 keer zo groot is als de oppervlakte van Nederland.  De website van weerradar-live toont de bosbranden en brandhaarden op een wereldkaart.

Data en technologie kunnen worden gebruikt om maatschappelijke problemen zoals klimaat en bosbranden te visualiseren en aan de orde te stellen. Dit kan helpen om mensen bewuster te maken van de klimaatproblemen en te motiveren tot actie. Cryptokunst is een nieuwe vorm van digitale kunst die kan worden gebruikt om maatschappelijke problemen te visualiseren en aan de orde te stellen door middel van NFT’s (non-fungible tokens). NFT’s zijn unieke digitale tokens die kunnen worden gebruikt om cryptokunst te verifiëren en te verhandelen. Dit maakt het mogelijk om cryptokunst te gebruiken om geld in te zamelen voor goede doelen. Bekende voorbeelden van cryptokunst voor goede doelen zijn Climate Pledge Collective en Save the Amazon die met een reeks NFT’s aandacht vragen voor klimaatverandering en ontbossing van het Amazonegebied en geld inzamelen voor organisaties die zich inzetten om die problemen op te lossen.

De tentoonstelling van Oscar Santillán duurt tot eind van dit jaar. Met dagelijks 1 tot 3 grote bosbranden verwacht hij ongeveer 500 NFT’s te produceren. Van de opbrengst wordt 15 procent gedoneerd aan goede doelen tegen klimaatverandering.

Binnen de lijntjes kleuren

DALL·E 2023-02-25 14.41.56 – kunstmatige intelligentie leert het landschap van Piet Mondriaan binnen de lijntjes te kleuren

Begin dit jaar werd ChatGPT gepresenteerd als een doorbraak van kunstmatige intelligentie, vergelijkbaar met het internet en de smartphone, die onze wereld voorgoed zou veranderen. Ontwikkelaar OpenAI laat zien wat je met rekenkracht en een grote hoeveelheid tekstdata kunt doen. Hun chatbot produceert na iedere vraag razendsnel coherente tekst en lijkt zorgvuldig getraind om gebruikers te behagen met politiek correcte antwoorden.

ChatGPT kan statistisch voorspellen welke woorden en zinnen logisch achter elkaar horen en verschaft daardoor het meest waarschijnlijke antwoord. Als ik vraag naar mijn levensloop, dan is het antwoord: “Jan Willem Boissevain (1923-1944) was een Nederlandse verzetsstrijder tijdens de Tweede Wereldoorlog. Op 1 oktober 1944 werd Boissevain samen met zeven andere verzetsstrijders gefusilleerd op de Waalsdorpervlakte.” Mijn naam is weliswaar uniek, maar wordt hier verward met die van Gideon Willem Boissevain. Dan nog, kloppen zijn geboorte- en overlijdensjaar niet. Informatie die toch makkelijk op internet te vinden is. Als ik een simpel Snip en Snap raadseltje voorleg “Het is de zoon van mijn vader, maar het is niet mijn broer.” dan krijg ik een fout antwoord: “Het is uw neef”. Als ik antwoord met de oplossing, dan word ik in het gelijk gesteld en beleefd gecomplimenteerd.

Erg betrouwbaar en intelligent is ChatGPT dus niet, maar het is wel opvallend goed opgevoed. OpenAI heeft maatregelen genomen om problemen met ongepaste antwoorden te beperken. Keniaanse microworkers worden ingezet om de teksten, die de chatbot gebruikt om de antwoorden te componeren, op te schonen. Een chatbot die racistische en seksistische taal uitslaat is namelijk de nachtmerrie van iedere chatdienstaanbieder. Zo moest Microsoft zeven jaar geleden hun Twitterbot Tay in allerijl offline halen nadat de bot, in minder dan 24 uur na introductie, racistische, genocidale en vrouwonvriendelijke berichten naar gebruikers begon te sturen. Microsoft heeft recent ook beperkingen moeten opleggen aan het gebruik van BingGPT, nadat deze nieuwe AI-gedreven chat- en zoekdienst door gebruikers was betrapt op fouten en ongepaste antwoorden.

We spreken van kunstmatige intelligentie wanneer een machine een voorspellende taak sneller, goedkoper en accurater kan uitvoeren dan waar een mens toe in staat is. Sneller en goedkoper zijn robots zeker, maar niet per definitie accurater. Dat ligt niet primair aan de robot, maar aan de data waarop die is getraind. Die data zijn niet altijd representatief en kunnen menselijke vooroordelen bevatten. Zo moest een internationaal e-commercebedrijf een zelfontwikkelde tool voor het beoordelen van sollicitaties schrappen, nadat gebleken was dat deze onder meer vooroordelen had tegen aanmeldingen van vrouwen. Dit werd veroorzaakt door de data waarmee de tool was getraind, waarbij de meeste sollicitaties afkomstig waren van mannen.

Vooroordelen komen ook voor in de tekstdata waarop ChatGPT is getraind, en kunnen daarom ook voorkomen in antwoorden die de chatbot geeft. Die vooroordelen in de data vormen een beperking bij toepassing van ChatGPT, maar bieden soms voordelen. Zo las ik in het fd over een opmerkelijke dienst op basis van ChatGPT van het Amerikaanse DoNotPay.  Dit bedrijf ontwikkelde een nieuwe app gebruikmakend van vooroordelen van klagende consumenten. De app kan onderhandelen met een chatbot van een klantenservice, zoals voor het verlagen van een factuur of het opzeggen van een abonnement.

De professionele toepasbaarheid van ChatGPT is vooralsnog beperkt. De betrouwbaarheid van de output is ook nog veel te zwak om gegenereerde teksten letterlijk over te kunnen nemen. Onderzoekers kwalificeren ChatGPT als een ‘stochastische digitale papegaai’, een tool die toeval genereert en niet kan redeneren. Voor het domme productiewerk hebben we er een schrijfhulprobot bij gekregen, maar we moeten zelf nog het intelligente werk blijven doen.

In gesprek met een robot

Ga je in gesprek met een chatbot van de klantenservice? Ja, zegt 64 procent van de ondervraagden in een enquête van iBestuur. Zij hebben vertrouwen in kunstmatige intelligentie, ook wel artificial intelligence (AI) genoemd, in de dienstverlening. Een minderheid wijst het contact met een robot af.

Tot voor kort was kunstmatige intelligentie voorbehouden aan de wetenschap of technologische toepassingen. Zo wist supercomputer Deep Blue in 1997 een schaakpartij te winnen van wereldkampioen Kasparov. De laatste jaren is AI bezig aan een wedergeboorte. De technologie is doorgedrongen in onze leefwereld en staat op het punt onze samenleving te veranderen. Organisaties gebruiken in toenemende mate AI om klantervaring te verbeteren. Zij doen dit in de vaste overtuiging dat dit zowel het belang van klanten als de eigen organisatie dient.

Pega deed internationaal onderzoek naar het oordeel van consumenten over kunstmatige intelligentie. De respondenten van het onderzoek zijn verdeeld over hun oordeel over kunstmatige intelligentie. Meer dan een derde zegt dat ze zich comfortabel voelen bij organisaties die AI gebruiken, terwijl iets minder dan een derde zegt dat dit niet het geval is. Dan is er nog een derde die zegt dat ze het gewoon nog niet weten. Sommige consumenten zijn positief en vinden AI veelbelovend. Anderen blijven vasthouden aan een voorkeur voor persoonlijk contact. Over de hele linie blijkt uit het onderzoek dat de meeste consumenten AI niet begrijpen en onwetend zijn hoe dit hun dagelijkse praktijk raakt.

Uit de enquête blijkt dat meer dan 70 procent van de consumenten angst voor kunstmatige intelligentie koesteren. Als we inzoomen op de weerstand tegen kunstmatige intelligentie dan blijkt dit voornamelijk te berusten op angst voor het onbekende. 33 procent is van mening dat een mens hun persoonlijke voorkeuren altijd beter herkent dan een robot. 24 procent vreest dat robots de mensheid kunnen bedreigen. Opmerkelijk is de grote meerderheid van 72 procent van respondenten die zegt te begrijpen wat AI is. Vervolgens kunnen zij slechts een beperkt aantal eigenschappen van AI, zoals spraakherkenning en lerend vermogen, noemen. Hoewel vrijwel alle consumenten dagelijks met AI worden geconfronteerd (bijvoorbeeld via Google zoekopdrachten of het gebruik van Apple’s assistent Siri)  zegt slechts 34 procent ooit via AI te hebben gecommuniceerd.

Over het algemeen ervaren klanten bij digitale dienstverlening op basis van AI weinig toegevoegde waarde. Zij herkennen een robot makkelijk op basis van de voorspelbare interacties. De meeste chatbots zijn vandaag de dag nog niet verfijnd genoeg om in te spelen op context, sentiment of emotie. Daar staat tegenover dat consumenten meer open zouden staan ​​voor AI als het in hun dagelijks leven zou helpen, zoals tijd of geld besparen. Er is voldoende potentieel voor AI om klantenervaring te verbeteren. Daarbij moet een grote kennisachterstand worden overbrugd. Klanten staan positiever tegenover AI in de dienstverlening naar mate zij beter begrijpen wat AI voor hen betekent en de voordelen ervaren.

De enquête onthult ook de sectoren waarin consumenten zich het prettigst voelen bij het gebruik van AI. Online verkoop scoort het hoogst. Klanten zijn gewend aan productaanbevelingen bij online shoppen. Zij zijn meestal tevreden over de aanbevelingen en storen zich niet aan de koopsuggesties die niet aansluiten bij hun wensen.  Toepassing van AI in de gezondheidszorg scoort ook hoog. Consumenten realiseren zich dat AI kan bijdragen aan snelle diagnoses, nauwkeurige behandelingen en goed geïnformeerde patiënten. Het minst vertrouwen hebben de respondenten in toepassing van AI door de overheid. Consumenten vertrouwen autodealers bij gebruik van AI zelfs meer dan de overheid.

Download hier gratis het rapport ‘What consumers really think about AI: A global study’

Robots nemen de wereld niet over

Vind je het verantwoord als Defensie wapens inzet die zonder menselijke tussenkomst hun doelen selecteren? Nee, zegt 87 procent van de ondervraagden in een enquête van iBestuur. Dat is een duidelijke afkeuring van de wapenwedloop die nu gaande is. De Verenigde Staten is namelijk al vergevorderd met het ontwikkelen van wapens die zonder menselijke tussenkomst kunnen opstijgen, landen, doelen selecteren én vernietigen. De Amerikaanse ‘vliegende vleugel’ X-47B moet over twee jaar al paraat zijn voor gevechtsmissies. Het scenario in onderstaande film zou werkelijkheid kunnen worden als we autonome wapens toelaten in onze samenleving.

De ontwikkeling van ‘killer robots’ opent een doos van Pandora. Ruim honderd bedrijven wereldwijd op het terrein van robotica en kunstmatige intelligentie maken zich grote zorgen over de mogelijk catastrofale gevolgen als de ontwikkeling van dodelijke, autonome wapens wordt toegestaan. In een open brief roepen zij regeringsleiders op een internationaal verdrag te steunen dat dodelijke autonome wapens beperkt. Meer dan 20.000 mensen ondersteunen inmiddels de oproep tegen autonome wapens.

Technologie gebaseerd op artificiële intelligentie en robotisering gaat in toenemende mate ons leven beïnvloeden. Dit kan op goede manieren om ons leven makkelijker te maken. Het kan ook een bedreiging gaan vormen. De Netflix-serie ‘Black Mirror toont op surrealistische wijze enkele horrorscenario’s waarin technologische vooruitgang botst met onze menselijke gevoelens. Wat gebeurt er als we de technologie ons volledig gaat beheersen, maar erger nog: als we de  controle over onze slimme uitvindingen kwijtraken? Die ontwikkeling wordt al een eeuwenlang in sciencefictionfilms en -boeken aangekondigd.

Vijftig jaar geleden kwam de baanbrekende sciencefictionfilm 2001: A Space Odyssey uit. In de film gaan vijf reizigers op weg naar Jupiter. Hun ruimteschip wordt bestuurd door boordcomputer HAL die beschikt over menselijke intelligentie en spraakvermogen. De ruimtevaarders beschouwen de computer als zesde bemanningslid. HAL is als enige op de hoogte van het doel van de missie en grijpt tijdens de reis de macht. Uiteindelijk weet één van de bemanningsleden de computer te overwinnen door HAL’s geheugencentrum uit te schakelen.

Ook in het laatste boek van Dan Brown ‘De Oorsprong’ speelt een computer met menselijke eigenschappen de sleutelrol. De alwetende computerhulp luistert naar de naam Winston. Het is een verwijzing naar de geniale strateeg Winston Churchill. Waarschijnlijk verwijst de naam ook naar IBM’s supercomputer Watson. Winston bezit krachtige eigenschappen van een supercomputer en is gelijktijdig onmogelijk van een mens te onderscheiden. De computer is uitgerust met volledig geperfectioneerde kunstmatige intelligentie en slaagt ruimschoots voor de Turing-test. Winston handelt in ‘het belang’ van zijn opdrachtgever, voert zelfstandig taken uit en beslist over leven en dood. De afloop van het boek is voorspelbaar.

We leven in een tijd waarin sciencefiction werkelijkheid wordt. Robots gaan steeds meer taken van mensen overnemen. Dit past in de evolutie van gereedschappen die de mensheid heeft ontwikkeld vanaf het stenen tijdperk. Robots blijven hulpmiddelen en zullen altijd ondergeschikt blijven aan mensen. Het is ook evident dat een robot geen verantwoordelijkheid kan nemen. Dat kunnen alleen de mensen die robots ontwerpen, programmeren en gebruiken. Juridisch gezien is dat nog een complexe puzzel. Nieuwe internationale afspraken, regelgeving en toezicht blijven altijd noodzakelijk om het gebruik van technologische innovaties in goede banen te leiden.

De volledige uitkomsten van de enquête zijn hier terug te vinden.

 

Transparante robotadviseur

Zelfdenkende robots moeten de mensheid een flinke stap voorwaarts brengen. We worden er nu al mee geconfronteerd. De spraak assistent van onze mobiel is daar een goed voorbeeld van. Via stemcommando’s kunnen wij onze smartphone allerlei taken laten uitvoeren. Robots kunnen veel taken van de mens overnemen (zoals het besturen van onze auto) en beïnvloeden ons gedrag zonder dat wij ons daar bewust van zijn.

Robots kunnen reageren op het gedrag van mensen op basis van de digitale sporen die wij achter laten. Via ons online klikgedrag, sociale media, smartphone, activiteiten trackers en apparaten met sensoren produceren wij een grote hoeveelheid data in verschillende verschijningsvormen. Met machine learning kunnen computermodellen op basis van zelflerende algoritmes steeds beter onze persoonlijkheid voorspellen. Dat kan zelfs op basis van simpele Facebook likes. Vanaf 70 likes kent Facebook je beter dan je vrienden.

Drie onderzoekers in de Verenigde Staten ontwikkelden een algoritme waarmee iemands persoonlijkheid kan worden voorspeld op basis van Facebook likes of Twitter berichten. Het algoritme voorspelt de scores op basis van de Meyers-Briggs Type Indicator (MBTI) en de Big Five persoonlijkheidstheorie. Deze Big Five theorie beschrijft iemands persoonlijkheid in de volgende dimensies: extraversie, vriendelijkheid, emotionele stabiliteit, ordelijkheid en openheid. Per dimensie kun je hoog, laag of ergens daar tussenin scoren. Een gedetailleerd overzicht van jouw persoonlijkheid kun je op basis van Facebook of Twitter likes en berichten laten voorspellen met deze Facebook and Twitter Prediction tool.

Ik testte de tool uit. Op basis van 3.232 twitterberichten kreeg ik binnen een paar seconden een uitgebreid rapport over mijn persoonlijkheid. De scores van de Big Five en MBTI zijn vrijwel identiek met de uitslagen van testen die ik bij psychologische testen op basis van vragenlijsten heb gedaan. Met het voorspellen van mijn geslacht heeft het computermodel meer moeite: ‘Your digital footprint is fairly androgynous; it suggests you’re probably Male but you don’t repress your feminine side’. Het voorspellen van mijn leeftijd blijkt ook een moeilijke opgave: ‘Your digital footprint suggests that your online behaviour resembles that of a 25-29 years old’. De modellen pretenderen niet de absolute waarheid te voorspellen; zij rapporteren met een zekere waarschijnlijkheid.

Zolang wij die analyses zelf onder ogen krijgen en kunnen relativeren is er niets aan de hand. Het wordt een ander verhaal als bedrijven en overheden er mee aan de haal gaan. Zo kondigde Facebook CEO Zuckerberg aan dat zijn bedrijf met behulp van Artificiële Intelligentie privéberichten gaat analyseren om terroristische activiteiten op te sporen. Ook denkt Facebook de helpende hand te kunnen bieden bij het voorkomen van zelfmoord onder tieners en bij het tegengaan van pesten op school. Dat klinkt allemaal heel idealistisch, maar inmiddels zijn de data die je via sociale media achterlaat verworden tot handelswaar die bedrijven in staat stelt op basis van persoonlijkheidsanalyse gerichte diensten aan te bieden. Overheden gebruiken persoonlijke data om fraude op te sporen en om misdrijven te voorkomen en op te lossen.

Dat wij niet blind kunnen vertrouwen op ‘zelflerende software’ leerde het experiment van Microsoft met Twitterbot Tay. De bot vergaloppeerde zich in de dialoog met Twittergebruikers en deed allerlei racistische uitspraken. Microsoft heeft daarna het Twitteraccount afgeschermd en de meeste tweets verwijderd. De complexe logica achter algoritmes is vaak nog een ‘black box’ die moeilijk kan worden verklaard. Dit moet veranderen als per 25 mei 2018 de Algemene Verordening Gegevensbescherming (AVG) in werking treedt. De AVG geeft mensen het recht om geïnformeerd te worden over de logica van een advies of besluit van een robot. Bedrijven en overheden moeten transparant worden en hun systemen aanpassen. Softwarebedrijf Pegasystems introduceerde dit jaar als eerste de T-Switch (T van Trust en Transparency) waarmee organisaties controle kunnen uitoefenen op de mate van transparantie van hun Artificiële Intelligentie.