Verbieden technologische vooruitgang is geen optie

Staatssecretaris Alexandra van Huffelen wil rijksambtenaren voorlopig verbieden om AI-software zoals ChatGPT te gebruiken. Zij vindt de risico’s op het vlak van privacy en auteursrechten te hoog. Dat schrijft de Volkskrant op basis van een conceptvoorstel, dat de krant heeft ingezien. Het voorstel wordt binnenkort in de ministerraad besproken. Als die met het voorstel instemt, dan zal het verbod behalve voor overheidsdiensten ook voor hun leveranciers gaan gelden.

Het voornemen van de staatssecretaris van Digitale Zaken roept bij mij herinneringen op aan de ‘Donnerbrief’ uit 2011 over de toepassing van cloudcomputing binnen het Rijk.  In die Kamerbrief ontvouwt minister Donner zijn Cloud strategie voor de Nederlandse overheid. De Public Cloud wordt in de ban gedaan. ‘Ik moet vaststellen dat de argumenten tegen het toepassen van open cloud computing op dit moment globaal zwaarder wegen dan de voordelen. Deze argumenten hebben te maken met de onvolwassenheid van de markt en de eisen die worden gesteld aan de informatiebeveiliging.’ schrijft minister Donner. De brief vermeldt nog wel dat er ruimte ligt voor experimenten met cloud computing, zij het beperkt.

Terwijl organisaties wereldwijd de transitie maakten naar de publieke cloud, koos de Nederlandse overheid destijds voor een gesloten Rijkscloud in eigen beheer. Daarmee werden lagere beheerkosten en een groter gebruikersgemak beoogd. Het tegenovergestelde was het resultaat. De kosten liepen door investering in eigen infrastructuur en mensen fors op. De technologische achterstand ten opzichte van andere organisaties nam verder toe. In de praktijk bleek het verbod op gebruik van de publieke cloud ook moeilijk te handhaven. De voordeur was weliswaar gesloten, maar de achterdeur stond nog open voor ingebruikname van nieuwe SaaS-applicaties (waarvan een aantal onveilig). Vorig jaar is het Rijksbrede cloudbeleid uiteindelijk herzien en mogen overheidsorganisaties onder voorwaarden gebruik maken van publieke clouddiensten. Dit opent de weg voor versnelling van innovatie, die overheidsorganisaties kan ondersteunen bij het behalen van hun doelstellingen.

Het voorgenomen verbod op gebruik van AI-software betreft de gratis diensten. De staatssecretaris erkent dat generatieve AI ook kansen en mogelijkheden biedt. Voordat ze AI-toepassingen breed wil integreren binnen de Rijksoverheid, laat ze verschillende experimenten uitvoeren. Dat lijkt het standaard overheidsantwoord op technologische ontwikkelingen. Het klinkt weinig voortvarend. De mogelijkheden binnen de overheid liggen nu al voor het oprapen, bijvoorbeeld ondersteuning bij: het vertalen van overheidsjargon in gewone mensentaal (bijvoorbeeld voor publiekscommunicatie), het maken van een managementsamenvatting van lange teksten, of het opstellen en vertalen van brieven, e-mails etc.

Simpelweg verbieden van een razend populaire chatbot remt de innovatie en kan mogelijk averechts uitpakken. AI-tools zijn niet meer weg te denken uit de samenleving. De ontwikkeling van generatieve AI gaat razendsnel. Het gebruik van AI-tools laat zich niet afremmen en zal blijven toenemen. Oogluikend toestaan, zoals nu regelmatig het geval bij ingebruikname van SaaS-applicaties, vormt een bedrijfsrisico op het vlak van data, privacy en informatiebeveiliging. Dit stelt iedere overheidsorganisatie voor het dilemma: kiezen voor verbieden of verantwoord gebruik? Mijn advies is: benut de efficiencyvoordelen die AI-tools bieden, maar investeer in training en het opstellen (en handhaven) van spelregels.

Binnen de lijntjes kleuren

DALL·E 2023-02-25 14.41.56 – kunstmatige intelligentie leert het landschap van Piet Mondriaan binnen de lijntjes te kleuren

Begin dit jaar werd ChatGPT gepresenteerd als een doorbraak van kunstmatige intelligentie, vergelijkbaar met het internet en de smartphone, die onze wereld voorgoed zou veranderen. Ontwikkelaar OpenAI laat zien wat je met rekenkracht en een grote hoeveelheid tekstdata kunt doen. Hun chatbot produceert na iedere vraag razendsnel coherente tekst en lijkt zorgvuldig getraind om gebruikers te behagen met politiek correcte antwoorden.

ChatGPT kan statistisch voorspellen welke woorden en zinnen logisch achter elkaar horen en verschaft daardoor het meest waarschijnlijke antwoord. Als ik vraag naar mijn levensloop, dan is het antwoord: “Jan Willem Boissevain (1923-1944) was een Nederlandse verzetsstrijder tijdens de Tweede Wereldoorlog. Op 1 oktober 1944 werd Boissevain samen met zeven andere verzetsstrijders gefusilleerd op de Waalsdorpervlakte.” Mijn naam is weliswaar uniek, maar wordt hier verward met die van Gideon Willem Boissevain. Dan nog, kloppen zijn geboorte- en overlijdensjaar niet. Informatie die toch makkelijk op internet te vinden is. Als ik een simpel Snip en Snap raadseltje voorleg “Het is de zoon van mijn vader, maar het is niet mijn broer.” dan krijg ik een fout antwoord: “Het is uw neef”. Als ik antwoord met de oplossing, dan word ik in het gelijk gesteld en beleefd gecomplimenteerd.

Erg betrouwbaar en intelligent is ChatGPT dus niet, maar het is wel opvallend goed opgevoed. OpenAI heeft maatregelen genomen om problemen met ongepaste antwoorden te beperken. Keniaanse microworkers worden ingezet om de teksten, die de chatbot gebruikt om de antwoorden te componeren, op te schonen. Een chatbot die racistische en seksistische taal uitslaat is namelijk de nachtmerrie van iedere chatdienstaanbieder. Zo moest Microsoft zeven jaar geleden hun Twitterbot Tay in allerijl offline halen nadat de bot, in minder dan 24 uur na introductie, racistische, genocidale en vrouwonvriendelijke berichten naar gebruikers begon te sturen. Microsoft heeft recent ook beperkingen moeten opleggen aan het gebruik van BingGPT, nadat deze nieuwe AI-gedreven chat- en zoekdienst door gebruikers was betrapt op fouten en ongepaste antwoorden.

We spreken van kunstmatige intelligentie wanneer een machine een voorspellende taak sneller, goedkoper en accurater kan uitvoeren dan waar een mens toe in staat is. Sneller en goedkoper zijn robots zeker, maar niet per definitie accurater. Dat ligt niet primair aan de robot, maar aan de data waarop die is getraind. Die data zijn niet altijd representatief en kunnen menselijke vooroordelen bevatten. Zo moest een internationaal e-commercebedrijf een zelfontwikkelde tool voor het beoordelen van sollicitaties schrappen, nadat gebleken was dat deze onder meer vooroordelen had tegen aanmeldingen van vrouwen. Dit werd veroorzaakt door de data waarmee de tool was getraind, waarbij de meeste sollicitaties afkomstig waren van mannen.

Vooroordelen komen ook voor in de tekstdata waarop ChatGPT is getraind, en kunnen daarom ook voorkomen in antwoorden die de chatbot geeft. Die vooroordelen in de data vormen een beperking bij toepassing van ChatGPT, maar bieden soms voordelen. Zo las ik in het fd over een opmerkelijke dienst op basis van ChatGPT van het Amerikaanse DoNotPay.  Dit bedrijf ontwikkelde een nieuwe app gebruikmakend van vooroordelen van klagende consumenten. De app kan onderhandelen met een chatbot van een klantenservice, zoals voor het verlagen van een factuur of het opzeggen van een abonnement.

De professionele toepasbaarheid van ChatGPT is vooralsnog beperkt. De betrouwbaarheid van de output is ook nog veel te zwak om gegenereerde teksten letterlijk over te kunnen nemen. Onderzoekers kwalificeren ChatGPT als een ‘stochastische digitale papegaai’, een tool die toeval genereert en niet kan redeneren. Voor het domme productiewerk hebben we er een schrijfhulprobot bij gekregen, maar we moeten zelf nog het intelligente werk blijven doen.