AI doet zich voor als betrouwbare partner — maar is dat allerminst

Een paar weken geleden had een vriend van mij een sollicitatiegesprek voor een functie in de consultancy. Zoals velen tegenwoordig deed hij een beroep op ChatGPT om zich voor te bereiden: hij vroeg om mogelijke sollicitatievragen, handige antwoorden en zelfs een uitleg over de bedrijfsstructuur van zijn toekomstige werkgever. De chatbot presenteerde alles serieus overtuigend en deskundig, maar ook fout. Pas op het laatste moment ontdekte hij dat het bedrijf allang een fusie had doorgemaakt, en dat de ‘expertisegebieden’ die GPT had genoemd nergens meer op sloegen.

We lachen er nu nog om, maar dit illustreert ook iets groters: we zijn een digitale infrastructuur aan het bouwen op technologie die niet gebouwd is op waarheid.

Het algoritme als waarheidsmaker

Sinds de opkomst van generatieve AI,  met ChatGPT als bekendste voorbeeld, zijn taalmodellen doorgedrongen tot bijna elk aspect van ons online leven. Niet alleen via chatbots, maar sinds kort ook als onderliggende kracht in zoekmachines, klantenservices, apps, sociale media en zelfs nieuwsredacties.

En die technologie heeft een geloofwaardig imago. Een taalmodel dat zegt “natuurlijk, hier is een lijst van tien gerenommeerde bronnen over dit onderwerp” klinkt betrouwbaar. Maar als blijkt dat drie van die bronnen niet bestaan, twee niet gaan over het onderwerp en vijf oud of onjuist zijn, blijft de vraag hangen: waarom vertrouwden we dit eigenlijk?

Taalmodellen zijn geen kennissystemen, maar voorspellingsmachines. Ze baseren zich op waarschijnlijkheden, niet op feiten. Ze ‘bedenken’ patronen van woorden die logisch klinken, maar wat logisch klinkt, is nog geen waarheid. En wie op basis daarvan beslissingen neemt, komt in de problemen.

Het web wordt vaag en verwarrend

Een van de grote beloften van AI was dat het informatie toegankelijker zou maken. Maar wie nu iets probeert op te zoeken via Google, krijgt steeds vaker een ‘AI-overzicht’ voorgeschoteld, een automatisch gegenereerde samenvatting die soms klopt, maar vaak vaag of onjuist is. De originele bronnen staan ergens verder naar beneden, weggedrukt onder advertenties en gesponsorde content.

Op sociale media wemelt het van de AI-gegenereerde accounts die met net-niet-menselijke interacties conversaties domineren. Op platforms als Amazon duiken producten op met beschrijvingen vol generieke taal en stockfoto’s, allemaal geproduceerd door geautomatiseerde scripts, zonder menselijke controle. Zelfs in het onderwijs beginnen AI-tools als standaardinstrument te dienen, waarbij studenten essays laten genereren zonder na te gaan of de inhoud wel ergens op gebaseerd is.

Het patroon is overal hetzelfde: systemen die overtuigend klinken, maar waarbij de kwaliteitscontrole ontbreekt.

Technologisch enthousiasme overschaduwt kritische toetsing

Dit alles gebeurt in een context waarin techbedrijven enorme ambities etaleren. AI zou personeel kunnen vervangen, medische diagnoses verbeteren, zelfs politieke besluitvorming stroomlijnen. En op sommige fronten klopt dat wèl: er zijn indrukwekkende medische toepassingen, er zijn wetenschappelijke modellen die dankzij AI sprongen vooruit maken.

Maar die toepassingen zijn specialistisch, gecontroleerd en worden (nog steeds) door experts getoetst. Het probleem zit in de normalisering van AI als algemeen hulpmiddel. Want zodra AI onderdeel wordt van elk dagelijks proces, van het beantwoorden van e-mails tot het kiezen van een vakantie of het samenvatten van een artsenconsult, dreigt een sluipend verval van betrouwbaarheid.

We wennen eraan dat systemen net-niet kloppen. Dat informatie nét niet aansluit. Dat feiten af en toe verzonnen zijn. De barsten in het web zijn een gewoonte geworden.

Fouten zijn geen uitzondering, maar ingebouwd

De fundamentele waarheid over generatieve AI is dat fouten geen glitches zijn, maar kenmerken. Een taalmodel kan geen waarheid garanderen omdat het geen toegang heeft tot een real-time werkelijkheid. Het ‘weet’ niets. Het voorspelt alleen… tekst.

En hoewel bedrijven hard werken aan betere waarborgen en filters, blijft het probleem bestaan. Juist omdat de technologie overtuigend klinkt, merken gebruikers vaak niet wanneer ze verkeerd worden geïnformeerd.

Als een technologie niet betrouwbaar is, maar wel alomtegenwoordig, ontstaat een paradox: we worden afhankelijk van iets dat we niet kunnen vertrouwen.

Kritisch denken wordt uitbesteed

Onderzoekers signaleren al dat langdurig gebruik van AI samenhangt met verminderde kritische reflectie. Niet omdat mensen dommer worden, maar omdat ze wennen aan het gemak. Waarom zelf nadenken als een chatbot een antwoord geeft? Waarom bronnen controleren als een zoekmachine een mooi afgerond tekstblok presenteert?

Daarmee ontstaat het risico op collectieve luiheid, of erger: collectieve misleiding. Want zodra we stoppen met verifiëren, stopt het systeem met verbeteren.

Wat moeten we nu dan?

De grote vraag is niet of AI nuttig is. Natuurlijk is het dat. Maar de vraag is: durven we kritisch te blijven terwijl het zich steeds dieper in ons digitale leven nestelt?

Ik merk aan mezelf hoe verleidelijk het gemak is. Wanneer ik een snelle samenvatting nodig heb of een concept wil uitwerken, is de verleiding groot om ChatGPT om hulp te vragen. En vaak doe ik dat ook. Maar ik dwing mezelf steeds vaker om te pauzeren: ho, klopt dit wel? Waar komt deze informatie vandaan? Zou ik hier een beslissing op baseren?

Kritisch blijven betekent concreet: altijd alternatieve bronnen raadplegen bij belangrijke beslissingen, AI-gegenereerde content behandelen als eerste concept in plaats van eindproduct, en bedrijven en instellingen dwingen tot transparantie over waar en hoe ze AI gebruiken. Het betekent ook dat we moeten stoppen met de illusie dat snelheid en gemak altijd voorrang hebben op betrouwbaarheid.

Want uiteindelijk gaat het om een fundamentele keuze. Accepteren we een digitale wereld waarin “dit is ongeveer juist” de nieuwe standaard wordt? Of een krant die schrijf “dit is ongeveer het laatste nieuws”? Of houden we vast aan het idee dat waarheid er nog steeds toe doet?

Als we niet oppassen, veranderen we het internet in een ruismachine, een plek waar informatie overvloedig is, maar betrouwbaarheid zeldzaam wordt. Waar snelheid en gemak de boventoon voeren, maar controle verdwijnt.

De bètafase, waarin producten nog getest worden en fouten mogen bevatten, is bedoeld als tijdelijke toestand. Maar als we ons digitale landschap bouwen op technologie die permanent experimenteel blijft, dan komt de vraag op wie hier eigenlijk proefkonijn is: de technologie, of wij?

 

 

Over de auteur

Ramon is verhalenverteller en tekstschrijver, opiniemaker, social media pionier, crisismanager, bedrijfsadviseur en tour operator voor Kilimanjaro-beklimmingen. Zijn werk is opgenomen als Digitaal Erfgoed door UNESCO en uitgegeven door Nijgh & Van Ditmar. Hij publiceert onder meer in De Volkskrant, het NRC, Columbus Travel en Arts & Auto. Hij woont in Phnom Penh, Cambodja.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *