Vrijwaring: de onderstaande tekst is automatisch vertaald vanuit een andere taal met behulp van een vertaaltool van derden.
AI is BS
Door: Brian D. Wassom
Op het moment dat ik dit schrijf, lijkt de maatschappij ergens rond de vierde-date fase van haar relatie met generatieve kunstmatige intelligentie te zitten: nog steeds verliefd, maar nuchter genoeg om te erkennen dat het object van onze affectie ons vertrouwen misschien niet helemaal waard is. Op de meest vurige enthousiastelingen na zijn ze zich gaan realiseren dat we er niet van uit kunnen gaan dat alles wat AI-toepassingen ons vertellen waar is. ChatGPT, bijvoorbeeld, levert zonder blikken of blozen feit en fictie met evenveel verve in antwoord op onze vragen. De gangbare beschrijving van deze fantasievluchten is “hallucinatie” – een antropomorfiserende term die impliceert dat de app echt eerlijk tegen ons wil zijn, maar onbedoeld wordt tegengehouden door een incidentele schizofrene breuk met de werkelijkheid.
Voor zover deze terminologie overbrengt dat ChatGPT niet opzettelijk tegen ons liegt, is dat eerlijk genoeg. Maar voor zover het woord “hallucinatie” impliceert dat de app anders de waarheid vertelt, is het wezenlijk misleidend. Natuurlijk is het spreken over AI alsof het iets persoonlijkers is dan de complexe interactie van 1-en en 0-en onze eerste fout, en een eigen soort fictie. Een citaat toegeschreven aan Stephen Hawking definieert “intelligentie” als “het vermogen om zich aan te passen aan verandering”. Volgens die maatstaf handelen AI-programma\’s intelligent. Wat AI onderscheidt van gewone software is het vermogen om de manier waarop het functioneert aan te passen als reactie op de verzamelde feedback die het ontvangt van eerdere invoer en acties. We noemen deze processen “machinaal leren” of “diep leren” en de meer geavanceerde AI-ontwerpen staan bekend als “neurale netten” – allemaal termen die zijn afgeleid van de manier waarop de menselijke geest werkt.
Maar deze termen zijn meer analoog dan accuraat. AI is niet – kan niet – “intelligent” zijn op dezelfde manier als een menselijk brein dat is, omdat software geen brein heeft. Merriam Webster definieert “intelligentie” nauwkeuriger als “het vermogen om te leren of te begrijpen”, “het vaardige gebruik van rede” en “het vermogen om kennis toe te passen … of om abstract te denken”. Machines kunnen niets van dit alles. Als een AI-programma gegevens genereert die toevallig overeenkomen met de werkelijkheid, dan is dat het gelukkige resultaat van de inspanning van de menselijke programmeur. Deze programmeurs zijn als civiel ingenieurs die een complexe reeks ondergrondse leidingen precies genoeg ontwerpen om ervoor te zorgen dat water alleen naar de gewenste locatie stroomt. Maar een AI-programma weet net zo min dat het de waarheid spreekt als een pijp weet dat het op de juiste manier water aflevert, omdat het geen verstand heeft waarmee het kan vaststellen wat de werkelijkheid is.
We kunnen ons tenminste troosten met het feit dat AI niet tegen ons kan liegen. Een leugenaar is iemand die de waarheid herkent en ervoor kiest om de luisteraar iets anders te laten geloven. AI kan de waarheid niet “kennen”, dus kan het ook niet liegen.
Maar strikt genomen kan het ook niet “hallucineren”; hallucineren is nog steeds een realiteit waarnemen, alleen niet de werkelijke realiteit. Dus als we, zoals onvermijdelijk lijkt, over AI blijven spreken in termen van antropomorfie, dan moeten we op zijn minst preciezer zijn. Als we ons laten verleiden tot een verkeerd begrip van hoe de software functioneert, begrijpen we niet goed wat het voor ons doet en missen we dus zowel de beperkingen als de werkelijke potentiele voordelen. Daarom stel ik voor dat de meest nauwkeurige manier om de output van generatieve AI-programma\’s te beschrijven – om de afkorting te gebruiken – “BS” is.
Ik meen het. In een boek uit 2005 dat zijn populairste publicatie werd, probeerde de nu 94-jarige Amerikaanse filosoof Harry G. Frankfurt deze veelgebruikte maar slecht begrepen term te definieren. Het boek, getiteld On Bullsh*t, stelt dat “de essentie van [BS] niet is dat het onwaar is maar dat het nep is”. In tegenstelling tot een leugenaar, die “actief probeert ons weg te leiden van een correct begrip van de werkelijkheid”, “kan het de BS-kunstenaar niet schelen of de dingen die hij zegt de werkelijkheid correct beschrijven. Hij zoekt ze gewoon uit, of verzint ze, om ze aan zijn doel aan te passen.”
Zo goed kunnen we de gesprekken van ChatGPT met ons niet beschrijven. Het enige verschil tussen een chatbot en een menselijke BS-kunstenaar is dat de persoon het met opzet doet. AI heeft geen intentie. Maar dat maakt de beschrijving alleen maar duidelijker. Zoals Frankfurt zegt, “[BS] is onvermijdelijk wanneer de omstandigheden vereisen dat iemand praat zonder te weten waar hij het over heeft.” Omdat ChatGPT niet kan weten waar het over praat, kan het niets anders zeggen dan BS.
Dit is het makkelijkst te zien in de context van een chatbot, maar hetzelfde principe geldt voor alle verschijningsvormen van AI. Van andere AI-programma\’s is bekend dat ze aanbevelingen doen voor behandelingen in de gezondheidszorg op basis van onnauwkeurige conclusies op basis van onvolledige gegevens. Of tewerkstellingsbeslissingen gebaseerd op datasets die scheefgetrokken waren door eerdere discriminatie. Of om criminele verdachten te identificeren op basis van gezichtsherkenningsgegevens die gekleurde gezichten slechter lezen dan blanke gezichten. Of om woorden automatisch te corrigeren waardoor een onschuldig sms\’je verandert in een vernederende faux pas.
Geen van deze uitkomsten was onvermijdelijk, noch waren ze intrinsiek de schuld van de programma\’s zelf. De onnauwkeurigheden in de output van AI kunnen, en zullen vaak, worden verminderd door mensen die meer verfijnde code implementeren – meer verfijnde pijpen om ervoor te zorgen dat het water alleen daar komt waar het hoort en nergens anders. Dat gezegd hebbende, veel van de verwondering en zorg in veel van de meest geavanceerde AI programma\’s is dat hun menselijke auteurs niet weten hoe ze werken; de AI zelf heeft allang zijn eigen code zo vaak herschreven dat zijn functie zelfs voor zijn makers ondoorgrondelijk is. BS verwekt door BS.
Maar dat wil niet zeggen dat we geen AI-toepassingen moeten blijven ontwikkelen en gebruiken. Integendeel, er zijn briljante mensen die nuttige, ethische implementaties van AI ontwikkelen. De kracht en het nut van zulke uitvindingen kunnen niet worden ontkend, zolang het maar doelgerichte hulpmiddelen blijven en geen vertrouwde adviseurs. AI-oplossingen moeten worden geimplementeerd binnen afrasteringen die restrictief genoeg zijn om ervoor te zorgen dat de uiteindelijke output van het programma voldoende overeenkomt met de werkelijkheid om bruikbaar te zijn (na beoordeling en revisie door mensen) voor het beoogde doel. De aanvaardbare parameters varieren per context. En soms kan een beetje BS iets goeds zijn, zoals wanneer je ChatGPT gebruikt om te brainstormen over hoe een vergadering interessant kan klinken, of wanneer je vertrouwt op Midjourney om verbazingwekkende en inspirerende beelden te renderen, zelfs als de mensen die erin voorkomen een paar extra vingers krijgen.
Maar de razendsnelle invoering van AI in vrijwel alle economische sectoren tegelijk, gekoppeld aan het ademloze ontzag waarmee verkopers en managers op middenniveau spreken over het potentieel van deze apps, blijft een reden tot ernstige bezorgdheid. Zelfs als een deel van ons maatschappelijk bewustzijn beter weet dan AI te vertrouwen, zijn er nog steeds veel te veel van ons die zich laten verleiden door de pillow talk.
AI-hulpmiddelen zullen nuttig zijn voor een steeds breder scala aan toepassingen die menselijke besluitvorming informeren en ondersteunen, maar ze moeten altijd worden gehanteerd door mensen met een onafhankelijk oordeel. “De [BS-artiest] … verwerpt het gezag van de waarheid niet, zoals de leugenaar doet …. Hij schenkt er helemaal geen aandacht aan. Hierdoor is [BS] een grotere vijand van de waarheid dan leugens zijn,” waarschuwde Frankfurt. Voor zover we onszelf of onze bedrijven toestaan om kritiekloos te vertrouwen op generatieve AI als een bron van waarheid, zullen we daar spijt van krijgen.