De goocheltruc die LLM heet

Geschatte leestijd: 26 minuten, of een enkeltje Sittard - Weert.

Een computer maakt geen taal, ook geen tekst. Maar verschaft de illusie van een tekst. Daar trapt iedereen in, omdat we geleerd hebben dat een tekst taal representeert en dus denken. ‘Taalmodel’ is eigenlijk al het verkeerde woord, taal gaat over betekenis. ‘AI’ neemt ook niet het schrijven of samenvatten over – beide activiteiten gaan immers over denken – maar het typen. Het denken wordt ook niet overgenomen, het gebeurt gewoon niet. (Een machine denkt immers niet.)

Is er ooit veel hype geweest rond zorgvuldig gekozen woorden op een gewone website? Over het online telefoonboek dat de juiste telefoonnummers en bijbehorende namen presenteerde? Stond iemand op de banken voor eenduidige, informatieve teksten die door mensenbreinen zijn gemaakt? Nee toch?

Waarom is er dan zo’n toestand van niet-linguïsten en pseudo-deskundigen rond chatbots, die op door mensen gemaakte content aan de slag gaan? Maar er eigenlijk niet zoveel meer van bakken dan een stagiair op de eerste dag? Of zorgen voor problemen in aansprakelijkheid? En ook niet de basics van oermenselijke conversatie in de verste verte benaderen?

Het zou zo maar kunnen dat we ons als mensen – afnemers én makers – voor de gek laten houden. We denken dat technologie een mens heeft nagemaakt en zelfs menselijke cognitie kan benaderen, simpelweg omdat er woorden uitkomen die betekenis lijken te hebben.

En om het nog dwazer te maken: niet alleen benaderen, maar zelfs nog overtreffen. Computers zien als zelfdenkende goden is grote onzin, net zoals de wereld niet plat is en eb en vloed niet door een machine wordt geregeld. Toch stappen mensen makkelijk in de hypetrein, omdat we kennelijk de rijkdom van de menselijke cognitie onderschatten – deze als vanzelfsprekend zien – en die van machines overschatten. Iris van Rooij, gepromoveerd in het onderwerp, en dus iemand met diepe kennis van AI als wetenschapsveld, psychologie en menselijke cognitie, zal dit dus voolopig moeten blijven herhalen.

Magisch denken

Mensen denken magisch, zien graag verbanden, zelfs als ze er niet zijn. De regenboog en onweer was iets van de goden. Woorden die uit een machine komen, zetten ons ook op het verkeerde been.

Synthetische teksten geven een illusie. We zien een plaatje van wat een tekst zou kunnen zijn. En verwarren dat plaatje met de échte uitkomst van een denkend mens, de communicatie, een tekst met betekenis. Dat we in die illusie geloven, komt omdat we als mens het onderscheid helemaal niet kunnen maken. Tenzij je erin getraind en opgeleid bent, zoals mensen met een linguïstische achtergrond en opleiding. Dan beoordeel je synthetische teksten als onwaar. Net zoals je op een gegeven moment geleerd hebt dat de regenboog ontstaat doordat de zon door de regendruppels schijnt.

Communicatieve illusies

Net zo goed er optische illusies zijn, zijn er ook communicatieve illusies. We zien, horen, dingen die er niet zijn. Mensen zien dieren in wolken en gezichtjes in een geroosterde boterham. Maar er zijn ook optische illusies die voortkomen uit de manier waarop we waarnemen en informatie verwerken. Ook al weten we dat de horizontale lijnen even lang zijn, ons brein gaat ermee aan de haal en dicht andere lengtes toe aan de lijnen.

Bron: Wikipedia: Müller Lyer Illusie

Als 2 mensen praten, gaan ze ervan uit dat ze de waarheid spreken

De communicatieve illusie is dat we een tekst – van een ‘pratende’ chatbot – taxeren en interpreteren als uitkomst van 2 sprekers die hun best doen om de waarheid te spreken.

In alle miljoenen jaren dat we als mens bestaan, met elkaar babbelen en betekenis deconstrueren, weten we gewoon niet beter dan dat als we met tekst te maken hebben, er wel een mens achter móet zitten. Die iets overbrengt met intentie en betekenis. Taalfilosoof Grice heeft het daarbij over een wederzijds niet uitgesproken vertrouwen aanboren, vanuit het principe van coöperativiteit. In gewone mensentaal: ik doe mijn best voor mijn kant van het verhaal, jij voor het jouwe. Jij praat geen onzin, ik doe het ook niet. Dit principe start automatisch op in gesprekken en dus zelfs in nagebootste gesprekken. Vraag het maar aan mensen aan talkshowtafels die met natte ogen over de wereld van chatbots en ‘AI’ hebben. Maar ook dichter bij huis, mensen die ziel en zaligheid delen met een chatbot en er een vriend of therapeut in zien.

Praatsimulators zoals chatGPT zijn zo gemaakt dat ze met je meebabbelen en heel coöperatief onzin kunnen vertellen, frictieloze onzin desnoods. Dat mensen zo verslingerd zijn aan chatbots en hun allerlei menselijke eigenschappen toedichten, is hen ook niet te verwijten. Zo werkt het in hoofden van mensen. Taal = tekst = betekenis = waar.

Maar dat is dus niet zo! Een computer denkt helemaal niet en praat niet. De andere kant op redeneren: het ding lijkt op een mens, want produceert aan mensen refererende communicatie, dus het zal menselijke cognitie kunnen hebben of krijgen, is dus een net zo grote onzin.

En als je dat weet, dan snap je dus ook dat een chatbot niets kan leveren behalve woorden op een rijtje. Die soms de realiteit benaderen en soms wel lijken te kloppen. Maar dus meestal ook helemaal niet.

Verder lezen

AI als wetenschapsveld versus ‘AI’ als hype:

Hoe een LLM dezelfde principes gebruikt als een waarzegger op de kermis. Over de overeenkomst tussen coldreading en ‘AI’. Te beginnen met de selectie van een goedgelovig publiek tot de verering van de machine:

Andere invalshoeken:

Over de werking van modellen, de mogelijkheden en onmogelijkheden:

Dank aan Iris van Rooij 🟥 voor het treffende voorbeeld van de optische illusie en het gesprek dat we over de illusie van LLM’s voerden.

Geef een reactie