Reflectie op ChatGPT door Sijtze de Roos

Type: Nieuws
Datum: 08 March 2023
Onze commissie vakontwikkeling schreef onlangs een stuk om ons als professioneel begeleiders uit te nodigen om te reflecteren op de komst en betekenis van ChatGPT. LVSC lid en oud voorzitter van LVSC Sijtze de Roos deelt zijn overdenkingen over het onderwerp ChatGPT.

Aan: LVSC – Commissie Vakontwikkeling
Van: Sijtze de Roos
Mbt: Reflecties over ChatGPT
D.d.: 19 februari 2023

Met dank voor het overzicht van reflecties op ChatGPT permitteer ik me de volgende reactie (van mijn hoogsteigen hand, dus niet gegenereerd door voornoemde chatbot).

Aandacht voor de zichzelf steeds sneller opstuwende ontwikkeling van digitale communicatie en alles wat daar qua hard- en (vooral) software mee samenhangt kan niet genoeg geprezen worden, dus die lof geldt ook voor jullie recente blog over ChatGPT op de LVSC-website.

Toch imponeert de opwinding over die Chatbot me als nogal vreemd. Behoudens enkele kritische kanttekeningen uit lezingen aan de Radboud - zie de betreffende links in jullie tekst - blijkt uit de overige reacties nauwelijks enig besef van de bredere context waar Artificial Intelligence (AI) zo welig in tiert. Zoals de bestuurskundige Paul Frissen al in 1996 optekende:

Onze persoonlijke en maatschappelijke identiteit wordt in hoge mate geconstitueerd door en in handelingen en structuren van communicatie via netwerken van computers. Het subject is door die handelingen gedecentreerd, verspreid en vermenigvuldigd in en tussen talloze netwerken en databestanden. Er is geen sprake meer van stabiliteit, althans niet van de stabiliteit van het subject als centrum van de wereld. Onze identiteit is een vorm van fictie in de structuren van communicatie.’

Anders gezegd; ook ChatGPT regeert en verandert de gebruiker (veel) meer dan dat hij dit medium bestuurt. Daarnaast valt mij op hoe weinig men van de geschiedenis van technologie op de hoogte is, zodat mensen telkens opnieuw worden overvallen door de volgende ontwikkeling. ChatGPT is helemaal niet nieuw, integendeel. Met machinale tekstgeneratie werd al in de jaren zestig geëxperimenteerd (en nog veel eerder, in de jaren veertig, beschreef Isaac Asimov dit fenomeen al in zijn SF-verhalen). Denk bijvoorbeeld aan het therapierobotje ‘Eliza’. Ik citeer hier uit mijn Diagnostiek en Planning in de Hulpverlening (ook al verschenen in 1996), waar in hoofdstuk 7 te lezen valt dat….        

“In de zestiger- en zeventigerjaren van de vorige eeuw ( ) de Amerikaanse computerdeskundige Weizenbaum een script ( ontwikkelde) dat computers in staat stelde om op ‘invoelende’ manier te reageren op patiënten (Weizenbaum, 1976; Spaink, 1994). Dit programma, Eliza genaamd, was samengesteld uit honderden zinnetjes die van Rogeriaanse therapeuten waren overgenomen. Net als de Rogerianen dat in het echt doen stimuleerde ook Eliza de patiënt om door te praten; ze stelde uitsluitend vragen. Eliza was in beperkte mate interactief. Ze reageerde met hummen, of met zinnetjes als: ’Ga door’ of ‘Wat bedoel je daarmee?’ Klopte de patiënt in dat zij zich schuldig voelde over het verdriet van haar moeder, dan kon Eliza bijvoorbeeld vragen: ‘Heb je schuldgevoelens?’

Eliza vertoonde in de ogen van de gebruikers een dermate hoogontwikkeld empathisch vermogen, dat zij haar al ras nog veel meer menselijke eigenschappen toeschreven. Zij bleven urenlang met het haar over hun problemen aan de praat. In een enkel geval werden ‘echte’ mensen zelfs geïrriteerd de deur gewezen. ‘Stoor me niet, eindelijk wordt nu eens naar mij geluisterd’ (Spaink, 1994).

Tot grote ergernis van Weizenbaum kende het enthousiasme van sommige psychiaters en psychotherapeuten nauwelijks grenzen. Zij zagen al meteen een grote toekomst voor computergestuurde hulpverlening weggelegd en deden allerlei voorstellen om de programmatuur nog empathischer te maken. Maar volgens Weizenbaum gaf Eliza alleen maar domme, mechanische reacties. Tot meer zou zij nooit in staat zijn (Jongeneel, 1996).

Korte tijd later verscheen ‘Parry’, een programma dat op vrij overtuigende wijze de rol van een paranoïde patiënt wist te spelen. De makers waren van mening dat Parry dus een goed model voor de structuur van paranoia was. Weizenbaum rekende snel af met deze illusie. ‘Volgens die redenering is een typemachine een prima model van een autist’, mopperde hij gemelijk, ‘wat je ook inklopt, naar een antwoord kun je fluiten” (Uit: Sijtze de Roos [1996/2016]. Diagnostiek en Planning in de Hulpverlening. Pp. 249-252. Bussum: Coutinho - NB: in dit fragment aangehaalde auteurs zijn te vinden in de literatuuropgave van dit boek).

Inmiddels zijn de technische mogelijkheden aanzienlijk uitgebreid. AI vergt daarom van ons een aanmerkelijk minder naïeve benadering dan die van die enthousiaste psychiaters waar Weizenbaum (begrijpelijkerwijs) zo pissig over was. Bij het leren omgaan met dit soort bots en platforms - en er komen er meer, en betere, en nog veel snellere en slimmere - zal het oefenen met studenten of het er leuk zelf mee spelen niet volstaan, hoe nodig, goed bedoeld en aardig dat ook moge zijn. Vereist is een veel politieker houding. Mijn tip: verdiep je maar eens in de roman Klont en het net uitgekomen essay Doe zelf normaal van Maxim Februari (wel even doorlezen, en niet om de twee minuten op je smartphone kijken). Daarin kom je overwegingen tegen als deze:

“De systemen zijn zo vernetwerkt dat we geen overzicht meer hebben. De samenleving is zo gedigitaliseerd, we hebben zo veel data van onszelf in systemen gestopt en laten stoppen, dat we er geen controle meer over hebben. Bij ‘harde’ data zoals meters en tijd, gaat dat al niet altijd goed, maar het is fnuikend als het ‘zachte data’ betreft: gegevens over menselijk gedrag. Daarmee glippen waarden als democratie, mensenrechten en rechtstaat uit onze handen. Je digitaliseert en de democratie verandert. Je digitaliseert en het recht verandert” (Geciteerd uit een LinkedIn post van NRC- journalist Wouter van Noort; 16-02-2023).

Ik voeg er aan toe: en het begeleiden van mensen verandert. Veel van ons werk kan nu al door robots overgenomen worden (zie voor de implicaties daarvan: Nissen, V. [ed.] [2018]. Digital Transformation of the Consulting Industry. Extending the traditional delivery model. New York: Springer International Publishing).

Hoe gaat dat verder, wat moeten we daarmee? En bovenal: wat willen we daarmee? Dat is nu een mooi onderwerp voor de community of practitioners die de LVSC probeert te zijn. Waarom niet een groot congres daarover belegd, met sprekers als Maxim Februari en de filosoof Hans Schnitzler (schrijver van de boeken Het digitale proletariaat en Kleine filosofie van de digitale onthouding). Het wordt tijd dat wij ook dit stuk van de wereld beter leren kennen. Dat zou wel eens meer kunnen helpen dan er alleen zelf blind mee rond te blijven spartelen.

 

Sijtze de Roos, 17 februari 2023