
Ik werd gisteren de AI-dame genoemd, naar aanleiding van een panel waaraan ik deelnam. Ik vond het een compliment. Minder leuk was de rol van AI-politieagent, die ik ook kreeg toebedeeld. Maar beide benamingen passen me eigenlijk niet zo, bedacht ik in de bus naar huis.
De titel AI-dame roept de associatie op met iemand die een ChatGPT-koningin is. En dat ben ik bepaald niet.
Ik kan uiteraard wel prompten, voor zover je dat als skill kunt bestempelen. Het is een beetje alsof je ‘in zoekmachine zoeken’ op je CV zet, vind ik. Ik weet dat e er veel meer mee kunt, maar ik ben niet zo iemand die ingewikkelde constructies bouwt. Misschien vooral omdat ik niet zo geloof in geweldige uitkomsten? Of misschien ben ik gewoon een luie prompter. Ik vertrouw er op dat het systeem begrijpt wat ik wil en zelf kiest voor het beste model (bij ChatGPT moet je eigenlijk aangeven welk model je wilt gebruiken). Tot nu krijg ik altijd aardige resultaten.
Tegelijkertijd vertrouw ik helemaal NIETS dat vanuit ChatGPT of andere taalmodellen komt. Kortom: een gezonde relatie van totaal vertrouwen enerzijds en totaal wantrouwen anderzijds.
Gisteren, in het panel, zat ik ook een beetje in het midden. Enthousiast, ja, maar voorzichtig.
Ik vind AI-technologie al heel lang fascinerend en ben al heel lang enthousiast. Lang voordat ik wist van het bestaan van taalmodellen. Want al die social media apps waar ik mijn werk van had gemaakt zaten natuurlijk ook al vol met AI-toepassingen, net als zoekmachines.
Maar toen las ik het boek ‘Weapons of Math Destruction’. Het was in 2017. In het blog waarnaar ik link zeg ik zelfs dat het mijn leven veranderde, dat boek. Ha! If only I knew.
Dit was lang voordat we wisten wat de toeslagaffaire was. Maar in het boek werden al veel voorbeelden aangehaald waarbij algoritmes problemen veroorzaakten en mensen op grote schaal gediscrimineerd werden.
Daarom neig ik, ondanks dat enthousiasme over de technologie, vooral naar ‘voorzichtigheid is geboden’. Soms word je dan automatisch in de rol van politieagent gezet. Vooral binnen de overheid, waar het een tijd geduurd heeft voor we er uit waren wat nou de juiste kaders waren voor het gebruik van AI.
Denk aan opmerkingen als:
- “We blijven achter!”
- “Mensen willen niet bij ons werken, als ze geen AI mogen gebruiken.”
- “Iedereen gebruikt het toch al stiekem.”
- “Het is onvermijdelijk.”
Ik heb deze argumenten honderden keren gehoord. Niet gisteren, waar een publiek zat dat zich goed bewust was van die afweging van kansen en risico’s. Maar de afgelopen jaren.
Ik blijf erbij dat de overheid voorzichtig moet zijn, dat er niets onvermijdelijk is aan generatieve AI tenzij we dat zelf laten gebeuren en dat je bij iedere technologie moet kijken wat het probleem is dat je oplost en welk proleem je daarmee juist creeërt. Ook als de kansen overduidelijk lijken.
We weten zo langzamerhand dat technologische verandering nooit alleen maar goed is, toch? En dat er altijd een beperkte groep mensen geld aan verdient, terwijl vaak een grote groep de negatieve effecten ondervindt?
Precies.
Technologie is nooit neutraal. En daarom is niets mis met voorzichtigheid.
218/1000
- AI-politieagent - 7 november 2025
- Mijn eigen verhaal - 6 november 2025
- Doelen - 5 november 2025
Ontdek meer van Elja Daae
Abonneer je om de nieuwste berichten naar je e-mail te laten verzenden.
AI, of technologie zo je wilt, staat nooit op zichzelf. Iemand heeft aan de slinger gedraaid. Ik zie het vaak als een veredelde zoekmachine. Tenslotte halen Claude, Chat, CP, Perplexity en al die anderen ook hun gegevens ergens uit het internet. Datzelfde internet dat door ons gevuld is met (on)zin…