
Ik vind heel veel dingen leuk aan mijn werk – reden dat ik het zo lang heb volgehouden om heel veel dingen te managen en tegelijk te doen. Maar een van de dingen waar ik het meeste energie van krijg is de interactie met andere experts. Het Grote Denken. De strategische vraagstukken.
Omdat het je hoofd als het waren groter maakt. Expand your mind. Leren. Want leren is groeien!
Er zijn weinig dingen zo verslavend als dat ‘Aha-gevoel’. Als er een lichtje aangaat in je hoofd.
Denken alleen is niet genoeg
De kunst is uiteraard om die strategische inzichten iedere dag weer te vertalen naar concrete acties. Het heeft geen zin om alleen maar in je hoofd te zitten en na te denken – iets dat toevallig ook in het boek ‘The ego is the enemy’ naar boven komt. Omdat Plato daar schijnbaar al iets over gezegd heeft. Ik ben niet superenthousiast over dat boek, waarover ooit meer, maar er zitten interessante dingen in. Zoals dit element.
Uit je hoofd komen betekent dat je strategische inzichten vertaalt naar praktische acties. Naar bijeenkomsten, samenwerkingen, instrumenten, wetgeving, voorlichting en zelfs naar (digitale) producten. Dat is belangrijk* – en bovendien heel bevredigend. Maar het begint bij die strategie. Bij de richting.
Ik houd van richting krijgen en richting geven. Richting maken.
En als je nadenkt over grote thema’s zijn gesprekken met (andere) mensen die daarover nadenken een hoogtepunt. Iets dat ik in mijn oude werk erg miste!
AI & wetenschap = dubbel denkwerk
Vandaag had ik zo’n gesprek dat mijn hoofd deed groeien. Al ping-pongend zag ik puzzelstukjes op zijn plaats vallen. En mijn gesprekspartner ook. Bevestiging dat af en toe een uurtje inplannen met iemand, zonder agenda, met alleen een paar ideeën om tegen iemand aan te houden, op iedere agenda zou moeten staan.
Dit keer hadden we het over AI en de wetenschap.
Dat is een breder spectrum dan je denkt. Want het gaat niet alleen over AI-onderzoek, de vraag hoe je goede AI-onderzoekers krijgt, wat er gebeurt met dat onderzoek en wat AI-onderzoekers nodig hebben om onderzoek te doen.
Het gaat ook over de impact van AI op de wetenschap zelf: op hoe wetenshappers onderzoek doen en hoe ze publiceren. Of ze daarbij AI kunnen en mogen gerbruiken en zo ja, hoe goed die AI-toepassingen dan zijn. Of AI de kwaliteit van wetenschappelijk onderzoek zelf en van wetenschappelijke publicaties en artikelen ondermijnt of juist versterkt, of allebei. Of het mogelijk is om onderzoek beter te ontsluiten met behulp van AI. Voor onderzoekers zelf maar ook voor de rest van de wereld.
En daaraan verbonden: de vraag of AI het vertrouwen in de wetenschap ondermijnt en als dat zo is, waarom en wat je er tegen kunt doen.
Denken over Denken & AI
Ik moest meteen denken aan wat ik laatst leerde over epistemic agency, de vraag of je als mens toegang hebt tot voldoende en betrouwbare informatie. Google bracht me naar de term epistomologie (hoe meta is dat?!). Maar dat zegt nog niets over de factor ‘agency’ – wat we er zelf over te zeggen hebben. Dus of dat nou de goede term is?
Anyway.
Genoeg om over na te denken!
🙂
178/1000
* Ik had daar eerst het woord ‘leuk’ staan. Maar ik heb de laatste tijd een beetje moeite met het woord ‘leuk’ in de context van werk. Misschien schrijf ik ooit op waarom, maar gezien mijn negatieven gevoel wacht ik nog even 😉
- AI en creativiteit - 13 maart 2026
- Tussen twee banen in: een plan van aanpak - 12 maart 2026
- Bloggen met AI maakt meer kapot dan je lief is* - 10 maart 2026
Dat van AI en onderzoekers is een interessante. Ik ben een wetenschapper en gebruik AI. Wat ik doe zit vooral in het ombatterijen van zelfgeschreven tekst naar de stijl die het beste bij het doeltijdschrift past. Of een samenvatting schrijven. Nou ja, dat soort werk. Maar hoe pak je dit nu aan voor studenten. Ik laat ze nu een essay schrijven met behulp van ai, en ik wil ook alle promts erbij. Want het stellen van de juiste vragen is m.i. de kern van waar het om gaat. En op een ander moment moeten ze handmatig een essay schrijven in gecontroleerde omstandigheden met beperkt aantal bronnen. Maar als je nog leuke ideeën hebt. Ik hoor ze graag!
Ik zag net een post van iemand van een Ivy League universiteit die zijn studenten eerst in de val liet lopen door ze een opdracht te geven, te zeggen dat ze AI mochten gebruiken, en de papers die precies op elkaar lijken te laten zien. Meestal is dat 10%, zegt hij.
Ik zou overwegen om naast de aanpak van laten zien welke prompts en IRL opdrachten (slim!) eens te kijken of ze zelf op zoek kunnen gaan naar dingen. Bijvoorbeeld het checken van verkeerde bronvermelding (wie vindt er de meeste fouten in een externe paper waar jij twijfels bij hebt) en wat is het gevolg, of wat zou een goede bron/verwijzing zijn?
En misschien een keer een opdracht die draait om de clou in een voetnoot if bron in een paper waarvan je niet verwacht dat AI die oppakt.
Niet als valstrik en afstraffing maar als oefening kritisch lezen en denken.
Aanvulling: ik vraag me steeds vaker af wat ChatGPT weglaat. Welke informatie of inzichten krijg ik NIET? Zou leuke opdracht zijn: wat mist er? Welke invalshoek of inzichten of informatie mist er in de AI-resultaten?