Roep om visie en beleid
Feit of fictie, en onze academische toekomst met AI. Er moet wat gebeuren!
AI verspreidt zich in een ongekend tempo. Organisaties zullen moeten leren omgaan met de nieuwe mogelijkheden, maar ook met alle uitdagingen die deze nieuwe technologie met zich meebrengt. De onderwijssector vormt hierop geen uitzondering.
We kunnen niet van onze bestuurders verwachten dat ze alle ontwikkelingen kunnen bijhouden. Wie AI slim wil inzetten, moet bovendien niet denken dat het genoeg is om wat te lezen over AI of een paar keer te prompten in ChatGPT.
Studenten groeien op in dit AI-tijdperk en omarmen de nieuwe technologie. De meeste docenten hebben meer moeite zich aan te passen en lopen daarom achter op de studenten. Ze vragen om begeleiding bij het inzetten van AI-tools; ze weten niet goed welke AI tools er zijn en hoe ze die moeten gebruiken en toepassen.
Het opstellen van richtlijnen voor generatieve AI (GenAI) is vaak een eerste stap die wordt gezet, maar dat volstaat niet. Er is een universiteitsbrede visie op AI nodig, met daarbij ook een ondersteunend AI-beleid.
We moeten immers ook naar andere AI-thema’s kijken dan GenAI-richtlijnen en de bestrijding van fraude met AI. Bovendien zal AI niet verdwijnen, maar zich blijven ontwikkelen.
Bijblijven
Terwijl bedrijven en organisaties in andere sectoren wellicht de keuze hebben om wel of niet AI toe te passen, heeft de onderwijssector die keuze niet. We moeten gelijke tred houden met onze studenten, als we fraude met academisch schrijven willen voorkomen en studenten willen voorbereiden op hun latere loopbaan waarin AI een rol gaat spelen.
Maar daarnaast hebben universiteiten de plicht om de gegevens van onze studenten, docenten en medewerkers te beschermen. Het is daarom niet verstandig om allerlei gegevens of documenten zonder na te denken in een AI-tool in te voeren. Iedereen weet dat inmiddels. Tenminste, de meeste studenten en docenten.
Maar hoe zit het met andere UU-medewerkers, die bijvoorbeeld werkzaam zijn bij de financiële of communicatie-afdeling of bij de studentenadministratie? Hoe zit het met onze bestuurders? Iedereen gebruikt tools als ChatGPT, niet alleen onze studenten en docenten.
Maak gebruik van beleidsmedewerkers
De ontwikkeling van een AI-beleid vereist cross-disciplinariteit en inzicht in onderwijsmanagement en -administratie, beleidsvorming, studentbeleving, ethiek en datamanagement. Bovendien vereist het juridische kennis en kennis over privacy en IT-beveiliging.
Daarbij moet er voortdurend afstemming plaatsvinden met onze academische waarden en universitaire strategie. We moeten ons bovendien bewust zijn van de universitaire cultuur en de gevoeligheden binnen de organisatie die moet reageren op deze veranderingen en zich moet aanpassen. Er zou daarom een routekaart moeten komen voor de manier waarop we als universiteit het nieuwe beleid voor AI in het onderwijs en het onderzoek willen uitrollen en toepassen. We kunnen immers niet alles tegelijk doen.
Bovendien kunnen we niet allemaal AI-beleid maken. We hebben al zoveel versies van GenAI-richtlijnen. Waarom maken we geen gebruik van beleidsmedewerkers, zoals we normaal doen bij beleidsontwikkeling? We zouden bijvoorbeeld per faculteit een 'AI-beleidsprobleemeigenaar' kunnen aanstellen die facultair beleid bouwt op de universitaire visie op AI.
Mens of machine
We hebben zo’n AI-visie óók nodig om ons intellectuele eigendom en onze academische waarden te beschermen. De academische waarheidsvinding staat immers onder druk. Binnenkort kunnen we misschien niet meer onderscheiden welke tekst, afbeelding, video, code of audio echt is (op bewijs en feiten gebaseerd) en wat nep (deepfake), misinformatie of desinformatie is.
Ik vroeg bijvoorbeeld een collega om een kort stukje tekst voor mij te controleren op fouten, omdat hij een expert is op dat gebied. Ik kreeg het terug met de opmerking dat hij de tekst door een AI-tool had gehaald ... . Is dat onze toekomst, niet meer te weten of we met een mens of een machine hebben gecommuniceerd?
Algoritmen hebben veel potentie, van learning analytics ten behoeve van het stimuleren van studiesucces tot het online surveilleren tijdens examens. Wat vinden we verantwoord en ethisch gebruik en wat niet? De AI-wetgeving van de EU (EU AI Act) is bedoeld om onze (mensen)rechten te beschermen, maar we moeten onze universiteit wel zo inrichten dat we hier tijdig en op de juiste manier op inspelen. Als eerste stap zouden we een ethische gedragscode voor AI moeten opstellen.
Wat we nodig hebben
Het begint allemaal met het goed analyseren van de rol van AI binnen de universiteit, waarbij er meer is dan de Wet op het Hoger Onderwijs en Onderzoek (WHW) en de Onderwijs- en Examenregeling (OER). Er komt een jonger zusje aan: het universitaire AI-beleid. Terwijl de andere twee min of meer in steen gebeiteld zijn, groeit deze 'new kid on the block' razendsnel.
We moeten onze bestuurders, docenten, andere medewerkers en studenten AI-bewust en AI-geletterd maken. Dit geldt ook voor onze collega's van IT, aangezien AI geen gewone software is, maar nieuwe uitdagingen met zich meebrengt.
We hebben een UU-visie nodig voor de implementatie van AI in onze bedrijfsvoering en een budget om dit te realiseren. We hebben AI-beleidsmedewerkers en AI-compliance officers nodig die ervoor moeten zorgen dat onze studenten en medewerkers kunnen innoveren en verantwoord AI kunnen toepassen. Bovendien moeten we de academische fundamentele waarden beschermen: die van feiten in plaats van fictie.
Zoals Hannah Arendt het verwoordde: "Een volk dat niets meer kan geloven, kan niet meer voor zichzelf beslissen. Het is niet alleen beroofd van zijn vermogen om te handelen, maar ook van zijn vermogen om te denken en te oordelen. En met zo'n volk kun je dan doen wat je wilt."
Oh, en trouwens, deze tekst is niet gemaakt door ChatGPT maar door een mens.