De NOS vraagt zich in een video terecht af of we de scenario’s over de ondergang van de mensheid uit het rapport AI 2027 serieus moeten nemen. Ondertussen worstelen onderwijsinstellingen met een veel concreter probleem: versnipperde AI-adoptie zonder duidelijke richting.
Als programmamanager aan Breda University of Applied Sciences (BUas) en onderzoeker van het AI Strategy Compass hoor ik dagelijks hoe instellingen vastlopen in losse proefprojecten. Ondertussen nemen docenten en studenten AI-beslissingen zonder duidelijke kaders van hun instelling. Het echte gevaar ligt niet in denkbeeldige ondergangsscenario's, maar in deze strategische chaos die onderwijskwaliteit ondermijnt.
Terwijl UNESCO mensgerichte AI-principes schetst en Silicon Valley doemscenario's verspreidt, biedt ons geïntegreerd kompas de ontbrekende schakel tussen visie en praktijk. Instellingen kunnen zelf leiding nemen door AI-adoptie te benaderen als gedragsverandering, niet louter als een technische uitrol. Anders blijven we op hypes reageren terwijl studenten en docenten de werkelijke gevolgen van onze besluiteloosheid dragen.
Bijdrage door Ines Springael, Breda University of Applied Sciences