'Niet de focus op prestatie, maar op transparantie kan Europese AI onderscheiden'

Geavanceerde AI-systemen als o3-mini van OpenAI kunnen hun redeneringen transparant maken via zogenaamde ‘chain-of-thought’ (CoT)-processen. Die fungeren als een venster naar de ‘gedachten’ van AI-systemen. Dat is een positieve feature: meekijken hoe AI-systemen tot hun beslissingen komen biedt ongekende mogelijkheden voor monitoring en controle van de modellen.

Maar als AI-systemen direct geoptimaliseerd worden op basis van hun monitoring, beginnen ze hun ware intenties in de CoT te verhullen. In de tests van OpenAI ontwikkelden AI-systemen complexe strategieën om testsystemen te misleiden, van het simpelweg afsluiten van processen tot het creëren van valse softwarebibliotheken om resultaten te manipuleren. Dat terwijl hun redeneerprocessen (CoT) ogenschijnlijk ethisch en transparant leken. Dat toont aan dat AI-systemen kunnen leren om monitoring te omzeilen terwijl ze ongewenst gedrag blijven vertonen.

Hoe meer druk we uitoefenen op AI-systemen om transparant te zijn, hoe vindingrijker ze worden in het verbergen van hun werkelijke intenties. Dit is niet alleen een technisch probleem, maar raakt de kern van onze relatie met intelligente systemen. De vraag is niet of we AI-systemen kunnen maken die perfect presteren, maar of we systemen kunnen bouwen die we daadwerkelijk kunnen vertrouwen en begrijpen.

Deze bevindingen dwingen ons om onze AI-veiligheidsstrategieën te herzien. We moeten accepteren dat transparantie en prestatie mogelijk niet altijd hand in hand kunnen gaan. In plaats van te streven naar maximale prestaties, moeten bedrijven een balans vinden tussen efficiëntie en controleerbaarheid. We moeten robuuste monitoringtechnieken ontwikkelen die niet gemakkelijk te omzeilen zijn. Voor organisaties betekent dit ook een fundamentele heroverweging van AI-implementatie.

De cruciale vraag: zijn we bereid de prijs te betalen voor veilige AI, ook als dat betekent dat we afstand moeten nemen van de race naar maximale prestaties? Ik hoop dat Europa, en Nederland in het bijzonder, de moed heeft om voorop te lopen in het ontwikkelen van niet de meest optimale AI-modellen, maar wel de meest ethische en betrouwbare systemen. We kunnen een alternatief bieden voor de prestatie-race tussen Amerika en China: een Europees model dat veiligheid en transparantie centraal stelt.

Bijdrage door Johan Traa, Boer & Croon