De ontwikkelingen in ict gaan snel, héél snel. Vroeger had je Moore’s Law, dat de rekenkracht van computers elk jaar verdubbelt. Experts zeggen inmiddels dat we diezelfde wet ook kunnen toepassen op AI.
Maar terwijl de snel groeiende rekenkracht nooit tot heel uitgesproken meningen leidde – wat maakt het ook uit, hoe meer hoe beter – roepen de ontwikkelingen met AI wél sterke reacties op. Sommigen omarmen de techniek enthousiast. Laat ze spelen met ChatGPT, laat ze met DALL-E en Runway wat beelden of video’s maken en ze zien alleen nog maar kansen. ‘Ideaal, onmisbaar, geneest alle ziekten, lost milieuproblemen op!’ Andere mensen kijken naar hetzelfde en worden er juist flink nerveus van. ‘Het kost ons banen, echt is niet van fake te onderscheiden, we creëren een politiestaat!’ Artificial General Intelligence, dat AI slimmer wordt dan de mens, is voor hen het grote schrikbeeld.
En de techbedrijven zelf? Die laveren een beetje tussen kans en bedreiging. De organisatie OpenAI dacht eerst nog: met AI gaan we de wereld verbeteren. Daarom geen gesloten algoritmes en black boxes, maar juist ópen AI voor de mensheid. Maar daar zijn ze van teruggekomen. Vrijgegeven algoritmes kunnen namelijk levensgevaarlijk zijn. Hulp bij zelfdoding, hoe gifgas te maken: open intelligentie biedt de mens misschien té veel vrijheid van het goede. Alles werd toch maar weer gesloten. Was OpenAI eerst een reactie op Google, nu wordt het bijna opgeslokt door Microsoft.
Dus ja, AI biedt voordelen, maar er zijn zeker gevaren. We hoeven niet de illusie te hebben dat AI ooit nog weggaat, dus wat moeten we ermee? Wat moet je er als overheid mee?
Musk en zijn vrienden zeggen: ‘Overheid, maak regels waaraan de big tech zich moet houden. Dan zorgen wij voor de beste technologie.’ Eventuele gevaren kunnen ze dan ook zélf oplossen. Slechte AI kan je alleen bestrijden met goede AI, heet het dan. Denk aan deepfakes: mensen herkennen dat niet, computers wel. Dat geldt ook voor problemen met code, encryptie en veiligheid.
Daar hebben de techreuzen een punt. Maar wat Musk impliciet ook een beetje zegt is: hou je er zoveel mogelijk buiten. Alsof de overheid zelf geen AI nodig heeft of alles wel bij hen gaat inkopen. Mijn stelling is dat je als overheid zelf de kennis in huis moet hebben en niet alles kunt uitbesteden aan buitenlandse partijen.
Mijn stelling is dat je als overheid zelf de kennis in huis moet hebben en niet alles kunt uitbesteden aan buitenlandse partijen.
Denk aan regelgeving over privacy, auteursrecht en security: die vereisen diepgaande kennis van de materie. Verder zul je als overheid AI moeten inzetten om die slechte AI te bestrijden. Heb je kennis en eigen middelen voor nodig. En als je AI gewoon inzet waar het eigenlijk voor bedoeld is – voor iets constructiefs, om een rekenmodel of verkeersmodel slimmer te maken bijvoorbeeld – dan moet dat uitlegbaar zijn: ‘Hoe zijn we tot die beslissing gekomen?’ Dat vereist de inzet van AI bínnen de overheid, al was het maar omdat intellectueel eigendom transparantie in de weg kan zitten.
Het punt dat ik wil maken? Wat je ook van AI mag vinden, je moet er als overheid zélf mee aan de slag gaan. Als je geen blinde afhankelijkheid wilt van big tech-bedrijven, moet je investeren in kennis, ervaring en ontwikkeling. Als NDW zetten we daar alvast bescheiden stappen in, samen met partners, bedrijfsleven en onderzoekswereld. We willen, nee, moeten bijblijven bij de laatste ontwikkelingen!
____
Olaf Vroom
Manager Innovatie van het Nationaal Dataportaal Wegverkeer (NDW)