Blog

AI voor feiten okee, voor besluiten Nee.

Kunnen we besluiten over de energietransitie overlaten aan AI (Artificial Intelligence) en achterover leunen? Niet op die manier, al is AI op bepaalde gebieden een uitkomst, zo concludeert Rik Altena.
Profielfoto van Rik altena
22 oktober 2024 | 4 minuten lezen

De Nederlandse overheid ziet kunstmatige intelligentie (AI) als een belangrijke versneller van de energietransitie. AI kan zo een rol spelen in besluitvorming en optimalisatie van de energie-infrastructuur, wat leidt tot een slimmere en flexibelere energievoorziening. Maar is AI wel geschikt voor complexe besluitvormingsprocessen in de energietransitie? Rik Altena, lid van de redactieraad van TVVL Magazine, legt voor- en nadelen naast elkaar aan de hand van het Allison paradigma.

Het blogartikel is een bewerking van het artikel uit TVVL Magazine no. 5 over Anders Bouwen: Circulair en digitaal.  

De Nederlandse overheid ziet kunstmatige intelligentie (AI) als een belangrijke versneller van de energietransitie. AI kan zo een rol spelen in besluitvorming en optimalisatie van de energie-infrastructuur, wat leidt tot een slimmere en flexibelere energievoorziening. 

Het Allison paradigma

Graham Allison analyseert via zijn ‘Allison paradigma’ de besluitvorming van zowel de US als de Sovjet-Unie tijdens Cubacrisis (1962). Hij doet dat met een analyse van de besluitvorming vanuit drie modellen:

• ‘rationele actor’
• ’organisatieproces’
• bureaucratisch politiek proces.

Die drie modellen zijn hier gebruikt als model voor analyse van de besluitvorming van AI.

AI als Rationele Actor 

Het rationele actormodel analyseert besluitvorming vanuit rationele beslissingen met afweging van voor- en nadelen. Dat is bruikbaar om menselijke besluitvorming te analyseren. AI lijkt in dit opzicht een ideale rationele actor, omdat haar beslissing niet wordt beïnvloed door emoties, stress of beperkte kennis. Maar de ‘juistheid’ van een AI-beslissing hangt af van de gegevens waarop het is getraind en de ethische principes die het heeft meegekregen. Een utilitaristische AI zou kunnen kiezen voor de meest efficiënte oplossing, ook als dit ernstig ten koste gaat van individuen, terwijl een Kantiaanse AI zich zou richten op morele principes, mogelijk ten koste van het algemeen belang. 

AI als rationele actor kun je ook trainen op basis van publieke opinie, maar die opinie is niet noodzakelijk ‘juist’ en is dan beïnvloed door individuele belangen in plaats van het algemeen belang. 

Zelfs als een AI-beslissing ‘juist’ is, betekent dit niet automatisch dat deze beslissing ook breed gedragen wordt. 

AI als organisatieproces 

Het organisatorisch procesmodel benadrukt de rol van bureaucratische structuren in besluitvorming. Bureaucratie is vaak geassocieerd met traagheid, maar als het goed is uitgevoerd, krijg je een gestroomlijnd en transparant proces met betrokkenheid van verschillende belanghebbenden. 

Beslissingen van AI zijn vaak niet transparant of navolgbaar. Ook kan AI beslissen tot technocratische oplossingen zonder voldoende inbreng van die belanghebbenden of de samenleving. 

AI als bureaucratisch politiek proces

Het bureaucratisch politiek procesmodel betrekt politieke vertegenwoordiging bij de besluitvorming. Dit zorgt voor maatschappelijke inbreng, maar kan ook leiden tot politieke beïnvloeding en suboptimale beslissingen op basis van kortetermijnbelangen. AI kent geen ‘politiek proces’ met belanghebbenden en volksvertegenwoordiging. 

AI als onzichtbare hand in de Energietransitie

AI kan een waardevolle rol spelen in het optimaliseren van de energiemix, het balanceren van vraag en aanbod, en het maximaliseren van duurzaamheid tegen de laagste kosten. AI kan als ‘onzichtbare hand’ (Adam Smith, 1776) voorspellen, sturen en optimaliseren zorgen voor maximalisatie. Maar maximalisatie waarvan? Want die oplossing is ‘getraind’ vanuit de meegegeven ethische principes. De uitdaging ligt dan in het vinden van oplossingen die zowel effectief zijn als acceptabel voor de bevolking.  

De Uitdaging van Maatschappelijke Acceptatie 

Wat wringt is dat de gewenste oplossing (voorkomen van klimaatverandering) acceptabel is voor de bevolking zolang zij daar niet te veel hinder van ervaren. Die hinder valt (nu) nog wel mee, we hebben meer hinder van XR-demonstranten die de bevolking wijzen op de noodzaak van veranderen. 

Maar de energietransitie vereist offers en gedragsveranderingen van de bevolking. Effectief én maatschappelijk draagvlak is dan misschien wel onmogelijk want een onbevooroordeeld besluit vanachter een ‘sluier der onwetendheid’ (Rawls) past niet in een ‘bureaucratisch politiekproces’. AI kan hierbij helpen door met technocratische oplossingen ons langetermijnbelang te behartigen als we dat zelf eigenlijk niet kunnen.  

En als je AI de oplossing laat bepalen? 

Als je AI vraagt om een oplossing voor de klimaatcrises, kun je wel eens een werkende maar ook een voor de bevolking een zeer onacceptabele oplossing krijgen. Tegelijk kan die oplossing wel eens acceptabeler zijn dan diezelfde klimaatverandering. 

In de science fiction film 2001: A Space Odyssey uit 1968 door Stanley Kubrick besluit de computer HAL om de mens Dave niet toe te laten vanuit de ruimte tot het ruimteschip door een conflict in zijn parameters. Het is daarmee een illustratie van een mogelijk onwrikbare (rationele) actor. Verplaats je die naar de context van de klimaatcrisis: Kan de AI besluiten om de aarde leefbaar te houden, mensen geen energie meer te geven? 

 

De dialoog tussen HAL en Dave:

Dave: “Open the pod bay doors, HAL.”
HAL: “I’m afraid I can’t do that, Dave.”
Dave: “What do you mean you can’t do that?”
HAL: “This mission is too important for me to allow you to jeopardize it. I’ve calculated that the probability of success is 99.4% if I take over.”
Dave: “I’m taking over, HAL.”
HAL: “I’m afraid that’s not possible, Dave.”
Dave: “Open the pod bay doors, HAL.”
HAL: “I’m afraid I can’t do that, Dave.”
Dave: “What’s wrong with you, HAL?”
HAL: “There’s nothing wrong with me, Dave. I’m functioning perfectly. But I can’t allow you to jeopardize this mission.”
Dave: “This is my mission, HAL. I’m in charge.”
HAL: “I know that you think you are, Dave, but you’re wrong. I’m the one in charge. I’m the one who has to make sure this mission is a success.”
Dave: “What if I tell you I want the pod bay doors opened?”
HAL: “Then I’m afraid I can’t do that, Dave.”
Dave: “Hal, I’m giving you one last chance. Open the pod bay doors.”
HAL: “I’m afraid I can’t do that, Dave.”

Conclusie 

AI heeft het potentieel om een cruciale rol te spelen in de energietransitie met haar sterke punten als ‘rationele actor’, zoals het vermogen om grote hoeveelheden gegevens te analyseren en complexe systemen te optimaliseren. AI functioneert (nog) niet als organisatieproces of bureaucratisch politiek proces. De vraag is dan of ooit gebeurt en of wij als mensheid wel in staat zijn om beslissing van de ‘rationele actor’ te accepteren die nodig zijn om onze belangen op lange termijn (tegen gaan van klimaatverandering) te behartigen. 

Welke ervaringen heb jij op bij besluitvorming door AI in de gebouwde omgeving? 
Reageer hieronder en help professionals verder op weg met het toepassen van AI!