Home »AI is neutraal, de mens niet

Een typemachine is neutraal. Het apparaat heeft geen mening, geen intentie en geen moreel besef. Toch zijn met typemachines teksten geschreven die de wereld hebben veranderd. Wetten, pamfletten, manifesten, liefdesbrieven en propaganda. Niet omdat de typemachine stelling nam, maar omdat mensen dat deden.

De waarde en de impact zaten nooit in het instrument, maar in de handen die het bedienden en de keuzes die zij maakten. Precies zo verhoudt AI zich tot ons. Toch hoor ik vaak de uitspraak: “AI is niet neutraal, het zit vol vooroordelen.” Mijn stelling is anders. AI is wel degelijk neutraal. Het zijn de mensen rondom AI die dat niet zijn.

Een AI-systeem bezit geen bewustzijn, geen mening en geen intentie. Het voert uit wat mensen hebben ontworpen, geconfigureerd en gevoed met data. Wanneer een AI-systeem ongewenste of schadelijke uitkomsten produceert, komt dat niet voort uit wil of intentie van het systeem zelf.

Dat gebeurt omdat mensen:

  • Keuzes maakten in dataselectie,
  • Bepaalden welke patronen relevant zijn,
  • Instructies formuleerden (of juist nalieten),
  • Het systeem toepasten buiten de bedoelde context.

De AI reflecteert menselijke beslissingen. Niet meer en niet minder.

De vooringenomenheid die we AI toeschrijven, ontstaat structureel op vier plekken:

1. Het ontwerp

Elk AI-systeem start met ontwerpkeuzes. Welk probleem lossen we op? Wat definiëren we als succes? Welke uitkomst vinden we acceptabel? Ontwerpers brengen hun wereldbeeld, normen en prioriteiten mee. Die keuzes verankeren zich direct in het systeem.

2. De toepassing

Zelfs een zorgvuldig ontworpen systeem faalt bij ondoordachte inzet. Een AI-oplossing voor cv-screening die historische aannames reproduceert zonder toetsing, laat geen falende AI zien, maar falend gebruik.

3. De instructies

AI-systemen functioneren binnen kaders die mensen vastleggen. Wat mag het systeem wel of niet doen? Welke normen gelden? Welke toon of afweging past? Dit beleid is menselijk denken vertaald naar regels. Dat vergroot de bruikbaarheid, niet de neutraliteit.

4. De data

Geen enkele dataset is een objectieve weergave van de werkelijkheid. Mensen bepalen: welke bronnen worden gebruikt, uit welke periode data afkomstig is, welke voorbeelden worden opgenomen of uitgesloten en hoe data wordt gelabeld en geïnterpreteerd.

Data draagt altijd sporen van de context waarin zij is verzameld, inclusief maatschappelijke scheefgroei en historische aannames.

Wie AI bestempelt als niet-neutraal, verschuift verantwoordelijkheid naar technologie. Dan ontstaat het beeld van een technisch probleem dat vraagt om betere algoritmes of meer data. Wie erkent dat AI neutraal is en mensen niet, plaatst verantwoordelijkheid waar die hoort. De kernvraag verschuift van “kunnen we deze AI vertrouwen” naar “hebben wij de juiste keuzes gemaakt en voldoende waarborgen ingericht”.

Dat verschil is fundamenteel:

Niet:

  • “De AI gaf een verkeerd advies.”
  • “Deze AI heeft vooroordelen.”
  • “AI-ethiek als los thema.”

Wel:

  1. “Wij valideerden de uitkomst onvoldoende.”
  2. “Wij onderzochten de aannames in de data niet diepgaand.”
  3. “Onze ethiek in ontwerp, beheer en toepassing.”

AI is neutraal. Jij niet. Ik niet. Ontwerpers niet. Organisaties niet. Elke vraag over AI is daarmee een vraag over menselijk handelen:

  • Welke waarden leggen we vast,
  • Welke aannames accepteren we,
  • Hoe toetsen we of het systeem doet wat we bedoelen,
  • Wie draagt verantwoordelijkheid bij fouten.

Een AI-systeem kent geen eerlijkheid. Jij wel. Precies daarom ligt de verantwoordelijkheid bij jou. Niet de technologie vraagt om verbetering, maar het handelen eromheen. Daar begint functioneel beheer. Bij het nemen van verantwoordelijkheid voor de systemen die we inzetten.

Wil je leren hoe je die verantwoordelijkheid concreet vormgeeft in je werk als functioneel beheerder?