Model zonder eigenschappen

De opvallende overcompensatie in de inzet van Google om hun AI model Gemini ‘correct’ beeldmateriaal te laten produceren is op het eerste gezicht een incident. Het voorval is niet specifiek voor dit AI model, ook het eerste niet op dit terrein en ongetwijfeld ook niet het laatste.

Ik schreef er in dit bericht over dat het volgens mij niet een vraagstuk is waar een louter technische oplossing volstaat. De cliffhanger daar, is de observatie dat je van de resultaten die een AI model je geeft niet zonder meer kunt zeggen of ze van werkelijkheidszin of van mogelijkheidszin getuigen.

De combinatie van beide woorden komt rechtstreeks uit Der Mann ohne Eigenschaften van Robert Musil in de titel van hoofdstuk 4, deel I:

Als werkelijkheidszin bestaat, moet mogelijkheidszin ook bestaan.
Author Name

De hoofdpersoon uit het boek, Ulrich, wil graag een mens zonder eigenschappen genoemd worden, zo’n mens zijn. Eigenschappen hebben de neiging vast te worden, fixaties, in plaats van opties in een oneindige reeks van mogelijkheden. Dan nemen ze je over en hollen ze je uit tot er – in mijn woorden – niets meer van je over is dan de etiketten aan de buitenkant.
Ulrich zou alle mogelijkheden open willen houden en willen onderzoeken, zonder dwingende moraal, zonder vastgezette principes. Je zou evengoed kunnen zeggen dat een man zonder eigenschappen juist beschikt over alle eigenschappen, om deze naar believen tot een bedoeld of gedroomd leven te wekken.

Als mens moet je eigenschappen afleggen als je zonder wilt zijn, maar een AI model heeft op voorhand geen eigenschappen. De correctieve pogingen van AI ontwikkelaars om hun modellen in lijn te brengen met gewenste waarden – het wordt ‘alignment‘ genoemd – zijn er vaak op gericht de modellen achteraf, en van buitenaf, van eigenschappen te voorzien. Het zijn volgens mij wanhoopspogingen met een uithollend effect.

Dit is de wereld van deep learning, waar AI modellen worden getraind met mega hoeveelheden data uit de onversneden werkelijkheid, overal vandaan. Data die bias in zich dragen, onevenwichtigheid die er anders kan uitzien vanuit ander gezichtspunt, maar altijd onevenwichtig is. Die bias is onvermijdbaar, lees wat Yann LeCun (hoofd AI bij Meta) er over zei in een interview met Lex Fridman (maart 2024):

Is it possible to produce an AI system that is not biased? And the answer is: absolutely not, and it’s not because of technological challenges (although there are technological challenges to that). It’s because bias is in the eye of the beholder — different people may have different ideas about what constitutes bias.You cannot have a system that is unbiased and is perceived as unbiased by everyone.
Author Name

Recent schreef John B. Dutton in The Generator een artikel over dit onderwerp, onder meer met de retorische vraag: waarom gebruiken mensen AI modellen om beelden te genereren van Founding Fathers, pausen, vikingen en wat al, terwijl je er alles over kan vinden in Wikipedia en andere bronnen, en er al een enorme hoeveelheid beeldmateriaal online beschikbaar is? Wat bezielt ze?

Het antwoord kan eigenlijk niet anders zijn dan dat ze iets nieuws willen creëren: kunst. Bij kunst noemen we ‘bias’ een ‘invalshoek’, die interessant en uitdagend kan zijn. Die je prikkelt om na te denken over de manier waarop, jawel, jouw werkelijke wereld zich tot mogelijke wereld(en) verhoudt.

Misschien moeten we de niet-aangelijnde modellen liever koesteren, dan ze af te richten om politiek-cultureel-maatschappelijk-etc correcte resultaten te produceren. Vangrails moeten er waarschijnlijk zijn, voor werkelijk kwaad doende uitkomsten, maar de kwaadaardigheid komt niet spontaan uit de modellen zelf – die hebben immers geen eigenschappen, ook deze niet.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *