“Kijk, als je de de letters van het woord filosofie naast elkaar zet, conflicteren het uiteinde van de ‘f’ en de punt van de ‘i’ met elkaar. Dan krijg je een soort eh… typografisch Srebrenica.”
Ik ging stuk.
Deze befaamde uitspraak is van mijn docent typografie Gijsbert Dijker aan de kunstacademie. De oplossing voor het gennoemde conflict heet overigens een ligatuur; een samenvoeging van de twee letters in één leesteken.
In het Financieel Dagblad van zaterdag 24 februari wordt aandacht besteed aan Sora, een programma van OpenAI dat teksten kan vertalen naar videobeeld. Klinkt hartstikke geinig natuurlijk, en een jaar geleden konden we nog wel om lachen. Wie kent de beelden niet van een creatuur dat op Will Smith lijkt en spaghetti eet? Het was een videootje van 27 seconden, gecreëerd met Stable Diffusion, en het was knap gedaan – maar verre van realistisch. Psychedelisch eerder.
We zijn een jaar verder, en de technologische ontwikkeling gaat nou niet bepaald langzaam. Zie hier wat er inmiddels mogelijk is met het eerder genoemde Sora: beelden van honden in de sneeuw, cartoons in een disco en een close-up van een vrouwelijk oog. Ter illustratie even een screenshot:
Dit is amper van echt te onderscheiden. Ik daag je uit om de video van Sora te bekijken en hoe vaak in die 10 minuten je iets ziet waardoor je weet dat het niet ‘echt’ is.
Met stilstaande beelden hebben we al genoeg ervaring: een door Midjourney gegenereerde foto van de paus in een flashy bomberjack moest zelfs worden gefactchecked door Snopes. En waarom?
Omdat mensen boos waren.
Hoe kan de paus er nu zo bijlopen? Schande werd er gesproken. Maar goed dat iemand heeft gechecked of het beeld wel klopt. Tegelijkertijd: je moet ook maar geloven dat de factchecker het bij het rechte eind heeft. Het zal niet voor het eerst zijn dat een positieve beoordeling van een factchecker later door een andere is ontkracht. Maar dat ter zijde.
De ontwikkeling van door AI gegenereerde beelden gaat hard. Heel hard. Vergelijk de beelden van Will Smith van een jaar geleden met de beelden van Sora nu. Plak er nog een jaar bij en het internet wordt overstroomd met beelden die niet van echt te onderscheiden zijn. En dan is een spaghetti-etende Will Smith nog niet zo spannend. Maar wat te denken van – indachtig de aankomende verkiezingen in Amerika – beelden van Joe Biden die een kind slaat omdat het in de weg loopt? Of beelden van Donald Trump die, gefilmd met een verborgen camera, vertelt dat hij zwarte Amerikanen wil deporteren? Hoe om te gaan met beelden van Oekraïense soldaten die moordend en verkrachtend een dorp innemen? Of het gezicht van je kind verwerkt in deepfake p*rno?
Ik hoor geregeld mensen zeggen: “ik geloof het pas als ik er beelden van heb gezien!” Die uitspraak is geen lang leven beschoren. Bedenk iets, en binnen no-time heb je er beeld van. Kortom: dat ergens beeld van is, maakt niet dat het echt heeft plaatsgevonden. Sora en vergelijkbare technologiën stellen ons voor grote uitdagingen. Meer dan ooit zullen conflicterende wereldbeelden en ideologieën worden bevestigd en verankerd in een zee van gegenereerde beelden. Polarisatie laat zich steeds minder bevechten door bewijs, want de meest bekende vraag naar bewijs – laat eerst maar eens zien! – is binnen enkele jaren, maanden, weken waardeloos geworden.
Ik voorzie een groot probleem, een conflict over de vraag: wat is waar? Een epistemologisch Srebrenica, zo je wil.
Met alle gevolgen van dien.