Desinformatie. De wereld wordt overspoeld door steeds grotere hoeveelheden desinformatie. Volgens de Amerikaanse technologie onderzoeker Aviv Ovadya zou de wereld daaraan op termijn ten onder kunnen gaan. Hij bedacht daarvoor de term infocalyps. De vele desinformatie beoogt ons qua informatie op het verkeerde been te zetten. Het bekende voorbeeld zijn de algoritmes van sociale media, die gebruikers advertenties en berichten laten zien die bij zijn profiel passen, met als gevolg dat velen op extreme of geweldadige websites terecht komen of geconfronteerd worden met complot theorieën. Een recent voorbeeld van desinformatie is de deepfake, waarbij een bekend persoon in een gênante situatie geplaatst wordt of dingen zegt die onwaar zijn. Technologieen genereren met behulp van AI vanuit stukken tekst, foto’s of videos gesynthetiseerde uitingen of beelden van bekende personen. Indien dat louter gedaan wordt voor het maken van films, waarvoor de techniek oorspronkelijk werd ontworpen, lijkt hier weinig bezwaar tegen. Zodra deze techniek, die steeds meer binnen handbereik van de consument komt, wordt gebruikt om het publiek te misleiden over bekende personen kan sprake zijn van gevaarlijke manipulatie.
Het risico van synthetische media technieken. Het gevaar van deze synthetische media technologieën moet niet onderschat worden. Steeds minder mensen lezen kranten en steeds meer mensen ontvangen hun informatie uitsluitend via sociale media. Dat zijn geen objectieve nieuwsbronnen, maar hoofdzakelijk advertentie structuren om mensen zo efficient mogelijk tal van zaken te verkopen, die op hun profiel zijn toegesneden. Net zo goed als men uit klassieke advertenties geen objectieve informatie kan verwachten over de kwaliteit van voedsel, kleding of auto’s, kan men ook geen objectieve informatie verwachten uit sociale media.
Door intelligente digitale technieken lopen de werkelijk wereld en de digitale wereld steeds meer door elkaar. Steeds meer mensen leven middels sociale media in hun eigen informatie bubbel, via algoritmes toegesneden op hun persoonlijke profiel en situatie, zonder dat ze nog kennis nemen van andere stromingen.
Misleidingen bij Amerikaanse verkiezingen. Het recentste interessante voorbeeld zijn de verkiezingen in de VS. Al maanden voor de verkiezingen liet President Trump weten, met name via sociale media, dat dit frauduleuze verkiezingen zouden worden door de vele poststemmers. Hoewel hij geen enkel bewijs daarvan had noch heeft, bleef hij de boodschap via de sociale media maandenlang herhalen. Zijn volgelingen zijn er tot op de dag van vandaag grotendeels van overtuigd dat de verkiezingen gewonnen zijn door Trump en dat er grote verkiezingsfraude is gepleegd. Ondanks het feit dat tal van gerenommeerde kranten en officials hebben aangegeven dat de verkiezingen eerlijk zijn verlopen. De Trump aanhangers leven door de sociale media in een totaal andere werkelijkheid dan andere kiezers. Het griezelige van deze situatie is dat politici van het soort als Trump er belang bij hebben de waarheid te manipuleren. En dat is op dit moment, met de moderne technologieën en sociale media gemakkelijker dan ooit.
Hoe komen we hier uit ? Het is veel te simpel om de schuld te geven aan de Tech Giganten. Bedrijven als Google en Facebook zijn digitale advertentie bedrijven, die geld willen verdienen door consumenten aantrekkelijke, op hun profiel passende, advertenties te laten zien. Deze bedrijven hebben er op zich geen belang bij om mensen te misleiden. Maar helaas zien veel criminelen, terroristen of kwaadwillende politici hun kans schoon om via deze gratis sociale media en deepfake technieken, volgers aan te trekken en hen tal van leugenverhalen te vertellen. Op die manier kan de maatschappij totaal ontwricht gaan worden. De VS was heel dicht bij een totale ontwrichting, als Trump in staat was geweest meer overheidsfunctionarissen naar zijn hand te zetten. Het is dus goed te begrijpen wat in landen kan gebeuren waar minder robuuste instituties zijn dan in de VS.
Tech Giganten kunnen dit niet oplossen. Het heeft geen zin en is zelfs onmogelijk om de Tech Giganten te vragen om deze problemen op te lossen. Deze bedrijven kan veel verweten worden en zeker is dat ze meer kunnen doen om desinformatie tegen te gaan, maar hun probleem is met name dat er geen normstellingen zijn voor social media bedrijven wat wel en niet mag. Zij kunnen onmogelijk verantwoordelijk gehouden worden voor alles wat hun gebruikers op sociale media plaatsen. In het ene land mag je politici of religieuze leiders niet beledigen, in een ander land kan dat wel. In het ene land is men erg bezorgd om data privacy, in andere landen vindt men dat geen punt. In het ene land is het geen probleem om volstrekte leugens te publiceren of deepfakes, in andere landen staan straffen op bepaalde leugenpraktijken. Overheden zelf worstelen in vrijwel ieder land met het probleem welke informatie wel en niet publiek toelaatbaar is en alle overheden stellen weer andere normen en eisen.
De digitale doos van Pandora is geopend. Het lijkt wel of er met de komst van sociale media een doos van Pandora is geopend, die kan leiden tot eerder genoemde infocalyps. De vraag is of we die doos ooit weer dicht krijgen of in staat zullen zijn afdoende maatregelen te treffen om deze problematiek de baas te worden. Wat allereerst wenselijk zou zijn is dat aan de burger objectieve en feitelijk juiste informatie wordt verstrekt. Maar dat brengt ons bij het vraagstuk van objectieve informatie, die behalve in de exacte wetenschap, natuurlijk niet bestaat. Wel is er wat te doen aan het verstrekken van feitelijk juiste informatie, zoals bij de Amerikaanse verkiezingen. Het is een slechte zaak dat Amerikanen kennelijk niet meer vertrouwen op de formele instanties wat betreft de verstrekking van feitelijke informatie.
Toetsinginstanties voor objectieve en feitelijke informatieverstrekking. Het is wenselijk om normen op te gaan stellen over wat gebruikers wel of niet zouden mogen publiceren op sociale media of aan welke vereisten het zou moeten voldoen. Er zou onderscheid moeten komen tussen feitelijke informatie, zoals over de uitslag van verkiezingen, en verzonnen of opinierende informatie. Ook kranten maken vaak dat onderscheid. Daarbij is dan ook weer onderscheid noodzakelijk tussen het publiceren in gesloten groepen, waarvoor meer vrijheid zou kunnen gelden en in open delen van sociale media die iedereen kan zien. Het zou uiteindelijk betekenen dat er, zoals bij kranten gebruikelijk is, redacties of toetsingscommissies voor sociale media komen, met duidelijke publieke normen en die gaan toetsen of bepaalde informatie waar of onwaar is of wel of niet toelaatbaar is. Dat gebeurt al hier en daar op vrijwillige basis, de zogenaamde fact checkers. Het lastige is natuurlijk dat dat feitelijk op wereldniveau plaats zou moeten vinden, immers sociale media opereren grenzenloos, maar daar wreekt zich dat er op wereld niveau geen instantie is die dit kan organiseren.
Aanpak sociale media op regionaal niveau. Vooralsnog lijkt daarom de beste manier om deze problematiek aan te pakken op regionaal niveau, zodat je in de wereld niet voor ieder land een aparte commissie nodig hebt, maar met een bepekt aantal toetsingsinstanties, één voor iedere regio, kan volstaan. Dat is exact één van de dingen die de Europese Commissie op dit moment beoogt met nieuwe wetgeving voor Tech Giganten, de zogenaamde Digital Services Act. Op dit moment vindt een publieke consultatie ronde plaats over de concept teksten van deze nieuwe Act.
Zeker is dat zonder regelgeving door overheden, de wereld inderdaad steeds meer in een informatiefuik terecht dreigt te komen van kwaadwillenden, zoals het voorbeeld met de VS laat zien. Er is haast geboden met goede regelgeving omdat de technieken zich razendsnel ontwikkelen. De doos van Pandora zal niet meer helemaal gesloten kunnen worden, maar overheden kunnen en moeten wel alles op alles zetten om het huidige misbruik niveau te verlagen en burgers betere garanties te geven voor objectieve informatie. Kortom: een digitaal hek om de doos van Pandora met waarschuwingen, gebruiksaanwijzingen en stevige straffen bij misbruik.