top of page

Dec '21 - Over( )leven met machines

Alexa, let jij even op mijn kind?


"Alexa!"

"Hey Siri!"

"Hey Google!"


Je hebt er wellicht al eens van gehoord en misschien hoor je het zelfs dagelijks in je eigen woning of bij je vrienden. Wat zijn Alexa, Siri en Google precies? Het zijn drie voorbeelden van 'virtuele assistenten', of ook wel 'slimme luidsprekers'. Door middel van stembediening kan je deze een timer laten zetten, muziek laten spelen, een som laten uitrekenen, een restaurant laten opzoeken in je buurt, en zelfs je verlichting en verwarming regelen. Virtuele assistenten zijn vandaag de dag enorm populair. Naar schatting bezit maar liefst 32% van de Amerikanen er een. En ook in België zit de verkoop van smart speakers in de lift.


Hoewel smart speakers voornamelijk gericht zijn op volwassenen, beleven ook kinderen er plezier aan. Je kan met Alexa bijvoorbeeld een praatje slaan, spelletjes spelen of uitdagingen aangaan. Klinkt leuk! Maar wat als je kind de volgende uitdaging te horen krijgt: "steek je gsm-oplader voor de helft in een stopcontact en raak met een muntstuk metalen tussenstuk aan". Dit rapporteerde Kristin Livdahl, moeder van een tienjarig meisje in de Verenigde Staten op 26 december op Twitter:

Het voorval genereerde grote verontwaardiging op Twitter en andere sociale media, alsook in de pers. Wat is er precies misgegaan hier? De uitdaging waarvan sprake doet sinds vorig jaar al de ronde op TikTok, een ander sociale media-app die voornamelijk populair is bij jongeren tussen de 16-24 jaar oud. Hierdoor kwam de uitdaging terecht op tal van websites onder de noemer 'challenge'. Wanneer je een virtuele assistent zoals Alexa vraagt om een uitdaging, dan schuimt het duizenden websites af op zoek naar populaire zoekresultaten. In dit geval vond het de uitdaging om met een muntstuk een elektrisch geladen stuk metaal aan te raken. Gelukkig was het kind slim genoeg om de uitdaging niet aan te gaan en was de moeder er vlug genoeg bij om Alexa te onderbeken. Maar dit had best fout kunnen aflopen. Metaal in contact brengen met elektriciteit kan immers leiden tot levensgevaarlijke elektrische schokken en brand.


Als het slecht was afgelopen, wie (of wat) had dan verantwoordelijk geweest voor de gevolgen? Hier schuilt opnieuw (naar goede gewoonte op deze blog) een filosofische vraag achter: wanneer is iets of iemand verantwoordelijk voor een bepaalde gebeurtenis? Filosofen maken het onderscheid tussen twee vormen van verantwoordelijkheid. Je bent 'causaal verantwoordelijk' als je (al dan niet bewust) hebt bijgedragen tot de keten van gebeurtenissen die geleid hebben tot een gebeurtenis. Voor morele verantwoordelijkheid is er meer nodig dan dat. Je kan bijvoorbeeld uitglijden op een banaan en daardoor iemand onbedoeld verwonden. Je bent dan mede de oorzaak van die verwonding, maar daarom nog niet de 'schuldige' ervan. Daarom zeggen we vaak dat iemand pas moreel verantwoordelijk kan zijn als die de 'intentie' had voor een handeling of wanneer die onzorgvuldig is omgegaan met de situatie (niet kijken waar je loopt bijvoorbeeld). Je kan dan 'gestraft' worden voor wat je gedaan hebt.


Bij machines ligt de zaak al heel wat moeilijker. Kunnen we zeggen dat Alexa de 'intentie' had om het tienjarig meisje met elektriciteit te laten spelen? Is Alexa onzorgvuldig omgegaan met de zoektocht naar een leuke uitdaging? Wat het vraagstuk van morele verantwoordelijkheid bij machines of algoritmes zo moeilijk maakt, is dat het voorval waarvan sprake hier mede veroorzaakt is door tal van verschillende 'actoren'. Denk aan de ontwerpers van Alexa, de programmeurs, de zoekmachine die gebruikt werd, de personen die de 'challenge' op het internet geplaatst hebben, Amazon zelf,... Kunnen we hier wel één iemand (of iets) aanduiden die gestraft moet worden? En zullen we binnenkort machines verantwoordelijk moeten houden voor hun daden? We staan met dit kleine voorval dus voor een groot debat, dat nog lang niet opgelost lijkt.


Leven we nog in de realiteit? (En wat is dat eigenlijk?)


In oktober en november volgden we op de voet de lancering van Metaverse, de 'VR'-uitbreiding van de gekende sociale mediaplatformen, of door Zuckerberg omschreven als 'een virtuele omgeving waar je met andere mensen kan aanwezig zijn in digitale ruimtes'. Daarmee zijn grote stappen gezet in het vervagen van de grens tussen realiteit en virtualiteit. Ons 'echte' leven krijgt een plaats in virtuele werelden en virtuele realiteit wordt een deel van mens-zijn. Daarmee verbonden vervagen stilaan de grenzen tussen realiteit en fictie.


Volgens Amerikaans-Japans cybersecuritybedrijf Trend Micro zullen we voor grote uitdagingen te komen staan dankzij deze evoluties. In een rapport getiteld "Project 2030: Scenarios for the Future of Cybersecurity" nemen ze nieuwe technologieën zoals automatisering, artificiële intelligentie en deep fakes onder de loep. Deze laatste in het bijzonder lijkt zorgwekkend. Deep fakes zijn beelden die door artificiële intelligentie ontworpen zijn, maar die heel 'echt' lijken. Je herinnert je misschien onderstaand filmpje van "Mark Rutte":


Hierin krijgen we eerste minister Mark Rutte – of dat lijkt toch zo – te horen spreken over de grote bezorgdheden verbonden aan de klimaatopwarming. Hij zegt onder andere dat zijn kabinet veel te weinig actie heeft ondernomen om de klimaatcrisis tegen te gaan. Voor vele Nederlanders kwam dit als een grote verrassing: Dit kon niet echt zijn, wel? Het filmpje was inderdaad een bewerking van het journalistieke platform De Correspondent, dat daarmee een kritiek wilde uiten op het beleid van Rutte. Zij namen een bestaande opname van een toespraak van Rutte, en manipuleerden de beweging van zijn lippen en zijn stem zodat het net leek alsof hij effectief de woorden in het filmpje zei.


Deep fakes komen tegenwoordig voor in allerlei vormen. De Correspondent had duidelijk een goedbedoeld activistisch doel voor ogen, maar je ziet ook humoristisch gebruik van de technologie (bv. door "Kim Kardashian" te laten zeggen dat ze haar volgers manipuleert voor winstdoeleinden). Het kan ook anders uitdraaien. Dit jaar in april misbruikte Rusland deze deep fake technologie om een nepgesprek te laten plaatsvinden tussen Leonid Volkov, stafhoofd van Alexi Navalny, en de Commissie Buitenlandse Zaken van het Nederlandse parlement.


Misbruik van deep fake technologie vormt een ernstige bedreiging voor onze perceptie van de wereld. Het maakt het immers erg moeilijk om het onderscheid nog strak te houden tussen realiteit en fictie, maar ook om het vertrouwen in technologie te behouden. Hierin ligt een belangrijke taak weggelegd voor cybersecurity-specialisten en psychologen, zo zegt Rik Ferguson, Vice President Security Research bij Trend Micro. Maar ook filosofen zullen hierin een belangrijke rol hebben. Waar hebben we het immers over als we spreken van 'echt' en 'onecht', van 'realiteit' en 'fictie'? Wat maakt onze werkelijkheid nu zo 'werkelijk'? En hoe verschilt een virtuele wereld van die 'echte' wereld? Dit zijn erg geladen begrippen met een grote en complexe geschiedenis. Als we zinvol een blik op 2030 willen richten, zoals Trend Micro dat (terecht en kritisch) deed, moeten we begrijpen waar we het precies over hebben.


Hoe real kan Virtual Reality zijn?


We blijven in het straatje van virtuele realiteit en de vervaagde grenzen tussen realiteit, virtualiteit en fictie. We zagen net hoe digitale technologie en deep fakes het ons erg moeilijk kunnen maken, en soms zelfs schadelijk kunnen zijn. Maar gelukkig is er een keerzijde van de medaille. De afgelopen decennia hebben immers getoond dat we van virtuele werelden en simulaties net heel veel kunnen leren.


Het bekendste voorbeeld is wellicht hoe piloten leren vliegen in simulaties van vliegtuigen. Leren vliegen op een veilige manier is immers te belangrijk en te gevaarlijk om het met een echt vliegtuig te doen. Een simulatie, waarin het lijkt dat je echt in een vliegtuig zit maar zonder echt gevaar om neer te storten, is daarvoor een goede en veilige oplossing. OneBonsai, een Belgisch VR-bedrijf, gaat duwt dit soort oplossingen een stapje verder. Afgelopen week kondigde het bedrijf namelijk aan dat het een 'metaverseplatform' wil ontwikkelen voor allerlei professionele opleidingen. Denk aan branden leren blussen, gijzelingen onder controle krijgen of een operatie uitvoeren. Dit soort situaties kunnen kunnen erg risicovol zijn als ze je onder de knie wilt krijgen 'in het echt'.


Dit soort simulaties hebben als doel om échte vaardigheden aan te leren in niet-echte, virtuele omgevingen. Ook hier vervaagt het onderscheid tussen reëel en virtueel sterk. Maar zijn er grenzen aan dingen leren in virtuele omgevingen? Een VR-omgeving en de mogelijkheden daarin zijn namelijk bewust ontworpen, de echte wereld niet (tenzij je God als ontwerper neemt). Bovendien werpen zich vragen op over in welke mate je onze leefwereld kan reproduceren in een virtuele wereld. Oculus, de tak van Facebook – nu Meta – die VR-headsets ontwerpt, ontwikkelde een spel genaamd "Travelling While Black". Het spel heeft tot doel om spelers te laten voelen hoe het voelt om zwart te zijn in een racistische samenleving, en zo meer empathie en begrip op te wekken voor slachtoffers van racisme. Maar beleef je daarmee dezelfde ervaring als echte slachtoffers van racisme?


Het voelt wrang om hier deze blogpost zo af te sluiten. Er zijn nog tientallen vragen die overblijven over virtuele realiteit en de 'realiteit' tout court. Maar dat zou ons een heel encyclopedisch werk kosten (en u als lezer verdient de nodige rust). Met dit laatste artikel van 2021 wensen we je voor het nieuwe jaar alles wat u wenst, maar vooral (omdat we daar belang bij hebben) meer helderheid en praktische wijsheid over digitale technologie. We hopen je daar ook in 2022 opnieuw bij te mogen helpen!





bottom of page