top of page

Een zoomsessie met de dood: de mogelijkheden van deepfake technology

Deep-wat? Deepfake is, simpel gezegd, een computertechniek om nepcontent te maken. Met behulp van machine learning en artificiële intelligentie worden er beelden gecombineerd met elkaar waardoor het lijkt of iemand iets doet of zegt terwijl dat helemaal niet zo is. Deze techniek kent veel toepassingen in verschillende domeinen. Is deepfake een technologie om voor te juichen? Of kampt zij met ethische bezwaren waar we vooral voorzichtig mee moeten zijn?


Fake news en pornografie


Wie het woord ‘deepfake’ hoort, denkt waarschijnlijk als eerste aan fake news of pornografie. Er zijn talloze voorbeelden waarin vooral vrouwelijke celebrities het slachtoffer worden van deepfake pornografie. Vooral op Reddit, een Amerikaanse sociale nieuwswebsite, posten gebruikers deepfakes van actrices zonder diens toestemming. Volgens het onderzoeksbedrijf Deeptrace is maar liefst 96% van deepfakes pornografisch. Maar ook fake news kan gemakkelijk een eigen leven leiden dankzij fake content. In maart 2022 circuleerde er een video van de Oekraïense president Zelenskyy waarin hij zijn soldaten vroeg om de wapens neer te leggen in de strijd tegen Rusland. De video werd al snel onderschept door Twitter en Facebook, maar de mogelijke gevolgen waren groot. In deze voorbeelden is deepfake dus vooral iets om voor op te letten. We worden erdoor bedrogen, vaak zonder het te weten.


Zoomen met de dader en de dood


Gelukkig kent deepfake technologie ook mooie toepassingen. Voor het eerst kunnen slachtoffers van seksueel misbruik in gesprek gaan met een robotversie van de dader. Deze therapievorm is nog experimenteel maar de eerste resultaten zijn wel veelbelovend. Slachtoffers zouden minder hoog scoren op PTSS-kenmerken. Hoe werkt het precies? Het gesprek vindt plaats via een zoomsessie tussen de therapeut en zijn of haar patiënt. Op basis van de stem van de therapeut beweegt de mond van de simulatie van de dader. Zo kan de patiënt met hem of haar in gesprek gaan en kan de therapeut respons geven op maat van de patiënt. Vaak zijn schuldbetuigingen of verklaringen helend voor traumaverwerking.


Minnen, Agnes van, et al. "Initial development of perpetrator confrontation using deepfake technology in victims with sexual violence-related PTSD and moral injury". Frontiers in Psychiatry 13 (18 augustus 2022): 882957.

Ook mensen die kampen met het verlies van een dierbare kunnen dankzij deepfake ondersteunt worden in hun rouwproces. In de documentaire ‘deepfake therapy’ zijn we getuigen van enkele zoomsessies met een overleden persoon. Het opzet is hetzelfde als hierboven beschreven: de therapeut voert een gesprek met de patiënt via een simulatie van een persoon. Je kan de documentaire hier bekijken.


Juichen of huilen?


Deepfake is een technologie waar we voor mogen juichen én tegelijk voor moeten oppassen. De belangrijkste vraag lijkt te zijn of we weten dat we bedrogen worden. Simulaties van daders of overledenen zijn mooi omdat we ons er bewust van zijn dat er sprake is van bedrog en dat die simulaties ons verder willen helpen. Maar als simulaties ons stiekem willen misleiden, worden zij gevaarlijk.



bottom of page