Nieuws

Fake pornovideo's zijn nu een ding en Gal Gadot is het eerste slachtoffer

Alsof beschuldigingen van seksuele intimidatie in het echte leven nog niet genoeg waren, heeft iemand een manier gevonden om ook valse beschuldigingen te maken, een beetje.



Nadat ze veel waardering heeft gekregen voor haar vertolking van 'Wonder Woman', haalt Gal Gadot opnieuw de krantenkoppen, maar om de verkeerde redenen. En het is ook helemaal niet haar schuld.

Een nepporno-video die blijkbaar laat zien dat de actrice seks heeft met haar 'stiefbroer' doet de ronde. Maar het is niet haar lichaam, en het is zelfs nauwelijks haar gezicht. Het is gewoon een face-swap waardoor het lijkt alsof ze deel uitmaakt van deze porno met incestthema.





Fake pornovideo

De vooruitgang in technologie is geweldig en zo, maar alles heeft zijn nadelen, en dit is nogal vreselijk. Volgens Moederbord, deze specifieke video is gemaakt met behulp van een algoritme voor machine learning, samen met gemakkelijk toegankelijke materialen en open-sourcecode die iedereen met een praktische kennis van deep learning-algoritmen kan samenstellen. Klinkt echt eng, nietwaar?



Naar verluidt is de video gemaakt door een gebruiker genaamd Deepfakes, die blijkbaar een open-source machine learning-tool zoals TensorFlow gebruikte, die gratis beschikbaar is op Google voor onderzoekers, afgestudeerde studenten en iedereen die geïnteresseerd is in machine learning. Ook al is het niet perfect, want als je goed kijkt, kun je zien dat het gezicht niet goed volgt, maar het zou op het eerste gezicht iedereen voor de gek houden.

Dit algoritme kan een opgenomen video verwisselen met realtime gezichtsherkenning, en het lijkt erop dat deze video slechts het begin is van deze AI-nachtmerrie. Deze amateurvideo heeft zorgwekkende implicaties en binnenkort leven we in een wereld waarin het buitengewoon eenvoudig is om video's te maken van mensen die dingen zeggen en doen die ze eigenlijk nooit hebben gedaan.

Fake pornovideo



Eigenlijk, denk eraan, het is niet alleen het begin met het gebruik van deze face-swapping-technologie, de gebruiker Deepfakes heeft al hardcore pornovideo's gepost met de gezichten van Scarlett Johansson, Maisie Williams, Taylor Swift en Aubrey Plaza.

Het is waar dat kunstmatige intelligentie (AI) de toekomst is, maar het kan fout gaan, oh zo fout, en deze nepporno-video's zijn daar een goed voorbeeld van.

AI-onderzoeker Alex Champandard vertelde Motherboard: Iedereen moet weten hoe gemakkelijk het is om afbeeldingen en video's te vervalsen, tot het punt waarop we vervalsingen over een paar maanden niet meer kunnen onderscheiden. Dit was natuurlijk lange tijd mogelijk, maar het zou veel middelen en professionals in visuele effecten hebben gekost om dit voor elkaar te krijgen. Nu kan het worden gedaan door een enkele programmeur met recente computerhardware.

Hij voegde eraan toe: dit is niet langer rocket science.

Fake pornovideo

Deepfakes is gewoon een programmeur met interesse in machine learning, en legde uit hoe hij het deed, ik heb zojuist een slimme manier gevonden om face-swap te doen. Met honderden gezichtsafbeeldingen kan ik gemakkelijk miljoenen vervormde afbeeldingen genereren om het netwerk te trainen. Als ik het netwerk daarna het gezicht van iemand anders voed, zal het netwerk denken dat het gewoon weer een vervormd beeld is en proberen het eruit te laten zien als het trainingsgezicht.

Er is geen probleem met porno, maar deze nepvideo's halen één essentieel ding uit het hele concept - toestemming. Het maken van dergelijke video's met iedereen - niet alleen met beroemdheden - neemt de toestemming zo gemakkelijk weg, vooral als we in het tijdperk van sociale media leven en iedereen graag alles deelt, en het is alsof niemand meer veilig is.

Wat denk je er van?

Begin een gesprek, geen vuur. Post met vriendelijkheid.

Plaats een reactie