Μήπως παίζετε σε ερωτική ταινία και δεν το ξέρετε;


Η τρομακτική τεχνολογία του deepfake που μπορεί να τοποθετήσει το πρόσωπό σας σε οποιοδήποτε βίντεο: Διασκεδαστική εφαρμογή ή απειλή;

Ένα βίντεο ξεκινά και βλέπεις τον εαυτό σου πρωταγωνιστή σε μια ταινία πορνό. Δεν έχεις καμία ανάμνηση από αυτό όμως τα μάτια σου δεν κάνουν λάθος: είσαι εσύ στην οθόνη. Ή μήπως όχι; Καλωσήρθες στην εποχή του Deepfake.

Τα βίντεο deepfake είναι η νέα μόδα στον χώρο της τεχνολογίας. Ακόμα κι αν στην Ελλάδα δεν είναι ακόμα διαδεδομένα, σε παγκόσμιο επίπεδο εξελίσσονται τόσο πολύ που σύντομα θα μπορούν να αποτελέσουν μια πραγματική μάστιγα.

Τι είναι όμως το  deepfake

Η λέξη αποτελεί σύνθεση από το «deep learning» (γνώση εις βάθος) και το «fake» (ψεύτικο). Με τη βοήθεια της τεχνητής νοημοσύνης συνδυάζονται δυο διαφορετικές εικόνες ή φωνές για να δημιουργηθεί ένα νέο μοναδικό ενιαίο αποτέλεσμα. Έτσι, σε ένα βίντεο deepfake το πρόσωπο ενός ατόμου μπορεί να τοποθετηθεί στη θέση ενός άλλου προσώπου. Η τεχνητή νοημοσύνη «μαθαίνει» καλά τις κινήσεις του προσώπου για να εφαρμόσει πειστικά τις νέες εικόνες πάνω σε αυτό και στο τελικό αποτέλεσμα είναι δύσκολο να αντιληφθείς ότι το πρόσωπο που βλέπεις είναι «πλαστό». Σε άλλες περιπτώσεις, η τεχνητή νοημοσύνη μπορεί να «μάθει» τον ήχο και τη χροιά της φωνής ενός ατόμου καθώς και τον τρόπο που κουνά τα χείλια του μιλώντας και να δημιουργηθεί ένα βίντεο στο οποίο ο πρωταγωνιστής θα ακούγεται όπως ακριβώς μιλά αλλά θα λέει πράγματα που δεν έχει πει ποτέ.   

Έτσι, μπορεί κάποιος να τοποθετήσει το πρόσωπό του στη θέση του αγαπημένου του τραγουδιστή σε ένα βίντεο κλιπ ή να αντικαταστήσει τον πρωταγωνιστή μιας ταινίας ή ακόμα και να κάνει τον Ντόναλντ Τραμπ να λέει ότι θέλει να… παραιτηθεί! Όσο κι αν αυτό ακούγεται διασκεδαστικό, τα βίντεο deepfake δεν χρησιμοποιούνται μόνο με αυτόν τον τρόπο.

Η σκοτεινή πλευρά

Η πιο σκοτεινή χρήση τους αφορά τον τομέα της πορνογραφίας. Όσο η τεχνολογία τους προχωρά και γίνεται εύκολο ακόμα και για απλούς χρήστες μέσω εφαρμογών, όπως η κινεζική Zao, να δημιουργούν τα δικά τους βίντεο deepfake , αυξάνονται κατά κόρον ειδικά τα πορνογραφικά βίντεο με «πρωταγωνιστές» ανθρώπους που δεν έδωσαν ποτέ την συγκατάθεσή τους γι’ αυτό.

Σύμφωνα μάλιστα με μια νέα έρευνα που έδωσε τη δημοσιότητα η εταιρεία κυβερνοασφαλείας Deeptrace μέσα στους τελευταίους εννέα μόλις μήνες τα βίντεο deepfake στο διαδίκτυο διπλασιάστηκαν και έφτασαν τα 14.698, την ώρα που τον Δεκέμβριο του 2018 ήταν 7.964. 
Η έρευνα συμπεραίνει ακόμα ότι η συντριπτική πλειονότητα αυτών των βίντεο είναι πορνογραφικού περιεχομένου. Όπως αναφέρεται στην έρευνα στην κατηγορία αυτή ανήκει το 96% των βίντεο deepfake στα οποία κατά κύριο λόγο είχαν χρησιμοποιηθεί πρόσωπα διάσημων στα σώματα των πορνοστάρ που πρωταγωνιστούσαν. Συνήθως, τα θύματα ήταν Αμερικανίδες και Βρετανίδες ηθοποιοί ωστόσο υπήρχαν και πολλοί σταρ της νοτιοκορεατικής σκηνής K-Pop που  είδαν το πρόσωπό τους σε αυτά τα βίντεο.

Δεν είναι λίγα ανάμεσα στα πορνογραφικά deepfake και τα βίντεο «revenge porn» και «cyber-bullying». Πληγωμένοι πρώην εραστές  χρησιμοποιούν το πρόσωπο του/της συντρόφου τους για να τους εμφανίσουν ως πρωταγωνιστές σε βίντεο πορνό τα οποία στη συνέχεια διανέμουν στο διαδίκτυο.

Τα deepfake φαίνεται να εξελίσσονται σε μια πραγματική βιομηχανία και μάλιστα ιδιαίτερα επικερδή μιας και συνδυάζεται με το πορνό. Δεν είναι τυχαίο ότι οι τέσσερις κορυφαίες πορνογραφικές ιστοσελίδες με deepfake υλικό από τον Φεβρουάριο του 2018 έχουν καταγράψει πάνω 134 εκατομμύρια views στα βίντεό τους.

Νέα τεχνολογία, νέα εποχή

Ωστόσο, το πρόβλημα δεν σταματά εκεί. Μεγάλη ανησυχία υπάρχει για την χρήση των deepfake για προπαγανδιστικούς σκοπούς, ειδικά στην πολιτική και τη διαφήμιση.

Δεν είναι σπάνιες οι φορές που τα βίντεο αυτά χρησιμοποιώντας τεχνητές φωνές και τις εικόνες γνωστών προσώπων «χρησιμοποιήθηκαν για να επηρεάσουν την κοινή γνώμη κατά επιχειρήσεων και κυβερνήσεων», επισημαίνει ο Τζόρτζο Πατρίνι, γενικός διευθυντής της Deeptrace.

Τον Μάιο ο Ντόναλντ Τραμπ είχε ανεβάσει στο Twitter ένα βίντεο ομιλίας της Δημοκρατικής προέδρου της Βουλής των αντιπροσώπων, Νάνσι Πελόσι, στην οποία η βουλευτής κόμπιαζε σαν να ήταν μεθυσμένη και έχανε τα λόγια της. Μέσα σε λίγη ώρα το βίντεο είχε πάνω από 22.000 retweet και σχεδόν 70.000 like, ενώ το είδαν πάνω από 3,5 εκατ. φορές. Μόνο που το βίντεο ήταν προϊόν deepfake και επίτηδες παραποιημένο για να ακούγεται η Πελόσι σαν μεθυσμένη. Ο Τραμπ το κατέβασε λίγο από το λογαριασμό του.

Πριν από έναν χρόνο ο ηθοποιός Τζόρνταν Πιλ δημιούργησε ένα βίντεο deepfake στο οποίο βλέπαμε τον Μπαράκ Ομπάμα να λέει ότι θα πρέπει να είμαστε προσεκτικοί με όσα ακούμε στο διαδίκτυο, ενώ στην πραγματικότητα μιλούσε ο Πιλ μέσω της τεχνολογίας deepfake.

Στα πλαίσια διαφήμισης του καλλιτεχνικού πρότζεκτ Spectre, ο Μαρκ Ζούκερμπεργκ, ο δημιουργός του Facebook, φαίνεται να λέει: «Φανταστείτε αυτό για ένα λεπτό: ένας άνθρωπος με απόλυτο έλεγχο των κλεμμένων στοιχείων εκατομμυρίων ατόμων, όλων τους των μυστικών, της ζωής τους, του μέλλοντός τους. Τα χρωστάω όλα στο Spectre. Αυτό μου έδειξε ότι όποιος ελέγχει την πληροφορία, ελέγχει το μέλλον». Ο Ζούκερμπεργκ ποτέ δεν είπε κάτι τέτοιοι και η τεχνητή νοημοσύνη ανέλαβε να μιμηθεί τη φωνή του για να τον κάνει να πει αυτά τα λόγια. 

Πάλι στο πλαίσιο του Spectre, η Κιμ Καρντάσιαν «έλεγε» ότι δεν την νοιάζει αν την μισούν τόσοι πολλοί «γιατί αυτοί την έκαναν πιο πλούσια απ’όσο ποτέ φανταζόταν!» και στη συνέχεια λέει ότι «απολαμβάνει την διαδικασία χειραγώγησης των άλλων». Φυσικά, η ίδια ποτέ δεν εκστόμισε αυτά τα λόγια.

Κι αν όλα αυτά μέχρι στιγμής φαίνονται «αστεία» ή «αθώα», ο Χάνι Φαρίντ, καθηγητής πληροφορικής του Πανεπιστημίου Ντάρμουθ, έχει ένα πιο εφιαλτικό σενάριο: «Φανταστείτε κάποιος να δημιουργήσει ένα βίντεο του Τραμπ να λέει ότι ξεκινά επίθεση με πυρηνικά όπλα στη Βόρεια Κορέα. Το βίντεο γίνεται αμέσως viral και πριν προλάβει κάποιος να καταλάβει ότι είναι ψεύτικο έχει συντελεστεί ένα πυρηνικό ολοκαύτωμα. Δεν γίνομαι υστερικός ή υπερβολικός, αλλά νομίζω ότι όλοι μπορούμε να συμφωνήσουμε ότι αυτό δεν είναι κάτι που αποκλείεται να συμβεί», τονίζει.

Το πρόβλημα σήμερα

Παρά τους φόβους ακόμα και για… πυρηνικό ολοκαύτωμα, ο Χένρι Έιντερ, επικεφαλής ανάλυσης ερευνών στη Deeptrace, τονίζει ότι η συζήτηση γύρω από τα deepfakes χάνει την ουσία:

«Η συζήτηση είναι γύρω από την πολιτική ή τις απάτες και τις βραχυπρόθεσμες απειλές, αλλά πολλοί ξεχνούν πως η πορνογραφία είναι ένα πολύ πραγματικό φαινόμενο, ένα φαινόμενο αυτής της εποχής που βλάπτει πολλές γυναίκες» τόνισε.