Από την Εργίνα Γεωργίου, προπτυχιακή φοιτήτρια της Νομικής Σχολής Αθηνών
Η απειλή να βρεθεί κανείς – χωρίς να το επιθυμεί ή να το γνωρίζει – πρωταγωνιστής σε βίντεο πορνογραφικού περιεχομένου δεν αφορά πλέον μόνο περιπτώσεις αληθινής σεξουαλικής συνεύρεσης, αλλά και «ψεύτικης», με τη βοήθεια της τεχνητής νοημοσύνης.
Τι εννοούμε, όμως, με αυτό;
Ο όρος “deepfake pornography” εξηγεί ακριβώς την κατάσταση αυτή.
Το deepfake pornography αποτελεί μια καινούρια κατηγορία fake news, συνδυάζοντας ήχο και εικόνα σε βίντεο. Χρησιμοποιείται πρωτίστως για σκοπούς μη συναινετικής πορνογραφίας, ιδίως από άνδρες αλλά και σπανιότερα από γυναίκες, ως μέσο διαδικτυακής παρενόχλησης.
Μέσω της τεχνολογίας αυτής, που αναπτύχθηκε το 2014 από τον πρώην διευθυντή του συστήματος μηχανικής μάθησης της ειδικής ομάδας της Apple, μπορεί κανείς να τοποθετήσει σε βίντεο το πρόσωπο ενός ατόμου στο σώμα κάποιου άλλου, κάνοντας ανάλογες προσαρμογές στη φωνή και τις εκφράσεις του.
Έτσι, παράγει ένα πλαστό μεν, αληθοφανές δε περιεχόμενο, ειδικά στην περίπτωση των μη παρατηρητικών θεατών, που απλώς θεωρούν ότι παρακολουθούν ένα ερασιτεχνικό, χαμηλού προϋπολογισμού πορνογραφικό βίντεο. Τα βίντεο δημιουργούνται αρκετά εύκολα από εφαρμογές ευρέως διαθέσιμες στο κοινό και διακινούνται σε ποικίλες ιστοσελίδες.
Συχνά, μάλιστα, η δυνατότητα παραγωγής τους εμφανίζεται σε διαφημίσεις σε πορνογραφικές ιστοσελίδες, ενώ οι δημιουργοί αυτών των βίντεο δέχονται και «παραγγελίες». Κάπως έτσι, εντελώς ξαφνικά, μια γυναίκα – ή ένας άντρας – που δεν έχει συμμετάσχει ποτέ σε αισθησιακή ταινία εμφανίζεται να το κάνει.
Η καθιέρωση του όρου προέκυψε το 2017 από έναν χρήστη πορνογραφικής ιστοσελίδας με όνομα λογαριασμού «deepfake», ο οποίος ανάρτησε στην πλατφόρμα ένα ψεύτικο βίντεο πορνογραφικού περιεχομένου της ηθοποιού Gal Gadot, πρωταγωνίστριας στην ταινία Wonder Woman.
Παθούσες είναι και άλλες celebrities, όπως η Emma Stone, η Natalie Portman, η Scarlett Johansson αλλά και τραγουδίστριες της Κορεάτικης K – POP σκηνής, φανερώνοντας την έκταση που έχει πάρει αυτό το φαινόμενο παγκοσμίως. Επίσης, θύματα deepfake video, όχι, όμως, πορνογραφικών είναι πολιτικά πρόσωπα, όπως ο Barack Obama και ο Donald Trump, για σκοπούς προπαγάνδας και παραπληροφόρησης. Ωστόσο, ο εντοπισμός των τελευταίων βίντεο και η διαγραφή τους από online πλατφόρμες είναι πιο εύκολη διαδικασία, συγκριτικά με αυτή για τα deepfake πορνογραφικά βίντεο.
Πάντως, το deepfake pornography απειλεί σοβαρά και ‘’καθημερινούς’’ ανθρώπους, ακόμη και ανηλίκους, για σκοπούς εκδικητικής πορνογραφίας. Εξάλλου, σύμφωνα με έρευνα του 2019, το 96% των deepfake βίντεο είναι πορνογραφικού υλικού.
Το ζητούμενο μέσω της εκδικητικής deepfake πορνογραφίας είναι η ταπείνωση του εικονιζόμενου μέσω της σεξουαλικής βίας. Εξάλλου, στο διαδίκτυο υπάρχουν πολλές ταινίες αισθησιακού περιεχομένου από ενήλικες που συγκατατίθενται στη σεξουαλική πράξη, τη βιντεοσκόπηση και την ανάρτησή της σε ανάλογη πλατφόρμα.
Συνεπώς, η ανάρτηση αναληθών και μονταρισμένων βίντεο πορνογραφικού περιεχομένου αποσκοπεί ακριβώς στην πρόκληση ντροπής του εκτιθέμενου μη συναινούντος ατόμου.
Εκτός, όμως, από τη διάδοση αναληθούς περιεχομένου, τα deepfake βίντεο προκαλούν φόβο σε όλο και περισσότερους ανθρώπους σχετικά με την προστασία της ιδιωτικότητάς τους, καθώς όλοι πλέον καθίστανται δυνητικά θύματα.
Οι επιπτώσεις είναι, δηλαδή, αντίστοιχες με αυτές της εκδικητικής διακίνησης πορνογραφικών βίντεο στα οποία απεικονίζεται η πραγματική και όχι η τεχνητή σεξουαλική συνεύρεση. Τα θύματα πολλές φορές έρχονται αντιμέτωπα με την κοινωνική κατακραυγή και ντρέπονται ακόμη και να υπερασπιστούν τον εαυτό τους. Παράλληλα, οι αποδέκτες των προβαλλόμενων μηνυμάτων μπορούν εύκολα να εξαπατηθούν και να μην καταφέρουν να διακρίνουν το αληθινό από το πλαστό, οπότε συχνά γίνονται καχύποπτοι, ενώ η αφαίρεση αυτών των βίντεο από το διαδίκτυο, που εξελίσσεται ταχύτερα από οποιαδήποτε προσπάθεια ελέγχου του, καθίσταται δυσχερής.
Οι δυνατότητες νομικής προσφυγής είναι περιορισμένες και έτσι, η εμπιστοσύνη του κοινού στην πολιτεία κλονίζεται λόγω της ανεπαρκούς νομικής προστασίας των θυμάτων.
Επεξηγηματικά, η ανεπάρκεια της ουσιαστικής προστασίας από τα deepfakes οφείλεται στο γεγονός ότι το σώμα που εμφανίζεται να συνουσιάζεται δεν είναι ο ίδιος ο προβαλλόμενος, αλλά ένας συναινών ηθοποιός. Για αυτό, αρκετοί υποστηρίζουν πως δεν είναι δυνατή η μήνυση κάποιου για τη δημόσια έκθεση της προσωπικής ζωής του εκτιθέμενου, διότι δεν πρόκειται πράγματι για τη δική του ζωή. Με άλλα λόγια, τα deepfake βίντεο αντιμετωπίζονται συχνά, τουλάχιστον προς το παρόν, περισσότερο ως ηθικά παρά ως πραγματικά σεξουαλικά εγκλήματα.
Στις Η.Π.Α. ο ποινικός κολασμός των δημιουργών των deepfake βίντεο παρουσιάζει δυσκολίες, καθώς συγκρούεται με τη συνταγματικώς κατοχυρωμένη ελεύθερη δημοκρατική έκφραση. Πάντως, σε ορισμένες πολιτείες τιμωρείται η παραγωγή και η διακίνηση deepfake βίντεο πολιτικού περιεχομένου, ενώ και η εκδικητική πορνογραφία κρίνεται ως τιμωρητέα πράξη. Εντούτοις, η απαγόρευση των μη συναινετικών deepfake βίντεο ισχύει μόνο στην Καλιφόρνια, τη Τζόρτζια, τη Νέα Υόρκη και τη Βιρτζίνια. Όμως, πολλές από τις εταιρείες, οι οποίες σχετίζονται με τις εν λόγω εφαρμογές, δεν επηρεάζονται από αυτό το νομικό πλαίσιο, διότι εδράζονται στο εξωτερικό.
Στη Μεγάλη Βρετανία επιτρέπεται η αναπαραγωγή deepfake πορνογραφικών βίντεο, υπό την προϋπόθεση της μη προσβολής ή εκβιασμού του προβαλλόμενου προσώπου. Παρ’ όλα αυτά, η κυκλοφορία αυτών των βίντεο συνήθως γίνεται ελλείψει γνώσης του θύματος, επομένως η εύρεση και η αφαίρεση του υλικού δεν είναι εύκολη. Βέβαια, έχει εκκινήσει η διαδικασία θέσπισης ενός σχετικού νομοσχεδίου για τη ρύθμιση του διαδικτυακού πλαισίου, με σκοπό την προστασία των θυμάτων.
Η προσαρμογή του, όμως, στις σύγχρονες ανάγκες των θυμάτων κρίνεται ελλιπής και μη έγκαιρη.
Στην Ευρώπη δεν διατίθεται νομικό πλαίσιο με επαρκείς κυρώσεις για την deepfake πορνογραφία, ενώ απουσιάζουν και οι εθνικές ρυθμίσεις. Μόνο ο Κώδικας Πρακτικής της Παραπληροφόρησης, που έκανε την παρθενική του εμφάνιση τον Απρίλιο του 2018 και ανανεώθηκε τον Ιούνιο του 2022, θεσπίζει ένα ευρύ φάσμα δεσμεύσεων για την απενεργοποίηση και διαγραφή αναληθών λογαριασμών και την απο-νομιμοποίηση της διασποράς παραπληροφόρησης. Πάντως, σύμφωνα με το άρθρο 346 Π.Κ., η εκδικητική πορνογραφία κολάζεται ποινικά και αποβλέπει στην αντιμετώπιση της κυκλοφορίας υλικού σχετικού με τη γενετήσια ζωή του εκτιθέμενου άνευ συναίνεσής του. Επιπλέον, η αλλοίωση της εικόνας κάποιου φυσικού προσώπου ενδεχομένως θεωρείται παραβίαση των προσωπικών δεδομένων του, βάσει του Ν. 4624/2019.
Αναφορικά με τα μέσα προστασίας από τα deepfake βίντεο πορνογραφικού περιεχομένου, η Apple και η Google αφαίρεσαν μια εφαρμογή, που υπαινισσόταν deepfake βίντεο ηθοποιών για σκοπούς διαφήμισής της, από app stores. Επιπρόσθετα, προσφάτως η Meta αλλά και ιστοσελίδες πορνογραφικού περιεχομένου, λόγου χάριν το OnlyFans και το Pornhub, ξεκίνησαν να αξιοποιούν το Take It Down, ένα διαδικτυακό εργαλείο για την αναφορά πλαστών εικόνων και βίντεο πορνό από εφήβους. Έτσι, είναι δυνατή η αφαίρεση υλικού από ποικίλες πλατφόρμες, για παράδειγμα το Facebook, Instagram, OnlyFans, Pornhub και το Tik Tok. Aντίστοιχο εργαλείο με αυτό των εφήβων είναι και το stopNCii.org για τους ενήλικες, με σκοπό την αποτροπή της εκδικητικής πορνογραφίας ή άλλης μορφής διακίνησης προσωπικού περιεχομένου άνευ συγκατάθεσης στις ίδιες πλατφόρμες.
Συμπερασματικά, η deepfake πορνογραφία αποτελεί ένα νέο πρόβλημα, με το οποίο έρχονται αντιμέτωποι οι χρήστες της τεχνολογίας. Απαραίτητη θεωρείται η τήρηση δικλείδων ασφαλείας σχετικά με τη δημιουργία deepfake βίντεο εν γένει. Σε κάθε περίπτωση χρειάζεται η εκάστοτε υπόθεση να κρίνεται ανάλογα με την ύπαρξη ή την απουσία συναίνεσης του εικονιζόμενου προσώπου. Έμφαση πρέπει να δοθεί στη διαμόρφωση νομοθετικού πλαισίου, που θα εξασφαλίζει ότι κανείς δεν θα βρεθεί ακουσίως να πρωταγωνιστεί «τεχνητά» σε αισθησιακή ταινία, χωρίς να αποδοθούν επαρκείς ποινές στον υπαίτιο δημιουργό. Διαφορετικά η «πανδημία» των πλαστών βίντεο πορνογραφικού περιεχομένου αναμένεται να πάρει ακόμη μεγαλύτερες διαστάσεις.