Τα deepfakes δημιουργούν… πονοκεφάλους και στην Ελλάδα

Tα deepfakes είναι ψεύτικες φωτογραφίες, βίντεο ή ηχητικά αποσπάσματα, τα οποία δημιουργούνται με τη χρήση λογισμικού τεχνητής νοημοσύνης.

Η τάση για δημοσίευση στο Διαδίκτυο παραποιημένου περιεχομένου όπως τα videos δεν είναι καινούρια και χρονολογείται εδώ και αρκετά χρόνια. Όμως, αυτό που έχει αλλάξει τα τελευταία χρόνια είναι η εξέλιξη των τεχνολογικών εργαλείων και ειδικά αυτών που σχετίζονται με τη μηχανική μάθηση (machine learning) και την τεχνητή νοημοσύνη (ΑΙ) προκειμένου αυτό το παραποιημένο περιεχόμενο να μην είναι καθόλου εύκολο να το διακρίνει κανείς από το αληθινό!

Ο λόγος για τα αποκαλούμενα deepfakes, έναν όρο που αναφέρεται σε ψηφιακά αρχεία, κυρίως video ή ηχητικά, που έχουν υποστεί αλλοίωση μέσω προηγμένων τεχνολογιών τεχνητής νοημοσύνης, με σκοπό να εμφανίζουν πρόσωπα ή φωνές να λένε ή να κάνουν πράγματα που στην πραγματικότητα δεν συνέβησαν. Σε διεθνές επίπεδο, τα deepfakes έχουν χρησιμοποιηθεί και συνεχίζουν να χρησιμοποιούνται αρκετά για οικονομικές απάτες αλλά και για επηρεασμό των πολιτών για πολιτικά θέματα. Και εκεί είναι το σημείο που τα deepfakes αρχίζουν να γίνονται επικίνδυνα με αποτέλεσμα πολλοί να έχουν αρχίσει να χτυπούν τον κώδωνα του κινδύνου και στην Ελλάδα.

Deepfakes και ΑΙ

Ένα ενδιαφέρον σημείο είναι ότι τα deepfakes δεν εμφανίστηκαν λόγω των general purpose AI. Μάλιστα, ο όρος έχει τη βάση του στη «βαθιά μηχανική μάθηση» (deep machine learning), ήτοι στις τεχνολογίες εκείνες που αποτελούν τη βάση για τα σύγχρονα εργαλεία τεχνητής νοημοσύνης. «Ο λόγος που μοιάζουν με πραγματικά τα deepfakes είναι γιατί τα νευρωνικά δίκτυα που χρησιμοποιούνται για την παραγωγή τους αποτελούνται από πολλαπλά επίπεδα, ικανά να δημιουργήσουν περίπλοκες αναπαραστάσεις» εξηγεί στο CNN Greece ο Θανάσης Δαββέτας, ερευνητής στο Ινστιτούτο Πληροφορικής και Τηλεπικοινωνιών του ΕΚΕΦΕ Δημόκριτος, και μέλος της ομάδας AI Politeia που διερευνά πώς μπορεί να διασφαλιστεί ένα υπεύθυνο, βιώσιμο και αξιόπιστο τεχνολογικό μέλλον, ηθικό και εκδημοκρατισμένο, προς όφελος όλων και του κοινού καλού. «Η αναγνώριση των deepfakes εξαρτάται από την ποιότητα του παραγόμενου περιεχομένου, κάποια αναγνωρίζονται εύκολα, ενώ κάποια άλλα μπορεί να απαιτούν διεξοδική μελέτη. Σε κάθε περίπτωση η θεματική και το πλαίσιο δημοσίευσης μπορεί να αποτελούν κάποιες ενδείξεις.» σπεύδει να προσθέσει ο κ. Δαββέτας.

Η πραγματικότητα είναι πως η έλευση εργαλείων GenAI που είναι διαθέσιμα και μάλιστα δωρεάν στο ευρύ κοινό έχει κάνει εύκολη τη δημιουργία. «Η ταχεία διάδοση εργαλείων τεχνητής νοημοσύνης καθιστά την παραγωγή deepfakes εύκολη και φθηνή, αυξάνοντας τον κίνδυνο χρήσης για σκοπούς που κινούνται πέρα από τη δημιουργικότητα ή τη σάτιρα. Για τον λόγο αυτό, θεωρώ κρίσιμο να αντιμετωπίσουμε το ζήτημα όχι αποσπασματικά, αλλά ως μέρος μιας ευρύτερης στρατηγικής για την ψηφιακή εμπιστοσύνη στην εποχή της τεχνητής νοημοσύνης» επισημαίνει ο κ. Καρκατζούνης.

Σύμφωνα με τον κ. Δαββέτα, οι εταιρείες που έχουν αναπτύξει εργαλεία GenAI έχουν συμπεριλάβει μέτρα προστασίας ώστε, για παράδειγμα, να μην μπορεί ένας χρήστης να παραποιεί πρόσωπα. Και είναι αρκετά δύσκολο για κάποιον που δεν έχει την απαραίτητη τεχνογνωσία να παραβιάσει αυτά τα μέτρα. «Θέλει εξειδικευμένη γνώση» σημειώνει ο ερευνητής του ΕΚΕΦΕ Δημόκριτος, επισημαίνοντας πάντως ότι αν κάποιος έχει την τεχνογνωσία και σημαντικούς πόρους θα μπορούσε να δημιουργήσει το δικό του μοντέλο για τη δημιουργία deepfakes.

Τι γίνεται στην Ελλάδα

Αυτό που πρέπει να επισημανθεί είναι πως σε παγκόσμιο επίπεδο υπάρχει μεγάλη κατανάλωση περιεχομένου το οποίο έχει δημιουργηθεί με λογική deepfake αλλά πρόκειται κυρίως για αστεία videos που έχουν μεγάλη κατανάλωση καθώς δημιουργούν μία συναισθηματική σύνδεση μεταξύ του δημιουργού και του χρήστη. Τα videos με ζώα ή με μικρά παιδιά που κάνουν διάφορα αστεία είναι εξαιρετικά δημοφιλή. Όπως είναι και videos που δημιουργούνται αναπαραστάσεις γεγονότων του παρελθόντος αλλά και ΑΙ παραγωγές ιστοριών που και εμπλέκουν πραγματικά πρόσωπα μεν που εμφανίζονται σε αστείες καταστάσεις.

«Στην Ελλάδα δεν είναι τόσο έντονο το φαινόμενο της χρήσης των deepfakes για κακό σκοπό, ιδίως όσον αφορά τη χρήση για πολιτικούς σκοπούς. Ότι υπάρχει είναι κυρίως από το εξωτερικό» σημειώνει ο κ. Δαββέτας, σπεύδοντας, όμως, να προσθέσει ότι αυτό δεν σημαίνει ότι δεν μπορεί να υπάρξει ξαφνικά αύξηση.

Από την άλλη πλευρά, όμως, έχουμε δει ουκ ολίγες περιπτώσεις χρήσης deepfakes videos όπου εμφανίζονται προσωπικότητες της πολιτικής σκηνής ή καλλιτέχνες και αθλητές και προωθούν συγκεκριμένα προϊόντα με τα κρυπτονομίσματα να είναι ψηλά στη συγκεκριμένη λίστα. Εκεί εστιάζεται αυτή τη στιγμή το πρόβλημα, το οποίο εντείνεται από το γεγονός ότι στην Ελλάδα υπάρχει ένα σχετικά υψηλό ποσοστό ψηφιακούς αναλφαβητισμού. Κάτι που πρακτικά σημαίνει ότι πολλοί Έλληνες δεν καταλαβαίνουν τις διαφορές μεταξύ deepfake και αληθινού περιεχομένου με αποτέλεσμα να πέφτουν ακόμη και θύματα απάτης. «Πρέπει να είμαστε λίγο πιο υποψιασμένοι» τονίζει ο κ. Δαββέτας.

Αντιμετωπίζοντας το πρόβλημα

Το θέμα των deepfakes απασχολεί όλο και περισσότερο τους διεθνείς οργανισμούς καθώς οι επιπτώσεις που μπορεί να υπάρξουν είναι πολλαπλές. Με δεδομένο ότι το περιεχόμενο που δημιουργείται με ΑΙ εργαλεία πολλαπλασιάζεται συνεχώς οι κίνδυνοι είναι ουκ ολίγοι και μέτρα προστασίας όπως η σήμανση με υδατογραφήματα έχει αρχίσει να αποδεικνύεται ανεπαρκής. Είναι χαρακτηριστικό ότι με δεδομένο ότι στο όχι πολύ μακρινό μέλλον το ΑΙ περιεχόμενο θα αποτελεί τη συντριπτική πλειοψηφία αυτού που θα διακινείται μέσα στο Διαδίκτυο και ειδικά στα μέσα κοινωνικής δικτύωσης, πολλοί υποστηρίζουν ότι θα πρέπει να έχει σήμανση το περιεχόμενο που θα δημιουργείται από ανθρώπους ώστε να είναι πιο εύκολος ο διαχωρισμός.

Όσον αφορά την Ελλάδα, όπως αναφέρει ο κ. Καρκατζούνης «η ελληνική προσέγγιση εστιάζει στη διαφάνεια, στη νομική σαφήνεια και στην τεχνική αξιοπιστία. Υποστηρίζουμε ότι η αντιμετώπιση των deepfakes δεν μπορεί να βασιστεί αποκλειστικά σε αποσπασματικές και ευάλωτες τεχνικές, όπως τα απλά υδατογραφήματα. Αντίθετα, προτείνουμε τη χρήση ανθεκτικών και διαλειτουργικών μεθόδων πιστοποίησης της προέλευσης του περιεχομένου, σε συνδυασμό με σαφείς υποχρεώσεις διαφάνειας, κώδικες πρακτικής και αποτελεσματική εποπτεία. Στόχος μας είναι η ενίσχυση της εμπιστοσύνης χωρίς να περιορίζεται η ελευθερία της έκφρασης και η καινοτομία».

Πηγή: cnn.gr