Tα deepfakes είναι ψεύτικες φωτογραφίες, βίντεο ή ηχητικά αποσπάσματα, τα οποία δημιουργούνται με τη χρήση λογισμικού τεχνητής νοημοσύνης.
Η τάση για δημοσίευση στο Διαδίκτυο παραποιημένου περιεχομένου όπως τα videos δεν είναι καινούρια και χρονολογείται εδώ και αρκετά χρόνια. Όμως, αυτό που έχει αλλάξει τα τελευταία χρόνια είναι η εξέλιξη των τεχνολογικών εργαλείων και ειδικά αυτών που σχετίζονται με τη μηχανική μάθηση (machine learning) και την τεχνητή νοημοσύνη (ΑΙ) προκειμένου αυτό το παραποιημένο περιεχόμενο να μην είναι καθόλου εύκολο να το διακρίνει κανείς από το αληθινό!
Deepfakes και ΑΙ
Η πραγματικότητα είναι πως η έλευση εργαλείων GenAI που είναι διαθέσιμα και μάλιστα δωρεάν στο ευρύ κοινό έχει κάνει εύκολη τη δημιουργία. «Η ταχεία διάδοση εργαλείων τεχνητής νοημοσύνης καθιστά την παραγωγή deepfakes εύκολη και φθηνή, αυξάνοντας τον κίνδυνο χρήσης για σκοπούς που κινούνται πέρα από τη δημιουργικότητα ή τη σάτιρα. Για τον λόγο αυτό, θεωρώ κρίσιμο να αντιμετωπίσουμε το ζήτημα όχι αποσπασματικά, αλλά ως μέρος μιας ευρύτερης στρατηγικής για την ψηφιακή εμπιστοσύνη στην εποχή της τεχνητής νοημοσύνης» επισημαίνει ο κ. Καρκατζούνης.
Σύμφωνα με τον κ. Δαββέτα, οι εταιρείες που έχουν αναπτύξει εργαλεία GenAI έχουν συμπεριλάβει μέτρα προστασίας ώστε, για παράδειγμα, να μην μπορεί ένας χρήστης να παραποιεί πρόσωπα. Και είναι αρκετά δύσκολο για κάποιον που δεν έχει την απαραίτητη τεχνογνωσία να παραβιάσει αυτά τα μέτρα. «Θέλει εξειδικευμένη γνώση» σημειώνει ο ερευνητής του ΕΚΕΦΕ Δημόκριτος, επισημαίνοντας πάντως ότι αν κάποιος έχει την τεχνογνωσία και σημαντικούς πόρους θα μπορούσε να δημιουργήσει το δικό του μοντέλο για τη δημιουργία deepfakes.
Τι γίνεται στην Ελλάδα
«Στην Ελλάδα δεν είναι τόσο έντονο το φαινόμενο της χρήσης των deepfakes για κακό σκοπό, ιδίως όσον αφορά τη χρήση για πολιτικούς σκοπούς. Ότι υπάρχει είναι κυρίως από το εξωτερικό» σημειώνει ο κ. Δαββέτας, σπεύδοντας, όμως, να προσθέσει ότι αυτό δεν σημαίνει ότι δεν μπορεί να υπάρξει ξαφνικά αύξηση.
Αντιμετωπίζοντας το πρόβλημα
Το θέμα των deepfakes απασχολεί όλο και περισσότερο τους διεθνείς οργανισμούς καθώς οι επιπτώσεις που μπορεί να υπάρξουν είναι πολλαπλές. Με δεδομένο ότι το περιεχόμενο που δημιουργείται με ΑΙ εργαλεία πολλαπλασιάζεται συνεχώς οι κίνδυνοι είναι ουκ ολίγοι και μέτρα προστασίας όπως η σήμανση με υδατογραφήματα έχει αρχίσει να αποδεικνύεται ανεπαρκής. Είναι χαρακτηριστικό ότι με δεδομένο ότι στο όχι πολύ μακρινό μέλλον το ΑΙ περιεχόμενο θα αποτελεί τη συντριπτική πλειοψηφία αυτού που θα διακινείται μέσα στο Διαδίκτυο και ειδικά στα μέσα κοινωνικής δικτύωσης, πολλοί υποστηρίζουν ότι θα πρέπει να έχει σήμανση το περιεχόμενο που θα δημιουργείται από ανθρώπους ώστε να είναι πιο εύκολος ο διαχωρισμός.
Όσον αφορά την Ελλάδα, όπως αναφέρει ο κ. Καρκατζούνης «η ελληνική προσέγγιση εστιάζει στη διαφάνεια, στη νομική σαφήνεια και στην τεχνική αξιοπιστία. Υποστηρίζουμε ότι η αντιμετώπιση των deepfakes δεν μπορεί να βασιστεί αποκλειστικά σε αποσπασματικές και ευάλωτες τεχνικές, όπως τα απλά υδατογραφήματα. Αντίθετα, προτείνουμε τη χρήση ανθεκτικών και διαλειτουργικών μεθόδων πιστοποίησης της προέλευσης του περιεχομένου, σε συνδυασμό με σαφείς υποχρεώσεις διαφάνειας, κώδικες πρακτικής και αποτελεσματική εποπτεία. Στόχος μας είναι η ενίσχυση της εμπιστοσύνης χωρίς να περιορίζεται η ελευθερία της έκφρασης και η καινοτομία».
Πηγή: cnn.gr


