Ανδρέου ηλεκτρονικές απάτες

Ανοικτή επιστολή επιστημόνων: Κίνδυνος τα deepfakes – Απαιτούνται περισσότερα μέτρα

Ειδικοί επιστήμονες αλλά και στελέχη της βιομηχανίας της Τεχνητής Νοημοσύνης, μεταξύ των οποίων και ο Γιόσουα Μπέντζιο, πρωτοπόρος του συγκεκριμένου κλάδου, υπέγραψαν ανοικτή επιστολή με την οποία ζητούν περισσότερη νομοθετική ρύθμιση γύρω από τη δημιουργία deepfakes, επικαλούμενοι πιθανούς κινδύνους για την κοινωνία.

«Σήμερα, τα deepfakes συχνά περιλαμβάνουν σεξουαλικές εικόνες, απάτη ή πολιτική παραπληροφόρηση. Δεδομένου ότι η Τεχνητή Νοημοσύνη εξελίσσεται ραγδαία και καθιστά πολύ πιο εύκολη τη δημιουργία deepfakes, χρειάζονται διασφαλίσεις», αναφέρει η ομάδα στην επιστολή, την οποία συνέταξε ο Άντριου Κριτς, ερευνητής Τεχνητής Νοημοσύνης στο UC Berkeley.

Τα deepfakes είναι ρεαλιστικές αλλά κατασκευασμένες εικόνες, ηχητικά και βίντεο που δημιουργούνται από αλγορίθμους AI και οι πρόσφατες εξελίξεις στην τεχνολογία τα έχουν καταστήσει όλο και πιο δυσδιάκριτα από το περιεχόμενο που δημιουργείται από τον άνθρωπο.

Η επιστολή, με τίτλο «Disrupting the Deepfake Supply Chain», διατυπώνει συστάσεις σχετικά με τον τρόπο ρύθμισης των deepfakes, συμπεριλαμβανομένης της πλήρους ποινικοποίησης της παιδικής πορνογραφίας deepfake, των ποινικών κυρώσεων για κάθε άτομο που εν γνώσει του δημιουργεί ή διευκολύνει τη διάδοση επιβλαβών deepfakes και της απαίτησης από τις εταιρείες Τεχνητής Νοημοσύνης να αποτρέπουν τα προϊόντα τους από τη δημιουργία επιβλαβών deepfakes.

Μέχρι το πρωί της Τετάρτης, πάνω από 400 άτομα από διάφορους κλάδους, συμπεριλαμβανομένων των ακαδημαϊκών, της ψυχαγωγίας και της πολιτικής, είχαν υπογράψει την επιστολή.

Στους υπογράφοντες περιλαμβάνονται ο Steven Pinker, καθηγητής ψυχολογίας του Χάρβαρντ, η Τζόι Μπουολαμγούινι Joy Buolamwini, ιδρύτρια της Algorithmic Justice League, δύο πρώην πρόεδροι της Εσθονίας, ερευνητές της Google DeepMind και ένας ερευνητής της OpenAI.

Η διασφάλιση ότι τα συστήματα Τεχνητής Νοημοσύνης δεν βλάπτουν την κοινωνία αποτελεί προτεραιότητα για τις ρυθμιστικές αρχές από τότε που η OpenAI, η οποία υποστηρίζεται από τη Microsoft, παρουσίασε το ChatGPT στα τέλη του 2022, το οποίο εντυπωσίασε τους χρήστες εμπλέκοντάς τους σε συνομιλίες που μοιάζουν με αυτές του ανθρώπου και εκτελώντας άλλες εργασίες.

Υπήρξαν πολλαπλές προειδοποιήσεις από εξέχοντα πρόσωπα σχετικά με τους κινδύνους της τεχνητής νοημοσύνης, ιδίως μια επιστολή που υπογράφηκε από τον Elon Musk πέρυσι και η οποία ζητούσε εξάμηνη παύση στην ανάπτυξη συστημάτων ισχυρότερων από το μοντέλο Τεχνητής Νοημοσύνης GPT-4 της OpenAI.

Πηγή: liberal.gr