Πολλοί υπάλληλοι της επιχείρησης ημιαγωγών της Samsung με έδρα την Κορέα έβαλαν γραμμές εμπιστευτικού κώδικα στο ChatGPT, διαρρέοντας ουσιαστικά εταιρικά μυστικά που θα μπορούσαν να συμπεριληφθούν στις μελλοντικές απαντήσεις του chatbot σε άλλους ανθρώπους σε όλο τον κόσμο.
Ένας υπάλληλος αντέγραψε προβληματικό πηγαίο κώδικα από μια βάση δεδομένων ημιαγωγών στο chatbot και του ζήτησε να εντοπίσει μια διόρθωση, σύμφωνα με το The Economist Korea. Ένας άλλος υπάλληλος έκανε το ίδιο για ένα διαφορετικό κομμάτι εξοπλισμού, ζητώντας “βελτιστοποίηση κώδικα” από το ChatGPT. Αφού ένας τρίτος υπάλληλος ζήτησε από το μοντέλο τεχνητής νοημοσύνης να συνοψίσει τις σημειώσεις της συνεδρίας, επενέβησαν τα στελέχη της Samsung. Η εταιρεία περιόρισε την προτροπή κάθε υπαλλήλου προς το ChatGPT σε 1.024 bytes.
Μόλις τρεις εβδομάδες νωρίτερα, η Samsung είχε άρει την απαγόρευση χρήσης του ChatGPT από τους υπαλλήλους της λόγω ανησυχιών γύρω από αυτό το θέμα. Μετά τα πρόσφατα περιστατικά, εξετάζει την επαναφορά της απαγόρευσης, καθώς και την επιβολή πειθαρχικών κυρώσεων στους υπαλλήλους, αναφέρει το The Economist Korea.
“Εάν συμβεί ένα παρόμοιο ατύχημα ακόμη και μετά τη λήψη έκτακτων μέτρων προστασίας των πληροφοριών, η πρόσβαση στο ChatGPT μπορεί να μπλοκαριστεί στο δίκτυο της εταιρείας”, αναφέρεται σε εσωτερικό υπόμνημα. “Μόλις εισαχθεί περιεχόμενο στο ChatGPT, τα δεδομένα μεταδίδονται και αποθηκεύονται σε εξωτερικό διακομιστή, καθιστώντας αδύνατη την ανάκτησή τους από την εταιρεία”.
Ο οδηγός χρήσης του OpenAI προειδοποιεί τους χρήστες κατά αυτής της συμπεριφοράς: “Δεν είμαστε σε θέση να διαγράψουμε συγκεκριμένες προτροπές από το ιστορικό σας. Παρακαλούμε να μην μοιράζεστε ευαίσθητες πληροφορίες στις συνομιλίες σας”. Αναφέρει επίσης ότι το σύστημα χρησιμοποιεί όλες τις ερωτήσεις και το κείμενο που του υποβάλλονται ως δεδομένα εκπαίδευσης.
Η χρήση των chatbots για την εύρεση και τη διόρθωση προβληματικού κώδικα έχει γίνει διαδεδομένη στη μηχανική λογισμικού. Εάν οι χρήστες θέσουν μια ερώτηση κωδικοποίησης, προσπαθεί να εντοπίσει τη λύση και παρέχει ένα απόσπασμα κώδικα με ένα κουμπί αντιγραφής και επικόλλησης με ένα κλικ. Οι γνώσεις κωδικοποίησης του ChatGPT είναι προφανώς αρκετές για να προσληφθεί στην Google ως μηχανικός λογισμικού επιπέδου 3.
Το ChatGPT προτείνει μια διόρθωση κώδικα και παρέχει ένα απόσπασμα κώδικα για αντιγραφή και επικόλληση. (Credit: ChatGPT, Emily Dreibelbis)
Αυτό μπορεί να εκμηδενίσει τον χρόνο που ξοδεύουν οι μηχανικοί σερφάροντας σε ιστότοπους όπως το Stack Overflow, μια δημοφιλής πηγή στην οποία στρέφονται οι μηχανικοί για την αντιμετώπιση προβλημάτων. Ως απόδειξη των υψηλών ποσοστών χρήσης του ChatGPT από τους μηχανικούς λογισμικού, το Stack Overflow απαγόρευσε το ChatGPT λίγες ημέρες μετά την κυκλοφορία του στις 30 Νοεμβρίου 2022 λόγω ανησυχιών για ανακριβείς απαντήσεις που φαίνονται πιστευτές.
“Το πρωταρχικό πρόβλημα είναι ότι ενώ οι απαντήσεις που παράγει το ChatGPT έχουν υψηλό ποσοστό λανθασμένων απαντήσεων, συνήθως φαίνονται σαν να είναι καλές και οι απαντήσεις είναι πολύ εύκολο να παραχθούν”, αναφέρει το Stack Overflow σε μια ανάρτηση που ενημερώθηκε πριν από τέσσερις ημέρες. “Ο όγκος αυτών των απαντήσεων (χιλιάδες)… έχει ουσιαστικά κατακλύσει την υποδομή εθελοντικής ποιοτικής επιμέλειας”.
Η Samsung φέρεται να εξετάζει το ενδεχόμενο να κατασκευάσει τη δική της AI για να αποτρέψει μελλοντικά ατυχήματα, αν και οι μηχανικοί θα μπορούσαν πιθανότατα να παρακάμψουν οποιαδήποτε μέτρα χρησιμοποιώντας το ChatGPT σε προσωπικές συσκευές. Το Microsoft Bing και το Google Bard μπορούν επίσης να ανιχνεύσουν σφάλματα σε γραμμές κώδικα, οπότε η απαγόρευση του ChatGPT δεν είναι μια αλεξίσφαιρη λύση.
Πηγή: gr.pcmag.com