H OpenAI βρέθηκε στο επίκεντρο κριτικής όταν αποκαλύφθηκε ότι προσωπικές συνομιλίες χρηστών από το ChatGPT εμφανίζονταν σε αποτελέσματα αναζήτησης της Google. Το πρόβλημα δεν προέκυψε από διαρροή ή χάκινγκ, αλλά από μια παρεξηγημένη λειτουργία διαμοιρασμού που υπήρχε στην πλατφόρμα.
Η OpenAI είχε προσθέσει στο ChatGPT μια επιλογή “Κοινοποίηση”, που επέτρεπε στους χρήστες να στείλουν μια συνομιλία μέσω συνδέσμου (link). Μέσα σε αυτή τη λειτουργία υπήρχε και μια προαιρετική επιλογή: “Κάντε αυτή τη συνομιλία ανιχνεύσιμη”.
Σε μικρότερο, λιγότερο εμφανές κείμενο εξηγούταν ότι αυτό σήμαινε πως η συνομιλία θα μπορούσε να εμφανιστεί σε μηχανές αναζήτησης, όπως η Google.
Πολλοί χρήστες:
- παρερμήνευσαν τη λειτουργία, θεωρώντας ότι απλώς έστελναν ένα link ιδιωτικά,
- δεν διάβασαν ή δεν αντιλήφθηκαν τη σημασία του όρου “ανιχνεύσιμη” (discoverable),
- μοιράστηκαν ευαίσθητο περιεχόμενο πιστεύοντας ότι παραμένει ιδιωτικό.
Αποτέλεσμα; Συνομιλίες που περιλάμβαναν προσωπικά δεδομένα, θέματα ψυχικής υγείας, ιατρικές απορίες ή ευαίσθητες πληροφορίες, εμφανίστηκαν δημόσια στην Google και μπορούσε να τις δει οποιοσδήποτε έκανε σχετική αναζήτηση.
Η εταιρεία, μετά από σχετικό ρεπορτάζ του Fast Company και την κατακραυγή στα κοινωνικά δίκτυα, αφαίρεσε αμέσως τη λειτουργία. Ο επικεφαλής ασφαλείας της OpenAI, Dane Stuckey, παραδέχτηκε ότι η λειτουργία «δημιούργησε πολλές ευκαιρίες για ακούσια κοινοποίηση» και χαρακτήρισε το χαρακτηριστικό «ένα σύντομο πείραμα που απέτυχε».
Παράλληλα, η ομάδα της OpenAI ξεκίνησε διαδικασία για να αφαιρεθούν οι indexed (ευρετηριασμένες) συνομιλίες από τη Google και άλλες μηχανές αναζήτησης.
Η Rachel Tobac, αναλύτρια κυβερνοασφάλειας, χαιρέτισε την ταχύτητα της αντίδρασης:
«Είναι θετικό να βλέπουμε μια τεχνολογική εταιρεία να ενεργεί άμεσα για να προστατεύσει την ιδιωτικότητα των χρηστών.»
Ωστόσο, η καθηγήτρια Carissa Véliz από το Πανεπιστήμιο της Οξφόρδης εξέφρασε ανησυχίες για την πρακτική των «πειραμάτων» στις πλάτες των χρηστών:
«Οι τεχνολογικές εταιρείες χρησιμοποιούν τους χρήστες ως πειραματόζωα. Δοκιμάζουν λειτουργίες και περιμένουν να δουν αν θα υπάρξει αντίδραση.»
Το περιστατικό αποτελεί σημαντική υπενθύμιση για τους κινδύνους που ενέχει η κακή σχεδίαση λειτουργιών σε εφαρμογές τεχνητής νοημοσύνης, ειδικά όταν αγγίζουν την ιδιωτικότητα. Οι χρήστες καλούνται να είναι προσεκτικοί με τις ρυθμίσεις διαμοιρασμού και οι εταιρείες να αναλαμβάνουν μεγαλύτερη ευθύνη για την προστασία των δεδομένων.
Σχετικά άρθρα
Ο Sam Altman εισέρχεται στον χώρο των εγκεφαλικών εμφυτευμάτων με την Merge Labs
OpenAI: Παρουσίασε επίσημα το GPT-5
Sam Altman: Η φωνητική ταυτοποίηση είναι πλέον επικίνδυνη
ChatGPT: Πάνω από 2,5 δις ερωτήσεις την ημέρα
AI χωρίς διαφάνεια: Γιατί ειδικοί από OpenAI, Google και Meta ανησυχούν
Το AI νίκησε 30 από τους κορυφαίους μαθηματικούς του κόσμου
Νέα λειτουργία ChatGPT: Τι είναι το Study Together;
Το πραξικόπημα στην OpenAI γίνεται ταινία
Elon Musk: Δικαστική παρέμβαση κατά της κερδοσκοπικής πορείας του OpenAI
Η Microsoft υποχωρεί αιφνιδιαστικά από τη θέση της στο διοικητικό συμβούλιο του OpenAI