Το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων δημιούργησε την ειδική ομάδα εργασίας ChatGPT πριν από ένα χρόνο για να διαπιστώσει αν ο χειρισμός των προσωπικών δεδομένων από την OpenAI ήταν σύμφωνος με τους νόμους του ΓΚΠΔ. Μια έκθεση που περιγράφει τα προκαταρκτικά ευρήματα έχει τώρα κυκλοφορήσει.
Η ΕΕ είναι εξαιρετικά αυστηρή όσον αφορά τον τρόπο χρήσης των προσωπικών δεδομένων των πολιτών της, με τους κανόνες του ΓΚΠΔ να καθορίζουν ρητά τι μπορούν και τι δεν μπορούν να κάνουν οι εταιρείες με αυτά τα δεδομένα. Συμμορφώνονται οι εταιρείες τεχνητής νοημοσύνης όπως η OpenAI με αυτούς τους νόμους όταν χρησιμοποιούν δεδομένα κατά την εκπαίδευση και τη λειτουργία των μοντέλων τους; Ένα χρόνο αφότου η ειδική ομάδα εργασίας ChatGPT ξεκίνησε τις εργασίες της, η σύντομη απάντηση είναι: ίσως, ίσως όχι.
Η έκθεση αναφέρει ότι δημοσίευε προκαταρκτικά ευρήματα και ότι «δεν είναι ακόμη δυνατό να δοθεί πλήρης περιγραφή των αποτελεσμάτων». Οι τρεις κύριοι τομείς που διερεύνησε η ειδική ομάδα ήταν η νομιμότητα, η δικαιοσύνη και η ακρίβεια.
Νομιμότητα
Για τη δημιουργία των μοντέλων της, η OpenAI συνέλεξε δημόσια δεδομένα, τα φιλτράρισε, τα χρησιμοποίησε για να εκπαιδεύσει τα μοντέλα της και συνεχίζει να εκπαιδεύει τα μοντέλα της με υποδείξεις χρηστών. Είναι αυτό νόμιμο στην Ευρώπη; Η απόξεση ιστού της OpenAI αναπόφευκτα συλλέγει προσωπικά δεδομένα. Ο ΓΚΠΔ λέει ότι μπορείτε να χρησιμοποιείτε αυτές τις πληροφορίες μόνο όταν υπάρχει έννομο συμφέρον και να λαμβάνετε υπόψη τις εύλογες προσδοκίες που έχουν οι άνθρωποι σχετικά με τον τρόπο χρήσης των δεδομένων τους.
Η OpenAI λέει ότι τα μοντέλα της συμμορφώνονται με το άρθρο 6 παράγραφος 1 στοιχείο στ) του ΓΚΠΔ, το οποίο αναφέρει εν μέρει ότι η χρήση δεδομένων προσωπικού χαρακτήρα είναι νόμιμη όταν «η επεξεργασία είναι απαραίτητη για τους σκοπούς των έννομων συμφερόντων που επιδιώκει ο υπεύθυνος επεξεργασίας ή τρίτος». Η έκθεση αναφέρει ότι «θα πρέπει να λαμβάνονται μέτρα για τη διαγραφή ή την ανωνυμοποίηση των δεδομένων προσωπικού χαρακτήρα που έχουν συλλεχθεί μέσω web scraping πριν από το στάδιο της κατάρτισης».
Το OpenAI λέει ότι έχει εφαρμόσει μέτρα προστασίας προσωπικών δεδομένων, αλλά η ομάδα εργασίας αναφέρει ότι «το βάρος της απόδειξης της αποτελεσματικότητας των μέτρων αυτών ανήκει στο OpenAI».
Δικαιοσύνη
Όταν οι πολίτες της ΕΕ αλληλεπιδρούν με εταιρείες, προσδοκούν ότι τα προσωπικά τους δεδομένα τυγχάνουν ορθού χειρισμού. Είναι δίκαιο το γεγονός ότι το ChatGPT έχει μια ρήτρα στους Όρους και Προϋποθέσεις που λέει ότι οι χρήστες είναι υπεύθυνοι για τα δεδομένα που εισάγουν στη συνομιλία τους; Ο ΓΚΠΔ λέει ότι ένας οργανισμός δεν μπορεί να μεταφέρει την ευθύνη συμμόρφωσης με τον ΓΚΠΔ στον χρήστη.
Η έκθεση αναφέρει ότι αν «το ChatGPT διατίθεται στο κοινό, θα πρέπει να υποτεθεί ότι τα άτομα αργά ή γρήγορα θα εισάγουν προσωπικά δεδομένα. Εάν αυτές οι εισροές γίνουν στη συνέχεια μέρος του μοντέλου δεδομένων και, για παράδειγμα, κοινοποιηθούν σε οποιονδήποτε θέτει μια συγκεκριμένη ερώτηση, η OpenAI παραμένει υπεύθυνη για τη συμμόρφωση με τον ΓΚΠΔ και δεν θα πρέπει να ισχυριστεί ότι η εισαγωγή ορισμένων προσωπικών δεδομένων απαγορεύτηκε εξαρχής».
Η έκθεση καταλήγει στο συμπέρασμα ότι η OpenAI πρέπει να είναι διαφανής, λέγοντας ρητά στους χρήστες ότι οι προτροπές που εισάγουν μπορεί να χρησιμοποιηθούν για σκοπούς εκπαίδευσης.
Ακρίβεια
Τα μοντέλα τεχνητής νοημοσύνης όταν δεν ξέρουν την απάντηση, μερικές φορές απλά επινοούν κάτι. Όταν παραδίδει εσφαλμένα στοιχεία για τα άτομα, το ChatGPT παραβιάζει την απαίτηση του ΓΚΠΔ για την ακρίβεια των προσωπικών δεδομένων.
Η έκθεση σημειώνει ότι «τα αποτελέσματα που παρέχει το ChatGPT είναι πιθανό να θεωρηθούν από τους τελικούς χρήστες ως πραγματικά ακριβή, συμπεριλαμβανομένων των πληροφοριών που αφορούν άτομα, ανεξάρτητα από την πραγματική τους ακρίβεια». Παρόλο που το ChatGPT προειδοποιεί τους χρήστες ότι μερικές φορές κάνει λάθη, η ειδική ομάδα αναφέρει ότι αυτό «δεν αρκεί για να συμμορφωθεί με την αρχή της ακρίβειας των δεδομένων».
Το OpenAI αντιμετωπίζει μήνυση επειδή το ChatGPT κάνει συνεχώς λάθος στην ημερομηνία γέννησης ενός αξιοσημείωτου δημόσιου προσώπου.
Η εταιρεία δήλωσε στην υπεράσπισή της ότι το πρόβλημα δεν μπορεί να διορθωθεί και ότι οι άνθρωποι θα πρέπει να ζητήσουν να διαγραφούν όλες οι αναφορές σε αυτούς από το μοντέλο αντί γι’ αυτό. Τον περασμένο Σεπτέμβριο, η OpenAI ίδρυσε μια ιρλανδική νομική οντότητα στο Δουβλίνο, η οποία υπάγεται πλέον στην Επιτροπή Προστασίας Δεδομένων της Ιρλανδίας (DPC). Αυτό τη θωρακίζει από μεμονωμένες προκλήσεις του GDPR των κρατών μελών της ΕΕ.
Θα διατυπώσει νομικά δεσμευτικές διαπιστώσεις η ειδική ομάδα εργασίας ChatGPT στην επόμενη έκθεσή της; Θα μπορούσε η OpenAI να συμμορφωθεί, ακόμη και αν το ήθελε; Στην τρέχουσα μορφή τους, το ChatGPT και άλλα μοντέλα μπορεί να μην είναι ποτέ σε θέση να συμμορφωθούν πλήρως με τους κανόνες προστασίας της ιδιωτικής ζωής που γράφτηκαν πριν από την έλευση της τεχνητής νοημοσύνης.
Σχετικά άρθρα
Meta και XGS Energy συνεργάζονται για γεωθερμικό έργο 150 MW
Μπορεί η τεχνητή νοημοσύνη να σώσει τη σχέση σου; Ίσως όχι
Νέα χρονολόγηση των χειρογράφων της νεκράς θάλασσας με το AI
Χρειάζεται το AI σώμα για να κατανοήσει τον κόσμο;
Εξατομικευμένος ήχος χωρίς ακουστικά
Elon Musk: Δικαστική παρέμβαση κατά της κερδοσκοπικής πορείας του OpenAI