Το διοικητικό συμβούλιο του OpenAI συγκροτεί επιτροπή ασφάλειας και προστασίας

Το διοικητικό συμβούλιο του OpenAI ανακοίνωσε τον σχηματισμό μιας Επιτροπής Ασφάλειας και Προστασίας, η οποία έχει αναλάβει να διατυπώνει συστάσεις σχετικά με κρίσιμες αποφάσεις για την ασφάλεια και την προστασία όλων των έργων του OpenAI. Της επιτροπής ηγούνται οι διευθυντές Bret Taylor (πρόεδρος), Adam D’Angelo, Nicole Seligman και ο διευθύνων σύμβουλος του OpenAI Sam Altman.

Στην επιτροπή θα συμμετέχουν επίσης οι Aleksander Madry (επικεφαλής του τμήματος ετοιμότητας), Lilian Weng (επικεφαλής του τμήματος συστημάτων ασφαλείας), John Schulman (επικεφαλής του τμήματος επιστήμης ευθυγράμμισης), Matt Knight (επικεφαλής του τμήματος ασφάλειας) και Jakub Pachocki (επικεφαλής επιστήμονας).

Η προσέγγιση του OpenAI για την ασφάλεια της τεχνητής νοημοσύνης έχει αντιμετωπίσει τόσο εξωτερική όσο και εσωτερική κριτική. Η περσινή απόλυση του Altman υποστηρίχθηκε από το τότε μέλος του διοικητικού συμβουλίου Ilya Sutskever και άλλους, δήθεν για λόγους ασφαλείας. Την περασμένη εβδομάδα ο Sutskever και ο Jan Leike από την ομάδα “υπεροχής” της OpenAI αποχώρησαν από την εταιρεία. Ο Leike σημείωσε συγκεκριμένα τα θέματα ασφάλειας ως λόγο της αποχώρησής του, λέγοντας ότι η εταιρεία άφηνε την ασφάλεια “να περνάει σε δεύτερη μοίρα μπροστά στα λαμπερά προϊόντα”.

Χθες, ο Leike ανακοίνωσε ότι εντάχθηκε στην Anthropic για να εργαστεί στην έρευνα για την εποπτεία και την ευθυγράμμιση.

Η Επιτροπή Ασφάλειας και Προστασίας θα χρησιμοποιήσει τις επόμενες 90 ημέρες για να αξιολογήσει και να αναπτύξει περαιτέρω τις διαδικασίες και τις διασφαλίσεις του OpenAI. Οι συστάσεις θα τεθούν προς έγκριση στο διοικητικό συμβούλιο της OpenAI και η εταιρεία έχει δεσμευτεί να δημοσιεύσει τις υιοθετημένες συστάσεις ασφαλείας.

Αυτή η ώθηση για πρόσθετες προστατευτικές μπάρες έρχεται καθώς η OpenAI λέει ότι έχει ξεκινήσει την εκπαίδευση του επόμενου μοντέλου της, το οποίο, όπως λέει, “θα μας φέρει στο επόμενο επίπεδο δυνατοτήτων στην πορεία μας προς την AGI”. Δεν προσφέρθηκε αναμενόμενη ημερομηνία κυκλοφορίας για το νέο μοντέλο, αλλά η εκπαίδευση και μόνο θα διαρκέσει πιθανώς εβδομάδες, αν όχι μήνες.

Σε μια ενημέρωση σχετικά με την προσέγγισή της για την ασφάλεια που δημοσιεύτηκε μετά τη Σύνοδο Κορυφής AI Seoul, η OpenAI δήλωσε: “Δεν θα κυκλοφορήσουμε ένα νέο μοντέλο εάν περάσει το όριο κινδύνου “Μέτρια” από το Πλαίσιο Ετοιμότητας, μέχρι να εφαρμόσουμε επαρκείς παρεμβάσεις ασφαλείας για να επαναφέρουμε το σκορ μετά την αντιμετώπιση του κινδύνου στο “Μέτρια”.”

Δήλωσε ότι περισσότεροι από 70 εξωτερικοί εμπειρογνώμονες συμμετείχαν στο red teaming του GPT-4o πριν από την κυκλοφορία του. Με 90 ημέρες να απομένουν μέχρι η επιτροπή να παρουσιάσει τα πορίσματά της στο διοικητικό συμβούλιο, με την εκπαίδευση να έχει ξεκινήσει μόλις πρόσφατα και με τη δέσμευση για εκτεταμένο red teaming, φαίνεται ότι έχουμε μεγάλη αναμονή μέχρι να πάρουμε τελικά το GPT-5.

Ή μήπως εννοούν ότι μόλις ξεκίνησαν την εκπαίδευση της GPT-6;