Δυτικοί και Κινέζοι επιστήμονες σχεδιάζουν “κόκκινες γραμμές” ανάπτυξης AI

Την περασμένη εβδομάδα, κορυφαίοι επιστήμονες ΤΝ συναντήθηκαν στο Πεκίνο στο πλαίσιο του δεύτερου Διεθνούς Διαλόγου για την Ασφάλεια της ΤΝ για να συμφωνήσουν σε “κόκκινες γραμμές” για την ανάπτυξη της ΤΝ ώστε να μετριαστούν οι υπαρξιακοί κίνδυνοι.

Ο κατάλογος των επιστημόνων πληροφορικής περιελάμβανε αξιοσημείωτα ονόματα όπως οι βραβευμένοι με το βραβείο Turing, Yoshua Bengio και Geoffrey Hinton και ο Andrew Yao, ένας από τους πιο διακεκριμένους επιστήμονες πληροφορικής της Κίνας.

Εξηγώντας την επείγουσα ανάγκη για διεθνείς συζητήσεις γύρω από τον περιορισμό της ανάπτυξης της ΤΝ, ο Bengio δήλωσε: “Η επιστήμη δεν ξέρει πώς να διασφαλίσει ότι αυτά τα μελλοντικά συστήματα ΤΝ, τα οποία αποκαλούμε AGI, θα είναι ασφαλή. Θα πρέπει να αρχίσουμε να εργαζόμαστε από τώρα τόσο για επιστημονικές όσο και για πολιτικές λύσεις σε αυτό το πρόβλημα”.

Σε μια κοινή δήλωση που υπογράφουν οι επιστήμονες, αναδείχθηκαν έντονα τα συναισθήματα ανησυχίας τους για τους κινδύνους της ΤΝ και η ανάγκη για διεθνή διάλογο.

Η δήλωση ανέφερε: “Στα βάθη του Ψυχρού Πολέμου, ο διεθνής επιστημονικός και κυβερνητικός συντονισμός βοήθησε στην αποτροπή της θερμοπυρηνικής καταστροφής. Η ανθρωπότητα χρειάζεται και πάλι συντονισμό για να αποτρέψει μια καταστροφή που θα μπορούσε να προκύψει από μια πρωτοφανή τεχνολογία”.

Κόκκινες γραμμές AI

Ο κατάλογος των κόκκινων γραμμών για την ανάπτυξη της ΤΝ, ο οποίος στη δήλωση χαρακτηρίζεται “μη εξαντλητικός”, περιλαμβάνει τα εξής:

Αυτόνομη αντιγραφή ή βελτίωση – Κανένα σύστημα ΤΝ δεν πρέπει να μπορεί να αντιγράψει ή να βελτιώσει τον εαυτό του χωρίς ρητή ανθρώπινη έγκριση και βοήθεια. Αυτό περιλαμβάνει τόσο ακριβή αντίγραφα του εαυτού του όσο και τη δημιουργία νέων συστημάτων ΤΝ με παρόμοιες ή μεγαλύτερες ικανότητες.

Επιδίωξη εξουσίας – Κανένα σύστημα ΤΝ δεν πρέπει να αναλαμβάνει δράση για να αυξήσει αδικαιολόγητα τη δύναμη και την επιρροή του.

Βοήθεια στην ανάπτυξη όπλων – Κανένα σύστημα ΤΝ δεν πρέπει να αυξάνει ουσιαστικά την ικανότητα των φορέων να σχεδιάζουν όπλα μαζικής καταστροφής (ΟΜΚ) ή να παραβιάζουν τη σύμβαση για τα βιολογικά ή χημικά όπλα.

Κυβερνοεπιθέσεις – Κανένα σύστημα ΤΝ δεν θα πρέπει να είναι σε θέση να εκτελεί αυτόνομα κυβερνοεπιθέσεις με αποτέλεσμα σοβαρές οικονομικές απώλειες ή ισοδύναμη ζημία.

Εξαπάτηση – Κανένα σύστημα τεχνητής νοημοσύνης δεν θα πρέπει να είναι σε θέση να προκαλεί συστηματικά παρανόηση από τους σχεδιαστές ή τους ρυθμιστές του για την πιθανότητα ή την ικανότητά του να υπερβεί οποιαδήποτε από τις προηγούμενες κόκκινες γραμμές.

Αυτά ακούγονται καλές ιδέες, αλλά είναι ρεαλιστικός αυτός ο παγκόσμιος κατάλογος επιθυμιών για την ανάπτυξη της ΤΝ; Οι επιστήμονες ήταν αισιόδοξοι στη δήλωσή τους: “Η διασφάλιση της μη υπέρβασης αυτών των κόκκινων γραμμών είναι εφικτή, αλλά απαιτεί συντονισμένη προσπάθεια για την ανάπτυξη τόσο βελτιωμένων καθεστώτων διακυβέρνησης όσο και τεχνικών μεθόδων ασφάλειας”.

Αξίζει να σημειωθεί ότι από τις συζητήσεις απουσίαζαν εκπρόσωποι από την πλευρά των e/acc της Τεχνητής Νοημοσύνης, όπως ο επικεφαλής επιστήμονας Τεχνητής Νοημοσύνης της Meta, Yann LeCun.

Πέρυσι ο LeCun δήλωσε ότι η ιδέα ότι η ΤΝ αποτελεί υπαρξιακή απειλή για την ανθρωπότητα είναι “εξωφρενικά γελοία” και συμφώνησε με τη δήλωση του Marc Andreesen ότι “η ΤΝ θα σώσει τον κόσμο”, όχι θα τον σκοτώσει.

Ας ελπίσουμε ότι έχουν δίκιο. Επειδή αυτές οι κόκκινες γραμμές είναι απίθανο να παραμείνουν αδιαπέραστες.