AI Red Lines: Οι διεθνείς κανονισμοί για ασφαλή χρήση της AI

Η Τεχνητή Νοημοσύνη συνεχίζει να προκαλεί συζητήσεις για τα όρια και τους κινδύνους της, με τους ειδικούς να ζητούν σαφείς κόκκινες γραμμές για την ασφαλή χρήση της.

Στο πλαίσιο της πρωτοβουλίας AI Red Lines, που παρουσιάστηκε στη Γενική Συνέλευση του ΟΗΕ, περισσότεροι από 200 νομπελίστες και ειδικοί στην AI, μαζί με κορυφαίες εταιρείες όπως η OpenAI, η DeepMind και η Anthropic, υπέγραψαν επιστολή ζητώντας διεθνή συμφωνία για την ασφάλεια της AI μέχρι το 2026.

Η επιστολή τονίζει ότι τα AI συστήματα ήδη έχουν επιδείξει παραπλανητική και επικίνδυνη συμπεριφορά και η αυξανόμενη αυτονομία τους εντείνει τους κινδύνους. Παρόλα αυτά, οι συγκεκριμένες προτάσεις παραμένουν ασαφείς, αφήνοντας περιθώριο για συζητήσεις και διαπραγματεύσεις μεταξύ κυβερνήσεων και εταιρειών τεχνολογίας.

Ο καθηγητής Stuart Russell από το UC Berkeley πρότεινε συγκεκριμένα παραδείγματα κόκκινων γραμμών. Σύμφωνα με τον ίδιο, τα AI συστήματα δεν πρέπει να προσπαθούν να αυτοαναπαράγονται, δεν επιτρέπεται η προσπάθεια παραβίασης άλλων υπολογιστικών συστημάτων, απαγορεύεται η παροχή οδηγιών για την κατασκευή βιολογικών όπλων και τα αποτελέσματα της AI δεν πρέπει να περιλαμβάνουν ψευδείς και βλαπτικές πληροφορίες για ανθρώπους.

Θα μπορούσαμε να προσθέσουμε και απαγορεύσεις που σχετίζονται με ψυχωτικές συμπεριφορές AI και συμβουλές αυτοκτονίας από chatbots, οι οποίες αποτελούν σοβαρή απειλή για τους χρήστες. Ωστόσο, όπως επισημαίνει ο Russell, τα τρέχοντα μοντέλα γλώσσας (LLM) δεν είναι ικανά να διασφαλίσουν πλήρη συμμόρφωση, καθώς πρόκειται για προγνωστικά εργαλεία λέξεων που δεν κατανοούν πλήρως τι λένε.

Αυτό σημαίνει ότι η αληθινή ασφάλεια απαιτεί κανονιστική ρύθμιση, ακόμη κι αν η συμμόρφωση είναι δύσκολη, όπως συμβαίνει σε τομείς όπως η ιατρική ή η πυρηνική ενέργεια.

Η πρωτοβουλία AI Red Lines ανοίγει το δρόμο για διεθνείς κανόνες που θα προστατεύουν τους χρήστες και θα ενισχύσουν την υπεύθυνη ανάπτυξη τεχνητής νοημοσύνης, θέτοντας σαφή όρια για τις μελλοντικές εφαρμογές της.