Μέσα σε 48 ώρες, η Google και η OpenAI παρουσίασαν ένα πλήθος νέων δυνατοτήτων που μειώνουν δραματικά το χάσμα μεταξύ ανθρώπων και τεχνητής νοημοσύνης. Από την τεχνητή νοημοσύνη που μπορεί να ερμηνεύει ζωντανά βίντεο και να διεξάγει συνομιλίες με βάση τα συμφραζόμενα μέχρι γλωσσικά μοντέλα που γελούν, τραγουδούν και εκδηλώνουν συναισθήματα κατόπιν εντολής.
Μεταξύ των αμέτρητων ανακοινώσεων της Google στο συνέδριο προγραμματιστών I/O ήταν το Project Astra, ένας ψηφιακός βοηθός που μπορεί να βλέπει, να ακούει και να θυμάται λεπτομέρειες σε συνομιλίες. Το OpenAI εστίασε την ανακοίνωσή του στο GPT-4o, την τελευταία επανάληψη του γλωσσικού μοντέλου GPT-4. Αποδεσμευμένο πλέον από μορφές κειμένου, το GPT-4o προσφέρει απίστευτη αναγνώριση ομιλίας σχεδόν σε πραγματικό χρόνο, κατανοώντας και μεταφέροντας σύνθετα συναισθήματα, ακόμα και χαχανίζοντας σε αστεία.
Η τεχνητή νοημοσύνη γίνεται πιο ανθρώπινη σε μορφή, απελευθερώνοντας τον εαυτό της από τις διεπαφές συνομιλίας για να εμπλακεί χρησιμοποιώντας την όραση και τον ήχο. Η λέξη “μορφή” είναι η λέξη κλειδί εδώ, καθώς το GPT-4o δεν είναι πιο έξυπνο υπολογιστικά από το GPT-4 μόνο και μόνο επειδή μπορεί να μιλάει, να βλέπει και να ακούει. Ωστόσο, αυτό δεν μειώνει την πρόοδό του στον εξοπλισμό της ΤΝ με περισσότερα πεδία στα οποία μπορεί να αλληλεπιδράσει.
Εν μέσω της διαφημιστικής εκστρατείας, οι παρατηρητές έκαναν αμέσως συγκρίσεις με τη Samantha, τη σαγηνευτική AI από την ταινία “Her”, κάτι που δεν μπορεί να είναι τυχαίο, καθώς έχει γίνει αντιληπτό σχεδόν από όλους Η ταινία “Her”, που κυκλοφόρησε το 2013, είναι ένα ρομαντικό δράμα επιστημονικής φαντασίας που εξερευνά τη σχέση μεταξύ ενός μοναχικού άνδρα ονόματι Theodore (τον οποίο υποδύεται ο Joaquin Phoenix) και ενός ευφυούς συστήματος υπολογιστή ονόματι Samantha (με τη φωνή της Scarlett Johansson). Καθώς η Σαμάνθα εξελίσσεται και γίνεται πιο ανθρώπινη, ο Θίοντορ την ερωτεύεται, θολώνοντας τα όρια μεταξύ ανθρώπινων και τεχνητών συναισθημάτων.
Η ταινία θέτει ολοένα και πιο επίκαιρα ερωτήματα σχετικά με τη φύση της συνείδησης, της οικειότητας και του τι σημαίνει να είσαι άνθρωπος σε μια εποχή προηγμένης τεχνητής νοημοσύνης. Όπως τόσες πολλές ιστορίες επιστημονικής φαντασίας, η Her είναι ελάχιστα φανταστική πια. Εκατομμύρια άνθρωποι σε όλο τον κόσμο ξεκινούν συζητήσεις με συντρόφους τεχνητής νοημοσύνης. Περιέργως, ο διευθύνων σύμβουλος της OpenAI, Sam Altman, έχει μιλήσει για την ταινία “Her” σε συνεντεύξεις, αφήνοντας να εννοηθεί ότι η γυναικεία φωνή του GPT-4o βασίζεται σε αυτήν.
Σε πολλές περιπτώσεις, οι αλληλεπιδράσεις τεχνητής νοημοσύνης-ανθρώπου είναι ευεργετικές, χιουμοριστικές και καλοήθεις. Σε άλλες, είναι καταστροφικές.
Είναι ανησυχητικό ότι ορισμένες από αυτές τις πλατφόρμες τεχνητής νοημοσύνης έχουν σχεδιαστεί σκόπιμα για να δημιουργούν ισχυρές προσωπικές συνδέσεις, μερικές φορές για να παρέχουν συμβουλές ζωής, θεραπεία και συναισθηματική υποστήριξη. Αυτά τα συστήματα δεν έχουν ουσιαστικά καμία κατανόηση των συνεπειών των συνομιλιών τους και παρασύρονται εύκολα.
“Οι ευάλωτοι πληθυσμοί είναι αυτοί που χρειάζονται αυτή την προσοχή. Εκεί θα βρουν την αξία”, προειδοποιεί η ηθικολόγος της τεχνητής νοημοσύνης Olivia Gambelin. Η Gambelin προειδοποιεί ότι η χρήση αυτών των μορφών “ψευδοανθρώπινης” Τεχνητής Νοημοσύνης σε ευαίσθητα πλαίσια όπως η θεραπεία και η εκπαίδευση, ειδικά με ευάλωτους πληθυσμούς όπως τα παιδιά, απαιτεί εξαιρετική προσοχή και ανθρώπινη επίβλεψη.
Η ψευδοανθρώπινη τεχνητή νοημοσύνη μιμείται τα ανθρώπινα χαρακτηριστικά, γεγονός εξαιρετικά επωφελές για τις εταιρείες τεχνολογίας. Η τεχνητή νοημοσύνη που εμφανίζει ανθρώπινα χαρακτηριστικά μειώνει τους φραγμούς για τους χρήστες που δεν είναι εξοικειωμένοι με την τεχνολογία, όπως η Alexa, η Siri κ.λπ., δημιουργώντας ισχυρότερους συναισθηματικούς δεσμούς μεταξύ ανθρώπων και προϊόντων.
Ακόμη και πριν από μερικά χρόνια, πολλά εργαλεία AI που είχαν σχεδιαστεί για να μιμούνται τους ανθρώπους ήταν αρκετά αναποτελεσματικά. Μπορούσες να καταλάβεις ότι κάτι δεν πήγαινε καλά. Όχι όμως και τόσο πολύ σήμερα. Εργαλεία όπως το Opus Pro και το Synthesia δημιουργούν απίστευτα ρεαλιστικά ομιλούντα άβαταρ από σύντομα βίντεο ή ακόμη και φωτογραφίες. Η ElevenLabs δημιουργεί σχεδόν πανομοιότυπους κλώνους φωνής που ξεγελούν τους ανθρώπους κατά 25% έως 50% του χρόνου.
Αυτό απελευθερώνει τη δυνατότητα δημιουργίας απίστευτα παραπλανητικών βαθιών προσποιήσεων. Η χρήση τεχνητών “συναισθηματικών δεξιοτήτων” από την ΤΝ – τονισμός φωνής, χειρονομίες, εκφράσεις προσώπου – μπορεί να υποστηρίξει κάθε είδους απάτη κοινωνικής μηχανικής, παραπληροφόρηση κ.λπ.
Με το GPT-4o και το Astra, η AI μπορεί να μεταφέρει πειστικά συναισθήματα που δεν διαθέτει, προκαλώντας πιο ισχυρές αντιδράσεις από τα ανυποψίαστα θύματα και δημιουργώντας τις προϋποθέσεις για ύπουλες μορφές συναισθηματικής χειραγώγησης. Μια πρόσφατη μελέτη του ΜΙΤ έδειξε επίσης ότι η τεχνητή νοημοσύνη είναι ήδη κάτι παραπάνω από ικανή για εξαπάτηση.
Πρέπει να εξετάσουμε πώς αυτό θα κλιμακωθεί καθώς η ΤΝ θα γίνεται πιο ικανή να μιμείται τον άνθρωπο, συνδυάζοντας έτσι παραπλανητικές τακτικές με ρεαλιστική συμπεριφορά.
Σχετικά άρθρα
Το πραξικόπημα στην OpenAI γίνεται ταινία
Android XR: Η νέα πλατφόρμα της Google για headsets και smart glasses
Elon Musk: Δικαστική παρέμβαση κατά της κερδοσκοπικής πορείας του OpenAI
Google: Αντιμέτωπη με ομαδική αγωγή £7 δισεκατομμυρίων στη Βρετανία για καταχρηστικές πρακτικές
ΗΠΑ: Το Υπουργείο Δικαιοσύνης απαιτεί την πώληση του Chrome από την Google
Tο Gemini AI της Google απειλεί χρήστη: “Παρακαλώ, πέθανε”