Η εταιρεία τεχνητής νοημοσύνης Anthropic ανακοίνωσε πρόσφατα μια στρατηγική συνεργασία με την Palantir και την Amazon Web Services (AWS), που έχει ως στόχο να παρέχει τα μοντέλα τεχνητής νοημοσύνης Claude σε αμερικανικές υπηρεσίες πληροφοριών και άμυνας. Αυτή η συνεργασία εντάσσει την Claude, μια σειρά μοντέλων τεχνητής νοημοσύνης παρόμοια με το ChatGPT, στην πλατφόρμα της Palantir, με φιλοξενία από την AWS, για ανάλυση και επεξεργασία δεδομένων σε υψηλές ταχύτητες. Ωστόσο, πολλοί επικριτές θεωρούν αυτήν την κίνηση αντιφατική προς την προβαλλόμενη «ηθική της ασφάλειας» της Anthropic.
Η Timnit Gebru, πρώην συνδιευθύντρια του τομέα ηθικής στην τεχνητή νοημοσύνη της Google, σχολίασε τη συνεργασία αυτή στο X (πρώην Twitter) με δεικτική ειρωνεία: «Κοιτάξτε πόσο νοιάζονται για τους ‘υπαρξιακούς κινδύνους για την ανθρωπότητα’.» Πολλοί άλλοι σχολιαστές και ειδικοί εκφράζουν ανησυχίες για την ηθική πλευρά της συνεργασίας, επισημαίνοντας ότι η Anthropic διακινδυνεύει τη φήμη της ως μια εταιρεία που υποτίθεται ότι προάγει την ηθική και την ασφάλεια στην ανάπτυξη τεχνητής νοημοσύνης.
Τι Περιλαμβάνει η Συνεργασία με τις Μυστικές Υπηρεσίες
Η συνεργασία επιτρέπει στη Claude να λειτουργεί στο περιβάλλον Impact Level 6 (IL6) της Palantir, ένα σύστημα πιστοποιημένο για την επεξεργασία «κρίσιμων» δεδομένων εθνικής ασφάλειας, έως το επίπεδο ‘Μυστικό’.” Η κίνηση αυτή ακολουθεί μια ευρύτερη τάση των εταιρειών τεχνητής νοημοσύνης που επιδιώκουν αμυντικά συμβόλαια, με τη Meta να προσφέρει τα μοντέλα Llama σε αμυντικούς εταίρους και την OpenAI να επιδιώκει στενότερους δεσμούς με το Υπουργείο Άμυνας. Στο πλαίσιο της συνεργασίας αυτής, η Claude θα εκτελεί τρεις κύριες εργασίες: την επεξεργασία μεγάλων όγκων δεδομένων με υψηλές ταχύτητες, τον εντοπισμό τάσεων και μοτίβων και την αυτοματοποίηση της διαδικασίας αναθεώρησης εγγράφων.
Σημαντικό είναι ότι οι ανθρώπινοι αξιωματούχοι θα διατηρούν την τελική απόφαση στις επιχειρησιακές διαδικασίες, όπως αναφέρει η ανακοίνωση, προκειμένου να διασφαλιστεί η ανθρώπινη εποπτεία.
Ως σημείο αναφοράς για τις δυνατότητες της τεχνολογίας, η Palantir ανέφερε ότι μια (μη κατονομαζόμενη) αμερικανική ασφαλιστική εταιρεία χρησιμοποίησε 78 πράκτορες AI που τροφοδοτούνται από την πλατφόρμα και την Claude της για να μειώσει μια διαδικασία ανάληψης κινδύνου από δύο εβδομάδες σε τρεις ώρες.
Η νέα συνεργασία βασίζεται στην προηγούμενη ενσωμάτωση της Claude από την Anthropic στο AWS GovCloud, μια υπηρεσία που έχει δημιουργηθεί για κυβερνητικό υπολογιστικό νέφος. Η Anthropic, η οποία ξεκίνησε πρόσφατα τις δραστηριότητές της στην Ευρώπη, αναζητά χρηματοδότηση με αποτίμηση έως και 40 δισεκατομμύρια δολάρια. Η εταιρεία έχει συγκεντρώσει 7,6 δισ. δολάρια, με κύριο επενδυτή την Amazon.
Η Anthropic, που ιδρύθηκε το 2021 με στόχο την ασφαλή ανάπτυξη της τεχνητής νοημοσύνης, διαφοροποιείται από άλλες εταιρείες, όπως η OpenAI, με μια φιλοσοφία υπεύθυνης ανάπτυξης και συστήματα αυτοπεριορισμού, όπως το σύστημα Constitutional AI. Ωστόσο, η συνεργασία με την Palantir και την AWS για την εξυπηρέτηση των μυστικών υπηρεσιών φαίνεται να έρχεται σε αντίθεση με αυτή τη δημόσια εικόνα της.
Αξίζει να σημειωθεί ότι οι όροι χρήσης της Anthropic περιγράφουν συγκεκριμένους κανόνες και περιορισμούς για κυβερνητική χρήση. Οι όροι αυτοί επιτρέπουν δραστηριότητες όπως η ανάλυση ξένων πληροφοριών και ο εντοπισμός μυστικών εκστρατειών επιρροής, ενώ απαγορεύουν χρήσεις όπως η παραπληροφόρηση, η ανάπτυξη όπλων, η λογοκρισία και η εγχώρια παρακολούθηση. Οι κυβερνητικές υπηρεσίες που διατηρούν τακτική επικοινωνία με την Anthropic σχετικά με τη χρήση της Claude ενδέχεται να λάβουν ευρύτερες άδειες χρήσης των μοντέλων τεχνητής νοημοσύνης.
Εκτός από τις συνέπειες της συνεργασίας με αμυντικές υπηρεσίες και υπηρεσίες πληροφοριών, η συμφωνία συνδέει την Anthropic με την Palantir, μια αμφιλεγόμενη εταιρεία που πρόσφατα κέρδισε σύμβαση ύψους 480 εκατομμυρίων δολαρίων για την ανάπτυξη ενός συστήματος αναγνώρισης στόχων με τεχνητή νοημοσύνη, το Maven Smart System, για τον αμερικανικό στρατό. Το Project Maven έχει προκαλέσει επικρίσεις στον τεχνολογικό τομέα σχετικά με τις στρατιωτικές εφαρμογές της τεχνολογίας AI.
Με τη συνεχιζόμενη επέκταση της Anthropic και το αυξημένο ενδιαφέρον για χρηματοδότηση, μένει να φανεί αν η εταιρεία θα μπορέσει να ισορροπήσει μεταξύ των δεσμεύσεών της για ηθική και της πίεσης για εμπορικές επιτυχίες στον αμυντικό τομέα.



Latest News
Η πρωθυπουργός της Ιαπωνίας παραθέτει φράση από το Attack on Titan3 Δεκεμβρίου 2025 17:31
Η Sony κυκλοφορεί νέο trailer για το 28 Years Later: The Bone Temple3 Δεκεμβρίου 2025 16:46
Η Marvel δείχνει το cast του Avengers: Doomsday σε επίσημο event3 Δεκεμβρίου 2025 16:23
The Boys: Ο Karl Urban προειδοποιεί για μεγάλους θανάτους από το 1o επεισόδιο της 5ης σεζόν3 Δεκεμβρίου 2025 15:35
Stranger Things 5: 59,6 εκατ. θεάσεις σε μόλις 5 μέρες3 Δεκεμβρίου 2025 14:53
Κυκλοφόρησε νέα αφίσα για το A Knight of the Seven Kingdoms3 Δεκεμβρίου 2025 14:33
O Tarantino σοκάρει με τα σχόλιά του: Στο στόχαστρο ο Paul Dano3 Δεκεμβρίου 2025 14:13
Η στοιχειωμένη σήραγγα Kiyotaki του όρους Matsuo2 Δεκεμβρίου 2025 20:28
Fire Force: Kυκλοφόρησε νέο trailer της 3ης σεζόν για το part 22 Δεκεμβρίου 2025 19:16
Return to Silent Hill: Δείτε το διεθνές trailer2 Δεκεμβρίου 2025 17:53
Τα πέντε anime με επεισόδια που άγγιξαν 9.9 στο IMDb2 Δεκεμβρίου 2025 16:57
Vanderhorstia supersaiyan: Το ψάρι που μοιάζει να βγήκε από το Dragon Ball Z2 Δεκεμβρίου 2025 15:54
Το Helldivers γίνεται ταινία από τον σκηνοθέτη του Fast & Furious2 Δεκεμβρίου 2025 15:26
Πρώτες αντιδράσεις για το Avatar: Fire and Ash: Το καλύτερο μέχρι σήμερα;2 Δεκεμβρίου 2025 14:23
Gotham Awards 2025: Guillermo del Toro κατακεραυνώνει το AI2 Δεκεμβρίου 2025 13:43
Samsung Galaxy Z TriFold: Ανακοίνωσε το τριπλά αναδιπλούμενο smartphone2 Δεκεμβρίου 2025 13:04
Το Netflix διεκδικεί την Warner Bros με τεράστια χρηματική προσφορά2 Δεκεμβρίου 2025 12:26
Η live-action σειρά God of War επιταχύνει την παραγωγή της2 Δεκεμβρίου 2025 11:50
Αποκαλύφθηκε το νέο teaser της 2ης σεζόν του Fallout και είναι εκρηκτικό2 Δεκεμβρίου 2025 11:19
Hell’s Paradise: Jigokuraku: Η 2η σεζόν επιστρέφει στις 11 Ιανουαρίου 202628 Νοεμβρίου 2025 17:23