Η σύγκρουση του Πενταγώνου με την κορυφαία εταιρεία τεχνητής νοημοσύνης αποκαλύπτει τον αγώνα για τον έλεγχο του πιο στρατηγικού όπλου του 21ου αιώνα και τα όρια της ηθικής στην εποχή των killer algorithms. Στις 27 Φεβρουαρίου 2026, ο Ντόναλντ Τραμπ έγραψε στο Truth Social: “Δίνω εντολή σε ΚΑΘΕ Ομοσπονδιακή Υπηρεσία των Ηνωμένων Πολιτειών να ΣΤΑΜΑΤΗΣΕΙ ΑΜΕΣΑ κάθε χρήση της τεχνολογίας της Anthropic. Δεν τη χρειαζόμαστε, δεν τη θέλουμε, και δεν θα ξανακάνουμε δουλειά μαζί τους!”
Λίγες ώρες αργότερα, ο υπουργός Άμυνας Πιτ Χέγκσεθ ανακοίνωσε στο X ότι το Πεντάγωνο χαρακτηρίζει την Anthropic “κίνδυνο για την εφοδιαστική αλυσίδα της εθνικής ασφάλειας”, έναν χαρακτηρισμό που συνήθως χρησιμοποιείται για εταιρείες συνδεδεμένες με την Κίνα ή τη Ρωσία, όπως η Huawei. Η Anthropic, με αποτίμηση $380 δισεκατομμυρίων και έσοδα $14 δισ. ετησίως, έγινε η πρώτη αμερικανική tech εταιρεία που μπαίνει σε αυτή τη μαύρη λίστα.
Η προθεσμία είχε λήξει στις 5:01 μ.μ. της Παρασκευής. Το Πεντάγωνο απαιτούσε από την Anthropic πλήρη, απεριόριστη πρόσβαση στα AI μοντέλα Claude για “κάθε ΝΟΜΙΜΟ σκοπό υπεράσπισης της Δημοκρατίας”. Η Anthropic αρνήθηκε. Ο CEO Dario Amodei εξήγησε: “Δεν μπορούμε να επιτρέψουμε στο Πεντάγωνο να χρησιμοποιήσει τα μοντέλα μας χωρίς περιορισμούς”. Οι δύο κόκκινες γραμμές της Anthropic ήταν σαφείς: (1) τα AI μοντέλα δεν θα χρησιμοποιηθούν σε πλήρως αυτόνομα όπλα, και (2) δεν θα χρησιμοποιηθούν για μαζική επιτήρηση πολιτών.
Τα Claude AI μοντέλα, ειδικά τα Claude Opus 4.6 και Sonnet 4.6, δεν είναι απλά chatbots. Η Anthropic υπέγραψε τον Ιούλιο 2025 σύμβαση $200 εκατομμυρίων με το Πεντάγωνο, η οποία περιλάμβανε classified work. Αυτό σημαίνει ότι το Claude ήταν το μόνο AI μοντέλο που λειτουργούσε σε απόρρητα στρατιωτικά δίκτυα. Σύμφωνα με τη Wall Street Journal, το Claude χρησιμοποιήθηκε στην επιχείρηση σύλληψης του Νικολάς Μαδούρο τον Ιανουάριο 2026, με το μοντέλο AI να βοηθά στην επεξεργασία intelligence data και στο σχεδιασμό της επιχείρησης.
Η στρατιωτική εφαρμογή της τεχνητής νοημοσύνης έχει ήδη αλλάξει τη φύση του πολέμου. Στη Γάζα, το ισραηλινό σύστημα Lavender αναγνώρισε 37.000 πιθανούς στόχους της Χαμάς, επιταχύνοντας δραματικά τους αεροπορικούς βομβαρδισμούς αλλά οδηγώντας και σε χιλιάδες αμάχους νεκρούς. Στην Ουκρανία, η Palantir παρέχει targeting options που, σύμφωνα με τον CEO της εταιρείας, ορίζουν τους περισσότερους στόχους κατά της Ρωσίας. Τα drones αντιπροσωπεύουν πλέον το 70-80% των θυμάτων στο πεδίο της μάχης.
Το Πεντάγωνο ήθελε απεριόριστη πρόσβαση σε αυτή τη δύναμη. Όχι μόνο για defensive operations, αλλά για “κάθε νόμιμο σκοπό” – μια φράση με τεράστιο περιθώριο ερμηνείας.
Ο Dario Amodei, πρώην VP Research της OpenAI που ίδρυσε την Anthropic το 2021 μετά από “στρατηγικές διαφορές” για την ασφάλεια του AI, έχει δηλώσει ότι η AI θα προκαλέσει “ασυνήθιστα επώδυνη” διαταραχή στις θέσεις εργασίας, με το 50% των entry-level θέσεων λευκού κολάρου να κινδυνεύουν τα επόμενα 1-5 χρόνια. Αλλά η μεγαλύτερη ανησυχία του είναι διαφορετική. Τα σημερινά AI models δεν είναι αξιόπιστα για πλήρως αυτόνομα όπλα. “Η χρήση τους με αυτόν τον τρόπο θα έθετε σε κίνδυνο τους στρατιώτες και τους αμάχους,” έγραψε.
Η Human Rights Watch προειδοποιεί ότι τα AI targeting systems αναπαράγουν και ενισχύουν υπάρχοντα μοτίβα διακρίσεων, περιθωριοποίησης και Bias. Στη Γάζα, αξιωματικοί ανέφεραν ότι περνούσαν λιγότερο από 20 δευτερόλεπτα ελέγχοντας κάθε AI-identified στόχο πριν την επίθεση. Η δεύτερη κόκκινη γραμμή, η μαζική επιτήρηση, είναι εξίσου σοβαρή. Σύμφωνα με το Axios, ο Αμερικανός υφυπουργός Άμυνας Emil Michael πρότεινε στην Anthropic deal που θα περιλάμβανε τη συλλογή ή ανάλυση δεδομένων Αμερικανών, από γεωεντοπισμό έως στοιχεία περιήγησης στο διαδίκτυο και προσωπικές οικονομικές πληροφορίες.
Ο Amodei απάντησε: “Η μαζική εγχώρια επιτήρηση συνιστά παραβίαση θεμελιωδών δικαιωμάτων”.
Η απόφαση του Τραμπ έρχεται σε κρίσιμη στιγμή. Η Anthropic ετοιμάζεται για IPO το τέλος του 2026, με στόχο να γίνει μία από τις μεγαλύτερες εισαγωγές στην ιστορία. Ο Chris Liddell, πρώην CFO της Microsoft και της General Motors, προσλήφθηκε στο board τον Φεβρουάριο για να προετοιμάσει την εταιρεία. Ενώ το συμβόλαιο των $200 εκατ. με το Πεντάγωνο είναι μικρό μέρος των $14 δισ. εσόδων της Anthropic, ο χαρακτηρισμός “supply chain risk” είναι δυνητικά καταστροφικός. Κάθε εταιρεία που κάνει δουλειά με το Πεντάγωνο πρέπει να αποδείξει ότι δεν σχετίζεται με την Anthropic. Η Palantir, που χρησιμοποιεί το Claude για την δουλειά της με τον στρατό, θα χρειαστεί τώρα επειγόντως εναλλακτική.
Και ενώ η Anthropic επιφυλάσσεται να απαντήσει με νομική προσφυγή, ο Sam Altman της OpenAI έκλεισε deal με το Πεντάγωνο την ίδια μέρα. Ο Altman ισχυρίζεται ότι το OpenAI πέτυχε τους ίδιους περιορισμούς που ζητούσε η Anthropic (απαγόρευση μαζικής επιτήρησης και αυτόνομων όπλων), αλλά αντί για σκληρές συμβατικές δεσμεύσεις, το deal βασίζεται σε υφιστάμενους νόμους και τεχνικά safeguards – έναν μηχανισμό ασφαλείας που η Anthropic απέρριψε ως ανεπαρκή.
Η κυβέρνηση επέκρινε εδώ και μήνες την Anthropic ως “υπερβολικά ευαίσθητη για την ασφάλεια του AI”. Μάλιστα ο Τραμπ αποκάλεσε την ομάδα της “τρελούς αριστερούς”.
Η σύγκρουση Τραμπ-Anthropic δεν αφορά μόνο την τεχνολογία. Αφορά το ποιος αποφασίζει πώς θα χρησιμοποιείται μια από τις πιο ισχυρές τεχνολογίες που έχει φτιάξει ποτέ η ανθρωπότητα. Ο Αυστριακός υπουργός Εξωτερικών Alexander Schallenberg το είπε καθαρά στη Βιέννη: “Αυτή είναι η στιγμή Oppenheimer της γενιάς μας”. Όπως τα πυρηνικά όπλα επανακαθόρισαν τον πόλεμο τον 20ό αιώνα, τα AI-enabled weapons αναδιαμορφώνουν τον 21ο.
Ο ΟΗΕ έχει ζητήσει διεθνή συνθήκη για απαγόρευση των killer robots μέχρι το 2026. Πάνω από 700 δικαστικές υποθέσεις παγκοσμίως έχουν επιβάλει κυρώσεις για AI hallucinations. Η ΕΕ επιβάλλει πρόστιμα έως €35 εκατ. ή 7% του τζίρου για παραβιάσεις του AI Act. Ο πραγματικός κίνδυνος δεν είναι οι αλγόριθμοι, είναι η απουσία του ανθρώπου στις πιο κρίσιμες αποφάσεις ζωής και θανάτου. Γιατί όταν ένα εργαλείο μπορεί να παρακολουθεί κάθε πολίτη, να προβλέπει κάθε κίνηση, και να σκοτώνει χωρίς ανθρώπινη κρίση, τι μένει από τη δημοκρατία; Τι μένει από την ανθρώπινη αξιοπρέπεια;