Η Κούρσα των Όπλων της AI…

Χθες,ο Τραμπ μπλόκαρε και απαγόρευσε τη χρήση της ΑΙ της Anthropic από όλες τις ομοσπονδιακές υπηρεσίες των ΗΠΑ,διότι η εταιρεία αρνήθηκενα συμμορφωθεί με τις απαιτήσεις του Πενταγώνου για άρση των περιορισμών στη χρήση του Claude(ΑΙ της Antropic). Η εταιρεία δεν επιτρέπει τη χρήση των μοντέλων της για πλήρως αυτόνομα όπλα ή για μαζική εσωτερική παρακολούθηση Αμερικανών πολιτών.
Eτσι,από σήμερα ανοίγει μία μεγάλη συζήτηση για το θέμα «Η προτεραιότητα της Τεχνητής Νοημοσύνης (AI) σε στρατιωτικούς σκοπούς έναντι ιατρικών και ανθρωπιστικών εφαρμογών»,το οποίο φρονώ πως θα αποτελέσει ένα από τα πιο συζητημένα ζητήματα της εποχής μας.

Παρά τις εντυπωσιακές δυνατότητες της AI να σώζει ζωές σε κρίσεις, να προβλέπει επιδημίες ή να βελτιώνει την ιατρική περίθαλψη, οι παγκόσμιες επενδύσεις και η ταχύτητα ανάπτυξης κατευθύνονται δυσανάλογα προς την άμυνα και την εθνική ασφάλεια.
Σύμφωνα με πρόσφατες εκτιμήσεις, η παγκόσμια αγορά AI για στρατιωτικές εφαρμογές αναμένεται να φτάσει τα 13,78 δισ $ το 2026, από 11,53 δισ $ το 2025, με ετήσιο ρυθμό αύξησης περίπου 19,5%.
Μέχρι το 2030, προβλέπεται να αγγίξει τα 28,67 δισ $.
Στις ΗΠΑ, ο προϋπολογισμός του Πενταγώνου για τεχνολογίες πληροφορικής (συμπεριλαμβανομένης της AI) έφτασε τα 66 δισ $ για το οικονομικό έτος 2026, με σημαντικές αυξήσεις σε όλους τους κλάδους των ενόπλων δυνάμεων.
Παράλληλα, η παγκόσμια αμυντική δαπάνη ξεπέρασε τα 2,63 τρισ $ το 2025, με ιδιαίτερη έμφαση σε αυτόνομα συστήματα, drones και AI-enabled πλατφόρμες.
Μόνο για αυτόνομα και μη επανδρωμένα συστήματα, οι ΗΠΑ κατευθύνουν 9,8 δισ το 2026.Αυτή η εκρηκτική αύξηση δεν είναι τυχαία: η AI θεωρείται κρίσιμη για την εθνική ασφάλεια, την ταχύτερη λήψη αποφάσεων στο πεδίο της μάχης, την ακρίβεια στόχευσης και την υπεροχή σε γεωπολιτικούς ανταγωνισμούς.Γ
Η Κίνα, η Ρωσσία και οι ΗΠΑ θεωρούνται οι κύριοι «παίκτες» στην κούρσα της στρατιωτικής AI. Η αντίληψη ότι η καθυστέρηση σε αυτόν τον τομέα ισοδυναμεί με στρατηγική ήττα ωθεί τις κυβερνήσεις να επενδύουν μαζικά.
Συγκρούσεις όπως αυτές στην Ουκρανία και τη Γάζα έχουν ήδη δείξει πρακτικές εφαρμογές AI σε πραγματικό χρόνο (π.χ. targeting systems, επιτήρηση, αυτόνομα drones), επιταχύνοντας την υιοθέτηση.
Αντίθετα, τα ιατρικά και ανθρωπιστικά προβλήματα –όσο επείγοντα και αν είναι– δεν δημιουργούν την ίδια άμεση «υπαρξιακή» απειλή για τα κράτη.
Η χρηματοδότηση για AI σε ανθρωπιστικές εφαρμογές προέρχεται κυρίως από ΜΚΟ, διεθνείς οργανισμούς (ΠΟΥ, UNICEF) και περιορισμένους κρατικούς προϋπολογισμούς, χωρίς την ίδια κλίμακα ή ταχύτητα.

Η AI είναι από τη φύση της dual-use: τεχνολογίες που αναπτύσσονται για πολιτικούς σκοπούς (π.χ. αναγνώριση εικόνας, επεξεργασία δεδομένων) προσαρμόζονται εύκολα σε στρατιωτικές εφαρμογές. Ιστορικά, πολλές «επαναστατικές» τεχνολογίες (internet, GPS, μικροεπεξεργαστές) ξεκίνησαν από στρατιωτικά προγράμματα.
Σήμερα, εταιρείες όπως η OpenAI, η Anthropic, η Google και η Meta έχουν χαλαρώσει ή καταργήσει περιορισμούς για στρατιωτική χρήση, συνεργαζόμενες με το Πεντάγωνο και αμυντικές εταιρείες.Οι ιδιωτικές εταιρείες βλέπουν μεγαλύτερα κέρδη από συμβόλαια άμυνας (συχνά μακροπρόθεσμα και με «μαλακούς» προϋπολογισμούς), ενώ οι ανθρωπιστικές εφαρμογές υπόκεινται σε αυστηρούς ηθικούς, ρυθμιστικούς και κλινικούς ελέγχους που καθυστερούν την ανάπτυξη.Ιατρικές και ανθρωπιστικές εφαρμογές: Υπαρκτές, αλλά υποχρηματοδοτούμενεςΗ AI έχει ήδη δείξει αξιοσημείωτα αποτελέσματα σε ανθρωπιστικούς τομείς:

α.Πρόβλεψη φυσικών καταστροφών και έγκαιρη προειδοποίηση

β.Επιτήρηση ασθενειών και έλεγχος επιδημιών

γ.Βελτιστοποίηση διανομής βοήθειας και ιατρικών πόρων

δ.Ψυχική υγεία σε κρίσεις και υποστήριξη τραυματιών

ε.Αυτόνομα drones για μεταφορά φαρμάκων σε απομακρυσμένες περιοχές

Ωστόσο, η πρόοδος παραμένει πιο αργή λόγω έλλειψης πόρων, ηθικών διλημμάτων και απουσίας γεωπολιτικής «πίεσης».Ηθικά διλήμματα και η ανάγκη ισορροπίαςΗ στρατιωτική AI εγείρει σοβαρά ζητήματα: κίνδυνος κλιμάκωσης συγκρούσεων, απώλεια ανθρώπινης λογοδοσίας, παραβιάσεις διεθνούς ανθρωπιστικού δικαίου και πιθανή αύξηση πολιτικών θυμάτων. Παράλληλα, η ίδια τεχνολογία θα μπορούσε να σώσει εκατομμύρια ζωές αν κατευθυνόταν μαζικά σε παγκόσμια προβλήματα υγείας, φτώχειας και κλιματικής κρίσης.Η ανισορροπία αντανακλά μια βαθύτερη παγκόσμια πραγματικότητα: η δύναμη και η επιβίωση προηγούνται συχνά της ευημερίας και της ανθρωπιστικής βοήθειας. Για να αλλάξει αυτό, χρειάζεται:

α.Διεθνής συνεργασία και ρύθμιση

β.Μεγαλύτερη χρηματοδότηση για ανθρωπιστικές εφαρμογές

γ.Ηθικά πλαίσια που ισορροπούν άμυνα και ανθρώπινα δικαιώματα

Η Τεχνητή Νοημοσύνη δεν είναι από μόνη της «καλή» ή «κακή». Η κατεύθυνσή της εξαρτάται από τις πολιτικές αποφάσεις και τις προτεραιότητες των κοινωνιών. Το ερώτημα παραμένει ανοιχτό: θα χρησιμοποιήσουμε αυτή την ισχυρή τεχνολογία κυρίως για να προστατεύσουμε ή για να σώσουμε; Η απάντηση θα καθορίσει το μέλλον μας πάνω σ αυτόν τον πλανήτη.

Σχολιάστε