Οι στρατηγοί της...Τεχνητής Νοημοσύνης αναλαμβάνουν να ηνία του πολέμου και η Κίνα προειδοποιεί για το χειρότερο σενάριο
Δύο ημέρες πριν οι ΗΠΑ εξαπολύσουν τον απερίσκεπτο πόλεμο κατά του Ιράν, στον οποίο το μοντέλο τεχνητής νοημοσύνης Claude της Anthropic διαδραμάτισε κεντρικό ρόλο, ο διευθύνων σύμβουλος της εταιρείας, Dario Amodei, εξέδωσε μια τρομακτική προειδοποίηση για την ανεξέλεγκτη χρήση της AI σε στρατιωτικές επιχειρήσεις.
Στις 26 Φεβρουαρίου, ο Dario Amodei προειδοποίησε ότι «τα συστήματα AI αιχμής απλώς δεν είναι αρκετά αξιόπιστα για να τροφοδοτούν πλήρως αυτόνομα όπλα».
Οι προειδοποιήσεις του αγνοήθηκαν.
Έτσι, στις 28 Φεβρουαρίου, οι ΗΠΑ εξαπέλυσαν αεροπορικές επιδρομές στο Ιράν...
1.000 στόχοι σε 24 ώρες και μία τραγωδία με νεκρά παιδιά
Χάρη στη χρήση AI, ο αμερικανικός στρατός κατάφερε να πλήξει το εξωπραγματικό νούμερο των 1.000 στόχων κατά το πρώτο 24ωρο της επίθεσης, σύμφωνα με τηn Washington Post.
Ο στρατός χρησιμοποίησε το Claude σε συνδυασμό με το σύστημα Maven της Palantir για τον εντοπισμό και την ιεράρχηση στόχων σε πραγματικό χρόνο στο Ιράν και τη Βενεζουέλα.
Ωστόσο, ανάμεσα σε αυτούς τους 1.000 στόχους περιλαμβανόταν και ένα δημοτικό σχολείο στο Ιράν, όπου περισσότερα από 150 παιδιά βρήκαν τραγικό θάνατο.

Στις 11 Μαρτίου, οι New York Times αποκάλυψαν ότι προκαταρκτική έρευνα του Πενταγώνου έριξε την ευθύνη στις ΗΠΑ, αποδίδοντας το συμβάν σε «παρωχημένα δεδομένα στοχοποίησης».
Πολιτική θύελλα στις ΗΠΑ για την αυθαίρετη στρατιωτική χρήση του AI
Αμερικανοί βουλευτές απαιτούν πλέον διαφάνεια για το πόσος έλεγχος έχει εκχωρηθεί στην τεχνολογία.
Η Jill Tokuda, μέλος της Επιτροπής Ενόπλων Δυνάμεων της Βουλής, ζήτησε πλήρη αναθεώρηση για να διαπιστωθεί αν η AI έχει ήδη θέσει σε κίνδυνο ζωές, τονίζοντας ότι «η ανθρώπινη κρίση πρέπει να παραμείνει στο επίκεντρο».

Η Sara Jacobs, βουλεύτρια των Δημοκρατικών
Από την πλευρά της, η Sara Jacobs επισήμανε ότι οι χειριστές τείνουν να δείχνουν «υπερβολική εμπιστοσύνη» σε εργαλεία που δεν είναι 100% αξιόπιστα, προειδοποιώντας για καταστροφικές συνέπειες.
Η τρομακτική προειδοποίηση της Κίνας και το πολεμικό σενάριο «Terminator»
Η Κίνα προειδοποίησε τις ΗΠΑ ότι η υπερβολική χρήση AI στον στρατό θα μπορούσε να βυθίσει τον κόσμο σε μια δυστοπία τύπου Terminator.
«Επιλογές όπως η απεριόριστη εφαρμογή της AI από τον στρατό και η εκχώρηση στους αλγορίθμους της δύναμης να αποφασίζουν για τη ζωή και τον θάνατο, κινδυνεύουν να οδηγήσουν σε τεχνολογική απώλεια ελέγχου», δήλωσε στις 11 Μαρτίου ο Jiang Bin, εκπρόσωπος του κινεζικού Υπουργείου Άμυνας.
«Η δυστοπία που περιγράφεται στην αμερικανική ταινία «The Terminator» θα μπορούσε μια μέρα να γίνει πραγματικότητα», πρόσθεσε, αναφερόμενος στην ταινία του 1984 με τον Arnold Schwarzenegger.
Στην ταινία, ο Kyle Reese και το ρομπότ T-800 στέλνονται πίσω στο χρόνο από το έτος 2029.
Με την τρέχουσα τροπή των γεγονότων, το ερώτημα παραμένει: ποιοι είναι οι πραγματικοί κίνδυνοι της ανεξέλεγκτης AI στο πεδίο του πολέμου;
Η άγρια κόντρα ανάμεσα στο Anthropic και το Πεντάγωνο
Στη δήλωσή του στις 26 Φεβρουαρίου, ο Dario Amodei υπογράμμισε ότι η Anthropic ήταν η πρώτη εταιρεία τεχνητής νοημοσύνης που ανέπτυξε προληπτικά μοντέλα για το Υπουργείο Πολέμου και την κοινότητα των πληροφοριών.

O Dario Amodei, SEO της Anthropic
«Ήμασταν η πρώτη εταιρεία AI αιχμής που ανέπτυξε μοντέλα στα απόρρητα δίκτυα της κυβέρνησης των ΗΠΑ, η πρώτη στα Εθνικά Εργαστήρια (National Laboratories) και η πρώτη που παρείχε προσαρμοσμένα μοντέλα για πελάτες εθνικής ασφάλειας», έγραψε.
Σημείωσε δε, ότι το Claude χρησιμοποιείται ευρέως σε κρίσιμες εφαρμογές, όπως η ανάλυση πληροφοριών, ο επιχειρησιακός σχεδιασμός και οι κυβερνοεπιχειρήσεις.
«Το AI δεν είναι έτοιμο για μαζικά πλήγματα»
Ωστόσο, ο Dario Amodei ξεκαθάρισε ότι κανένα μοντέλο AI δεν είναι έτοιμο για δύο κρίσιμα καθήκοντα: τη μαζική εγχώρια επιτήρηση και τα πλήρως αυτόνομα όπλα.
Προειδοποίησε ότι χωρίς κατάλληλες προστατευτικές δικλείδες, οι οποίες δεν υπάρχουν σήμερα, η AI δεν μπορεί να επιδείξει την κρίση ενός εκπαιδευμένου στρατιώτη.
«Δεν μπορούμε, με καθαρή συνείδηση, να δεχτούμε το αίτημα του Υπουργείου Πολέμου (DoW) για απεριόριστη χρήση των μοντέλων μας», τόνισε.
Ο κίνδυνος μαζικών δολοφιών αμάχων στο προσκήνιο
Σε συνέντευξή του στο CBS, συμπλήρωσε πως η AI μπορεί να οδηγήσει σε φίλια πυρά ή θανάτους αμάχων.
Αντί να εισακουστεί, το Υπουργείο Πολέμου χαρακτήρισε την Anthropic ως «κίνδυνο για την εφοδιαστική αλυσίδα»...

Είναι η πρώτη φορά που μια αμερικανική εταιρεία λαμβάνει αυτόν τον χαρακτηρισμό, ο οποίος συνήθως προορίζεται για εχθρούς των ΗΠΑ.
Το DoW αντικατέστησε το Claude με το OpenAI και το Grok του Elon Musk, χωρίς αυτό να σημαίνει ότι αυτά τα μοντέλα είναι ασφαλή για πολεμική χρήση.
Από το Βελιγράδι ως το Ιράν - Η Τεχνητή Νοημοσύνη ως... πολλαπλασιαστής εγκλημάτων πολέμου
Παρά τις κραυγές της Κίνας για μια δυστοπία τύπου Terminator, η τρέχουσα χρήση της AI περιορίζεται σε συστήματα υποστήριξης αποφάσεων, όπως το Claude ή τα ισραηλινά συστήματα Lavender και Gospel που χρησιμοποιήθηκαν στη γενοκτονία που διενεργήθηκε στη Γάζα.
Ο κίνδυνος, όμως, είναι η σταδιακή αυτοματοποίηση να μετατρέψει την ανθρώπινη επίβλεψη σε απλή τυπικότητα.
Η ιστορία των πολέμων βρίθει λαθών:
Αυτές οι προκαταλήψεις μπορούν τώρα να «εσωτερικευτούν» από τα μοντέλα AI και να αναπαραχθούν σε βιομηχανική κλίμακα.
Αυτό αποδείχθηκε στις αεροπορικές επιδρομές στο Ιράν, όπου επλήγησαν 1.000 στόχοι το πρώτο 24ωρο.
Χωρίς δικλείδες ασφαλείας, το περιθώριο λάθους δεν παραμένει απλώς, αλλά πολλαπλασιάζεται επικίνδυνα.
www.bankingnews.gr
Στις 26 Φεβρουαρίου, ο Dario Amodei προειδοποίησε ότι «τα συστήματα AI αιχμής απλώς δεν είναι αρκετά αξιόπιστα για να τροφοδοτούν πλήρως αυτόνομα όπλα».
Οι προειδοποιήσεις του αγνοήθηκαν.
Έτσι, στις 28 Φεβρουαρίου, οι ΗΠΑ εξαπέλυσαν αεροπορικές επιδρομές στο Ιράν...
1.000 στόχοι σε 24 ώρες και μία τραγωδία με νεκρά παιδιά
Χάρη στη χρήση AI, ο αμερικανικός στρατός κατάφερε να πλήξει το εξωπραγματικό νούμερο των 1.000 στόχων κατά το πρώτο 24ωρο της επίθεσης, σύμφωνα με τηn Washington Post.
Ο στρατός χρησιμοποίησε το Claude σε συνδυασμό με το σύστημα Maven της Palantir για τον εντοπισμό και την ιεράρχηση στόχων σε πραγματικό χρόνο στο Ιράν και τη Βενεζουέλα.
Ωστόσο, ανάμεσα σε αυτούς τους 1.000 στόχους περιλαμβανόταν και ένα δημοτικό σχολείο στο Ιράν, όπου περισσότερα από 150 παιδιά βρήκαν τραγικό θάνατο.
Στις 11 Μαρτίου, οι New York Times αποκάλυψαν ότι προκαταρκτική έρευνα του Πενταγώνου έριξε την ευθύνη στις ΗΠΑ, αποδίδοντας το συμβάν σε «παρωχημένα δεδομένα στοχοποίησης».
Πολιτική θύελλα στις ΗΠΑ για την αυθαίρετη στρατιωτική χρήση του AI
Αμερικανοί βουλευτές απαιτούν πλέον διαφάνεια για το πόσος έλεγχος έχει εκχωρηθεί στην τεχνολογία.
Η Jill Tokuda, μέλος της Επιτροπής Ενόπλων Δυνάμεων της Βουλής, ζήτησε πλήρη αναθεώρηση για να διαπιστωθεί αν η AI έχει ήδη θέσει σε κίνδυνο ζωές, τονίζοντας ότι «η ανθρώπινη κρίση πρέπει να παραμείνει στο επίκεντρο».
Η Sara Jacobs, βουλεύτρια των Δημοκρατικών
Από την πλευρά της, η Sara Jacobs επισήμανε ότι οι χειριστές τείνουν να δείχνουν «υπερβολική εμπιστοσύνη» σε εργαλεία που δεν είναι 100% αξιόπιστα, προειδοποιώντας για καταστροφικές συνέπειες.
Η τρομακτική προειδοποίηση της Κίνας και το πολεμικό σενάριο «Terminator»
Η Κίνα προειδοποίησε τις ΗΠΑ ότι η υπερβολική χρήση AI στον στρατό θα μπορούσε να βυθίσει τον κόσμο σε μια δυστοπία τύπου Terminator.
«Επιλογές όπως η απεριόριστη εφαρμογή της AI από τον στρατό και η εκχώρηση στους αλγορίθμους της δύναμης να αποφασίζουν για τη ζωή και τον θάνατο, κινδυνεύουν να οδηγήσουν σε τεχνολογική απώλεια ελέγχου», δήλωσε στις 11 Μαρτίου ο Jiang Bin, εκπρόσωπος του κινεζικού Υπουργείου Άμυνας.
«Η δυστοπία που περιγράφεται στην αμερικανική ταινία «The Terminator» θα μπορούσε μια μέρα να γίνει πραγματικότητα», πρόσθεσε, αναφερόμενος στην ταινία του 1984 με τον Arnold Schwarzenegger.
Στην ταινία, ο Kyle Reese και το ρομπότ T-800 στέλνονται πίσω στο χρόνο από το έτος 2029.
Με την τρέχουσα τροπή των γεγονότων, το ερώτημα παραμένει: ποιοι είναι οι πραγματικοί κίνδυνοι της ανεξέλεγκτης AI στο πεδίο του πολέμου;
Η άγρια κόντρα ανάμεσα στο Anthropic και το Πεντάγωνο
Στη δήλωσή του στις 26 Φεβρουαρίου, ο Dario Amodei υπογράμμισε ότι η Anthropic ήταν η πρώτη εταιρεία τεχνητής νοημοσύνης που ανέπτυξε προληπτικά μοντέλα για το Υπουργείο Πολέμου και την κοινότητα των πληροφοριών.

O Dario Amodei, SEO της Anthropic
«Ήμασταν η πρώτη εταιρεία AI αιχμής που ανέπτυξε μοντέλα στα απόρρητα δίκτυα της κυβέρνησης των ΗΠΑ, η πρώτη στα Εθνικά Εργαστήρια (National Laboratories) και η πρώτη που παρείχε προσαρμοσμένα μοντέλα για πελάτες εθνικής ασφάλειας», έγραψε.
Σημείωσε δε, ότι το Claude χρησιμοποιείται ευρέως σε κρίσιμες εφαρμογές, όπως η ανάλυση πληροφοριών, ο επιχειρησιακός σχεδιασμός και οι κυβερνοεπιχειρήσεις.
«Το AI δεν είναι έτοιμο για μαζικά πλήγματα»
Ωστόσο, ο Dario Amodei ξεκαθάρισε ότι κανένα μοντέλο AI δεν είναι έτοιμο για δύο κρίσιμα καθήκοντα: τη μαζική εγχώρια επιτήρηση και τα πλήρως αυτόνομα όπλα.
Προειδοποίησε ότι χωρίς κατάλληλες προστατευτικές δικλείδες, οι οποίες δεν υπάρχουν σήμερα, η AI δεν μπορεί να επιδείξει την κρίση ενός εκπαιδευμένου στρατιώτη.
«Δεν μπορούμε, με καθαρή συνείδηση, να δεχτούμε το αίτημα του Υπουργείου Πολέμου (DoW) για απεριόριστη χρήση των μοντέλων μας», τόνισε.
Ο κίνδυνος μαζικών δολοφιών αμάχων στο προσκήνιο
Σε συνέντευξή του στο CBS, συμπλήρωσε πως η AI μπορεί να οδηγήσει σε φίλια πυρά ή θανάτους αμάχων.
Αντί να εισακουστεί, το Υπουργείο Πολέμου χαρακτήρισε την Anthropic ως «κίνδυνο για την εφοδιαστική αλυσίδα»...

Είναι η πρώτη φορά που μια αμερικανική εταιρεία λαμβάνει αυτόν τον χαρακτηρισμό, ο οποίος συνήθως προορίζεται για εχθρούς των ΗΠΑ.
Το DoW αντικατέστησε το Claude με το OpenAI και το Grok του Elon Musk, χωρίς αυτό να σημαίνει ότι αυτά τα μοντέλα είναι ασφαλή για πολεμική χρήση.
Από το Βελιγράδι ως το Ιράν - Η Τεχνητή Νοημοσύνη ως... πολλαπλασιαστής εγκλημάτων πολέμου
Παρά τις κραυγές της Κίνας για μια δυστοπία τύπου Terminator, η τρέχουσα χρήση της AI περιορίζεται σε συστήματα υποστήριξης αποφάσεων, όπως το Claude ή τα ισραηλινά συστήματα Lavender και Gospel που χρησιμοποιήθηκαν στη γενοκτονία που διενεργήθηκε στη Γάζα.
Ο κίνδυνος, όμως, είναι η σταδιακή αυτοματοποίηση να μετατρέψει την ανθρώπινη επίβλεψη σε απλή τυπικότητα.
Η ιστορία των πολέμων βρίθει λαθών:
- Το 1999, σφάλματα πληροφοριών οδήγησαν στον βομβαρδισμό της κινεζικής πρεσβείας στο Βελιγράδι της Σερβίας.
- Νοσοκομεία βομβαρδίστηκαν κατά τον πόλεμο στο Αφγανιστάν.
- Εκατοντάδες άμαχοι έχασαν τη ζωή τους στο Αφγανιστάν και το Ιράκ λόγω πολιτισμικών προκαταλήψεων.
Αυτές οι προκαταλήψεις μπορούν τώρα να «εσωτερικευτούν» από τα μοντέλα AI και να αναπαραχθούν σε βιομηχανική κλίμακα.
Αυτό αποδείχθηκε στις αεροπορικές επιδρομές στο Ιράν, όπου επλήγησαν 1.000 στόχοι το πρώτο 24ωρο.
Χωρίς δικλείδες ασφαλείας, το περιθώριο λάθους δεν παραμένει απλώς, αλλά πολλαπλασιάζεται επικίνδυνα.
www.bankingnews.gr
Σχόλια αναγνωστών