20/04/2024

Το Ισραήλ χρησιμοποίησε τεχνητή νοημοσύνη για να εντοπίσει 37.000 στόχους της Χαμάς

Η επιλογή των στόχων του Ισραήλ κατά τον πόλεμο στη Λωρίδα της Γάζας βασίστηκε στην τεχνητή νοημοσύνη και σε μια βάση δεδομένων με δεκάδες χιλιάδες πιθανούς στόχους βάσει της σχέσης που είχαν με τη Χαμάς, αποκαλύπτει άρθρο του βρετανικού  Guardian.

Το σύστημα, που ονομάζεται Lavender χρησιμοποιεί αλγόριθμους μηχανικής μάθησης, δηλαδή μεθόδους στην πρωτοπορία της έρευνας για την τεχνητή νοημοσύνη, για να εντοπίσει τους στόχους.

Ωστόσο, πηγές των μυστικών υπηρεσιών αναφέρουν ότι οι αξιωματικών των Ισραηλινών Ενόπλων Δυνάμεων σκότωσαν και μεγάλο αριθμό αμάχων, ιδίως κατά τις πρώτες εβδομάδες  της σύγκρουσης. Το σύστημα λήψης αποφάσεων το «επέτρεπε» και αυτό.

Η βάση δεδομένων στέλνει τον πόλεμο σε αχαρτογράφητα νερά και σε «βαθιά» ηθικά και νομικά προβλήματα. «Δεν θυμάμαι να έχει προηγούμενο», είπε στη βρετανική εφημερίδα Ισραηλινός αξιωματικός των πληροφοριών. «Έχασα και εγώ ανθρώπους στις 7 Οκτωβρίου. Η μηχανή το έκανε ψυχρά και αυτό το έκανε πιο εύκολο», εξήγησε. Στο παρελθόν η «γραφειοκρατία» για την επιλογή των στόχων ήταν αργοκίνητη: η απόφαση να «ενοχοποιηθεί» ένα άτομο ή να αναγνωριστεί ως νόμιμος στόχος συζητιόταν και υπογραφόταν από νομικό σύμβουλο.

Μετά την τρομοκρατική επίθεση της 7ης Οκτωβρίου, αυτό το μοντέλο άλλαξε. Όσο ο βομβαρδισμός της Γάζας από τις IDF γινόταν εντατικότερος, οι διοικητές απαιτούσαν συνεχή ροή στόχων. «Μάς φώναζαν, ‘φέρτε μας στόχους’», λέει αξιωματικός των πληροφοριών .

Για αυτό και οι IDF άρχιζαν να βασίζονται όλο και περισσότεροι στο Lavender το οποίο αναπτύχθηκε από το επίλεκτο τμήμα πληροφοριών των IDF, τη Μονάδα 8200.Τα δημοσιεύματα δεν αναφέρονται στο πώς το Lavender επιλέγει τους στόχους του ή με ποια δεδομένα. Έπειτα από τυχαία δειγματοληψία και διασταύρωση των προβλέψεών του, η 8200 κατέληξε στο συμπέρασμα ότι το Lavender είχε επιτύχει ποσοστό ακρίβειας 90%, οπότε οι IDF ενέκριναν τη μαζική χρήση του.

Φαίνεται πάντως ότι το Lavender δημιούργησε μια βάση δεδομένων δεκάδων χιλιάδων ατόμων που χαρακτηρίστηκαν χαμηλόβαθμα μέλη της στρατιωτικής πτέρυγας της Χαμάς. Το Lavender λειτουργούσε σε συνδυασμό με ένα άλλο σύστημα υποστήριξης αποφάσεων, επίσης βασισμένο στην τεχνητή νοημοσύνη, το οποίο ονομάζεται Gospel. Αυτό πρότεινε ως στόχους κτίρια και δομές και όχι άτομα.

Το σύστημα κατάφερε να καταγράψει 37.000 άτομα ως πιθανούς ανθρώπινους στόχους, ωστόσο «οι αριθμοί άλλαζαν συνεχώς, επειδή εξαρτάται από το πού θέτεις τον πήχη του». Έτσι, αν χαλάρωναν οι παράμετροι, το σύστημα πρότεινε αστυνομικούς. Για αυτούς «θα ήταν κρίμα να σπαταλήσουμε βόμβες» καθώς «βοηθούν την κυβέρνηση της Χαμάς, αλλά δεν βάζουν σε κίνδυνο στρατιώτες». Σημειώνεται ότι πριν από τις 7 Οκτωβρίου το ένοπλο τμήμα της Χαμάς υπολογιζόταν ότι είχε 25.000 με 30.000 άνδρες.

Για κάποιες κατηγορίες στόχων, οι IDF εφάρμοζαν από πριν αριθμητικά όρια για τον εκτιμώμενο αριθμό των αμάχων που θα μπορούσαν να σκοτωθούν πριν εγκριθεί ένα χτύπημα. Τις πρώτες εβδομάδες του πολέμου, για παράδειγμα, τους επιτράπηκε να σκοτώνουν 15 ή 20 αμάχους κατά τη διάρκεια αεροπορικών επιδρομών εναντίον χαμηλόβαθμων μαχητών. Οι επιθέσεις σε τέτοιους στόχους γίνονταν συνήθως με τη χρήση μη κατευθυνόμενων πυρομαχικών («χαζές» βόμβες που έχουν χαμηλότερη ακρίβεια σε σχέση με τις «έξυπνες») τα οποία καταστρέφουν ολόκληρα σπίτια.

«Δεν θα θέλατε να σπαταλάτε ακριβές βόμβες σε μη σημαντικούς ανθρώπους», δήλωσε αξιωματικός των μυστικών υπηρεσιών. Ένας άλλος είπε ότι με τις «χαζές» βόμβες «κυριολεκτικά γκρεμίζαμε όλο το σπίτι πάνω στους ενοίκους του». Αλλά ακόμη και αν ακυρωνόταν μια επίθεση, «δεν σε νοιάζει, προχωράς αμέσως στον επόμενο στόχο. Λόγω του συστήματος, οι στόχοι δεν τελειώνουν ποτέ. Έχεις άλλους 36.000 να σε περιμένουν».

Ειδικοί λένε ότι η χρήση των βομβών που δεν είναι «έξυπνες» από το Ισραήλ θα μπορούσε να εξηγήσει τον εξαιρετικά υψηλό αριθμό των νεκρών στον πόλεμο, που ξεπερνά τους 32.000 Παλαιστίνιους. Φυσικά, δεν ήταν όλοι μέλη της Χαμάς.

«Υπήρχε μια εντελώς ανεκτική πολιτική όσον αφορά τις απώλειες των επιχειρήσεων, μια πολιτική τόσο ανεκτική που κατά τη γνώμη μου είχε ένα χαρακτήρα εκδίκησης», είπε αξιωματούχος των μυστικών υπηρεσιών.

Όταν στοχοποιούνταν τα χαμηλόβαθμα μέλη της Χαμάς, η προτίμηση ήταν να εξοντωθούν όταν πίστευαν ότι βρίσκονταν στο σπίτι τους. «Είναι πολύ πιο εύκολο να βομβαρδίσουμε το σπίτι μιας οικογένειας», εξηγούν ισραηλινές πηγές. Αυτό, φυσικά, προκαλεί και σοβαρές παράπλευρες απώλειες μεταξύ αμάχων – για αυτό και το σύστημα είχε «ανοχές» για τις απώλειες.

Σύμφωνα με τα ισραηλινά μέσα ενημέρωσης, οι IDF έκριναν ότι ήταν επιτρεπτό να σκοτωθούν περισσότεροι από 100 άμαχοι σε επιθέσεις εναντίον ενός υψηλόβαθμου αξιωματούχου της Χαμάς, όπως ενός ταξιάρχου ή ενός διοικητή τάγματος. Στην πράξη τα όρια ανεβοκατέβαιναν (έφταναν ακόμη και στα πέντε άτομα) ή καταστρατηγούνταν. Ακόμη περισσότερο: ποτέ δεν μπορείς να γνωρίζεις πόσοι άμαχοι είναι στο κτίριο την ώρα που είναι μέσα ο στόχος.

Πέρα από το σοβαρό ηθικό πρόβλημα της επιλογής στόχων από ένα μηχάνημα, χρήστες του Lavender αμφισβήτησαν πόσο νόημα είχε ο ρόλος των ανθρώπων στη διαδικασία επιλογής. «Είχα μηδενική προστιθέμενη αξία ως άνθρωπος, εκτός από το να βάζω τη “σφραγίδα” της έγκρισης», εξήγησε άλλος χρήστης.

Σχολιάζοντας το δημοσίευμα, οι IDF επικαλέστηκαν τη συνήθη δικαιολογία τους: οι επιχειρήσεις τους στη Λωρίδα της Γάζας πραγματοποιήθηκαν σύμφωνα με τους κανόνες αναλογικότητας του διεθνούς δικαίου. Πρόσθεσαν ότι ακόμη και οι μη έξυπνες βόμβες χρησιμοποιούνται από τους IDF με τρόπο που εξασφαλίζει υψηλό επίπεδο ακρίβειας.

Περιέγραψαν δε το Lavender ως βάση δεδομένων που χρησιμοποιείται «για τη διασταύρωση πηγών πληροφοριών» ενώ τόνισαν ότι «δεν πρόκειται για κατάλογο επιβεβαιωμένων στρατιωτικών στελεχών που είναι επιλέξιμοι για επιθέσεις».

«Οι IDF δεν χρησιμοποιούν σύστημα τεχνητής νοημοσύνης που αναγνωρίζει τρομοκράτες και δεν προσπαθούν να προβλέψουν αν ένα άτομο είναι τρομοκράτης» λένε ακόμη.

Facebooktwitterredditpinterestlinkedinmail
Geopolitics & Daily News Copyrights Reserved 2024