« Un après-midi à la TSR | Accueil | Les tourments de l'armée »
14 mai 2005
Robots contre barbares
Les contrastes inhérents au principal conflit qui embrase la planète a encore été souligné aujourd'hui par l'annonce de deux événements diamétralement opposés.
D'une part, des terroristes - probablement islamistes - ont lancé une grenade devant une école chrétienne de Srinagar, à l'instant où les enfants en sortaient pour rejoindre leurs parents. L'explosion a tué deux femmes et blessé 50 personnes, dont 20 enfants, selon la police indienne. On imagine sans peine la scène chaotique décrite sommairement par l'auteur de la dépêche, les enfants ensanglantés et les parents affolés à la sortie des classes. Balancer une arme de guerre dans une foule composée majoritairement de femmes et d'enfants illustre tristement la forme que prend aujourd'hui la barbarie.
D'autre part, un drone Predator de la CIA aurait éliminé un important dirigeant yéménite d'Al-Qaïda, dans une région du Pakistan toute proche de l'Afghanistan, selon la presse américaine. Si cette annonce est exacte, c'est à nouveau un missile à guidage laser Hellfire qui aura été utilisé pour tuer un membre éminent du réseau islamiste après son identification par les caméras du drone. Une manière de neutraliser définitivement un combattant reconnu, sans dommage collatéral, qui illustre clairement la forme que prend aujourd'hui le combat.
A priori, ces deux événements antinomiques soulignent donc le fossé qui sépare les terroristes sanguinaires des opérateurs méticuleux, et le massacre idéologique de l'exécution méthodique. D'un point de vue militaire et juridique, l'opposition est effectivement totale, et je ne peux qu'approuver une manière précise et efficace d'éliminer ses ennemis lorsque ceux-ci sont identifiés. Engager une grenade coûtant quelques francs pour faire le plus de mal possible est à l'opposé d'un missile hautement perfectionné, coûtant plus de 100'000 francs et doté d'une précision que l'on pourrait dire diabolique.
L'usage d'un robot pour tuer délibérément un homme doit cependant faire réfléchir. Combattre un fanatisme inhumain par un automatisme tout aussi inhumain risque de générer une barbarie plus sanglante encore, par laquelle les algorithmes informatiques en viendraient à s'arroger droit de vie et de mort sur un être humain. Nous n'en sommes certes pas encore là , mais le progrès technologique indique sans conteste les extrémités auxquelles son application irréfléchie aux conflits armés pourrait nous mener.
Publié par Ludovic Monnerat le 14 mai 2005 à 22:07
Commentaires
Un robot sans intelligence artificielle n'est-il pas qu'une vulgaire arme spécialisée ? le danger dont vous parlez suppose non seulement un automatisme mais surtout une décision " intelligente et non humaine " je pense.
Publié par Yves-Marie SENAMAUD le 15 mai 2005 à 2:40
Voilà bien un sujet passionnant pour la béotienne que je suis.. Parlant d'algorithmes informatiques. J'aimerais savoir, concrètement, comment les drones fonctionnent. Sur quelles bases les caméras identifient. Ce qui provoque le largage du missile à guidage laser Hellfire. Dans quelle mesure la réflexion humaine intervient ou non. Dans quelle mesure on garde ou non l'emprise sur le robot...
Publié par Myriam le 15 mai 2005 à 2:45
Il faudra bientôt relire Isaac Asimov: http://en.wikipedia.org/wiki/Isaac_Asimov
Publié par ajm le 15 mai 2005 à 6:48
Mon billet a effectivement omis de préciser que le drone Predator est télécommandé : il fournit des images autorisant l'identification de personnes et la décision de tirer est prise par les opérateurs du drone, ou par un responsable des opérations antiterroristes. Pour l'instant, ce que l'appareil fait de façon automatique, c'est l'exécution du tir : le largage et le guidage du missile Hellfire sur sa cible. Aucun risque que le robot ne se mette à agir tout seul (sauf en cas de dysfonctionnement).
Mais ce n'est pas vraiment une telle perspective futuriste que je voulais aborder (et la question des lois d'Asimov!). Les opérateurs du drone sont en général très loin de leur cible, parfois à plus de 10'000 km (les Predator de la CIA sont pour la plupart dirigés depuis le contingent américain...). Et c'est cette distance qui devrait nous interpeller : une image prise en altitude amène à déclencher la mort d'un homme en pressant un simple bouton. L'acte de tuer est totalement désincarné, sans impact sur les sens.
C'est bien entendu un vaste thème abordé en quelques lignes, mais je vais continuer à y réfléchir.
Publié par Ludovic Monnerat le 15 mai 2005 à 8:36
Le Lt-Col. Monnerat dit :
"L'usage d'un robot pour tuer délibérément un homme doit cependant faire réfléchir. Combattre un fanatisme inhumain par un automatisme tout aussi inhumain risque de générer une barbarie plus sanglante encore, par laquelle les algorithmes informatiques en viendraient à s'arroger droit de vie et de mort sur un être humain. Nous n'en sommes certes pas encore là , mais le progrès technologique indique sans conteste les extrémités auxquelles son application irréfléchie aux conflits armés pourrait nous mener."
C'est à rapprocher du commentaire du Lt-Col. à propos du livre de VDH :
http://www.checkpoint-online.ch/CheckPoint/Forum/Livre-HansonCarnageCulture.html
"Victor Davis Hanson conclut par une vision inquiétante, celle d'un monde occidentalisé où l'efficacité militaire brute conduit à des guerres plus meurtrières encore que celles du siècle dernier. A l'heure où la théorie du «choc des civilisations» est bien davantage en vogue, cette considération mérite autant d'attention que l'ouvrage tout entier."
Publié par Colonel X le 15 mai 2005 à 17:29
" Et c'est cette distance qui devrait nous interpeller : une image prise en altitude amène à déclencher la mort d'un homme en pressant un simple bouton. L'acte de tuer est totalement désincarné, sans impact sur les sens."
C'est déjà depuis longtemps le cas à mon avis. Je me rappelle avoir vu les opérateurs de console de tire d'un bateau américain applaudir à la mise au tapis d'un avion qui n'avait pas répondu aux sommations et quelques secondes plus tard les mines basses en apprenant qu'ils venaient de descendre un avion de ligne. Dans le même ordre d'idées un reporter de Radio Canada ergotant à la première guerre d'Irak sur la sonnerie aux morts ( d'un autre âge ) du légionnaire français à la fin du combat! Tuer " à froid " va poser d'énormes problèmes de comportements si l'on n'honore pas les morts au moins pendant une minute.
Publié par Yves-Marie SENAMAUD le 15 mai 2005 à 18:05
Oui, la technologie des missiles ou des bombes permet depuis longtemps de tuer en pressant un bouton et en laissant faire les projectiles, intelligents ou non. Mais dans un tel cas, on ne voit pas les êtres humains que l'on tue, on ne les identifie pas pour justement décider de leur mort. On frappe un objectif en fonction de critères plus ou moins précis, et pas un individu donné. Cela me semble une différence de taille.
Dans un registre similaire, on peut noter que la politique d'élimination des chefs terroristes palestiniens a généré des remous dans l'aviation israélienne, qui emploie essentiellement des hélicoptères de combat Apache et des missiles Hellfire - ce dernier mérite bien son nom... - pour ce faire. Encore que la question des dommages collatéraux fasse largement partie du problème.
Publié par Ludovic Monnerat le 15 mai 2005 à 18:53
Je pense au contraire que l'utilisation de drones pour des frappes chirurgicales est le meilleur moyen d'éviter les dommages collatéraux (comme ce terme est à la mode!). D'autre part, ce moyen permet également d'éviter les pertes amies.
Je me souviens du témoignage d'un SAS après la traque d'un groupuscule d'Al-Qaeda en Afghanistan qui déclarait "ces individus étaient fous! ils tiraient avec leur AK-47 au-dessus de leur tête dans toutes les directions, sans viser. Nous les abattions comme des mouches." Ce propos illustre parfaitement le type d'ennemi à combattre. Dès lors, pourquoi verser dans le sentiment? One shot, one kill et nous ne perdons pas d'hommes inutilement.
Publié par Ares le 15 mai 2005 à 23:15
One shot, one kill and 1 minute of silence pour éviter de devenir des robots et évitons d'applaudir car on n'est pas au théâtre mais très proche de l'enfer.
Publié par Yves-Marie SENAMAUD le 16 mai 2005 à 0:46
Nous ne devenons pas des robots, je trouve au contraire cette méthode très humaine. Ce qui ne l'est pas c'est la tuerie aveugle.
Publié par Ares le 16 mai 2005 à 10:23
Le génocide aussi est très humain et bien ancré dans nos gênes comme chez les félins et autres espèces. Le milieu interlope est très humain, il ne liquide que les personnes qui les gênent ;-)
Publié par Yves-Marie SENAMAUD le 16 mai 2005 à 12:20
Parcourant votre site, je trouve en effet très intéressante la question de la "déshumanisation" de la guerre, voire de la "déshumanisation" d'exécutions (dans différents cas où la CIA envoie des drones équipés de missiles supprimer ses ennemis au lieu de les arrêter).
Je ne commente pas plus avant cet aspect du problème. Je souhaitais attirer votre attention sur le fait que ces opérations se font rarement "sans dommage collatéral", la précision de ces robots n'est apparemment pas si diabolique que cela... et des civils en pâtissent. Pour info, consulter un article publié par Amnesty International (disponible sous peu en français) à l'adresse suivante :
http://web.amnesty.org/library/Index/ENGASA330022006
Publié par Chantal le 2 février 2006 à 19:37
C'est sans doute davantage la précision des renseignements que celle des armes engagées qui est en cause : les drones en question tirent des missiles à guidage laser dont la précision technique est remarquable. En revanche, des missiles conçus pour détruire des blindés ne sont pas exactement adapté à la tâche en matière d'effet létal. Ceci étant, si les cibles visées se situent dans un bâtiment également occupé par des non combattants, les dommages collatéraux sont inévitables.
Publié par Ludovic Monnerat le 2 février 2006 à 20:09