Diplôme de français des relations internationales B2 고급

Vers une armée de robots ?

Certains robots ont été conçus pour des applications militaires. Cela pose un certain nombre de questions. Ainsi, leur utilisation doit-elle être encadrée. Écoutez cet extrait de Géopolitis et sélectionnez les mots-clés utilisés pour en parler.
FRI-B2-Geopolitis-robots-video

armes autonomes [-] débat [-] {dictateurs} [-] droit de tuer [-] droit international [-] {drones de combat} [-] erreurs [-] éthique [-] juridique [-] organisations non-gouvernementales [-] {Nations unies} [-] responsabilité [-] {terroristes} [-] traité d'interdiction [-] {urgence}
Catherine Minala, Alliance française de Bruxelles-Europe avec le Français des affaires - CCI Paris Île-de-France
바르게 선택한 항목 [nbOk]개
초과 선택한 항목 [nbKo]개
선택을 빠뜨린 항목 [nb]개
다시 풀어보세요
Neuf des mots-clés de l'exercice sont prononcés dans l'émission. Certains d'entre eux apparaissent à l'écran.
참 잘했어요!
Les systèmes d'armes autonomes posent des questions d'ordre moral et juridique qui font débat. L'exercice 2 vous permettra de découvrir les points de vue des deux invités sur le sujet.
Les systèmes d'armes autonomes posent des questions d'ordre moral et juridique qui font débat. L'exercice 2 vous permettra de découvrir les points de vue des deux invités sur le sujet.
Marcel Mione, présentateur
Alors toutes ces questions d’intelligence artificielle appliquée à la chose militaire posent des questions d’ordre moral et juridique. On en a posé quelques quelques-unes à un expert de droit international, monsieur Tobias Vestner.
Tobias Vestner, expert juridique GCSP – Genève
Si on part du principe que les armes arrivent à satisfaire aux exigences du droit, la question se pose s’il y a des erreurs qui sont commises par des machines. C’est-à-dire un engagement d’un civil au lieu d’un militaire. Ou un dommage collatéral manifeste, plusieurs morts pour une cible militaire qui n’est pas importante du tout. Là, c’est la question de la responsabilité qui se pose. Et là, le droit international n’est pas très clair. À mon avis, une arme, un système autonome, l’intelligence artificielle ne peut pas être jugée responsable d’un crime international parce que la machine ne fait que de suivre son propre mécanisme. Donc, la question de la responsabilité qui se pose, c’est là où il y a la cause de l’erreur. C’est-à-dire le programmateur, le développeur, le commandant militaire qui utilise l’arme ou même le politicien qui autorise l’utilisation de l’arme. 
Un traité d’interdiction, un projet, une initiative qui a été lancée par les organisations non gouvernementales approche notamment l’aspect éthique. Est-ce qu’on est d’accord qu’une machine puisse tuer un être humain ou pas ? Donc, si on arrive à la conclusion que, pour des raisons morales, ce n’est pas acceptable, là je trouve qu’un traité qui interdit ces armes est approprié. Les questions qui se posent après, par contre, c’est si ce traité peut être efficace ou pas. Ce qu’on voit avec le traité contre les armes nucléaires, en ce moment, c’est que les États qui détiennent ces armes ne veulent pas se passer de leur avantage. Donc, ne sont pas prêts à s’engager dans une telle aventure. 
Au niveau militaire, ces armes donnent clairement des avantages qu’on n’a pas encore vus assez ces jours. Les armes sont plus rapides, peuvent traiter plus d’informations, sont moins coûteuses sur le long terme. Donc, pour moi, c’est inévitable que les États vont continuer à développer ces systèmes autonomes. Même au niveau de la stabilité internationale, c’est envisageable qu’il y ait une course aux armements parce que les rapports de force vont font que s’intensifier entre les États qui ont ces nouvelles technologies et les États qui n’ont pas ces nouvelles technologies. 
Marcel Mione
Des juristes, madame Madame Billard, s’évertuent à essayer de classifier les armes autonomes en semi-autonomes, partiellement autonomes, totalement autonomes. Est-ce que ces classifications ont du sens ?
Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
D’un point de vue juridique, bon, je ne suis pas juriste, je ne peux pas prendre la place d’un juriste. Mais je ne suis pas sûre que ça aide le débat. Finalement, le débat, c’est de mettre la responsabilité sur quelqu’un et on espère, en définissant autonome, semi-autonome, partiellement autonome, de pouvoir mieux diriger, en fait, le débat sur qui est responsable. Donc, c’est fructifiant de ce point de vue-là. Mais ce que j’ai toujours essayé d’expliqué d’expliquer à tous les partis qui m’ont invitée, c’est que cette distinction, elle est excessivement difficile à faire. Et on risque de perdre un temps fou à essayer de le faire. C’est-à-dire qu’à l’heure actuelle, tous les robots sont un petit peu autonomes et puis pas complètement. L’être humain n’est pas complètement en contrôle et ne le sera jamais plus. Donc voilà, ça c’est la réalité des choses. Et encore une fois, la problématique, elle est en amont, sur qui a le droit, en fait, de tuer.
 

You may also like...