Diplôme de français des relations internationales B2 Fortgeschritten

Vers une armée de robots ?

Le débat sur les armes autonomes, les implications de leur développement et leur utilisation a pris de l'ampleur avec plusieurs appels d'ONG qui en demandent l'interdiction. Mais quels sont les points clés du débat et qu'en pensent les deux experts invités ? Écoutez attentivement l'extrait et choisissez la ou les bonne(s) réponse(s) parmi les propositions.
Cochez la ou les bonnes réponses Help on how to respond the exercice

FRI-B2-Geopolitis-robots-video

D'après l'expert juridique, la responsabilité d'une erreur commise par un robot... (2 réponses)

est le fait du fabricant du système, du programmeur du logiciel, du commandement ou de l'État qui a autorisé la mise en œuvre.
dépend du contexte opérationnel d'utilisation des armes autonomes : engagement au milieu de civils ou cible militaire.
est établie sans équivoque par les règles du droit international en ce qui concerne la question de la responsabilité.
ne peut être attribuée à un robot.

Selon Tobias Vester, un traité international sur les armes autonome est approprié...

car le risque de prolifération de ce type d'équipement et leur usage potentiel à des fins terroristes justifie une interdiction préventive.
si l'on estime inadmissible qu'un robot commette un crime contre un être humain.
dans la mesure où il régule ces armes plutôt que de les interdire absolument.

Cependant, il pense qu'un traité d'interdiction des systèmes d'armes autonomes...

ne sera probablement pas perçu par les États comme un frein au développement des armes autonomes.
aurait pour conséquence le développement de davantage d'armes nucléaires.
permettrait de garantir la stabilité internationale en attendant d'aboutir à des positions communes sur le développement d'armes autonomes.


Pour Aude Billard, tenter de définir le degré d'autonomie des armes... (2 réponses)

est primordial pour cadrer le débat et servir de base à une éventuelle réglementation.
présente des difficultés telles que cela risquerait d'enliser le processus de discussions.
masque le vrai problème, à savoir : qui a le droit de vie et de mort sur la personne humaine.
permet de mieux diriger le débat sur qui pèsent les responsabilités en cas de crime.
nbOk Bestandteil(e) von nb richtig ausgewählt
Vorsicht!
Réécoutez attentivement l'émission en prenant quelques notes. Les questions suivent l'ordre de progression de la vidéo.
Attention : les affirmations sont des reformulations de ce qui est dit dans le reportage.

Bravo!
Comme vous pouvez le constater, les termes de la problématique sont complexes et le débat porte sur une question morale spécifique : le fait de tuer ou d'être tué par une machine.
Comme vous pouvez le constater, les termes de la problématique sont complexes et le débat porte sur une question morale spécifique : le fait de tuer ou d'être tué par une machine. Prenez le temps de relire les réponses correctes, puis réécoutez le reportage une dernière fois pour les retrouver en contexte.
 
Conception: Catherine Minala, Alliance française de Bruxelles-Europe avec le Français des affaires - CCI Paris Île-de-France
Published on 09/04/2018 - Modified on 10/12/2018
Marcel Mione, présentateur
Alors toutes ces questions d’intelligence artificielle appliquée à la chose militaire posent des questions d’ordre moral et juridique. On en a posé quelques quelques-unes à un expert de droit international, monsieur Tobias Vestner.
Tobias Vestner, expert juridique GCSP – Genève
Si on part du principe que les armes arrivent à satisfaire aux exigences du droit, la question se pose s’il y a des erreurs qui sont commises par des machines. C’est-à-dire un engagement d’un civil au lieu d’un militaire. Ou un dommage collatéral manifeste, plusieurs morts pour une cible militaire qui n’est pas importante du tout. Là, c’est la question de la responsabilité qui se pose. Et là, le droit international n’est pas très clair. À mon avis, une arme, un système autonome, l’intelligence artificielle ne peut pas être jugée responsable d’un crime international parce que la machine ne fait que de suivre son propre mécanisme. Donc, la question de la responsabilité qui se pose, c’est là où il y a la cause de l’erreur. C’est-à-dire le programmateur, le développeur, le commandant militaire qui utilise l’arme ou même le politicien qui autorise l’utilisation de l’arme. 
Un traité d’interdiction, un projet, une initiative qui a été lancée par les organisations non gouvernementales approche notamment l’aspect éthique. Est-ce qu’on est d’accord qu’une machine puisse tuer un être humain ou pas ? Donc, si on arrive à la conclusion que, pour des raisons morales, ce n’est pas acceptable, là je trouve qu’un traité qui interdit ces armes est approprié. Les questions qui se posent après, par contre, c’est si ce traité peut être efficace ou pas. Ce qu’on voit avec le traité contre les armes nucléaires, en ce moment, c’est que les États qui détiennent ces armes ne veulent pas se passer de leur avantage. Donc, ne sont pas prêts à s’engager dans une telle aventure. 
Au niveau militaire, ces armes donnent clairement des avantages qu’on n’a pas encore vus assez ces jours. Les armes sont plus rapides, peuvent traiter plus d’informations, sont moins coûteuses sur le long terme. Donc, pour moi, c’est inévitable que les États vont continuer à développer ces systèmes autonomes. Même au niveau de la stabilité internationale, c’est envisageable qu’il y ait une course aux armements parce que les rapports de force vont font que s’intensifier entre les États qui ont ces nouvelles technologies et les États qui n’ont pas ces nouvelles technologies. 
Marcel Mione
Des juristes, madame Madame Billard, s’évertuent à essayer de classifier les armes autonomes en semi-autonomes, partiellement autonomes, totalement autonomes. Est-ce que ces classifications ont du sens ?
Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
D’un point de vue juridique, bon, je ne suis pas juriste, je ne peux pas prendre la place d’un juriste. Mais je ne suis pas sûre que ça aide le débat. Finalement, le débat, c’est de mettre la responsabilité sur quelqu’un et on espère, en définissant autonome, semi-autonome, partiellement autonome, de pouvoir mieux diriger, en fait, le débat sur qui est responsable. Donc, c’est fructifiant de ce point de vue-là. Mais ce que j’ai toujours essayé d’expliqué d’expliquer à tous les partis qui m’ont invitée, c’est que cette distinction, elle est excessivement difficile à faire. Et on risque de perdre un temps fou à essayer de le faire. C’est-à-dire qu’à l’heure actuelle, tous les robots sont un petit peu autonomes et puis pas complètement. L’être humain n’est pas complètement en contrôle et ne le sera jamais plus. Donc voilà, ça c’est la réalité des choses. Et encore une fois, la problématique, elle est en amont, sur qui a le droit, en fait, de tuer.
 

Ihnen könnte auch gefallen...