Diplôme de français des relations internationales B2 Fortgeschritten

Vers une armée de robots ?

Les deux invités donnent une opinion nuancée sur ce débat complexe. Réécoutez l'émission et prêtez attention aux termes qu'ils emploient pour donner leur avis.
Glissez-déposez les éléments Help on how to respond the exercice
FRI-B2-Geopolitis-robots-video
Tobias Vestner
Là, c'est la question de la responsabilité qui se pose. Et là, le droit international n'est pas très clair .
Je trouve qu'un traité qui interdit les armes est approprié si on arrive à la conclusion que pour des raisons morales une machine ne peut pas tuer un être humain.
Les États qui détiennent ces armes ne veulent pas s'en passer. Au niveau militaire, les armes autonomes leur donnent clairement des avantages. Pour moi, c'est inévitable qu'ils vont continuer à développer ces systèmes autonomes. Même au niveau de la stabilité internationale, c'est envisageable qu'il y ait une course aux armements.

Aude Billard
Je ne suis pas sûre que le fait de classifier les armes autonomes en semi-autonomes, partiellement autonomes et totalement autonomes aide au débat. Le débat, c'est de mettre la responsabilité sur quelqu'un et on espère pouvoir ainsi mieux diriger le débat sur qui est responsable. C'est fructifiant de ce point de vue-là.  Mais ce que j'ai toujours essayé d'expliquer à tous les partis qui m'ont invitée, c'est que cette distinction, elle est excessivement difficile à faire.

manifeste
ouvertement
inefficace

inconcevable
irresponsable

nbOk Bestandteil(e) von nb richtig angeordnet
Vorsicht!
Les phrases suivent l'ordre de l'émission. Attention, il y a 5 mots en trop.
Bravo!
Comme vous le voyez, les mots sont précis pour formuler une opinion nuancée.
Vous allez découvrir dans l'exercice 4 comment leur discours est articulé.
Comme vous le voyez, les mots sont précis pour formuler une opinion nuancée.
Vous allez découvrir dans l'exercice 4 comment leur discours est articulé.
Conception: Catherine Minala, Alliance française de Bruxelles-Europe avec le Français des affaires - CCI Paris Île-de-France
Published on 09/04/2018 - Modified on 10/12/2018
Marcel Mione, présentateur
Alors toutes ces questions d’intelligence artificielle appliquée à la chose militaire posent des questions d’ordre moral et juridique. On en a posé quelques quelques-unes à un expert de droit international, monsieur Tobias Vestner.
Tobias Vestner, expert juridique GCSP – Genève
Si on part du principe que les armes arrivent à satisfaire aux exigences du droit, la question se pose s’il y a des erreurs qui sont commises par des machines. C’est-à-dire un engagement d’un civil au lieu d’un militaire. Ou un dommage collatéral manifeste, plusieurs morts pour une cible militaire qui n’est pas importante du tout. Là, c’est la question de la responsabilité qui se pose. Et là, le droit international n’est pas très clair. À mon avis, une arme, un système autonome, l’intelligence artificielle ne peut pas être jugée responsable d’un crime international parce que la machine ne fait que de suivre son propre mécanisme. Donc, la question de la responsabilité qui se pose, c’est là où il y a la cause de l’erreur. C’est-à-dire le programmateur, le développeur, le commandant militaire qui utilise l’arme ou même le politicien qui autorise l’utilisation de l’arme. 
Un traité d’interdiction, un projet, une initiative qui a été lancée par les organisations non gouvernementales approche notamment l’aspect éthique. Est-ce qu’on est d’accord qu’une machine puisse tuer un être humain ou pas ? Donc, si on arrive à la conclusion que, pour des raisons morales, ce n’est pas acceptable, là je trouve qu’un traité qui interdit ces armes est approprié. Les questions qui se posent après, par contre, c’est si ce traité peut être efficace ou pas. Ce qu’on voit avec le traité contre les armes nucléaires, en ce moment, c’est que les États qui détiennent ces armes ne veulent pas se passer de leur avantage. Donc, ne sont pas prêts à s’engager dans une telle aventure. 
Au niveau militaire, ces armes donnent clairement des avantages qu’on n’a pas encore vus assez ces jours. Les armes sont plus rapides, peuvent traiter plus d’informations, sont moins coûteuses sur le long terme. Donc, pour moi, c’est inévitable que les États vont continuer à développer ces systèmes autonomes. Même au niveau de la stabilité internationale, c’est envisageable qu’il y ait une course aux armements parce que les rapports de force vont font que s’intensifier entre les États qui ont ces nouvelles technologies et les États qui n’ont pas ces nouvelles technologies. 
Marcel Mione
Des juristes, madame Madame Billard, s’évertuent à essayer de classifier les armes autonomes en semi-autonomes, partiellement autonomes, totalement autonomes. Est-ce que ces classifications ont du sens ?
Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
D’un point de vue juridique, bon, je ne suis pas juriste, je ne peux pas prendre la place d’un juriste. Mais je ne suis pas sûre que ça aide le débat. Finalement, le débat, c’est de mettre la responsabilité sur quelqu’un et on espère, en définissant autonome, semi-autonome, partiellement autonome, de pouvoir mieux diriger, en fait, le débat sur qui est responsable. Donc, c’est fructifiant de ce point de vue-là. Mais ce que j’ai toujours essayé d’expliqué d’expliquer à tous les partis qui m’ont invitée, c’est que cette distinction, elle est excessivement difficile à faire. Et on risque de perdre un temps fou à essayer de le faire. C’est-à-dire qu’à l’heure actuelle, tous les robots sont un petit peu autonomes et puis pas complètement. L’être humain n’est pas complètement en contrôle et ne le sera jamais plus. Donc voilà, ça c’est la réalité des choses. Et encore une fois, la problématique, elle est en amont, sur qui a le droit, en fait, de tuer.
 

Ihnen könnte auch gefallen...