Diplôme de français des relations internationales B2 Fortgeschritten

Vers une armée de robots ?

Lorsqu'ils exposent leur opinion, les deux invités organisent leurs idées avec des mots qui permettent de les lier de façon logique. Ces connecteurs sont utilisés dans la langue orale.
Réécoutez leurs interventions et complétez les extraits ci-dessous avec les mots ou expressions entendus.
Écrivez la ou les bonnes réponses dans les cases Help on how to respond the exercice
FRI-B2-Geopolitis-robots-video
Tobias Vestner
Si on part du principe que les armes arrivent à satisfaire aux exigences du droit, la question se pose s'il y a des erreurs commises par des machines. C'est-à-dire un engagement d'un civil au lieu d'un militaire. Ou un dommage collatéral. Là, c'est la question de la responsabilité qui se pose. À mon avis, l'intelligence artificielle ne peut pas être jugée responsable d'un crime international parce que la machine ne fait que suivre son propre mécanisme. Donc, la question de la responsabilité qui se pose, c'est là où il y a la cause de l'erreur. C'est-à-dire le programmateur, le développeur, le commandant militaire qui utilise l'arme ou même le politicien qui autorise l'utilisation de l'arme.
Je trouve qu'un traité qui interdit ces armes est approprié si on arrive à la conclusion qu'il n'est pas acceptable qu'une machine puisse tuer un être humain. Les questions qui se posent après, par contre, c'est si ce traité peut être efficace ou pas.

Aude Billard
D'un point de vue juridique, bon, je ne suis pas juriste, je ne peux pas prendre la place d'un juriste. Mais je ne suis pas sûre que ça aide le débat. Finalement, le débat c'est de mettre la responsabilité sur quelqu'un. Encore une fois, la problématique, elle est en amont, sur qui a le droit, en fait, de tuer.
nbOk1 Wort / Wörter richtig geschrieben
nbOk2 Wort / Wörter falsch betont
nbKo Wort / Wörter zu berichtigen
Vorsicht!
Attention aux majuscules en début de phrases, aux accents et aux traits d'union.

Pour vous aider :

1. hypothèse
2. condition
3. explication, précision
4. alternative
5. explication, précision
6. condition
7. opposition
8. restriction
9. conclusion
10. insistance
11. précision
Bravo!
Grâce à cette série d'exercices, vous avez découvert les problèmes de définition des armes autonomes ainsi que leurs enjeux éthiques, militaires, et juridiques. Pour en savoir plus, consultez le dossier « Robots tueurs. Un problème mondial méconnu » sur le site de TV5MONDE.
Grâce à cette série d'exercices, vous avez découvert les problèmes de définition des armes autonomes ainsi que leurs enjeux éthiques, militaires, et juridiques. Pour en savoir plus, consultez le dossier « Robots tueurs. Un problème mondial méconnu » sur le site de TV5MONDE.
Conception: Catherine Minala, Alliance française de Bruxelles-Europe avec le Français des affaires - CCI Paris Île-de-France
Published on 09/04/2018 - Modified on 10/12/2018
Marcel Mione, présentateur
Alors toutes ces questions d’intelligence artificielle appliquée à la chose militaire posent des questions d’ordre moral et juridique. On en a posé quelques quelques-unes à un expert de droit international, monsieur Tobias Vestner.
Tobias Vestner, expert juridique GCSP – Genève
Si on part du principe que les armes arrivent à satisfaire aux exigences du droit, la question se pose s’il y a des erreurs qui sont commises par des machines. C’est-à-dire un engagement d’un civil au lieu d’un militaire. Ou un dommage collatéral manifeste, plusieurs morts pour une cible militaire qui n’est pas importante du tout. Là, c’est la question de la responsabilité qui se pose. Et là, le droit international n’est pas très clair. À mon avis, une arme, un système autonome, l’intelligence artificielle ne peut pas être jugée responsable d’un crime international parce que la machine ne fait que de suivre son propre mécanisme. Donc, la question de la responsabilité qui se pose, c’est là où il y a la cause de l’erreur. C’est-à-dire le programmateur, le développeur, le commandant militaire qui utilise l’arme ou même le politicien qui autorise l’utilisation de l’arme. 
Un traité d’interdiction, un projet, une initiative qui a été lancée par les organisations non gouvernementales approche notamment l’aspect éthique. Est-ce qu’on est d’accord qu’une machine puisse tuer un être humain ou pas ? Donc, si on arrive à la conclusion que, pour des raisons morales, ce n’est pas acceptable, là je trouve qu’un traité qui interdit ces armes est approprié. Les questions qui se posent après, par contre, c’est si ce traité peut être efficace ou pas. Ce qu’on voit avec le traité contre les armes nucléaires, en ce moment, c’est que les États qui détiennent ces armes ne veulent pas se passer de leur avantage. Donc, ne sont pas prêts à s’engager dans une telle aventure. 
Au niveau militaire, ces armes donnent clairement des avantages qu’on n’a pas encore vus assez ces jours. Les armes sont plus rapides, peuvent traiter plus d’informations, sont moins coûteuses sur le long terme. Donc, pour moi, c’est inévitable que les États vont continuer à développer ces systèmes autonomes. Même au niveau de la stabilité internationale, c’est envisageable qu’il y ait une course aux armements parce que les rapports de force vont font que s’intensifier entre les États qui ont ces nouvelles technologies et les États qui n’ont pas ces nouvelles technologies. 
Marcel Mione
Des juristes, madame Madame Billard, s’évertuent à essayer de classifier les armes autonomes en semi-autonomes, partiellement autonomes, totalement autonomes. Est-ce que ces classifications ont du sens ?
Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
D’un point de vue juridique, bon, je ne suis pas juriste, je ne peux pas prendre la place d’un juriste. Mais je ne suis pas sûre que ça aide le débat. Finalement, le débat, c’est de mettre la responsabilité sur quelqu’un et on espère, en définissant autonome, semi-autonome, partiellement autonome, de pouvoir mieux diriger, en fait, le débat sur qui est responsable. Donc, c’est fructifiant de ce point de vue-là. Mais ce que j’ai toujours essayé d’expliqué d’expliquer à tous les partis qui m’ont invitée, c’est que cette distinction, elle est excessivement difficile à faire. Et on risque de perdre un temps fou à essayer de le faire. C’est-à-dire qu’à l’heure actuelle, tous les robots sont un petit peu autonomes et puis pas complètement. L’être humain n’est pas complètement en contrôle et ne le sera jamais plus. Donc voilà, ça c’est la réalité des choses. Et encore une fois, la problématique, elle est en amont, sur qui a le droit, en fait, de tuer.
 

Ihnen könnte auch gefallen...