L’Intelligence Artificielle a t-elle le droit de tuer ?


Depuis les prémices de l’Intelligence Artificielle, nous savions qu’un jour ou l’autre que celle-ci devrait prendre des décisions concernant l’intégrité physique d’un être humain. Nous savions et repoussions ce moment où il faudrait fournir une réponse à l’Intelligence Artificielle.

Avant d’ aborder le sujet principal, je pense qu’ il est nécessaire de rappeler qu’une Intelligence Artificielle prend des décisions en analysant soit des probabilités, soit une base de faits qui lui ont été soumis par l’être humain. C’est une vision réduite et simplifiée. Certes, celle-ci apprend de ses erreurs, mais quand cela concerne l’intégrité humaine, l’erreur peut être fatale.

Nous avons longtemps repoussé ce moment, le voici enfin arrivé avec l’ère des voitures « Autonomes, Connectées, Intelligentes ». Quoi de plus sensible, de plus vital que le droit de tuer. Un « dominica postestas » autrefois octroyé aux puissants ou aux maîtres sur leurs esclaves, un droit mettant fin à la vie d’êtres humains. Mais les temps changent, la civilisation évolue, les technologies apparaissent et posent alors de nouveaux dilemmes, celui de tuer va être l’un des plus importants de notre époque. Qui peut se targuer d’un tel droit alors que nous ne faisons pas confiance aux médecins pour accompagner la fin de vie.

 

 

Les voitures vont poser le problème suivant : Qui tuer lors de la confrontation de celles-ci en face à face où aucune échappatoire est possible ?
Que ce soit voiture contre piéton où l’on a le choix entre :

  • Faire sortir la voiture de la route (donc tuer ses occupants) et sauver le piéton.
  • Percuter le piéton et sauver les personnes à l’intérieur du véhicule.

Ou bien, voiture contre voiture, où là encore deux choix s’opposent :

  • les occupants de la voiture A et laisser saufs ceux du véhicule B
  • les occupants de la voiture B et laisser saufs ceux du véhicule A

 

 
Je vous propose d’ analyser cette situation à travers plusieurs cas :

Cas 1

Confrontation entre une voiture conduite par un homme âgé de 70 ans et une voiture où sont présents une mère et ses deux enfants. Qui tuer ?

Un cas de conscience se pose. Vais-je choisir de tuer l’homme sous prétexte qu’il est âgé et qu’ en face, il ‘a deux enfants. Inévitablement, la majorité des personnes va alors choisir de tuer l’homme âgé, car les enfants sont sacralisés par l’insouciance, la jeunesse et l’innocence.

Cas 2

Confrontation entre une voiture conduite par une jeune femme et un homme traversant la route sur le passage piéton et donc ayant la priorité. Qui tuer ?

Là, on met en opposition la jeunesse et le bon droit. Doit-on faire primer la jeunesse ou le bon droit ? Doit-on tuer la conductrice ou doit-on tuer l’homme qui traverse de manière anodine le passage piéton ? La tendance va être à tuer la conductrice, car elle ne respecte pas le code de la route.

Cas 3

Confrontation entre deux voitures, une conduite par un homme et une autre par un individu. Qui tuer ?

Là, le mot individu perturbe, qui se cache derrière ? Qui est dans cette voiture ? Quand il‘ a une inconnue, que faire ? Quelle décision prendre ? Qui tuer ?
Car là est un autre problème, les voitures nouvelle génération, vont mettre du temps à devenir la norme, systèmes interconnectés, oui ! Mais par pour tous, du moins pas dans l’immédiat. Et même s ‘ils deviennent omniprésents, qui peut assurer aujourd’hui que nous n’aurons pas de hack ou détournements de ces systèmes.
Étudions un quatrième cas :

Cas 4

Confrontation entre une voiture remplie d ‘hommes et une qui annonce un père et ses enfants. Qui tuer ?

On revient sur le fait de la jeunesse, l’innocence, en apparence. Je vous ai volontairement dissimulé une donnée. Il n’’y avait qu’un homme dans la voiture au père et enfants. Si vous vous êtes dit que vous tuiez inévitablement les occupants de la voiture où se trouvaient les hommes, vous avez agi comme le ferait la majorité. Une intelligence artificielle recevant ces données erronées tuera sûrement les mêmes passagers. Sauf qu’en face, il y a une personne qui vient de survivre, car elle a trompé le système, car elle a estimé que sa vie valait plus que celle des autres. Et c’ est là qu’on arrive sur une question de sécurité informatique, celle de l’intégrité de ces systèmes.

 

Car quiconque peut modifier ceux-ci peut se donner un probable droit de tuer ! Ceci n’est heureusement que de la fiction à cet instant, mais le détournement de ces systèmes a déjà été prouvé lors de conférences en sécurité informatique. Ces systèmes sont donc des points vitaux de l’Internet des Objets, il doit devenir obligatoire d’assurer une intégrité sans faille sur ceux-ci !…[lire la suite]


Notre métier : Vous aider à vous protéger des pirates informatiques (attaques, arnaques, cryptovirus…) et vous assister dans vos démarches de mise en conformité avec la réglementation relative à la protection des données à caractère personnel.

Par des actions de formation, de sensibilisation ou d’audits dans toute la France et à l’étranger, nous répondons aux préoccupations des décideurs et des utilisateurs en matière de cybersécurité et de mise en conformité avec le règlement Européen relatif à la Protection des Données à caractère personnel (RGPD) en vous assistant dans la mise en place d’un Correspondant Informatique et Libertés (CIL) ou d’un Data Protection Officer (DPO) dans votre établissement.. (Autorisation de la Direction du travail de l’Emploi et de la Formation Professionnelle n°93 84 03041 84)

Plus d’informations sur : https://www.lenetexpert.fr/formations-cybercriminalite-protection-des-donnees-personnelles




 

Réagissez à cet article

Original de l’article mis en page : L’Intelligence Artificielle a le droit de tuer… – Hackademics : Forum de hacking – hackers white hat – cours de securite informatique

image_pdfimage_print