Permis de tuer ?
Qui ne connaît pas les trois lois de la robotique du célèbre Isaac Asimov ? Elle interdit à un robot de nuire à un être humain, l’oblige même à venir en aide à un être humain avant de songer à sa propre préservation. Pour rappel, les voici :
(1) Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
(2) Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
(3) Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
C’est un débat un peu similaire qui anime les concepteurs des voitures sans chauffeur. Certaines comme la Google car circulent déjà dans des portions de territoire aux États-Unis (elles n’ont des autorisations qu’à certains endroits très limités). Évidemment, les quelques accidents dans lesquels elles se sont trouvées impliquées sont scrutés à la loupe. L’un des objectifs des voitures sans conducteur est d’éviter toute erreur de conduite.
Le débat est donc le suivant : doit-on programmer ces voitures pour pouvoir tuer ? Je m’explique. Si l’une d’entre elles se retrouve dans une situation où un accident mortel ne pourra pas être évité. Quel doit être son objectif ? Minimiser les pertes humaines quitte à sacrifier quelques vies ou sauver coûte que coûte ses passagers ?
C’est un choix cornélien, n’est-ce pas ? Vivement qu’on nous invente le cerveau artificiel qui réfléchira à ces questions éthiques à notre place.