Le biais d'omission
/image%2F6172132%2F20221226%2Fob_7b7916_pexels-photo-1816823-1-rt-red.jpg)
Imaginons le conducteur d'un tramway hors de contrôle qui ne peut que choisir de détourner ou non sa course depuis une voie vers une déviation.
Cinq hommes travaillent sur la voie et un homme est situé sur la déviation.
L’action ou l’inaction entraînera automatiquement la mort des personnes qui se trouvent sur les voies.
Si le conducteur estime que l’action est pire que l’inaction, il est soumis au biais d’omission.
/image%2F6172132%2F20221226%2Fob_edc9ea_ombre-dessin-acclamations-fraiche-deco.jpg)
Le biais d'omission consiste à considérer que causer éventuellement un tort par une action est pire que causer un tort par l’inaction.
Les gens ont tendance à juger le préjudice résultant de l’action plus négativement que le préjudice résultant de l'omission (inaction).
Le biais est souvent présenté à travers le problème du chariot ou dilemme du tramway que l’on a vu au début.
Le point de vue utilitariste affirme que, dans cet exemple, il faut obligatoirement choisir l’option qui cause des dommages au minimum de personnes.
/image%2F6172132%2F20221226%2Fob_c8a04c_pexels-photo-8566570-rt-red.jpg)
Loin d'être imaginaire, ce dilemme peut s'appliquer dans des situations concrètes, notamment dans la mise au point des schémas décisionnels de véhicules autonomes.
En effet, à l’évidence, les passagers de véhicules autonomes devraient assumer leur choix de ce mode de transport et il ne devrait pas être question d’en faire pâtir d’autres personnes. Dans tous les cas, le véhicule devrait éviter de percuter des personnes extérieures même au risque de mettre en péril ses passagers.
Mais le public ne se déclare pas très enclin à s’équiper de tels véhicules si ces derniers venaient à sacrifier sciemment leurs passagers.
La question a été reformulée(*) en demandant si un véhicule autonome dans l'incapacité de freiner à temps devrait continuer tout droit et tuer trois piétons ou virer fortement de côté et tuer ses trois passagers. Le site Moral Machine vous propose de vous confronter à ces dilemmes moraux.
- - -
(*) ben oui, il faut bien vendre des véhicules autonomes et les logiciels qui vont avec !
Même si dire que les passagers montent dans ces véhicules à leurs risques et périls, devrait être la règle, on détourne le problème vers la question éthique pour faire accepter l’inacceptable . . .
- - -
/image%2F6172132%2F20221226%2Fob_9d065c_moral-machine.jpg)
Moral Machine est une plateforme permettant de recueillir un panorama des différentes appréciations culturelles de l'éthique vis-à-vis des décisions morales prises par l’Intelligence Artificielle, dans le cadre des véhicules autonomes.
L’expérience débutée en 2016 propose à un utilisateur deux scénarios qui mettent en situation des accidents de la route inévitables. Celui-ci doit alors trancher sur le choix le plus «moral» entre une typologie de victime, ou une autre.
On nous assure que Moral Machine n’a pas pour vocation de faire voter les populations pour contraindre la programmation des véhicules autonomes, mais plutôt de mettre en lumière la nécessité d’une réflexion sur ce sujet, mais. . . .
biaisomission
Sources
http://www.psychomedia.qc.ca/lexique/definition/biais-d-omission
https://en.wikipedia.org/wiki/Omission_bias
https://fr.wikipedia.org/wiki/Dilemme_du_tramway
https://portail-ie.fr/analysis/2371/ethique-et-intelligence-artificielle-lexperience-morale-machine
https://www.blogdumoderateur.com/moral-machine-dilemmes-moraux-voitures-autonomes/
https://www.moralmachine.net/hl/fr
/image%2F6172132%2F20221226%2Fob_795921_point.jpg)