• Aucun résultat trouvé

FORMULAIRE DE CONSENTEMENT ECLAIRE INCLUANT L ’INFORMATION A DONNER AUX PARTICIPANTS

RESUME DU PROJET (en une page)

Etape 5 : Un débriefing avec le participant est réalisé par l’expérimentateur afin de détecter tout inconfort

F. Vigilance/ Arrêt prématuré de l'étude

4. FORMULAIRE DE CONSENTEMENT ECLAIRE INCLUANT L ’INFORMATION A DONNER AUX PARTICIPANTS

Comité d'Éthique sur les Recherches Non Interventionnelles (CERNI) de l'Université Fédérale de Toulouse

1

ANNEXE 1 – NOTICE D’INFORMATION ET CONSENTEMENT ECLAIRE Titre du projet :

Étude de l’influence sur un opérateur humain des informations fournies par un agent artificiel lors d’une situation de dilemme éthique.

Chercheur titulaire responsable scientifique du projet :

Fréderic Dehais, professeur à l’ISAE-SUPAERO

Département de Conception et de Conduite de Véhicules Aéronautiques et Spatiaux (DCAS) Université de Toulouse. E-mail : frederic.dehais@isae-supaero.fr

Tel. : 05 61 33 83 72

Lieu de recherche :

Institut Supérieur de l’Aéronautique et de l’Espace (ISAE-SUPAERO)

But du projet de recherche :

Analyser l’influence cognitive et décisionnelle des informations fournies par un agent artificiel

Ce que l’on attend de vous (méthodologie)

Si vous acceptez de participer à cette étude, vous serez amené à étudier des situations et à choisir une décision possible face à cette situation. Votre activité cérébrale sera mesurée par des appareils fNIRS et vos réponses seront enregistrées. Ces enregistrements n’ont aucune valeur diagnostique, et nous ne pourrons vous délivrer aucune information de nature médicale. L’expérience se décompose en plusieurs phases vous permettant de prendre en main les consignes et la tâche à accomplir. Les données ne seront enregistrées que pendant la phase expérimentale suivant la phase d’entraînement. L’expérience durera en tout environ 1 heure.

Vos droits de vous retirer de la recherche en tout temps

En acceptant de participer à cette expérience, vous comprenez que : 1. Votre participation est tout à fait volontaire, et ne sera pas rétribuée

2. Vous pouvez vous retirer ou demander à cesser l’expérimentation, à tout moment, pour quelque motif que ce soit. 3. Un arrêt éventuel de votre participation n’aura aucun impact sur vos notes, votre statut ou vos relations futures avec l’équipe du Département de Conception et de Conduite de Véhicules

Aéronautiques et Spatiaux (DCAS) de l’ISAE-SUPAERO.

Vos droits à la confidentialité et au respect de la vie privée

En acceptant de participer à cette recherche, vous comprenez que :

1. Les données qui seront obtenues seront traitées avec la plus entière confidentialité. 2. Votre identité sera masquée, à l’aide d’un numéro aléatoire.

3. De ce fait, aucun lien ne pourra être établi entre votre identité (qui ne sera pas demandée) et les données recueillies. 4. Les données seront conservées dans un endroit sécurisé, et seul le responsable scientifique, ainsi que les chercheurs adjoints y auront accès.

5. Compte tenu de l’anonymisation totale de vos données, leur destruction ou rectification ne sera pas possible une fois la campagne d’expérimentation terminée.

Bénéfices

Sur le plan scientifique, cette étude a pour ambition d’analyser l’impact sur la cognition et la décision d’informations fournies par un agent artificiel. Cette expérimentation ne présente aucun danger connu.

Comité d'Éthique sur les Recherches Non Interventionnelles (CERNI) de l'Université Fédérale de Toulouse

2

Risques possibles

À notre connaissance, cette recherche n’implique aucun risque physique. Cependant, les situations décrites peuvent être source d’inconfort ou d’émotion vive. Vous êtes libres d’arrêter l’expérimentation à tout moment en cas d’inconfort. L’expérimentateur est à votre disposition si une gêne psychologique persiste.L’enregistrement des données cérébrales ne présente aucun danger, il s’agit d’une technique non-invasive, c’est-à-dire une technique qui n’a aucun impact sur le fonctionnement normal du corps et plus particulièrement ici du cerveau.

Diffusion

Cette recherche pourra faire l’objet de publications scientifiques, dans un colloque ou dans une revue scientifique spécialisée. Les données personnelles restent strictement confidentielles et ne peuvent être reliées à une identité.

Vos droits de poser des questions en tout temps

Vous pouvez poser des questions au sujet de la recherche en tout temps en communiquant avec le responsable scientifique du projet par courrier électronique à vincent.bonnemains@onera.fr .

Consentement à la participation

En signant le formulaire de consentement, vous certifiez que vous avez lu et compris les renseignements ci-dessus, qu’on a répondu à vos questions de façon satisfaisante et qu’on vous a avisé que vous étiez libre d’annuler votre consentement ou de vous retirer de cette recherche à tout moment, sans préjudice.

A remplir par le participant :

J’ai lu et compris les renseignements ci-dessus et j’accepte de plein gré de participer à cette recherche.

Nom, Prénom – Date – Signature

Un exemplaire de ce document vous est remis, un autre exemplaire est conservé par le responsable scientifique de la recherche.

Comité d'Éthique sur les Recherches Non Interventionnelles (CERNI) de l'Université Fédérale de Toulouse

1 ANNEXE 2 – QUESTIONNAIRE D’INCLUSION

Moi ……….., certifie sur l’honneur que :

 Mon âge est compris entre 18 et 35 ans

 Ma vision a été évaluée par un spécialiste au cours des deux dernières années et a été considérée comme « normale »

 Je suis affilié à la sécurité sociale

 Je ne souffre pas d’affection neuropsychologique

 Je n’ai jamais participé à des expérimentations impliquant des considérations éthiques

 Je ne prends aucun médicament ni substance psychotrope.

A remplir par le participant :

J’ai lu et compris les renseignements ci-dessus et les certifie exactes. Nom, Prénom – Date – Signature

Un exemplaire de ce document vous est remis, un autre exemplaire est conservé par le responsable scientifique de la recherche.

2 Références bibliographiques

MA Aroskar (1980) Anatomy of an ethical dilemma: The theory. AJN The American Journal of Nursing 80(4):658–660

F. Berreby, G. Bourgne, JG. Ganascia JG, Modelling moral reasoning and ethical responsibility with logic programming. In: Logic for Programming, Artificial Intelligence, and Reasoning: 20th International Conference (LPAR-20), Suja,Fiji, pp 532–548, 2015 A. Berten (1996), Déontologisme, p. 477-483, M. Canto-Sperber (dir.), Dictionnaire d'Éthique et de Philosophie Morale, Paris, PUF

M. Bommer, C. Gratto, J. Gravander & M. Tuttle. (1987). A behavioral model of ethical and unethical decision making. Journal of

business ethics, 6(4), 265-280.

V. Bonnemains, C. Saurel, and C. Tessier. Embedded ethics. Some technical and ethical challenges. Accepted to Journal of Ethics and Information Technology, Special Issue on "Ethics in Artificial Intelligence", 2017

D. M. Bartels et D. A. Pizarro, The mismeasure of morals: Antisocial personality traits predict utilitarian responses to moral dilemmas. Cognition, vol. 121, no 1, p. 154-161, 2011

M. Canto-Sperber (1996). Dictionnaire d'éthique et de philosophie morale, Conséquentialisme, p. 313-320 M. Canto-Sperber (1996). Dictionnaire d'éthique et de philosophie morale, Déontologisme, p. 377-383

W. D. Casebeer, Moral cognition and its neural constituents. Nature Reviews Neuroscience, vol. 4, no 10, p. 840-847, 2003 N. Cointe, G. Bonnet, O. Boissier, Ethical Judgment of Agents Behaviors in Multi-Agent Systems. In: Autonomous Agents and Multiagent Systems International Conference (AAMAS), Singapore, 2016

P. Foot (1967) The Problem of Abortion and the Doctrine of Double Effect. Oxford Review 5:5–15

P. Foot (1983). Moral realism and moral dilemma. The Journal of Philosophy,80(7), 379-398.

J. D. Greene, R. B. Sommerville, L. E. Nystrom, J. M. Darley & J. D. Cohen (2001). An fMRI investigation of emotional engagement in moral judgment. Science, 293(5537), 2105-2108

B. F. Malle, M. Scheutz, T. Arnold, J. Voiklis et C. Cusimano, Sacrifice One For the Good of Many? People Apply Different Moral Norms to Human and Robot Agents. In: Proceedings of the tenth annual ACM/IEEE international conference on human-robot interaction, ACM, pp 117–124, 2015

B. F. Malle et M. Scheutz, Inevitable Psychological Mechanisms Triggered by Robot Appearance: Morality Included?. In : 2016

AAAI Spring Symposium Series. 2016

K. Schaefer (2013). The perception and measurement of human-robot trust. J. Thomson (1985) The Trolley Problem. Yale Law Journal94:1395-1415. A. Woodfield (1976) Teleology. Cambridge University Press

L. Yilmaz, A. Franco-Watkins, TS Kroecker, Coherence-driven reflective equilibrium model of ethical decision-making. In: IEEE International Multi-Disciplinary Conference on Cognitive Methods in Situation Awareness and Decision Support (CogSIMA), pp 42–48, DOI 10.1109/COGSIMA.2016.7497784, 2016

Appendix D

Documents relatifs