• Aucun résultat trouvé

Chapitre 3 : Problématique de recherche

3.4 Cybersécurité en ligne

Bien que la plupart des individus semblent considérer l’Internet comme un environnement sûr et sont prêts à l’utiliser continuellement et sans cesse, des cyberattaques surviennent sur une base quotidienne (de Bruijn & Janssen, 2017). Ces dernières ne visent pas seulement les nations et les entreprises, elles affectent aussi les individus (Hiller & Russell,

44

2013). Prenons la menace en Juin 2019 contre les membres du Mouvement Desjardins suite à la divulgation de leurs renseignements personnels (voir section 3.3). Leurs conséquences peuvent varier en fonction de l’ampleur et de la gravité de l’incident, allant de l’impact nul ou limité, au déni de services distribués (DDoS), aux vols de données, à la manipulation de données, aux vols d’identités jusqu’à la prise du contrôle du système d’information.

Ceci dit, garantir la sécurité en ligne s’avère difficile. Avec l’intrusion des logiciels malveillants, les sites Web ont une sécurité limitée (J. J. Zhao & Zhao, 2010) et peuvent être facilement piratés. De tels incidents engendrent une grave menace sur la sécurité des internautes (Bauer & Van Eeten, 2009) et causent des dommages inévitables sur leurs données (Ten, et al., 2008) (Leuprecht, et al., 2016).

Par ailleurs, la préoccupation dans les domaines de cybersécurité se concentre sur les impacts et la façon de traiter les incidents après qu’ils surviennent. Dans la plupart des cas, l’internaute ne prend conscience du problème qu’après avoir été victime d’une fraude ou d’un vol d’identité et, donc, après avoir subi une perte financière ou une catastrophe personnelle. Prenons l’exemple des utilisateurs des systèmes au sein des entreprises. Le renforcement de la sécurité passe par l’instauration de barrières qui servent de lumières rouges telles que limiter l’accès des documents à certaines personnes, obliger la double authentification, bloquer l’accès à certains sites ou définir des mots de passe sécurisés. Toutes ces mesures permettent à l’employé d’éviter certains comportements qui pourraient mettre à risque la sécurité des systèmes informatiques. En outre, des études antérieures ont signalé l’importance de la théorie de protection par motivation (Tsai, et al., 2016) (Protection Motivation Theory or PMT). Cette dernière suggère que lorsque les individus perçoivent qu’ils sont plus sensibles aux menaces de sécurité et lorsque les menaces sont plus sévères, ils sont plus susceptibles d’adopter la solution recommandée pour combattre cette menace (McBride, et al., 2012). Prenons l’exemple de la recherche de logiciels résistants contre les programmes malveillants et la sauvegarde des données. Dans la plupart des cas et même si l’usager ne possède pas un niveau de compétence suffisamment technique, il ira jusqu’à compléter des activités telles qu’installer des logiciels de sécurité, utiliser des mots de passe complexes et s’abstenir d’ouvrir des courriels risqués (Anderson & Agarwal, 2010; Johnston & Warkentin, 2010).

45

Compte tenu de la gravité de la situation, les questions suivantes se posent : pourquoi existe-t-il si peu de sensibilisation ? Et pourquoi ne prenons-nous pas de mesures draconiennes de prévention ? Afin de répondre à ces problématiques, nous présentons dans le chapitre 6 une expérience de magasinage en ligne. La démarche de l’expérience propose une liste de scénarios inspirée du questionnaire sur les aspects humains de la sécurité de l’information (The Human Aspects of Information Security Questionnaire ou HAIS-Q). Comme indiqué dans la Figure 13, le HAIS-Q comprend sept domaines d’intérêt basés chacun sur les connaissances, l’attitude et le comportement (Knowledge, Attitude and Behavior ou KAB) (McCormac, et al., 2017). À savoir : utilisation d’Internet, utilisation des courriels, utilisation des médias sociaux, gestion des mots de passe, signalement des incidents, la manipulation de l’information, l’infographie mobile. Dans ce travail, nous cherchons à examiner la relation entre la connaissance en cybersécurité, le comportement en ligne et la sensibilisation à la sécurité de l’information (Information Security Awareness or ISA) chez les internautes.

Figure 13 - Le modèle des aspects humains de la sécurité de l’information inspiré de (Parsons, et

46

3.5 Systèmes de recommandation

Les systèmes de recommandation posent une problématique en matière de vie privée puisque cette technologie s’appuie sur les profils des usagers. Dans ce contexte, le système recommande des items qui sont similaires à ceux que l’utilisateur a aimés dans le passé (Pazzani & Billsus, 2007). Par exemple, si l’utilisateur a apprécié positivement un film qui est de genre romantique, alors le système peut fournir des recommandations sur d’autres films de même genre. Par conséquent, le maximum d’informations échangées à propos de l’utilisateur peut assurer une prédiction selon son profil. Les méthodes qui explorent implicitement l’historique des pages Web visitées pour construire les profils posent un problème de confidentialité tel que le « Profinder » (Isinkaye, et al., 2015).

Cependant, une extrême protection de la vie privée peut rendre les recommandations inutiles. Les questions suivantes se posent : comment assurer un équilibre entre la

divulgation des données et leur utilité pour le filtrage collaboratif tout en gardant une

meilleure source de recommandations ? Comment gérer la publication des données tout

en respectant la vie privée et surtout si ces données sont exigées par les systèmes de

recommandation collaboratifs ? Afin de répondre à ces problématiques, nous proposons dans le chapitre 7 un nouveau modèle d’équilibre entre la protection de vie privée et l’utilité. Afin d’assurer un équilibre adéquat entre les deux caractéristiques, notre modèle est basé sur le « k-coRating » qui est un modèle de protection de la vie privée. Non seulement il masque les évaluations originales de telle sorte qu’une confidentialité de k données anonymes est préservée, mais il améliore également l’utilité des données.

Outre la problématique de préservation de vie privée, les systèmes de recommandation s’appuient sur les appréciations données par un ensemble d'utilisateurs sur un ensemble d'articles (Harper & Konstan, 2016) (cas de filtrage collaboratif). Ces appréciations révèlent leurs préférences et aident à retrouver les groupes ou communautés ayant des goûts en commun. Cependant, ce type de filtrage ne tient pas compte de la probabilité de changer d’avis dans le futur. La prédiction en fonction des articles les plus proches de ceux qu’ils ont déjà notés n’aboutit pas nécessairement à un résultat positif et satisfaisant. Il existe une probabilité non négligeable de changer de préférence dans la fois suivante. Afin de remédier à cette problématique, nous analysons dans le chapitre 8

47

l’instabilité des usagers dans leurs préférences qui peut engendrer une déception en ligne et un abandon des articles recommandés.

48