• Aucun résultat trouvé

CHAPITRE 3 : DES DIFFICULTES DE LA GESTION DU RISQUE DE CREDIT AU SEIN DES

3.4. DU BIG DATA A L’INTELLIGENCE ECONOMIQUE DANS LA BANQUE

Rappelons que l’objet de notre thèse est de proposer l’utilisation d’une démarche d’intelligence économique pour mieux gérer le risque de crédit bancaire, c’est-à-dire pour

réduire ce risque de crédit. Et, nous avons montré ci-dessus les principales limites des méthodes actuelles de gestion du risque de crédit au sein des banques. De plus actuellement, force est de constater que les établissements bancaires français n’ont que peu ou pas du tout investi le domaine de l’intelligence économique telle que nous l’avons définie précédemment.

Cependant, il faut noter que le secteur bancaire est également touché par le phénomène « Big Data » car les banques collectent et stockent d’importants volumes de données relatives à leurs clients et aux habitudes de consommation de ces derniers. Nous essaierons ci-dessous de définir le Big Data et d’en rappeler l’évolution historique avant de présenter ses usages dans les entreprises en général ainsi que dans les banques en particulier.

Précisons cependant que le Big Data, en tant que volumes gigantesques et croissants de données de diverses origines et formes, se distingue fondamentalement de l’intelligence économique que nous avons définie plus haut comme étant l’ensemble des actions de maîtrise et de protection de l’information stratégique dans le but de fournir au décideur la possibilité d’optimiser sa prise de décision. Toutefois, l’intelligence économique s’appuie sur des données pouvant provenir du Big Data pour élaborer les indicateurs de pilotage à fournir au décideur. De même, les entrepôts de données qui constituent le noyau des systèmes d’informations stratégiques et donc des démarches d’intelligence économique, exploitent des données provenant pour certaines du Big Data.

Le Big Data : concepts, définition et historique

Le Big Data est apparu avec l’essor des entreprises du numérique comme eBay ou Amazon qui ont, très vite, acquis un grand nombre de données (identification des clients, produits vendus, etc.). Pour traiter ces nombreuses données dans des délais de plus en plus réduits, de nouvelles technologies ont été développées. Ensuite, d’autres entreprises numériques ont fondé totalement leur modèle économique sur la valeur de leurs données qui sont essentiellement les données transmises par leurs utilisateurs ou clients. Il s’agit, par exemple, d’entreprises comme Facebook ou Google ou Twitter.

Le développement des nouvelles technologies de l’information et de la communication ainsi que les importantes avancées en termes de capacité de stockage des données numériques ces dernières années, ont rendu possible l’accumulation de gigantesques volumes de données au sein des entreprises. Ainsi, [Benabdeslem, Biernacki & Lebbah, 2015] rappelle que « le coût de stockage par Mo69 est passé de 700$ en 1981 à 1$ en 1994 puis à 0.01$ en 2013 (prix divisé par 70 000 en une trentaine d’années) tandis que l’on trouve maintenant des disques durs de l’ordre de 8 To à comparer aux 1.02 Go de 1982 (capacité

69 Octet : terme informatique désignant un ensemble de 8 bits servant à coder une information, et

multipliée par 8000 sur la même période) et une vitesse de traitement pour l’ordinateur le plus performant du moment passant d’un gigaFLOPS (le FLOP correspond à FLoating-point Operations Per Second) en 1985 à plus de 33 petaFLOPS en 2013 (vitesse multipliée par 33 millions) ».

La Figure 15 : Evolution de la capacité de stockage numérique [Hilbert & Lopez, 2011] ci-dessous montre, au travers du temps et en l’espace de 21 ans, l’évolution croissante de deux phénomènes : la part du numérique dans le stockage des données et l’augmentation continue des capacités de stockage numérique. En effet, cette figure montre l’évolution croissante de la part du stockage numérique dans le stockage total qui passe de 1% en 1986 à 50% en 2002 (début de l’ « ère du numérique ») pour atteindre 94%, soit la quasi-totalité du stockage en 2007. L’augmentation de la capacité de stockage des supports numériques (Disques durs, CD-ROM, DVD, clés USB, etc.), leur fiabilité et leur facilité d’utilisation expliquent cette croissance rapide et continue de la part du stockage numérique par rapport au stockage analogique (papier, pellicule, cassette audio et vidéo).

FIGURE 15:EVOLUTION DE LA CAPACITE DE STOCKAGE NUMERIQUE [HILBERT &LOPEZ,2011] Devenu désormais un véritable phénomène de société, Big Data est un terme anglophone qui sert non seulement à désigner l’ensemble des volumineuses données accumulées par les entreprises, mais aussi l’ensemble des procédures de recueil et traitement de ces données. Le Big Data peut être assimilé à l’art de capter des données, de les structurer et de les analyser en vue de la prise de décision.

La définition du Big Data communément admise, est celle des « 3V » du Gartner Group : « “Big data” is high-volume, -velocity and -variety information assets that demand cost-effective, innovative forms of information processing for enhanced insight and decision making. » [Sicular, 2013].

La Figure 16 : Big data, expansion sur 3 fronts à taux croissant [Soubra, 2012] ci-dessous montre bien l’évolution des « 3V » caractéristiques du Big Data. On note une croissance continue de chaque caractéristique, que ce soit le volume (qui traduit notamment la capacité de stockage) qui passe du méga-octet70 au peta-octet, ou bien la variété des données (tableau, base de données, photo, vidéo, etc.) ainsi que la vitesse.

FIGURE 16:BIG DATA, EXPANSION SUR 3 FRONTS A TAUX CROISSANT71[SOUBRA,2012]

Pour illustrer le critère de Volume des données concernées par Big Data, [Baltassis, 2013] affirme que n’importe quelle entreprise de plus de 1000 employés stocke désormais au moins autant de données que la Librairie du Congrès américain qui, elle, conserve tout ce qui a été imprimé depuis l’invention de l’imprimerie. Comme le montre la Figure 16 : Big data, expansion sur 3 fronts à taux croissant [Soubra, 2012] ci-dessus, le volume des données collectées atteint aujourd’hui les péta-octets, soit 1015 octets.

70 Dans la figure 14, MB qui Mega Byte est l’acronyme anglais de Mo (Méga-octet), GB celui de Go

(Giga-octet), TB celui de To (Téra-octet) et PB celui de Po (Péta-octet).

Data

Variety

Data

Volume

Data

Velocity

Real Time Table MB GB TB PB Periodic unstructured Batch Near Real Time

Mobile

Photo Data base

Social Video

Audio Web

Le second critère de Variété fait référence à l’origine variée des sources de ces données : communications électroniques, réseaux sociaux, courriers électroniques, transactions commerciales électroniques, historiques de navigation sur le web, données de géolocalisation, etc.

Enfin, la Vélocité ou la Vitesse désigne le rythme de renouvellement ou de défilement des données. Il s’agit également de la vitesse à laquelle les données sont collectées et traitées.

En plus de ces 3V, certains auteurs rajoutent désormais deux autres V, à savoir la Vérité et la Valeur. En effet, face à cette explosion de données induite par le Big Data, le problème de la qualité de l’information devient crucial. Les données mises à disposition de l’entreprise doivent être véridiques, c’est-à-dire de bonne qualité ; cela est d’autant plus vrai dans le domaine de la banque et du crédit bancaire où l’on rencontre souvent une vraie asymétrie de l’information. Aussi, ces données doivent apporter une valeur ajoutée à la décision prise. Il ne s’agit pas de disposer simplement d’une importante quantité de données, mais que ces données apportent surtout une réelle plus-value dans la prise de décision et la stratégie de l’organisation.

Dans sa synthèse annuelle consacrée à la vision du Big Data par les grandes entreprises, le CIGREF72 définit le Big Data comme étant « un flot croissant d’informations hétérogènes et souvent non structurées » qui est généré par internet via tous les « capteurs » de la vie quotidienne au sein des entreprises et en dehors de celles-ci. Jusqu’à une période très récente, les méthodes traditionnelles ont été incapables de traiter efficacement et de donner du sens à ces volumes d’informations « dormantes ». Mais, désormais, des algorithmes informatiques complexes couplés à la puissance croissante de calcul et de stockage des ordinateurs permettent de faire « parler » les données, ouvrant ainsi de nouveaux champs d’étude prometteurs pour nombre d’entreprises.

L’utilité de ces volumes considérables de données que le Big Data met à disposition des entreprises et des organisations paraît évidente, et leurs utilisations sont fort nombreuses dans divers domaines.

Utilité et usages du Big Data

L’utilisation de nombreuses et diverses données pour des objectifs de traitement opérationnel ou de prise de décision étant courante au sein de l’entreprise, on peut imaginer que le Big Data n’apporterait qu’une dimension de taille, une échelle plus importante que celles qu’on connaissait déjà. Mais, il n’en est pas tout à fait ainsi, car

72 CIGREF : Réseau des Grandes Entreprises, le CIGREF est une association à but non lucratif, créée en 1970 et regroupant 140 grandes entreprises et organismes français (ACCORHOTELS, AXA, ADP, BNP Paribas, HSBC, GEMALTO, Fondation de France, etc.). Il s’est donné pour mission de « développer la capacité des grandes entreprises à intégrer et maîtriser le numérique ».

l’une des particularités du phénomène Big Data est qu’il concerne de nombreux secteurs et domaines de la vie économique, voire tous.

Le domaine du Marketing se trouve renouvelé grâce au Big Data qui permet aux commerçants de mieux connaitre leurs clients et le parcours de ceux-ci sur Internet au travers des différents réseaux sociaux (habitudes d’achat, goûts, préférences, centres d’intérêts, etc.). Ainsi, les professionnels pourront anticiper plus facilement et plus efficacement les besoins de leurs clients à qui ils proposeront des offres ciblées et davantage personnalisées. Grâce au Big Data, le marketing devient plus prédictif. Et, le marketing des produits bancaires est tout aussi concerné par ce phénomène.

Dans le domaine de la Recherche Scientifique, l’apport et l’utilité du Big Data paraissent évidents, car le Big data ouvre de nouveaux champs d’investigation. Ainsi, le Big Data contribue à la réalisation d’importants progrès scientifiques, notamment grâce au traitement devenu possible de gigantesques quantités de données et ce, dans différents domaines scientifiques (génétique, imagerie, géologie, etc.).

Toujours dans ce domaine de la recherche scientifique, nous pouvons citer les travaux de

l’équipe de recherche KIWI73 du Laboratoire Lorrain de Recherche en Informatique et

Automatique (LORIA), dirigée par le Professeur Anne BOYER, et dont l’objectif principal est d'améliorer la qualité du service rendu par un système informatique (comme par exemple un intranet d'entreprise, une bibliothèque numérique en ligne, un portail d'informations, le web, etc.) à un utilisateur identifié ou non. Dans ce cadre, les recherches de cette équipe s'articulent notamment autour du « comportement par apprentissage par renforcement collectif et décentralisé ». Il s’agit, entre autres, d’étudier la prise de décision dans l’incertain afin de personnaliser l’accès à l’information multimédia dans des bases hétérogènes. La problématique du Big Data est abordée ici au travers de l’exploitation des données face au défi de leur croissance [Lelu, 2014] et par les

Learning Analytics [Bonnin & Boyer, 2015], discipline émergente dont l’objet d’étude est la collecte, l’analyse et l’utilisation intelligente de données produites par l’apprenant [Bonnin & Boyer, 2015].

Par ailleurs, les travaux de recherche d’Anne BOYER, la responsable scientifique de

l’équipe de recherches KIWI lui ont permis de cofonder SAILENDRA74, une jeune

entreprise innovante issue de la recherche qui conçoit et développe des solutions technologiques d'optimisation des achats, au travers de produits d'Intelligence Artificielle pour le e-commerce, la presse en ligne, les intranets et les plateformes d'e-éducation. SAILENDRA travaille notamment pour le Service de Veille Technologique du Crédit Agricole SA, pour BforBank (banque en ligne spécialiste de l’épargne) et pour diverses sociétés d’e-commerce.

73 KIWI pour Knowledge, Information and Web Intelligence : Equipe de recherche du Laboratoire Lorrain d’Informatique et d’Automatique (kiwi.loria.fr).

Dans le domaine de l’information, qu’elle soit publique ou privée, le Big Data permet d’accéder à un nombre plus important d’informations, provenant de sources diverses et variées, dont certaines étaient ignorées jusqu’à lors. De plus, le traitement et l’analyse des comportements sur les réseaux sociaux comme Twitter ou Facebook permettent une meilleure connaissance et une meilleure compréhension de l’opinion du public ainsi que ses réactions face à certaines informations et/ou réactions.

Dans le domaine du Pilotage de l’entreprise, les usages du Big Data sont nombreux et permettent généralement d’envisager une optimisation totale des processus de production ainsi que des ressources de l’entreprise. Ainsi, grâce à la diffusion immédiate d’une information désormais plus complète, le traitement du Big Data permet dans certains secteurs de réduire significativement le temps de réaction face aux pannes et d’ajuster en quasi temps réel l’offre des produits et services de l’entreprise à la demande de ses clients. Nous pouvons citer, par exemple, le secteur du transport (situation du trafic aux heures de pointe) ou celui de l’énergie (adapter la production d’électricité et de gaz face aux pics saisonniers de consommation).

[Benabdeslem, Biernacki & Lebbah, 2015] confirme le fait qu’aucun domaine n’échappe à ce phénomène d’accumulation des données numériques qu’est le Big Data, et en énumère une longue liste qui donne une idée concrète de l’ampleur sociétale du

phénomène : « commerce et affaires (système d’informations d’entreprises, banques,

transactions commerciales, systèmes de réservation, etc.), gouvernements et organisations (lois, réglementations, standardisations, infrastructures, etc.), loisirs (musique, vidéo, jeux, réseaux sociaux, etc.), sciences fondamentales (astronomie, physique et énergie, génome, etc.), santé (dossier médical, bases de données du système de sécurité sociale, etc.), environnement (climat, développement durable, pollution, alimentation, etc.), humanités et sciences sociales (numérisation du savoir, littérature, art, architecture, données archéologiques, etc.), etc ».

Les usages du Big Data sont donc nombreux, variés et souvent très innovants. Ce qui peut expliquer l’engouement suscité par le phénomène Big Data auprès des entreprises et des organisations publiques.

Ainsi, le CIGREF [CIGREF, 2013] estime que la finalité du Big Data est d’améliorer l’efficacité des prises de décision et de rendre l’ensemble de la chaine de valeur plus efficiente au sein des entreprises. Désormais, l’impact du Big Data apparait donc comme majeur sur la stratégie et le modèle économique des entreprises. Ceci, d’autant plus que le modèle économique de certaines entreprises, dont les banques justement, peut être remis en cause ou menacés par des nouveaux concurrents potentiels qualifiés de « pure players ». Ces derniers, parce que disposant de toutes les données sur les habitudes et les comportements des consommateurs, pourront investir de nouveaux métiers. C’est le cas notamment avec les banques en ligne.

Mais plus concrètement, qu’en est-il justement du Big Data dans les banques, et notamment les banques de détail en France qui nous intéressent dans le cadre de notre recherche ?

Le Big Data dans les banques

La banque est une entreprise qui, par essence, accumule quotidiennement d’importantes quantités de données relatives au profil, aux habitudes de consommation ainsi qu’aux facteurs de risque de leurs clients [SIA, 2013].

Les banques disposent d’importants stocks de données gigantesques relatives à tous les segments de leur clientèle et de leur activité. Cependant, elles éprouvent de sérieuses difficultés pour les exploiter efficacement, du fait de la lourdeur, de l’obsolescence et de la complexité de leurs systèmes d’informations. Néanmoins, ces données constituent un véritable facteur de compétitivité et de sécurité pour ces établissements bancaires. Ces derniers les utilisent déjà dans le cadre des segmentations de leurs clientèles, de l’élaboration de modèles de scoring d’appétence ou de scoring d’acceptation, ainsi que d’indicateurs réglementaires.

Ainsi, en France notamment, « les banques sont déjà en partie dans le Big Data, mais sans l’exploiter entièrement, car elles n’en ont peut-être pas les moyens, voire le besoin, ni l’appétit », [Baltassis, 2013]. Au travers de lourds investissements parfois déjà réalisés pour disposer d’outils de Business Intelligence, de CRM, d’analyse statistique ou d’entrepôts de données, les banques mettent en œuvre un marketing que l’on pourrait qualifier de « classique ». Il s’agit de méthodes marketing fondées sur des données sociodémographiques combinées à une notion d’équipement en produits bancaires, de patrimoine financiers et de flux financiers. L’analyse des données comportementales est inexistante ou bien, au mieux, mal effectuée.

Le secteur bancaire étant un secteur dans lequel prédominent le secret professionnel et une certaine discrétion pour ne pas parler de culte de la confidentialité, il y a très peu d’informations qui sont publiées au sujet des stratégies développées ou en cours de développement autour du phénomène Big Data.

La conférence « Big Data Paris75 », organisée par Corp Agency76, a publié en 2015 un

catalogue de retours d’expériences Big Data au sein des entreprises françaises. Elle y recense notamment les cas de BNP Paribas, d’un acteur majeur du crédit à la consommation et de Bank of America.

Pour son expérience Big Data, BNP Paribas, qui est l’une des principales sociétés

financières européennes, a choisi le logiciel TABLEAU SOFTWARE77 dans l’objectif

d’innover pour développer des parts de marché, de remporter de nouveaux clients et

75 www.bigdataparis.com

76 www.corp-agency.com

d’augmenter la part du portefeuille de clients existants. Ainsi, « grâce à TABLEAU, la banque peut ainsi traquer les opportunités de prospecter de nouveaux clients et de développer de nouvelles campagnes marketing extrêmement ciblées. TABLEAU permet de localiser et de visualiser le nombre de prospects dans une région donnée (en l’occurrence la région toulousaine dans le cas de la présente étude), de les segmenter par revenus, par niveau de risque, et selon les services financiers de BNP Paribas situés dans leur environnement immédiat. TABLEAU permet également de visualiser l’ensemble des données en quelques secondes et de transmettre aux équipes commerciales une information fiable concernant un public cible déjà bien segmenté ». Ce logiciel de traitement du Big Data apparait ainsi comme « le moyen le plus rapide de passer des données aux décisions ».

Un « grand acteur international du crédit à la consommation » a quant à lui, fait appel au cabinet SENTELIS78 pour construire sa nouvelle stratégie d’entreprise fondée sur trois piliers, à savoir la transformation digitale, la simplification et l’industrialisation des process, et l’augmentation des marges. Il s’agit, concrètement, de définir la nouvelle architecture de référence du système d’informations commun à l’ensemble des filiales du Groupe, afin de répondre à « la disruption digitale et à l’accélération de la transformation de l’entreprise vers le tout numérique ».

Pour illustrer l’utilisation du Big Data dans le domaine du crédit bancaire, [Delort, 2015]

cite l’exemple de FINCA INTERNATIONAL79, une société de crédit œuvrant dans les pays

en voie de développement avec un faible taux de bancarisation, comme l’Ouganda ou le Malawi. Pour évaluer la capacité des candidats emprunteurs à rembourser, étant donné l’absence d’historique de crédit bancaire, cet établissement financier va s’appuyer sur des divers signes tels que la disposition de toilettes intérieures au logement, le fait de recevoir des cadeaux venant de l’étranger, une bonne réputation auprès des voisins, ainsi que le trafic téléphonique (appels fréquents vers une ville commerçante proche, appels fréquents de et vers des pays riches, etc.), entre autres. Ce système est efficace avec un taux de défaut inférieur à 1,5% mais coûteux car nécessite un nombre conséquent d’employés pour effectuer les enquêtes.

De la même manière, dans les pays développés, certains organismes de crédit utilisent les réseaux sociaux pour évaluer la solvabilité des candidats aux emprunts. Ainsi,

KREDITECH80, qui accorde des prêts sur internet en Allemagne, Pologne et Espagne,

accède avec l’accord de l’emprunteur et pour une durée limitée à son compte de réseau social, Facebook, Twitter ou autre. LENDDO81, start-up originaire de Hong Kong et acteur

78 Sentelis est un cabinet de conseil en stratégie, gouvernance et architecture des systèmes d’information dont l’objectif est d’aider les décideurs SI à délivrer un système d’information « + smart », c’est-à-dire conciliant à la fois innovation et industrialisation, agilité et robustesse. Site web : www.sentelis.com