• Aucun résultat trouvé

Outils informatiques et l aide à la prise de décision en entreprise

N/A
N/A
Protected

Academic year: 2022

Partager "Outils informatiques et l aide à la prise de décision en entreprise"

Copied!
44
0
0

Texte intégral

(1)

1

Projet 15

Année universitaire 2007 – 2008

Outils informatiques et l’aide à la prise de décision

en entreprise

Réalisé par : Didier MOUNIEN Samantha MOINEAUX

Enseignant – chercheur responsable : Mr Dominique FEILLET

Master 2 Informatique et Mathématiques de l’Organisation et de la Décision

(2)

2

SOMMAIRE

I. L’aide à la décision

A. La théorie de la décision

B. Le processus de décision en entreprise

II. Le système d’information décisionnel

A. Intégration des données 1. ETL

2. Data warehouse

3. Complexité du problème de l’information B. Analyse

1. Data mining 2. OLAP

C. Présentation de l’information 1. Tableau de bord

2. BSC (Balanced ScoreCard) 3. EIP/EIS et BPM

D. Planification et distribution

III. Le marché du décisionnel

A. Les plateformes complètes B. La mise en place d’un SID

(3)

3

Introduction

Afin de piloter au mieux l'entreprise, d'automatiser des processus de plus en plus complexes, de gérer un nombre de collaborateurs de plus en plus important et répartis sur plusieurs sites, les Progiciels de Gestion Intégrés (PGI ou ERP) se montrent de plus en plus efficaces pour faire face à cette complexification de l'organisation.

Cependant, ces outils génèrent de plus en plus de données, dans tous les domaines d'activité et il devient souvent difficile de se rendre compte de l'impact réel d'une décision sur la performance de l'organisation. Or le but de toute décision en entreprise en d'en améliorer la performance, soit en diminuant les coûts ou en augmentant les ventes... Comment savoir que la décision prise est la bonne, quelles sont les contraintes soumises aux problèmes ? Tout problème de décision est soumis à un jeu d'actions et de critères régis par des contraintes. Comment être sûr que tous ces éléments ont été bien pris en compte et sont maîtrisés ?

Tel est la tâche du décideur ou du manager en entreprise qui doit tenter d'identifier, de distinguer et s'il le peut de maîtriser les éléments d'un problème de prise de décisions.

Nous exposerons brièvement quelques aspects de la théorie de la décision, comment celle-ci a servi le processus de prise de décisions en entreprise et comment cela nous amené au Système d'Information Décisionnel. Nous détaillerons alors les différents éléments d'un SID, le marché du décisionnel, et enfin, nous discuterons de l'utilité de celui-ci en tentant de répondre à la question :

• En quoi le SID aide-t-il à la prise de décisions ?

(4)

4

I. L’aide à la décision

A. La théorie de la décision

C'est une théorie de mathématiques appliquées ayant pour objet la prise de décision en univers risqué. Un des objets de la théorie de la décision est de donner les moyens de construire des descriptions quantifiées des problèmes, ainsi que des critères, qui permettent d'y apporter des solutions.

Il s'agit donc de rationaliser ces problèmes, ces critères, et donc faire des choix. Cependant, quelque soit le domaine, le ou les agents, doivent faire face à l'incertitude des conséquences de leurs choix. La théorie doit alors s'adapter à son environnement.

La théorie de la décision se construit de manière à pouvoir intégrer différents types d'incertitude, et nous aurons donc une théorie qui pourra s'appliquer à des agents situés dans des environnements de natures variées.

Ainsi, dans la théorie économique, les modèles de gestion font appel à la théorie de la décision dans les situations suivantes :

Les choix économiques dans les entreprises: c'est un calcul économique qui permet le choix de facteurs de productions en fonction de leurs coûts, choix de prix de vente, l'évaluation des salaires... Cette théorie s'est étendue grâce à la théorie économique, aux méthodes économétriques et aux résultats de la recherche opérationnelle.

L'analyse des risques, nécessaire à certains problèmes de prise de décision. C'est l'objet principal de la théorie de la décision individuelle : proposer dans le cadre d'étude du comportement rationnel face à l'incertitude :

o Distinguer les différents types d'incertitudes (théorie adaptée au comportement du décideur qui vérifie certaines conditions)

o Déterminer les situations de risques (Théorie de l'Utilité Espérée de Von Neumann et Morgenstern)

L'étude des situations de conflits d'intérêts, d'origine militaire, est un des moteurs de la recherche opérationnel. C'est un objet de la Théorie des Jeux, qui a vite trouvé sa place dans la place théorie économique car elle permet de modéliser le comportement d'agents rationnels ayant des intérêts (le plus souvent) contradictoires. L'approche de la théorie des jeux diffère de celle de la théorie de la décision individuelle puisque son objet est de proposer des solutions à des problèmes où plusieurs décideurs interviennent. Le comportement des individus prend alors une place importante face aux décisions, notamment leur aversion au risque.

(5)

5

En résumé, dans l'approche individuelle, la théorie consiste, si les problèmes de décision sont décrits dans le cadre adéquat, à construire des critères fondés sur des hypothèses sur le comportement du décideur et, dans le cadre de ces dernières, optimiser ces critères.

Ainsi, dans le cas de la Théorie de la Décision Individuelle, les éléments pris en compte afin de modéliser un problème sont les suivants :

L'ensemble des décisions possibles, déterminé par les objets de choix possibles

L'ensemble des évènements élémentaires, représente l'incertitude (encore appelée l'état de la nature ou l’ensemble d'aléas)

L'ensemble des conséquences possibles

La relation entre les décisions, évènements élémentaires et conséquences: grâce à cette relation définie comme une fonction selon les aléas pourront être définis les critères sur les décisions.

A partir de cette théorie, ont été développé des modèles afin de faciliter la prise de décision en entreprise.

B. Le processus de décision en entreprise

Que ce soit une stratégie ou une gestion courante, l’entreprise doit continuellement faire des choix en fonction de ses objectifs parmi plusieurs possibilités d’action. Ces choix sont faits à tous les niveaux de l’entreprise autant pour des choix de stratégie, d’organisation ou de gestion courante.

Les décisions sont classées en fonction de leur horizon temporel (court, moyen ou long terme), de leur degré d’incertitude (avenir certain, incertain ou aléatoire), de leur champ d’application (l’entreprise dans son ensemble, une fonction ou un service) et de leur degré de structuration d’un problème (pas forcément facilement identifiable, ce qui suppose une analyse préalable permettant de structurer le problème avant d’envisager des solutions possibles). En fonction de ces caractéristiques de décision, il a pu être défini 3 niveaux de décisions, les décisions stratégiques, les décisions administratives et les décisions opérationnelles qui sont classées par ordre décroissant d’importance dans le tableau suivant.

Les décisions stratégiques engagent l’avenir de l’entreprise en choisissant les objectifs de politique générale, les activités, les marchés, les manœuvres et les armes stratégiques.

Les décisions administratives ou tactiques en cohérence avec les décisions stratégiques, concernent un type de structure de l’entreprise, l’organisation, l’acquisition et le développement de ses ressources. Ces décisions ont une forte implication pour l’entreprise mais moindre que les décisions stratégiques.

(6)

6

Les décisions opérationnelles rendent opérationnelles les options stratégiques et les choix d’organisation comme la détermination des plannings et des niveaux de production, la définition des prix, l’élaboration des politiques de marketing… Ces décisions sont plus fréquentes, plus répétitives et moins risquées du fait de leurs implications plus localisées que les décisions stratégiques et administratives.

Caractéristiques des décisions

Décisions stratégiques Décisions administratives

Décisions opérationnelles

Horizon temporel Long terme Moyen terme Court terme

Fréquence et degré de répétitivité

Décisions uniques Fréquence faible, décisions peu répétitives

Décisions très nombreuses et répétitives Degré d’incertitude de

l’information

Très élevé Elevé Faible

Degré de réversibilité Quasi nul Faible Elevé

Niveau de décision Direction générale Directions fonctionnelles et opérationnelles

Décisions décentralisées (fonction, service)

Il existe différentes phases dans un processus de prise de décisions, pour prendre une décision on doit faire appelle à un processus de résolution de problème qui comporte au moins 4 étapes importante qui sont :

• La définition du problème : c’est à dire que l’on détecte une différence entre ce qui existe et ce qui devrait exister.

• L’évocation de solutions au problème : on répertorie différentes solutions possibles afin d’évaluer ensuite chacune d’entre elles.

• Le choix d’une solution : on évalue chacune des solutions en fonction des objectifs du décideur.

• La planification des différentes actions : mise en œuvre de la solution retenue.

Ce processus de prise de décisions est relativement complexe car des paramètres externes ou internes peuvent le faire varier, en voici quelques uns.

Durant le processus de résolution d’un problème celui-ci peut être influencé par plusieurs facteurs tels que la qualité de l’information disponible, la personnalité des décideurs et/ou le fonctionnement de l’organisation.

(7)

7

Tout d’abord la qualité et la fiabilité des systèmes d’information influence le processus décisionnel. Puis la manière dont les décideurs perçoivent l’environnement de la décision, analysent les informations, interprètent les problèmes à résoudre n’est pas neutre. Leur raisonnement est entravé de biais cognitifs, c’est à dire que leurs caractéristiques psychologiques les conduisent à une perception parfois erronée de la réalité. La décision peut être aussi influencée par des interactions sociales qui caractérisent toute organisation, les décisions qui engagent l’entreprise demandent la construction de compromis pour satisfaire tous les membres de l’organisation.

Il existe des modèles de prise de décisions car la prise de décision est un phénomène complexe qui ne se réduit pas seulement à un problème de traitement d’informations plus ou moins complètes et fiables mais dans les entreprises, les décisions sont influencées par des règles et des procédures internes mais aussi par les jeux de pouvoirs entre acteurs de l’organisation.

Pour que les managers ou décideurs puissent piloter une entreprise, ils ont besoin d’informations pertinentes, adaptées aux besoins de la prise de décisions. Pour cela les informations sont de différentes natures (financières, quantitatives, qualitatives) et appartiennent à des domaines multiples (ensemble des activités internes de l’entreprise, les marchés, les clients, l’environnement…). Ces données doivent être synthétiques et structurées pour faciliter l’analyse et donner une vision globale de la performance de l’entreprise. Depuis une quinzaine d’années des systèmes d’information spécialisés dans l’aide au pilotage interne se sont développés, dans le domaine on parle généralement de « Business Intelligence ». Il s’agit là de collecter, garder, organiser et rendre accessible les informations qui relèvent de l’expérience et de la pratique opérationnelle des travailleurs en plus des informations transactionnelles de base. Ces systèmes collectent les informations provenant de diverses sources et les organisent au sein de bases de données spécialisées appelées Datawarehouse et Datamart. Ils permettent de mettre en place des systèmes d’analyse et de synthèse des données opérationnelles ainsi que des tableaux de bord dont les indicateurs physiques et financiers sont utilisés pour évaluer la performance de l’entreprise et en assurer son pilotage.

(8)

8

II. Le système d’information décisionnel

Le Système d’Information Décisionnel (SID) est un outil d’observation et de description qui, à partir des données de l’entreprise regroupées dans l’entrepôt de données, va donner aux managers les moyens d’identifier des alertes de gestion, de suivre l’évolution de l’activité et de disposer d’outils d’investigation de sujets ou phénomènes particuliers. Les objectifs du SID sont de procurer une présentation synthétique des données de l’entreprise, une consultation plus facile pour minimiser la recherche d’informations et la présentation des résultats, mais aussi de présenter uniquement les informations utiles et donc de paramétrer les statistiques qui seront utilisées par chacun des groupes d’utilisateurs.

Le SID permet de répondre aux objectifs en fournissant :

• Un tableau de bord comportant des alertes.

• Des tableaux préformatés contenant l’essentiel de la statistique d’activité et d’environnement de l’entreprise.

• Des tableaux et des graphiques qui restituent les résultats suite à des interrogations en utilisant la technologie « hypercube ».

• La restitution d’analyses sophistiquées tel que l’analyse de corrélation, la simulation… en utilisant des outils de Data Mining.

Le SID a pour vocation de fournir des indicateurs de pilotage qui permettent à un responsable opérationnel d’évaluer la qualité et la productivité du travail fourni par des équipes ou des structures en fournissant des données observées et recoupées avec d’autres sources afin qu’il y ait une meilleur compréhension du marché pour un suivi de l’activité et l’analyse de son impact, l’optimisation des moyens. Mais le SID ne fournit pas des indicateurs pour un pilotage au jour le jour ou un suivi individuel.

Voici comment se présente un Système d’Information Décisionnel :

Données ETL Data Warehouse

Data Marts

BSC OLAP

Tableau de bord

BPM

EIS Data Mining

(9)

9

Il est repris chacune des parties du Système d’Information Décisionnelle afin d’expliquer le rôle de chacune.

A. Intégration des données

1. ETL

L’ETL, « Extract, Transform and Load » est un outil chargé d’automatiser les traitements et de les rendre plus facilement paramétrables. Les données peuvent être issues de différentes sources telles que :

• Bases de données

• Applications métier

• Fichiers

• Données externes

• ERP

• Données saisies manuellement

Et ces données seront intégrées dans un Data Warehouse par l’intermédiaire d’un outil d’ETL.

Cet outil ETL va permettre l’extraction des données issues des différentes sources, il récupère les données identifiées et sélectionnées. Au moment de l’extraction il faut prendre en compte la synchronisation et la périodicité des rafraichissements. Puis les données sont transformées en fonction des besoins de l’entreprise, c’est à dire qu’elles sont vérifiées, reformatées, nettoyées afin de supprimer les valeurs aberrantes et les doublons puis elles sont consolidées. Enfin les données sont chargées dans l’entrepôt de données ou Data Warehouse, pour être ensuite disponibles pour les différents outils d’analyses et de présentation tel que le Data Mining, OLAP, le reporting, les tableaux de bord…

2. Data Warehouse

Le Data Warehouse se trouve au cœur au système d’information décisionnel car ce sont les données qu’il contient, que les utilisateurs et les décideurs vont exploiter. Le Data Warehouse comporte 4 caractéristiques :

• Les données sont organisées par thème.

• Les données sont issues de différentes sources qui ont chacune un format, elles sont donc intégrées avant d’être proposées à l’utilisation.

• Les données non volatiles ne peuvent pas être supprimées, ni changées au cours du temps.

(10)

10

• Les données sont historisées et les données non volatiles sont aussi horodatées. On peut ainsi visualiser l’évolution dans le temps. Le degré de détail d’archivage est relatif à la nature des données car toutes les données ne doivent pas forcément être archivées.

Le Data Warehouse comporte donc 4 caractéristiques principales, il est orienté sujet, intégré, non volatile et historisé.

Du Data Warehouse on peut obtenir un ou plusieurs Data Marts qui sont définis comme une version plus légère du Data Warehouse car un Data Mart rassemble les données d’un même sujet, d’un même thème ou d’un même métier. Le fait que cette base soit plus légère, le temps de réponse est beaucoup plus court. Cependant la multiplication des Data Marts tend à complexifier la gestion des données.

Quand les données ont été collectées, stockées, nettoyées, consolidées, et sont rendues accessibles, elles peuvent être utilisées, en fonction des besoins des utilisateurs pour cela il existe différents outils d’extraction et d’exploitation.

3. Complexité du problème de l’information

Un des problèmes de l’information est son hétérogénéité. En effet, la diversité des sources de données (bases de données, fichiers…) rend difficile voir impossible leur exploitation. Ainsi, afin que l’information soit le plus représentatif de la situation de l’entreprise, ces informations doivent être homogénéisées.

Pour ce faire, les données doivent être intégrer à un entrepôt de données, tâche rendue difficile du fait de la diversité et de la complexité des structures de bases de données, de fichiers…

Une fois intégrées, ces données doivent être regroupées, classées, structurées afin d’en faire des informations « faciles » à analyser.

Enfin, une des autres difficultés est la gestion des accès de chaque utilisateur à ces informations.

Pour obtenir un Data Warehouse différents problèmes viennent se poser :

• Il faut utiliser un outil d’ETL qui est un outil couteux et où il faut généralement réaliser l’alimentation à la main.

• La fréquence des mises à jour du Data Warehouse quotidiennement, hebdomadairement, mensuellement… peut influencer la structure de celui-ci. De plus si le volume des flux de données est trop important cela peut entrainer des problèmes d’exploitation.

• Il faut faire attention au nombre de mises à jour trop importante des sources car il faut prévoir ces mouvement dans le paramétrage de l’ETL.

• Il faut synchroniser l’alimentation des différents Data Mart qui composent l’outil décisionnel de l’entreprise car les rapports peuvent être faussés dans la phase de restitution.

(11)

11

• Il faut s’assurer également que les différentes méta bases soient cohérentes.

Lorsque qu’il est établi un projet d’entrepôt de données, il faut définir des règles et des principes afin d’avoir une cohérence et une flexibilité dans le Système d’Information Décisionnel.

B. Analyse

1. Data Mining

Le Data Mining appelé aussi l’Extraction de Connaissances à partir de Données ou Knowledge Discovery in Databases a pour but de mettre en évidence des corrélations éventuelles dans un volume de données important du système d’information ou de l’entrepôt de données et de dégager des tendances. Il s’appuie sur des techniques d’intelligence artificielle pour mettre en évidence des liens cachés entre les données. C’est avant tout une démarche à suivre pour exploiter les données.

Cette démarche appelée SEMMA est composée de 5 étapes qui sont :

• Sampling = Échantillonner, faire un échantillon significatif pour pouvoir extraire des modèles.

• Exploration = Explorer, exploration des données afin de se familiariser avec.

• Manipulation = Manipuler, ajouter des informations, coder et grouper des attibuts.

• Modelling = Modéliser, construction des modèles tel que l’arbre de décision, le réseau de neurones, les règles d’association…

• Assessement = Valider, comprendre, valider, expliquer les modèles et répondre aux questions.

Il existe 2 types de techniques de Data Mining, tout d’abord les techniques descriptives qui permettent de mettre en évidence des informations présentes mais cachées par le volume important de données, les méthodes qui existent sont des méthodes non-supervisées, avec ces techniques il n’y a pas de variable « cible » à prédire et ces techniques sont :

• Analyse factorielle c’est la projection du nuage de points sur un espace de dimension inférieur pour obtenir une visualisation de l’ensemble des liaisons entre variables en minimisant la perte d’information. Les algorithmes utilisés sont : ACP, AFC, ACM

• Classification automatiques soit le clustering, l’objectif est de regrouper des objets en groupes, classes, familles, segments ou clusters afin que 2 objets d’un même groupe se ressemblent le plus possible, que 2 objets de groupes distincts diffèrent le plus possible pour cela il existe différentes méthodes de classification tel que :

o Méthode hiérarchique ascendante qui est la construction d’un arbre de classification ou dendrogramme montrant le passage des n individus au groupe par une succession de regroupements.

(12)

12

o Méthode hiérarchique descendante qui est l’inverse de la méthode précédente, cette méthode procède par des subdivisions successives de l’ensemble à classer.

o Méthode du k-means et du k-medoids

o Méthode des voisinages denses, il faut choisir un individu au hasard et il faut calculer le voisinage selon une distance prédéfinie et ensuite réitérer le calcul du voisinage jusqu’à obtenir un groupe stable. Ensuite il faut de nouveau réitère le processus jusqu’à ce que tous les individus appartiennent à un groupe.

o Regroupement par agglomération, les individus sont regroupés 2 à 2 sur un critère de plus grande proximité, puis les groupes sont regroupés eux-mêmes sur le même critère, jusqu’à atteindre la granularité voulue.

o Méthode de Condorcet, c’est une méthode en milieu discret qui date du 18ème siècle où nous devons comparer entre elles toutes les paires d’actions celle qui est meilleure sur le plus grand nombre de critères sera choisie, cette méthode sous- entend que tous les critères sont de même importance. Elle n’est pas sensible aux actions non-pertinentes et même si les critères sont ordonnés totalement, le résultat final n’est pas un ordre car il n’est pas forcément transitif.

• Recherche d’associations cette technique consiste à rechercher des règles d’associations du type :

o Si pour un individu, la variable A = Xa, la variable B = Xb… alors dans 80% des cas, la variable Z = Xz, cette configuration se rencontre pour 20% des individus.

o La valeur 80% correspond à l’indice de confiance et la valeur 20% correspond à l’indice de support

o Une règle est une expression sous la forme de SI condition ALORS résultat, l’indice de support est la probabilité p(condition et résultat) et l’indice de confiance est la probabilité p(condition et résultat)/p(condition).

Et les techniques prédictives qui visent à extrapoler de nouvelles informations à partir des informations présentes, les méthodes qui existent sont des méthodes supervisées, avec ces techniques il y a une variable « cible » à prédire et ces techniques sont :

• Analyse discriminante, il s’agit de construire une fonction de classement comme une règle d’affectation, qui permet de prédire le groupe d’appartenance d’un individu à partir des valeurs prises par les valeurs prédictives.

• Régression logistique, l’objectif est de produire un modèle permettant de prédire avec le plus de précision possible les valeurs prises par une variable catégorielle le plus souvent binaire à partir d’une série de variables explicatives continues et/ou binaires.

• Arbres de décision, c’est une méthode récursive basée sur diviser pour mieux régner pour créer des sous-groupes. Il existe 2 algorithmes les plus utilisés le CART et le C5. Le nœud

(13)

13

teste l’attribut, il y a une branche pour chaque valeur de l’attribut et les feuilles désignent la classe de l’objet à classer.

• Réseaux de neurones

• Régression linéaire simple et multiple

2. OLAP

OLAP (Online Analytical Processing ), désigne les bases de données multidimensionnelles (aussi appelées cubes ou hypercubes) destinées à des analyses complexes sur ses données. Ce terme a été défini par Ted Codd en 1993 au travers de règles que doit respecter une base de données si elle veut adhérer au concept OLAP.

Ce concept est appliqué à un modèle virtuel de représentation de données appelé cube ou hypercube OLAP, qui nous intéresse plus particulièrement.

Cette hypercube est une représentation abstraite des données prévue à des fins d'analyses interactives par une ou plusieurs personnes (souvent ni informaticiens ni statisticiens) du métier que ces données sont censées représenter.

Les cubes OLAP ont les caractéristiques suivantes :

• Obtenir des informations déjà agrégées selon les besoins de l’utilisateur.

• Simplicité et rapidité d’accès

• Capacité à manipuler les données agrégées selon différentes dimensions

• Un cube utilise les fonctions classiques d’agrégation : min, max, count, sum, avg, mais peut utiliser des fonctions d’agrégations spécifiques.

L'hypercube OLAP donne accès à des fonctions d'extraction de l'information (pour visualisation, analyse ou traitement), et à des fonctions de requête en langage MDX (comparable à SQL pour une base de données relationnelle) :

Rotate/Pivot : sélection du couple de dimensions à cibler, facilite la visualisation du cube, permet de le réorienter, on peut passer d'une vue 3D à une série de plans 2D

(14)

14

• Slicing : extraction d'une tranche d'information

• Scoping / Dicing : extraction d'un bloc de données (opération plus générale que le slicing), consiste en une restriction sur les valeurs. Il en résulte un sous-cube

• Drill-up / Roll-up: synthèse des informations en fonction d'une dimension (exemple de drill- up sur l'axe temps : passer de la présentation de l'information jour par jour sur une année, à une valeur synthétique pour l'année)

• Drill-down / Roll-down: c'est l'équivalent d'un « zoom », opération inverse du drill-up

(15)

15

• Drill-through : lorsqu'on ne dispose que de données agrégées (indicateurs totalisés), le drill through permet d'accéder au détail élémentaire des informations (voir notamment les outils H-OLAP).

Ce modèle de cube OLAP existe dans plusieurs implémentations :

M-OLAP : La forme la plus classique car la plus rapide. Elle utilise des tables multidimensionnelles pour sauver les informations et réaliser les opérations.

R-OLAP : Celle qui demande le moins d'investissement. Elle travaille sur des tables relationnelles. Une nouvelle table est créée pour contenir chaque agrégat.

• H-OLAP : (Hybrid OLAP) : Elle utilise à la fois les tables relationnelles pour stocker les informations brutes, et des tables multidimensionnelles pour les agrégats d'informations prédictives.

(16)

16

• D-OLAP : (Dynamic ou Desktop OLAP) : l'utilisateur télécharge un cube de taille raisonnable, sur son poste, qu'il peut manipuler à volonté.

C. Présentation de l’information

La forme la plus connue et la plus répandue de présentation des données est le reporting.

Les outils de reporting proposent la réalisation de rapports selon un format prédéfini. Les bases de données sont interrogées par des requêtes SQL qui ont été au préalable défini lors de l’élaboration du modèle. L’outil propose des fonctionnalités spécifiques de calcul et de présentation comme des graphiques, afin de concevoir des comptes rendus seyants et pertinents. Avec les outils requêteurs l’utilisateur peut formuler des requêtes d’interrogation « ad hoc » à volonté.

Le rapport peut être ensuite diffusé sur l’Intranet périodiquement en automatique ou à la demande des employés de l’entreprise.

Les outils de reporting ne sont pas à proprement parlé des instruments d’aide à la décision.

Bien que, lorsqu’ils sont bien utilisés, on peut juger qu’ils permettent au responsable de disposer d’une précieuse vue d’ensemble de son activité, ils sont en fait surtout destinés à « rendre compte » du travail effectué auprès de la hiérarchie.

Ainsi, afin de permettre une analyse plus pertinente, plus approfondie et souvent plus rapide, d’autres outils sont proposés.

1. Tableau de bord

Le tableau de bord est un instrument d’aide à la décision qui permet de mesurer la performance pour facilité le pilotage d’une ou plusieurs activités dans l’objectif de faire progresser l’entreprise. Il contribue à réduire l’incertitude et à facilité la prise de risque inhérente à toutes décisions.

La logique est :

Dans notre sujet, les tableaux de bord interviennent principalement dans la partie

« Exécution » car ce sont des tableaux de bord de pilotage et dans la partie « Exécution » il est encore possible de corriger les erreurs ou de modifier l’orientation en fonction de ce qui a été planifié au préalable. Si le tableau de bord a été bien conçu le décideur peut trouver des réponses aux questions fondamentales du pilotage comme le cap est-il maintenu ? Les objectifs sont-ils accessibles en temps et en budget ? A-t-on engagé les bonnes actions ? Doit-on renforcer ou changer radicalement la stratégie, la tactique ?

Planification Exécution Vérification

(17)

17

Les principaux axes de mesure de la performance sont :

• Axe clients qui mesure la satisfaction des clients pour assurer une réussite durable de l’entreprise

• Axe partenaires qui mesure l’importance des liens entre l’entreprise et ses partenaires que ce soit des fournisseurs ou des sous-traitants

• Axe personnel qui mesure la participation de l’ensemble des acteurs internes de l’entreprise, la motivation et la coopération des acteurs

• Axe développement durable qui mesure le potentiel éthique en terme de développement durable (environnemental, social et économique)

• Axe actionnaires qui mesure l’indicateur de la création de valeur pour l’actionnaire c’est l’EVA (Economic Value Added) pour évaluer le retour des capitaux investis

• Axe processus internes et système qualité

• Axe système d’information qui mesure la pertinence et la qualité des informations échangées depuis le client jusqu’au dernier fournisseur conditionnent la viabilité de l’ensemble

Le tableau de bord quand il est bien conçu, permet de réduire les incertitudes pour que le décideur puisse prendre la meilleure décision possible pour l’entreprise car la décision est une prise de risque. Et le tableau de bord peut permettre à l’entreprise de répondre plus rapidement et de modifier ces choix en fonction des fluctuations du marché.

2. BSC (Balanced ScoreCard)

BSC (Balanced ScoreCard ) : "Le Balanced ScoreCard n'est pas un simple instrument de mesure. C'est, selon les auteurs Robert Kaplan et David Norton, un système de management garantissant les organisations de la clarification et la formalisation de leur stratégie. En substance, le Balanced ScoreCard propose un cadre de conception de la stratégie afin de pouvoir la décliner efficacement, la transformer en action. En exploitation, une fois sur le terrain, le Balanced ScoreCard s'inscrit dans un modèle cybernétique du pilotage." (http://www.piloter.org/balanced-scorecard/).

Le BSC se différencie du Tableau de Bord de part sa perspective. En effet le tableau de bord donne des indicateurs à un instant 't' alors que le BSC compare ces indicateurs à l'instant 't' aux objectifs, à une prévision ou à un point de vue. La performance est déclinée sous 4 points de vue :

• Perspective financière : Quelle est notre performance au sens des actionnaires ?

• Perspective client : Quelle est notre performance au sens des clients ?

• Processus interne : Quels sont nos avantages internes ?

• Apprentissage et croissance : Allons-nous progresser et comment ?

(18)

18

L'équilibre (Balance en anglais) est trouvé en comparant des indicateurs d'objectifs à court-terme et à moyen-terme, financier et non-financier, performance interne et externe...

La mise en place d'un tel système impose de la rigidité dans la stratégie adoptée. En effet, un changement de stratégie au cours d'un exercice, implique l'adoption de nouveaux KPI (Key Performance Indicators), et rendra obsolète et les précédents indicateurs.

De plus, cet outil hiérarchise beaucoup l'entreprise, où les performances sont mises en avant en fonction du rôle et de la position de la hiérarchie... Certaines organisations font le choix de la mise en place du BSC plus par souci du contrôle que pour la mesure de la performance...

3. EIP/EIS et BPM

EIS (Executive Information System), l'instrument de tableau de bord permettant d'exploiter les informations essentielles et de visualiser les indicateurs clés. Réservé à l'origine à la couche dirigeante, il se démocratise et l'acronyme s'interprète différemment aujourd'hui : Everyone Information System ou plus généralement : Executive/Enterprise/Everyone's Information/Intelligence System/Service/Software

Les EIP ( Enterprise Information Portal) ou Portail d'Entreprise, initient une nouvelle approche de la conception des systèmes d'information en plaçant au premier plan les besoins des utilisateurs, en matière d'accès aux informations essentielles et de partage avec leurs pairs.

Tous les responsables sont tenus de prendre des décisions d'orientation. L'accès étendu à l'information de l'entreprise est désormais indispensable.

L'EIP, à l'instar de l'EIS, offre donc une vue synthétique de l'organisation via des indicateurs, des tableaux de bord.

Cependant il se différencie de par sa simplicité d'accès (en général un navigateur Web). De plus il s'adresse n'importe quel collaborateur souhaitant (et le pouvant, en fonction de ses droits d'accès) avoir accès à ces informations.

Ce type de structure offre aussi une plateforme d'échange, permettant aux utilisateurs d'échanger leurs rapports, indicateurs…

Aussi, afin d'automatiser la mise à jour des rapports, des alertes, indicateurs..., le BPM (Business Process/Performance Management ) apparaît comme la solution adéquate. Via un moteur de workflow, il permet de gérer ce flux d'information, en fonction du rôle des acteurs du type de données...

Or, ces tâches de diffusion pourraient être réalisées uniquement via des WebServices, sans pour autant se munir d'un moteur BPM qui peut être coûteux.

Cependant les nouvelles approches apportées par le BPM, telles les théories de la décision ou des options et le Balanced ScoreCard, permettent aux systèmes de Business Intelligence d'aboutir à plusieurs scenarios d'évolution d'activité, pondérés par des probabilités de réalisation, l'objectif étant

(19)

19

de cerner les éventuelles conséquences de décisions prises d'aujourd'hui sur les performances financières de l'entreprise.

Ainsi, il est possible au décideur d'évaluer plus clairement plusieurs scenarii avant de choisir la meilleure stratégie, ou du moins, de soumettre plusieurs scenarii aux choix des dirigeants/actionnaires...

D. Planification et distribution

Les problèmes de planification et de distribution rentrent dans le cadre de décisions opérationnelles et / ou administratives.

Dans le cadre d'une usine de production, la hiérarchie des décisions serait la suivante :

La direction générale s'occupe du futur, du long terme. Elle raisonne le plus souvent en sur un horizon annuel voire pluriannuel (Plan Industriel et Commercial ou PIC, budget, plan d'investissement). Peu avant la fin de la période en cours, un plan est établi pour la période suivante.

Le management intermédiaire, est plutôt calé sur un horizon mensuel (plan de production). La maille de temps étant plus serrée, les plans se succèdent de manière plus rapide.

Les opérationnels, chargés de l'exécution, travaillent avec un grand niveau de détails, mais à court terme (planning d'atelier, ordonnancement...). La maille de temps dépend du secteur d'activité, de quelques heures à plusieurs semaines.

La Hiérarchie des Décisions et leur Horizon

(20)

20

Le Plan Industriel et Commercial (PIC) établi par la direction générale établit une vision à long terme de la politique Industrielle et commerciale comme son nom l'indique, sur horizon de 1 à 3 ans en fonction du secteur d'activité. Il sert à établir :

Les prévisions de vente

Les lancements de nouveaux produits

L'évolution prévisionnelle des stocks

Les besoins de production

Les besoins de production

Les besoins en ressource et approvisionnement

Il est élaboré par un travail conjoint entre les responsables commerciaux, de production, d'achat, de ressources humaines et de la direction de l'entreprise.

Il permet de vérifier la faisabilité et l'adéquation entre moyens financiers, et les objectifs commerciaux de l'entreprise.

C'est une traduction opérationnelle de la stratégie de l'entreprise.

Les éléments chiffrés du PIC sont reversés dans les plans de vente, les plans financiers, le budget d’usine, le plan prévisionnel de recrutement et formation...

Il permet ensuite de définir le programme directeur de production (PDP).

Le Programme Directeur de Production (PDP) est un programme glissant à moyen terme. Il traduit le Plan Industriel et Commercial en exprimant les prévisions de production sur l’horizon retenu. Les quantités mentionnées sont exprimées par références de produits.

Le PDP sert à déterminer, par articles indépendants :

les besoins de production (Calcul des besoins bruts) tenant compte des règles de gestion (taille des lots de gestions, d'approvisionnement et de production) et la date des différents besoins

l’évolution des stocks, notamment en corrigeant le calcul des besoins bruts par les stocks de constituants disponibles (calcul des besoins nets).

Ce programme permet de considérer les décisions d’équilibrage en fonction des charges et des ressources disponibles sur l'horizon considéré.

Usages du Plan Directeur de Production

Fonction Informations fournies par le Plan (Directeur) de

Production Usages

(21)

21 Direction

Générale

Prévisions de résultats par ligne de produits Prévisions des besoins de capacité

Analyse stratégique du portefeuille produit Plan d'investissement

Financier

Évolution des stocks

Évolution des coûts engagés par la production

Financement des stocks Budget de fabrication Plan de trésorerie

Commercial

Coûts de production par ligne de produits Niveaux d'utilisation des capacités et évolution des stocks

Politique de prix

Délais standards prévisionnels

Achats

Plan d'approvisionnement matières et composants achetés

Plan de sous-traitance

Négociation prix délais avec les fournisseurs sur la base de marchés

DRH

Plan de charge main d'œuvre : prévisions des besoins de main-d'œuvre, d'heures

supplémentaires, d'heures non ouvrées.

Gestion du personnel : embauche, formation,

licenciements, durée du travail Négociation avec CE, syndicats

Ainsi, on peut considérer le processus menant au plan de production comme étant le suivant:

(22)

22

Le Material Requirement Planning (MRP), en français, Gestion des Besoins en Composants ou GPAO (Gestion de Production Assisté Par Ordinateur). Ce processus est issu de la méthode MRP, apparue aux USA dans les années 60. Le pilotage de la production s'effectue à l'aide de 2 modules en interaction :

Le module de calcul : à partir des nomenclatures, il détermine les besoins en composants à acheter ou à fabriquer pour satisfaire le plan directeur de production. Les résultats sont formalisés dans un échéancier des ordres d’achat ou de fabrication, réalisé en tenant compte des stocks existants.

Le module de planification à long terme : à partir du cumul des prévisions de ventes de produits finis, des commandes clients détenues en portefeuille et du niveau désiré du stock, il permet de simuler l’adéquation de la charge de travail et des capacités de production. En retranchant les quantités de produits finis déjà détenues en stock, ce module élabore un plan directeur de production qui définit pour chaque référence le nombre de produits à fabriquer, la date de disponibilité et la date de démarrage de la fabrication.

En quelques sortes, cette méthode répond aux questions suivantes :

(23)

23

• DE QUELLES ressources aurons-nous besoin ?

• QUAND aurons-nous besoin de ces ressources ?

• DE COMBIEN en aurons-nous besoin ? Il en existe deux versions :

• Le MRP qui transforme les données commerciales relatives aux ventes en données de production.

• Le MRP2 (ou MRP II) qui intègre d’autres fonctions telles que la planification à capacité infinie, le suivi de production, le calcul des coûts.

Le MRP2 est considéré comme l'ancêtre de l'ERP (Enterprise Ressource Planning). Ce dernier, en plus de la planification de la production qui reste sa fonction principale, couvre (ou peut couvrir selon la configuration choisie) toutes les différentes fonctions d’une entreprise (production, distribution, mais aussi comptabilité/finances, ressources humaines...).

Ainsi, il permet la Gestion de la Chaîne Logistique ou Supply Chain Management (SCM). Cette gestion peut s'effectuer sur différents horizons temporels :

Stratégique : quelle organisation faut-il partager avec les fournisseurs et les clients (combien d'entrepôts, comment stocker, comment transporter...). La planification stratégique de la chaîne d'approvisionnement n'est généralement effectuée que tous les ans, voire, tout les 2 ou 3 ans.

Tactique : elle détermine ce qu'il faut produire, stocker, transporter suivant la planification stratégique en anticipant au maximum. La planification tactique s'effectue généralement tous les mois.

Opérationnel : ordonnancement fin à la journée. Adaptation au quotidien de la production et du transport.

Exécution : phase physique préparation des produits dans l'entrepôt, personnalisation (configuration d'ordinateurs, par exemple), conditionnement, chargement, transport, gestion des retours...

Suivi d'exécution : contrôle de l'achèvement de chaque étape, gestion des événements, des imprévus, identification de problèmes et replanification (par exemple, en cas de grève de transport).

Event management : gestion des aléas.

Identification des problèmes, remontée de l'information vers tous les acteurs, préparation de scénarios de secours, relance des processus des couches supérieures pour que la chaîne reste opérationnelle.

Les 3 premières couches sont assurées par les fonctions de type :

• APS Advanced Planning and Scheduling

(24)

24

• SCP Supply Chain Planing`

La fonction de SCM au sein de l'ERP peut se résumer ainsi :

Comme il a été présenté, le SID possède une architecture qui lui est propre. Les données intégrées à l'entrepôt proviennent du Système d'Information de l'entreprise, de même, les décisions prises grâce aux outils d'analyse et/ou de reporting du SID auront une répercussion à plus ou moins long terme selon le type de décision, sur le SI.

De ce fait, les deux systèmes sont étroitement liés et on peut même relever un cycle dans la relation SI/SID.

Si le SI est piloté par un ERP, on peut aisément illustrer ce cycle. En effet l'ERP, bien que contenant l'essentiel de l'information nécessaire aux décideurs, manquent d'outils d'analyse afin de pouvoir les exploiter.

(25)

25

Les informations ont besoin d'être extraites afin d'en faire des indicateurs, des rapports.

L'ERP ne dispose donc pas de ces outils d'extraction et d'analyse, d'où l'importance du SID.

Cependant, les éditeurs d'ERP ont saisi cette problématique, et SAP, par exemple, propose SAP BW (pour Business Information Warehouse) incluant des composants déjà prédéfinis (cube, rapport, rôle). Aussi, les éditeurs de BI proposent des solutions spécifiques, adaptées aux ERP tels que SAP ou Oracle.

Certaines de ces solutions seront présentées dans la partie suivante.

(26)

26

III. Le marché du décisionnel

Dans le monde, les leaders du marché (en 2004, source : META GROUP) sont SAP, COGNOS et BO, en terme de présence et de performance.

Sur le marché français, cinq acteurs s'octroient plus de la moitié du marché décisionnel (53

%). En 2006, Business Objects (BO) et SAS partagent la tête du classement avec 13 % de part de marché. Hyperion occupe le 3ème rang avec 10 %, vient ensuite Microsoft (7%) et enfin Cognos.

La croissance était de 14% cette année, mais stagnerait en 2008 représentant tout de même près 2 milliards d'euros, mais connaîtrait une croissance de l'ordre de 11% par an jusqu'à 2010.

Dans cette partie qui suit, il est reprit les différentes technologies développées dans la partie du SID mais du point de vue des logiciels. Il est exposé pour chacun des différents produits les points faibles et les points forts.

(27)

27

A. Les plateformes complètes 1. SQL Server 2005

a) Présentation générale

Le logiciel de Microsoft SQL Server 2005 est une solution d’analyse et de gestion de données.

Il comporte une plateforme de base de données pour des applications de commerce électronique, d’entrepôt de données et de traitements transactionnels en ligne (OLTP – OnLine Transactional Processing) mais aussi une plateforme de Business Intelligence pour l’intégration, l’analyse et les solutions de création de rapports. Pour que les entreprises aient toutes les fonctionnalités nécessaires à la prise de décision en entreprise, il leurs faut prendre au minimum la version standard du logiciel pour avoir la plateforme BI.

b) Les modules

Les différentes fonctionnalités qui composent le produit sont :

Les principales fonctionnalités sont le Moteur de base de données, l’Integration Services, l’Analysis Services et le Reporting Services.

Le module Moteur de base de données appelé aussi Database Engine est un service central qui permet de stocker, de traiter et de sécuriser les données, il permet également de concevoir et de créer des bases de données stockant des tables relationnelles ou des documents XML. Il est possible d’implémenter des systèmes pour consulter ou modifier les données stockées dans la base de données.

Ce moteur de base de données permet de contrôler l’accès et de traiter rapidement les transactions des applications qui prennent en compte un grand nombre de données.

Le module Integration Services est un outil d’ETL, qui offre la possibilité d’extraire les données de l’entreprise issues de différentes bases de données et de fichiers XML, de transformer les données par le nettoyage, l’agrégation, la fusion et la copie de données et enfin l’intégration des données au sein d’un entrepôt de données.

(28)

28

Ce module contient des outils graphiques et des assistants pour la création et le débugage des packages. Les packages sont par exemple, une source sur laquelle il est appliqué une transformation et une destination pour le résultat de la transformation.

Le module Analysis Services est un outil qui intègre la fonction OLAP et l’exploration de données par l’intermédiaire d’algorithme et d’API.

La première fonction OLAP permet de concevoir, de créer et de gérer des structures multidimensionnelles avec des données qui proviennent de bases de données relationnelles.

Et ce module permet aussi de concevoir, de créer et de visualiser des modèles d’exploration de données à l’aide d’algorithmes d’exploration de données tel que les algorithmes de séries chronologiques, de clustering, de régression linéaire, de régression logistique, de réseaux de neurones et d’arbres de décision.

Ce composant permet de traiter dynamiquement et en ligne les données pour aboutir à des modèles d’analyses. Les algorithmes permettent l’analyse des corrélations entre les données qui n’ont pas forcément de lien évident mais qui sont porteuses de tendance.

Le module Reporting Services est un environnement de génération de rapports basé sur un serveur où l’on crée des rapports de données à partir de sources de données relationnelles et multidimensionnelles, il fournit un moteur pour le traitement et la mise en forme de rapports. Ces rapports sont gérés à l’aide de services web.

Ce composant offre la possibilité de diffuser largement des rapports d’analyse des données en les publiant sur un site web, en les convertissant dans un format exploitable par des applications individuelles ou en les transmettant par email.

Ce module du produit peut être exploité par d’autres éditeurs de logiciels comme une fonctionnalité supplémentaire.

c) Avantages et inconvénients

Cette solution est intégrée et complète, la plateforme est sécurisée, fiable et efficace pour les données et les applications décisionnelles. Les fonctionnalités sont faciles d’utilisation pour les utilisateurs car l’interface est proche de la suite office de Microsoft et l’utilisateur est assisté dans

Source

Transformation

Destination

(29)

29

chacune de ses démarches. Ce produit s’adapte très bien à tout type d’entreprise, il faut seulement que l’entreprise ait un passé important en information pour que l’outil puisse être intéressant, mais ceci est vrai pour tous les outils décisionnels.

Cependant cette solution ne peut être utilisée que sur le système d’exploitation Windows et cette solution est relativement coûteuse financièrement à l’entreprise même s’il existe différente mode de licence, il faut compter entre 6275€/processeur pour la version standard et 24868€/processeur pour la version entreprise.

2. Business Objects

a) Présentation générale

Business Objects est une société française créée en 1990 par Bernard Lieutaud et Denis Payre, tous deux issus d'Oracle. En 2007 BO est racheté par l'allemand SAP pour 4,8 Milliards d'euros.

Avec la version XI de leur plateforme, BO se définit comme étant la première et l'unique plateforme Business Intelligence (Oracle les conteste sur ce point) qui propose une gamme complète de fonctions BI : reporting, interrogation et analyse, pilotage des performances et intégration des données.

b) Les modules

Chacun des modules est dédié à une des fonctions de la BI :

• Reporting : les fonctions Business Objects de reporting permettent aux entreprises de consulter leurs données brutes, de les présenter sous la forme d'informations pertinentes et de les distribuer – à l'intérieur comme à l'extérieur de l'entreprise.

Fonctions assurées par Crystal Reports et/ou live Office permettant la gestion/diffusion/génération de rapports via la suite Microsoft Office.

(30)

30

• Interrogation & Analyse : ces outils permettent aux utilisateurs de dialoguer avec les informations de l'entreprise et de répondre à des questions en libre-service, sans avoir à se préoccuper des structures et des sources de données sous-jacentes. Fonctions assurées par :

o Desktop Intelligence : analyse/Requête en Mode Client/Serveur) o Web Intelligence : analyse/Requête en mode WebService)

o OLAP Intelligence: consultation de cube OLAP Microsoft SQL Server, Hyperion, IBM, SAP

o Intelligent Question : requêteur Intuitif permettant l'interrogation de bases de données sans code SQL. Destiné aux utilisateurs occasionnels non informaticiens

• Pilotage des Performances : permettent aux utilisateurs de respecter la stratégie de l'entreprise en procédant au suivi et à l'analyse des principaux objectifs et métriques à l'aide de tableaux de bord, de scorecards, d'applications analytiques et d'alertes.

o Planification de budget / comparaison budget prévisionnel...

o Application de Rentabilité : analyse des coûts, de la rentabilité, des supports de distribution, du coût du service

o Scorecards

• Visualisation des Données : des modèles graphiques interactifs permettent à tout utilisateur de transformer rapidement une feuille Excel classique en présentation claire et précise à base de diagrammes dynamique et de graphiques explicites.

o Crystal Excelsius Standard/Professional/Workgroup

• Plateforme de BI : met à la disposition des utilisateurs un ensemble de services qui simplifient le déploiement et la gestion des modules de BI (outils, rapports et applications analytiques).

o BO Enterprise

o Kits d'intégration (PeopleSoft / SAP / Siebel ...) o Moteurs analytiques

• Enterprise Information Management : possibilité d'intégrer et d'améliorer les données de manière à définir un socle fiable pour les décisions d’entreprise.

o Intégration des données: BO Data Integrator, Data Fedarator, BO RapidMArts o Axé sur la qualité des données

o Gestion des Métadonnées et Cycle de vie : MetaData Manager, Composer

(31)

31

c) Avantages et inconvénients

Le coût de la licence est fonction du client et du secteur d'activité de celui ci, BO propose des solutions sur mesure en fonction du secteur d'activité. Le tarif est négociable, le prix de base sur catalogue pour une licence BO XI R2 est de 1970 € ht / user + 20% pour la maintenance

Les principaux avantages sont la flexibilité, l'expérience dans le domaine (leader du marché), la portabilité sur les principaux OS Windows/Linux (accord avec RedHat), et surtout la compatibilité avec la plupart bases de données et ERP.

3. SAS

a) Présentation générale

SAS (Statistical Analysis System) est, à la base, un package et un langage dédié à l'étude statistique, créés par la société éponyme en 1979. La suite logicielle a ensuite évolué vers une plateforme complète de Business Intelligence intégrant tous les fonctions de ce domaine (Data Warehouse, ETL, BPM, Data Mining, Reporting...)

b) Les modules

• Un portail décisionnel, Web 2.0, paramétrable selon le rôle de l'utilisateur...

• Des dashboard, ou tableaux de bord, paramètrable selon le rôle de l'utilisateur, fourni par SAS Enterpise Server, fournissant des liens vers les rapports et les analysed présents sur SAS Strategic Performance Management.

• Edition / consultation /Création /Diffusion de rapport via Interface Web

(32)

32

• Visualisation / Exploration des données, cube OLAP, via Interface Web

• Intégration à Microsoft Office

• Requête et analyse adaptées au niveau de l'utilisateur

• Gestionnaire de Metadonnées

• Stockage centralisé de Metadonnées

• Création / Consultation de cube OLAP

c) Avantages et inconvénients

Le Serveur est disponible sur toutes les plateformes : Windows / Linux(RedHat)/ HP-UX / Solaris. Le client, par contre sur Windows uniquement.

Le tarif pour l'état du Missouri (source : www.execinfosys.com) : pour SAS Enterprise BI Server : de 25 000 $ à 450 000 $ / Serveur

SAS offre une suite BI entièrement intégrée, des données (DW) au reporting. Ce qui facilite l'administration de la suite. De plus la dernière version propose un client entièrement Web, donc léger et paramétrable selon les besoins de l'utilisateur.

Le coût est le principal défaut. De plus, venant du milieu financier, cette solution a du mal à s'imposer dans d'autres secteurs d'activités.

4. Cognos

a) Présentation générale

La société Cognos qui a été récemment rachetée par IBM propose le logiciel Cognos 8 Business Intelligence qui est une plateforme unique regroupant les fonctionnalités de la Business Intelligence. Toutes les fonctionnalités reposent une architecture unique orientée web services (SOA).

Cette architecture repose sur les derniers standards du web ouvert tel que XML, SOAP et WSDL. Son API permet aux développeurs d’afficher, de masquer et de personnaliser toutes les fonctionnalités de BI quelque soit le langage de programmation.

b) Les modules

Les différentes fonctionnalités du logiciel et qui nous intéresse sont l’intégration des données (ETL), l’analyse, le reporting, les tableaux de bord, le Balanced ScoreCard.

(33)

33

L’ETL prend en charge différentes sources de données par le fait que Cognos a une orientation Open Source. Ce produit est compatible avec les bases de données les plus répandues comme Oracle, SQL, Sybase, IBM, Teradata et ODBC mais aussi les sources de données à plusieurs dimensions qui sont IBM DBE, cubes OLAP et les données ERP, ainsi que les web services, fichiers XML, fichiers Excel, fichiers plats.

Cette fonction d’intégration des données automatise les processus de création, de gestion des tables de dimensions de l’entrepôt de données à l’aide d’assistants. Elle prend également en charge les opérations de fusion et d’agrégation. L’interface de cette fonction est unique et offre des vues graphiques en temps réel pour visualiser les composants du Data Warehouse.

Le module d’analyse permet d’explorer et d’analyser toutes les données disponibles indépendamment de la source (cubes OLAP et bases de données relationnelles), d’effectuer des analyses comparatives approfondies de la performance de l’entreprise en fonction de plusieurs critères comme le temps, le produit, le client… L’analyse de données se fait par le biais d’une interface intuitive, en glisser-déplacer et avec des filtres et des pivots.

Le module de reporting est un environnement où il est possible :

• De créer des rapports à partir des systèmes opérationnels, de cubes OLAP et autres sources de données relationnelles

• De faire des tableaux de bord

• Des requêtes ad hoc

Les rapports peuvent être publiés au format : email, HTML, PDF, Microsoft Excel, CSV et XML et multilingues.

(34)

34

c) Avantages et inconvénients

Cette solution à l’avantage d’être utilisée avec les différents systèmes d’exploitation du marché à savoir Windows, Unix et Linux.

Cependant cette solution peut couter à l’entreprise 31500$ par processeur.

5. Pentaho

a) Présentation générale

Le projet Pentaho est lancé par des anciens de Hyperion, Oracle, Cognos et SAS. Ce projet propose un ensemble d'outils développés en environnement Java, qui couvrira les fonctions de reporting, d'analyse, de data mining, mais également de gestion des processus. Le projet a été monté en 2005, en reprenant un projet d'intégration de données existant, Kettle, devenu depuis Pentaho Data Integration. La suite est entièrement développée par une communauté de developpeur très active, et des licences commerciales sont cédées via des sociétés de service, sous forme d'abonnement.

b) Les modules

• Pentaho Data Integration (PDI anciennement Kettle) ETL, gestion graphique des flux de données

• Pentaho Reporting : (JFreeReport), Rapport à un instant t, on peut aussi choisir d'autres modules open source : JasperReports, EclipseBirt

• Pentaho Analysis Services : (Création de Cube OLAP) : Mondrian + JPivot (complémentaire à Mondrian)

• Diffusion : JBoss Portal, diffusion de Rapport Inter/Extranet, via WebServices

• Planification : Quartz

• Graphique : JFreeChart

• Workflow : Enhydra Shark

• DataMining : Weka

Afin de d'offrir une solution capable concurrencer les offres propriétaires, une plateforme BI est proposée : Pentaho Open BI Suite regroupant : PDI, PR, PAS, JBoss Portal, Quartz, JFreeChart, Enhydra Shark et Weka (optionnel).

(35)

35

c) Avantages et inconvénients

Multi-plateforme, car entièrement développé en Java.

Coût uniquement lié à l'intégration / maintenance / services, aucun coût de licence.

Pentaho apparaît, selon les spécialistes comme une alternative open source sérieuse face aux concurrents déjà bien en place. La suite POBIS regroupe toutes les fonctionnalités sur une seule interface graphique, ce qui simplifie l'utilisation par rapport à une intégration par module. De plus la communauté semble très active sur ce projet, et les forums de discussions d'une grande aide, les développeurs sont disponibles.

Cependant, le large de choix offert pour une même fonctionnalité, peut prêter à confusion.

De plus la jeunesse du projet peut rendre frileux certains décideurs, face à la lourdeur de la mise en place d'un tel système.

6. Spago BI

a) Présentation générale

SpagoBI est une plate-forme collaborative dédiée à l'informatique décisionnelle complètement réalisée en logiciel libre. C'est une suite d'outils intégrés facilitant le développement et la mise en œuvre de solutions de business intelligence quel que soit le métier ou le secteur d'activité.

b) Les modules

SpagoBI emploie un nombre important de technologies et de composants disponibles en environnement open source : le framework de développement Spago (Modèle MVC), le serveur

(36)

36

OLAP Mondrian, les générateurs de rapports JasperReports ou BIRT, les tableaux de bords réalisés avec Open Lazslo, le requêteur QBE d'Hibernate.

Grâce à son caractère modulaire SpagoBI sait aussi dialoguer avec les systèmes propriétaires comme par exemple Business Objects, Crystal Reports.

• Les rapports, les tableaux de bord, les tables pivot sont des éléments gérés

• L'analyse multidimensionnelle pour L'OLAP offre une vision structurée et orientée sujet pour obtenir une exploration des données avec un niveau de détail de plus en plus fin « forage en profondeur » (drill up/down), selon plusieurs perspectives (axes, dimensions) « forage à travers » (drill through).

• La gestion de la performance est assurée grâce à des composants graphiques et vivants qui agencés et paramétrés convenablement délivrent une information en temps réel sous forme de tableau de bord.

• Les algorithmes et les processus de Data Mining vont révéler des éléments qui se confondent dans la masse d'information à notre disposition.

• Le requêteur ad hoc QBE de SpagoBI accompagne les utilisateurs dans la construction visuelle et intuitive de leurs requêtes. Elles peuvent être sauvegardées et partagées.

• Méta-Répertoire : SpagoBI correspond à une vraie plate-forme intégrée car elle référence dans un répertoire unique toutes les informations techniques et métiers, les processus et les règles utiles à la gestion de l'environnement.

• Gestion des documents : tous les documents gérés au sein de SpagoBI font l'objet d'un versioning. Cette fonctionnalité vient aussi avec une recherche et une reconnaissance des documents.

• Planification de tâches : SpagoBI peut automatiser l'import / export des données, la production, la diffusion et le stockage des états.

• Workflow : SpagoBI implémente un flux de validation des éléments décisionnels et des documents produits.

• Administration : SpagoBI dispose d'un environnement d'administration pour la gestion entière de la plate-forme.

c) Avantages et inconvénients

Etant Open Source, le coût d'acquisition est nul.

Il n'est pas aussi répandu que Pentaho mais gagne à se faire connaître même si la communauté est moins active que celle de Pentaho.

(37)

37

7. JasperSoft

a) Présentation générale

Business Intelligence Suite de JasperSoft basée sur JasperReports et se décline sous la forme de plusieurs projets Open Source pour la version Open Source et il existe une version commerciale qui s’appuie sur l’édition Open Source et fournit des fonctionnalités supplémentaires ainsi qu’une prise en charge de la plateforme entièrement certifiée pour les serveurs d’application, les base de données et systèmes d’exploitation à visée commerciale distribuées par IBM, Oracle, BEA, MySQL...

Cette outil, JasperReports, a été développé et distribué sous licence GPL par JasperSoft.

b) Les modules

JasperETL permet l’extraction et l’intégration des données de 30 sources de données différentes.

JasperETL fournit une interface graphique utilisateur intuitive basée sur une plateforme client Eclipse Rich. Elle inclut un logiciel de modélisation d’entreprise, un concepteur de taches, des composants de transformation, un visualiseur de code, une configuration des métadonnées, une intégration de référentiel, une exécution de taches et un planificateur de taches.

JasperAnalysis, ce module est intégré à JasperServer et regroupe les outils Mondrian et Jpivot. Il fournit des fonctionnalités d’analyses de données et OLAP. Cet outil offre la possibilité d’explorer les tendances, les modèles, les anomalies et les correspondances en les données en autorisant l’utilisateur à découper dynamiquement, pivoter, filtrer, créer des diagrammes effectuer un forage ascendant ou descendant sur un cube de données en temps réel. Il inclut un serveur OLAP pour créer des cubes.

JasperReports est une bibliothèque de rapports qui permet de créer des rapports et de les publier au format pdf, html, XLS, CSV, RTF (Word), TXT ou XML qui peuvent être visible à l’écran, en sorite d’imprimante ou sur divers applications individuelles. Ces rapports peuvent contenir des diagrammes, des liens hypertextes.

Références

Documents relatifs

L’évaluation sera sous forme de QCM pour une durée d'une

Pour dessiner un diagramme en bâtons, on utilise la commande bar(v,w) où v désigne la liste des valeurs distinctes prises par la variable et w la liste du nombre d’apparitions

Honeywell now augments these with the increased power and capability of two Easy tab systems function packages: Data File Update B and Report Writer B.. By

The update command normally loads files relative to the root directory (/) on the destination host's file system, but filesets that do not have the C fileset flag

Votre enfant peut apparaître sur de nombreux documents photographiques ou filmographiques réalisés au collège dans le cadre des cours, des sorties ou de sa vie au sein du

• Vous pouvez définir un classpath dans autoexec.bat, mais c’est déconseillé parce certains programmes sont configurés pour travailler avec une installation.. standarde (Java

[r]

b) ´ Ecrire la fonction show.all qui trace trois densit´es sur le mˆeme graphique : (i) la vraie densit´e, (ii) la densit´e estim´ee avec noyau uniforme et (iii) la den-