• Aucun résultat trouvé

Comment réussir avec ITIL? PAGE 16

N/A
N/A
Protected

Academic year: 2022

Partager "Comment réussir avec ITIL? PAGE 16"

Copied!
48
0
0

Texte intégral

(1)

IT LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE

n°84

Bimestriel - mars/avril 2010

Une entreprise peut-elle survivre sans qualité de données globale ?

PAGE 6

Anatomie de trois ESB Open Source :

PAGE 34

Comment réussir avec ITIL ?

PAGE 16

ALM et agilité au cœur des processus métiers

PAGE 28

Le respect des licences libres :

les juridictions veillent PAGE 46

(2)

ZOOM OUTSOURCING

L’avis des directions informatiques

Ministère des Finances Direction Générale des Impôts Nadine Chauvière

Sous-Directrice des SI de la DGI

« Les solutions d’Application Intelligence CAST nous aident à obtenir une meilleure visibilité de notre parc applicatif au travers de tableaux de bord composés d’indicateurs techniques objectifs afin de faciliter le dialogue avec les équipes et avec nos maîtrises d’ouvrage. »

Groupe SFR Cegetel Eric Eteve

Directeur Informatique Centre Ingénierie Mobilité

« La solution CAST de gestion de la sous- traitance est un élément clé dans le système de pilotage mis en place par SFR-Cegetel sur ses TMA. Nous avons constaté une attention plus particulière apportée par les SSII à la qualité des livrables et à la fiabilité des chiffrages depuis qu’ils savent que nous pouvons facilement les auditer. »

Framatome - Groupe AREVA Michel Fondeviole

DSI de Framatome-ANP

« CAST fournit des critères objectifs d’appréciation dans le dialogue parfois difficile avec le sous-traitant ainsi que des indicateurs nécessaires au suivi de l’évolution des applications et constitue au sein de Framatome un outil de progrès partagé. »

en savoir pLus

demandez le Livre Blanc rédigé par le Gartner Group et cast sur ce thème :

« information series on application management » :

www.castsoftware.com/outsourcing découvrez l’expérience de plusieurs sociétés utilisatrices de solutions d’application intelligence :

www.castsoftware.com/customers

(3)

de la valeur ajoutée de l’application intelligence pour piloter efficacement un parc applicatif sous-traité

La maîtrise des applications et des prestataires dans

une opération d’outsourcing

L

es entreprises, devenues plus mûres vis-à-vis de l’outsourcing, sont désormais capables d’opérer des externalisations plus stratégiques. on l’a récemment observé dans l’automobile avec renault ou dans la grande distribution avec carrefour.

dans l’externalisation des applications métier, c’est surtout la volonté d’accroître l’efficacité opérationnelle de l’informatique qui est motrice : pouvoir fournir plus rapidement un service à valeur ajoutée aux utilisateurs et aux clients dans un contexte en perpétuelle évolution.

comme dans n’importe quelle opération d’outsourcing, le contrat liant le fournisseur est capital, en particulier les sLas. néanmoins, les applications métier étant par nature soumises à de fréquents changements en cours de contrat, les seuls sLas se révèlent vite insuffisants pour garantir la qualité de service et éviter les dérives de coûts.

c’est là que le bât blesse : l’externalisation des applications métier occasionne un risque de perte rapide de savoir-faire technologique et par conséquent critique.

vigilance et suivi sont de mise pour garder le contrôle de la qualité de service et éviter les dépendances par nature dangereuses.

L’externalisation réussie d’applications métier est donc le fruit d’une vision anticipatrice partagée avec le prestataire.

sont ainsi apparues des solutions dites d’application intelligence, basées sur

une technologie avancée d’analyse de code source.

en fournissant des indicateurs techniques aux donneurs d’ordre, ces solutions permettent de piloter un parc applicatif sous-traité en temps réel, tant en terme de qualité, que de maintenabilité et de coût.

résultat : le donneur d’ordre conserve la maîtrise intellectuelle de ses applications métier et le contrôle de la relation avec son sous-traitant.

La valeur ajoutée de ce type de solutions d’application intelligence est visible à chaque étape d’une opération d’outsourcing, comme décrit ci-après.

audit de l’existant et préparation des appels d’offres

• Déterminer les caractéristiques techniques du portefeuille applicatif existant avant de le sous-traiter

• Disposer d’informations de référence pour évaluer les propositions des sous- traitants

• Obtenir une image à l’instant t des applications pour permettre un suivi dans le temps

transfert vers le prestataire

• Réduire la phase d’acquisition de la connaissance pour entreprendre plus vite des tâches productives

• Diminuer le coût lié à la production d’une documentation exploitable et maintenable par le prestataire contrôle de la qualité et des coûts en cours de projet

• Suivre l’évolution de la maintenabilité et de la qualité pour éviter toute dérive

• Etre capable de valider la quantité et la qualité du travail facturé

• Etre en mesure de challenger le sous-traitant lors des négociations d’avenants

• Industrialiser les recettes techniques renouvellement de contrat, transfert ou ré-internalisation

• Déterminer et qualifier les écarts entre la prestation prévue et les livrables recettés

• Disposer des informations techniques caractéristiques du portefeuille applicatif en fin de prestation

Le leader mondial de ce type de solutions est d’ailleurs un éditeur français, cast.

reconnu par les analystes informatiques comme précurseur du marché, cast compte plus 500 comptes utilisateurs de sa plate-forme d’application intelligence dans le monde.

Cycle de vie d'une opération

d'Outsourcing

Suivi de projet Contrôle des coûts

Transfert cesdesan connais

Fin de contrat Appels d'offres

Recette techni

que

Publi-Reportage

www.castsoftware.com

(4)

Editeur

press & communication france une filiale du groupe cast 3, rue marcel allégot 92190 meudon - france tél. : 01 46 90 21 21 fax. : 01 46 90 21 20 http://www.it-expertise.com email : redaction@it-expertise.com Rédacteur en chef

José diz

email : j.diz@it-expertise.com Directeur de publication aurélie magniez

email : a.magniez@it-expertise.com Abonnements/Publicité

email : abonnement@it-expertise.com Conception Graphique

nicolas Herlem

email : nico_freelance@yahoo.fr Parution

it-expert - (issn 1961-9855) est un journal édité 6 fois par an, par p&c france, sarl de presse au capital de 60 976,61 e. Avertissement

tous droits réservés. toute reproduction intégrale ou partielle des pages publiées dans la présente publication sans l’autori- sation écrite de l’éditeur est interdite, sauf dans les cas prévus par les articles 40 et 41 de la loi du 11 mars 1957. © 1996 p&c france. toutes les marques citées sont des marques déposées.

Les vues et opinions présentées dans cette publication sont exprimées par les auteurs à titre personnel et sont sous leur entière et unique responsabilité. toute opinion, conseil, autre renseignement ou contenu exprimés n’engagent pas la responsabilité de press & communication.

Abonnements 01 46 90 21 21

vous pouvez vous abonner gratuitement sur http://www.it-expertise.com/

IT

LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE

La vague Cloud ou le n’importe-quoi-tenant

voilà donc le cloud porté aux nues !

après avoir été raillées, les salesforce, amazon, Google et autres peuvent sourire. et comment ! tout devient cloud, même et surtout ce qui ne l’est pas ! chez l’un le « cloud privé » (aberration sémantique) a remplacé le datacenter, ou l’application hébergée sans rien changer, si ce n’est l’étiquette… chez cet autre, le marketing, désolé de ne pas répondre au critère multitenant, invente le cloud « mega-tenant », tout comme on pourrait évoquer un lac sans eau et sans profondeur…

Bref : la nébuleuse prend des formes plus que fantaisiste : sans cloud point de salut ! pourtant, le datacenter, l’infogérance, l’hébergement… et même les applications traditionnelles (on-premise) restent des solutions pertinentes. et cette situation risque de perdurer pendant quelques longues années.

Le peuple aime détruire ses idoles. Les systèmes ouverts devaient anéantir les mainframes, qui se sont modernisés à marche forcée. Le Web 2.0 incarnerait le futur des applications alors que la virtualisation…

Bref, les technologies les plus porteuses seraient sensées prendre la place de solutions en place. pourtant dans un monde hétérogène, les informaticiens savent qu’aujourd’hui mieux vaut miser sur une cohabitation bien orchestrer que sur des ruptures. L’exemple des services Web n’est-il pas là pour en témoigner ?

José Diz rédacteur en chef

édito

(5)

5 IT-expert n°84 - mars/avril 2010

IT-expert n°84 - mars/avril 2010

6 Dossier

Une entreprise peut-elle survivre sans qualité de données globale ?

La multiplication des risques et des réglementations oblige à se poser la question de la qualité de données. directeur technique chez informatica, Bruno Labidoire expose une démarche complète permettant d’implémenter une telle politique. dense et utile.

16 Technique

Comment réussir avec ITIL ?

itiL par-ci, itiL par-là… de quoi parle-t-on ? sur un ton pédagogique et avec des explications détaillées, ce dossier montre ce qu’est itiL et ce qu’il n’est pas, pourquoi il peut amener à des impasses, mais aussi comment il peut apporter beaucoup à l’entreprise. a lire sans modération.

22 Actualités Internationales

Les informations marquantes d’éditeurs, de marchés, d’organisme de standardisation, de débats en cours et de tendances.

28 Quoi de neuf docteur ?

ALM et agilité au cœur des processus métiers

ce dossier apporte un éclairage de l’évolution de la gestion du cycle de vie des applications (aLm pour application Lifecycle management) : des tâches séparant it et utilisateurs, aux ide ajoutant tests et architecture, jusqu’au collaboratif qui posent sur le même pont utilisateurs et it.

34 Comment ça marche ?

Anatomie de trois ESB Open Source : JBoss ESB, serviceMix et OpenESB

voyage au cœur du middleware, avec un exposé complet et sans concession sur les esB open source, et leurs versions commerciales. schémas, explications… un panorama très détaillé.

45 Livres

Conduite de projets informatiques par Brice-arnaud Guérin et Le management de la performance par les processus par dominique thiault.

46 Rubrique à brac

Le respect des licences libres : les juridictions veillent

un avocat spécialisé fait un point sur des décisions juridiques liées au logiciel libre, qui ne dédouane pas les prestataires de leurs responsabilités. ce spécialiste revient sur des idées reçues : distinguer commercial et open source, vide juridique, etc. très instructif.

Sommaire

(6)

Dans le climat économique actuel, disposer des données de bonne qualité est une condition de survie pour les entreprises. Pourtant, dans tous les secteurs, nombre d’organisations considèrent encore le manque de qualité des données comme un problème mineur qu’elles traitent au coup par coup, et souvent dans l’urgence. Pour compenser les défauts de leurs données, ces organisations inventent des moyens de contournement simples ou complexes.

Résultat : elles fondent la plupart de leurs décisions sur des informations peu fiables et incohérentes. Si l’on ajoute à cela la multiplication des obligations de conformité réglementaire, les données apparaissent plus que jamais comme un actif majeur de l’entreprise et la question de la qualité de données ne peut tout simplement plus être écartée.

Une entreprise

peut-elle survivre sans qualité

de données globale ?

(7)

Dossier

7 IT-expert n°84 - mars/avril 2010

Le risque rôde à tous les étages

en effet, il y existe un lien direct entre la qualité des données de l’entreprise et ses performances. des données de bonne qualité permettent à l’entreprise de rester compétitive et de continuer à avancer dans un contexte économique perturbé. pour opérer au maximum de son efficacité, être en conformité avec le nombre croissant de règlementations, mieux gérer le risque, l’entreprise a besoin de données de bonne qualité. et ce, pas uniquement dans un département, mais partout et à tous les niveaux de l’organisation, à l’intérieur et à l’extérieur des firewalls. dans un tel contexte, la mise en œuvre d’une véritable politique de qualité des données s’avère être un élément déterminant pour l’entreprise. La direction générale et ses directions métiers pourront ainsi disposer d’une vision unifiée et exploitable des informations, afin de prendre les bonnes décisions au moment opportun.

Les dangers de l’utilisation de données incorrectes

dans le domaine des technologies de l’information, l’intégration et la réconciliation de données comptent parmi les projets les plus inquiétants. en fait, il faut reformuler ce constat : ces projets deviennent vraiment critiques lorsque l’intégration de données se passe mal. parfois les données sont fausses dès le départ, à cause d’erreurs faites par les utilisateurs dès la saisie, de façon accidentelle ou délibérée. il arrive aussi que les données soient bonnes au départ, mais qu’ensuite, déplacées d’une base de données ou d’un système vers un autre, elles dérivent, qu’elles soient tronquées ou encore altérées. Les données peuvent devenir obsolètes, ou encore faire l’objet de conflits internes, au sein d’une organisation – chacun se cramponnant aux données le concernant, personne ne voulant partager, sans parler des risques de fraude encourus lorsque l’on perd la visibilité sur ces données. de plus, le volume phénoménal de données que l’entreprise produit chaque jour n’arrange rien. Les projets concernant les données peuvent mal tourner de bien des façons.

Les dirigeants se méfient de leurs données

une étude menée par pricewaterhousecoopers (interviews réalisées auprès de dirigeants de grands groupes internationaux pour le baromètre de gestion pricewaterhousecoopers en 2008) révèle un décalage important entre la compréhension claire de la valeur des données et l’utilisation réelle de celle- ci pour générer de la valeur. plus de 70 % des cadres interrogés estiment que les données constituent l’un des actifs les plus précieux, mais seuls 40 % d’entre eux estiment les utiliser efficacement. cela peut laisser penser qu’il existe un décalage entre la valeur perçue des données et la valeur obtenue par l’utilisation de ces dernières. L’entreprise n’a pas confiance dans les données au moment de leur utilisation. en comblant le fossé entre perception de la valeur et valeur réelle des données, les entreprises peuvent générer davantage de valeur à partir des données et remplir leurs objectifs en matière de gouvernance, de risque et de conformité.

Multiplication des risques et des réglementations

La complexité du marché et des enjeux actuels ajoute de nouveaux risques que les entreprises doivent identifier. par exemple, à lui seul, le gouvernement américain a introduit 114 000 nouvelles règles et réglementations pour les entreprises depuis 1981. cette croissance exponentielle du risque et des réglementations a atteint un point de rupture qui nécessite la mise en place de rapports réglementaires s’appuyant sur des données fiables, pertinentes et de qualité.

De l’urgence d’une harmonisation globale

au cours de leur analyse de la gestion des risques et de la conformité, les cadres dirigeants sont confrontés à des incohérences et à des silos organisationnels en termes d’informations et de processus. cela est dû à l’absence d’une stratégie de gestion des données et à un manque d’information dans l’entreprise.

il en résulte une duplication des technologies, une fragmentation des règles et des normes de qualité, ainsi qu’un manque de cohérence pour accéder et fournir les données aux décideurs responsables.

(8)

Avez-vous les moyens de la non-qualité ?

depuis de nombreuses années, les dsi reconnaissent l’importance de la qualité des données comme un élément fondamental de leur stratégie de gestion de l’information. toutefois, il leur est difficile de mettre en place les procédures et les programmes adéquats. une étude (accenture cio survey – 2007) montre qu’à ce jour seulement 16 % des entreprises ont mis en place un programme de qualité des données. cette dernière représente pourtant un enjeu critique pour l’entreprise dans les trois étapes du cycle de vie des informations : lors de la saisie, au cours de transformations et des agrégations et pendant l’analyse et la présentation des résultats. une qualité de données insuffisante coûte très cher à l’entreprise. en outre, elle conduit à une altération de la relation client, à des ruptures dans la chaine logistique, à des décisions métiers moins pertinentes, voire pénalisantes. des données défectueuses invalident aussi les efforts de l’entreprise en matière de conformité réglementaire. autant de handicaps lourds de conséquences !

Cap sur la gestion de la qualité des données globale

pour exploiter au mieux son capital de données, l’entreprise doit lancer une initiative de « qualité des données ». stratégique pour l’entreprise, ce programme doit être permanent et ne pas rester une mesure isolée dans le temps. La qualité des données concerne de nombreuses fonctions métiers et informatiques au sein de toute l’organisation. elle nécessite de définir des processus formels de qualité des données appliqués par la direction, qui permettent d’agir sur l’ensemble des projets : de la standardisation des données, au profilage, en passant par le nettoyage, jusqu’à l’enrichissement. il faut définir des règles de gestion des données de l’entreprise, édictées pour garantir la complétude, la conformité, la cohérence, l’exactitude, la non-duplication et l’intégrité des données.

Bref : un programme de gouvernance des données. pour garantir son efficacité, ce programme doit inclure un comité, un ensemble de procédures et leur plan d’exécution. autour des données, le programme doit mettre en pratique les contrôles de qualité des données et diffuser les bonnes pratiques.

il est articulé autour de deux approches :

Une approche proactive incluant les bonnes pratiques à appliquer. quand de nouvelles données sont générées, de nouveaux projets affectant les données sont lancés ou des actions de qualité sont effectuées.

Une approche réactive incluant les actions de correction de non-qualité, les actions de mise en conformité suite à des nouveaux règlements, les actions d’intégration suite à la mise en œuvre des nouvelles architectures orientées-services (soa).

Les cinq étapes d’implémentation

La mise en œuvre d’une initiative de qualité de données fait intervenir des personnes, des processus et des technologies. en s’appuyant sur une plate-forme de qualité de données et sur une méthodologie d’implémentation, les entreprises peuvent construire des solutions de qualité de données de bout en bout conformes aux réglementations en vigueur, réduire les ruptures de chaîne d’approvisionnement et améliorer la pertinence des décisions prises par les équipes métiers. en mettant en place dès le début des processus de gestion de la qualité de données bien définis, les entreprises exploitent d’autant plus efficacement la solution de qualité de données que les divers services chargés de l’implémentation et du contrôle de cette qualité le font dans le cadre des règles et des procédures définis pour l’ensemble de l’entreprise.

(9)

Dossier

9 IT-expert n°84 - mars/avril 2010

La figure ci-dessous présente les cinq étapes à considérer lors du lancement d’une initiative de gestion de la qualité de données :

Les entreprises ont besoin de produits et de pratiques optimisés pour soutenir un processus de qualité des données de bout en bout

Identification et mesure de la qualité des données - première étape décisive, car la compréhension du niveau initial de qualité des données constitue la base des règles et des processus que vous mettrez en place. Le cadre des dimensions de la qualité de données est utilisé pour générer les paramètres de mesure et les objectifs. sans évaluation préalable, la capacité à mettre en œuvre une stratégie de qualité de données efficace est sérieusement compromise. À plus long terme, l’évaluation permet à l’entreprise de mesurer combien ces procédures à améliorer les informations et les résultats. Les mesures et audits de qualité de données peuvent être appliqués à tous les domaines (données clients, fournisseurs, produits, actifs, données financières, etc.), tant sur un champ particulier que sur la totalité des bases utilisées dans l’entreprise et pour les échanges inter-entreprises.

Définition des règles métiers et des objectifs de qualité des données - La mesure de la qualité de données repose essentiellement sur des règles métiers et sur des normes de données internes ou externes. La phase suivante consiste donc pour l’entreprise à spécifier des règles métiers basées sur les normes et les données de référence préalablement arrêtées. Le cadre des dimensions de la qualité de données est utilisé pour générer les mesures et les objectifs des critères de réussite.

Conception de processus d’amélioration de la qualité - cette phase concerne la configuration des processus de nettoyage et d’amélioration des données (c’est-à-dire les processus d’analyse, de nettoyage, de normalisation, de rapprochement, de déduplication et de contrôle). Les plans d’amélioration de la qualité de données sont le plus souvent créés par les équipes métiers, dans la mesure où ce sont elles qui connaissent et comprennent le mieux ces informations.

Implémentation des processus d’amélioration de la qualité - une fois les règles métiers de qualité de données configurées, elles sont généralement déployées dans le cadre d’une stratégie d’intégration de données plus large. ces règles de qualité peuvent être activées au moment où les données entrent dans une application ou lorsqu’elles sont déplacées entre des applications. Le déploiement et l’optimisation des processus incombent aux équipes informatiques.

Analyser

Améliorer

2. Définir des règles et des objectifs de qualité des données

3. Concevoir des processus d'amélioration de la qualité

5. Contrôler la qualité des données par rapports aux objectifs

1. Identifier et mesurer la qualité des données

(10)

Surveillance de la qualité des données par rapport aux objectifs - s’inscrivant dans le long terme, cette phase implique la production et la diffusion de tableaux de bord et de rapports de tendances.

Les rapports permettent souvent aux utilisateurs d’explorer en détail les enregistrements de qualité insuffisante. chaque gestionnaire de données doit périodiquement examiner les enregistrements de qualité insuffisante et lancer les actions correctives appropriées, celles-ci pouvant être manuelles ou automatisées. La présence conjointe d’outils de reporting et de traitement des exceptions est indispensable dans une solution globale destinée à supporter des programmes de conformité et de gouvernance de données.

Cadre de la dimension de la qualité des données

Vers une gouvernance des données

dans l’initiative de qualité des données, l’entreprise définit son modèle de gouvernance, c’est-à-dire son modèle de pilotage formalisé des personnes, processus et techniques pour faciliter la capacité à s’appuyer sur les données comme un atout majeur de l’entreprise.

Implication de la direction générale et des directions opérationnelles

pour lancer cette démarche, deux garanties de succès doivent être réunies : le sponsoring de la direction générale, et l’implication de tous les acteurs. il faut, pour convaincre la direction générale, prendre le temps de mesurer l’impact de la non-qualité et surtout démontrer que la qualité est source de compétitivité pour l’entreprise. reste ensuite à faire preuve de pédagogie auprès des directions opérationnelles. Le directeur général ou le directeur des opérations, propriétaire des données, ne s’implique pas au quotidien dans la qualité des données. cependant, il doit s’assurer que l’initiative est lancée, et créer un comité de « qualité des données ».

Exhaustivité Quelles sont les données manquantes ou inutilisables ?

Conformité Quelles sont les données enregistrées sous un format non standard ?

Cohérence Quelles sont les valeurs de données qui donnent des informations conflictuelles ? Exactitude Quelles sont les données incorrectes ou

obsolètes ?

Duplication Quels sont les enregistrements ou les attributs de données qui se répètent ? Intégrité Quelles sont les données manquantes

ou non référencées ?

(11)

Dossier

11 IT-expert n°84 - mars/avril 2010

Le comité de « qualité des données »

Le modèle de gouvernance doit comprendre une structure organisationnelle chargée de l’amélioration de la qualité des données dans l’entreprise. Le comité de « qualité des données » est sous la responsabilité d’un sponsor, généralement nommé par un membre de la direction générale qui gère l’initiative. Le sponsor doit avoir une influence sur l’ensemble des directions métiers, et ce comité a la responsabilité de la qualité des données de toute l’entreprise. il définit objectifs et priorités, et s’assure que tous les projets incorporent la gestion de la qualité des données dans leurs processus de saisie, de transformation ou de restitution. il s’assure également de la disponibilité des financements nécessaires à l’initiative. il se réunit régulièrement pour assurer le suivi sur la qualité, faire le point sur les actions d’amélioration, et décider des nouvelles priorités.

Comité Qualité des Données

ce comité est constitué d’experts issus des principales directions de l’entreprise, les data stewards. ils sont responsables de la définition et de la surveillance des mesures et des indicateurs de qualité des données de leur domaine, et coordonnent les plans d’action d’amélioration des indicateurs. L’analyste qualité des données est un professionnel de la dsi. il met en application les règles métiers définies par les stewards dans les outils de profiling et de nettoyage.

Le socle technologique le plus adapté

après avoir convaincu la direction générale et les directions métiers de l’importance de la qualité des données et mis en place la structure organisationnelle pour supporter l’initiative, il est temps d’évaluer les solutions technologiques. Le choix de la plate-forme s’effectuera selon plusieurs critères comme la puissance des fonctionnalités de profiling, de nettoyage, de rapprochement et de contrôle de la qualité de données. une plate-forme complète, ouverte, unifiée et économique, permettra d’accéder, de découvrir, de nettoyer et d’intégrer des données de tous types. en outre, elle saura distribuer, dans l’ensemble de l’organisation, des données fiables et pertinentes, partout et à tout moment. Étendre la qualité de données au-delà d’un seul département, et à l’ensemble de l’entreprise, améliorera l’efficacité opérationnelle ainsi que les performances de toute l’organisation.

Synchroniser les équipes métiers et informatiques

malgré des investissements croissants dans les technologies de l’information, un nombre significatif de projets informatiques n’apportent pas la valeur ajoutée attendue faute de fournir aux utilisateurs les données les plus pertinentes.

Sponsor Qualité des Données

Steward Données Ventes

Steward Données Marketing

Analyste Qualité des Données

Opérations Qualité des Données

(12)

Jusqu’ici, trois problèmes compromettaient souvent la valeur des départements informatiques et faisaient obstacle à la mise en œuvre d’initiatives pourtant critiques pour l’entreprise :

• des utilisateurs métiers dépendants des équipes informatiques pour obtenir les informations pertinentes nécessaires à leur travail ;

• des utilisateurs métiers jugeant que les données qu’on leur fournit ne sont pas dignes de confiance pour ce qu’ils souhaitent en faire ;

• des utilisateurs métiers n’ayant pas accès aux données en temps voulu et sous la forme appropriée.

Un grand zeste de SOA et de référentiel

or, certaines solutions facilitent l’alignement entre les équipes métiers et informatiques en procurant aux utilisateurs métiers les moyens de s’impliquer directement dans le processus de développement informatique. des plates-formes d’intégration et de qualité des données avancées aident les entreprises à dépasser ces trois défis grâce à la collaboration entre l’informatique et les métiers, à la prise en compte continue de la qualité de données et à des services de données basés sur une architecture orientée-services (soa).

par exemple, certaines solutions du marché proposent des outils basés sur un navigateur pour les analystes pour gérer la qualité des données à partir de l’interface familière d’un navigateur Web. Les analystes peuvent ainsi directement spécifier leurs besoins métiers. La production automatique des détails d’implémentation en générant automatiquement les règles et consignes d’implémentation à partir des spécifications métiers permettent ensuite d’éviter les écarts résultant d’une mauvaise traduction technique des besoins métiers. en implémentant un référentiel de métadonnées commun sur lequel on s’appuie pour toutes les spécifications et objets, les analystes métiers et les développeurs informatiques peuvent plus facilement communiquer et partager leurs travaux.

Des règles pour prendre les bonnes mesures

il est désormais possible de spécifier des règles de qualité pour pratiquement toutes les données clients, produits, actifs et données financières. une fois définies, ces règles peuvent être réutilisées autant que nécessaire, ce qui garantit la cohérence des informations entre les différentes applications. des outils unifiés à base de rôles des différentes parties prenantes attribuent à chacun la prise en charge de la qualité des données qu’il connaît le mieux. Les tableaux de bord de qualité de données, les outils simples destinés aux analystes et les outils de productivité mis à disposition des développeurs permettent aux utilisateurs et analystes métiers, aux gestionnaires de données et aux développeurs d’être directement impliqués dans la mesure et l’amélioration de la qualité de données. une gouvernance à base de règles réduit considérablement les coûts d’administration de systèmes en permettant une gestion centralisée de toutes les règles de données.

Une collaboration en bonne intelligence

au lieu de relever exclusivement de la compétence des départements informatiques, la qualité de données peut ainsi être gérée conjointement avec les départements métiers. Les entreprises privilégieront des solutions de qualité de données bénéficiant d’un socle technologique et d’une méthodologie qui permettent aux équipes it et métiers de travailler efficacement ensemble, de gérer les processus de qualité de données dans toute l’entreprise et, ainsi, de garantir aux utilisateurs que toutes les données sont complètes, cohérentes, exactes et actualisées, où qu’elles se trouvent dans l’entreprise.

Enjeu d’un centre de compétences en intégration de données

sans la technologie appropriée, le coût prohibitif de la production de données pertinentes et fiables peut avoir une incidence notable sur la capacité d’une organisation à atteindre ses objectifs. en adoptant une approche de centre de compétences en intégration, les entreprises peuvent réduire davantage leurs coûts d’acquisition, d’intégration et de nettoyage des données. ce dernier (faisant parfois référence au centre d’excellence en intégration) est un service partagé d’une entreprise, qui permet de réaliser une intégration méthodique de données parmi les applications et les systèmes.

(13)

GfK : 1 700 fichiers sur 80 pays traités chaque mois nº 1 mondial du suivi et de l’analyse des biens techniques et technologiques, GfK retail and technology s’appuie sur les informations de milliers de points de vente de détaillants, de revendeurs et de distributeurs répartis dans plus de 80 pays, pour proposer des études de marché et un suivi des ventes de biens durables et culturels. L’exactitude des données est une priorité. intégrant seulement 50 fichiers par mois il y a presque dix ans, GfK retail and technology france en traite aujourd’hui 1 700. avec l’augmentation des données complexes, l’analyse de la cohérence d’un fichier et de son contenu deviennent un challenge. en déployant une solution d’intégration et de qualité des données, cette société peut consulter, nettoyer, intégrer et distribuer rapidement des données fiables à la fois en interne (dans les bases de données et applications de l’entreprise utilisées par environ 3 000 employés) et vers les systèmes des clients. des données de tous fichiers, documents ou messages (quels que soient leur format, leur complexité et leurs tailles) peuvent êtres extraits, puis transformés dans un format exploitable. Le tout, en réduisant les délais d’agrégation de l’ensemble des données de façon spectaculaire.

Les bénéfices sont multiples avec le lancement accéléré de nouveaux services d’étude de marché, l’augmentation du chiffre d’affaires, l’accélération des délais d’agrégation de données (+ 400 %), la réduction de 75 % des ressources de développement, la réduction de 80 % du nombre d’erreurs et l’amélioration continue de la qualité des données globale. L’automatisation de la résolution d’incidents a réduit considérablement les erreurs devenues rares. Les gains de productivité sont considérables.

Grâce à la simplicité de l’environnement fourni par la plate-forme d’intégration et de qualité de données et ses fonctions de profiling de données, les délais d’intégration ont en moyenne été divisés par deux chaque année. ce qui prenait auparavant 8 heures est désormais réalisé en seulement 20 minutes. La plate-forme d’intégration et de qualité des données permet de traiter des données particulièrement difficiles à catégoriser et à comparer.

en consolidant plus rapidement un volume croissant de sources de données plus complexes, GfK retail and technology france est ainsi en mesure d’accélérer le lancement de nouveaux services et donc d’accroître ses revenus.

Printemps

afin de mieux contrôler sa chaîne d’approvisionnement, sa relation avec les fournisseurs et la gestion de ses magasins, le groupe printemps a choisi de standardiser son erp. de nombreuses solutions propriétaires et hétérogènes coexistaient ce qui entraînait des difficultés pour le pilotage de ses activités.

Les magasins rencontraient également des difficultés pour assurer la bonne intégrité des données entre les différents systèmes. une simple erreur de codes-barres ean, par exemple, a un impact direct sur la reconnaissance des produits en entrepôt et donc sur les délais de réapprovisionnement et la qualité des services pour ses clients. La chaîne de grands magasins a donc choisi de profiter d’un projet de migration de données pour améliorer la qualité des données relatives à ses 3,5 millions de références. La migration s’effectuera de son erp « maison » sésames vers l’erp de sap d’une manière progressive afin de nettoyer systématiquement les données qui seront injectées dans sap.

dès le début du projet de migration, une solution améliorant la qualité des données est implémentée. L’une des fonctionnalités a suscité un vif intérêt : un module facilitant l’implication des équipes métiers. première phase : la reprise des données pour la migration sap. seconde phase : le maintien d’une cellule de qualité des données, afin de pérenniser l’effort pour maintenir une qualité de haut niveau. un jeu d’indicateurs très concrets progressivement enrichis a été défini d’emblée, afin d’évaluer la performance en termes de qualité des données.

en automatisant autant que possible la résolution d’incidents avec des interfaces web de résolution générées en cas de rejet de données pour non-conformité ou ambiguïté, le groupe printemps réduit les risques liés à ce type de projets. effet immédiat : l’accélération de la standardisation des processus.

avec un erp et une plate-forme d’intégration et de qualité de données standards, printemps pourra désormais mieux contrôler sa chaîne d’approvisionnement et sera en mesure d’assurer une meilleure traçabilité des produits commercialisés.

au final, printemps offre un meilleur service à ses clients, atout fondamental dans le secteur de la distribution.

Dossier

13 IT-expert n°84 - mars/avril 2010

un centre de compétences en intégration optimise les ressources rares, en combinant dans un même groupe l’intégration de données, les compétences en qualité de données, les ressources et les processus.

cela contribue à réduire les délais de livraison, ainsi que les coûts de maintenance et de développement, tout en améliorant le retour sur investissement par la réutilisation de sources, d’interfaces d’applications et de règles métiers codifiées. Les centres de compétences en intégration aident également à réduire le nombre d’opérations redondantes au cours de l’intégration de données et du contrôle de la qualité des données, en s’appuyant sur les réussites passées, plutôt que de recommencer intégralement à chaque nouveau projet.

(14)

Le problème de qualité des données peut devenir un atout

Le monde des affaires se caractérise par des changements continuels et par des tendances fortes telles que la mondialisation, les fusions et acquisitions et l’externalisation des processus métiers. alors que le temps ne joue pas en faveur de l’entreprise, ces facteurs compliquent davantage la gestion des risques.

certains aspects de la gestion des risques, tels que la détection des fraudes et les mesures contre le blanchiment d’argent, ne tolèrent aucun retard dans l’extraction des données ni de s’appuyer sur des données obsolètes. pour y faire face, les personnes chargées de prendre de mesures immédiates doivent pouvoir accéder et diffuser plus rapidement les données métiers critiques, afin de protéger les employés et les actionnaires. Les entreprises peuvent disposer aujourd’hui de données fiables grâce à l’omniprésence des services de qualité de données. Jusqu’ici, les initiatives de qualité de données relevaient de la seule responsabilité des départements informatiques. désormais, toutes les parties prenantes ont les moyens de gérer la qualité des données en fonction de leurs propres besoins métiers.

ainsi, en s’appuyant sur des avancées technologiques et des méthodologies éprouvées, les entreprises peuvent gagner en efficacité opérationnelle et réduire les risques.

Une fois mise place, l’opération doit devenir un réflexe continu

L’amélioration de la qualité des données de l’entreprise passe par la mise en place d’une initiative continue et globale. cet article a évoqué les concepts de qualité des données ainsi que son importance dans les entreprises. une mauvaise qualité des données coûte cher et conduit à des ruptures dans les processus, à des décisions métiers moins pertinentes et à une gestion médiocre de la relation client. de plus, elle peut invalider les efforts de l’entreprise en matière de conformité réglementaire. il est recommandé de s’adosser à un grand projet stratégique dans l’entreprise pour lancer une initiative autour de la qualité des données. mais cette initiative peut également être menée de façon indépendante. L’idée de démarche de pérennité est essentielle et caractéristique de l’approche qualité. elle va à l’encontre d’une opération unique et isolée qui ne permet de nettoyer et d’améliorer les données que ponctuellement.

cela signifie que les objectifs, mesures et indicateurs associés doivent être portés par l’ensemble des acteurs concernés département informatique et directions métiers, doublés d’une implication forte de la hiérarchie. La qualité des données concerne tout autant les métiers que l’informatique. La réussite passe désormais par une approche de qualité de données globale. plus elle sera incorporée aux habitudes et à la culture de l’entreprise, plus la démarche qualité progressera. paradoxalement, son succès résidera dans sa banalisation. n

Bruno Labidoire directeur technique

Bruno Labidoire est Directeur Technique chez Informatica pour l’Europe du Sud. Avant de rejoindre Informatica en 2002, il occupait auparavant le poste de Directeur Avant-Vente pour l’Europe du Sud de l’offre CRM de Clarify. Il était chargé d’une équipe avant-vente répartie sur la France, l’Espagne, et l’Italie. Avant de rejoindre Clarify, Bruno Labidoire a occupé différentes responsabilités dans les domaines des serveurs Multimédia, CRM, et centres d’appels et, entre autres, responsable de projets chez Cap Gemini Telecom. Bruno Labidoire est diplômé de l’Ecole Commerciale de la Chambre de Commerce et d’industrie de Paris.

Informatica Corporation (NASDAQ : INFA) est le leader mondial des fournisseurs indépendants de logiciels d’intégration de données.

La plate-forme Informatica constitue une offre complète, unifiée et ouverte pour les organisations. En intégrant toutes leurs sources de données (applications traditionnelles, sources tierces, locales, distantes ou issues du Cloud computing), celles-ci tirent davantage de valeur de leurs informations et renforcent leurs avantages concurrentiels. Plus de 3 900 entreprises dans le monde s’appuient sur les solutions Informatica pour réduire les coûts et les délais de réponse à leurs besoins d’intégration et de qualité de données, quelles qu’en soient l’échelle et la complexité. Pour plus d’informations, veuillez consulter le site www.informatica.com/fr

(15)

Réduisez vos coûts télécoms, gagnez en productivité et

bénéficiez de toutes les applications sur IP !

Intranet 2.0 : découvrez toutes les solutions de partage d’information et de collaboration.

pour visiter et vous inscrire aux conférences :

EXPOSITION - CONFÉRENCES - ATELIERS

www.groupesolutions.fr 5 et 6 mai 2010

CNIT - PARIS LA DEFENSE

5

e

édition

En parallèle : Avec :

(16)

On assiste depuis 10 ans à une montée en puissance d’ITIL. En 2004, moins de 30 % des DSI interrogées avaient entendu parler d’ITIL, en 2007 la notoriété était de 87 % dans les DSI, et aujourd’hui toutes les DSI en ont entendu parler, sans que cette notoriété ait toujours débouché sur des actions concrètes de mise en œuvre. De multiples opinions se font entendre à propos d’ITIL, on entend parler d’échecs coûteux où des démarches ITIL se sont enlisées, où des projets se sont avérés lourds, complexes, mal acceptés dans les DSI, et finalement inefficaces.

Cet article tentera de montrer comment des incompréhensions à propos de la véritable nature d’ITIL peuvent amener à des utilisations inappropriées, des actions infructueuses, ressenties comme des échecs, quand elles contrarient la qualité et la richesse d’ITIL par un usage inadéquat. Avant tout, il s’avère indispensable d’expliquer concrètement ce qu’est ITIL, et surtout ce qu’ITIL n’est pas. Quelques recommandations seront détaillées pour favoriser des mises en œuvre réussies.

Comment réussir avec ITIL ?

(17)

Technique

17 IT-expert n°84 - mars/avril 2010

Ce qu’est ITIL et ce qu’il n’est pas

au-delà d’une présentation de ce qu’est itiL, il est également important de préciser, en quelque sorte « en creux », ce qu’itiL n’a jamais prétendu être.

ITIL s’appuie sur les processus

itiL traite les questions d’organisation par l’angle des processus.

points communs aux approches processus, elles recherchent traditionnellement à identifier les « clients » de chaque processus (qui dit « client », dit qu’il a des objectifs, des attentes, des besoins), ces approches raisonnent en processus et sous- processus, activités et tâches (avec des vocabulaires variables selon les différentes approches).

en conséquence, itiL ne traite pas les questions d’organisation par l’angle des structures organisationnelles (services, départements, organigrammes…). itiL ne traite pas non plus (jamais, nulle part dans la bibliothèque itiL) la question de trancher quel « acteur » doit être en charge de telles activités ou opérations ou tâches. comme toutes les approches processus, itiL est transverse aux organisations. il ne faut pas s’attendre à une aide d’itiL sur la question de décider sur ces points. La réponse à ces questions doit être prise en charge par l’entreprise elle-même. en effet, les réponses ne tomberont pas toutes faites de la lecture de cette bibliothèque itiL des bonnes pratiques.

un des intérêts majeurs du raisonnement par processus (plutôt que par organisations) tient dans la possibilité d’aller au-delà des problèmes liés à l’organisation en place, et de donner envie aux opérationnels de travailler ensemble à la réussite d’un processus pour lequel chacun trouvera une motivation à son bon fonctionnement. en conséquence, dans le cours de toute méthodologie de mise en place d’itiL, il s’avère indispensable de disposer des points d’appui, des structures et des espaces nécessaires (comités pour validation des décisions…) pour progresser sur le traitement de ces questions, dont itiL fait le choix (pertinent) que la réponse ne soit pas toute faite.

Un recueil des meilleures pratiques, pas une norme

itiL recense et décrit de façon détaillée la compilation des meilleures pratiques, afin qu’elles soient réutilisables, pour éviter de réinventer les éléments qui sont présents dans la bibliothèque. a contrario, itiL ne prétend pas normaliser des fonctionnements, interdire de procéder d’une manière ou d’une autre. itiL ne fixe pas de fonctionnement figé, il se cantonne au rôle de collection (bibliothèque) d’éléments. ces éléments découlent de l’expérience accumulée et reflètent des pratiques collégialement jugées bonnes par des promoteurs d’itiL. et qu’il est donc bon de partager pour ne pas les réinventer, surtout lorsqu’ils sont éprouvés depuis des années dans de nombreux organismes.

ITIL, kesako ?

itiL signifie « information technology infrastructure Library », il s’agit d’une « bibliothèque » des métiers de l’infrastructure it. Bibliothèque s’entend au sens de « conservation de la documentation sur les métiers de l’infrastructure ». Les objectifs d’itiL visent à documenter certaines des « meilleures pratiques » en matière de gestion des services informatiques, afin de constituer un standard de fait. itiL concerne les activités liées au support, à la production et à la maintenance. il permet aux dsi de contractualiser avec les métiers sur le « bon » service (efficace, rentable, aligné sur les objectifs business…) et de le réaliser. itiL a pour ambition d’apporter une forte valeur ajoutée à la dsi et à l’entreprise.

Historique et acteurs autour d’ITIL

itiL a été créé dans les années 80, en Grande-Bretagne, par la central computer & telecommunications agency, une agence du gouvernement britannique, avec pour objectif de recenser les bonnes pratiques en matière de gestion des infrastructures it. aujourd’hui, itiL est devenu la propriété de l’oGc (office Government of commerce). dans les années 90, itiL s’est répandu et consolidé, principalement en Grande- Bretagne, avec constitution du forum utilisateur itsmf (it service management forum), développements sous l’impulsion de la mise en concurrence systématique des services internes de l’administration britannique. en 2007, des mises à jour ont amené la sortie de la v3 d’itiL.

Les principaux acteurs sont :

l’oGc (office Government of commerce), l’office public britannique du commerce, qui vise à travailler avec le secteur public comme catalyseur pour améliorer l’efficacité dans la livraison des programmes et des projets. itiL® et it infrastructure Library® sont des marques déposées de l’oGc.

itsmf est un groupe d’utilisateurs, indépendant, et à but non lucratif. itsmf est le seul forum reconnu autour d’itiL.

il appartient et est animé par ses membres.

eXin aux pays-Bas, et iseB (information systems examination Board) en Grande-Bretagne sont des contributeurs officiels, en charge de travaux de certification itiL, organismes accrédités pour délivrer, après examen, les certifications.

des acteurs privés (éditeurs, ssii, sociétés de conseil) fournissent des logiciels, des services de conseil, et de formation.

(18)

dans l’entreprise. et, pendant certaines phases de réflexion ou durant au cours de la transformation, l’entreprise adoptera les concepts induits par le vocabulaire, et parfois le vocabulaire induit par itiL. Ce vocabulaire commun est un facteur facilitant l’intégration de contributeurs qui proviennent de différents horizons. itiL induit des concepts précis, pas toujours en phase avec le vocabulaire employé au jour le jour dans une entreprise. par exemple, itiL distingue clairement la notion d’incident de la notion de problème. dans certains cas, il faut faire rejoindre les concepts d’itiL et les concepts de l’entreprise. Les concepts d’itiL résultent d’une manière de voir les processus de service, vision partagée de façon consensuelle par de multiples organisations, et dans laquelle la vision du service est fermement implantée. Les concepts employés dans une entreprise proviennent souvent de processus résultant de l’empilement au fil des années de modes de fonctionnement.

cela peut aider à se poser plusieurs questions. par exemple aujourd’hui une entreprise a utilise 3 notions, celles de « dossiers client », « dossiers back-office » et « dossiers correctifs ». alors, laquelle correspond réellement à la notion d’incident, ou à la notion de problème ? Laquelle est à cheval entre les deux ? quelles modifications trouvera l’entreprise a pour clarifier et fluidifier sa manière de prendre en charge les incidents et problèmes ? etc.

Pas une démarche uniforme, ni une méthodologie toute faite

il ne suffit pas de décréter que l’on va mettre en œuvre itiL, pour se doter d’une méthode ou une démarche. avant de mettre en œuvre itiL dans une organisation, il lui faut définir proprement quels objectifs concrets elle cherche à atteindre (cela peut être de réparer un processus qui semble « cassé », d’améliorer tel niveau de service, de mobiliser les équipes autour de la résolution de difficultés liées à un processus, de gagner en efficacité sur un sujet…). ensuite, il convient de déterminer les meilleures démarches à mettre en place (ampleur des moyens, délais…) pour atteindre ces objectifs. certains passages d’itiL abordent ces questions, mais on observe souvent que les opérationnels survolent ces passages d’itiL qui ne leur sont pas forcément destinés, mais intéressent plutôt les décideurs. malgré leur pertinence, les lignes générales de ces chapitres ne sont pas toujours applicables. elles mélangent du bon sens (fixer des objectifs, mettre en place les moyens de mesurer leur atteinte…) des notions un peu abstraites (créer une vision...), et des éléments qui résultent de l’effet collection ou bibliothèque (Business case, métriques, Balanced score card, techniques pour la conduite du changement…). Bien qu’intéressants, ces éléments ne sont pas toujours pertinents. inutile donc de « dérouler un rouleau compresseur itiL ». comment réussir l’implémentation d’itiL ? en prenant du temps et du recul pour décrire ses propres objectifs, atteignables compte tenu de sa situation de départ, et d’en déduire le meilleur chemin. Le facteur clé de succès pour un décideur réside dans cette préparation.

itiL n’est pas exhaustif, loin de là ! dans des expériences réussies de mise en place de principes itiL on observe fréquemment des actions qui vont au-delà de ce que la bibliothèque commune propose. cela ne retire aucun mérite à cette bibliothèque qui n’a pas pour vocation d’imposer son contenu , mais d’éviter de réinventer de multiples éléments qui y sont déjà présents.

Fournir des services en soulignant les relations avec les clients

La bibliothèque itiL est décomposée selon des processus. La philosophie de la présentation consiste à toujours repartir des notions de service au client, d’aligner les processus par rapport aux résultats attendus, aux attentes, aux besoins et objectifs des clients du processus. À titre d’illustration, dans chaque chapitre itiL on trouve des listes d’indicateurs clés de performance (Key performance indicators Kpi), dont la liste s’avère souvent précieuse. parmi la liste de Kpi dans la bibliothèque, plusieurs indicateurs sont déjà identifiés à l’intérieur de l’entreprise. souvent, ils sont déjà mesurés ou bien déjà identifiés comme importants à calculer (par ex. pour une entreprise X le pourcentage d’incidents résolus dans les temps contractuels), les voir dans la liste des Kpi itiL conforte l’entreprise X sur la réalité de leur importance pour de nombreuses entreprises de tous les pays. pour d’autres indicateurs, l’entreprise X n’avait pas imaginé les calculer : pour un indicateur qui ne semble pas avoir d’intérêt (par ex. coût moyen de traitement d’un incident), l’entreprise X en trouve un autre qui résulte d’un angle de vue particulier, auquel elle n’avait pas pensé auparavant (par ex. pourcentage d’incidents fermés par le centre de services sans support extérieur), et dont la mesure va lui permettre de mieux perfectionner son service rendu.

ITIL contribue à une démarche qualité

itiL est en phase avec les démarches qualité, avec les représentations processus telles qu’on les trouve dans six sigma (par exemple, la bibliothèque itiL reprend à son compte un schéma très proche de celui du sipoc de six sigma pour supplier-input- processus-output-client). comme ces démarches qualité en général, itiL contient également les processus d’amélioration continue. À l’opposé d’autres démarches qualité et d’amélioration continue, qui sont volontairement conçues pour être adaptables dans de très nombreux cas de figure et qui héritent d’emblée, par construction, d’un fort niveau d’abstraction. itiL est centré sur les services de l’infrastructure de l’it, et la bibliothèque fourmille d’exemples dont l’application concrète se révèle pragmatique et immédiate.

Mieux communiquer avec un langage commun

itiL apporte de nombreux éléments concrets dans sa bibliothèque et les nomme, ce qui induit un vocabulaire cohérent pour tous

(19)

Technique

19 IT-expert n°84 - mars/avril 2010

Comment se présente ITIL ?

itiL v2 était constitué de 8 ouvrages pour décrire les processus alignant les services fournis avec le besoin du business. depuis la v3 des modifications ont été apportées et concernent : la structure générale, l’introduction de nouveaux outils pour aider à l’implémentation et à la mesure des gains, et l’introduction de nouveaux outils au niveau stratégique pour aider à promouvoir itiL auprès des responsables métiers en terme d’apport à la chaîne de valeur.

Les 5 ouvrages « cœur » du noyau itiL v3 sont : stratégie des services (service strategy), conception des services (service design); transition des services (service transition); exploitation des services (service operation); amélioration continue des services (continual service improvement). ces cinq manuels de référence présentant les constituants de base de l’itsm, selon l’approche du cycle de vie des services. une documentation complémentaire propose des cas particuliers ou des exemples, des produits à valeur ajoutée, tels que des modèles et des schémas de flux de production.

objectif : inscrire itiL v3 dans la dynamique d’amélioration continue et surtout énoncer des conseils pertinents pour des cas bien particuliers. de plus, l’efficacité opérationnelle se trouve au cœur de cette nouvelle version. dans ce sens, itiL v3 fournit nombre d’éléments avisés : des conseils pour être en conformité avec les diverses normes et réglementations en vigueur, des directives par secteur d’activité et rubrique, de nouvelles rubriques concernant les stratégies de gestion des services (services partagés, cosourcing et externalisation), un système de connaissance très développé favorisant la gestion proactive des services.

ITIL contient 23 processus (dont 3 sont en cours de description) dans ITIL V3 :

• Stratégie des services : Gestion de la demande, Gestion financière, Gestion du portefeuille des services

• Conception des services : Gestion du catalogue, Gestion des niveaux de services, Gestion des fournisseurs, Gestion de la disponibilité, Gestion de la continuité, Gestion de la capacité, Gestion de la sécurité de l’information

• Transition des services : Gestion des actifs et des configurations , Gestion des changements, Gestion des mises en production et des déploiements, Gestion de la connaissance, Gestion de l’évaluation (non décrit) , Gestion des tests et validations (non décrit)

• Exploitation des services : Gestion des événements, Gestion des incidents, Gestion des problèmes, Gestion de l’exécution des requêtes, Gestion des accès

• Amélioration continue des services : Gestion de l’amélioration continue des services, Gestion du reporting.

Le sommaire type des données rassemblées à propos d’un processus, à l’intérieur de la bibliothèque itiL, rassemble les éléments suivants : objectifs ; périmètre ; concepts de base ; Bénéfices/difficultés, coûts ; activités ; rôle/responsabilités ; métrologie, indicateurs et tableaux de bord ; outils ; synthèse et préconisations.

Les objectifs du processus permettent de cadrer le processus, le cadrage est précisé avec l’aide du périmètre. Le paragraphe sur le périmètre fixe les limites du processus tels que vu par itiL, et précise les concepts, et fait la correspondance entre itiL et la manière de s’y prendre au jour le jour dans telle ou telle organisation. Les concepts de base permettent de clarifier des notions et du vocabulaire. Les Bénéfices / difficultés coûts servent à fournir une liste très opérationnelle d’axes de réflexion sur les enjeux objectifs et résultats du processus tel qu’il a été cerné, et peuvent donner lieu à implantation concrète parmi les indicateurs. Les activités permettent de suivre une décomposition logique (plutôt que normative ou organisationnelle), telle que vue par la bibliothèque itiL, des différentes activités à exercer à l’intérieur du processus. Les rôles et responsabilités sont identifiés de manière générique, sans jamais qu’itiL se mêle de normaliser et de fixer à quel acteur au sein de l’entreprise devrait revenir telle ou telle responsabilité.

Le paragraphe sur la métrologie, les indicateurs et les tableaux de bord est rempli d’outils dans lesquels l’entreprise peut piocher pour sa propre utilisation ; les outils sont un catalogue d’idées d’outils dont l’implantation de certains peut se révéler astucieuse ; la synthèse et les préconisations permettent de redonner plus de sens à la lecture des différents éléments épars du chapitre.

itiL indique : les bénéfices et les problèmes possibles, le «comment faire en cible», mais pas le

«comment implémenter».

(20)

Les quick wins autour d’ITIL

itiL permet des quick wins. des exemples de gains rapides sont nombreux, liés de façon très directe ou indirecte à itiL.

toutefois, ces gains rapides n’apparaissent souvent qu’après une mise en place de quelques semaines dans une grande organisation. en effet, l’organisation doit généralement amender un outil informatique existant (validation de spécifications, mise en production…) ou modifier ses processus opérationnels (planifier, communiquer sur le changement…).

parmi des gains rapides constatés sur le terrain :

• travailler sur l’attribution automatisée des incidents. Une matrice d’assignation peut être mise au point, de façon plus ou moins automatisée. certaines entreprises ont poussé très loin cette automatisation, au risque de répartir certains incidents de façon erronée. pour d’autres, la matrice a un rôle d’appui, d’indicateur. avancer dans cette voie est utile dans le cas où l’analyse des processus révèle des difficultés liées à l’étape d’assignation ;

• mettre en place une matrice de priorisation des incidents.

cette matrice peut déterminer la priorité en combinant l’impact attendu, l’urgence… ;

• simplifier et regrouper les processus de Gestion de Confi- guration et de Gestion des mises en production (Gmep) ;

• soulever systématiquement certaines questions avant chaque mise en production, comme clarifier la nature de l’indisponibilité, clarifier la procédure de retour arrière, identifier les jalons dans le cours de la mep pour décider des retours-arrière... ;

• séparer plus nettement les modalités de gestion des incidents et des problèmes (Gi et Gp) et octroyer du temps sur des tâches de résolution des problèmes ;

• alléger toutes les gestions de demandes très régulières (réinitialisation des mots de passe, changements d’habilitations…) et le cas échéant les sortir des circuits de gestion des incidents ;

• aviser systématiquement les équipes de la hotline de chacune des mises en production à venir ;

• …

d’autres quick wins ont été identifiés dans différentes situations d’aide à la mise en œuvre d’itiL. ceux évoqués ci-dessus ne résultent pas tous de la simple lecture et application des informations qui se trouvent dans la bibliothèque itiL. et ne sont pas forcément pertinents pour toutes les situations. il est important d’impliquer les opérationnels pour identifier ces actions de modifications. mettre en avant les quick wins ne doit pas faire perdre de vue des actions de fond, mais dont la mise en œuvre est également parfois la seule de nature à apporter de profondes modifications indispensables.

Écueils fréquents dans la mise en œuvre d’ITIL

La mise en place d’itiL n’est pas toujours aisée. contrairement aux opinions parfois entendues, il ne suffit pas de s’en remettre à des

« experts itiL » pour résoudre les problèmes de l’entreprise : itiL n’impose ni démarche claire, ni objectifs, ni phasage, ni instances d’étude et de décision. au mieux, il rappelle des recommandations, comme cadrer, phaser, étudier… L’entreprise qui utilise itiL ne doit pas attendre qu’il prenne des décisions à sa place. il lui reste à être au clair sur les objectifs qu’elle attache à la mise en œuvre d’itiL, à identifier les structures qui vont devoir travailler sur la mise en œuvre, et à prendre les décisions appropriées. itiL reste un instrument, propose des éléments pour éviter de tout réinventer et fournit de la matière pour aider l’entreprise à résoudre ses problèmes. cependant, cette bibliothèque n’identifie pas les problèmes, et ne les résout pas.

Conclusion

itL présente de nombreux apports bénéfiques : il s’agit d’un vivier de bonnes pratiques avec des concepts de bon sens, il présente une organisation claire des processus de production et des relations entre ces processus, il facilite le dialogue en établissant un langage commun (interne dsi, métier, fournisseurs, éditeurs d’outils pour la dsi), c’est une source d’améliorations à la fois à court terme et à long terme.

Les éditeurs et le marché des outils ITIL

De nombreux outils progiciels sont présents sur le marché ITIL. Ces outils se sont bâtis pour apporter des solutions « d’informatisation » de différents processus de l’entreprise, sur le domaine fonctionnel des services de la gestion des infrastructures : gestion du patrimoine informatique et des inventaires, gestion des incidents et problèmes, gestion actions (interventions…) etc. Ces outils font état d’une conformité avec ITIL. Celle-ci apporte une certaine garantie que des grands concepts issus du consensus sur la manière de voir et la manière de faire sont pris en compte, et aussi une certaine garantie que les éléments présents dans la bibliothèque initialement générée par ITIL sont présents.

En revanche, l’entreprise qui s’en remet au choix d’un outil informatique dit « ITIL » ne doit pas oublier que, comme dans tout projet, même progiciel, l’adoption d’un outil même « ITIL compliant » ne résout pas à lui seul des questions d’organisation. L’entreprise doit participer activement aux spécifications de paramétrage, qui l’obligent à répondre à des questions qu’il faut avoir clarifiées, et comme pour tout projet informatique, l’outil est au service du processus et non le contraire. L’entreprise doit apporter sa participation à la recette de l’outil paramétré, et vérifier que les données inventoriées sont accessibles, que les processus peuvent être suivis comme prévu

Références

Documents relatifs

Line Boulonne, Bertrand Laroche, Céline Ratié, Nicolas Saby.. To cite

Mémoire INTD-CNAM Titre 1 2016 – STEINBERG Karine 13 Etalab coordonne l’action des services de l’Etat et de ses établissements publics pour faciliter la réutilisation la

Son rôle consiste à assister les cercles dans la conduite de leurs réunions, à former et à conseiller les animateurs, à tisser les liens entre la direction et les

Ce guide détaille les méthodes de visualisation adaptées à différents types de données statistiques et les implications de leur représentation visuelle, et fournit des conseils

Le client est au cœur des systèmes qualité, dans le cadre de la gestion de la qualité toute la logique va être centrée sur la satisfaction de ses besoins et ses attentes pour

Ces difficultés sont réelles, mais ne doivent pas faire oublier que le bien qui est pris en compte dans l’évaluation de la qualité de vie n’est pas en soi

We think happiness to be such, and indeed the thing most of all worth choosing, not counted as just one thing among others»3. Aristotle,

L’introduction d’éléments de performance, dans les conférences budgétaires entre le ministère de l’éducation nationale et le ministère du budget n’a débouché