• Aucun résultat trouvé

La conservation numérique des données de gestion

N/A
N/A
Protected

Academic year: 2022

Partager "La conservation numérique des données de gestion"

Copied!
10
0
0

Texte intégral

(1)

de gestion

Isabelle Boydens*,**

* Université Libre de Bruxelles Faculté de Philosophie et Lettres

Section Sciences de l’information et de la documentation CP 175/02

Avenue FD Roosevelt, 50, B. 1050 Bruxelles, Belgique iboydens@ulb.ac.be

** SmalS-MvM Section Recherche

Rue du Prince Royal, 102, B. 1050 Bruxelles, Belgique isabelle.boydens@smals-mvm.be

RÉSUMÉ. Cet article présente une synthèse des facteurs à l’origine de la détérioration de l’information numérique et des stratégies actuelles visant à y remédier. Certaines d’entre elles reposent sur le recours aux métadonnées. Or les métadonnées numériques sont des données numériques. Leur pérennité n’est donc pas garantie. Si la documentation des applications informatiques est indispensable, nous proposons plusieurs recommandations méthodologiques complémentaires permettant de faciliter la conservation des données administratives de gestion « vivantes », dès leur conception. Ces recommandations visent par ailleurs à faciliter la conservation de ces mêmes données, lorsqu’arrivées au terme de leur cycle de vie, elles feront l’objet d’un archivage.

ABSTRACT. This article presents a synthesis of the factors responsible for the deterioration of the digital information and of the current strategies which aim to solve them. Some of these strategies are based on the use of metadata. However, digital metadata are digital data. As a result, their durability is not guaranteed. Although the computer applications documentation is essential, we suggest several methodological recommendations in addition which allow to facilitate the keeping of "living" administrative management data, from their conceiving on.

These recommendations also aim to facilitate the keeping of these same data, when they will be archived once arrived at the end of their lifecycle.

MOTS-CLÉS : préservation de l’information numérique, conservation à long terme, bases de données administratives, qualité des données, métadonnée.

KEYWORDS: digital preservation, long term conservation, administrative databases, data quality, metadata.

(2)

1. Introduction

La question de la conservation de l’information n’est pas neuve. Au début du Moyen Age, le passage du papyrus au parchemin a permis une consolidation des supports physiques (Chartier et al., 1989). Mais le recours massif aux peaux de bêtes soulevait des difficultés économiques. C’est ainsi que sont apparus les palimpsestes, parchemins dont on effaçait l’écriture antérieure pour écrire un nouveau texte, à l’instar des procédures qu’offrent actuellement nos disques optiques réinscriptibles. Certains écrits ont donc été effacés. Avant l’invention de l’imprimerie, les systèmes d’information se déployaient avec les générations de

« moines copistes » qui recopiaient les manuscrits de siècle en siècle. Ces manuscrits ne nous sont souvent parvenus que sous forme partielle : il arrive que l’original soit perdu et que l’on ne dispose que d’un ensemble incomplet de copies divergentes. Afin de reconstruire un texte qui soit le plus proche possible de l’original, l’historien construit un stemma codicum (ou généalogie des données), technique empruntée à la philologie (Boydens, 1999). Dans tous les cas, la reconstruction est conjecturale. Autre exemple, plus récent : en 2000, un programme fut mis en œuvre sous l’égide de la Bibliothèque nationale de Berlin en vue de restaurer les partitions originales de l’œuvre de Jean-Sébastien Bach. Le compositeur utilisait en effet une encre ferrée qui libère, en s’oxydant, un acide très agressif pour le papier et rend progressivement certaines partitions illisibles1.

La problématique est plus complexe s’agissant de l’archivage des données numériques (Chabin, 2000). En effet, les séquences de bits dont elles sont composées ne sont pas « auto-explicatives », contrairement à un texte figurant sur un support papier ou mural auquel l’utilisateur a un accès « direct ». L’information numérique est fragile. Elle repose en effet sur une complexe chaîne de médiation à la fois matérielle et logicielle (Masanes, 2003). Ainsi, le département de la Défense américain a dû mettre en place une coûteuse opération de « migration » en vue de restaurer les fichiers relatifs aux coordonnées géographiques des bombes lâchées durant la guerre du Vietnam. Ces données, stockées à l’époque dans une base de données « propriétaire », étaient devenues illisibles : plus aucun logiciel du marché ne permettait d’y accéder. L’enjeu était considérable puisqu’il s’agissait d’identifier les bombes qui, n’ayant pas explosé, pourraient occasionner de nouvelles victimes.

Finalement, les services des National Archives, qui avaient périodiquement transféré le format original dans des environnements plus modernes, ont permis la restauration des données (Ruggiero, 2003).

Dans le point 2 qui suit, nous développons la problématique : objet et durée de la conservation (2.1), facteurs à l’origine d’une détérioration de l’information numérique (2.2) et, enfin, stratégies de conservation proposées à ce jour (2.3). La

1. Programme pour sauver les partitions de Bach de l’autodestruction, AFP (dépêche), 25/02/2000. Voir aussi : http://www.rtbf.be/matieregrise/emissions/mg23/textes/ailleurs.html (consulté le 18 mars 2004).

(3)

question des métadonnées est ensuite envisagée. Dans le contexte de la gestion d’applications administratives « vivantes », nous indiquons enfin quelques pistes méthodologiques complémentaires en vue de faciliter la conservation des données, une fois celles-ci archivées, au terme de leur « cycle de vie » (points 3 et 4).

2. Position du problème

2.1. Que veut-on conserver et pour combien de temps ?

Deux questions se posent d’emblée. Que veut-on conserver ? Et pour combien de temps ? Le terme anglo-saxon record management englobe tout type de document2 et ajoute : « A key feature of a record is that it cannot be changed ».

(MoReq Specification, 2001). Dans cet article, nous étendons le champ aux données de gestion « vivantes », susceptibles de modification. A titre d’exemple, nous nous inspirons du traitement des bases de données de la sécurité sociale belge. Celles-ci permettent le prélèvement annuel des cotisations ainsi que leur redistribution aux assurés sociaux (environ 35 milliards d’euros). Chaque trimestre, plusieurs millions d’enregistrements associés à quelques centaines de champs sont traités. Nous proposons de recourir au concept de « temporalités étagées », repris de l’historien F. Braudel (Braudel, 1976), en vue d’évoquer les stratégies de conservation selon l’état d’une donnée dans son cycle de vie. On peut distinguer le « temps court » des données de gestion, le « temps intermédiaire » de la préservation légale et le

« temps long » de la conservation historique. Les données « de gestion » administratives s’inscrivent dans un temps court durant lequel les records se constituent3 et ont un impact opérationnel direct sur le réel observé (les citoyens assujettis à la sécurité sociale dans notre exemple). Quelle est la durée de ce temps court ? Combien de temps dure le présent ? Le temps que les « données vivantes » fassent leur office « de gestion » : dans le domaine administratif, ce temps est théoriquement inférieur à la période de prescription (cinq ans dans le secteur de la sécurité sociale belge). Ensuite, on distingue un temps intermédiaire, couvrant la période légale de prescription et au-delà, éventuellement, celle de la carrière d’un individu. Les records ne sont plus modifiés mais peuvent avoir un impact sur le réel et impliquer la génération de nouvelles données, en cas de procès et de réouverture d’un dossier. Enfin, se profile le temps long au cours duquel les records devraient être conservés « à perpétuité », non plus à des fins légales, mais en tant que source potentielle pour les historiens des temps futurs. Nous reviendrons brièvement sur cette structure temporelle dans les conclusions de l’article.

2. Que nous appellerons aussi « donnée » dans la suite de l’article.

3. Par exemple, lorsqu’une lettre officielle est générée suite à l’extraction d’informations issues d’une base de données et au terme d’une phase de validation par workflow.

(4)

2.2. Les facteurs à l’origine d’une détérioration des données numériques

Nous n’envisageons pas les catastrophes naturelles (tremblement de terre...) ni les facteurs liés à l’interprétation de l’information (Boydens, 2002), bien que ces questions soient liées dans la pratique à celles évoquées ci-dessous.

2.2.1. Le hardware et les supports physiques

Les composantes matérielles (puces, circuits intégrés...) d’un ordinateur se détériorent avec le temps. A cela s’ajoute l’obsolescence des supports physiques et de leurs périphériques de lecture. A propos des premiers, citons le cas des bandes magnétiques qui perdent progressivement leur charge magnétique (leur longévité estimée varie entre 10 et 30 ans) ou celui des cédéroms qui s’usent avec la fréquence de lecture (certaines expériences affirment, sur la base de cédéroms vieillis artificiellement, qu’ils dureraient cent ans). La durée de vie des microfilms peut s’étendre jusqu’à 500 ans. Cela dit, ce support ne permet aucun traitement automatique : la conversion des médias digitaux vers ce medium analogique est peu pratiquée lorsque des fonctionnalités de recherche automatique sont requises pour accéder à un grand volume de données. Les supports physiques sont en outre machine dependent ; ils requièrent un périphérique de lecture (associé à un driver logiciel). Or, ces éléments évoluent avec le marché. D’ores et déjà, on sait que certains formats de bandes magnétiques ne pourront plus être lus sous peu. A l’heure actuelle, certains ordinateurs portables ne supportent plus les disquettes 3,5’’. Combien de temps les lecteurs de cédéroms vont-ils être maintenus quand on sait que les DVD avec une capacité de stockage au moins quatre fois plus importante sont considérés comme « le » medium de stockage « permanent » ? 2.2.2. Les composantes logicielles

Une application informatique ne peut être accédée sans le logiciel qui l’a créée ou un logiciel analogue. L’obsolescence des composantes logicielles tient à ce qu’il n’y a pas systématiquement de compatibilité ascendante4 (backward compatibilty) entre leurs versions successives. Avec les progrès technologiques, celles-ci se succèdent. Certains producteurs fournissent des garanties quant à cette compatibilité ascendante, du moins pour un certain nombre de versions ; le passage d’une version à l’autre se faisant au cours d’une opération de migration, laquelle peut impliquer des pertes de données (les liens entre les tables d’une base de données sont perdus, par exemple) qui sont d’autant plus importantes que la structure de l’application est complexe (Feeney, 1999). Dans d’autres cas, certains logiciels « propriétaires » ne sont tout simplement plus diffusés (parce que la firme qui les produit a fait faillite).

Il existe en outre des interactions entre les versions des différentes couches logicielles : entre un logiciel applicatif et l’Operating System (OS) correspondant,

4. Cette compatibilité signifie qu’un logiciel d’une version t+1 permet de traiter une application créée avec la version t de ce même logiciel.

(5)

par exemple. Il y a également des liens entre l’évolution des OS et celle des périphériques (une imprimante, par exemple). Idéalement, il faudrait disposer de standards internationaux afin de garantir l’homogénéité des interactions entre ces différentes composantes. Dans la pratique, ces évolutions sont souvent imprévisibles et tributaires des acteurs du marché (MoReq Specification, 2001).

2.2.3. Les formats et les types d’encodage

Les formats et les types d’encodage sont intimement liés aux aspects fonctionnels évoqués au point précédent. Afin de garantir la pérennité de l’information dont ils constituent la structure, les formats doivent être décrits par des normes publiques, documentées et idéalement certifiées par des organismes reconnus (Mercuri, 2003). Dans la pratique, deux types de difficultés se présentent : il arrive, d’une part, que des organismes dérogent à un standard, générant une hétérogénéité de facto. D’autre part, certaines firmes informatiques diffusent d’emblée des formats propriétaires : l’utilisateur est alors tributaire de l’évolution de leurs versions et de la santé financière de la firme. Ces phénomènes, assez prégnants au niveau du marché multimedia (MoReq Specification, 2001), génèrent une

« volatilité » des formats et accroissent le risque d’obsolescence de l’information.

Face à cette tendance, le recours au format XML du W3C offre des perspectives très intéressantes : la norme est fédératrice et présente l’avantage d’une séparation entre structure et contenu. Les types d’encodage sont tout aussi fondamentaux. A cet égard, l’émergence d’Unicode et de la norme ISO/CEI 10646 pour le codage des caractères a permis d’élargir considérablement le spectre des langages pris en compte et, de là, de favoriser le traitement et l’échange homogène de l’information à travers le monde (André et al., 2002).

2.3. Les stratégies de conservation

« La préservation de l'information digitale présente une myriade de points interdépendants. Même lorsque l’on est capable d'identifier chaque point, il est difficile de savoir quelle action prendre en premier lieu... » (Webb, 2003, traduction libre). Chaque stratégie évoquée ci-dessous traite certains aspects des problèmes évoqués au point 2.2.

2.3.1. « Refreshing »

Le refreshing consiste à transférer l’information d’un support physique vers un autre, plus récent. Cette approche vise à résoudre la question de l’obsolescence des supports physiques.

2.3.2. Migration

La migration consiste à convertir, via un programme, les données d’une configuration hardware/software, en voie de devenir obsolète, vers une autre, plus

(6)

récente. L’opération inclut également la prise en compte des formats. La méthode peut toutefois entraîner des pertes d’information qu’il est parfois difficile d’identifier mais que plusieurs recommandations (voir point 3 ci-dessous) permettent d’atténuer. Dans une optique très constructive, la mise en place de services documentant les formats au fil de leurs versions est encouragée5 (Masanes, 2003).

2.3.3. Emulation et encapsulation

L’émulation (Rothenberg, 2000) repose sur l’encapsulation logique des données dans une couche de métadonnées décrivant l’environnement original (hardware/software et contextuel) dans lequel les données ont été créées. Le but est de recréer, sur cette base, l’environnement initial et de l’émuler (en imiter le comportement) sur une nouvelle génération de plate-forme. Une expérience menée à la Bibliothèque royale des Pays-Bas semble concluante mais les tests sont insuffisants à ce jour : « l’émulation pose d’importants problèmes techniques (“simuler” une plate-forme informatique est loin d’être un problème trivial) » (Masanes, 2003). Plusieurs standards de métadonnées ont été proposés à cette fin, par exemple sous la forme d’un schéma XML, comme l’OAIS6 (Open Archive Information System). En tant que cadre de référence, cette initiative est fondamentale quelle que soit la stratégie utilisée.

2.3.4. Musées d’ordinateurs ou technology preservation

Certains proposent de conserver en un lieu toutes les formes d’hardware et de software utilisés à ce jour pour traiter les données (Kleinberg et al., 2002).

L’approche n’est pas réaliste : la conservation en un seul lieu supprime la notion de réseau, cruciale en informatique. Les utilisateurs désirant lire leurs anciennes informations devraient voyager avec leurs données vers cette « Arche de Noé technologique ». Par ailleurs, les coûts en termes d’espace, de maintenance d’anciens équipements et de know how des techniciens seraient prohibitifs.

3. Le cas des données de gestion administratives « vivantes »

Alors que les centres d’archives sont confrontés à la conservation de sources figées, nous proposons ici un éclairage spécifique sur les stratégies de conservation

5. Bien qu’incomplète, l’Internet Assigned Numbers Authority (IANA) va dans ce sens (http://www.iana.org/assignments/media-types/, consulté le 18 mars 2004).

6. Standard ISO (ISO 14721:2002) développé sur l’initiative du CCSDS (Comité consultatif pour les systèmes de données spatiales), http://ssdoo.gsfc.nasa.gov/nost/isoas/,

consulté le 18 mars 2004.

(7)

menées au sein d’organismes en charge de la gestion de données « vivantes7 ».

Nous envisageons préalablement la problématique des métadonnées.

3.1. La problématique des métadonnées

La distinction entre données et métadonnées est parfois esquivée ; « La distinction entre les données et leurs métadonnées peut être confuse... ces détails relatifs à l’usage des métadonnées sont hors du champ de la spécification. » (MoReq Specification, 2001, traduction libre). Certaines études considèrent implicitement que les métadonnées revêtent une nature plus pérenne que les données dont elles sont censées faciliter la conservation. Or les métadonnées n’échappent pas au foisonnement des standards : à côté de la norme OAIS, on trouve par exemple la norme METS (Metadata Encoding and Transmission Standard) : ces standards s’emboîtent-ils comme des « poupées russes » (Walbel, 2003) ? En réalité, la question de la pérennité des supports physiques, des logiciels et des formats se pose sur le même mode en ce qui concerne les données et les métadonnées. Ces dernières doivent inévitablement être véhiculées à travers un environnement hardware, software et dans un format donné, éléments sujets aux difficultés évoquées au point 2.2.

Si les métadonnées sont indispensables pour interpréter les données, rappelons que leur gestion se heurte à trois écueils. Le premier est lié à ce que ces systèmes sont extensibles à l’infini. Les systèmes de méta-information sont en effet destinés à clarifier l’opacité des codifications formelles. A cette fin, on a souvent recours à une codification plus explicite : le langage naturel. Cependant, le langage naturel est son propre métalangage (Boydens, 1999). Dès lors, toute description émise sous cette forme peut faire l’objet d’un nombre infini de commentaires d’ordre supérieur. Ceci se traduit par le coût de leur gestion (Chapman, 2003), lorsque celle-ci repose sur une mise à jour manuelle. Le second écueil tient à ce que les métadonnées peuvent être elles-mêmes incertaines : leur validation ne peut faire l’objet systématique de contraintes d’intégrité rigoureuses. Le troisième écueil tient au décalage temporel potentiel entre la mise à jour d’une donnée et de la métadonnée correspondante. Si la documentation des applications est indispensable, il convient d’agir parallèlement en amont, lorsque l’on dispose d’une « prise » sur la source, lors de la création des données. A cet égard, les recommandations du Web sémantique, développées sous l’égide du W3C, visent à décrire l’information grâce à des normes exploitables par une machine et compréhensibles par les humains (Boydens, 2004). Transversales à plusieurs domaines d’application, ces normes, dont la mise en place repose sur un consensus entre communautés d’utilisateurs, pourraient faciliter la création d’un réseau sémantique reliant données et métadonnées.

7. Nous nous inspirons des systèmes d’information administratifs évoqués au point 2.

(8)

3.2. Quand le long terme prend naissance en « t0 »

S’agissant des données de « gestion », le long terme prend naissance en t0. Plusieurs pratiques de conception et de gestion adoptées d’emblée, lors de la création des données « vivantes », permettent d’en favoriser la conservation à long terme.

A propos des formats, on privilégie naturellement les spécifications ouvertes et accessibles publiquement. La mise en place du concept de WOPM, Write Once Publish Many (Boydens, 2001), qui consiste à générer une source unique produite en XML sous divers formats de sortie (ASCII, PDF...), permet l’exploitation homogène des données à diverses fins (de façon à maintenir la cohérence entre les données transactionnelles et les métadonnées correspondantes en ce qui concerne les codifications, par exemple). De même, la généralisation du concept de l’héritage (les données communes à plusieurs applications étant mises à jour une seule fois selon une procédure unique) contribue à l’intégrité des données et des métadonnées.

Il est conseillé d’éviter les couches de complexité qui rendent plus ardues les phrases de migration (cryptage, compression), quand celles-ci ne sont pas indispensables. Enfin, des stratégies d’évaluation et d’amélioration de la qualité des données doivent être menées (Boydens, 1999) : par exemple, examen continu de la performance des processus, suivi des usages ou encore, comparaisons croisées entre back ups ou sources concurrentes. En cas d’incohérence, une enquête quant à son origine est menée (altération d’un support, par exemple) et une nouvelle version

« intègre » est générée. Dans d’autres cas, les incohérences témoignent d’une inadéquation conceptuelle entre le système d’information et le réel appréhendé (suite à une évolution de celui-ci) et la structure de l’application doit être revue.

Parallèlement, des opérations de refreshing sont déployées et des migrations sont opérées afin de suivre les modifications de versions logicielles (incluant les agencements tolérés entre logiciels, operatings systems et drivers de périphériques).

Généralement, en ce qui concerne les « ténors du marché », des programmes de migration8 sont fournis. Il est impératif de ne pas « sauter » de version majeure dans la mesure où la compatibilité ascendante n’est garantie que pour un nombre donné de versions. Par ailleurs, des tests d’intégrité ex post, incluant un input intellectuel, doivent être opérés en vue de vérifier la cohérence des données par rapport à l’état antérieur, une fois la migration opérée.

8. Une cause de migration peut être liée à l’accroissement de la taille autorisée des fichiers de données. On est ainsi passé d’un nombre maximum d’enregistrements par fichier de 16 millions à 2 milliards, ce qui a nécessité un accroissement de la taille des index : la migration est destinée à transformer les valeurs des anciens index en vue de les rendre compatibles avec les nouveaux. Dans d’autres cas, l’utilitaire de migration est directement intégré dans la nouvelle version et ses fonctionnalités ne sont pas explicites. En l’absence d’utilitaire et de compatibilité ascendante, il revient aux utilisateurs de découvrir les incohérences entre versions et d’y remédier dans la mesure du possible.

(9)

4. Conclusions : de la pérennité au continuum

Parmi les difficultés à la source de la non-conservation de l’information numérique, les questions liées à l’évolution des logiciels et des formats sont de loin les plus préoccupantes (Picart, 2000). Si la mise en place de métadonnées est fondamentale, ces dernières sont elles-mêmes des données et sont dès lors tout aussi fragiles. S’agissant de la gestion de données « vivantes » se déployant « dans le temps court », des stratégies complémentaires contribuent à la conservation de l’information, à court, moyen et long terme, telles que la mise en place d’applications dont la structure est économe (selon le principe du WOPM, par exemple) ou le déploiement de stratégies en vue de contrôler la qualité des données.

Ces démarches de qualité requièrent une organisation structurée : elles visent non seulement à préserver l’intégrité de l’information mais aussi à en assurer la pérennité. Ceci implique le choix de normes ouvertes et documentées pour les formats (tel que la norme XML du W3C) et le codage ainsi qu’une combinaison du refreshing et de la migration aux trois niveaux de la structure en temporalités étagées, évoquée au seuil de l’article. La migration doit être appliquée plus intensivement en ce qui concerne le temps court, lorsque les données sont encore

« vivantes », alors que le refreshing intervient d’autant plus que l’on se situe dans une perspective à long terme.

Plus l’environnement d’une donnée est simple, plus celle-ci est « pérenne » ; c’est ainsi que les microfilms sont parfois envisagés pour le long terme en dépit de leur « passivité fonctionnelle », bien qu’en ce qui concerne les larges volumes de données structurées, un medium digital reste requis. Dans tous les cas, vu l’ampleur de la problématique, il est préférable, s’agissant de l’information, de parler de continuum plutôt que de pérennité. Et ce, ne fût-ce qu’en raison de l’évolution continue des réalités appréhendées et de leur référentiel, la question du sens étant omniprésente, quel que soit le medium.

5. Bibliographie

André J., Hudrisier H., éds, « Unicode, écriture du monde ? », Document Numérique, vol. 6, n° 3-4, Paris, Hermès-Lavoisier, 2002.

Boydens I., « Déploiement coopératif d’un dictionnaire électronique de données administratives », Document Numérique (« Création et gestion coopératives de documents numériques d’information et de communication »), vol. 5, n° 3-4, Paris, Hermès, 2001, p. 27-43.

Boydens I., « Les bases de données sont-elles solubles dans le temps ? », La Recherche hors série (« Ordre et désordre »), n° 9, novembre-décembre 2002, p. 32-34.

Boydens I., Du « Web sémantique » au « Web pragmatique », SmalS-MvM Research Note, mars 2004, n° 5, 19 p.

Boydens I., Informatique, normes et temps, Bruxelles, Bruylant, 1999.

(10)

Braudel F., La Méditerranée et le monde méditerranéen à l’époque de Philippe II, Paris, Armand Colin, 1976.

Chabin M.-A., éd. , « L’archivage », Document Numérique, vol. 4, n° 3-4, Paris, Hermès, 2000.

Chapman S., « Counting the Costs of Digital Preservation: is Repository Storage Affordable? », Journal of Digital Information, mai 2003, 4(2),

http://jodi.ecs.soton.ac.uk/Articles/v04/i02/Chapman/chapman-final.pdf (consulté le 18 mars 2004).

Chartier R., Martin H.-J., éds, Histoire de l’édition française. Tome I. Le livre conquérant.

Du Moyen-âge au milieu du XVIIème siècle, Paris, Fayard-Cercle de la Librairie, 1989.

Feeney M. (éd.), Digital Culture : Maximising the Nation’s Investment : a Synthesis of JISCO/NPO Studies on the Preservation of Electronic Materials, Londres, National Preservation Office, 1999.

Kleinberg K., Logan D., « Digital Preservation in Healthcare : Long-Term Accessibility », Gartner Research Note, Strategic Planning, SPA-15-0907, 7 janvier 2002.

Masanes J., « L’information technique nécessaire à la préservation à long terme des documents numériques », International Preservation News, Newsletter of the IFLA Core Activity on Preservation and Conservation, n° 29, mai 2003, p. 11-19.

Mercuri T. R., « Standards Insecurity », Communications of the ACM, décembre 2003, vol. 46, n° 12, p. 11-19.

MoReq Specification, Model Requirement for the Management of Electronic Records, IDA (Interchange Data between Administrations) Programme of the European Commission, mars 2001 (http://www.cornwell.co.uk/MoReq%20Specification%20v5-2.4.doc, consulté le 18 mars 2004).

Picart K., De la conservation à long terme de l’information numérique, Mémoire de fin d’études, Université Libre de Bruxelles, 2000.

Rothenberg J., An experiment in Using Emulation to Preserve Digital Publications, La Haye, Koninklijke Bibliotheek, 2000.

Ruggiero A. (éd.), « Preservation of Digital Memory. Risks and Emergencies. Six Case Studies », The Future of Digital Memory and Cultural Heritage, Istituto Centrale per il Catalogo Unico delle Biblioteche Italiane e per le Informazioni Bibliografiche, Florence, 16 et 17 octobre 2003.

Walbel G., « Like Russian Dolls : Nesting Standards for Digital Preservation », RLG DigiNews, 15 juin 2003, vol. 7, n° 3 (Web-based Newsletter :

http://www.rlg.org/preserv/diginews/diginews7-3.html, consulté le 18 mars 2004).

Webb C., « Barriers or Stepping Stones? Impediments to Digital Archiving and Preservation Programs », Council on Library and Information Resources Issues, n° 34, juillet-août 2003, (http://www.clir.org/pubs/issues/issues34.html, consulté le 18 mars 2004).

Références

Documents relatifs

Demande un programmeur qui maîtrise la POO, la sérialisation, la reprise sur panne, les structures de données, l’algorithmique, la gestion de contraintes d’intégrité, la gestion

Tous droits réservés Page 1.4. Tous droits réservés

Le professeur a demandé aux élèves d'une classe leur mois de naissance.. Tous droits réservés

Quelle est la matière préférée la plus citée par les élèves?. Combien d'élèves de la classe

Construire un tableau permettant de lire plus facilement les résultats.. Représenter ce tableau à l'aide d'un diagramme

La Finlande et l'Espagne sont les pays qui ont plus de zones boisées que de zones non boisées. Copyright

Donner une valeur approximative de la hauteur du chêne à l'âge de 30 ans, en utilisant le graphique.. Entre 0 et 20 ans, de combien de mètres le chêne

Résumé. — Dans cet article, l'auteur constate que, bien que les modèles théoriques soient nombreux, les études et les mises en applications de programmes de gestion à court