• Aucun résultat trouvé

Spécification et choix de l’équipement d’un système automatisé

N/A
N/A
Protected

Academic year: 2022

Partager "Spécification et choix de l’équipement d’un système automatisé"

Copied!
13
0
0

Texte intégral

(1)

R 7 545

10 - 1995

d’un système automatisé

par

Claude GAILLEDREAU

Ingénieur de l’École Nationale Supérieure de Chimie et de Physique de Bordeaux Animateur de la Commission Technique Régulation Avancée de l’EXERA

hoisir les équipements de mesure et d’automatisation d’une installation industrielle est un problème dont les données ont, depuis une ou deux décennies, considérablement évolué, se modifiant constamment. L’informatique, en particulier, s’est rapidement infiltrée dans tous les instruments et automa- tismes, les rendant plus performants mais aussi plus complexes, de sorte que le concepteur-ensemblier devient plus dépendant des grands constructeurs qu’il ne l’était par le passé.

Les utilisateurs se sont efforcés de pallier cette difficulté en se regroupant ; est ainsi née l’EXERA (Association des Exploitants d’Équipements de Mesure, de Régulation et d’Automatismes). Le présent article est, dans une large mesure, inspiré des Guides de Choix élaborés par cette association, dont on s’efforcera de faire une synthèse conforme à l’esprit de cette Collection. Les lecteurs intéressés par plus de détails sur tel ou tel point particulier pourront s’adresser à l’EXERA.

1. Définitions... R 7 545 - 2

2. Règles de conception d’un système automatisé de production — 3

3. Supervision... — 5

4. Automates programmables... — 6

5. Régulation... — 7

6. Systèmes numériques de contrôle-commande (SNCC)... — 9

7. Réseaux de terrain... — 9

8. Capteurs et actionneurs... — 9

9. Contraintes d’environnement... — 10

10. Matériel électrique en atmosphère explosible... — 10

11. Guides de choix et évaluations... — 12

12. Conclusion... — 12 Pour en savoir plus... Doc. R 7 545

C

(2)

1. Définitions

1.1 Les fonctions d’une usine automatisée

On entend par Système Automatisé de Production (SAP) l’ensemble des moyens (matériels et logiciels) constituant la partie automatisme, communication et conduite de l’installation. Le SAP assure l’acquisition de l’information fournie par les capteurs, en fait le traitement et élabore la commande des actionneurs. Capteurs, actionneurs, et machines-outils dans les processus manufacturiers, constituent la partie opérative du processus. Le SAP assure également la communication, ou échange d’informations, avec son environnement qui, outre la partie opérative, comprend l’interface opérateurs permettant la conduite ainsi que la gestion technique et la gestion d’entreprise (comptabilités générale et analytique, gestion financière), domaine où se situent les aides à la maintenance et à l’optimisation de la production.

Nota : convenons d’appeler procédé la description abstraite de la méthode d’élaboration du produit fini, et processus la suite des étapes physiques qui matérialisent cette élaboration. Il semble en effet que le sens exact de chacun de ces mots, équivalents l’un et l’autre à l’anglais process, n’apparaisse pas toujours très clairement à l’usage courant.

1.2 L’architecture d’un système de productique

L’usine automatisée est souvent très complexe, comprenant un grand nombre de machines mécaniques, informatiques ou autres, et des logiciels et programmes qui en assurent le fonctionnement : c’est un ensemble dont on doit cependant rester maître à tous les stades du développement et de l’exploitation. On en est donc venu tout naturellement à hiérarchiser les matériels par classes de niveau croissant d’abstraction [1]. L’intérêt de cette démarche est qu’elle permet de regrouper dans chacune des classes tout ce qui relève d’un même métier, de spécialistes parlant le même langage ; il devient en quelque sorte possible, à chacun des niveaux, de raisonner en faisant abstraction du niveau inférieur, c’est-à-dire en fait des éléments constitutifs du niveau auquel on se place. Une telle démarche permet en outre de situer dans un ensemble préstructuré les divers matériels et sous-systèmes offerts par les constructeurs, et d’en percevoir immédiatement les limites de fourniture.

Historiquement (1987) le premier schéma de ce type fut le modèle NBS (National Bureau of Standards, USA), qui faisait apparaître quatre niveaux successifs : machines < cellule < atelier < usine ; il était inspiré des processus manufacturiers, le niveau « machine » ayant peu d’intérêt dans un processus continu. Ce modèle a évolué vers la pyramide CIM (Computeur Integrated Manufacturing, en français Productique ), avec l’intégration d’un niveau zéro complémentaire (capteurs et actionneurs).

L’architecture CIM ne suffit pas, cependant, à représenter correctement les échanges d’information ; le modèle actuellement le plus avancé est le modèle 3 axes dû à J.P. Thomesse [1] (figure 1).

L’axe horizontal, dans le plan de la figure, schématise le processus physique et son interfaçage avec le système de commande ; il regroupe, en procurant plus de souplesse (processus manufacturier ou continu), les niveaux 0 et 1 de la pyramide CIM. L’axe vertical représente les niveaux hiérarchiques introduits à l’origine par le modèle NBS. Le troisième axe enfin, perpendiculaire à la figure, représente les fonctions CIM que l’on trouve effectivement dans une application donnée, sans qu’il soit nécessaire d’encombrer le graphique avec des fonctions inadaptées ; ces fonctions ne sont pas hiérarchisées, mais indépendantes en termes de service. L’apport essentiel de ce modèle réside dans le fait qu’il permet de représenter les échanges d’information à la fois dans les plans verticaux et à différents niveaux horizontaux. Les échanges verticaux portent sur des services, alors que les échanges horizontaux concernent des variables d’état.

1.3 Modélisation des échanges d’information

Les premiers réseaux de communication ayant été conçus par les constructeurs de matériels informatiques, chacun a tout naturellement créé ses propres matériels et ses propres protocoles, ensembles de règles définissant le cadre et les séquences de communication entre deux systèmes. Une telle situation impose, dans la pratique, de confier l’ensemble d’une application à un fournisseur unique, aucun des éléments de tels systèmes n’étant interchangeable avec des éléments analogues d’un concurrent. On parle alors de système propriétaire, mot image (et non traduction) de l’anglais proprietary – d’aucuns suggèrent aussi le terme privatif [6]. L’ISO (International Organization for Standardization) s’est efforcée de susciter, avec le modèle normalisé OSI (Open Systems Interconnection), la création de systèmes ouverts, c’est-à-dire capables d’être associés à tout autre quelle qu’en soit la provenance ; un système propriétaire est au contraire considéré comme fermé (ce qui, dans les faits, n’est jamais tout à fait le cas).

Le modèle de référence OSI est un ensemble de normes et de concepts permettant l’interconnexion de systèmes informatiques ouverts hétérogènes. Il est structuré en sept couches [3] [16].

1.4 Objet et limites du présent article

Cet article porte sur le choix des équipements d’automatisme mis en œuvre aux niveaux bas de la pyramide productique : organes d’acquisition, de traitement et de commande, partie opérative du processus, bus de liaison (figure 2). Le sujet est vaste, même si on le limite ainsi : nous essayerons donc d’en dégager les points forts, en citant la documentation que le lecteur pourra consulter pour en savoir plus.

Il est intéressant, à titre d’exemple, d’examiner l’offre d’un constructeur dans le cadre de cette présentation ; voici l’offre globale IBM, comprenant les fabrications propres à la société et celles qui leur sont associées en vertu d’accords de partenariat [2] :

niveau 0 – Capteurs/actionneurs : aucune offre, niveaux 0 à 1 : bus Efiway, Bitbus, FIP ;

niveau 1 – Équipements : automates programmables, commandes d’axes, entrées-sorties déportées (divers fabricants),

niveaux 1 à 2 : bus Token Ring ;

niveau 2 – Cellule : aucune offre (la cellule comprend essentiel- lement la conduite),

niveaux 2 à 3 : bus Token Ring ;

niveau 3 – Atelier : logiciels de supervision et de contrôle qualité,

niveau 3 à 4 : bus Ethernet, MAP, Token Ring ;

niveau 4 – Usine : logiciels de suivi de production, base de données.

(3)

2. Règles de conception d’un système automatisé de production

2.1 Besoins et solutions : les écueils de la routine

Une méthode usuelle de conception d’un nouvel atelier ou d’une nouvelle unité consiste à rechercher si l’on n’a pas déjà réalisé quelque chose d’équivalent et, si tel est le cas, à reprendre les solutions que l’on avait précédemment retenues. Les avantages de cette démarche sont évidents : le volume des nouvelles études est minimisé sans grand risque d’erreur de conception, et le coût de la réalisation est en principe bien cerné à l’avance. S’agissant des matériels, on s’épargnera les aléas de fournisseurs inconnus, et peut- être des stages de formation opérateur : attitude compréhensible chez un exploitant dont on modernise ou étend l’usine. Cette méthode peut bien sûr s’avérer excellente, mais il faut avoir conscience de ses limites.

Citons encore, pour mémoire, le cas où le choix de matériel serait

« verrouillé », l’entreprise ayant décidé de s’approvisionner chez un fabricant choisi à l’avance sur des bases politiques, stratégiques, ou simplement commerciales.

Une remarque s’impose : sauf cas très particulier et dans des limites bien définies, il faut raisonner en termes de besoin, et non de solution. Il faut savoir ce que l’on va faire, avant de se demander comment et avec quoi on le fera.

2.2 Intégrer les systèmes dès leur conception

Il résulte d’enquêtes menées par la Commission Technique SAP de l’EXERA que la conception des systèmes automatisés n’est trop souvent que :

— le résultat d’une juxtaposition d’îlots d’automatisation et d’informatisation, au fil des projets ;

— ou la duplication plus ou moins systématique d’une archi- tecture standard « maison » ;

quelquefois, néanmoins, il est fait usage d’un canevas méthodique et l’on essaye d’identifier et de prendre en compte les spécificités de l’application envisagée.

Il faut cependant avoir à l’esprit que :

— ces systèmes ont besoin d’être de plus en plus intégrés, c’est-à-dire qu’ils doivent réunir dans un ensemble informatisé par- faitement intercommunicant toutes les fonctions liées à l’entreprise (gestion, études, méthodes, ordonnancement, production, achats, etc.) ;

— les systèmes automatisés doivent être flexibles, c’est-à-dire être en mesure de s’adapter facilement à des changements de pro- duction et de mode de conduite ;

— on peut avoir à englober dans la réalisation des sous-systèmes existants ;

— les interfaces homme-machine doivent d’abord répondre aux besoins réels des opérateurs de conduite.

Il convient de souligner que l’on aura besoin, dès le stade de la conception d’un projet automatisé, de réunir à une même table des spécialistes de cultures beaucoup plus diverses qu’on ne l’imaginerait au premier abord : automaticiens et informaticiens, par exemple, n’ont pas le même vocabulaire technique, et pourtant les deux métiers s’interpénètrent.

Il faut dans un premier stade raisonner en termes de fonctions, et non de matériels.

2.3 Le Guide d’Analyse des Besoins

Pour bien concevoir l’architecture d’un SAP, il faut avoir, dans une phase préliminaire, collecté de façon exhaustive toutes les données qui s’y rapportent. L’EXERA a préparé à cet effet une liste-guide couvrant à la fois les domaines manufacturier et continu [4], de sorte que ce document est en général surabondant par rapport aux besoins liés à un projet particulier, mais devrait aider à ne rien laisser dans l’ombre. Il est à noter que le plan du Guide d’analyse des besoins, tel qu’il est présenté ci-dessous, est parfois recomposé par ses utilisateurs qui s’efforcent de l’adapter précisément à leur cas (cf.

aussi [14]).

L’analyse des besoins s’organise en quatre chapitres :

— le contexte du projet ;

— l’environnement technique du SAP ;

— les fonctionnalités attachées au SAP ;

— les matériels.

En matière de contexte, on situera le SAP dans l’ensemble du projet dont il fait partie, en s’attachant notamment aux objectifs généraux dudit projet, à ses aspects financiers et aux étapes principales de son planning de réalisation. Il convient aussi de considérer, à ce stade, les grandes lignes de l’organisation ultérieure du travail d’exploitation, telles qu’on peut les prévoir : production, maintenance, etc.

Figure 1 – Modèle trois axes, dû à J.P. Thomesse (source : EXERA)

Figure 2 – Objet et limites de l’article

(4)

L’analyse des caractéristiques de l’environnement technique précisera les objectifs propres au SAP et les raisons principales de sa mise en place (rentabilité, qualité, sûreté, flexibilité, etc.), ainsi que l’organisation des travaux de réalisation ; elle précisera notamment les contraintes à prendre en compte pour la conception de l’archi- tecture telles que les relations avec les fournisseurs, les règlements de sécurité ou les standards internes. On s’informera également des équipes qui rédigeront les spécifications et l’on étudiera le planning détaillé de la réalisation du SAP. C’est dans cette étape de l’analyse que l’on examinera aussi le produit, la production, le procédé et le processus, dont on s’efforcera de faire la description détaillée : fonctionnement, sécurité, disponibilité ; le cas échéant, on procédera à une étude complète des risques liés à la défaillance des équipements, ou analyse des modes de défaillances, de leurs effets et de leur criticité (AMDEC). Pourra se poser, aussi, le problème de l’utilisation des matériels électriques en atmosphère explosible (industrie du pétrole et pétrochimie). On complètera par la description de la partie opérative : machines-outils, vannes, etc., et de ses interfaces (entrées-sorties).

Le troisième chapitre concerne les fonctionnalités attachées au SAP. Il comprendra la partie commande : acquisition et traitement des entrées-sorties TOR (tout ou rien) et analogiques, optimisation du fonctionnement, contrôle qualité, etc. et aussi la rubrique conduite et supervision (synoptiques, gestion des alarmes et des défauts, historique, journaux et rapports, entre autres). La partie commande pourra être reliée à la gestion technique (bilan de p r o d u c t i o n , p l a n i fi c a t i o n - o r d o n n a n c e m e n t , m é t h o d e s , maintenance) et aux services généraux (exploitation des données, etc.).

Le dernier chapitre de ce guide, enfin, a trait aux matériels et aux logiciels ; il concerne tout d’abord les utilités (électricité et fluides), les contraintes d’environnement (climat local et ambiance propre à l’usine), ainsi que les infrastructures (locaux, trajet de câbles, etc.) ; une dernière catégorie de contraintes réside dans les matériels existants à intégrer, qui pourront poser des problèmes d’interface. Il faudra considérer encore tout ce qui a trait à la conduite et à la super- vision (pupitres, consoles, téléphones, organes de signalisation), ainsi que les moyens destinés à la maintenance et à l’évolution des matériels et des logiciels constructeur, les langages de program- mation notamment.

L’analyse des besoins aboutit à la rédaction d’un Cahier des Charges Fonctionnel, à travers deux étapes parallèles :

— l’analyse des contraintes opérationnelles ;

— la structuration fonctionnelle.

Le cahier des charges fonctionnel est le document de consultation des fournisseurs, il est donc entièrement ouvert en matière de solutions.

Il existe sur le marché un certain nombre de méthodes d’analyse et de modélisation – structuration – fonctionnelle, qui relèvent de la CAO (conception assistée par ordinateur). La plus ancienne est probablement SADT (Structured Analysis and Design Technique, ou Technique structurée d’analyse et de conception de systèmes) [5], utilisable en phase de spécification fonctionnelle d’un produit ou d’un système intégrant ou non du logiciel (encadré 1).

Il existe d’autres méthodes du même type [18] : SA/RT (System Analysis Real Time), MERISE (Analyse et conception des systèmes d’information), GRAFCET (acronyme de « Graphe de Commande à Étapes et Transitions ») [17], GEMMA (Guide d’étude des modes de marches et d’arrêts) [15]. Le résultat de ces méthodes varie d’un analyste à l’autre, d’un projet à l’autre, mais en règle générale elles ne permettent pas de tout expliciter et nombre d’objectifs, besoins et contraintes, quantitatifs ou qualitatifs, restent encore exprimés en langage informel, c’est-à-dire par du texte ou même verbalement.

Encadré 1 – Méthode SADT

SADT est une méthode générale qui cherche à favoriser la communication entre les différents intervenants d’un projet. Elle est conçue de façon à discipliner la démarche d’analyse, et aboutit à formaliser graphiquement un modèle du système qui fournisse un enchaînement sans ambiguïté d’actions et de données. Le modèle obtenu peut différer d’un analyste à l’autre : l’opérateur de conduite, par exemple, n’a pas la même perception du système que le technicien de maintenance. La mise en œuvre de SADT est un travail d’équipe, avec non seulement les analystes et les experts mais aussi les lecteurs, qui commentent et critiquent le travail des précédents.

Encadré 1 – Méthode SADT (Suite)

La démarche d’analyse de SADT est descendante et modulaire, elle conduit à créer deux diagrammes :

— le diagramme d’activité, ou actigramme ;

— le diagramme de données, ou datagramme.

Les graphiques SADT sont hiérarchisés ; chaque niveau de graphique se limite à un nombre de « boîtes » (rectangles de la figure 3) compris entre 3 et 6, chacune des « boîtes » étant ensuite, le cas échéant, décomposée en un diagramme de niveau inférieur, comprenant lui aussi de 3 à 6 « boîtes ». Ce petit nombre d’éléments rend plus aisée la compréhension globale du modèle.

Figure 3 – Symbolisme graphique de la méthode SADT

(5)

D’autres méthodes voient le jour, couplées à des traitements de texte, à des bases de données d’instrumentation, etc. Une méthode d’analyse fonctionnelle est en règle générale descendante ; un découpage type pour un champ de production de brut pétrolier, par exemple, sera le suivant :

Champ

installations systèmes

sous-systèmes équipements

composants.

Il est important que la méthode d’analyse structurelle utilisée et sa symbolique soient familières aux futurs opérateurs.

Les réponses des constructeurs au cahier des charges fonctionnel permettront d’élaborer des architectures opérationnelles : on en arrive ici aux solutions, et à rédiger un cahier des charges de réalisation qui sera cette fois un document contractuel. Ce document peut être décomposé en plusieurs sous-documents et spécifications, en fonction des pratiques de l’entreprise et de la complexité du projet : informatique, automatismes, instruments, etc. Dans certains marchés publics, on parle de cahier des clauses techniques particulières, ou encore de cahier des spécifications et clauses techniques.

Les paragraphes suivants vont expliciter les éléments de choix des divers composants d’un système automatisé de production : superviseurs, API, régulateurs, SNCC, capteurs et actionneurs.

3. Supervision

3.1 La fonction et ses matériels de mise en œuvre

L’opérateur chargé de conduire une installation automatisée doit impérativement disposer en temps réel d’une visualisation de l’état et de l’évolution des paramètres du processus, qui lui permette de prendre rapidement les décisions appropriées à ses objectifs : cadences de production, qualité des produits, sécurité des biens et personnes. Cette fonction d’assistance à l’opérateur humain est appelée supervision [7].

La fonction supervision est apparue très tôt sur les systèmes n u m é r i q u e s d e c o n t r ô l e - c o m m a n d e ( S N C C ) , m a c h i n e s informatiques d’usage assez général – au moins aux niveaux intermédiaires de la pyramide productique – destinées plus spécialement à la conduite des processus continus, et qui assurent donc, outre la supervision, des fonctions d’acquisition, de régulation et autres. On s’est vite aperçu, cependant, que cette fonction était également indispensable dans le cas des automates programmables industriels (API), machines appelées à l’origine à se substituer aux armoires à relais et affectées, un peu par tradition, aux processus m a n u f a c t u r i e r s . I l e s t à n o t e r q u e s i c e t t e d i s t i n c t i o n continu /manufacturier était claire sur les premiers matériels, elle tend aujourd’hui à s’estomper, sauf peut-être en matière de sûreté de fonctionnement.

Il est apparu souhaitable, dans le cas des API, de dissocier dans le principe la fonction supervision de la fonction commande : on recherche en effet, sur un API, une très grande fiabilité qui n’est pas absolument nécessaire pour une tâche de simple collecte centralisée d’informations que l’on ne traitera qu’à l’usage d’opérateurs humains (visualisation, gestion), plus tolérants à l’erreur qu’une machine. Les superviseurs d’API sont donc simplement des logiciels

« tournant » sur des machines diverses, banalisées : il en existe

actuellement une large gamme, que l’on peut implanter sur micro-ordinateurs compatibles PC ou, pour les plus performants, sur des miniordinateurs Hewlett-Packard, Vax ou Sun pour n’en citer que quelques-uns, le système d’exploitation utilisé donnant une première idée de leurs possibilités. Ce système peut être mono ou multitâche, mono ou multiutilisateur : un système monotâche exécute les tâches prescrites en séquence, sans garantie de temps d’exécution, alors qu’un système multitâche travaille en temps partagé avec une périodicité prédéterminée ; un système multiutilisateur devra gérer des problèmes de priorité d’accès.

Il faudra considérer également les problèmes de taille mémoire, de cartes de communication et de terminaux utilisables, ainsi que le nombre de postes pouvant être raccordés.

3.2 Matériel supervisable

Il faudra, dans le cas général, connaître les types et marques d’API connectables, c’est-à-dire susceptibles d’échanger avec le superviseur le contenu de leur mémoire ; il faudra aussi s’informer des régulateurs, des ordinateurs de conduite et des commandes numériques de machines-outils connectables, ainsi que d’autres dispositifs tels que les entrées-sorties, cette liste n’étant pas exhaus- tive. Un logiciel de supervision qui ne peut traiter qu’une seule marque de matériel est parfois dit dédié ; ce mot appartient surtout au vocabulaire informatique.

3.3 Base de données

La base de données du superviseur contient les informations concernant les divers automatismes : c’en est donc l’élément central, et il faut connaître le nombre et le type de variables qu’elle peut mémoriser. Ces variables peuvent être :

— tout ou rien (TOR), représentées par un bit unique de valeur 0 ou 1 ;

— analogiques, représentées par un nombre de bits prédéfini ;

— des chaînes de caractères, également codées suivant un formatage (nombre de bits) prédéterminé.

Plusieurs modes de rafraîchissement sont envisageables :

— cyclique, c’est-à-dire périodique à une fréquence définie par l’utilisateur ;

— cyclique paramétrable, mode dans lequel la base de données est partagée en plusieurs blocs, rafraîchis avec différentes périodicités ;

— sur exception, pour les seules variables qui ont changé de valeur, etc.

La base de données pourra le cas échéant être organisée par l’utilisateur lui-même, s’il y trouve avantage et s’il dispose de compétences en informatique ; on pourra aussi rencontrer des problèmes de temps d’accès, notamment si la base de données est répartie dans un système multiprocesseur.

3.4 Communications

Un superviseur est d’autant plus ouvert à divers types d’automatismes qu’il supporte (met en œuvre) un plus grand nombre de types de protocoles, la normalisation n’étant pas la règle, on l’a dit. Le problème se pose aussi de la cohérence temporelle des informations transmises à la base de données, qui pourraient dater de créneaux de temps, d’intervalles d’échantillonnage différents, en particulier lorsqu’elles ne proviennent pas du même automatisme ; la datation systématique des données résout ce problème mais en

(6)

pose un autre, celui de la synchronisation des diverses horloges, chaque automatisme possédant la sienne. La difficulté s’accroît lorsque les informations doivent cheminer dans un réseau de communication.

3.5 Traitements

D i v e r s t r a i t e m e n t s s t a n d a r d s s o n t d i s p o n i b l e s s u r l e s superviseurs ; l’exploitant peut aussi développer ses propres programmes à partir de langages particuliers à la machine qu’il utilise (souvent un BASIC) ou des langages externes (PASCAL, C...).

Les traitements les plus courants sont :

la représentation graphique des données sous forme de courbes de conduite ou d’historiques présentés à l’écran, avec des facilités diverses (loupes, fenêtres) ;

le traitement des alarmes et défauts, l’alarme étant généralement élaborée par comparaison d’une variable et d’un seuil, alors que le défaut est un événement qui a entraîné une réaction du système de commande. Le système attendra de l’opérateur qu’il acquitte l’alarme, c’est-à-dire qu’il indique qu’il en a pris connaissance. On pourra se poser le problème de la priorité des alarmes, dans le souci d’éviter des cas de figure où l’opérateur serait contraint d’en acquitter simultanément un trop grand nombre. Une hiérarchie des alarmes peut parfois se définir a priori par rapport au processus : dans des zones à risque, par exemple, tel sous-ensemble peut être plus sensible – prioritaire – que tel autre ; mais la priorité des alarmes peut aussi évoluer selon l’état du processus. Le superviseur doit pouvoir présenter à l’écran des vues spéciales, dites vues d’alarme, et en déclencher également l’impression ;

l’archivage, ou possibilité de conserver l’historique des variables du processus, dont la capacité doit être exprimée en nombre de variables plutôt qu’en mégaoctets ;

l’édition, ou impression sur papier de diverses informations, telles que la consignation d’état, relevé à un instant donné de l’ensemble des valeurs des variables, ou le journal de bord, dont le contenu est habituellement fixé par l’exploitant.

3.6 Conduite

La conduite est souvent imbriquée avec la supervision. On dispose alors sur le(s) poste(s) de supervision de la possibilité de télécommander le processus, en forçant (fixant) la valeur de certaines variables, et de lui envoyer des recettes, c’est-à-dire de modifier les caractéristiques du produit fabriqué, de changer de matière première, etc. Il faudra, dans le cas d’une supervision multiposte, fixer les priorités d’accès.

3.7 Imagerie

La supervision se situe, dans la hiérarchie des fonctions de la productique, au point le plus élevé où l’opérateur humain ne peut plus être remplacé par une machine ; il est donc essentiel de lui présenter sous la forme qui lui convienne le mieux l’information que l’on aura fait remonter jusqu’à lui. Cette présentation passe par une imagerie synthétique, ensemble de vues qui permettront à l’opérateur d’assurer la conduite du processus.

Dans ces vues, le processus est souvent – héritage des anciens tableaux de contrôle – symbolisé par un synoptique comprenant un fond de plan fixe, image de sa structure et des objets animés par l’état des éléments TOR (vannes, contacts, etc.) ou la valeur des variables analogiques (niveaux, débits, etc.). Outre le synoptique, on

trouve aussi des vues d’alarme et des vues de régulation, avec incrus- tation de fenêtres pour superposer l’affichage de certaines variables.

La représentation la plus fine est obtenue avec un écran graphique permettant d’accéder au pixel (picture element ou point), plutôt qu’avec un éditeur semi-graphique qui par contre sera d’un emploi plus simple. On disposera avantageusement d’objets prédéfinis (formes géométriques, symboles, avec les fonctions permettant de les manipuler : déplacement, association). Un objet se définit aussi par ses attributs : taille, couleur. Les vues et les objets seront animés par la valeur des variables de la base de données : affichage alpha- numérique, bargraphe, histogramme. La télécommande du proces- sus – par exemple le forçage d’une variable – pourra se faire par manipulation de l’objet associé à cette variable (on amène, par exemple, le curseur de l’écran sur l’objet considéré).

3.8 La sûreté de fonctionnement

Les automates programmables ont atteint une sûreté de fonctionnement très supérieure à celle des machines informatiques d’usage général : si l’on souhaite intégrer en tout ou partie les fonctions conduite et supervision des API, il faut que la sûreté de fonctionnement des superviseurs, c’est-à-dire des logiciels de super- vision, soit comparable à celle des API. Les mesures à prendre sont les suivantes :

— on définira des clefs d’accès – réservées aux seuls opérateurs autorisés – à l’introduction de nouvelles recettes, et l’on bornera les modifications possibles de la fabrication en cours ;

— il faudra être en mesure de détecter les erreurs de transmission, le cas échéant à travers les protocoles de communication eux-mêmes ;

— on s’efforcera de tester les logiciels mis en œuvre : adéquation des algorithmes aux spécifications, débogage, qualification ou test du logiciel dans un maximum de cas possibles et au moins dans toutes les combinaisons d’état des entrées-sorties ;

— il y aura lieu, enfin, d’étudier la sûreté de fonctionnement du matériel hôte : fiabilité, tenue aux grandeurs d’influence, etc.

4. Automates programmables

4.1 L’API et son évolution récente

L’automate programmable industriel (API) a d’abord remplacé l’armoire de relayage électromécanique ; puis l’évolution très rapide des technologies de l’électronique, de la micro-informatique et du génie logiciel a provoqué une véritable explosion de ses fonctionnalités. À l’API de base limité aux seules variables TOR sont venus s’ajouter l’acquisition et le traitement des données analogiques ainsi que de la régulation simple et des fonctions spéciales : commandes numériques, commandes d’axes, etc. [8].

L’API peut aussi assurer des fonctions de sécurité : tests GUIDAP ou Groupement pour l’utilisation industrielle des automates programmables (réunissant le CETIM, l’EXERA, l’INRS, le bureau Veritas).

4.2 Fonctions de logique combinatoire et séquentielle

On appelle cycle de fonctionnement de l’API la description de la séquence d’exécution des tâches, liée aussi à sa programmation.

L’acquisition des entrées peut se faire en début de cycle et la commande des sorties en fin de cycle : ce procédé est le plus sûr mais on peut aussi, si l’on privilégie la rapidité des actions, procéder à ces opérations en cours de cycle (entrées-sorties au vol).

(7)

Le rafraîchissement des entrées est, sur un API, l’opération qui consiste à lire séquentiellement l’information présente à chacune des entrées et à l’écrire dans une mémoire spécifique, dite « mémoire image » ; le rafraîchissement des sorties est l’opération inverse. Le temps passé à ces opérations de rafraîchissement peut être figé ou non, avec dans le second cas raccourcissement du temps de cycle.

Les API sont le plus souvent monotâche, notion abordée au § 3.1 et exécutent un seul programme utilisateur : les tâches sont alors traitées en séquence ; il existe aussi des solutions telles que l’exécution en temps partagé, dans laquelle les tâches sont scindées en plusieurs éléments qui ne sont pas tous traités au cours d’un même cycle.

L’interruption est assez peu répandue dans les API, car elle est a priori incompatible avec le déroulement cyclique d’un programme ; les matériels récents dont les unités de traitement sont performantes offrent cette possibilité.

■ Les performances de l’unité de traitement ne dépendent pas seulement de sa vitesse de fonctionnement ; elles sont aussi liées à la puissance du jeu d’instructions et, le cas échéant, à l’efficacité de l’interpréteur de langage source.

■ Il importe également de savoir comment est organisée la mémoire, notamment dans le cas où plusieurs API échangent des informations à travers un réseau ; il est concevable que les données, en effet, soient transférées par blocs physiques, et la connaissance de l’affectation des adresses physiques aux variables logiques permettra d’optimiser les échanges.

4.3 Fonctions analogiques

C’est sans doute la demande des utilisateurs – essentiellement on l’a dit, du domaine manufacturier – qui a incité les constructeurs d’API à intégrer à leurs machines des fonctions analogiques, fonctions dont l’emploi resterait, dans ce domaine, trop marginal pour justifier le recours à des systèmes mieux adaptés tels que les SNCC. L’API en général peut, dans l’état actuel de son évolution, recevoir les quatre types standards d’entrée :

— l’entrée tension dite haut niveau (1-5 V, 0-10 V...) ;

— l’entrée courant (4-20 mA, 0-20 mA...) ;

— l’entrée tension faible niveau : thermocouples ;

— l’entrée sonde à résistance : sonde platine 100 Ω à 0 oC.

Sur les matériels récents, les entrées sont adaptées aux capteurs par configuration plutôt que par cavalier ; elles sont multiplexées par souci d’économie, sauf si la cadence de leur traitement est très élevée. Ce traitement peut aussi être fait à la source par une carte d’entrée-sortie équipée d’un microprocesseur indépendant de l’unité de traitement centrale de l’automate.

La fonction régulation peut être assurée par un programme lié au cycle de l’API, dont il utilise les entrées-sorties ; on peut aussi le confier à une carte spécialisée qui utilise alors un groupe d’entrées-sorties auquel l’unité de traitement de l’automate n’a plus accès. La seconde solution est généralement plus performante, bien que ces cartes n’intègrent encore que les fonctions de base de la régulation numérique, et n’offrent pas toujours le niveau de service de certains régulateurs de tableau.

4.4 Fonctions de commande d’axe

La commande d’axe est une fonction propre aux automates programmables ; elle est assurée par des cartes spécialisées que l’on connecte au châssis comme une carte d’entrée-sortie. Il s’agit le plus souvent d’un asservissement de position.

4.5 Fonctions de communication externe

L’automate étant ici considéré comme une entité fonctionnelle, on supposera que le constructeur a résolu le problème des communications internes au châssis et avec d’éventuelles entrées-sorties déportées ; reste à traiter le problème des communications externes, ou échanges entre un API et (énumération non limitative) :

— un autre API de même type ;

— un API de constructeur différent ;

— un autre matériel, tel qu’un SNCC, du même constructeur ;

— un superviseur ;

— des capteurs et actionneurs, via un bus de terrain.

Hormis les réseaux privatifs propres à un constructeur (§ 1.3), il existe un réseau conforme au modèle ISO en 7 couches ainsi qu’à divers standards, le réseau MAP (Manufacturing Automation Protocol), ouvert en principe et convenant bien à de tels échanges.

MAP n’a pas répondu à tous les besoins, et seule la couche 7 dite MMS (Manufacturing Message Specification) semble être appelée à se diffuser [6]. Des versions simplifiées, dites « effondrées », de MAP peuvent aussi avoir leur intérêt : MiniMAP, MAP/EPA (Enhanced Performance Architecture) ; on ne garde dans ces réseaux que les couches 1, 2 et 7 du modèle OSI. Ces réseaux sont du type à jeton : un abonné, lorsque le réseau est libre (jeton inoccupé), communique avec un correspondant unique, de son choix [16].

L’utilisateur qui met en œuvre un réseau de communications de ce type ne devrait plus avoir – idéalement – qu’à procéder à une opération de paramétrage ; les logiciels fournis par le(s) constructeur(s) des différents abonnés du réseau doivent en effet être interopérables, c’est-à-dire compatibles entre eux.

5. Régulation

5.1 L’évolution technologique

Les premiers régulateurs de processus furent du type pneumatique ; ils furent suivis de près par les régulateurs électroniques. Ces matériels étaient analogiques. Les régulateurs électroniques, cependant, ont suivi la même évolution que les autres équipements industriels d’automatisme : ils sont devenus numériques. Il ne s’agit pas d’un simple effet d’entraînement : les microprocesseurs, intégrés à leur structure, décuplent leurs possi- bilités de traitement et facilitent configuration et paramétrage, de sorte que les régulateurs électroniques analogiques ne sont plus guère utilisés, aujourd’hui, dans la commande des processus industriels.

Le matériel a, lui aussi, évolué avec la technologie ; la fonction régulation n’est plus nécessairement implantée sur un module autonome volumineux, mais peut être assurée par une simple carte, sous-ensemble d’un API ou d’un SNCC dont elle dépend pour l’alimentation et les entrées-sorties.

5.2 Problème de l’échantillonnage

L’inconvénient de la technologie numérique en matière d’entrée est que l’on ne connaît plus, comme en analogique, la fonction continue représentative d’une variable, mais une suite discrète de valeurs ponctuelles. On démontre théoriquement, à partir de la trans- formation de Fourier, que la reconstitution d’un signal continu à partir de ses échantillons n’est possible que si la fréquence d’échantillonnage est au moins égale à deux fois la fréquence maxi- male contenue dans la fonction à reconstituer. Ce résultat est connu

(8)

sous le nom de théorème de Shannon. On devra donc s’assurer, lors du choix d’un matériel, carte de régulation ou régulateur de tableau, que la fréquence d’échantillonnage est suffisante, et aussi constante.

Dans certains cas, même si l’on connaît la limite supérieure FM de l’étendue spectrale du signal et que l’on échantillonne à Fe = 2 FM, il peut y avoir, dans la ligne de transmission, des perturbations, des parasites dont les étendues spectrales soient supérieures à FM ; ces perturbations vont subir le repliement de spectre et perturber le signal qui, sans cela, ne serait pas détérioré. Il est donc préférable, pour ne pas dire indispensable, de disposer en amont de l’échantil- lonneur un filtre passe-bas, appelé filtre de pré-échantillonnage ou filtre antirepliement.

5.3 Analyse du processus

La valeur d’une variable que l’on régule dépend de la commande que l’on applique au processus, et du comportement (sortie) de ce dernier que l’on s’efforce de prévoir en le modélisant. On distingue le modèle de connaissance, ou description physique rigoureuse, par un jeu d’équations, du comportement du processus, et le modèle de représentation, dans lequel on se limite plus modestement à une f o r m u l e d u t y p e p o l y n ô m e d e d e g r é n a p p r o x i m a n t c e comportement [9] (en transformée de Laplace).

Un modèle de connaissance, mathématique, est complété par affectation d’une valeur à ses paramètres : c’est l’opération complémentaire dite d’identification qui cependant, dans la pratique, est faite la première dans le cas d’un modèle de représentation, car le degré du polynôme est alors fixé a priori : si un polynôme de degré n donne du processus une description insuffisante, on reprend le modèle avec un polynôme de degré n + 1.

La modélisation mathématique reste une opération intellectuelle originale, particulière à chaque processus ; il existe par contre divers logiciels d’aide à l’identification des processus et à la génération de modèles de représentation, implantés sur station de travail ou micro- ordinateur.

5.4 Correcteur PID

L’algorithme de correction le plus utilisé est encore actuellement le PID (correcteur proportionnel, intégral et dérivé), qui se transpose aisément en technologie numérique. Les coefficients de l’algorithme sont le plus souvent calculés par le régulateur lui-même, qui devient de ce fait intelligent. Il existe, sur les matériels actuels, une possibilité d’autoréglage soit à la mise en service (régulateurs préréglants), soit en fonctionnement (régulateurs adaptatifs déclenchés).

D’autres matériels dits autoadaptatifs, ou adaptatifs auto- matiques, ont pour ambition de recalculer les coefficients du correcteur PID en boucle fermée, sans intervention extérieure : le problème est complexe et seuls les grands constructeurs proposent – timidement – des solutions. On trouve entre autres, dans cette caté- gorie, les régulateurs adaptatifs préprogrammés (en anglais gain scheduling adaptive ), qui modifient leurs coefficients d’après une table ou une fonction interne, suivant une référence qui peut être la grandeur réglée, une autre sortie du processus, etc. Le document normatif [9] fournit une nomenclature précise de ces divers matériels, dans le souci de limiter le risque de malentendu entre vendeur et acheteur, lors de la présentation des régulateurs.

On ne perdra pas de vue que le correcteur PID relève de la technique de base de l’automatisation ; il convient à la plupart des problèmes simples et ses insuffisances sont trop souvent l’effet d’un mauvais réglage de ses paramètres.

5.5 Autres régulateurs à paramètres figés

Le document [9] décrit en outre des structures de régulateurs avancés autres que celles que nous venons de citer, et dont le correcteur n’utilise pas des paramètres de type PID :

— prédicteur de Smith pour les processus à retard, généralisé par le régulateur à modèle interne ;

— régulateur à placement de pôles, structure améliorée par celle à trois éléments dite RST ;

— régulateur à minimisation de critère, linéaire quadratique (LQ) et linéaire quadratique gaussien (LQG), etc.

Les correcteurs de ce type permettent, le cas échéant, de résoudre des problèmes complexes, mais il va de soi qu’ils n’ont pas la simplicité du PID, et qu’ils ne peuvent être mis en œuvre que par des spécialistes de haut niveau.

Une qualité précieuse est la robustesse, ou propriété d’un régulateur de maintenir un fonctionnement satisfaisant du processus en présence d’éventuelles variations des paramètres de la fonction de transfert du processus qu’il commande.

5.6 Contrôleur flou

L’attention se porte, depuis quelques années, sur un mode de régulation dit par logique floue [19], qui procède d’un mode de raisonnement différent de celui de la régulation traditionnelle. Pour présenter la chose sur le mode humoristique, chacun connaît ce dilemme du verre dont on ne sait s’il est à moitié plein ou à moitié vide ; dilemme qui se résoud aisément en logique floue en créant deux sous-ensembles d’intersection non nulle, celui des verres pleins (de x, arbitraire, à 100 %) et celui des verres vides (de y à 100 %), sous-ensembles auxquels le niveau en question appartient à raison de 50 % pour l’un et l’autre. Ce type de démarche, que l’on qualifierait de floue, s’applique par exemple à la tempé- rature d’un four pour la conduite duquel l’opérateur humain détermine son action selon qu’il le considère comme « encore tiède » ou « presque chaud », parfois sans consulter le thermomètre ; on conçoit qu’une telle démarche permette de construire une structure de régulateur à partir d’éléments exprimés en langage courant, sans qu’il soit au préalable nécessaire de les traduire en un modèle mathé- matique abstrait ; mais il va de soi qu’une fois cette structure établie, l’acquisition et l’arithmétique de traitement des données n’auront plus rien de flou ni d’imprécis, mais se feront au contraire avec la même rigueur que dans tout autre régulateur numérique.

La spécificité de cette analyse tient au fait qu’elle permet en principe d’intégrer à un automatisme l’expérience de l’opérateur humain de terrain, peu familier de l’abstraction ; elle complète le cas échéant – sans révolution aucune – la panoplie de l’ingénieur automaticien, en particulier pour des processus non linéaires ou se prêtant mal à la modélisation mathématique conventionnelle.

Les matériels offerts sont encore assez peu nombreux ; certains constructeurs proposent, intégré au régulateur, un correcteur PID que l’on peut connecter en parallèle avec le correcteur flou, les signaux de commande issus des deux éléments étant pondérés en proportion ajustable : attitude prudente, peut-être. Les éléments à prendre en considération sont notamment :

— le nombre de règles programmables, la possibilité de les pondérer, de les désactiver, le nombre de prémisses et de conclusions par règle ;

— le nombre de variables linguistiques et de termes par variable ;

— les opérateurs de conjonction possibles (ET, OU, SI...) ;

— la forme des fonctions d’appartenance : triangle, trapèze, gaussienne.

(9)

6. Systèmes numériques de contrôle-commande (SNCC)

On a vu (§ 3.1) que les systèmes à microprocesseurs dits SNCC sont apparus très tôt dans les applications de contrôle-commande des industries à processus continus. Il n’y a plus aujourd’hui de différence de nature entre les fonctions assumées par les API et les SNCC ; les constructeurs déterminent leurs architectures de base en fonction de leur clientèle cible, à processus continu ou manufacturier, l’API ayant néanmoins, le cas échéant, vocation à une plus haute fiabilité. Le SNCC assure de ce fait la supervision, l’acquisition et le traitement des variables TOR et analogiques, la régulation et les transmissions, dans les conditions décrites aux paragraphes précédents ; il n’est donc pas nécessaire ici de développer davantage ses fonctions.

7. Réseaux de terrain

7.1 Les options de base

Les besoins en communication d’un système automatisé sont considérables, alors même que les solutions existantes sont très souvent fermées. Cette réserve est particulièrement gênante au niveau de la partie opérative du processus, où figurent des types très divers de capteurs, d’actionneurs et d’entrées-sorties dont on aimerait pouvoir choisir librement les constructeurs. Le problème était donc de concevoir une solution ouverte, normalisée, susceptible de remplacer à terme la liaison bifilaire (en particulier le standard 4-20 mA), coûteuse en câblage et en connexion, à terme dépassée par l’apparition progressive de l’instrumentation intelligente – en fait l’essaimage du microprocesseur vers le bas de la pyramide productique – beaucoup plus exigeante en moyens de communication.

Une première option consiste à relier les divers abonnés sur une boucle et à reprendre la technique du jeton (§ 4.5) : un abonné en appelle un autre, lui et lui seul, lorsque la ligne est libre ; les protocoles sont connus de longue date et bien au point. C’est notamment la solution PROFIBUS (Process Field Bus)/ISP (Intero- perable Systems Project). Dans le cas d’un bus de terrain, cependant, l’information « mesure à l’instant t » d’un capteur peut par exemple être exploitée à la fois par un transmetteur intelligent et par un automate ; deux appels successifs – et non simultanés – sont nécessaires en réseau à jeton, et les deux utilisateurs ne recevront pas nécessairement la même valeur de la mesure, qui aura pu changer entre les deux appels. Il est donc préférable de donner l’initiative de l’échange à l’organe qui génère l’information, plutôt qu’à ceux qui l’utilisent, et de laisser ceux-ci en écoute permanente non sélective : c’est le principe de la solution FIP (Factory Instru- mentation Protocol ou Flux d’Informations Processus) [1].

Ces deux types de bus ne sont pas actuellement les seuls, même s’ils ont parfois donné l’impression de dominer le marché ; il existe au moins cinq principes différents et un certain nombre de

« produits », entre lesquels il n’est pas évident de choisir [13]. On peut espérer que la situation se clarifie à terme, à l’instar de ce qui s’est passé, jadis, pour le 4-20 mA.

7.2 Réseaux FIP

Le réseau FIP [16] est le fruit d’une réflexion entièrement originale lancée en 1982. WORLDFIP, une association internationale de droit américain, regroupe de très nombreux constructeurs, en Europe, en Amérique et en Asie.

Le réseau FIP est fondé sur le principe de la diffusion des informations : un arbitre de bus émet l’identifieur d’une variable, l’abonné producteur de la valeur de cette variable répond en la diffusant sur le bus, atteignant simultanément tous les abonnés consommateurs de la variable. L’arbitre de bus est une fonction mise en œuvre par un circuit intégré implantable sur n’importe quelle station abonnée, avec le degré de redondance souhaité.

Le cycle de base du fonctionnement de l’arbitre de bus, ou macro- cycle, permet la diffusion périodique de l’ensemble des variables du système. Ce macro-cycle comporte également une réserve de temps pour un éventuel trafic apériodique de variables et de messages. Il n’y a pas d’accusé de réception, sauf dans le cas particulier d’un message d’abonné à abonné (un capteur signale au régulateur qu’il est en panne). Les informations échangées sont enchâssées dans des trames comportant un octet de contrôle. Il existe en outre deux services optionnels, l’un dit de rafraîchissement par lequel le producteur indique que la valeur de la variable a été émise à temps et l’autre de promptitude, par lequel l’utilisateur détermine s’il a reçu à temps cette valeur. Chaque producteur conserve par ailleurs en mémoire, dans certaines limites, l’historique de ses variables, de sorte que le système est volontiers considéré comme une base de données répartie, gérée en temps critique.

Il était indispensable, pour la normalisation, que FIP fût conforme au modèle standard OSI (§ 1.3). FIP a une architecture OSI réduite ; il ne conserve du modèle standard OSI que trois couches (1, 2 et 7).

Le taux de panne de FIP a été estimé à un défaut non détecté tous les 20 ans, pour une vitesse de transmission de 1 mégabit · s–1.

8. Capteurs et actionneurs

8.1 Technologie : électrique ou pneumatique ?

Cette question peut paraître anachronique, tant le pneumatique est aujourd’hui dépassé par l’électronique dans l’essentiel de ce qui fut son fief. Quelques applications particulières demeurent, cependant :

— lorsque la solution la plus simple est aussi la meilleure, comme pour les régulateurs de pression des bouteilles de gaz comprimé, ou bien la seule envisageable, comme sur les puits de pétrole isolés où l’on utilise l’énergie de pression du gaz du gisement, sommaire- ment dépoussiéré ;

— lorsque l’on a besoin de puissance et d’un temps de réponse court ; c’est le cas de très nombreuses machines automatiques qui utilisent des actionneurs pneumatiques [11] ;

— en atmosphère explosible, où le matériel pneumatique présente un risque d’échauffement et de génération d’étincelles bien moindre que le matériel électrique ;

— lorsque la « culture technologique » des techniciens de maintenance est faible ; cet argument prévaut en principe dans les pays en voie de développement, il est sans doute un peu dépassé déjà.

8.2 Utilisation

Un capteur-transmetteur peut être mis en œuvre :

— soit pour la conduite, automatisée ou non, du processus de production : on aura fréquemment besoin d’une mesure ;

— soit pour la sécurité des biens ou des personnes ; on pourra souvent, dans ce cas, se contenter d’une alarme, à un ou plusieurs seuils.

(10)

L’indication fournie peut être affichée localement ou transmise à distance ; il y a lieu, dans ce dernier cas, de définir le signal permettant la transmission : 1-5 V, 4-20 mA, bus de terrain...

8.3 Caractéristiques métrologiques requises

Il existe diverses définitions de la précision (exactitude) d’un appareil de mesure, et aussi diverses façons de la vérifier. On distingue les méthodes basées sur l’écart maximal crête à crête, les plus utilisées dans l’industrie, et celles qui reposent sur l’écart-type d’une série d’indications. La précision est, dans le principe, l’erreur par rapport à une valeur supposée vraie, connue par étalonnage.

On peut parfois se contenter d’un équipement de bonne répétabilité, donnant une indication peu dispersée mais pas nécessairement exacte : cela permet de minimiser les contraintes – souvent très lourdes – de l’étalonnage.

La précision, pour garder ce mot très général, est éventuellement liée à l’étendue de mesure : la courbe de réponse n’est pas linéaire, c’est le cas du débitmètre à orifice qui donne un signal proportionnel à la racine carrée du débit. Les capteurs-transmetteurs intelligents résolvent peu à peu ce problème (§ 8.6).

Le temps de réponse du capteur est aussi l’une de ses caracté- ristiques de base ; il est souvent une fonction exponentielle amortie de sa constante de temps.

Les caractéristiques métrologiques requises, combinées au mode d’utilisation, permettront souvent de choisir le principe du capteur- transmetteur : la sonde platine, par exemple, apparaît comme le meilleur choix pour la mesure d’une température proche de l’ambiante, alors qu’un couple thermoélectrique sera préféré dans le cas d’un four de cuisson.

8.4 Fluide procédé, utilités

Le fluide dont on mesure l’une des propriétés peut être un gaz, un liquide ou un solide divisé. Il peut être corrosif ; cette propriété impose un matériau de construction, un mode d’installation ou un principe de mesure particuliers : montage d’un séparateur, choix d’un capteur de type non intrusif, etc.

Le terme général d’utilités désigne l’ensemble des fluides auxiliaires (air et gaz comprimés, eau) et comprend chez les instru- mentistes l’électricité, que les automaticiens classent dans les contraintes d’environnement, faisant ainsi l’économie d’un chapitre qui, chez eux, n’aurait pas d’autre objet. On ne dispose pas toujours de toutes les utilités nécessaires : cas des puits de pétrole isolés où le choix des appareils de mesure – d’ailleurs peu nombreux – est de ce fait limité.

8.5 Contraintes d’installation

Le choix d’un type de capteur est parfois influencé par les problèmes d’installation : un exemple est celui des longueurs droites de tuyauterie nécessaires à l’amont de certains débitmètres.

8.6 Capteurs-transmetteurs intelligents

Le mot intelligent est utilisé pour qualifier un certain nombre de composants d’automatismes équipés de microprocesseurs qui exécutent au niveau local des traitements qui, auparavant, étaient confiés à un calculateur central.

Au niveau du capteur-transmetteur, on peut mettre en mémoire la courbe de réponse de l’élément sensible ; l’erreur de mesure des débitmètres à orifice devient alors approximativement proportion- nelle à la valeur lue, et non plus à l’indication maximale ; les dépassements d’échelle se résolvent aisément. Le transmetteur peut aussi signaler sa dérive ; il peut même avertir qu’il est en panne.

Mais tout ceci, à l’heure actuelle, n’est pas bien encore arrêté.

On se heurte à une difficulté évidente : une telle évolution est irréa- lisable avec le standard de boucle à courant continu 4-20 mA. L’une des solutions serait la transmission par protocole et bus privatif (propriétaire), avec l’inconvénient que nous avons signalé, qui est pour l’utilisateur de se lier au constructeur choisi. L’autre solution, infiniment plus rationnelle et séduisante, est celle du bus de terrain standard et normalisé tel que FIP, environné – et non prisonnier – de transmetteurs fipés, interchangeables d’un constructeur à l’autre.

De tels matériels commencent à être offerts sur le marché.

9. Contraintes

d’environnement

Remarque : les normes françaises d’indice NF C 20-0xx traitent des règles de construction des matériels électriques selon les conditions d’environnement ; les normes d’indice NF C 20-5xx à NF C 20-7xx concernent les essais.

Le terme « environnement » regroupe divers éléments extérieurs au système :

— l’alimentation électrique peut être monotension ou multi- tension ; elle doit rester dans les limites de tension et de fréquence spécifiées par l’utilisateur ;

— les facteurs climatiques : limites de température et de pression atmosphériques, humidité maximale de l’air. Le matériel est à cet égard plus tolérant en stockage qu’en fonctionnement, en règle générale ; rarement limitatifs en France, les paramètres climatiques peuvent l’être à l’exportation (très basses températures sur les champs d’hydrocarbures de Sibérie, chaleur humide en milieu tropical) ; un stockage prolongé et sans précautions suffisantes peut être, sous ces latitudes, source de pannes ultérieures en fonctionnement ;

— le degré de protection, ou propriété d’un boîtier à s’opposer à la pénétration de l’eau ou de corps solides et à résister aux chocs mécaniques : NF EN 60 529 (octobre 1992) : degrés de protection procurés par les enveloppes (code IP) ;

— la tenue du matériel aux vibrations et chocs ;

— la tenue aux parasites électriques conduits et électro- magnétiques rayonnés ; la Commission Électrotechnique Interna- tionale prépare un texte sur ce dernier point.

10. Matériel électrique

en atmosphère explosible

10.1 Définitions

On désigne par atmosphère explosible un mélange d’air ambiant et d’un gaz ou d’une poussière combustibles, dans des proportions permettant, en présence d’une source d’inflammation, une explosion ou un incendie.

Le terme de zone dangereuse classe la probabilité de présence de l’atmosphère explosible. On distingue (cf. publication CEI 79-10) :

la zone 0, dans laquelle il y a présence permanente d’une telle atmosphère ;

(11)

la zone 1, dans laquelle l’atmosphère peut être explosible dans les conditions normales d’exploitation ;

la zone 2, dans laquelle il ne peut y avoir danger d’explosion qu’en cas de situation d’exploitation anormale.

L’étendue physique de ces zones ne peut être qu’appréciée par les responsables locaux, qui tiendront compte des éléments particuliers à l’installation, au site, etc. : il n’y a donc pas de norme en la matière, le seul texte faisant exception étant, peut-être, le Code API RP 500 (USA). À titre d’illustration, la zone 0 est habituellement d’étendue très restreinte : l’intérieur d’un réservoir d’hydrocarbures, par exemple ; la zone 1 est, souvent aussi, d’extension réduite : quelques mètres autour d’une soupape de sécurité, par exemple ; la zone 2 est plus vaste, englobant tout espace où des fuites peuvent se produire, sans habituellement excéder une vingtaine de mètres.

La réglementation nationale définit parfois des distances minimales [12].

Le groupe d’explosion concerne la nature de l’atmosphère dans laquelle sera utilisé le matériel protégé. En France, on distingue le groupe I (grisou) et le groupe II (industries de surface), lui-même subdivisé en IIA (propane), IIB (éthylène) et IIC (hydrogène).

L’explosion d’un mélange stœchiométrique hydrogène-air, par exemple, génère une surpression plus élevée que celle du même mélange à base d’éthylène. Les groupes de gaz sont détaillés dans la norme NF C 23-514 ou EN 50014 (avril 1993) : Matériel électrique pour atmosphères explosives. Règles générales.

La température d’inflammation est une notion essentielle : on croit en effet, communément, qu’une flamme est nécessaire au déclenchement d’un incendie ou d’une explosion, alors qu’en toute rigueur c’est l’accroissement ponctuel de la température – dû à la flamme – qui amorce le phénomène. Le gaz le plus dangereux est le sulfure de carbone ; il prend feu à 85 oC, soit au contact d’un simple récipient d’eau bouillante. Il est donc essentiel de connaître la température de surface que pourrait atteindre tout boîtier métallique, même parfaitement clos, contenant un matériel électrique, en cas d’incident sur ce matériel.

Le mode de protection est l’ensemble des dispositions prises à la construction du matériel électrique pour qu’il puisse être utilisé sans risque en atmosphère explosible. Les règles d’installation dudit matériel ne sont jamais normalisées ; elles relèvent des réglementations locales. En norme française, européenne ou affiliée CEI, deux modes de protection peuvent être utilisés pour la c o n s t r u c t i o n d e s i n s t r u m e n t s e t a u t r e s c o m p o s a n t s d’automatismes :

le mode « d », dit par enveloppe antidéflagrante, dans laquelle une explosion éventuelle reste contenue ; on dit aussi flameproof (Royaume-Uni) et explosion-proof (USA) ;

le mode « i », dit de sécurité intrinsèque (intrinsic safety ), dans lequel on limite – à des niveaux qui varient un peu selon les pays – l’énergie transmise en zone dangereuse, de sorte que l’explosion ne puisse être amorcée ; le mode « i » est souvent celui qui convient le mieux aux instruments, qui ont rarement besoin de beaucoup d’énergie, mais son installation est relativement complexe [20].

Le mode « p », dit par surpression interne (NF C 23-516), est éventuellement utilisable, mais au prix de complications d’installa- tion (source d’air non pollué, notamment) qui devront être justifiées.

Le mode « e », dit de sécurité augmentée (NF C 23-519), peut être utilisé pour les borniers d’instruments, mais sans résoudre entière- ment le problème. Les autres modes de protection (immersion dans l’huile « o », encapsulage « m » et remplissage pulvérulent « q ») ne conviennent pas aux instruments.

Nota : NF C 23-516 (mai 1982) Matériel électrique pour atmosphères explosibles.

Surpression interne « p ».

NF C 23-519 (janv. 1993) Matériel électrique pour atmosphères explosibles. Sécurité augmentée « e ».

10.2 Règles de choix

La démarche à suivre pour résoudre les problèmes du choix du matériel et de son installation peut être résumée comme suit.

■Définir la zone dangereuse au point précis où l’on implantera le matériel : zone 0, 1 ou 2 (il est bien clair que ce matériel se réduira au minimum et que l’on aura nul besoin d’installer un API sur un réservoir, par exemple) ; savoir qu’en France la zone 0 ne peut être équipée qu’en matériel de sécurité intrinsèque « ia ».

■Définir le groupe d’explosion et la température d’auto-inflamma- tion.

Consulter les offreurs d’un matériel déjà agréé pour l’utilisation qui vient d’être définie (laboratoires français : LCIE ou INERIS*) ; se procurer les certificats d’agrément qui donneront diverses précisions. Les laboratoires sont, par ailleurs, en mesure de donner des conseils d’installation et même d’agréer l’installation elle-même, lorsqu’elle est achevée. Absolument rien ne doit être modifié de ce qui est décrit sur les documents de certification ; toute modification qui serait jugée indispensable devrait être, à nouveau, soumise au laboratoire d’essais.

* LCIE : Laboratoire Central des Industries Électriques.

INERIS : Institut National de l’Environnement Industriel et des Risques.

Il faut avoir présent à l’esprit qu’un tel sujet demande une étude attentive dans le détail, sauf à prendre le risque de catastrophes dont les exemples passés, hélas, ne manquent pas.

Exemple : installation sur un champ de production de gaz naturel, en Russie d’Asie (à l’époque, URSS), de détecteurs d’hydrogène sulfuré.

L’hydrogène sulfuré est un gaz très toxique, souvent présent dans le gaz naturel constitué de méthane et de divers hydrocarbures saturés.

Le détecteur devait être installé en tête de puits, donc en zone 1 puisqu’il pouvait s’y produire des fuites sans que l’installation fût défectueuse. Le méthane et les autres constituants sont classés dans les groupes d’explosion IIA et IIB ; on a retenu IIB. Ils ne s’enflamment qu’à température élevée : 450 oC pour le méthane ; ce point néanmoins n’était pas critique, s’agissant d’un appareil électronique de très faible puissance (10 W), et le plus simple était de demander qu’il fût certifié sur la base la plus sévère, soit T6 (85 oC au maximum sur les surfaces au contact de l’air).

L’alternative en matière de mode de protection était un boîtier antidéflagrant « d » ou un matériel de sécurité intrinsèque « i » ; le client soviétique trancha en faveur du mode « d ». L’élément sensible du détecteur, un semiconducteur fabriqué au Japon, chauffé par un filament de platine, avait été agréé au États-Unis par le Laboratoire Factory Mutual, selon des critères qui furent jugés compatibles avec la norme soviétique. Le boîtier contenant l’électronique, cependant, n’eut pas ce bonheur ; il eût fallu logiquement le faire agréer en URSS, mais le client reconnut que l’opération posait quelques problèmes, car l’électronique était elle aussi assemblée aux USA et il n’y avait pas de concurrent mieux placé : les Soviétiques acceptèrent donc un agrément au LCIE, selon la réglementation française. L’installation fut faite selon la réglementation soviétique : types de câbles, étanchéité aux presse- étoupes, entre autres détails.

Cet exemple qui, par certains aspects, pourrait sembler cocasse met en lumière les difficultés que peut rencontrer un ensemblier exportateur à concilier les matériels disponibles avec les normes et réglementations de tous types qu’il devra respecter.

Références

Documents relatifs

Autrement dit, notre souci, par le biais de ces deux textes donc deux discours de deux écrivains, tous deux natifs d’Oran ; tous deux ressentant une appartenance à ce

Mais toute sa vie elle aspire à un ailleurs mythique et quand, enfin, le docteur, à l’indépendance, propose de lui donner sa maison, elle refuse le cadeau malgré

Exercice 4 : La combustion complète de 0.35 g d’un composé A de formule brute C x H y a donné 0,45 g d’eau. Déduire celui du carbone.. 2/ a- Sachant que la masse molaire de A est

marge brute – remise – prix d’achat net – prix de vente hors taxe – coût d’achat prix de vente toute taxe comprise – prix d’achat net – frais d’achat – prix

En traction, torsion ou flexion il est possible de résoudre un système qui est hyperstatique et d’en déterminer sa déformation, ou la contrainte. Pour cela la même méthode pour

Le soumissionnaire remet, comme pièce constitutive de son offre, un document par lequel il marque son engagement à mettre en œuvre

* Détermination de la graduation 100 : on plonge le réservoir du thermomètre dans de l’eau en ébullition sous la pression atmosphérique normale.. Le liquide dans le capillaire

3- Pour déterminer la composition centisémale de la substance (A) on réalise la combustion complète de l’échantillon précèdent, on remarque que la masse du dioxyde de