• Aucun résultat trouvé

Technologies des réseaux de communication

N/A
N/A
Protected

Academic year: 2022

Partager "Technologies des réseaux de communication"

Copied!
354
0
0

Texte intégral

(1)

Technologies des réseaux de communication

Gérard-Michel Cochard & Edoardo Berera & Michel Besson Thierry Jeandel & Gérard-Michel Cochard

Université Virtuelle de Tunis

2007

(2)

Caractéristiques d'une voie de transmission

Sommaire :

Introduction

Transmission d'une onde sinusoïdale Signal quelconque et bande passante Rapidité de modulation et débit binaire Bruit et capacité

Trafic

Les supports de transmission

Introduction

L'information qui transite sur les réseaux de télécommunication consiste en messages de types divers : textes, sons, images fixes ou animées, vidéo, etc.... La forme que revêt cette information est commode pour une communication directe et

classique (conversation, échange sur papier, ....) lorsque les interlocuteurs sont en présence. Quand ils sont distants l'un de l'autre, l'emploi des réseaux de télécommunication est une manière moderne de résoudre la transmission d'informations.

Toutefois, pour les nécessités du transport, la transmission d'un message nécessite un encodage en signaux de type électrique ou électromagnétique :

L'émetteur et le récepteur sont, de nos jours, des ordinateurs. La voie de transmission peut être une simple liaison directe entre émetteur et récepteur ou beaucoup plus complexe dans le cadre d'un ou plusieurs réseaux de télécommunications. Les signaux sont les véhicules de transport de l'information.

Les signaux peuvent être analogiques ou numériques

signaux analogiques : représentés par une grandeur physique variant de manière continue

signaux numériques : représentés par une grandeur physique ne prenant qu'un certain

nombre de valeurs discrètes Exercices et tests : QCM1, QCM2

(3)

Transmission d'une onde sinusoïdale

L'onde sinusoïdale, infinie ou réduite à une période, est le plus simple des signaux en ce sens qu'elle est facilement générée, mais son intérêt réside surtout dans le fait suivant : n'importe quel signal peut être exprimé à partir d'ondes sinusoïdales.

Ces faits justifient une étude particulière qui va permettre de définir quelques propriétés des voies de transmission.

Considérons donc une voie de transmission, supposée point à point sans interruption ou intermédiaire et composée de deux fils métalliques. Un tronçon de voie peut alors être considérée comme un quadripôle (nous négligeons ici les effets

d'induction) composé d'une résistance R et d'une capacité C.

Le signal sinusoïdal appliqué à l'entrée du quadripôle (tension entre les deux fils) est : ve(t) = Ve sin ωt

avec Ve : amplitude maximale ; ω: pulsation ; f = ω/2π : fréquence ; T = 2π/ ω= 1/f : période.

Le signal de sortie est

vs(t) = Vs sin (ωt + Φ)

avec : Φ : déphasage.

La tension de "sortie" dépend de la tension d'entrée mais aussi des propriétés physiques du quadripôle. Les lois de l'électromagnétisme montrent que, dans le cas simple considéré :

Vs/Ve = (1 + R2C2ω2)-1/2 Φ = atan(-RC ω)

On constate donc que l'amplitude de sortie Vs est plus faible que l'amplitude d'entrée Ve: il y a affaiblissement et qu'il apparaît un déphasage Φ entre la tension d'entrée et la tension de sortie. Si l'on superpose les deux ondes (entrée et sortie) dans un diagramme temporel, on a la résultat suivant :

L'affaiblissement A (parfois appelé atténuation) du signal est le rapport des puissances Pe/Ps du signal émis, Pe, et du signal reçu, Ps. Chacune des puissances s'exprime en Watts. Toutefois, on préfère utiliser une échelle logarithmique basée sur la définition du décibel :

(4)

10 e s

La figure ci-contre indique une courbe typique

d'affaiblissement en fonction de la fréquence pour une voie de transmission quelconque.

On notera que la fréquence "optimale" est f0 et que, si l'on souhaite une faible atténuation d'un signal sinusoïdal envoyé, il faudra que celui-ci possède une fréquence proche de f0.

Exercices et tests : QCM3, QCM4, QCM5, QCM6

Signal quelconque et bande passante

Le théorème de Fourrier exprime mathématiquement le fait qu'un signal quelconque peut être considéré comme la superposition d'un nombre fini ou infini de signaux sinusoïdaux. Sans entrer dans les détails mathématiques du théorème, rappelons-en les conséquences pratiques :

un signal quelconque x(t) est décomposable en une série de signaux sinusoïdaux

si le signal est périodique, il peut s'exprimer sous forme d'une série de Fourier ; les termes de la série sont des signaux sinusoïdaux dont les fréquences varient comme multiples d'une fréquence de base f0

si le signal n'est pas périodique, il peut s'exprimer sous forme d'une intégrale de Fourier (extension continue de la série de Fourier) ; les signaux sinusoïdaux constituants ont des fréquences continûment réparties

exemple 1

exemple 2

Puisqu'un signal quelconque peut être considéré comme la superposition d'une série de signaux sinusoïdaux, on peut imaginer que la transport de ce signal complexe équivaut au transport des signaux sinusoïdaux le composant. Comme leurs fréquences sont différentes, ils seront plus ou moins affaiblis et à l'arrivée, certains d'entre eux ne seront plus discernables. Si on se définit un seuil d'"audibilité" A0, tous les signaux sinusoïdaux qui ont une fréquence inférieure à f1 seront considérés comme perdus ; de même ceux qui ont une fréquence supérieure à f2 seront aussi considérés comme perdus. Seuls seront

perceptibles à l'arrivée, les signaux qui ont une fréquence comprise entre f1 et f2. Cette plage de fréquence est appelée la bande passante ou largeur de bande de la voie.

(5)

Autrement dit, étant donné un signal complexe quelconque, ce signal sera relativement bien transmis si ses composants sinusoïdaux ont des fréquences comprises dans la largeur de bande. On peut aussi remarquer que plus la largeur de bande est grande, meilleur est le signal à l'arrivée ce qui explique pourquoi on est très intéressé à utiliser des voies de transmission avec une grande largeur de bande.

exemple: la largeur de bande de la ligne téléphonique est 3100 Hz car les fréquences vocales sont comprises entre 300 Hz et 3400 Hz.

Exercices et tests : Exercice 2, Exercice 7, QCM7, QCM8

Rapidité de modulation et débit binaire

Un message est constitué d'une succession de signaux (analogiques ou numériques) de durée égale ∆ (moment élémentaire).

Ces signaux se propagent sur une voie de transmission à la vitesse de la lumière (3.108 m/s dans le vide, pratiquement la même valeur dans une fibre optique, 2.108 m/s environ dans des voies filaires métalliques). On peut donc déjà concevoir que la vitesse de propagation n'est pas un facteur contraignant. Le facteur contraignant est la cadence avec laquelle on "met" le signal sur la ligne. Cette cadence est définie par la rapidité de modulation :

R = 1/∆ ( en bauds).

Si le message est binaire, chaque signal transporte n bits (quantité d'information). On est alors conduit à définir le débit binaire :

D = nR (en bits/s) qui correspond à la cadence avec laquelle on "pose" les bits sur la ligne.

exemple : vidéotex (Minitel) : R = 1200 bauds et D = 1200 bits/s. Ceci signifie qu'un signal élémentaire transporte un seul bit.

Un écran chargé a un volume approximatif de 2 Ko ; par suite, en négligeant le temps de propagation, le temps approximatif du transport est 13,3 secondes ce qui est important compte tenu du faible volume de l'information transportée.

Examinons quelques situations pour expliciter et illustrer les définitions relatives à la rapidité de modulation et au débit binaire.

(6)

analogiques ; on utilise deux types de signaux analogiques, chacun ayant une durée ∆, l'un possède une fréquence f1, l'autre une fréquence f2 (double de f1 sur le schéma) : les deux signaux sont aisément discernables. On peut convenir que le premier signal transporte un "0" et que le second transporte un "1". La cadence avec laquelle on envoie les signaux sur une voie est égale à la cadence avec laquelle on transmet les bits puisque chaque signal transporte un bit.

La distinction entre 0 et 1 dépend uniquement de la fréquence du signal sinusoïdal (modulation de fréquence)

R = 1/∆ D = R

exemple 2 : transmission de données numériques par des signaux analogiques ; on utilise cette fois 4 types de signaux sinusoïdaux obtenus par déphasage successif de π/4. Chacun des signaux peut transporter deux bits, soit 00, soit 01, soit 10, soit 11. Il en résulte que le débit binaire est le double de la rapidité de modulation.

La distinction entre les signaux ne dépend que de la phase du signal sinusoïdal (modulation de phase).

R = 1/∆ D = 2R

exemple 3 : transmission de données numériques par des signaux numériques ; imaginons 8 signaux différents par leur amplitude et de même durée ∆. Chacun des signaux peut transporter 3 bits puisqu'il existe 8 combinaisons différentes de 3 bits.

La distinction entre les signaux ne dépend que de leur amplitude (modulation d'amplitude).

R = 1/∆ D =3 R

Pour une meilleure performance dans la rapidité de transmission, on cherche à améliorer le débit binaire. Puisque D = n R, on cherchera à augmenter le débit binaire en augmentant

soit n, mais le bruit (voir plus loin) est un frein important (difficulté à discerner les différents niveaux)

soit R, mais on ne peut dépasser une valeur Rmax .

Ce dernier résultat a été démontré par Nyquist (1928) qui établit un rapport entre la rapidité maximum et la bande passante W :

Rmax = 2 W, Ce résultat est théorique et, dans la pratique, Rmax = 1,25 W

Exercices et tests : Exercice 4, Exercice 8, QCM9

(7)

Bruit et capacité

Le bruit consiste en signaux parasites qui se superposent au signal transporté et qui donnent, en définitive, un signal déformé;

On distingue 3 types de bruit :

bruit déterministe (dépend des caractéristiques du support)

bruit aléatoire (perturbations accidentelles)

bruit blanc (agitation thermique des électrons)

Le bruit le plus gênant est évidemment le bruit aléatoire. Il peut modifier notablement le signal à certains moments et produire des confusions entre "0" et "1". Pour cette raison, il faut veiller à ce que la puissance du signal soit supérieure à celle du bruit. Le paramètre correspondant est le rapport "signal sur bruit" S/B défini en décibels par :

S/B(en décibels)=10log10(PS(Watt)/PB(Watt)) où PS et PB désignent respectivement les puissances du signal et du bruit.

Le théorème de Shannon (1948) exprime l'importance du facteur S/B : ce facteur limite la quantité n de bits transporté par chaque signal

Par suite, en utilisant le théorème de Nyquist, on en déduit le débit maximum d'une voie :

C, débit maximum, est la capacité de la voie de transmission.

exemple: voie téléphonique de largeur W = 3100 Hz et de rapport S/B = 20 dB. En utilisant la formule précédente, on calcule la capacité de la voie téléphonique : C = 20,6 Kbits/s environ.

Exercices et tests : Exercice 1, Exercice 3, Exercice 5, Exercice 6, Exercice 9, Exercice 10, Exercice 14, QCM10, QCM11

(8)

Trafic

Le trafic est une notion liée à l'utilisation d'une voie de transmission. Le trafic permet de connaître le degré d'utilisation d'une voie et par conséquent de choisir une voie adaptée à l'utilisation que l'on veut en faire ; il ne servirait à rien, en effet, de posséder des lignes de transmission surdimensionnées, sinon à perdre de l'argent en abonnements.

Pour évaluer le trafic, on considère qu'une transmission ou communication est une session de durée moyenne T (en secondes)

; soit Nc le nombre moyen de sessions par heure. L'intensité du trafic est alors donnée par l'expression : E = T Nc / 3600 ( en Erlangs)

Autrement dit, l'intensité du trafic mesure le temps d'utilisation de la voie par heure.

En fait, une analyse plus fine est quelquefois nécessaire car une session comporte un certain nombre de "silences",

notamment dans les applications conversationnelles. On peut distinguer les deux cas extrêmes suivants concernant les types de sessions :

sessions où T est pleinement utilisé (rare)

sessions où T comprend des "silences"

Dans ce dernier cas, l'intensité du trafic ne donne pas l'occupation réelle du canal. On décompose la session en transactions de longueur moyenne p en bits, entrecoupées par des silences. Soit Nt le nombre moyen de transactions par session.

D étant le débit nominal de la voie, le débit effectif de la voie (pour cette utilisation) est :

et le taux d'occupation du canal est défini par le rapport :

exemple : calcul scientifique à distance : l'utilisateur dialogue avec un ordinateur central ;

p = 900 bits, Nt = 200, T = 2700 s, Nc = 0.8, D = 1200 b/s d'où E = 0.6 Erlangs θ = 0.05 (voie utilisée théoriquement à 60%

et effectivement à 5%).

Exercices et tests : Exercice 11, Exercice 12, QCM12, QCM13

(9)

Les supports de transmission

Le support le plus simple est la paire symétrique torsadée (UTP : Unshielded Twisted Pairs) . Il s'agit de deux conducteurs métalliques entremêlés (d'où le nom de paire torsadée). Le signal transmis correspond à la tension entre les deux fils. La paire peut se présenter emprisonnée dans une gaine blindée augmentant (comme la torsade) l'immunité contre les perturbations électromagnétiques (STP : Shielded Twisted Pairs).

Pour les paires UTP, nettement moins onéreuses que les paires STP, plusieurs catégories sont définies (de 1 à 5). Les

catégories 1 et 2 correspondent à une utilisation en bande étroite, les catégories 3 à 5 (la meilleure) à une utilisation en large bande (100 MHz pour la catégorie 5).

Les deux avantages principaux de ce type de support sont son coût très bas et sa facilité d'installation. Par contre, les inconvénients sont assez nombreux : affaiblissement rapide, sensibilité aux bruits, faible largeur de bande, faible débit.

Pour de faibles distances, ce support est relativement utilisé : réseaux locaux, raccordements téléphoniques, notamment.

Le câble coaxial constitue une amélioration de la paire torsadée. Ce support constitué de 2 conducteurs à symétrie cylindrique de même axe, l'un central de rayon R1, l'autre périphérique de rayon R2, séparés par un isolant.

Par rapport à la paire torsadée, le câble coaxial possède une immunité plus importante au bruit et permet d'obtenir des débits plus importants. Une version du câble coaxial, le CATV, est utilisé pour la télévision par câble.

La fibre optique est apparue vers 1972 (invention du laser en 1960). et constitue un domaine en plein développement du fait d'un grand nombre d'avantages :

faible encombrement : diamètre de l'ordre du 1/10 de mm (les fibres sont en fait groupées en faisceaux)

légèreté

largeur de bande de l'ordre du GigaHertz pour des distances inférieures à 1 km ce qui permet un multiplexage composite (TV, HiFi, Téléphone, données informatiques,...)

faible affaiblissement :à 140 Mbits/s, l'affaiblissement est 3 dB/km pour une longueur d'onde de 0,85 micromètre (régénération tous les 15 km) et de 0,7 dB/km pour une longueur d'onde de 1,3 micromètre (régénération tous les 50 km).

insensibilité aux parasites électromagnétiques (taux d'erreur approchant 10-12)

matériau de construction simple et peu coûteux (silice pour les fibres en verre)

Les fibres optiques véhiculent des ondes électromagnétiques lumineuses ; en fait la présence d'une onde lumineuse

correspond au transport d'un "1" et son absence au transport d'un "0" ; les signaux électriques sont transformés en signaux lumineux par des émetteurs ; les signaux lumineux sont transformés en impulsions électriques par des détecteurs.. Les émetteurs de lumière sont, soit des LED (Light Emitting Diode ou Diode Electro-Luminescente) classiques, soit des diodes lasers (composants plus délicats). Les détecteurs de lumière sont, soit des photodétecteurs classiques, soit des

photodétecteurs à avalanche.

La propagation des signaux lumineux s'effectuent par réflexion sur une surface ; en effet, pour une longueur d'onde donnée et une inclinaison du rayon par rapport à la normale à la surface de séparation entre deux milieux, la lumière incidente se réfléchit totalement (pas de réfraction) ce qui signifie que l'on peut "emprisonner" un ou plusieurs rayons à l'intérieur d'un

(10)

rayon lumineux par transmission), les deux autres sont multimodes (plusieurs rayons transmis simultanément) :

fibre monomode

les indices de réfraction sont tels que n2 > n1. Le rayon laser (longueur d'onde de 5 à 8 micromètres est canalisé. Cette fibre permet de hauts débits mais est assez délicate à manipuler et présente des complexités de connexion.

fibre multimode à saut d'indice Les rayons lumineux se

déplacent par réflexion sur la surface de séparation (n2>n1) et mettent plus de temps en déplacement que le rayon de la fibre monomode.

L'affaiblissement est de 30 dB/km pour les fibres en verre et de 100 dB/km pour les fibres en matière plastique.

fibre multimode à gradient d'indice

L'indice de réfraction croît depuis centre vers les bords du tube. La réflexion est plus "douce" de ce fait.

Il est possible depuis plusieurs années de multiplexer sur une fibre plusieurs messages numériques se différenciant par la longueur d'onde ; la technologie correspondante s'appelle WDM (Wavalength Division Multiplexing).

La fibre optique possède aussi quelques inconvénients qui tendent cependant à s'amenuiser avec le développement technologique :

matériels d'extrémité délicats et coûteux

courbures brusques à éviter

connexion délicate de deux fibres

Toutefois, du fait de son grand nombre d'avantages, les réseaux utilisent de plus en plus la fibre optique.

Déjà très utilisées pour la radio et la TV, les ondes électromagnétiques permettent une transmission sans supports matériels.

Cette utilisation est dépendante de la fréquence de l'onde.

Pour les besoins de transmission, on peut classer les ondes en deux groupes :ondes non dirigées et ondes dirigées.

ondes non dirigées : l'émission a lieu dans toutes les directions (inondation) : pas vraiment d'intérêt pour des

communications personnalisées, sauf dans le cas de la téléphonie cellulaire (captage par relais). Par contre, pour la diffusion d'informations, l'utilisation est courante (radio, télévision, ....)

ondes dirigées : les utilisations des ondes dirigées, c'est à dire émise dans une direction particulière, sont principalement les faisceaux hertziens terrestres, les transmission satellite et les réseaux sans fils.

faisceaux hertziens terrestres. Les ondes sont émises d'un relais à l'autre en ligne droite. La courbure de la Terre implique une distance maximum entre les relais (tours hertziennes).

(11)

la Terre est résolu avec l'utilisation des satellites de télécommunication. Les satellites sont situés sur des orbites géostationnaires et sont donc considérés comme fixes par rapport à la Terre. (distance Terre- satellite : 36 000 km)

réseaux sans fils : ces réseaux locaux (WLAN, Wireless Local Area Networks) sont apparus récemment et permettent de s'affranchir des câbles, souvent inesthétiques et surtout peu commodes. Une première catégorie de réseau utilisent des ondes dont les longueurs d'ondes sont situées dans l'infra-rouge. Le principe est bien connu puisque les

télécommandes infra-rouge sont maintenant d'un usage banal ; les réseaux à infra-rouge permettent un "câblage"

intérieur très fonctionnel (à condition d'éviter les obstacles). A l'extérieur, l'utilisation de l'infra-rouge est plus délicat à cause des perturbations électromagnétiques . Une autre catégorie de réseau sans fils est celle des réseaux à ondes lumineuses (laser) ; le faisceau laser est en effet suffisamment fin pour être dirigé vers un capteur ; cette technique est d'ailleurs utilisée pour relier deux bâtiments voisins sans effectuer de câblage "en dur" (émetteurs et détecteurs sur les toits par exemple). Toutefois la transmission par laser peut être affectée par les conditions météorologiques ; par ailleurs elle est encore coûteuse.

(12)

Codage de l'information

Sommaire :

Numérisation de l'information Le texte

L'image fixe Le son et la vidéo

La protection contre les erreurs

Numérisation de l'information

L'information existe sous des formes diverses. Pour la manipuler et, en particulier, la transporter, on est amené à la coder.

parole :

système : téléphone codeur : microphone décodeur : écouteur

transmission : signaux analogiques et numériques

image fixe : système : télécopie codeur : scanner

décodeur : interpréteur de fichier transmission : signaux analogiques et numériques

données informatiques :

système : réseaux de télé-informatique codeur : contrôleur de communication + ETCD décodeur : contrôleur de communication + ETCDtransmission : signaux analogiques ou numériques

télévision :

système : diffusion hertzienne codeur : caméra

décodeur : récepteur TV + antenne

transmission : signaux analogiques ( et bientôt numériques)

De nos jours, l'information est souvent présentée dans des documents composites, comme une page Web, où simultanément peuvent être présentés un texte, une image fixe, un clip vidéo,.... . L'information est, en effet, présentée sous forme multimédia. Chaque type d'information possède son système de codage, mais le résultat est le même : une suite de 0 et de 1. Le transport de l'information consiste alors à transmettre des bits, quelque soit la signification du train de bits transmis.

(13)

Dans les paragraphes qui suivent, on examinera comment il est possible de numériser chaque média.

Le texte

Le premier code relatif au texte est certainement le code Morse, en service bien avant l'utilisation de l'ordinateur. Et pourtant, il s'agit bien d'un code binaire qui aurait pu servir à numériser les textes, puisqu'il est composé de deux symboles seulement : le point et le trait (on pourrait aussi bien dire 0 et 1).

Malheureusement, il souffre de deux inconvénients majeurs :

il est "pauvre" : peu de caractères peuvent être codés ;

il utilise des combinaisons de traits et de points de longueur variable ce qui n'est pas commode, notamment pour la numérisation d'éléments ayant des probabilités d'apparition de même ordre.

(14)

Pour ces raisons, il n'a pas été utilisé pour le codage numérique de l'information (apparemment, on n'y a peut-être pas pensé !) ; toutefois, compte tenu de son utilisation passée, il méritait d'être mentionné.

Si on se fixe comme règle de trouver un code permettant de représenter numériquement chaque caractère de manière à obtenir un nombre de bits fixe, il est simple de comprendre qu'avec un code à p positions binairs on pourra représenter 2p caractères. Effectivement, dans le passé, on a utilisé de tels codes, généralement en les définissant par des tables, le code étant divisé en poids faibles et en poids forts :

:

code à 5 positions : un de ses représentants est ATI (Alphabet Télégraphique International, utilisé par le Télex)

code à 6 positions : ISO6 (ce code très employé sur les premiers ordinateurs est aujourd'hui abandonné)

code à 7 positions : ASCII : la panacée universelle

ce code fait apparaître des caractères non imprimables appelés caractères de manœuvre qui provoquent des actions sur des dispositifs informatiques ou qui transportent de l'information de service. Par exemple, FF signifie "passage à la page suivante" ce qui pour une imprimante est une information indispensable.

code à 8 positions : ASCII étendu, EBCDIC

Le code ASCII est un code sur 7 positions ; comme les ordinateurs stockent l'information dans des mots dont la longueur est un multiple de 8 bits (octets), on complète généralement le code ASCII par un "0" en tête pour former un octet. On peut aussi utiliser ce degré de liberté supplémentaire pour définir des alphabets spéciaux ; dans ce cas, on avertit en mettant un "1" en tête à la place du "0" ce qui correspond au code ASCII étendu ; malheureusement, il y a plusieurs codes ASCII étendus car il n'y a pas encore de normalisation imposée ce qui rend difficile mais pas insurmontable le passage d'un document d'une plate- forme à une autre.

(15)

Le code EBCDIC est d'emblée un code sur 8 bits ce qui permet d'obtenir 256 caractères représentables contre 128 pour le code ASCII. Il a été utilisé par IBM pour le codage de l'information sur ses machines. Il n'a pas atteint toutefois la popularité du code ASCII.

code à 16 positions : Unicode

Ce code est récent et a été mis en oeuvre pour satisfaire tous les usagers du Web. Il incorpore presque tous les alphabets existants (Arabic, Armenian, Basic Latin, Bengali, Braille, Cherokee, etc....) ; il est compatible avec le code ASCII. Par exemple le caractère latin A est codé 0x41 en ASCII et U+0041 en Unicode ;le caractère monétaire est codé 0x80 en ASCII étendu et U+20AC en Unicode.

Exercices et tests : QCM14

L'image fixe

L'image numérique est usuellement une image décrite en termes de lignes et chaque ligne en terme de points. Une image VGA de résolution 640x480 signifie que l'image est une matrice de 480 lignes, chaque ligne comportant 640 points ou pixels. Une image est alors représentée par un fichier donnant la liste des points ligne par ligne, colonne par colonne.

Un pixel est codé suivant la qualité de l'image :

image en noir et blanc (image binaire) : un seul bit suffit pour coder le point (0 pour noir, 1 pour blanc) ;

image en 256 nuances de gris : chaque point est représenté par un octet (8 bits) ;

image en couleur : on montre que la couleur peut être exprimée comme une combinaison linéaire de trois couleurs de base, par exemple Rouge(R), Vert(V), Bleu(B). Ainsi une couleur quelconque x est exprimée comme

(16)

x = aR + bV +cB

où a, b, c sont des doses de couleurs de base. Usuellement, une bonne image correspond à des doses allant de 0 à 255. Par suite une image couleur de ce type peut être représentée par 3 matrices (une par couleur de base) dont chacune d'elle possède des éléments sur 8 bits, ce qui au total fait 24 bits par pixel.

On se rend vite compte du volume atteint pour des images importantes et de bonne définition. Une image 640x480 en couleur (24 bits) occupe un volume de 921 600 octets.On est alors amené à utiliser des techniques de compression pour réduire la taille des fichiers d'images. Une des premières techniques est l'emploi de codes de Huffman qui emploie des mots codés de longueur variable : long pour les niveaux de couleur rares, court pour les niveaux de couleur fréquents. Ce type de codage est dit sans perte puisque la compression ne dénature pas l'information. D'autres méthodes permettent d'obtenir des résultats plus performants en terme de réduction de volume ; dans cette catégorie, dite compression avec perte, des détails peu pertinents de l'image disparaissent ; c'est notamment le cas du standard JPEG qui utilise des transformations en cosinus discrets appliquées à des sous-images.

Le son et la vidéo

Les données de type son et vidéo sont à l'origine analogique sous forme de signaux (un ou deux signaux pour le son, 3 signaux pour la vidéo-image). Ces signaux analogiques sont numérisés de la manière suivante :

1 - Échantillonnage

Le signal est échantillonné : à une fréquence donnée f, on mesure la hauteur du signal. On obtient alors une séquence de mesures.

2 - Quantification

On se fixe une échelle arbitraire de valeurs (usuellement suivant une puissance de 2: 2p valeurs) et on fait correspondre chaque

mesure à une valeur dans cette échelle. on est évidemment conduit à faire des

approximations ce qui correspond à un bruit dit de quantification

(17)

3- Codage

Chaque valeur est transformée en sa combinaison binaire, la suite de ces

combinaisons étant placée dans un fichier.

011001100110111110101110110010...

Le volume des fichiers obtenus après numérisation dépend crucialement de la fréquence d'échantillonnage f et de la valeur de p (longueur du codage de chaque valeur). La fréquence d'échantillonnage, en particulier, ne peut être choisie arbitrairement. Les résultats en traitement de signal indiquent que la fréquence

d'échantillonnage d'un signal doit au moins être le double de la plus grande des fréquences du signal (c'est à dire la plus grande de toutes celles des composantes sinusoïdales - développement de Fourier - composant le signal).

exemple : la parole est transmise usuellement par le réseau téléphonique. Elle correspond à des signaux analogiques dont la fréquence varie entre 300 Hz et 3400 Hz. La plus grand des fréquences est donc 3400 Hz que l'on arrondit à 4000 Hz par précaution. La fréquence d'échantillonnage doit donc être au moins de 8000 Hz. Si l'on choisit cette fréquence d'échantillonnage et si l'on décide de coder sur 8 bits chaque échantillon (cela est suffisant pour le parole), on obtient pour une seconde de parole un volume de 64 000 bits ; une transmission en temps réel de la parole nécessite donc des liaisons à un débit de 64 Kbits/s. C'est notamment le cas du RNIS français (Numéris) qui propose des canaux à 64 Kbits/s.

Comme dans le cas de l'image fixe, mais de manière extrêmement amplifiée, les volumes obtenus sont considérables et il est nécessaire, pour leur stockage comme pour leur transport, de les compresser. Les techniques diffèrent ici, suivant que l'on a un fichier son ou un fichier vidéo.

Pour le son, le système de codage explicité plus haut (codage sur n bits de chaque échantillon) est appelé PCM (Pulse Code Modulation). Il est possible de réduire le volume avec les codages suivants :

MPCM (Delta PCM) où le codage porte sur les différences entre les valeurs successives échantillonnées,

ADPCM (Adapative Differential PCM) où des interpolations sont effectuées afin de diminuer le volume.

La problématique du son (et aussi de la vidéo) est une transmission en "temps réel" ; il est donc nécessaire d'utiliser des systèmes de codage ou codecs performants. Les codecs audio sont décrits par des normes standards de l'ITU dont voici quelques exemples :

codec G.711 : algorithme de codage : PCM ; échantillonnage à 8 KHz, débit nécessité : 64 Kbits/s ;

codec G.722 : algorithme de codage : ADPCM ; échantillonnage à 7 KHz ; débit nécessité : 64 Kbits/s

;

codec G.723 : algorithmes de codage MP-MLQ (MultiPulse Maximum Likelihood Quantization) et ACELP (Agebraic Code-Excited Linear Prediction) ; échantillonnage à 8 KHz ; débit nécessité entre 5,3 et 6,3 Kbits/s ;

Pour la vidéo, divers procédés de codage sont employés dans le but de réduire le volume des fichiers. Le plus connu correspond à la série de normes MPEG. Le principe de compression s'appuie sur trois types d'images :

les images "intra" sont des images peu compressées qui servent de repère (une image intra pour 10

(18)

images successives) ;

les images "prédites" sont des images obtenues par codage et compression des différences avec les images intra ou prédites précédentes (une image prédite toutes les trois images) ;

les images "interpolées" sont calculées comme images intermédiaires entre les précédentes.

L'utilisation de vidéos numériques MPEG nécessite la présence d'une carte de décompression dans le micro- ordinateur d'exploitation. Les principaux standards sont MPEG1 (débit nécessité : 1,5 Mbits/s), MPEG2 (débit nécessité : 4 à 10 Mbits/s), MPEG4 (débit nécessité : 64 Kbits/s à 2 Mbits/s).

Exercices et tests : Exercice 15, Exercice 21, Exercice 35, Exercice 40, QCM21

Protection contre les erreurs

Lors de la transmission d'un train de bits, des erreurs peuvent se produire, c'est à dire qu'un "1" peut être transformé en un "0" ou réciproquement.

On définit le taux d'erreur par le rapport :

L'ordre de grandeur du taux d'erreur est de 10-5 à 10-8. Suivant le type d'application, une erreur peut avoir des conséquences importantes et c'est pourquoi il convient souvent de mettre en oeuvre des dispositifs permettant de détecter les erreurs et si possible de les corriger. Il convient de noter à ce sujet que le taux d'erreur dépend de la qualité du support de transmission (notamment son immunité au bruit).

Les statistiques indiquent que 88% des erreurs proviennent d'un seul bit erroné, c'est à dire que ce bit erroné est entouré de bits corrects ; 10% des erreurs proviennent de deux bits adjacents erronés. On voit donc que le problème prioritaire à résoudre est la détection d'un seul bit erroné et, si possible, sa

correction automatique.

Dans cet ordre d'idées, on utilise descodes détecteurs d'erreurs : l'information utile est encodée de manière à lui ajouter de l'information de contrôle ; le récepteur effectué le décodage et à l'examen de l'information de contrôle, considère que l'information est correcte ou erronée ; dans le dernier cas, une demande de répétition de la transmission est effectuée.

(19)

Les codes détecteurs d'erreurs se classent en 2 catégories :

codes en bloc : l'information de contrôle et l'information utile forment un tout consistent. Si le bloc est composé de deux partie distinctes (information utile et information de contrôle) le code est dit systématique.

codes convolutionnels ou récurrents : la détection des erreurs dans un bloc dépend des blocs précédents. Ils ne seront pas étudiés ici.

Une notion importante dans la recherche de codes détecteurs ou correcteurs est celle de distance de Hamming. Considérons une information utile constituée de mots de m bits : on peut donc construire 2m mots distincts au total. Définissons l'information de contrôle sous la forme de r bits déduis de manière unique à partir des m bits utiles . L'information "habillée" en résultant est constituée de n=m+r bits et , compte-tenu de l'unicité de la définition des bits de contrôle, on a au total 2m mots valides de n bits. Cependant, avec n bits, on peut avoir 2n mots différents. La différence 2n-2m indique le nombre de mots erronés.

La distance de Hamming de deux mots : d(m1, m2) est le nombre de bits différents de même rang exemple : m1 = 10110010 m2 = 10000110 d(m1,m2) = 3

2 mots de code seront d'autant moins confondus que leur distance de Hamming sera plus grande ; on peut définir une distance minimum dmin ; si d(m1, m2) < dmin, alors m2 est une copie erronée de m1.

mi et mj sont des mots du code ; m'i est une copie erronée de mi

d'où la règle 1 :

Pour détecter p erreurs, il faut que dmin > p

(20)

exemple : détection des erreurs simples : dmin>2

Intéressons-nous maintenant à la correction des erreurs jusqu'à un ordre q ; chaque mot de code et ses copies "admissibles" doivent être dans des sphères non sécantes :

mi et mj sont des mots du code ; m'i est un mot erroné qui doit être assimilé à mi.

d'où la règle 2 :

Pour corriger des erreurs jusqu'à l'ordre q, il faut que dmin > 2q

exemple : la correction des erreurs simples nécessite dmin > 2

codes linéaires

Un code linéaire est un code en bloc systématique (n,m) dans lequel les r = n - m bits de contrôle dépendent linéairement des m bits d'information. Soit l'information utile représentée par le vecteur ligne

; l'information codée est représentée par le vecteur ligne avec

y1 = x1 y2 = x2 ... ym = xm ym+1 = a1 ym+2 = a2 ... y m+r = a r

où les ai sont les bits de contrôle, donc .

Le code est alors simplement défini par la relation matricielle où G est la matrice génératrice du code. La forme générale de G est :

d'où les bits de contrôle : ai = x1g1i + x2g2i+ .... + xmgmi. exemple : code (6,3) avec

(21)

information utile : donc 8 mots possibles information codée :

La relation conduit à

a1 = x2 + x3 a2 = x1 + x3 a3 = x1 + x2 Les mots du code sont :

000000 001110 010101 011011

100011 101101 110110 111000

On constate que dmin = 3 ce qui permet la correction des erreurs simples et la détection des erreurs doubles

exemple : code (8,7) avec

information utile : information codée :

La relation conduit à a1 = x1 + x2 + x3 + x4 + x5 + x6 + x7 (modulo 2) a1 est appelé bit de parité : les mots du code ont un nombre pair de 1.

On pourra ainsi représenter des caractères sur 8 bits avec 7 bits relatifs au code ASCII et le huitième bit étant le bit de parité (que l'on peut placer, bien sûr, où l'on veut ; la coutume est de le placer en tête) :

(22)

Avec ce système, 2 caractères différant par 1 du code ASCII diffèrent aussi par le bit de parité donc dmin

= 2. Ce code ne permet donc que la détection des erreurs simples. On peut améliorer la protection contre les erreurs en effectuant également un contrôle de parité "longitudinal" par opposition au contrôle de parité précédent appelé "vertical" (LRC = Longitudinal Redundancy Check ; VRC = Vertical Redundancy Check) en ajoutant un caractère de contrôle tous les b blocs :

La transmission série des blocs sera donc :

01100000 00100001 --- 11001111 01000010 --->

contrôle ! O B

Avec ce système, deux groupes de blocs différant par 1 bit d'information utile diffèrent aussi par le bit VRC, par le bit LRC et par le bit LRC+VRC. On a donc dmin = 4 ce qui permet la détection des erreurs simples et doubles et la correction des erreurs simples.

codes polynômiaux

Les codes polynômiaux sont des codes linéaires systématiques qui permettent la détection des erreurs. Ils sont très utilisés dans les procédures actuelles de transmission de données. Soit un message de m bits utiles :

où la numérotation des bits est quelque peu différente de celle utilisée jusqu'à présent (mais traditionnelle dans l'utilisation des codes polynômiaux).. Au message X, on associe le polynôme :

X(z) = x0 + x1 z + x2z2 + ...+ xm-1 zm-1

De tels polynômes peuvent être ajoutés (modulo 2) et multipliés suivant les règles booléennes. Un code polynomial est un code linéaire systématique tel que chaque mot du code est représenté par des polynômes Y(z) multiples d'un polynôme H(z) appelé polynôme générateur :

Y(z) = Q(z).H(z)

(23)

Examinons comment on passe de l'information utile (m bits) représentée par un polynôme X(z) à

l'information codée (n bits) représentée par le polynôme Y(z). On définira donc un code polynomial (n,m) et on ajoutera à l'information utile r = n-m bits de contrôle. On pose :

X(z) = x0 + x1 z + x2z2 + ...+ xm-1 zm-1

H(z) = h0 + h1z + h2z2 + ... + zr polynôme générateur de degré r

Le polynôme zr X(z) est un polynôme de degré m + r - 1 = n - 1. Il comporte n termes dont les r premiers sont nuls. Effectuons la division polynomiale de zr X(z) par H(z) :

zr X(z) = Q(z).H(z) + R(z)

où R(z) est un polynôme de degré r-1, reste de la division. Puisque l'addition modulo 2 est identique à la soustraction modulo 2, on a

Y(z) = Q(z).H(z) = zr X(z) + R(z)

Y(z) est le polynôme associé au mot-code. Il comporte n termes et est de degré n-1.

exemple : code polynomial (7,4), de polynôme générateur H(z) = 1 + z + z3. Une information utile correspond au polynôme X(z) = x0 + x1z + x2z2 + x3z3. La division de zr X(z) par H(z) conduit aux résultats suivants :

Q(z) = x3z3 + x2z2 +(x1 + x3)z + x0 + x2 + x3 R(z) = (x1 + x2 + x3)z2 + (x0 + x1 + x2)z + x0 + x2 + x3

Y(z) = x3z6 + x2z5 + x1z4 + x0z3 + (x1 + x2 + x3)z2 + (x0 + x1 + x2)z + x0 + x2 + x3 d'où le mot de code (x3 x2 x1 x0 a2 a1 a0) avec

a2 = x1 + x2 + x3 a1 = x0 + x1 + x2 a0 = x0 + x2 + x3 d'où la matrice G du code

Les principaux codes polynomiaux utilisés en téléinformatique sont :

code CCITT V41, polynôme générateur H(z) = z16 + z12 + z5 + 1 ; utilisation dans la procédure HDLC

code CRC 16, polynôme générateur H(z) = z16 + z15 + z2 + 1 ; utilisation dans la procédure BSC, avec codage EBCDIC

code CRC 12, polynôme générateur H(z) = z12 + z11 + z3 + z2 + z + 1 ; utilisation dans la procédure BSC, avec codage sur 6 bits

code ARPA, polynôme générateur H(z) = z24 + z23+ z17 + z16 + z15 + z13 + z11 + z10 + z9 + z8 + z5 + z3 +

(24)

1

code Ethernet, polynôme générateur H(z) = z32 + z26 + z23 + z22 + z16 + z12 + z11 + z10 + z8 + z7 + z5 + z4 + z2 + z + 1

cas particulier : Un code cyclique est un code polynomial (n,m) tel que son polynôme générateur H(z) divise zn + 1

zn + 1 = H(z)Ω(z)

Ω(z) est un polynôme de degré n. Les codes cycliques possèdent la propriété fondamentale suivante : une permutation circulaire d'un mot du code est un mot du code.

Exercices et tests : Exercice 22, Exercice 23, Exercice 24, Exercice 25, Exercice 26, Exercice 27, Exercice 28, Exercice 29, Exercice 30, Exercice 31, QCM24, QCM25, QCM26, QCM27, QCM28, QCM29, QCM30

(25)

Modes de transmission

Sommaire :

Transmissions parallèle et série

Modes d'exploitation d'une voie de transmission Transmissions asynchrone et synchrone

Transmission par signaux numériques Modulation et démodulation

Transmissions parallèle et série

transmission parallèle

Les ordinateurs manipulent non pas des bits isolés, mais des mots de plusieurs bits aussi bien pour le calcul que pour le stockage. On est donc conduit à imaginer un système de transport dans lequel les différents bits d'un mot sont véhiculés en parallèle. Cela implique que pour des mots de N bits il faut N lignes de transmission.

Cette possibilité comporte des inconvénients évidents :

les lignes nécessitent une masse métallique délirante à grande distance

non synchronisation des bits transportés à grande distance

Pour ces raisons, à grande distance, la transmission parallèle n'est pas employée ; elle peut l'être, par contre, entre un ordinateur et des périphériques proches (imprimante parallèle par exemple).

Une autre possibilité, plus sophistiquée, est la transmission parallèle de signaux sur des canaux de fréquences différentes ; en fait, comme on le verra plus loin, cette possibilité correspond au multiplexage en fréquence.

transmission série

Dans ce mode, les bits sont transmis les uns derrière les autres, ce qui nécessite une "sérialisation" effectuée par une logique de transmission dont la pièce maîtresse n'est autre qu'un registre à décalage dont le fonctionnement est rythmé par une horloge.

(26)

horloge d'émission et une horloge de réception qui doivent fonctionner en synchronisme parfait.

Exercices et tests : QCM15

Modes d'exploitation d'une voie de transmission

Trois modes d'exploitation peuvent être définis sur une liaison point à point reliant deux stations émettrices/réceptrices:

mode simplex : l'une des stations émet et l'autre reçoit. La communication est donc unidirectionnelle pure.

mode semi-duplex (half duplex ou alternatif) : la communication est unidirectionnelle, mais le sens de transmission change

alternativement : une station émet, l'autre reçoit ; puis c'est la station réceptrice qui devient émettrice et réciproquement ; etc...

(27)

recevoir simultanément. Un moyen répandu (mais pas le seul) de permettre cette transmission à double sens est le multiplexage en fréquence : la plage de fréquence comporte deux bandes, l'une pour un sens, l'autre pour l'autre sens :

Transmissions asynchrone et synchrone

transmission asynchrone

Elle consiste en la transmission d'une succession de blocs courts de bits (1 caractère - en grisé sur la figure ci- dessous) avec une durée indéfinie entre l'envoi de deux blocs consécutifs. Un bit START annonce le début du bloc ( polarité inverse de celle de la ligne au repos - idle), un ou deux bits STOP annoncent la fin du bloc (polarité inverse de celle du bit STOP). Un bit de parité est

Pour ce type de transmission, les débits sont normalisés : - blocs de 11 bits : 110 b/s ;

- blocs de 10 bits : 300, 600, 1200, 2400, 3600, 4800, 9600, 19200 b/s.

transmission synchrone

Ce type de transmission est bien adapté aux données volumineuses et aux nécessités de transmission rapide.

L'information est transmise sous la forme d'un flot continu de bits à une cadence définie par l'horloge d'émission. Le flot de bits est réparti cependant en trames qui peuvent être de longueur variable ou de longueur fixe. Les trames doivent être précédées d'un motif de bits annonçant un début de trame et, éventuellement se terminer par un motif analogue. Ce motif de bits ne doit pas évidemment être confondu avec une portion de la zone de données. On emploie à cet effet la technique du bit-stuffing que nous expliquons sur un cas particulier.

(28)

drapeau. Pour éviter que ce motif ne se retrouve à l'intérieur de la trame, on convient de remplacer chaque groupe de cinq "1" successifs par 111110 ; à la lecture, chaque fois que l'on trouvera le motif 111110, on enlèvera le "0".

Comme nous l'avons déjà signalé, l'horloge de réception doit être synchrone avec l'horloge d'émission. Pour résoudre ce problème on peut envisager deux solutions :

- solution 1 (mauvaise) : transmettre sur deux canaux parallèles l'information et l'horloge ; cette solution est à rejeter car en dehors du fait qu'elle nécessite une bande passante non négligeable, sur longue distance, les signaux des deux canaux se désynchronisent.

- solution 2 (bonne) : intégrer l'horloge à l'information : emploi d'un encodage particulier comme on le verra plus loin.

Exercices et tests : Exercice 18, QCM16

Transmission par signaux numériques

Après numérisation de l'information, on est confronté au problème de la transmission des "0" et des "1". Une première possibilité est l'utilisation de signaux numériques ce qui paraît logique (on verra que des signaux analogiques peuvent aussi convenir).

Il s'agit donc de faire correspondre un signal numérique pour le "0" et un autre signal numérique pour le "1". Il y a plusieurs manières de procéder. Nous donnons ci-dessous quelques exemples (du plus simple vers le plus compliqué).

- codes NRZ (Non Retour à Zéro), RZ (Retour à Zéro), bipolaire NRZ et RZ

a) NRZ : le codage est simple : un niveau 0 pour le "0", un niveau V0 pour le "1"

b) RZ : chaque "1" est représenté par une transition de V0 à 0.

c) bipolaire NRZ : alternativement, un "1"

est codé positivement, puis négativement

d) bipolaire RZ : même traitement que précédemment.

- codes biphases : le signal d'horloge et le signal de données sont convolués.

(29)

contre par comparaison au codage NRZ

a) codage biphase cohérent ou Manchester : le "0" est représenté par une transition positive-négative et le "1" par une

transition négative-positive.

b) codage biphase différentiel : saut de phase de 0 pour un "0" et saut de phase de π pour un "1"

Pour ces codages, il est important de vérifier que les fréquences transportées se trouvent dans la bande passante car ils ne doivent pas subir un trop fort affaiblissement. Pour un codage donné d'une valeur binaire (un octet par

exemple), le signal est décomposé en composantes sinusoïdales de Fourier et le spectre des fréquences est établi :

En effectuant cette opération pour toutes les valeurs possibles et en les combinant, on obtient le spectre du code.

Quelques allures de ces spectres sont données ci-dessous.

Suivant les voies de transmission utilisées, il est alors possible de voir si le codage convient ou pas. En particulier, les codes NRZ et RZ possèdent l'inconvénient de posséder une harmonique non négligeable à la fréquence zéro

(30)

Par ailleurs et d'une manière générale, les signaux numériques possèdent un très gros inconvénient : ils se déforment à grande distance (effet capacitif des lignes) :

ce qui signifie que le transport par des signaux numériques n'est possible qu'à courte distance. Pour des longues distances, il faut employer une autre méthode : la modulation .

Exercices et tests : Exercice 13, Exercice 20, Exercice 32, Exercice 38, Exercice 39, QCM17

Modulation et démodulation

La modulation consiste à utiliser une onde "porteuse" sinusoïdale : v(t) = V sin(ωt + Φ)

dans laquelle on va modifier certains paramètres pour représenter les "0" et les "1" :

modification de V (modulation d'amplitude)

modification de ω (modulation de fréquence)

modification de Φ (modulation de phase)

a) signal numérique à transporter en NRZ

b) modulation d'amplitude

c) modulation de fréquence

(31)

phase

On peut aussi imaginer une combinaison des différents types de modulation, par exemple, la combinaison d'une modulation d'amplitude et d'une modulation de phase (dans la figure ci-dessous, cette combinaison permet d'avoir 8 signaux différents, chaque signal transportant chacun 3 bits) :

Pour les longues distances, la solution de la modulation est quasi-générale. Une liaison télé-informatique classique (en modulation) est représentée ci-dessous :

(32)

ETCD : Equipement Terminal de Circuit de Données Exercices et tests : QCM18, QCM19, QCM20

(33)

Commutation et Multiplexage

Sommaire :

Principe de la commutation Types de commutation Multiplexage

Voies Numériques Multiplexées

Principes de la commutation

Pour la communication entre usagers, la commutation est essentielle. Il est en effet impensable de relier chaque usager à tous les autres. En effet, si l'on voulait relier n stations directement à chacune d'elles, il faudrait établir n(n-1)/2 liaisons ce qui est impensable au niveau planétaire.

On est conduit logiquement à construire les réseaux à partir de nœuds de commutation. Ces nœuds de commutation sont chargés d'acheminer dans la bonne direction les informations qu'ils reçoivent. Cette fonctionnalité est appelée routage.

Types de commutation

En fait, la commutation peut se concevoir de manières différentes

commutation de circuits : elle consiste à réquisitionner, pour une communication, des tronçons de réseau pour assurer une liaison de bout en bout ; les tronçons sont liés les uns aux autres à chaque nœud de commutation ; la communication terminée, les tronçons sont libérés et disponibles pour une nouvelle commutation. Cette méthode est bien connue en téléphonie.

illustration

Références

Documents relatifs

Nous pr´ esentons ici son int´ erˆ et sur l’exemple des ondes gravito-capillaire ` a la surface de l’eau : avec uniquement deux transducteurs pi´ ezo´ electriques (moins

Si n est un entier au moins égal à 2, on considère dans le plan les n 2 points de coordonnées (i, j) avec.. Trouver pour n variant de 2 à 10 de bonnes valeurs pour

Lorsqu’un parcours est obtenu pour une valeur n=p, avec un départ D et une arrivée A, il suffit de trouver un parcours avec les seuls points du périmètre de p+2 et de prévoir

Vérification graphique : Utilisation de GeoGebra Il faut trouver la valeur du rayon du cylindre qui donne comme volume

L’élaboration de la base de données telle qu’elle est prévue dans le présent projet constitue une partie de ce qui devrait être un vaste chantier de

 Obtenir une figure de diffraction (en utilisant des moyens très simples, peu coûteux) de manière à pouvoir déterminer le mieux possible la largeur d'une fente très fine

Le souhait du propriétaire ne sera donc pas satisfait s’il installe les 6 panneaux solaires car la surface maximale de panneaux solaires qu’il peut installer, 36 m 2 , est inférieure

Exprimer l'avancement final x f de la réaction entre l'acide AH et l'eau en fonction de  , des conductivités molaires ioniques utiles et du volume V S (on pourra s'aider