• Aucun résultat trouvé

CHAPITRE 1: Positionnement du projet SWEAT et état de l'art des méthodologies

III. Méthodologies d'analyses

Les différentes méthodologies d'analyses ioniques sont explicitées plus en détail ci-après afin

d’entrevoir leurs avantages ainsi que leurs limites analytiques, et, ainsi, de définir notre

positionnement propre et les axes de développement qui en découlent.

III.1. Spectroscopie

22

La spectrophotométrie d’émission de flamme est la méthode de dosage des éléments

alcalins et alcalino-terreux la plus ancienne. Elle est apparue à la fin du 19

ème

siècle. Son

principe repose sur la mesure du spectre lumineux issu de l’émission atomique. En effet,

lorsque la solution à analyser est vaporisée au sein d’une flamme, les atomes sont soumis à

de hauts niveaux énergétiques, permettant aux électrons des sous-couches d’atteindre un

état excité. Lorsqu’ils retournent à leur état fondamental, les électrons de la couche externe

libèrent l’énergie accumulée sous forme de photons, en émettant de la lumière à une

longueur d’onde caractéristique de leur structure électronique. C’est l’émission atomique

(Figure 8).

A titre indicatif, le sodium émet de la lumière à une longueur d’onde de 589 nm, le

potassium à 767 nm. La radiation ainsi émise traverse un monochromateur qui isole la

longueur d’onde propre à l’analyse souhaitée (par exemple, 589 nm pour le sodium), et,

finalement, un photo-détecteur convertit le signal lumineux en signal électrique

proportionnel à la concentration de l’espèce ionique mesurée [19]. Bien que peu coûteuse et

reposant sur un appareillage simple, la spectroscopie d’émission de flamme souffre

cependant de certains inconvénients. Effectivement, la dilution préalable des échantillons

engendre une perte de temps et un risque d’erreur. De plus, elle requiert une arrivée de gaz

(propane) entraînant des contraintes de sécurité fortes. De par sa structure, cette méthode

n’est pas facilement intégrable dans des outils d’analyses multiparamétriques, ni

automatisable, ce qui limite significativement les cadences d’utilisation [20].

23

III.1.B. Spectroscopie d'absorption

Vers 1950, près d’un demi-siècle après son apparition, la spectroscopie atomique se

développe et s’étend largement au domaine de la chimie analytique grâce aux principes

d’absorption et de fluorescence. Logiquement, la spectroscopie d’absorption atomique (AAS:

Atomic Absorption Spectroscopy) s’impose de plus en plus, grâce à ses performances

vis-à-vis de la sensibilité et de la rapidité d’analyse [21]. Bien qu’elle soit basée sur le même

fondement, énoncé par Kirchhoff, qui stipule que la matière émet de la lumière à la même

longueur d’onde qu’elle en absorbe, la spectroscopie d’absorption atomique correspond à

une mesure d’absorption et non d’émission de lumière. De ce fait, lorsqu’une source de

lumière émettant à une longueur d’onde bien précise (correspondant à la même longueur

d’onde caractéristique de l’élément à mesurer) affecte un atome libre à l’état fondamental,

cet atome va absorber la lumière et atteindre un état d’excitation. C’est l’absorption

atomique (Figure 9).

La diminution d’énergie lumineuse mesurée par un photo-détecteur est proportionnelle à la

concentration de l’espèce chimique ciblée [22]. L’atomisation de l’échantillon à analyser se

fait généralement des manières suivantes : flamme (FAAS: Flame Atomic Absorption

Spectroscopy), fours en graphite (ETAAS: Electrothermal Atomic Absorption Spectroscopy),

vapeur froide (CVAAS: Cold Vapor Atomic absorption Spectroscopy), génération d'hydrures

gazeux (HGAAS: Hydride Generation Atomic Absorption Spectroscopy).

Enfin, la spectroscopie de fluorescence (AFS: Atomic Fluorescences Spectroscopy), qui

combine les effets d’émission et d’absorption atomique, plus complexe à mettre en œuvre,

est moins répandue que les précédentes techniques, notamment à cause de l’apparition

tardive sur le marché d’appareils abordables.

Figure 9: Absorption atomique (Concepts, instrumentation and techniques in atomic absorption spectroscopy, R.D. Beaty and J. D. Kerber)

24

En plus de leur côté destructeur, les méthodes liées à la spectroscopie d’absorption

atomique souffrent d’un inconvénient majeur, à savoir leur incapacité à effectuer des

mesures simultanées de plusieurs éléments. Effectivement, à l’origine, ces appareils ont été

développés en vue de l’analyse d’un élément unique. Cette perspective est étroitement liée

à son principe : la source d’excitation lumineuse doit être hautement sélective envers un

élément précis. Même si plus récemment des sources permettant de doser plusieurs

éléments ont été développées, l’analyse multi-élément n’est possible que de manière

séquencée, ce qui engendre une augmentation du temps d’analyse, et inévitablement des

coûts supplémentaires [23].

III.1.C. Technologies à plasma

Face à ces problèmes, les technologies à plasma apparaissent dans les années 1980. La

spectroscopie d’émission atomique par plasma à couplage inductif (ICP AES: Inductively

Coupled Plasma Atomic Emission Specroscopy) utilise, comme son nom l’indique, un plasma

afin d’atomiser l’échantillon. La très haute température du plasma (entre 5000 et 8000 K

pour un plasma contre 3000-5000 K pour des flammes ou des fours) garantit une

atomisation complète de l’échantillon, permettant ainsi d’améliorer la sensibilité par rapport

aux techniques d’absorption [24]. Cette particularité permet à cette méthode d’être adaptée

à la détection de très faibles quantités : l’analyse de traces.

Le large spectre d’émission issu du plasma couplé à des polychromateurs permet une

analyse multi-élément rapide. Il est possible de mesurer avec cette technique 30 ou 40

éléments en des temps relatifs à la minute [25].

Ces appareils, dédiés à l’analyse de traces, ont été plus récemment appariés à la

spectroscopie de masse, dont le principe de séparation des éléments est fonction de leur

charge et leur masse [26]. Leurs performances sont équivalentes à celles de techniques plus

« ancestrales » (FAAS, ETAAS), mais ces dispositifs restent chers et complexes à mettre en

œuvre.

25

III.1.D. La spectroscopie et l'analyse de fluides biologiques

Dans le but de déterminer la concentration d’ions métalliques dans des fluides biologiques,

bien que la spectrophotométrie d’émission de flamme soit encore de nos jours considérée

comme une référence dans le monde de la chimie analytique, l’ETAAS est la technique la

plus utilisée (Figure 10) [27]. Elle est la plus pertinente si l’on considère le prix du dispositif,

sa complexité de mise en œuvre et ses performances.

III.2. Chromatographie

Parallèlement à la spectroscopie atomique, les premiers concepts relatifs à la

chromatographie ont vu le jour au début des années 1900. Plus précisément, sa découverte

est attribuée à Tswett en 1903. La chromatographie est, tout comme la spectroscopie

atomique, largement répandue dans le domaine de la chimie analytique. C’est un terme

générique qui regroupe une multitude de techniques de séparation physico-chimique, ayant

en commun la distribution d’une espèce chimique entre une phase mobile et une phase

stationnaire. Elle est scindée en deux branches principales, qui sont fonction de la nature de

chacune des deux phases : la chromatographie en phase gazeuse et la chromatographie en

phase liquide [28]. Il faudra malgré tout attendre 1941 pour que la chromatographie en

Figure 10: Méthodes de spectroscopie atomique appliquée à la spéciation de fluides biologique [27]

26

phase liquide émerge concrètement (Martin et Synge), et 1952 pour la chromatographie en

phase gazeuse (Martin et James).

III.2.A. Chromatographie en phase gazeuse

Dans le cas de la chromatographie en phase gazeuse (GC), l’échantillon analysé est

transporté à travers une colonne (phase stationnaire) via un gaz porteur inerte (phase

mobile). Les affinités chimiques induites par les propriétés d’adsorption de la phase

stationnaire permettent, par rétention, de ralentir la progression des composés, et ce de

manière spécifique. Un composé dont l’affinité avec la phase stationnaire est forte mettra

d’autant plus de temps à la traverser. Cette grandeur est définie comme le « temps de

rétention ». A la sortie de la colonne, un détecteur permet de mesurer la quantité de chacun

des constituants. Un chronogramme permet de visualiser la quantité des composés en

fonction du temps de rétention (Figure 11) :

Figure 11: Exemple de chronogramme (http://www.restek.com/chromatogram)

27

III.2.B. Chromatographie en phase liquide

La chromatographie en phase liquide (LC) utilise un liquide sous pression en tant que phase

mobile. La phase stationnaire est caractérisée par une fine granulométrie. Plus le diamètre

des grains est faible, plus la surface d’échange avec la phase mobile est importante (pour un

même volume), ce qui engendre une meilleure résolution et un seuil de détection plus bas.

La LC comprend également plusieurs types, qui eux, dépendent des méthodes de rétention

et donc de la nature de la phase stationnaire.

Une des formes de chromatographie en phase liquide couramment utilisée pour le dosage

des ions est la chromatographie ionique. La rétention est ici contrôlée par les interactions

entre les ions du soluté (échantillon) et les contre-ions de la phase stationnaire. Cette phase

est la plupart du temps composée de grains de polymère qui ont la particularité de créer des

groupes ioniques à leur surface. Ainsi, suivant l’importance de l’interaction électrostatique

entre la colonne et le soluté, la séparation aura lieu plus ou moins facilement. Au vu de la

nature du soluté, une détection conductimétrique est principalement utilisée dans ce type

de technique (Figure 12). Cependant, c’est un type de chromatographie relativement difficile

à exploiter, qui est souvent utilisé pour l’analyse d’anions pour lesquels il n’existe pas

d’autres méthodes analytiques rapides

Figure 12: Chromatographe ionique Methrom (http://www.metrohm.fr/chromatographie_ionique)

28

Les techniques de chromatographie, que ce soit en phase gazeuse ou en phase liquide,

offrent des performances analytiques élevées similaires, mais se différencient par la nature

de l’échantillon analysable. En GC, il n’est possible d’analyser que des substances volatiles,

ou qui peuvent être évaporées intactes. Environ 20% des composés organiques connus

peuvent être analysés par ce biais-là sans traitements préalables. En LC, l’échantillon doit

simplement être dissout dans un solvant, et la plupart des composés ioniques organiques et

inorganiques satisfont à cette condition [29].

III.3. L’électrochimie

L’électrochimie décrit des phénomènes situés à mi-chemin entre la chimie et l’électronique.

Les systèmes électrochimiques comportent des interfaces entre des phases conductrices

d’ions (liquides le plus souvent) et des phases conductrices d’électrons (solides métalliques,

principalement). Ses premiers balbutiements eurent lieu au début des années 1800 avec la

découverte de la pile électrochimique par Alessandro Volta. Ses applications recouvrent des

domaines larges: métallurgie (traitement de surfaces, élaboration de matériaux), stockage

d'énergie (piles et accumulateurs) et analyse (capteurs électrochimiques). Grâce à la

découverte des membranes sélectives au cours des années 1930 [30], les ISE (Ion Sensitive

Electrodes) émergent en tant qu’outil analytique dans les années 1980 [31]. Ainsi, de nos

jours, la plupart des laboratoires utilisent des dispositifs de mesures potentiométriques à

base d’électrodes sensibles aux ions, notamment dans le cas du dosage de l’ion sodium et de

l’ion potassium (Figure 13) [32].

Figure 13: Analyseur d'électrolyte multi-paramétrique dédié aux fluides corporels (https://www.lachema.com)

29

Dans les années 1990, le fameux capteur de glucose fait son apparition et permet aux

capteurs électrochimiques de s'intégrer dans le marché des dispositifs médicaux. Basé sur un

mécanisme de détection ampérométrique, il permet de diagnostiquer des cas de diabètes en

mesurant le taux de glucose dans le sang (Figure 14

)

[33]. Son principe est développé plus

loin, dans la partie consacrée aux capteurs ampérométriques.

L’électrochimie regroupe quatre disciplines principales, à savoir: l’ampérométrie (mesure de

courant), la conductimétrie (mesure de conductivité), l'impédimétrie (mesure d'impédance)

et la potentiométrie (mesure de potentiel). Bien que les différents principes

électrochimiques soient discutés plus loin dans le manuscrit, nous nous focaliserons plus

particulièrement sur la potentiométrie, qui est particulièrement bien adaptée au dosage

ionique, et qui a su s'imposer dans le domaine de la chimie analytique, notamment au

niveau de l'analyse des fluides biologiques (sang, plasma, etc..). Cette technique consiste à

mesurer la différence de potentiel créée par la présence d’ions en solution entre deux

électrodes. Une de ces deux électrodes est dite « de référence », ce qui implique, de par sa

composition, une stabilité et une indépendance de son potentiel vis-à-vis de la composition

de la solution. L’autre électrode dispose d’un matériau sensible envers l’ion à analyser. Cela

signifie qu’elle possède des affinités chimiques réversibles avec une espèce cible, et son

potentiel dépendra de l’activité de l’ion à doser (Figure 15) :

30

Le signal électrique issu d’un système à électrode sélective est proportionnel au logarithme

de l’activité de l’ion ciblé contenu dans la solution, et ce, suivant la loi de Nernst:

= + ln ( )

Équation 1

E est le potentiel entre les deux électrodes, exprimé en Volts; E

0

correspond à la

contribution du potentiel de l'électrode de référence, ainsi que du potentiel d'équilibre de la

demi-cellule sensible, exprimé en Volts; R est la constante des gaz parfaits; T la température;

la valence de l'ion mesuré; F la constante de Faraday; et A l'activité de l'ion ciblé. Le

potentiel E est alors une fonction linéaire du logarithme de l'activité A de l'ion ciblé.

L'activité A et la concentration C d'un ion sont liées par le coefficient d'activité tel que:

=

Équation 2

Cette activité représente le rapport entre ions "actifs" et ions "libres". Ainsi, dans une

solution très diluée, les ions sont libres de se déplacer dans toutes les directions. Lorsque la

concentration augmente, ils se rapprochent et leur charge engendre des interactions

mutuelles: leur activité diminue. L'activité ne dépend donc pas que de la propre

concentration de l'ion ciblé, mais également de celle des autres ions présents dans la

solution, et donc, de sa force ionique. Cette notion est particulièrement importante car,

suivant la méthode de mesure choisie, il est possible d'assimiler (ou pas) l'activité à la

Figure 15: Schéma d’une mesure par électrode sélective (http://csrg.ch.pw.edu.pl/tutorials/ise/)

31

concentration. En effet, les mesures d'échantillons sont réalisées de deux manières

différentes: soit sur un échantillon dilué (potentiométrie indirecte), soit sur un échantillon

pur (potentiométrie directe). Dans le cas de la potentiométrie indirecte, l'échantillon est

dilué dans une solution dont la force ionique est connue, ce qui permet de doser la

concentration d'ions comme le sodium dans des milieux dont la force ionique est très

variable, comme par exemple, dans les urines. Cependant, il faut garder à l'esprit que

l'activité de l'ion mesuré est alors différente de celle de son milieu originel. Dans le cas de la

potentiométrie directe, l'activité vraie de l'échantillon est mesurée. A titre d'exemple, pour

un dosage ionique dans le plasma sanguin, qui contient un volume d'eau représentant 93%

du volume plasmatique, les mesures seront environ 7% supérieures à des mesures

effectuées par potentiométrie indirecte [34]. Le problème réside dans l'habitude qu'ont les

cliniciens à utiliser des valeurs issues de mesures par potentiométrie indirecte, qui

nécessitent des corrections en fonction du volume plasmatique vrai, ceci afin d'éviter, à titre

d'exemple, le diagnostic de fausses hyponatrémies (concentrations en ions sodium dans le

plasma anormalement basses). Bien qu'elle soit légèrement moins utilisée pour le dosage du

sodium dans le cas d'analyses biologiques médicales, comme le montre une étude réalisée à

l'échelle nationale par l' Agence Française de Sécurité Sanitaire des Produits de Santé entre

1999 et 2009 sur un panel d'environ 3500 laboratoires d'analyses biochimiques (Figure 16)

[35], la potentiométrie directe représente un avantage par rapport à la potentiométrie

indirecte au niveau de l'intégration des électrodes sélectives dans des appareils dits de

chimie "sèche". En effet, l'ajout d'un circuit d'eau nécessaire à la dilution des échantillons est

alors inutile.

Figure 16: Evolution de l'utilisation des méthodes de dosage du sodium pour 3500 laboratoires français entre 2005 et 2007 (Enquête AFSSAPS)

32

III.4. Limites analytiques

Les limites analytiques des différentes méthodes de dosage ionique précédemment

explicitées diffèrent plus par leurs capacités d'intégration et leur complexité de mise en

œuvre que par leurs performances analytiques. Il est évident que les techniques liées à la

spectroscopie et à la chromatographie nécessitent un équipement volumineux, onéreux, et

une prise en charge par un personnel qualifié. Ainsi, ce sont des méthodes qui sont

principalement dédiées à des laboratoires de pointe, particulièrement bien adaptées à la

détection d'éléments à l'état de traces. En contrepartie, et malgré un spectre de détection

extrêmement large, leurs perspectives d'intégration et de miniaturisation sont peu réalistes.

De plus, le recours à ce type de technique requiert un délai entre la collecte de l’échantillon

et son analyse, ainsi que, la plupart du temps, un traitement préalable de ce même

échantillon (dilution). Ces contraintes ne permettent pas un suivi en temps réel de

l’évolution de l’espèce chimique ciblée en fonction des contraintes environnementales liées

à la composition du fluide analysé (monitoring). Ce sont donc des méthodes d’analyse

ex-situ, inadaptées à des applications (notamment médicales) nécessitant des mesures in-vivo

[36]. A contrario, l'électrochimie et plus précisément la potentiométrie s’impose en tant que

candidate idéale pour la détection ionique en phase liquide. Elle se distingue des

précédentes techniques par sa simplicité, sa rapidité de mise en œuvre, son faible coût de

fabrication et ses performances. Les progrès récents de l'instrumentation couplés aux

avancées technologiques de micro-fabrication ont permis une augmentation de la sensibilité

et du rapport signal sur bruit, ce qui a engendré, d'une part, une amélioration des limites de

détection, et, d' autre part, une miniaturisation des détecteurs [37]. Grâce à ces avantages,

les capteurs électrochimiques offrent la possibilité d'effectuer des mesures directes d'ions

dans des matrices complexes en temps réel [38]. L'utilisation de ces capteurs dans le but de

mesurer en continu et en temps réel les propriétés d'espèces chimiques en solution est

significativement bénéfique à de nombreux secteurs (industriel, environnemental) car cette

approche évite la collecte d'échantillons ainsi que leur transport dans un laboratoire ex-situ

[39]. Ainsi, les analyses étant plus rapides (et donc moins chères) et surtout in-situ, de

nouveaux marchés ont vu le jour, contribuant à une production de ce type de capteurs à

l'échelle industrielle. Dès les années 1990 [40], les avancées majeures des micro-capteurs

électrochimiques ont ouvert la voie à de nouveaux champs d'analyse, notamment dans le

33

secteur biomédical [41]. Des micro-capteurs intégrés permettent alors de répondre à un

besoin grandissant de monitoring clinique en temps réel, (mesures d'espèces chimiques liées

à un état physiologique). Ces applications récentes permettent un suivi médical, et assurent

également la protection de personnes en conditions extrêmes (sécurité, sport). Quelle que

soit l'application, les capteurs biomédicaux se doivent d'être portables tout en étant le

moins intrusifs possible envers leurs utilisateurs [42]. L'arrivée de ces micro-capteurs

chimiques a donc permis d'ouvrir une nouvelle ère dans le monde de la chimie analytique.

Documents relatifs