CHAPITRE 1: Positionnement du projet SWEAT et état de l'art des méthodologies
III. Méthodologies d'analyses
Les différentes méthodologies d'analyses ioniques sont explicitées plus en détail ci-après afin
d’entrevoir leurs avantages ainsi que leurs limites analytiques, et, ainsi, de définir notre
positionnement propre et les axes de développement qui en découlent.
III.1. Spectroscopie
22
La spectrophotométrie d’émission de flamme est la méthode de dosage des éléments
alcalins et alcalino-terreux la plus ancienne. Elle est apparue à la fin du 19
èmesiècle. Son
principe repose sur la mesure du spectre lumineux issu de l’émission atomique. En effet,
lorsque la solution à analyser est vaporisée au sein d’une flamme, les atomes sont soumis à
de hauts niveaux énergétiques, permettant aux électrons des sous-couches d’atteindre un
état excité. Lorsqu’ils retournent à leur état fondamental, les électrons de la couche externe
libèrent l’énergie accumulée sous forme de photons, en émettant de la lumière à une
longueur d’onde caractéristique de leur structure électronique. C’est l’émission atomique
(Figure 8).
A titre indicatif, le sodium émet de la lumière à une longueur d’onde de 589 nm, le
potassium à 767 nm. La radiation ainsi émise traverse un monochromateur qui isole la
longueur d’onde propre à l’analyse souhaitée (par exemple, 589 nm pour le sodium), et,
finalement, un photo-détecteur convertit le signal lumineux en signal électrique
proportionnel à la concentration de l’espèce ionique mesurée [19]. Bien que peu coûteuse et
reposant sur un appareillage simple, la spectroscopie d’émission de flamme souffre
cependant de certains inconvénients. Effectivement, la dilution préalable des échantillons
engendre une perte de temps et un risque d’erreur. De plus, elle requiert une arrivée de gaz
(propane) entraînant des contraintes de sécurité fortes. De par sa structure, cette méthode
n’est pas facilement intégrable dans des outils d’analyses multiparamétriques, ni
automatisable, ce qui limite significativement les cadences d’utilisation [20].
23
III.1.B. Spectroscopie d'absorption
Vers 1950, près d’un demi-siècle après son apparition, la spectroscopie atomique se
développe et s’étend largement au domaine de la chimie analytique grâce aux principes
d’absorption et de fluorescence. Logiquement, la spectroscopie d’absorption atomique (AAS:
Atomic Absorption Spectroscopy) s’impose de plus en plus, grâce à ses performances
vis-à-vis de la sensibilité et de la rapidité d’analyse [21]. Bien qu’elle soit basée sur le même
fondement, énoncé par Kirchhoff, qui stipule que la matière émet de la lumière à la même
longueur d’onde qu’elle en absorbe, la spectroscopie d’absorption atomique correspond à
une mesure d’absorption et non d’émission de lumière. De ce fait, lorsqu’une source de
lumière émettant à une longueur d’onde bien précise (correspondant à la même longueur
d’onde caractéristique de l’élément à mesurer) affecte un atome libre à l’état fondamental,
cet atome va absorber la lumière et atteindre un état d’excitation. C’est l’absorption
atomique (Figure 9).
La diminution d’énergie lumineuse mesurée par un photo-détecteur est proportionnelle à la
concentration de l’espèce chimique ciblée [22]. L’atomisation de l’échantillon à analyser se
fait généralement des manières suivantes : flamme (FAAS: Flame Atomic Absorption
Spectroscopy), fours en graphite (ETAAS: Electrothermal Atomic Absorption Spectroscopy),
vapeur froide (CVAAS: Cold Vapor Atomic absorption Spectroscopy), génération d'hydrures
gazeux (HGAAS: Hydride Generation Atomic Absorption Spectroscopy).
Enfin, la spectroscopie de fluorescence (AFS: Atomic Fluorescences Spectroscopy), qui
combine les effets d’émission et d’absorption atomique, plus complexe à mettre en œuvre,
est moins répandue que les précédentes techniques, notamment à cause de l’apparition
tardive sur le marché d’appareils abordables.
Figure 9: Absorption atomique (Concepts, instrumentation and techniques in atomic absorption spectroscopy, R.D. Beaty and J. D. Kerber)
24
En plus de leur côté destructeur, les méthodes liées à la spectroscopie d’absorption
atomique souffrent d’un inconvénient majeur, à savoir leur incapacité à effectuer des
mesures simultanées de plusieurs éléments. Effectivement, à l’origine, ces appareils ont été
développés en vue de l’analyse d’un élément unique. Cette perspective est étroitement liée
à son principe : la source d’excitation lumineuse doit être hautement sélective envers un
élément précis. Même si plus récemment des sources permettant de doser plusieurs
éléments ont été développées, l’analyse multi-élément n’est possible que de manière
séquencée, ce qui engendre une augmentation du temps d’analyse, et inévitablement des
coûts supplémentaires [23].
III.1.C. Technologies à plasma
Face à ces problèmes, les technologies à plasma apparaissent dans les années 1980. La
spectroscopie d’émission atomique par plasma à couplage inductif (ICP AES: Inductively
Coupled Plasma Atomic Emission Specroscopy) utilise, comme son nom l’indique, un plasma
afin d’atomiser l’échantillon. La très haute température du plasma (entre 5000 et 8000 K
pour un plasma contre 3000-5000 K pour des flammes ou des fours) garantit une
atomisation complète de l’échantillon, permettant ainsi d’améliorer la sensibilité par rapport
aux techniques d’absorption [24]. Cette particularité permet à cette méthode d’être adaptée
à la détection de très faibles quantités : l’analyse de traces.
Le large spectre d’émission issu du plasma couplé à des polychromateurs permet une
analyse multi-élément rapide. Il est possible de mesurer avec cette technique 30 ou 40
éléments en des temps relatifs à la minute [25].
Ces appareils, dédiés à l’analyse de traces, ont été plus récemment appariés à la
spectroscopie de masse, dont le principe de séparation des éléments est fonction de leur
charge et leur masse [26]. Leurs performances sont équivalentes à celles de techniques plus
« ancestrales » (FAAS, ETAAS), mais ces dispositifs restent chers et complexes à mettre en
œuvre.
25
III.1.D. La spectroscopie et l'analyse de fluides biologiques
Dans le but de déterminer la concentration d’ions métalliques dans des fluides biologiques,
bien que la spectrophotométrie d’émission de flamme soit encore de nos jours considérée
comme une référence dans le monde de la chimie analytique, l’ETAAS est la technique la
plus utilisée (Figure 10) [27]. Elle est la plus pertinente si l’on considère le prix du dispositif,
sa complexité de mise en œuvre et ses performances.
III.2. Chromatographie
Parallèlement à la spectroscopie atomique, les premiers concepts relatifs à la
chromatographie ont vu le jour au début des années 1900. Plus précisément, sa découverte
est attribuée à Tswett en 1903. La chromatographie est, tout comme la spectroscopie
atomique, largement répandue dans le domaine de la chimie analytique. C’est un terme
générique qui regroupe une multitude de techniques de séparation physico-chimique, ayant
en commun la distribution d’une espèce chimique entre une phase mobile et une phase
stationnaire. Elle est scindée en deux branches principales, qui sont fonction de la nature de
chacune des deux phases : la chromatographie en phase gazeuse et la chromatographie en
phase liquide [28]. Il faudra malgré tout attendre 1941 pour que la chromatographie en
Figure 10: Méthodes de spectroscopie atomique appliquée à la spéciation de fluides biologique [27]
26
phase liquide émerge concrètement (Martin et Synge), et 1952 pour la chromatographie en
phase gazeuse (Martin et James).
III.2.A. Chromatographie en phase gazeuse
Dans le cas de la chromatographie en phase gazeuse (GC), l’échantillon analysé est
transporté à travers une colonne (phase stationnaire) via un gaz porteur inerte (phase
mobile). Les affinités chimiques induites par les propriétés d’adsorption de la phase
stationnaire permettent, par rétention, de ralentir la progression des composés, et ce de
manière spécifique. Un composé dont l’affinité avec la phase stationnaire est forte mettra
d’autant plus de temps à la traverser. Cette grandeur est définie comme le « temps de
rétention ». A la sortie de la colonne, un détecteur permet de mesurer la quantité de chacun
des constituants. Un chronogramme permet de visualiser la quantité des composés en
fonction du temps de rétention (Figure 11) :
Figure 11: Exemple de chronogramme (http://www.restek.com/chromatogram)
27
III.2.B. Chromatographie en phase liquide
La chromatographie en phase liquide (LC) utilise un liquide sous pression en tant que phase
mobile. La phase stationnaire est caractérisée par une fine granulométrie. Plus le diamètre
des grains est faible, plus la surface d’échange avec la phase mobile est importante (pour un
même volume), ce qui engendre une meilleure résolution et un seuil de détection plus bas.
La LC comprend également plusieurs types, qui eux, dépendent des méthodes de rétention
et donc de la nature de la phase stationnaire.
Une des formes de chromatographie en phase liquide couramment utilisée pour le dosage
des ions est la chromatographie ionique. La rétention est ici contrôlée par les interactions
entre les ions du soluté (échantillon) et les contre-ions de la phase stationnaire. Cette phase
est la plupart du temps composée de grains de polymère qui ont la particularité de créer des
groupes ioniques à leur surface. Ainsi, suivant l’importance de l’interaction électrostatique
entre la colonne et le soluté, la séparation aura lieu plus ou moins facilement. Au vu de la
nature du soluté, une détection conductimétrique est principalement utilisée dans ce type
de technique (Figure 12). Cependant, c’est un type de chromatographie relativement difficile
à exploiter, qui est souvent utilisé pour l’analyse d’anions pour lesquels il n’existe pas
d’autres méthodes analytiques rapides
Figure 12: Chromatographe ionique Methrom (http://www.metrohm.fr/chromatographie_ionique)
28
Les techniques de chromatographie, que ce soit en phase gazeuse ou en phase liquide,
offrent des performances analytiques élevées similaires, mais se différencient par la nature
de l’échantillon analysable. En GC, il n’est possible d’analyser que des substances volatiles,
ou qui peuvent être évaporées intactes. Environ 20% des composés organiques connus
peuvent être analysés par ce biais-là sans traitements préalables. En LC, l’échantillon doit
simplement être dissout dans un solvant, et la plupart des composés ioniques organiques et
inorganiques satisfont à cette condition [29].
III.3. L’électrochimie
L’électrochimie décrit des phénomènes situés à mi-chemin entre la chimie et l’électronique.
Les systèmes électrochimiques comportent des interfaces entre des phases conductrices
d’ions (liquides le plus souvent) et des phases conductrices d’électrons (solides métalliques,
principalement). Ses premiers balbutiements eurent lieu au début des années 1800 avec la
découverte de la pile électrochimique par Alessandro Volta. Ses applications recouvrent des
domaines larges: métallurgie (traitement de surfaces, élaboration de matériaux), stockage
d'énergie (piles et accumulateurs) et analyse (capteurs électrochimiques). Grâce à la
découverte des membranes sélectives au cours des années 1930 [30], les ISE (Ion Sensitive
Electrodes) émergent en tant qu’outil analytique dans les années 1980 [31]. Ainsi, de nos
jours, la plupart des laboratoires utilisent des dispositifs de mesures potentiométriques à
base d’électrodes sensibles aux ions, notamment dans le cas du dosage de l’ion sodium et de
l’ion potassium (Figure 13) [32].
Figure 13: Analyseur d'électrolyte multi-paramétrique dédié aux fluides corporels (https://www.lachema.com)
29
Dans les années 1990, le fameux capteur de glucose fait son apparition et permet aux
capteurs électrochimiques de s'intégrer dans le marché des dispositifs médicaux. Basé sur un
mécanisme de détection ampérométrique, il permet de diagnostiquer des cas de diabètes en
mesurant le taux de glucose dans le sang (Figure 14
)[33]. Son principe est développé plus
loin, dans la partie consacrée aux capteurs ampérométriques.
L’électrochimie regroupe quatre disciplines principales, à savoir: l’ampérométrie (mesure de
courant), la conductimétrie (mesure de conductivité), l'impédimétrie (mesure d'impédance)
et la potentiométrie (mesure de potentiel). Bien que les différents principes
électrochimiques soient discutés plus loin dans le manuscrit, nous nous focaliserons plus
particulièrement sur la potentiométrie, qui est particulièrement bien adaptée au dosage
ionique, et qui a su s'imposer dans le domaine de la chimie analytique, notamment au
niveau de l'analyse des fluides biologiques (sang, plasma, etc..). Cette technique consiste à
mesurer la différence de potentiel créée par la présence d’ions en solution entre deux
électrodes. Une de ces deux électrodes est dite « de référence », ce qui implique, de par sa
composition, une stabilité et une indépendance de son potentiel vis-à-vis de la composition
de la solution. L’autre électrode dispose d’un matériau sensible envers l’ion à analyser. Cela
signifie qu’elle possède des affinités chimiques réversibles avec une espèce cible, et son
potentiel dépendra de l’activité de l’ion à doser (Figure 15) :
30
Le signal électrique issu d’un système à électrode sélective est proportionnel au logarithme
de l’activité de l’ion ciblé contenu dans la solution, et ce, suivant la loi de Nernst:
= + ln ( )
Équation 1Où E est le potentiel entre les deux électrodes, exprimé en Volts; E
0correspond à la
contribution du potentiel de l'électrode de référence, ainsi que du potentiel d'équilibre de la
demi-cellule sensible, exprimé en Volts; R est la constante des gaz parfaits; T la température;
la valence de l'ion mesuré; F la constante de Faraday; et A l'activité de l'ion ciblé. Le
potentiel E est alors une fonction linéaire du logarithme de l'activité A de l'ion ciblé.
L'activité A et la concentration C d'un ion sont liées par le coefficient d'activité tel que:
=
Équation 2Cette activité représente le rapport entre ions "actifs" et ions "libres". Ainsi, dans une
solution très diluée, les ions sont libres de se déplacer dans toutes les directions. Lorsque la
concentration augmente, ils se rapprochent et leur charge engendre des interactions
mutuelles: leur activité diminue. L'activité ne dépend donc pas que de la propre
concentration de l'ion ciblé, mais également de celle des autres ions présents dans la
solution, et donc, de sa force ionique. Cette notion est particulièrement importante car,
suivant la méthode de mesure choisie, il est possible d'assimiler (ou pas) l'activité à la
Figure 15: Schéma d’une mesure par électrode sélective (http://csrg.ch.pw.edu.pl/tutorials/ise/)
31
concentration. En effet, les mesures d'échantillons sont réalisées de deux manières
différentes: soit sur un échantillon dilué (potentiométrie indirecte), soit sur un échantillon
pur (potentiométrie directe). Dans le cas de la potentiométrie indirecte, l'échantillon est
dilué dans une solution dont la force ionique est connue, ce qui permet de doser la
concentration d'ions comme le sodium dans des milieux dont la force ionique est très
variable, comme par exemple, dans les urines. Cependant, il faut garder à l'esprit que
l'activité de l'ion mesuré est alors différente de celle de son milieu originel. Dans le cas de la
potentiométrie directe, l'activité vraie de l'échantillon est mesurée. A titre d'exemple, pour
un dosage ionique dans le plasma sanguin, qui contient un volume d'eau représentant 93%
du volume plasmatique, les mesures seront environ 7% supérieures à des mesures
effectuées par potentiométrie indirecte [34]. Le problème réside dans l'habitude qu'ont les
cliniciens à utiliser des valeurs issues de mesures par potentiométrie indirecte, qui
nécessitent des corrections en fonction du volume plasmatique vrai, ceci afin d'éviter, à titre
d'exemple, le diagnostic de fausses hyponatrémies (concentrations en ions sodium dans le
plasma anormalement basses). Bien qu'elle soit légèrement moins utilisée pour le dosage du
sodium dans le cas d'analyses biologiques médicales, comme le montre une étude réalisée à
l'échelle nationale par l' Agence Française de Sécurité Sanitaire des Produits de Santé entre
1999 et 2009 sur un panel d'environ 3500 laboratoires d'analyses biochimiques (Figure 16)
[35], la potentiométrie directe représente un avantage par rapport à la potentiométrie
indirecte au niveau de l'intégration des électrodes sélectives dans des appareils dits de
chimie "sèche". En effet, l'ajout d'un circuit d'eau nécessaire à la dilution des échantillons est
alors inutile.
Figure 16: Evolution de l'utilisation des méthodes de dosage du sodium pour 3500 laboratoires français entre 2005 et 2007 (Enquête AFSSAPS)
32
III.4. Limites analytiques
Les limites analytiques des différentes méthodes de dosage ionique précédemment
explicitées diffèrent plus par leurs capacités d'intégration et leur complexité de mise en
œuvre que par leurs performances analytiques. Il est évident que les techniques liées à la
spectroscopie et à la chromatographie nécessitent un équipement volumineux, onéreux, et
une prise en charge par un personnel qualifié. Ainsi, ce sont des méthodes qui sont
principalement dédiées à des laboratoires de pointe, particulièrement bien adaptées à la
détection d'éléments à l'état de traces. En contrepartie, et malgré un spectre de détection
extrêmement large, leurs perspectives d'intégration et de miniaturisation sont peu réalistes.
De plus, le recours à ce type de technique requiert un délai entre la collecte de l’échantillon
et son analyse, ainsi que, la plupart du temps, un traitement préalable de ce même
échantillon (dilution). Ces contraintes ne permettent pas un suivi en temps réel de
l’évolution de l’espèce chimique ciblée en fonction des contraintes environnementales liées
à la composition du fluide analysé (monitoring). Ce sont donc des méthodes d’analyse
ex-situ, inadaptées à des applications (notamment médicales) nécessitant des mesures in-vivo
[36]. A contrario, l'électrochimie et plus précisément la potentiométrie s’impose en tant que
candidate idéale pour la détection ionique en phase liquide. Elle se distingue des
précédentes techniques par sa simplicité, sa rapidité de mise en œuvre, son faible coût de
fabrication et ses performances. Les progrès récents de l'instrumentation couplés aux
avancées technologiques de micro-fabrication ont permis une augmentation de la sensibilité
et du rapport signal sur bruit, ce qui a engendré, d'une part, une amélioration des limites de
détection, et, d' autre part, une miniaturisation des détecteurs [37]. Grâce à ces avantages,
les capteurs électrochimiques offrent la possibilité d'effectuer des mesures directes d'ions
dans des matrices complexes en temps réel [38]. L'utilisation de ces capteurs dans le but de
mesurer en continu et en temps réel les propriétés d'espèces chimiques en solution est
significativement bénéfique à de nombreux secteurs (industriel, environnemental) car cette
approche évite la collecte d'échantillons ainsi que leur transport dans un laboratoire ex-situ
[39]. Ainsi, les analyses étant plus rapides (et donc moins chères) et surtout in-situ, de
nouveaux marchés ont vu le jour, contribuant à une production de ce type de capteurs à
l'échelle industrielle. Dès les années 1990 [40], les avancées majeures des micro-capteurs
électrochimiques ont ouvert la voie à de nouveaux champs d'analyse, notamment dans le
33