• Aucun résultat trouvé

Le choix d’une architecture de réseaux de neurones dans le cadre de la

neu-rones dans le cadre de la linéarisation par

pré-distorsion

Dans l’optique de modéliser les caractéristiques de prédistorsion en amplitude et en phase d’un linéariseur, les réseaux de neurones non-bouclés à apprentissage su-pervisé représentent la solution la plus simple à mettre en œuvre et la plus robuste [10, 28, 80, 82, 83, 115, 120]. Plus particulièrement, l’architecture de réseaux de neurones non-bouclés à apprentissage supervisé appelée Perceptron Multi-Couches (ou MLP pour

Multi-Layers Perceptron), une des plus utilisées et des plus étudiées à l’heure actuelle, est reconnue pour sa précision et a déjà été implantée avec succès [79–83, 121]. C’est pourquoi le MLP est le modèle de réseau de neurones retenu pour la suite des travaux. L’étude des réseaux de neurones dans le cadre de la modélisation de caractéristiques de prédistorsion présentée dans la suite du chapitre est donc limitée aux réseaux non-bouclés à apprentissage supervisé et au cas particulier du Perceptron Multi-Couches.

3.2.1 Les réseaux de neurones non-bouclés à apprentissage

su-pervisé

3.2.1.1 Propriétés fondamentales

Les réseaux de neurones à apprentissage supervisé ont pour propriété d’être des approximateurs universels : toute fonction bornée suffisamment régulière peut être ap-prochée uniformément, avec une précision arbitraire, dans un domaine fini de l’espace de ses variables, par un réseau de neurones comportant une couche de neurones cachés en nombre fini, possédant tous la même fonction d’activation, et un neurone de sortie linéaire [122–124].

En outre, un réseau de neurones non-bouclés à apprentissage supervisé, entraîné pour un nombre fini de couples (xi, y(xi)), a la capacité d’extrapoler les valeurs inter-médiaires et de réaliser ainsi une fonction continue à partir de données discrètes. Cette faculté est appelée généralisation. Même si cette propriété peut être la source d’erreurs d’approximation par surajustement (voir Annexe C), les réseaux de neurones non-bouclés à apprentissage supervisé restent d’excellents approximateurs sur un espace d’entrée bien défini.

Les réseaux de neurones non-bouclés à apprentissage supervisé sont également des approximateurs dits parcimonieux. A précision égale, ils nécessitent moins de para-mètres ajustables que les approximateurs universels couramment utilisés (polynomiaux par exemple). Plus précisément, le nombre de paramètres varie linéairement en fonction du nombre de variables de la fonction à approcher, alors qu’il varie exponentiellement pour la plupart des autres approximateurs [125].

Enfin, les réseaux des neurones non-bouclés à apprentissage supervisés peuvent être utilisés de manière logicielle ou être intégrés matériellement, directement au sein d’une application. Cette intégration peut se faire sous différentes formes : numérique, analogique, optoélectronique ou mixte. Ces méthodes d’intégration sont davantage étudiées dans la partie III.

II.3.2. LE CHOIX D’UNE ARCHITECTURE DE RÉSEAUX DE NEURONES DANS LE CADRE DE LA LINÉARISATION PAR PRÉDISTORSION

3.2.1.2 Contraintes d’utilisation

Les réseaux de neurones à apprentissage supervisé ayant la propriété d’approcher, de manière parcimonieuse, toute fonction non-linéaire suffisamment régulière, il peut être avantageux de les utiliser pour toute application nécessitant de trouver, par apprentissage, une relation non-linéaire entre des données. Pour cela, les conditions suivantes doivent nécessairement être remplies [10] :

— disposer d’échantillons de taille suffisamment grande et représentatifs ;

— s’assurer de l’intérêt réel d’un modèle non-linéaire pour l’application considérée ; — s’assurer de l’utilité d’un réseau de neurones plutôt qu’un autre approximateur

de fonctions non-linéaires ;

— étudier l’implantabilité du réseau de neurones choisi s’il doit être intégré au sein du système où il doit approcher un fonction spécifique.

Il peut être nécessaire de mettre en œuvre un pré-traitement des données si celles-ci ne sont pas exploitables directement par le réseau de neurones, et/ou un post-traitement pour que les sorties soient utilisables par le circuit suivant. Dans ce cas, il est nécessaire d’évaluer la complexité des structures de mise en forme et l’impact sur les temps de calcul du système complet et de remettre en perspective les deux dernières conditions.

Les réseaux de neurones non-bouclés à apprentissage supervisé représentent donc bien une solution adaptée aux problématiques de modélisation de caractéristiques de prédistorsion. En effet, les données à disposition sont de taille suffisamment grande et représentative. De plus, les fonctions à modéliser sont, par principe, non-linéaires. En outre, ils offrent, grâce à leur grande précision et leur caractère parcimonieux, des capacités de modélisation supérieures aux autres approximateurs non-linéaires (voir Annexe B).

3.2.2 Le Perceptron Multi-Couches

3.2.2.1 Structure

Le Perceptron Multi-Couches est une architecture particulière de réseaux de neu-rones non-bouclés à apprentissage supervisé, très utilisée, reconnue pour sa précision et implantable [79–83]. Sa structure est représentée sur la figure II.3.3. Il est constitué d’un neurone d’entrée, d’une couche cachée constituée deNj neurones et d’un neurone de sortie linéaire. Les neurones de la couche cachée, dont le nombre optimal est déterminé dans la suite du chapitre, génèrent en sortie une fonction non-linéaire de leur entrée, pondérée par un paramètre w1,i appelée “poids” ou “poids synaptique” (en relation avec les neu-rones biologiques) et sommée à un paramètreb1,i appelé “biais”. La fonction non-linéaire, appelée fonction d’activation, est généralement une fonction sigmoïdale telle que la tan-gente hyperbolique. La fonction de transfert du Perceptron Multi-Couches représenté sur la figure II.3.3 est ainsi :

y = n X i=1 w2,i·tanh(w1,ix+b1,i)+b2 (3.1) 61

II.3. MODÉLISATION DES CARACTÉRISTIQUES DE PRÉDISTORSION PAR RÉSEAUX DE NEURONES x w1,1 b1,1 w2,1 w1,2 b1,2 w2,2 w1,3 b1,3 w2,3 b2 y w1,n b1,n w2,n

Mult-1 Add-1 Tanh Mult-2 Add-2

Couche d’entrée

Couche cachée n neurones

Couche de sortie

FigureII.3.3 – Structure d’un Perceptron Multi-Couches à fonction

d’activation sigmoïdale

3.2.2.2 Entraînement et fonction d’erreur au sens des moindres carrés

L’apprentissage des MLP utilisés dans la suite du tapuscrit est réalisé grâce à l’algorithme de Levenberg-Marcquardt, présenté dans l’annexe C, qui permet de minimiser la fonction d’erreur au sens des moindres carrés de la modélisation. En appelant xi (i

J1;NK) le vecteur contenant les N valeurs de puissance d’entrée du linéariseur, y(xi) le vecteur contenant les valeurs de sorties (d’amplitude ou de phase), et g(xi, a1, a2, ..., ak) le vecteur contenant la réponse du réseau de neurones à une puissance d’entrée xi, la fonction d’erreur au sens des moindres carrés E – ou d’erreur quadratique moyenne – est :

E = 1 2 N X i=1 yi(xi)−g(xi, a1, a2, ..., ak)2 (3.2) Dans l’annexe C, différents algorithmes d’apprentissage sont présentés. L’algo-rithme de Levenberg-Marcquardt y est en particulier préconisé pour sa précision et sa rapidité de convergence [10, 126]. Les difficultés qui peuvent survenir lors des phases d’ap-prentissage et les solutions à mettre en œuvre pour les pallier sont également détaillées dans cette annexe.

La suite du chapitre présente l’exploitation des MLP dans le contexte de la li-néarisation d’amplificateurs de puissance. Leur capacité à modéliser avec précision les caractéristiques de commande du VGA et du déphaseur des trois amplificateurs présentés au chapitre I.1 est démontrée. Une étape, appelée calibrage, permet ensuite de déterminer le nombre optimal de neurones à intégrer dans la couche cachée. Enfin, le réseau de neu-62

II.3.3. EXPLOITATION DES RÉSEAUX DE NEURONES POUR LA LINÉARISATION D’AMPLIFICATEURS DE PUISSANCE rones ainsi élaboré est simulé au sein de l’architecture présentée sur la figure II.2.10 du chapitre II.2 afin de valider cette architecture innovante de linéariseur par prédistorsion à base de réseaux de neurones, capable de s’adapter à plusieurs amplificateurs de puissance.