• Aucun résultat trouvé

Chapitre IV : Développement, réalisation, et tests de nouvelles architectures de réseau

VI. Discussion et Conclusion

Pour la phase d’apprentissage nous avons déduit une corrélation de 0.99. Une valeur proche a été obtenue durant certaines expérimentations réalisées en phases d’apprentissage. Pour la phase de test nous avons obtenu une corrélation de 0.96, ce qui est une corrélation très satisfaisante en comparaison avec les résultats existants. Martin Slanina et ses collaborateurs dans l’article [52] ont réalisé la comparaison de quelques méthodes existantes avec DMOS par le calcul de coefficient de corrélation. Dans ce contexte, les résultats obtenus sont indiqués dans le Tableau 6 ci-dessous :

Nous constatons que les valeurs de corrélation ne dépassent pas 0.76.

Yubing Wang dans l’article [56] aussi a fait la comparaison des métriques les plus connues avec DMOS, et le tableau 7 présente les résultats :

Méthodes corrélation

WSNR -0.7517

SSIM -0.7443

MSE 0.4642

PSNR -0.6274

Tableau 6 : la comparaison de quelques méthodes existantes avec DMOS par le calcul de coefficient de corrélation

Quality Metric Mathematical Complexity

Correlation with Subj. Methods

Accessibility

PSNR Simple Poor Easy

MPQM(Moving

Pictures Quality Metric )

Complex Varying Not Available

VQM (Vidéo Quality Metric)

Very Complex Good Not Available

SSIM (Structural

SIMilarity)

Complex Fairly good Available (MATLAB)

NQM (noise quality measure )

Complex Unknown Not Available

En examinant les résultats du tableau 7, nous constatons qu’au niveau de la complexité que toutes les métriques sont complexes sauf le PSNR, au niveau de la corrélation pour MPQM est variante, pour VQM est bien, pour SSIM est assez bien et pour NQM est inconnue, et au niveau d’accessibilité sont toutes inaccessibles sauf PSNR et SSIM. Donc cette comparaison favorise notre résultat à tous les niveaux.

Le Callet et ses collaborateurs [57], ont travaillé avec un réseau de neurones. La corrélation obtenue à la phase de test, est de 80 %.

F-H Lin, R. M. Mersereau [1] ont travaillé avec une autre architecture de réseau de neurones avec des paramètres différents. La corrélation obtenue ne dépasse pas une valeur de 0.93.

Nous remarquons que l’apport des réseaux de neurones améliore la prédiction de la mesure de la qualité des vidéos de manière générale.

Nous avons, dans le cadre de développement des architectures de réseau de neurones, apporté une amélioration significative qui permet d’avoir une bonne corrélation en comparaison avec les études passées [1, 52, 56, 57]. Néanmoins, les réseaux de neurones présentent un inconvénient majeur de temps de calcul durant la phase d’apprentissage et de test par rapport aux autres techniques. Cette contrainte du temps de calcul pourrait être négligée dans des applications ne tenant pas compte des résultats en décision en temps réel.

Conclusion générale

Le domaine de la mesure de la qualité des images et vidéos numériques est très complexe [51], cependant, il n’existe pas de mesure quantitative objective de la qualité d’une image reconstruite après compression qui puisse indiquer parfaitement l’impression subjective d’un observateur humain, et il est, à ce jour, très difficile de faire une mesure objective qui a une bonne corrélation avec la perception humaine (la mesure subjective).

L’évaluation de la qualité de la vidéo joue un rôle important dans le traitement d’image et de la vidéo. Dans le but de changer le jugement de la perception humaine par l’évaluation de la machine, plusieurs recherches ont été réalisées au cours des deux dernières décennies, nous citons ici les plus connus :

*- HDR VDP (High Dynamic Range Visual Difference Predicator) [ 22] *- UIQI (Universal Image Quality Index ) [21]

*- SSIM (Structural SIMilarity) [19].

*- MPQM (Moving Picture Quality Metric) [24] *- DVQ (Digital Video Quality) [16,17]

Nous trouvons plus d’informations sur ces méthodes et d’autres méthodes dans le chapitre I. Notre objectif était d’avoir une estimation de la mesure subjective de la qualité de la vidéo numérique dégradée par les codeurs. Après une étude de l’état d’art (articles cités dans le chapitre I, nous avons opté d’estimer cette qualité par un réseau de neurones pour pouvoir espérer une mesure plus corrélée à la vision humaine. Pour se faire, nous avons commencé par identifier les paramètres les plus utilisés dans le domaine de traitement d’images. Par la suite nous avons optimisé l’architecture du réseau qui nous donne les meilleurs résultats, en changeant le nombre de paramètres fournit au réseau, le nombre des nœuds que contient chaque couche en commençant par la couche d’entrée, en passant par les couches cachées et la couche de sortie, et en essayant différentes fonctions d’apprentissage. Après plusieurs tentatives de test des modèles, nous avons pu développer un réseau (schématisé en Figure 18,

p. 78) qui nous a fourni des résultats peu satisfaisants en terme de la corrélation avec la perception humaine.

Par la suite, nous avons élaboré un deuxième modèle qui nous a apporté des améliorations significatives, mais non suffisantes. Ce modèle (schématisé en Figure 19, p. 79) est un réseau à huit paramètres en entrée (les paramètres utilisés sont la moyenne de DFT, l’écart type de DFT, La moyenne de la différence des coefficients de la Transformée en Cosinus Discrète DCT, l’écart type de la différence des coefficients DCT, la variance de l’énergie de la couleur, la luminance Y, la chrominance U et la chrominance V), avec une seul sortie, le DMOS. Les résultats obtenus (p. 80 et 81) ne sont pas satisfaisants. Suite à ces résultats, nous avons pensé à élaboré un troisième modèle (Figure 17, p. 75) dans lequel nous avons renforcé la phase d’apprentissage en ajoutant une deuxième sortie (qui est le PSNR) au deuxième modèle du réseau de neurones (Figure 19, p. 79). Les résultats obtenus (p. 84) sont meilleurs par rapport aux résultats existants [1, 52].

En perspective, nous espérons améliorer l’architecture du réseau de neurone et tester l’effet d’autres paramètres tels que : Colorfulness (CF), Motion vectors (MV), Spatial information (SI)

Références

[1] F-H Lin, R. M. Mersereau, (1999), Rate-quality tradeoff MPEG video encoder, Signal Processing : Image Communication, 14, 297-30

[2] Z. Wang, A. C. Bovik, (2006), Modern Image Quality Assessment, Morgan & Claypool Publishers, USA.

[3] M. Pinson, S. Wolf, (2003), Comparing subjective video quality testing methodologies. SPIE Video Communications and Image Processing Conference, Lugano, Switzerland. [4] J. M. Zurada, (1992), Introduction to artificial neural system, PWS Publishiner Company. [5] J. Malo, A. M. Pons, and J. M. Artigas, ( 1997), Subjective image fidelity metric based on

bit allocation of the human visual system in the DCT domain, Image and Vision Computing,

Vol. 15, pp. 535-548.

[6] A. B. Watson, J. Hu, and J. F. McGowan, (2001), Digital video quality metric based on

human vision, Journal of Electronic Imaging, Vol. 10, No. I, pp. 20-29.

[7] H.M. Sun, Y.K. Huang, (2009), Comparing Subjective Perceived Quality with Objective

Video Quality by Content Characteristics and Bit Rates, International Conference on New

Trends in Information and Service Science, niss, pp.624-629.

[8] Q .Huynh-Thu,M. Ghanbari, (2008) ,Scope of validity of PSNR in image/video quality

assessment, Electronics Letters, vol. 44,No.13,pp.800–801.

[9] Z .Wang, A.C.Bovik, (2009), Mean squared error: love it or leave it?, IEEE Signal Process Mag, vol.26, No.1,pp.98–117.

[10] H. R.Sheikh, A.C.Bovik, G.d. Veciana, (2005), An Information Fidelity Criterion for

Image Quality Assessment Using Natural Scene Statistics, IEEE TRANSACTIONS ON

IMAGE PROCESSING,vol. 14, NO. 12,pp. 2117- 2128.

[11] D.Juan,Y.Yinglin,X.Shengli, (2005), A New Image Quality Assessment Based On

HVS,Journal Of Electronics ,vol.22,No.3,pp.315-320.

[12] A.Bouzerdoum,A.Havstad,A.Beghdadi, (2004), Image quality assessment using a neural

network approach),the Fourth IEEE International Symposium on Signal Processing and

Information Technology,pp. 330-333.

[13] A.Beghdadi,B.Pesquet-Popescu, (2003), A new image distortion measure based on

wavelet decomposition, Proc.Seventh Inter.symp.Signal. Proces. its Appricatiom , Vol. 1, pp.

[14] Slanina, M. Ricny, V., (2008), Estimating PSNR without reference for real H.264/AVC

sequence intra frames, Radioelektronika, 18th International Conference, pp.1-4.

[15] ITU-R BT.500-10, (2002), Methodology for the subjective assessment of the quality of

television pictures.

[16] A. B. Watson, (1998), Toward a perceptual video quality metric. In Proceedings of SPIE Human Vision and Electronic Imaging III, volume 3299, pages 139–147.

[17] A. B. Watson, J. Hu & J. F. III. McGowan, (2001), DVQ : A digital video quality metric

based on human vision). Journal of Electronic Imaging, vol. 10, no. 1, pages 20–29.

[18] A. B. Watson, (1993), DCTune : A technique for visual optimization of DCT quantization

matrices for individual images). Society for Information Display Digest of Technical Papers,

vol. XXIV, pages 946–949.

[19] Z. Wang, A. C. Bovik, H. R. Sheikh & E. P. Simoncelli, (2004), Image Quality

Assessment:From Error Visibility to Structural Similarit. IEEE Transactions on Image

Processing, vol. 13, pages 600–612.

[20] Z. Wang, E. P. Simoncelli & A. C. Bovik,(2003), Multi-scale structural similarity for

image quality assessment. In Proceedings of IEEE Asilomar Conference on Signals,

Systems, and Computers, volume 2, pages 1398–1402.

[21] Z. Wang and A.C. Bovik, (2002), A universal image quality index. IEEE Signal Processing Letters, pages 81–84.

[22] R. Mantiuk, S. Daly, K. Myszkowski and H.P. Seidel. (2005), Predicting visible

differences in high dynamic range images-Model and its calibration. In Proceedings of SPIE-

IS&T Electronic Imaging, pages 204–214.

[23] I.P. Gunawan and M. Ghanbari, (2003), Reduced-reference picture quality estimation by

using local harmonic amplitude information. In Proceedings of London Communications

Symposium, pages 137–140.

[24] C. J. Van Den Branden Lambrecht, O.Verscheure, (1996), Perceptual Quality Measure

using a Spatio-Temporal Model of the Human Visual System. Proceedings of the SPIE, Vol

2668, pp. 450-461.

[25] C. J. van den Branden Lambrecht, (1996), Color Moving Pictures Quality Metric. In Proceedings of IEEE International Conference on Image Processing, pages 885–888.

[26] - M. Miyahara, K. Kotani, V.R. Algazi, (1998), Objective Picture Quality Scale (PQS)

For Image Coding. IEEE Transactions on communications, Vol XX, N° Y.

[27] S. M. Newhall, D. Nickerson & D. B. Judd, (1943), Final report of the O.S.A.

subcommittee on the spacing of the Munsell colors. J. Opt. Soc. Am., vol. 33, no. 7, pages

385–418.

[28] Oscar Moreira-Tamayo et Jos_e Pineda de Gyvez, (1996), Preprocessing Operators for

Image Compression Using Cellular Neural Networks. Dans IEEE International Conference on

Neural Networks, pages 1500-1505.

[29] Peter L. Venetianer et Tam_as Roska, (1998), Image compression by cellular neural

networks. IEEE transactions on circuits and systems I: fundamental theory and applications,

45:205-215.

[30] P. Le Callet, (2001), Critères objectifs avec référence de qualité visuelle des images

couleur.Thèse de doctorat, Ecole Polytechnique de l’Université de Nantes, 216 pages.

[31] Z. Wang, H. R. Sheikh & A. C. Bovik, (2002), No-reference perceptual quality

assessment of JPEG compressed images. In Proceedings of IEEE International Conference on

Image Processing, volume 1, pages 477–480.

[32] M. Carnec, (2004), Critères de qualité d’images couleur avec référence réduite

perceptuelle générique. Thèse de doctorat, Université de Nantes, Ecole Centrale de Nantes et

Ecole des Mines de Nantes, 218 pages.

[33] C. J. van den Branden Lambrecht, (1996), Perceptual models and architectures for

video coding applications. Thèse de doctorat, Ecole polytechnique fédérale de Lausanne.

[34] A. P. Bradley, (1999), A Wavelet Visible Difference Predictor. IEEE Transactions On Image Processing, vol. 8, no. 5, pages 717–730.

[35] N. Ponomarenko, M. Carli, V. Lukin, K. Egiazarian J. Astola, et F. Battisti, (2008),

Color image database for evaluation of image quality metrics. Dans International Workshop

on Multimedia Signal Processing, pages 403–408, Australia, Octobre.

[36] S. Haykin, (1994), Neural network: A comprehensive foundation, New York: Macmillan College Publishing Company.

[37] M. Riedmiller, (1994), Advanced supervised learning in multi-layer perceptrons from

back propagation to adaptive learning algorithms, In Int. journal of Computer Standards and

Interfaces, Special Issue on Neural Networks (5).

[38] M. Minoux, (1983), Programmation mathématique, théorie et algorithmes, tome 1, collection Technique et Scientifique des Télécoms., Dunod, Paris.

[39] C. Charalambous, (1992), Conjugate gradient algorithm for efficient training of artificial

[40] Y. Harkous, (1998), Application de réseaux de neurones à la modélisation de

composants et de dispositifs microndes non linéaires, Thèse de doctorat de l’université de

Limoges.

[41] C. ERNOULT, (1988), Performance of back-propagation on a parallel transputer-based

machine, Congrès Neuro-Nîmes 88, Nîmes, 15-17.

[42] D.E. RUMELHART, G.E. HINTON, R.J. WILLIAMS, (1986 ), Learning internal

representations by error backpropagation, Parallel Distributed Processing, D.E.

RUMELHART and J.L. Mc CLELLAND, Chap8, Bradford book - MIT Press.

[43] R. Battiti, (1992), First and Second Order Methods for Learning: Between Steepest

Descent Methods and Newton's Method, Neural Computation, 4, 141-166.

[44] P. Demartines, (1994), Analyse de données par réseaux de neurones auto-organisés,

thèse de l’Institut National Polytechnique de Grenoble.

[45] H. Demuth, M. Beale, and M. Hagan, (2009), Neural Network Toolbox™ 6, User’s

Guide, the MathWorks, Inc.

[46] G. Dreyfus, J-M. Martinez, M. Samuelides, M.B. Gordon, F. Badran, and S. Thiria, (2008), Apprentissage statistique : Réseaux de neurones : Cartes topologiques Machines à

vecteurs supports, eyrolles.

[47] S. E. Fahlman, (1988), Fast Learning Variations on Back-Propagation: An Empirical

Study, Proceedings of the Connectionist Models Summer School.

[48] G.H. Golub, D.P. O’Leary, (1976), Some history of the conjugate gradient and Lanczos

algorithms, SIAM Review, 31, 50-100.

[49] B. GOSSELIN, (1996), Application de réseaux de neurones artificiels a la

reconnaissance automatique de caractères manuscrit, thèse de doctorat en Sciences

Appliquées de la Faculté Polytechnique de Mons.

[50] M. Riedmiller, H. Braun, (1993), A direct adaptative method for faster backpropagation

learning : The rprop algorithm, In Proceedings of the IEEE Internationnal Conference on

Neural Networks (ICNN93), San Francisco.

[51] Z. Wang, A. C. Bovik and L. Lu, (2002), Why is image quality assessment so difficult?, IEEE International Conference on Acoustics, Speech, and Signal Processing.

[52] M. Slanina, V. Ricny, (2006), A Comparison of Full-Reference Image Quality Assessment

Methods, In Radioelektronika Conference Proceedings. Slovak Technical University in Bratislava.

[53] H. El Khattabi, A. Tamtaoui , D. Aboutajdine , (2011) , Video Quality assessment

Measure with a Neural Network, International Journal of Computer and Information

[54] H. El Khattabi, A. Tamtaoui , D. Aboutajdine , (2011), Measure a Subjective Video

Quality Via a Neural Network, International Conference, DICTAP 2011, Dijon, France.

[55] P. Demartines, (1994), Analyse de données par réseaux de neurones auto-organisés, thèse de l’Institut National Polytechnique de Grenoble.

[56] Y. Wang, (2006), Survey of objective video quality measurements, EMC Corporation, MA, Tech. Rep. WPI-CS-TR-06-02.

[57] P. Le Callet, C. Viard-Gaudin, S. Pechard, E. Caillault, (2006), No reference and reduced

reference video quality metrics for end to end QoS monitoring. IEICE Transactions on

Annexe A

Annexe B

Normalisation des données par la méthode min-

max

Afin d’améliorer la performance des réseaux neuronaux multicouches, il est préférable de normaliser les données d’entrée et de sortie de telle sorte qu’elles se trouvent dans l’intervalle [0 1], on a choisit la normalisation min-max donné par :

Soit

X(x

1

, x

2

, …, x

n

)

;

m = min (X)

;

M = max (X)

La valeur normalisée de x1 est :

Annexe C

Technique d’encodage H263

Le H263 est basé sur la description d’image en YUV (Y représentant la luminosité et U et V les 2 chrominances) et non en RGB (Rouge, Vert, Bleu).

Avant de compresser une image d’un film, l’encodeur H263 va la passer du format RGB en YUV. Chaque point de cette image sera donc décrit par 3 nombre compris entre 0 et une valeur maximale définie en en-tête du flux vidéo : le 1er décrivant la luminosité du point (par exemple, 0 pour un point noir), le 2ème et le 3ème décrivant ses chrominances.

Dans la norme H263, pour décrire un macro-block (image carrée de 16 pixels sur 16), on le découpe en 4 carrés (de 8 pixels sur 8 chacun), pour chacun de ces carrés, une matrice carrée Y est définie (de 8 colonnes) et pour tout le macro-block, seul une matrice carrée U et une matrice carrée V sont décrites (de 8 colonnes). On se retrouve donc avec 6 matrices de 8 sur 8 appelées blocks.

Y1 Y2

Y3 Y4

U

V

Y1 Y2

Le principe de base de compression utilisé par le H263 est de découpée une image d’un film en macro-blocks (carrés de 16 pixels sur 16) et de définir les quelques images suivantes comme mouvement de ces macro-blocks, chacun pouvant être légèrement modifié. Il existe 3 types d’images en H263 :

- L’IVOP (Intra Video Object Plane) ou key-frame se définit indépendamment d’autres images du film à partir d’un algorithme de compression de type JPEG : l’image à afficher est décomposé en macro-blocks, puis chacun d’eux est décomposé en 6 tableaux (ou blocks) d’entiers (4 Y, 1 U et 1 V), puis par une technique de ‘Transformée en Cosinus Discrets’ la taille de ces tableaux est diminuée (avec perte de qualité de l’image). - La PVOP (Predictive Video Object Plane) est une image définie par rapport à l’image

juste précédente dans le flux vidéo, plus exactement par rapport aux macro-blocks de l’image précédente. Un vecteur déplacement (appelé ‘Motion Vector’) ainsi qu’une fonction de modification mineures sont appliqués aux macro-blocks de l’image précédente pour définir le PVOP en question.

- La BVOP (Bidirectionnal Video Object Plane) est définie par rapport aux blocks ou macro-blocks de l’image juste précédente ainsi que ceux de l’image juste suivante dans le flux vidéo (la décompression sera donc plus simple si cette dernière est de type IVOP)

Remarque : Pour faciliter leur exécution, les encodeurs H263 fixent généralement la séquence des types d’images du flux vidéo à compresser. Par exemple, la séquence peut être la

Annexe D

Les fonctions de reconstruction

et d’apprentissage de réseaux de neurones en

Matlab

I. Utilisation de la Boîte à outils de Matlab pour les Réseaux de

Neurones

MATLAB est un logiciel interactif permettant d’effectuer des calculs numériques complexes particulièrement utiles dans le domaine de l’ingénierie. Ce logiciel fournit un langage et des outils de développement de haut niveau nous permettant de développer et d'analyser rapidement nos algorithmes et nos applications. Il permet l'apprentissage et une visualisation de l'erreur commise du réseau de neurones.

Il s’agit d’une structure hiérarchique ; certains membres de la structure de base sont eux mêmes des structures relativement complexes. Cette structure peut être visualisée lors de la création du réseaux.

Création d’un Réseau PMC

La fonction de création d’un réseau est spécifique au modèle de réseau utilisé (newc, newlvq, etc).

Pour les réseaux multicouches, la création du réseau est faite par la commande de la fonction newff :

reseau=newff( PR, [S1 S2...SN1] , {TF1 TF2...TFN1}, BTF , BLF , PF ) ; Avec :

PR : Plage des variations des entrées (affichage par minmax(p)). Si : Nombre des neurones dans la couche i, pour N1 couches.

TFi : fonction d’activation dans la couche i, par défaut la fonction d’activation est ‘tansig’, elle peut être :

hardlims: Fonctions signe.

logsig : Fonction logarithme sigmoïde. tansig : Fonction tangente sigmoïde. pureline : fonction linéaire.

satlins : Fonction linéaire a seuil.

BTF : l’algorithme d’apprentissage par paquets du réseau, la fonction BTF peut être: trainlm : apprentissage par l’algorithme de Levenberg-Marquardt

trainbfg : apprentissage par l’algorithme BFGS.

trainoss : apprentissage par l’algorithme «one-step BFGS Method» trainbr : version de trainlm avec modération automatique des poids. trainrp : apprentissage par l’algorithme RPROP.

trainscg : apprentissage par scaled conjuguate gradient (SCG) traincgf:apprentissage par la méthode du gradient

conjugué+FLETCHER-REEVES.

traincp : apprentissage par la méthode du gradient conjugué+POLAK-RIBIERE.

BLF : l’algorithme d’apprentissage incrémental du réseau, la fonction BLF peut être : Learngd : L’algorithme d’apprentissage sera la descente de gradient à taux d’apprentissage fixe.

Learngdm : version de learngd avec moment. PF : fonction du coût, la fonction PF peut être :

mae : erreur absolue moyenne mse : erreur quadratique moyenne

msereg : version de mse avec modérations des poids sse : somme des carrés des erreurs

Apprentissage

• Incrémental : fonction adapt. Apprentissage incrémental (on line) ; les poids sont modifiés à chaque présentation d’une entrée.

• Par paquets : fonction train. Apprentissage par paquets (off‐line, batch mode) ; les poids sont modifiés uniquement après présentation de toutes les entrées.

Simulation d’un réseau

A = sim(net, p) ; où net est le pointeur retourné par une fonction de création de réseau. On va maintenant parler sur l’apprentissage, une propriété très importante dans les réseaux de neurones, après qu’on a opté pour la fonction NEWFF comme structure générale du réseau. L’erreur quadratique moyenne MSE qui est utilisée comme fonction du coût,

est bien adaptée à notre application de prédiction. Lʹapprentissage est vraisemblablement la propriété la plus intéressante des réseaux neuronaux, cependant il existe plusieurs algorithmes utilisés pour faire l’apprentissage des réseaux multicouches. En général, les méthodes du second ordre assurent une convergence plus rapide que celle du premier ordre pour les réseaux dont l’apprentissage est par paquets. Cependant, pour les réseaux dont l’apprentissage est incrémental les méthodes du premier ordre assurent une convergence plus rapide que celle du second ordre.

II. Base d’apprentissage et mise en forme des données pour un

réseau de neurones

L'apprentissage de réseau se fera par un modèle d'apprentissage parallèle. Afin de pouvoir générer l'apprentissage du réseau, il est nécessaire de créer une base d'apprentissage. Comme l'apprentissage est supervisé, cette base doit contenir à la fois l'entrée du réseau et la sortie souhaitée. Lorsque la phase d'apprentissage est terminée, on procède de la manière suivante :

Test du réseau.

Si le test fournit de bons résultats, alors le réseau sera prêt à calculer la sortie correspondant à une entrée donnée. Si non, il faut régler les paramètres du système, pour augmenter les performances du réseau, et répéter la phase précédente.

De manière générale, les bases de données doivent subir une phase de prétraitement (Preprocessing) et une phase de post-traitement (Postprocessing) , afin d’être

neurologique plus efficace.

II.1. Fichier d'apprentissage

Le fichier d'apprentissage comprend deux catégories de paramètres: les paramètres d'entrée qui constituent les variables à optimiser et les paramètres de sortie qui correspondent aux résultats désirés. Dans chaque fichier, le nombre d'échantillons sur lequel l'apprentissage doit s'effectuer est fourni ainsi que le nombre de neurones d'entrée et de sortie. Ce nombre d'échantillons dépend de la nature du problème à traiter. Plus le résultat est sensible aux évolutions des paramètres d'entrée, plus la discrétisation des plages de variation est fine. Ainsi il est préférable de connaître le ou les paramètres à optimiser responsables des plus importantes variations sur le résultat désiré. A noter, que l'augmentation des échantillons d'apprentissage n'est pas toujours néfaste puisqu'il permet une meilleure connaissance du problème, mais la phase d'apprentissage est plus coûteuse en temps de calcul.

II.2. Algorithme et paramètres d’apprentissage

Tous les modèles de réseaux de neurones requièrent un apprentissage. Plusieurs types d’apprentissages peuvent être adaptés à un même type de réseau de neurones. Les critères de choix sont souvent la rapidité de convergence ou les performances de généralisation.

Documents relatifs