• Aucun résultat trouvé

d'expérimentations interactif

5.1 Scénario d'expérimentation

5.3.2 Performance sous contrainte

Souvent, lors de l'optimisation des paramètres d'un système complexe, le temps de simulation est trop long pour tenter un très grand nombre d'expérimentations. Il faut alors essayer d'optimiser le problème tout en minimisant le nombre de simulations effectuées. La présente section étudie la performance de chacun des algorithmes pré- sentés lorsque le nombre de simulations est limité à 20. La contrainte sur le nombre de simulations est appliquée aux algorithmes Nelder-Mead et recuit simulé en stoppant l'optimisation lorsque la 20e simulation est complétée. La température pour le recuit

simulé est initialisée à 5 et le taux de refroidissement à 0,9. Le nombre de simulations dans le cas de l'algorithme génétique a été limité en effectuant 5 générations d'une population de 5 individus dont le taux de modification (probabilité de croisement et probabilité de mutation) est de 0,8.

La table 5.1 présente les résultats des optimisations pour un nombre restreint de simulations. L'algorithme évolutionnaire représente toujours la méthode donnant le meilleur espoir de trouver une solution maximale. L'algorithme ayant le moins souffert de cette limitation du nombre de simulations est l'algorithme de Nelder et Mead, on peut donc imaginer que pour un problème ayant une réponse moins complexe, il aurait pu être tout aussi efficace, sinon meilleur que les deux autres. Encore une fois, les intuitions de l'analyste sont essentielles à la sélection du bon opérateur d'optimisation,

Méthode Maximum Maximum moyen Nelder-Mead Recuit simulé Algorithme génétique 824,3 825,9 824,7 775,1 783.8 795,9

TABLE 5.4 - Maximums trouvés pour la survie du convoi lors de 50 optimisations

indépendantes chacune effectuant un maximum de 20 simulations.

il est le mieux placé pour comprendre les caractéristiques de son problème et ainsi faire un choix éclairé sur la technique d'optimisation à utiliser.

5.4 Approximation

L'approximation de la surface de réponse est probablement la plus ardue des trois étapes présentées dans ce mémoire. L'extraction d'information à partir d'un ensemble restreint de simulations est une tâche extrêmement complexe. Cette section analysera la capacité des méthodes d'approximation présentées au chapitre 4 à estimer la surface de réponse du système de la section 5.1.

Tout d'abord, un sous ensemble des variables a été choisi pour être estimé. Ce sous- ensemble représente les quatre facteurs ayant la plus grande corrélation avec la variable de sortie (la survie du convoi). Ils sont la dureté de l'armure sous les véhicules, le nombre de IEDs, la quantité de cargo donné au départ et la priorité au départ. On ne fait varier ici que ces quatre variables afin d'aider les techniques d'approximation à estimer la surface de réponse en restreignant le domaine d'apprentissage, le nombre de scénarios possibles étant par conséquent égale à 13332.

L'apprentissage a été effectué sur six tailles d'échantillonnage différentes, toutes font varier les quatre facteurs mentionnés précédemment. Les figures 5.4 à 5.9 présentent les surfaces de réponses estimées par les algorithmes d'apprentissage pour trois paires de facteurs 2, alors que la figure 5.3 présente la surface de réponse réelle pour ces même trois

paires. Chacune des deux méthodes présentées utilise le même ensemble d'échantillons de départ pour chaque taille d'échantillonnage. La surface de réponse estimée par l'al- gorithme des plus proches voisins est plus bruitée, elle fournit une approximation moins claire que celle produite par la machine à vecteurs de support. L'erreur d'approxima- tion présentée à la table 5.5 montre aussi que la SVR effectue une approximation plus

2. Le facteur Po n'a pas été paire aux autres facteurs pour des raisons d'espace et de pertinence, ce

Échantillons Erreur moyenne d'approximation Échantillons

Plus proches voisins SVR

100 57,07 44,37 200 54,35 38,69 300 50,78 36,65 500 49,75 36,95 1000 46,38 31,83 2000 47,69 25,56

TABLE 5.5 - Erreur moyenne sur l'ensemble de la surface de réponse.

précise de la surface de réponse pour un même nombre d'échantillons. Toutefois, il est à noter que le temps d'apprentissage de la SVR est beaucoup plus important que le temps requis pour estimer la surface par les plus proches voisins. Une estimation à partir de 1000 échantillons s'effectue en 70 minutes avec la SVR, alors qu'avec l'algorithme des plus proches voisins, la réponse est disponible en moins de cinq minutes. Cette différence peut jouer un rôle considérable dans le choix de la méthode d'approximation. Toute- fois, on note que pour ce problème, un bon compromis sur le nombre d'échantillons à utiliser semble être 300, pour les deux méthodes, les surfaces ne gagnent pas beaucoup de précision lorsque les estimateurs sont entraînés avec plus d'échantillons.

L'approximation par le krigeage n'a pas pu être effectuée, car les variations à l'inté- rieur du problème sont anisotropes, alors que le krigeage présenté à la section 4.3 pose l'hypothèse d'isotropie. o o 800 650 600 0 0 0 0

(a) UAT - NIED, D0 = 50 et (b) UAT -- D0, NIED ---- 3 et (c) NIED

Po = l- Po = l- Po = l-

D0, UAT = 5 et

(a) 100 échantillons (b) 200 échantillons (c) 300 échantillons

(d) 500 échantillons (e) 1000 échantillons

o o

(f) 2000 échantillons

FIGURE 5.4 - Approximation de la réponse par les 5 plus proches voisins. En plus des

facteurs non variés, sur ces figures, D0 — 50 et PQ = 1.

(a) 100 échantillons 800 g7 5 0 | 7 0 0 650 600 (b) 200 échantillons o o (c) 300 échantillons

(d) 500 échantillons (e) 1000 échantillons (f) 2000 échantillons

FIGURE 5.5 - Approximation de la réponse par machine à vecteurs de support pour la

(a) 100 échantillons (b) 200 échantillons (c) 300 échantillons

dlP 40

(d) 500 échantillons (e) 1000 échantillons (f) 2000 échantillons

FIGURE 5.6 - Approximation de la réponse par les 5 plus proches voisins. En plus des

facteurs non variés, sur ces figures, NIED = 3 et PQ = 1.

(a) 100 échantillons (b) 200 échantillons

o o

(c) 300 échantillons

(d) 500 échantillons

o o

(e) 1000 échantillons (f) 2000 échantillons

FIGURE 5.7 - Approximation de la réponse par machine à vecteurs de support pour la

(a) 100 échantillons (b) 200 échantillons (c) 300 échantillons

(d) 500 échantillons (e) 1000 échantillons (f) 2000 échantillons

FIGURE 5.8 - Approximation de la réponse par les 5 plus proches voisins. En plus des

facteurs non variés, sur ces figures, UAT = 5 et PQ = 1.

(a) 100 échantillons (b) 200 échantillons

o o

(c) 300 échantillons

(d) 500 échantillons (e) 1000 échantillons (f) 2000 échantillons

FIGURE 5.9 - Approximation de la réponse par machine à vecteurs de support pour la

Conclusion

Ce mémoire traite du design d'expérimentations interactif, ainsi que de son utili- sation lors de l'analyse d'un système complexe. Tout d'abord, le chapitre 2 présente une série de méthodes d'exploration servant à amasser une base de connaissances sur le système étudié. On y présente, aussi, un moyen efficace d'optimiser l'uniformité de la distribution des échantillons de deux de ces méthodes, soit l'hypercube latin quasi orthogonal et la séquence de Halton généralisée. L'optimisation proposée se fait par un algorithme évolutionnaire et permet d'obtenir des séquences dont la distribution des échantillons est plus uniforme que celle des séquences présentes dans la littérature. Les résultats de cette optimisation font l'objet d'une publication à la conférence Genetic and Evolutionary Computation (GECCO'09) (De Rainville et al., 2009) où ils ont reçu le prix du meilleur article dans la catégorie « application au monde réel ». Vu l'inté- rêt sucité par ces travaux, un article de revue sur le même sujet est présentement en préparation.

Par la suite, le chapitre 3 discute de méthodes d'optimisation pouvant être utilisées afin de trouver les combinaisons optimales de paramètres d'un problème dont la surface de réponse est non convexe, non linéaire et non différentiable. À la suite de quoi, le chapitre 4 avance plusieurs méthodes d'approximation aidant à estimer la surface de réponse du problème à partir d'un ensemble de scénarios présimulés. Les outils d'ap- proximation peuvent aussi être utilisés pour la planification des simulations futures, car ils fournissent à l'utilisateur des indices sur la surface de réponse du problème. Pour finir, le chapitre 5 expose les performances des méthodes des trois chapitres précédents lorsque confrontées à un système complexe. On y montre que les techniques propo- sées mettent au premier plan une information qui n'a généralement pas été découverte par un utilisateur ne disposant pas des outils suggérés. Ainsi, nous avançons que les méthodes mises de l'avant par le design d'expérimentations interactif sont susceptibles

d'aider un utilisateur dans son analyse d'un système complexe.

L'objectif principal de ce travail était de concevoir une variante de design d'expéri- mentations où plusieurs outils interactifs étaient mis à disposition d'un utilisateur afin de faciliter son analyse d'un système complexe. Les chapitres 2, 3 et 4 répondent à cet objectif en proposant des méthodes d'exploration, d'optimisation et d'approximation pouvant être utilisées interactivement. Le chapitre 5 montre que chaque méthode peut être utilisée pour l'analyse d'un système complexe et que chacune fournit une informa- tion pertinente à l'analyste. Le second objectif de ce travail était de fournir des outils généraux à des utilisateurs ne connaissant pas le design d'expérimentations. Les ou- tils proposés n'utilisent que peu de paramètres et se fondent sur des principes simples. De plus, les méthodes développées ne font que très peu d'hypothèses sur la nature du problème analysé et peuvent ainsi s'appliquer à un large éventail de systèmes complexes.

6.1 Perspectives

L'intégration d'outils d'automatisation et d'analyse de données à l'environnement IMAGE ouvre la porte à plusieurs axes de développement et de recherche. Tout d'abord, il serait intéressant de pouvoir visualiser interactivement les données générées par le de- sign d'expérimentations interactif. Des travaux sur la visualisation de données scienti- fiques effectués par Girardin (2010) sont une avancée prometteuse dans la visualisation des données produites par le design d'expérimentations interactif. La visualisation scien- tifique permettrait à un utilisateur de gérer et d'assimiler plus facilement l'information générée automatiquement par les outils proposés dans ces travaux.

Un second aspect de développement serait l'interactivité entre la représentation des données produites et le design d'expérimentations. L'une des premières difficultés lors de la planification d'expérimentations est la représentation mentale d'un espace multidimensionnel. Des outils de visualisation interactifs aideraient un utilisateur à se construire un schéma mental de cet espace et l'aideraient ainsi à distribuer ses expé- riences en lui permettant de les placer directement dans cet espace virtuel.

Finalement, une dernière piste de recherche serait l'utilisation des méthodes propo- sées pour l'étude de problèmes stochastiques. Les méthodes avancées dans ce mémoire ne tiennent pas compte du caractère stochastique que pourrait avoir un système com- plexe. La plupart des techniques présentées ont des extensions afin de pouvoir gérer le hasard ou l'incertitude sur les résultats obtenus lors des expérimentations. Dans cer- tains cas, par exemple pour les algorithmes génétiques, des recherches plus approfondies

seraient nécessaires afin d'adapter la méthode à ce type de problème. Des recherches en ce sens apporteraient non seulement une contribution majeure à l'optimisation en situation d'exploration de systèmes complexes, mais aussi au domaine de l'optimisation en général.

ALPAYDIN, E. (2004). Introduction to Machine Learning. MIT Press, 2e édition.

ATANASSOV, E. I. et DURCHOVA, M. K. (2003). Generating and testing the modified

halton sequences. Dans Numerical Methods and Applications, pages 91-98.

AUGER, A., JEBALIA, M. et TEYTAUD, O. (2006). Algorithms (X, sigma, eta) : Quasi-

random mutations for evolution strategies. Lecture notes in computer science, 3871: 296-307.

AZADIVAR, F. (1999). Simulation optimization methodologies. Dans Proceedings of the

1999 Winter Simulations Conference, pages 93-100.

BACK, T., HOFFMEISTER, F. et SCHWEFEL, H.-P. (1991). A survey of evolution strate-

gies. Dans Proceedings of the Fourth International Conference on Genetic Algorithms, pages 2-9.

BAR-YAM, Y. (2003). Complexity of military conflict : Multiscale complex systems

analysis of littoral warfare. Rapport technique, New England Complex Systems Ins- titute.

BATES, S., SIENZ, J. et TOROPOV, V. (2004). Formulation of the optimal Latin hy-

percube design of experiments using a permutation genetic algorithm. Dans 5th ASMO-UK/ISSMO Conference on Engineering Design Optimization.

BELLMAN, R. (1961). Adaptative Control Processes : A Guided Tour. Princeton Uni-

versity Press.

BERNIER, F. et Rioux, F. (2008). Convoy scenario for complexity study. Rapport

technique DC 2008-ABC, Defence R&D Canada - Valcartier.

BEYER, H.-G. et SCHWEFEL, H.-P. (2002). Evolution strategies : A comprehensive

introduction. Natural Computing, l(l):3-52.

Box, G. E. P., HUNTER, W. G. et HUNTER, J. S. (1978). Statistics for Experimenters :

B R A A T E N , E. et W E L L E R , G. (1979). An improved low-discrepancy sequence for multidimensional quasi-monte carlo integration. Journal of Computational Physics, 33(2):249-258.

B R O Y D E N , C. G. (1970). The convergence of a class of double-rank minimization algo- rithms. Journal of the Institute os Mathematics and Its Application, 6:76-90.

BURGES, C. J. C. (1998). A tutorial on support vector machines for pattern recognition. Data Mining and Knowledge Discovery, 2(2):121-167.

C A F L I S C H , R. E., M O R O K O F F , W. J. et O W E N , A. B. (1997). Valuation of mortgage- backed securities using brownian bridges to reduce effective dimension. Journal of

Computational Finance, l(l):27-46.

C E R V E L L E R A , C. et M U S E L L I , M. (2004). Deterministic design for neural network learning : an approach based on discrepancy. IEEE Transactions on Neural Networks, 15(3):533-544.

C H I , H., M A S C A G N I , M. et W A R N O C K , T. T. (2005). On the optimal halton sequence. Mathematics and Computers in Simulation, 70(1):9-21.

C I C I R E L L O , V. A. et S M I T H , S. F. (2000). Modeling GA performance for control para- meter optimization. GECCO, pages 235-242.

C I O P P A , T. M. (2002). Efficient Nearly Orthogonal and Space-Filling Experimental for High-Dimensional Complex Models. Thèse de doctorat, Naval Postgraduate School. C I O P P A , T. M. et L U C A S , T. W. (2007). Efficient nearly orthogonal and space-filling

latin hypercubes. Technometrics, 49(l):45-55.

C R E S S I E , N. A. C. (1993). Statistics for Spatial Data. Wiley, New York.

D A V I E S, T. J. G., M A R T I N , R. R. et B O W Y E R , A. (1999). Computing volume properties using low-discrepancy sequences. Dans Geometric Modelling, pages 55-72.

D E R A I N V I L L E , F.-M., G A G N É , C , T E Y T A U D , O. et L A U R E N D E A U , D. (2009). Opti- mizing low-discrepancy sequences with an evolutionary algorithm. Dans Proceedings of the 11th Annual conference on Genetic and evolutionary computation, pages 1491- 1498. ACM.

D E B , K., P R A T A B , A., AGARWAL, S. et M E Y A R I V A N , T. (2002). A fast elitist non- dominated sorting genetic algorithm for multi-objective optimization : NSGA-II. Dans I E E E Transaction on Evolutionary Computation, volume 6, pages 849-858.

D O Y L E . J. K.. R A D Z I C K I , M. J. et T R E E S , W. S. (2008). Measuring change in mental models of complex dynamic systems. Dans Understanding Complex Systems, pages 269-294. Springer Berlin / Heidelberg.

F A N G , K. T., K. J. L I N , D., W I N K E R , P. et Z H A N G , Y. (2000). Uniform design : Theory and application. Technometrics, 42(3):237-248.

F A U R E , H. et L E M I E U X , C. (2009). Generalized halton sequences in 2008 : A compara- tive study. ACM Transactions on Modeling and Computer Simulation, 19(4). F I X , E. et H O D G E S , J. L. (1951). Discrimatory analysis, non-parametric discrimination :

Consistency properties. Rapport technique 21-49-004(4), USAF School of Aviation Medicine, Randolph Field, Texas.

F L E T C H E R , R. (1970). A new approach to variable metric algorithms. Computer Journal, 13:317 322.

F L O R I A N , A. (1992). An efficient sampling scheme : Updated latin hypercube sampling. Probabilistic engineering mechanics, 7(2):123-130.

F R I E D M A N , J. H. (1991). Multivariate adaptative regression splines. Annals of Statis- tics, 19(l):l-67.

F u , M. C. (2002). Optimization for simulation : Theory vs. practice. INFORMS Journal on Computing, 14(3): 192-215.

G E L L Y , S., T E Y T A U D , O. et G A G N É , C. (2006). Resource-aware parameterizations of EDA. Dans Proceedings of the 2006 IEEE Congress on Evolutionary Computation. G I L L , A. et K A L A N T Z I S , E. (2007). Limited objective experiment 0502 convoy force

protection. Rapport technique AEC-R 0502, Department of National Defence, King- ston.

GlRARDlN, M. (2010). Visualisation d'information dans un environnement virtuel im- mersif. Mémoire de maîtrise, Université Laval.

G O L D B E R G , D. E. (1989). Genetic algorithms in search, optimization and machine learning. Addison Wesley.

GOLDFARB, D. (1970). A family of variable metric updates derived by variational means. Mathematics of Computation, 24:23-26.

H A K O L A , M. B. (2004). An Exploratory Analysis of Convoy Protection Using Agent- Based Simulation. Thèse de doctorat, Naval Postgraduate School.

HALTON, J. H. (1960). On the efficiency of certain quasi-random sequences of points

in evaluating multi-dimensional integrals. Numerische Mathematik, 2:84-90.

HAMMERSLEY, J. M. (1960). Monte Carlo methods for solving multivariable problems.

Annals of the New York Academy of Sciences, 86(3):844-874.

HAN, J. et KAMBER, M. (2006). Data Mining : Concepts and Techniques. Morgan

Kaufmann Publishers, 2e édition.

HANSEN, N. et OSTERMEIER, A. (1996). Adapting arbitrary normal mutation distribu-

tions in evolution strategies : The covariance matrix adaption. Dans Proceedings of the 1996 IEEE International Conference on Evolutionary Computation, pages 312- 317. IEEE Press.

HlCKERNELL, F. J. (1998). A generalized discrepancy and quadrature error bound. Mathematics of Computation, 67(221 ):299-322.

HOEBER, F. P. (1981). Military Applications of Modeling : Selected Case Studies. Gor-

don and Breach Science Publishers, New York.

HOLLAND, J. H. (1975). Adaptation in Natural and Artificial Systems. University of

Michigan Press.

ILACHINSKI, A. (1996). Land Warfare and Complexity Part I : Mathematical Back-

ground and Technical Sourcebook. Center for Naval Analyses, Alexandria, Virginia.

KALOS, M. H. et WHITLOCK, P. A. (1986). Monte Carlo Methods. Wiley.

KIEFER, J. et WOLFOWITZ, J. (1952). Stochastic estimation of the maximum of a

regression function. The Annals of Mathematical Statistics, 23(3):462-466.

KIRKPATRICK, J., GELATT, C. D. et VECCHI, M. P. (1983). Optimization by simulated

annealing. Science, 220(4598):671-680.

KLEIJNEN, J. P. C , SANCHEZ, S. M., LUCAS, T. W. et CIOPPA, T. M. (2005). A

user's guide to the brave new world of designing simulation experiments. INFORMS Journal on Computing, 17(3):263-289.

Koci, L. et WHITEN, W. J. (1997). Computational investigations of low-discrepancy

sequences. ACM Transactions on Mathematical Software, 23(2):266-294.

LAVALLE, S. M. (2006). Planning Algorithms. Cambridge University Press.

LEMIEUX, C. (2009). Monte Carlo and Quasi Monte Carlo Sampling. Springer.

LEVENBERG, K. (1944). A method for the solution of certain problems in least squares.

LIEFVENDAHL, M. et STOCKI, R. (2006). A study on algorithms for optimization of

Latin hypercubes. Journal of Statistical Planning and Inference, 136(9):3231-3247.

LIZOTTE, M., POUSSART, D., BERNIER, F., MOKHTARI, M., BOIVIN, E. . et Du-

CHARME, M. (2008). IMAGE : Simulation for understanding complex situations and

increasing future force agility. Dans Proceedings of the 26th Army Science Conference.

MARQUARDT, D. (1963). An algorithm for least-squares estimation of nonlinear para-

meters. SI AM Journal of Applied Mathematics, 11:431-441.

MARTI, K. (2005). Stochastic Optimization Methods. Springer, Berlin.

MATHERON, G. (1962). Traité de Géostatistique Appliquée, Tome I. Editions Technip,

Paris.

MATHERON, G. (1963). Principles of geostastics. Economie Geology, 58:1246-1266.

MCKAY, M. D., BECKMAN, R. J. et CONOVER, W. J. (1979). A comparison of three

methods for selecting values of input variables in the analysis of output from a com- puter code. Technometrics, 21(2):239-245.

MITCHELL, M. (1998). An Introduction to Genetic Algorithms. MIT Press.

MONTGOMERY, D. C. (2001). Design and Analysis of Experiments. Wiley, New York.

MOROKOFF, W. J. et CAFLISCH, R. E. (1994). Quasi-random sequences and their

discrepancies. SIAM Journal on Scientific Computing, 15(6):1251—1279.

NELDER, J. A. et MEAD, R. (1965). A simplex method for function minimization. The

Computer Journal, 7(4):308-313.

NIEDERREITER, H. (1987). Point sets and sequences with small discrepancy. Monat-

shefte fur Mathematik, 104:273-337.

NIEDERREITER, H. (1992). Random Number Generation and Quasi-Monte Carlo Me-

thods. SIAM.

PHILOMIN, V., DURAISWAMI, R. et DAVIS, L. (2000). Quasi-random sampling for

condensation. Dans Proceedings of the European Conference of Computer Vision, volume 1843, pages 134-149.

POLI, R., LANGDON, W. B. et FREITAG M C P H E E , N. (2008). A field guide to genetic

programming. Publié via http://lulu.com et disponible gratuitement à h t t p : / / www.gp-field-guide.org.uk. (Avec la contribution de J. R. Koza).

RADOVIC, L, SOBOL', I. M. et TICHY, R. F. (1996). Quasi-Monte Carlo methods for

numerical integration : Comparison of different low discrepancy sequences. Dans Monte Carlo Methods and Applicayions, volume 2, pages 1-14.

RECHENBERG, I. (1973). Evolutionsstrategie. Friedrich Frommann Verlag (Gunther

Holzboog KG), Stuttgart.

Rioux, F. (2009). Conception et mise en oeuvre de Multichronia, un cadre conceptuel de simulation visuelle interactive. Thèse de doctorat, Université Laval.

Rioux, F., BERNIER, F. et LAURENDEAU, D. (2008). Multichronia - A generic visual

interactive simulation exploration framework. Dans Interservice/Industry Training, Simulation and Education Conf. (IITSEC), Orlando, FL.

RUMELHART, D. E., HINTON, G. E. et WILLIAMS, R. J. (1986). Learning internal

representations by back-propagating errors. Nature, 323:533-536.

SANCHEZ, S. M. (2006). Work smarter, not harder : Guidelines for designing simulation

experiments. Dans Proceedings of the 2006 Winter Simulation Conference, pages 47- 57.

SCHWEFEL, H.-P. (1965). Kybernetische evolution als stratégie der experimentellen

forschung in der stromungstechnik. Mémoire de maîtrise, Technical University of Berlin.

SCHWEFEL, H.-P. (1981). Numerical Optimization of computer Models. John Wiley &

Sons, New-York.

SHANNO, D. F. (1970). Conditioning of quasi-newton methods for function minimiza- tion. Mathematics of Computation, 24:647-656.

SMOLA, A. J. et SCHÔLKOPF, B. (2004). A tutorial on support vector machines for

regression. Statistics and Computing, 14:199-222.

SOBOL', I. M. (1967). The distribution of points in a cube and the approximate eva-

luation of integrals. USSR Computational Mathematics and Mathematical Physics, 7(4):86-112.

SOBOL', I. M. et ASOSTSKY, D. I. (2003). One more experiment on estimating high-

dimensional integrals by quasi-Monte Carlo methods. Dans Mathematics and Com- puters in Simulation, volume 62, pages 255-263.

SPALL, J. C. (1999). Stochastic optimization and the simultaneous perturbation me-

SPALL, J. C. (2003). Introduction to stochastic search and optimization : Estimation,

Simulation, and Control. John Wiley and Sons, New Jersey.

T Y E GINGRAS, O. (2009). Intégration et exploitation d'outils de visualisation : Appli-

cation à la compréhension de situations complexes. Mémoire de maîtrise, Université Laval.

VAN DER CORPUT, J. G. (1935). Verteilungsfunktionen. Dans Akademie van Weten-

schappen, volume 38, pages 813-821.

VAPNIK, V. N. (1982). Estimation of Dependences based on Empirical Data. Springer

Verlag, NY.

VAPNIK, V. N. (1995). The Nature of Statistical Learning. Springer Verlag.

WARNOCK, T. T. (1972). Computational investigation of low discrepancy point sets.

Dans Applications of Number Theory to Numerical Analysis, pages 319-343.

WOLPERT, D. H. et MACREADY, W. G. (1997). No free lunch theorems for optimization.

IEEE Transactions on Evolutionary Computation, 1:67-82.

YE, K. Q. (1998). Orthogonal column latin hypercubes and their application in com- puter experiments. Journal of the American Statistical Association, 93:1430-1439.

Méthode de Florian

Tout d'abord, W est la matrice de rangs de la matrice T. C est la matrice de corrélation de la matrice W.

Q x QT = C

D = Q 1

T = W x DT

La corrélation à l'intérieur de la nouvelle matrice T devrait avoir diminué, répéter la procédure tant qu'il y a de l'amélioration.

Configuration d'hypercubes latins

Documents relatifs