• Aucun résultat trouvé

5.3 La modélisation rigoureuse

5.3.4 Discussion

J'aimerais dans ce paragraphe donner mon opinion concernant l'importance des algorithmes de construction de modèles. Ce mode de fonctionnement s'est présenté na-turellement dans ces travaux pour des raisons évidentes, lorsqu'il m'a fallu remplir les cases du simulateur par des valeurs physiques. La modélisation peut se résumer à dé-terminer un ensemble d'équations, de paramètres et de conditions limites donnant une description mathématique d'un phénomène physique donné. Mais ces modèles peuvent prendre des formes diverses et variées inuançant fortement les moyens à mettre en ÷uvre pour fournir des prédictions susamment précises, c'est à dire utilisables sur le plan industriel. C'est donc la raison pour laquelle nous utilisons des modèles empiriques

ou semi-rigoureux et des modèles approchés plutôt qu'exacts. Alors on pourrait penser que la solution clé est de travailler avec des modèles rigoureux exacts et des ressources informatiques très grandes (en supposant les modèles rigoureux valides évidemment, un modèle de mécanique classique appliqué à la physique subatomique ne donnera jamais de bons résultats quelles que soient les ressources utilisées). Et pourtant cela ne fonc-tionnerait pas ! En eet, ces modèles en admettant qu'ils soient basés sur des théories susamment appronfondies ont tout de même besoin en entrée de paramètres mesurés. C'est à dire que quand bien même les équations de Maxwell fournissent une meilleur description des phénomènes optiques en photolithographie que les équations d'Hopkins dont les approximations sont dépassées, il faut quand même fournir en entrée une des-cription de la source, des indices optiques de matériaux, des épaisseurs de matériaux, etc, qui dépendent de moyens de mesure comportant des incertitudes. Aucune mesure n'est absolue ! L'algorithme de construction de modèle est une solution possible à ce problème. En sélectionnant des mesures appropriées on peut aner les valeurs théo-riques des paramètres dans la limite de l'incertitude de ces mesures comme nous l'avons fait avec l'épaisseur de silice sous la résine. Mais une autre diculté, rapidement abor-dée dans ce manuscrit subsiste alors. Quand bien même nous aurions à disposition une mesure absolue des paramètres physiques d'une exposition lumineuse sur une plaque de silicium, comment prendre en compte la variabilité de ces paramètres d'une expérience à l'autre ? Est-il envisageable demain avec des ressources informatiques et techniques illimitées de construire un modèle par plaque de silicium exposée ? Nous arrivons ici à une limite. Si nous continuons à avoir besoin d'une plus grande précision sans pour autant réduire les incertitudes sur les paramètres physiques du procédé, il faudra uti-liser des modèles qui s'adaptent à cette problématique. Ils seront donc plus lourds à mettre en place et on n'aura encore besoin de choisir entre la précision et la vitesse de simulation.

5.4 Conclusion

Après avoir étudié le comportement des eets d'empilement par la voie expérimen-tale, ce chapitre a abordé la question du traitement de ces eets ou phénomènes. Les eets d'empilement, très importants à l'étape d'implantation des sources et drains des transistors qui n'utilise généralement pas de couche anti-reet, ne peuvent plus être négligés en dessous du n÷ud technologique 45 nm. Les premières manifestations dans la littérature des eets d'empilement sont généralement liées à des problèmes de topo-graphie après l'étape de polissage mécanico-chimique de la couche de silice.

Il existe de nombreux moyens pour limiter les eets d'empilement. Nous avons vu que l'optimisation des paramètres du procédé lithographique, comme l'illumination ou l'épaisseur de résine, peut permettre de minimiser ces eets sans pour autant les annu-ler. Nous avons pu eectuer des mesures d'eets d'empilement pour plusieurs épaisseurs de résine sur plaque. Le gain potentiel sur l'eet d'empilement peut s'élever à 60 nm sur une ligne de résine dégradée de part et d'autres par des transitions de matériaux. L'amélioration du procédé par ajout d'une couche anti-reet développable permet une réduction drastique des eets d'empilement, mais qui subsitent encore dans des pro-portions qui laissent à penser que d'autres niveaux des technologies d'aujourd'hui ou de demain sont concernés. Nous avons démontré par des mesures expérimentales que

l'utilisation d'une couche anti-reet permet une réduction de la globalité des eets d'em-pilement. Les eets de masquage et de topographie semblent tout autant réduits que les eets de substrat et de transition. Une dernière possibilité consiste à modéliser les eets d'empilement pour les anticiper et les corriger. C'est le choix qui a été fait dans le cadre de cette thèse.

Il existe dans la littérature de nombreuses modélisations des eets d'empilement, en passant de simple carte d'erreur de focus en fonction de la densité des motifs de silice et silicium, à la simulation rigoureuse en trois dimensions de la propagation de la lumière issue de l'exposition. Au démarrage de cette thèse, nous avons testé certains outils de simulation avec notamment le système d'exposition secondaire de Mentor Graphics. Nous avons alors réussi à diminuer l'erreur due aux eets d'empilement entre les structures mesurées et les structures simulées. Mais la complexité des eets que nous avons de par leurs amplitudes, la combinaison de trois matériaux silice-silicium-polysilicium, et l'utilisation de la technologie FDSOI est trop importante. Nous avons alors pris part à des projets de développement d'outils de prise en compte des eets d'empilement avec nos fournisseurs. Mon rôle a été de fournir les données expérimentales bâties à partir des protocoles présentés dans le chapitre précédent, et de fournir une expertise sur le comportement des eets d'empilement.

De notre côté, nous avons développé l'algorithme de construction de modèles qui, basé sur l'utilisation de données mesurées précises et la stratégie du raisonnement in-verse, a permis de réaliser des modèles très performants sur les structures uni-dimensionnelles sur substrat uniforme. Nous avons été amenés à développer notre propre outil de si-mulation pour palier la complexité de nos situations, outil encore en développement aujourd'hui.

Les perspectives de ce chapitre sont multiples. Tout d'abord, de nombreux moyens de modélisation des eets d'empilement ont été développés avec chacun leur avantages et inconvénients en termes de précision, de complexité, de vitesse de calcul. Il faudrait reprendre ces outils et évaluer leur potentiel avec l'expertise que nous avons aujour-d'hui sur les eets d'empilement et tenter la réalisation d'une abaque qui permettrait à n'importe quel responsable de niveau de photolithographie aecté par les eets d'em-pilement de choisir le mode de correction souhaitable en fonction de ses ressources et de son budget d'erreur. Couplé avec les chiers de structures de test pour l'évaluation systématique des eets d'empilement présentés aux chapitres précédents, cela pourrait constituer un outil global de gestion des eets d'empilement en photolithographie op-tique. Une autre perspective importante est de naliser l'algorithme de construction de modèle et, mieux que de proposer un algorithme, il faudrait que le simulateur puisse proposer un ensemble de module d'optimisation de paramètres basés sur un nombre restreint de mesures, que l'utilisateur pourrait agencer à sa guise pour bâtir son propre modèle, et pas nécessairement pour des eets d'empilement. Une dernière perspective enn, utiliser mon simulateur pour tester des idées novatrices comme l'utilisation de réticules dénis en niveau de gris par exemple.

Chapitre 6

L'application de la méthode des

sources généralisées

Introduction

Nous voici arrivés au dernier chapitre de ce manuscrit après un chapitre d'étude expérimentale des eets d'empilement et un chapitre de prise en compte de ces eets par la modélisation. Nous avons maintenant une bonne expertise des eets d'empilement et nous avons trouvé le moyen de réaliser des modèles de qualité. Cependant, une diculté subsiste lorsque l'on aborde la question de la simulation rigoureuse, c'est celle des ressources. En eet, si la simulation rigoureuse n'est pas ou peu utilisée aujourd'hui pour la correction des réticules du procédé de photolithographie optique c'est parce que le temps de simulation nécessaire et la mémoire requise pour mener à bien ces simulations sont trop importants pour une application industrielle. Nous avons donc la connaissance physique, le modèle, il ne reste plus qu'à nous doter d'un moyen de calcul adéquat.

Ce chapitre se consacre à l'application de la méthode dite "des sources généralisées" à la modélisation du procédé de photolithographie. Cette méthode rigoureuse de résolu-tion des équarésolu-tions de Maxwell permet grâce à une formularésolu-tion mathématique astucieuse du problème, de réduire considérablement le temps de calcul et la mémoire nécessaires à la simulation de bon nombre de problèmes optiques. Dans ce chapitre, nous abor-derons donc le principe de la méthode. Nous expliquerons quelles sont les raisons qui font de cette méthode, équivalente aux méthodes classiques de résolution des équations de Maxwell en termes de précision, une méthode rapide et économe en mémoire infor-matique. Nous eectuerons, en termes de précision, une comparaison avec la méthode classique et connue RCWA, puis nous montrerons le gain en vitesse et mémoire obtenus pendant ces travaux de thèse.

6.1 La méthode des sources généralisées

La méthode des sources généralisées est une méthode modale. En se basant sur une formulation mathématique astucieuse du problème, elle permet un gain en vitesse de calcul et consommation mémoire [54] [3].