conception de systèmes intégrés

Top PDF conception de systèmes intégrés:

Nouvelles briques de conception de systèmes intégrés pour la vision infrarouge

Nouvelles briques de conception de systèmes intégrés pour la vision infrarouge

L’aboutissement de cette thèse a aussi été encouragé par de nombreuses discussions avec Riad Haïdar, Joël Deschamps et Jérôme Primot. Je les remercie pour leur intérêt qu’ils ont portés sur mes travaux. Il est en effet très encourageant de savoir que son travail sera vigoureusement défendu et soutenu par des personnalités passionnées. Ils ont ainsi contribué à diffuser ces travaux de recherche vers de nouveaux axes d’études élargissant alors la thématique de la miniaturisation des systèmes optiques et je les remercie du fond du cœur.

255 En savoir plus

Nouvelles briques de conception de systèmes intégrés pour la vision infrarouge. D'une approche minimaliste à la caméra sur puce.

Nouvelles briques de conception de systèmes intégrés pour la vision infrarouge. D'une approche minimaliste à la caméra sur puce.

Pour les systèmes multivoies réalisant une série d’imagettes comme l’illustre la figure 2.11 page 30, une dernière difficulté s’ajoute ! Il s’agit en effet de partager soigneusement l’angle solide de la scène en plusieurs secteurs. Le cas idéal est bien sûr de diviser cette scène en secteurs adja- cents afin d’éviter tout problème de recouvrement. Une bonne manière de diviser un demi-angle solide est de diviser ce dernier en unités hexagonales. Cette répartition est d’ailleurs couramment

255 En savoir plus

Méthode de conception dirigée par les modèles pour les systèmes avioniques modulaires intégrés basée sur une approche de cosimulation

Méthode de conception dirigée par les modèles pour les systèmes avioniques modulaires intégrés basée sur une approche de cosimulation

Ce flot de conception suit le concept de l’ingénierie dirigée par les modèles. La première partie du flot consiste à représenter à la fois le matériel et le logiciel de l’architecture IMA par les composants du langage de modélisation AADL. Ensuite, des travaux de modifications ont été faits sur le générateur du code OCARINA afin de pouvoir générer automatiquement des applications à partir du modèle AADL pour un simulateur commercial de système ARINC653 appelé SIMA. Ce simulateur est une alternative peu coûteuse aux environnements de développement commerciaux très dispendieux. La deuxième partie du flot consiste à modéliser l’environnement externe, soit les capteurs et actuateurs, en utilisant l’outil Simulink qui fournit des composants logiciels prêts à utiliser. Le générateur de code intégré dans Simulink permet de générer du code C ou C++ à partir du modèle Simulink. La solution générée peut fonctionner sur différents OS tels que Linux ou Windows dans le but de simuler les fonctionnalités des capteurs et actuateurs avioniques. Il est prouvé que ces deux parties de flot sont efficaces en termes de temps en utilisant la génération automatique qui accélère le développement des systèmes et élimine les erreurs humaines.
En savoir plus

107 En savoir plus

Nouveaux dispositifs intégrés pour l'analyse et le contrôle de lumière cohérente : conception conjointe de circuits opto-électroniques et systèmes optiques

Nouveaux dispositifs intégrés pour l'analyse et le contrôle de lumière cohérente : conception conjointe de circuits opto-électroniques et systèmes optiques

la lumière dans les tissus biologiques. Les phénomènes d’absorption et de diffusion sont décrits et des valeurs physiques basées sur des mesures expérimentales de la littérature justifient les arguments développés dans l’introduction. Dans un second temps l’état de l’art des principales techniques d’imagerie optiques est détaillé. Ces techniques sont la tomographie optique diffuse, parfois utilisée pour les mammographies, puis la tomographie à cohérence optique dont les ap- plications sont nombreuses en dermatologie, ophtalmologie ou encore gastroentérologie. Citons enfin les méthodes utilisant à la fois les ultrasons et la lumière, dont la tomographie basée sur la méthode d’holographie acousto-optique. Dans chacune de ces techniques, on expliquera la détection associée et le traitement du signal optique nécessaire. Dans un troisième temps, les systèmes de détection existants pour la détection d’information optique médicale seront présen- tés ; ceux disponibles dans le commerce ainsi que les capteurs d’images dédiés à ces applications qui ont été développés par différents laboratoires. Dans un quatrième temps les méthodes de l’état de l’art pour contrôler la lumière dans les milieux diffusants seront exposées ; des premiers algorithmes de focalisation mis au jour en 2008, jusqu’à la mesure de la matrice de transmission dont la preuve de concept a été faite en 2010. Enfin, en lien avec le contrôle de la lumière, les dispositifs modulateurs de lumière de l’état de l’art seront présentés.
En savoir plus

166 En savoir plus

2015 — Méthode agile pour la conception collaborative multidisciplinaire de systèmes intégrés : application à la mécatronique

2015 — Méthode agile pour la conception collaborative multidisciplinaire de systèmes intégrés : application à la mécatronique

2.2.2.1 Environnements supports à l’ingénierie collaborative synchrone à distance La distribution géographique des acteurs ainsi que leur multiplicité sont autant de freins à de véritables échanges susceptibles de promouvoir l’intégration des expertises multidisciplinaires. Un environnement de travail efficient pour collaborer devient alors essentiel pour améliorer la compréhension partagée entre les différents acteurs des différentes équipes, partager des informations sur le produit durant les différentes étapes de conception et maintenir la cohérence des travaux durant leurs évolutions, notamment synchrones (Vu Thi, 2012). Vu Thi rappelle que deux catégories de support au travail collaboratif distant existent. La première s’inscrit dans le support au travail collaboratif synchrone et est composée des différents outils tels que la visioconférence, les réunions audio avec partage d’écran, etc. La seconde catégorie traite des activités asynchrones avec notamment l’échange de données structurées provenant d’outils métiers spécifiques. Ses travaux portent donc sur l’amélioration de la « capacité de travail synchrone à distance avec des outils support à la communication technique », de « synchronisation des versions produites par des concepteurs », en identifiant des conflits au plus tôt et d’« assurer la convergence des travaux asynchrones et ainsi supporter la cohérence des données produites tout au long de son développement » (Vu Thi, 2012).
En savoir plus

260 En savoir plus

Méthodologie pour la conception optimisée des réseaux de chaleur et de froid urbains intégrés

Méthodologie pour la conception optimisée des réseaux de chaleur et de froid urbains intégrés

La chaleur rejetée par la production de froid (réfrigération, rafraichissement…) ainsi que des sources d’énergie renouvelables à faible température (solaire thermique, géothermie…) sont peu valorisées à l’heure actuelle faute de systèmes disposant d’une flexibilité de gestion. En effet, les besoins de chaud et de froid, ainsi que les sources d’énergie renouvelable ou renouvelée, présentent des variations à deux échelles de temps (journalière et saisonnière). L’intégration énergétique d’un tel système doit tenir compte de la dynamique et peut s’appuyer sur des systèmes thermodynamiques de conversion (PAC, Cogénération…) ainsi que des moyens de stockage (journaliers et saisonniers). Aujourd’hui les réseaux de chaleur se développent en zone urbaine dense et utilisent essentiellement de l’énergie fossile. La part de la chaleur des incinérateurs de déchets urbains, de la biomasse et des installations de géothermie est en hausse.
En savoir plus

242 En savoir plus

Analyse et Optimisation du Partage de Spectre dans les Systèmes Mobiles Intégrés Satellite et Terrestres

Analyse et Optimisation du Partage de Spectre dans les Systèmes Mobiles Intégrés Satellite et Terrestres

Figure 0-1 : Système mobile intégré satellite-terrestre Cependant, le succès d’un système intégré est le résultat d’une alchimie complexe. L’expérience des utilisateurs doit être la plus proche de celle des réseaux terrestres avec un coût des communications satellite le plus bas possible, un terminal comparable aux téléphones terrestres en taille et en fonctionnalités avec un abonnement unique et une intégration suffisante au niveau réseau (carte SIM unique, roaming entre réseaux voire handover). De plus, il faut pouvoir supporter les coûts de conception et de déploiement d’un tel système qui sont énormes. Les seuls abonnements des utilisateurs justifient difficilement le retour sur investissement. Une solution est donc avancée en 2001 par les opérateurs satellite : la réutilisation du spectre satellite par le réseau terrestre pourrait permettre de créer l’apport financier nécessaire à la réalisation d’un système intégré. En effet, alors que l’utilisation du spectre satellite est « gratuite », la valeur du spectre terrestre ne cesse de croître et les coûts de licence d’exploitation atteignent déjà à l’époque des sommes astronomiques. En 2003, la FCC (Federal Communication Commission) américaine accepte à la demande de certains opérateurs satellite, l’utilisation de stations terrestres dans la même bande de fréquence que le système satellite. Aujourd’hui, aucun n’a encore connu le succès escompté. Le plus proche d’y parvenir, Lightsquared (a.k.a Skyterra) est pour l’instant bloqué par des problèmes d’interférences avec le service GPS dans la bande de fréquence adjacente à la sienne. Le système intégré le plus avancé est celui de Terrestar, qui propose un service terrestre et satellite sur un terminal de la taille d’un smartphone. Toutefois, cet opérateur n’a pas encore la licence pour partager le spectre avec les systèmes terrestre. L’intégration avec son partenaire terrestre AT&T se limite au terminal et au réseau et ils ne partagent pas le même spectre. Leur système est donc peu rentable jusqu’à présent.
En savoir plus

139 En savoir plus

Conception testable de circuits intégrés complexes à très haut niveau

Conception testable de circuits intégrés complexes à très haut niveau

être capable de se remettre en route [111]. De ce fait, une vérification continuelle des ré- sultats produits et la possibilité de prédiction de défaillances augmentent la fiabilité et la sûreté de fonctionnement de ces systèmes. Par ailleurs, la mise en œuvre d’une technique de test qui permet de satisfaire ces besoins dépend fortement des objectifs visés prédéfinis en plus de la stratégie à mettre en œuvre. Cette stratégie est efficace dans la mesure où elle permet d’appliquer des tests et de prélever des résultats sans perturber ou ralentir le bon fonctionnement de ces systèmes. Les deux aspects clés, dans la philosophie de test, sont la contrôlabilité et l’observa- bilité. Aujourd’hui, les vecteurs de tests sont générés par des algorithmes très complexes en utilisant différentes méthodes (BIST, Boundary Scan,. . .). De plus, les concepteurs de test, devraient assurer non seulement l’activation des fautes ciblées, mais aussi leur pro- pagation aux soties primaires pour les rendre observables. En pratique, les broches E/S dédiées au test sont peu nombreuses (car l’ajout de broches E/S, pour des fins de test, augmente dramatiquement le coût de la conception originale) [30,31,43]. Cette situation devient très délicate, notamment quand il s’agit d’assurer un test en ligne où l’intervention humaine devrait être réduite au strict minimum. C’est pour cela que depuis un certain nombre d’années, les concepteurs de test ont considéré des solutions optiques reposant sur l’insertion de sondes optiques dans les circuits sans modifier le nombre des E/S du circuit original [12,112]. Ces sondes optiques intégrées, assurent l’émission des signaux optiques caractérisant les états des signaux électriques. En effet, récemment, un modèle de sonde optique a été développé au laboratoire LCIS répondant aux exigences de test en ligne de la nouvelle génération des circuits GSI [20]. Par ailleurs, l’emplacement de ces sondes dans la structure du circuit cible doit être fait avec une attention toute particulière pour aboutir à une solution optimale en termes de surface additionnelle requise à l’intégration de ces sondes optiques. De ce fait, nous nous proposons des registres BIST spécifiques comme plate-forme d’intégration de ce type de sondes optiques afin de mettre en œuvre une solution de test pertinente. D’où, un schéma et une stratégie de test en ligne optiques sont proposés et explicités en détail dans la suite de ce chapitre.
En savoir plus

157 En savoir plus

Méthodologie de conception de composants intégrés protégés contre les attaques par corrélation

Méthodologie de conception de composants intégrés protégés contre les attaques par corrélation

Face à ces techniques d’attaques dont l’évolution est particulièrement rapide, s’est dé- veloppé un arsenal de contremesures multiples susceptibles d’améliorer la résistance aux attaques, en particulier aux deux premiers types décris ci-dessus. Celles-ci peuvent inter- venir à différents niveaux tels que le composant, l’algorithme cryptographique et son im- plémentation. Des capteurs de variation de tension d’alimentation, de signal d’horloge, de température ou de lumière sont généralement rajoutés sur le composant. Les techniques de masquage et de duplication sont utilisées pour sécuriser les algorithmes cryptographiques en rendant les variables intermédiaires non prédictibles. Enfin des logiques dédiées comme la logique double rail et des styles logiques spécifiques (SABL, WDDL...) sont employées dans le but de réduire la corrélation entre les données manipulées et les canaux auxiliaires . Malheureusement, la course poursuite engagée entre les concepteurs de circuits et sys- tèmes sécuritaires et les hackers, s’accélère avec la diversité des systèmes, leur ouverture et leur multiplicité. Les enjeux nouveaux (contenus, transactions financières en ligne, contrôle d’informations confidentielles) participent également à l’accélération de ce processus. Il y a cependant une notion temporelle à prendre en compte : les hackers se concentrent sur des produits commerciaux correspondants à une ou deux générations antérieures en termes de technologie. Il apparaît donc aujourd’hui comme un enjeu majeur dans la sécurisation des systèmes de communication, et l’amélioration drastiquement de la résistance des compo- sants à ces techniques d’attaques. .
En savoir plus

141 En savoir plus

2013 — Conception, fabrication et caractérisation d'un panneau adaptatif en composite avec actionneurs en AMF intégrés

2013 — Conception, fabrication et caractérisation d'un panneau adaptatif en composite avec actionneurs en AMF intégrés

écrous. D’ailleurs, ce dernier système d’actionnement a été employé pour l’activation d’une aile déformable dans les travaux menés par Thill et al. (2010) ainsi que Vos, Gurdal et Abdalla (2010). Les méthodes d’activation conventionnelles sont très employées car elles ont l’avantage d’être facile d’utilisation. De plus, ces actionneurs permettent d’obtenir de grandes déformations qui sont impossibles à obtenir avec d’autres types d’actionneurs. En contrepartie, ces systèmes d’actionnement sont souvent lourds et encombrants, ce qui limite leur utilisation à des applications où l’espace disponible et le poids ne sont pas critiques. De plus en plus d’efforts sont déployés afin d’éliminer ce type d’actionneurs dans les domaines où le poids représente un enjeu important, comme dans le transport. Par exemple, Pitt, Dunne et White (2002) cherchent à remplacer un actionneur hydraulique conventionnel utilisé à bord d’un aéronef par un actionneur en AMF.
En savoir plus

137 En savoir plus

Conception et développement d’étalons pour la mesure des paramètres S en mode mixte de circuits intégrés et méthodes associées

Conception et développement d’étalons pour la mesure des paramètres S en mode mixte de circuits intégrés et méthodes associées

Tous les systèmes de mesure, y compris ceux qui utilisent l’ARV, peuvent être influencés par trois types d’erreurs : les erreurs aléatoires, les erreurs de dérive et les erreurs systématiques [52]. Ces dernières sont représentées dans le modèle d’erreur et corrigées dans le processus d’étalonnage. Nous décrirons les deux modèles à huit et douze termes d’erreur implémentés dans l’ARV 2-ports sur lesquels s’appuient de nombreuses méthodes d’étalonnage. Concernant le modèle à douze termes, la méthode d’étalonnage la plus répandue est la méthode SOLT (Short-Open-Load-Thru) [53]. Cette technique peut être appliquée pour la mesure des composants connectorisés ou sur wafer. Cependant, la nécessité de connaître les caractéristiques complètes des étalons entraîne des difficultés pour des mesures sur wafer en hyperfréquences. En outre, la précision de la méthode SOLT sur wafer est significativement influencée par le contact entre les sondes et le composant [54]. Les résultats de mesure peuvent dériver facilement à cause du glissement excessif ou insuffisant des sondes, ce qui influence la précision de l’étalonnage. Plusieurs méthodes basées sur le modèle à huit termes sont largement utilisées telles que les méthodes TRL [6], multiline TRL [55], LRM et LRRM [56], [57]. Les acronymes T, R, L, et M signifient respectivement une connexion directe (Thru), un étalon ayant un coefficient de réflexion élevé (Reflect), une ligne de transmission (Line), et une charge adaptée (Match). La méthode TRL offre une solution adaptée à la traçabilité des mesures de paramètres S des composants asymétriques. La méthode Multimode TRL [5] a été développée pour étalonner l’ARV pour des mesures de paramètres S de circuits différentiels.
En savoir plus

170 En savoir plus

Exploration des techniques de fouille de données pour un monitoring efficace des systèmes intégrés sur puce

Exploration des techniques de fouille de données pour un monitoring efficace des systèmes intégrés sur puce

Les circuits FPGA peuvent être envisagés comme une alternative aux circuits dédiés (faibles volumes, notamment) ou bien utilisés en phase de prototypage. Dans les deux cas se pose la question de la mise en œuvre du monitoring de la consommation tel que nous l’avons défini. L’estimation de la consommation est un sujet abordé par les auteurs de [ CCF03 ], où la macro- modélisation à base de pré-caractérisation est utilisée pour relever la consommation moyenne par accès aux LUTs (Look Up Tables) et aux registres dans le FPGA. Une autre approche propo- sée dans [ NMH12 ], utilise un modèle linéaire pour estimer la puissance dynamique en fonction des activités de commutation au niveau RTL . Le modèle est validé sur de petits composants tels qu’un additionneur et un multiplieur. Par ailleurs, des modèles de la consommation pour les systèmes multi-processeurs sur FPGA ont été proposés dans [ PP12 ]. La technique est basée sur la construction en temps de conception de modèles en fonction d’un ensemble d’évènements (nommé "signature") tels que les instructions d’accès mémoire (Load/Store). Les caractérisa- tions sont conduites pour des implémentations FPGA, mais les modèles créés sont par la suite intégrés dans des simulateurs du type SystemC. La contribution se limite à une estimation de la puissance dynamique sans proposer une intégration qui permettrait une observation en-ligne. Notre méthode cible une implémentation matérielle du monitoring sur FPGA et offre de nombreux avantages, y compris la flexibilité du reconfigurable, et la validation des méthodes de gestion de la puissance sur les FPGAs. Pour cela, nous proposons un flot complet pour générer des bases de données pour les circuits implémentés sur des technologies FPGA. La Figure 3.7 illustre ce flot.
En savoir plus

172 En savoir plus

Pépite | Élaboration d’électrodes à base de films d’or nanoporeux et conception de micro-supercondensateurs intégrés

Pépite | Élaboration d’électrodes à base de films d’or nanoporeux et conception de micro-supercondensateurs intégrés

Je remercie l’ensemble des membres du groupe CSAM (Circuits, Systèmes et Applications des Micro- ondes) de l’IEMN, basés à l’IRCICA. Après un peu plus de 7 ans passés en leur compagnie, il ne me reste que de merveilleux souvenirs. Je pense notamment à Christophe LOYEZ (actuel responsable de groupe), Laurent CLAVIER, Rédha KASSI, Bernard VERBEKE, Michel FRYZIEL et Christian « Papi » BEGUE. Ce fut un réel plaisir de croiser la route d’érudits aussi accessibles, ouverts d’esprit et sympathiques. Je pense également avec nostalgie aux anciens doctorants et post-docs qui se sont succédés dans l’open space du groupe nommée « salle de calcul » : Guillaume « Barbiche » DESRUELLES, Jiejia CHEN, Mingdong LI, Charles « Carlito » ANSSENS, Thomas AVILES, Kouakou KOUASSI, Yoan BOURLIER, Benoît « QPUC master » BENSAHLA-TANI, Amal ABBADI, Xin YAN, Román IGUAL-PEREZ, Kamel GUERCHOUCHE, Viktor TOLDOV, Alex BECK et Paul SANGARE. Chacune de ces personnes a été une véritable rencontre, j’ai passé avec eux des moments inoubliables. Merci pour les instants de détente et les fous rires, et merci d’avoir su me préparer à affronter la thèse sans jamais m’en décourager. J’envoie des ondes positives à ceux qui sont engagés dans cet épisode doctoral : Riad KABOUCHE, Mauro DE FREITAS et Nicolas DE ARAUJO, qui j’en suis sûr s’en sortiront très bien.
En savoir plus

228 En savoir plus

Méthode systématique de conception pour comparer les procédés de bioraffinage intégrés dans une usine existante de pâtes et papiers

Méthode systématique de conception pour comparer les procédés de bioraffinage intégrés dans une usine existante de pâtes et papiers

2.1.4 Risques technologiques et du marché pour la bioraffinerie Comme il est indiqué dans les sections précédentes, il y a un grand nombre de technologies de bioraffinage qui sont proposées pour le traitement des différents types de biomasse. Plusieurs technologies ont été développées spécialement pour qu’elles soient intégrées aux procédés des usines de pâtes et papiers. Il y a aussi un grand nombre de bioproduits qui sont présentés comme des produits de substitution ou de remplacement des produits existants. Mais, il y a très peu de travaux de recherche pour la conception de la bioraffinerie qui se sont intéressés aux différents risques de la bioraffinerie. En effet, la bioraffinerie renferme des risques technologiques importants liés principalement au fait que les technologies ne sont pas prouvées à l’échelle industrielle. Nous avons vu par exemple que plusieurs technologies de prétraitement de la biomasse sont toujours à l’échelle de laboratoire. La mise à grande échelle de ces technologies n’est pas connue et les coûts d’investissement ou d’opération requis ne peuvent être estimés à ce stade de développement de ces technologies. Ceci s’applique aussi sur les technologies de traitement et de séparation des produits finis. Il est difficile par exemple de savoir si la pureté voulue des produits finis peut être atteinte avec les technologies de purification proposées. Pour les technologies destinées à être intégrées aux usines de pâtes et papiers, le risque liés aux impacts négatifs après l’intégration sur la qualité de la pâte produite, le fonctionnement des lignes de mise en pâte, le cycle de récupération des matières inorganiques ou les systèmes axillaires comme celui de traitement des effluents est généralement négligé.
En savoir plus

193 En savoir plus

Conception de matrices de diodes avalanche à photon unique sur circuits intégrés CMOS 3D

Conception de matrices de diodes avalanche à photon unique sur circuits intégrés CMOS 3D

Selon plusieurs auteurs, l’intégration de circuits intégrés en trois dimensions (CI3D) permettra de continuer à doubler le nombre de transistors des puces à chaque deux ans, comme le stipule la loi de Moore [58, 59]. De plus, les CI3D permettent l’intégration hétérogène de différentes technologies et l’ajout de fonctionnalités aux systèmes existants, comme le prévoit la loi de « More than Moore ». L’intégration 2D de circuits est l’association de plusieurs circuits intégrés assemblés sur un substrat (interposer), comme il est montré à la figure 1.2 (a). Cette intégration nécessite de longues interconnexions utilisées pour la communication entre les différents circuits intégrés dédiés (en anglais appelé application specific integrated circuit ou ASIC). Ces longues interconnexions possèdent une impédance relativement élevée et augmentent la consommation des circuits, le couplage du bruit et la latence des signaux [59]. La figure 1.2 (b) présente les systèmes sur puce (en anglais System on Chip ou SoC), c’est-à-dire un système comprenant plusieurs circuits de différents types et intégrés sur un même substrat 2 . Puisque les interconnexions entre les circuits sont moins longues que l’intégration 2D, elles ont donc une impédance plus faible et offrent donc une meilleure bande passante. La conception et la fabrication des SoC présentent cependant des difficultés et le temps de mise en marché est important [59]. De plus, l’utilisation des SoC n’est pas viable pour les technologies CMOS sous les 32 nm puisque leurs coûts à ces dimensions deviennent trop élevés due à la grande densité d’interconnexions [58].
En savoir plus

191 En savoir plus

2019 — Modélisation et contrôle des systèmes éoliens-solaire intégrés au réseau VSC-HVDC

2019 — Modélisation et contrôle des systèmes éoliens-solaire intégrés au réseau VSC-HVDC

Dans le sixième chapitre, une nouvelle approche de contrôle est proposée. Elle est basée sur la détection de défaut du câble positif qui est court-circuité à la masse en mesurant le niveau de tension du câble et les variations de la tension continue et du courant. La stratégie de commande développée à la station offshore VSC-HVDC à base des convertisseurs de tension à trois niveaux (NPC), est basée sur la théorie de la puissance triphasée instantanée. De plus, l’action de contrôle de protection du boost CC basé sur le PI anti-windup atteint le courant de défaut pour rétablir la transmission de puissance après l’effacement du défaut, en améliorant ainsi la fiabilité du réseau et la qualité de l’alimentation. Les simulations et tests expérimentaux sont effectués en validant la robustesse de la conception proposée, ainsi que les approches de contrôle développées.
En savoir plus

352 En savoir plus

Contribution à la qualité et à la fiabilité des circuits et systèmes intégrés et à la microélectronique médicale

Contribution à la qualité et à la fiabilité des circuits et systèmes intégrés et à la microélectronique médicale

Ma thématique principale et historiquement la plus ancienne, le test des circuits et systèmes intégrés, s’est grandement appuyée sur la très forte collaboration avec l’industrie. A mon en- trée au CNRS, j’ai décidé de privilégier la collaboration vers un seul industriel majeur de la microélectronique, NXP semiconducteurs, malgré les fortes demandes de collaborations, en particulier de ST microelectronics. La collaboration avec NXP, basée avant tout sur des per- sonnes et des compétences scientifiques, a permis la création du laboratoire ISyTest axé sur la thématique du test et les techniques d’aide à la conception dérivée des techniques de test. A court terme nous prévoyons, dans le cadre d’ISyTest, d’accentuer nos efforts sur le thème des techniques de test indirect (voir section 3.2.4) qui consistent à estimer des spécifications du ca- hier des charges du circuit ou du système en mesurant d’autres paramètres plus facile à obtenir. Ces techniques seront appliquées aux circuits RF pour lesquels les performances proprement RF sont très difficilement mesurables au niveau wafer. Sur cette thématique, nous montons une collaboration tripartite avec le laboratoire TIMA. Cette entrée d’un partenaire universitaire comme collaborateur sur une thématique précise est un des objectifs du laboratoire commun. Chaque partenaire va amener ses compétences et son expérience. Dans le cas du test indirect : NXP semiconductors apportera les cas d’étude concrets et ses travaux antérieurs sur le test dit DC-RF qui consiste à estimer les paramètres RF à l’aide de simples mesures de polarisation ; le TIMA nous fera profiter de son expertise pour développer les algorithmes de corrélation et les outils logiciels permettant de relier les paramètres mesurés aux paramètres estimés ; et pour notre part, nous travaillerons sur la recherche de nouveaux stimuli d’entrée, sur le choix des points de mesure et les signatures associées permettant d’améliorer l’efficacité de l’approche test indirect.
En savoir plus

130 En savoir plus

Contribution à la conception de systèmes numériques adaptatifs

Contribution à la conception de systèmes numériques adaptatifs

2.2.3 Sécurité!matérielle! La sécurité requiert des méthodes et des moyens pour garantir la confidentialité, l’authenticité, l’intégrité et la disponibilité à la fois des données et des systèmes d’informations. Les systèmes intégrés étant le support matériel de l’information numérique, ils constituent un maillon essentiel de la chaîne de sécurité. Celle-ci repose sur la cryptographie, qui elle même s’appuie sur des outils mathématiques permettant notamment de chiffrer des messages afin de les rendre inintelligibles. Si les mathématiques assurent une certaine robustesse vis à vis des outils de cryptanalyse classique, le passage au monde physique pose de nouveaux problèmes. L’implémentation de ces algorithmes cryptographiques repose sur des cryptoprocesseurs qui peuvent laisser fuir des informations par des « canaux auxiliaires » de plusieurs types (temps de calcul, consommation, émissions électromagnétiques, etc.) : par l’observation de ces canaux cachés, il est possible de remonter jusqu’aux clés secrètes et mettre en péril la sécurité du système tout entier. L’objectif de nos travaux est d’étudier les vulnérabilités des implantations logicielles/matérielles des algorithmes cryptographiques face à ces attaques afin de concevoir des systèmes sécurisés de bout en bout. Il est nécessaire pour cela d’identifier les éléments pouvant être susceptibles de laisser fuir les informations secrètes afin de développer des stratégies efficaces privilégiant un équilibre entre performance et sécurité pour protéger de telles architectures. C’est dans le cadre de cette étude que fut développé le processeur SecretBlaze, qui est la brique élémentaire du MPSOC OpenScale. Le SecretBlaze-SCR est la version robuste développée dans le cadre de ces travaux, qui implémente un ensemble de contremesures visant à garantir une sécurité matérielle à moindre coût.
En savoir plus

205 En savoir plus

Methodologie de conception des protections des circuits intégrés contre les décharges électostatiques

Methodologie de conception des protections des circuits intégrés contre les décharges électostatiques

Un circuit intégré est traditionnellement exposé à des décharges électrostatiques dans les trois phases que sont l'assemblage du composant, son montage sur le circuit imprimé, et les opérations de maintenance sur le système électronique final. De nombreuses mesures ont été adoptées pour réduire le risque de décharge. En salle blanche, l'environnement contrôlé permet d'utiliser des ioniseurs pour neutraliser les charges dans l'air, et des matériaux adaptés pour réduire la génération de charges. Les phases de manipulations des composants par les humains ou les machines sont particulièrement critiques et de nombreuses précautions sont prises pour limiter les décharges. Ces mesures sont aussi appliquées à l'assemblage et au montage du circuit intégré. Un conditionnement antistatique adapté est généralement choisi pour diminuer les risques de génération de charges durant le transport ou le stockage. Ces protections passives, autour du circuit intégré, ne permettent pas de totalement éliminer le risque de décharge, et il est donc nécessaire que le composant soit doté de protections intégrées. Ces dernières sont d'autant plus indispensables, que le risque de décharges électrostatiques devient de plus en plus grand. En effet, le grand nombre d'applications nomades, les nouvelles fonctionnalités qui banalisent le branchement en cours d'utilisation des systèmes (USB, Ethernet), ou encore l'explosion de l'électronique dans les véhicules, multiplient les environnements non contrôlables dans lesquels le risque de décharge électrostatique est important. Il est devenu nécessaire de quantifier la sensibilité des circuits intégrés aux ESD, et pour cela il a fallu définir des normes de protection.
En savoir plus

98 En savoir plus

Systèmes intégrés adaptatifs ultra basse consommation pour l'Internet des Objets

Systèmes intégrés adaptatifs ultra basse consommation pour l'Internet des Objets

4.3.1. Extraction de l’activité du circuit Les simulations sont effectuées avec l’outil ModelSim SE version 2019.1 de Mentor Graphics. Elles sont réalisées à différentes étapes de la conception : simulation RTL ; après la synthèse ; après le routage. Pour la simulation après routage, l’aspect temporel est pris en compte pour s’assurer du bon respect des contraintes spécifiées dans les bibliothèques de la technologie. Lors de cette simulation, les changements de valeur des signaux logiques sont enregistrés dans un fichier prévu à cet effet (au format VCD, Value Change Dump). L’extraction des changements de valeurs n’est réalisée que sur la partie intéressée, c’est-à-dire durant l’exécution du programme de référence CoreProfile d’une durée de 1,555 ms environ. Les changements qui ont lieu durant la phase d’amorçage, le transfert des instructions et l’initialisation du système ne sont pas enregistrés. Cette manipulation permet de gagner du temps de simulation, qui est ralentie par la sauvegarde des changements de valeur. Cette simulation, réalisée sur un processeur Intel Xeon (Skylake IBRS) x64, nécessite en effet près de 14 heures et 17 minutes pour simuler environ 114,7 ms de temps d’exécution du microcontrôleur, soit 7 minutes et 28 secondes pour une milliseconde. La simulation est très lente comparée à la plateforme FPGA, cette dernière étant en temps réel. Cela représente un facteur proche de 448000.
En savoir plus

127 En savoir plus

Show all 6547 documents...