Thèse soutenue

Adaptation de méthodes d'apprentissage automatique dans l'industrie du semiconducteur : détection d'excursions, analyse de root cause et intégration de connaissances

FR  |  
EN
Auteur / Autrice : Mathias Chastan
Direction : Jérôme MalickFranck Iutzeler
Type : Thèse de doctorat
Discipline(s) : Mathématiques et informatique
Date : Soutenance le 29/03/2022
Etablissement(s) : Université Grenoble Alpes
Ecole(s) doctorale(s) : École doctorale Mathématiques, sciences et technologies de l'information, informatique (Grenoble ; 1995-....)
Partenaire(s) de recherche : Laboratoire : Laboratoire Jean Kuntzmann (Grenoble)
CIFRE : STMicroelectronics (Crolles, Isère, France)
Jury : Président / Présidente : Jérôme Lelong
Examinateurs / Examinatrices : Pierre Lemaire
Rapporteurs / Rapporteuses : Marianne Clausel, Amaury Habrard

Mots clés

FR  |  
EN

Résumé

FR  |  
EN

La complexification du processus de fabrication des puces électroniques rend nécessaire un contrôle de qualité toujours plus performant. Pour ce faire, des modèles d'apprentissage automatique (machine learning) sont désormais mis en oeuvre afin d'obtenir une réponse performante et peu coûteuse. L'intégration de ces nouvelles méthodes est compliquée et requiert des recherches pour les différents cas d'études qui possèdent des problématiques spécifiques. Trois projets d'intégration de méthodes de machine learning dans l'industrie du semiconducteur sont présentés dans ce manuscrit. Le premier porte sur la détection des signaux faibles. Le deuxième projet fait partie du domaine de l'analyse de la cause racine (root cause). Le troisième projet est un projet de recherche plus théorique sur l'intégration de connaissances dans un algorithme d'apprentissage automatique.Les machines de lithographie sont équipés d'équipements de mesures appelés leveling sensors qui mesurent la topographie (leveling) de toutes les plaquettes (wafer) de silicium à chaque étape du processus. Pour chaque plaquette, environ 35 000 points sont mesurés et utilisés pour régler la machine, mais ils n'étaient auparavant pas sauvegardés. Une base de données a été créée pour stocker ces mesures qui peuvent être traitées pour détecter des signaux faibles en leveling sans aucun coût d'équipement de mesure (métrologie) supplémentaire. La solution proposée doit pouvoir traiter en temps réel un nombre conséquent de mesures (35 000 points par plaque / 25 plaques par lot / un lot par minute) bruitées qui proviennent de différents contextes (équipement / produit / couche). Un algorithme d'apprentissage non supervisé (DBSCAN) a été choisi pour répondre aux contraintes de vitesse d'exécution et de contextes multiples, car ce type d'algorithme ne nécessite pas d'apprentissage et il n'y a donc pas besoin de disposer d'un historique de données pour chaque contexte (ce qui est impossible dans le milieu du semiconducteur). Une solution de nettoyage de données a aussi été développée dans le cadre de cette thèse pour supprimer le bruit des données. Cette méthode complète a permis la création d'une application de détection automatique des signaux faibles avec système d'alerte par mail qui est utilisée actuellement chez STMicroelectronics Crolles.L'analyse de la root cause est un sujet critique dans l'industrie du semiconducteur. En effet, détecter la cause d'une excursion est difficile dans cet environnement de production complexe ; une plaquette passe par environ 300 étapes process et 500 étapes de mesures, sur différents équipements et avec différents paramètres qui sont tous des causes potentielles d'un événement de non-qualité. La cause peut aussi être une combinaison de différents éléments du processus (un enchaînement d'opération par exemple) et la solution doit pouvoir détecter cette situation automatiquement. Il est aussi nécessaire de s'assurer de la pertinence des résultats de la méthode de détection de la root cause. Pour respecter ces contraintes une méthode utilisant l'algorithme random forest a été développée (Random Forest Discriminant Analysis). L'algorithme random forest est capable de traiter de grands volumes de données et les résultats sont facilement interprétable grâce aux métriques d'importance des features et de précision. Cette solution a été testée sur quelques cas avec de bons résultats et sera prochainement intégrée dans une application d'analyse de données.L'intégration de connaissance est l'objet de recherches récentes et doit permettre de créer des modèles plus robustes en ajoutant des contraintes qui correspondent à une réalité métier.