RUIZ ANNE (FR)
SOUAL CAROLE (FR)
CAUSSINUS HENRI (FR)
BERGERET FRANCOIS (FR)
RUIZ ANNE (FR)
SOUAL CAROLE (FR)
CAUSSINUS HENRI (FR)
US6975944B1 | 2005-12-13 |
H. CAUSSINUS, S.HAKAM, A. RUIZ-GAZEN: "Projections révélatrices contrôlées recherche d'individus atypiques", REVUE DE STATISTIQUE APPLIQUÉE, vol. 50, no. 4, 2002, pages 81 - 94, XP002542405, Retrieved from the Internet
THARRAULT Y ET AL: "Fault detection and isolation with robust principal component analysis", CONTROL AND AUTOMATION, 2008 16TH MEDITERRANEAN CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 25 June 2008 (2008-06-25), pages 59 - 64, XP031308672, ISBN: 978-1-4244-2504-4
CAUSSINUS H ET AL: "A monitoring display of multivariate outliers", COMPUTATIONAL STATISTICS AND DATA ANALYSIS 20031028 ELSEVIER NL, vol. 44, no. 1-2, 28 October 2003 (2003-10-28), pages 237 - 252, XP002542406
See also references of EP 2391929A1
REVENDICATIONS 1. Procédé de détection de composants électroniques atypiques, destiné au contrôle qualité d'un ensemble de n composants électroniques en fin de fabrication, lesdits composants étant soumis à un nombre p de tests unitaires fournissant des données numériques, cet ensemble de n composants étant constitué des composants électroniques dont la réponse à chacun des p tests unitaires est contenue dans des limites prédéterminées et propres à chacun des p tests, caractérisé : - en ce qu'il utilise l'information multidimensionnelle des réponses de dimension p de ces n composants électroniques, - en ce qu'il comporte une proposition d'un nombre q inférieur à p de combinaisons linéaires pertinentes des p tests qui comportent une part arbitrairement grande de l'information présente dans les p tests, - en ce que le choix des q combinaisons linéaires des p tests s'effectue en établissant une Analyse en Composantes Principales Généralisée, avec un choix de métrique M adaptée aux p tests des n composants électroniques, - en ce que le procédé est mis en œuvre à la fin des tests sous pointe et / ou à la fin de tests réalisés après avoir assemblé les composants électroniques corrects, c'est à dire les composants électroniques ayant passé les tests sous pointe. 2. Procédé selon la revendication 1 , caractérisé en ce que la métrique M est choisie telle que : M = W~ι (inverse de la matrice W) avec W - matrice carrée d'ordre p, où exp représente la fonction exponentielle, et X1 vecteur colonne associé à un composant électronique i parmi les n composants électroniques, de dimension p correspondant aux p réponses respectives à chacun des p tests sur ce composant électronique i, Xn = — V X vecteur des moyennes empiriques, ' (X1 - Xn) est le vecteur transposé de (X1 - Xn ) , Vn = — Y](X1 - XnY (X1 - Xn) , la matrice des variances et covariances empiriques usuelles Vn qui est une matrice carrée d'ordre p, Vn 1 est la matrice inverse de la matrice des variances et covariances empiriques usuelles Vn , β étant un nombre réel petit. 3. Procédé selon la revendication 2 caractérisé en ce que β est de l'ordre de 1/p ou arbitrairement choisi compris entre 0.01 et 0.1 4. Procédé selon la revendication 3, caractérisé en ce que les vecteurs principaux sont choisis égaux aux q premiers vecteurs principaux associés aux plus grandes valeurs propres parmi l'ensemble des vecteurs principaux obtenus par l'analyse en composantes principales, le nombre q étant déterminé en utilisant un critère optimisé. 5. Procédé selon la revendication 4 caractérisé en ce que le critère est tel que la valeur propre associée à une composante principale est supérieure strictement à 1 + β - 6. Procédé selon la revendication 4, caractérisé en que il utilise au moins une projection sur un sous espace vectoriel engendré par une sous famille des composantes principales et au moins un critère pour identifier les composants électroniques atypiques. 7. Procédé selon la revendication 6, caractérisé en que : - ce ou ces sous espaces vectoriels sont des plans vectoriels, - le critère pour identifier les composants atypiques est vérifié en considérant la projection des vecteurs X1 sur chaque plan vectoriel, et en définissant un cercle de confiance d'un rayon r englobant un nuage dit « majoritaire » contenant par définition la projection de l'ensemble des composants électroniques typiques, et en déclarant qu'un composant électronique i est atypique si la projection de X1 sur le plan vectoriel est en dehors du cercle de confiance. 8. Procédé selon la revendication 7, caractérisé en que le rayon r du cercle de confiance pour un niveau de signification OC, est définie par la racine carrée du quantile d'ordre 1 -α d'une loi de χ 2 à (2 x -Jl + β ) degrés de liberté. 9. Procédé selon la revendication 6, caractérisé en ce que le critère pour identifier les composants électroniques atypiques utilise le calcul d'un score correspondant à sa norme pour chaque composant, et une limite statistique pour ce score. 10. Procédé selon la revendication 1 , caractérisé en ce qu'il comporte en outre des étapes dans lesquelles : - on cherche des projections linéaires des données sur une ou deux dimensions qui mettent en évidence des observations atypiques, - on définit un indice de projection, qui mesure l'intérêt de la projection, l'indice de projection étant d'autant plus élevé que la projection met en évidence des atypiques, - on recherche une ou plusieurs projections qui correspondent à des maxima locaux de l'indice de projection. |
La présente invention appartient au domaine du contrôle de qualité de pièces et en particulier de composants électroniques.
Contexte de l'invention et problème posé L'industrie des semi-conducteurs produit des circuits intégrés, dits composants électroniques, qui sont fabriquées sur des groupes de plaquettes de silicium, chaque plaquette comprenant plusieurs centaines de composants.
Afin de garantir le fonctionnement de ces composants électroniques, une première série de tests qu'on appelle tests sous pointe (ou probe) est effectuée sur chacune des composants alors qu'elles font encore partie d'une plaquette.
A chacun de ces tests qui sont constitués respectivement d'une mesure électronique est associée une limite de spécification déterminée, entre autres, avec le client à qui ces composants électroniques sont destinés.
Les composants électroniques, dont la réponse à au moins un test est non conforme à la spécification de ce test de cette première série de tests (probe), sont alors considérées comme défectueux, rejetées lors de leur séparation d'avec la plaquette.
Au contraire, les composants électroniques dont les réponses sont conformes pour tous les tests sont assemblés dans un boîtier puis de nouveau testées par une deuxième série de tests.
Comme dans la première série de tests, des limites de spécification ont été déterminées avec le client à qui ces composants électroniques sont destinés, et les composants électroniques dont au moins une réponse à un test est non conforme à la spécification de ce test de cette deuxième série de tests sont rejetés. Cette deuxième série de tests peut être dupliquée à plusieurs températures (-40 0 C, +90° C par exemple).
Ainsi par ce procédé couramment utilisé, un composant est rejeté et donc non livrée au client si au moins une réponse à un test (appartenant à la première série de test ou à la deuxième série de tests) est en dehors des limites de spécification associées à ce test.
Or il arrive que des pièces livrées donc qui ont passé tous les tests avec succès présentent un défaut latent qui va se révéler lors de la mise en œuvre de la pièce dans le cadre de l'application du client, dès livraison ou même plus tard dans l'application finale (un frein de type ABS par exemple).
Ce contrôle qualité, tel qu'il est actuellement pratiqué de façon usuelle, se révèle donc insuffisant et quelques méthodes complémentaires sont déjà à l'œuvre, par exemple dans les composants destinés à l'industrie automobile, pour minimiser ces problèmes de qualité vus par le client.
Ces méthodes complémentaires sont effectuées sur les composants électroniques, en général après la première série de tests et/ou après la deuxième série de tests et utilisent les distributions des résultats à chacun de ces tests pour éliminer des composants électroniques atypiques appelées outliers. Elles sont donc utilisées test par test pour chacun des tests ou pour une partie des deux séries de tests.
Par exemple une méthode appelée Part Average Testing (PAT) compare la réponse d'un test d'un composant électronique à la distribution moyenne des réponses de ce test des autres composants électroniques et considère comme composant électronique atypique, un composant électronique admettant une réponse à un test trop distante de la répartition des réponses à ce test des autres composants électroniques. De même, une méthode appelée Part Average Testing Géographique considère comme composant électronique atypique, un composant électronique entourée, lors du test par exemple sur une plaquette silicium, de composants non conformes. On tend alors à considérer que le composant entouré de composants défectueux est probablement défectueux par proximité "géographique".
Une autre méthode complémentaire consiste à créer des modèles mathématiques de régression, c'est à dire de corrélation entre les résultats des composants aux différents tests, et à considérer comme atypiques et donc potentiellement défectueuses, les composants électroniques dont la corrélation entre deux tests n'est pas conforme à la moyenne obtenue pour les autres composants électroniques.
Toutefois ces méthodes complémentaires, bien que constituant des améliorations vis à vis des méthodes de tests antérieures, présentent encore des inconvénients. Typiquement, elles permettent toujours à des composants électroniques présentant un défaut latent, d'être considérées comme fiables et livrables au client.
Cet inconvénient est gênant, d'une part, parce qu'il oblige le fabricant à renvoyer au client un nouveau lot de pièces de remplacement, et diminue son niveau de qualité perçu par le client, mais, plus encore, parce que certaines de ces composants, bien que d'un coût unitaire faible, sont des composants critiques dans le fonctionnement d'un système plus complexe, par exemple un contrôleur moteur ou un système de freinage ABS. Dans ce cas, une panne du composant peut conduire à un accident grave, dont les conséquences vont très au delà de la simple valeur financière du composant. Ce risque amène les fabricants à choisir de rejeter trop de composants, dont de nombreux composants corrects, car ils utilisent les méthodes univariées (PAT ...) ou bivariées (régression ...) sur un très grand nombre de tests, ce qui les prive de quelques pourcents de leur production, tout en ne leur garantissant cependant pas d'éliminer toutes les composants potentiellement défectueuses. Quoique déjà dotées d'une certaine performance, ces méthodes sont donc insuffisantes pour atteindre le zéro défaut.
Objectifs de l'invention
L'objectif de cette invention est donc de proposer un procédé permettant d'affiner la détection des composants électroniques atypiques (et donc potentiellement défectueuses) dans un ensemble de composants électroniques soumis à un nombre important de tests afin de tendre vers le zéro défaut, conformément à l'exigence par exemple de l'industrie automobile.
Selon un second objectif de cette invention, celle-ci ne nécessite pas la réalisation de nouveaux tests sur les composants électroniques déjà testés par les méthodes classiques.
Un troisième but de l'invention est de ramener, dans la catégorie des composants conformes aux spécifications et donc vendables, des composants qui auraient été éliminés de façon erronée (faux négatif) par les méthodes précédentes. Selon un quatrième but de l'invention, celle-ci peut permettre dans certains cas aux fabricants de composants électroniques de supprimer des tests de fiabilité coûteux, dits « burnin », les pièces rejetées lors de ce burnin étant captés par notre invention.
Exposé de l'invention
A cet effet, l'invention vise un procédé de détection de composants électroniques atypiques, destiné au contrôle qualité d'un ensemble de n composants électroniques en fin de fabrication, lesdits composants étant soumis à un nombre p de tests unitaires fournissant des données numériques, cet ensemble de n composants étant constitué des composants électroniques dont la réponse à chacun des p tests unitaires est contenue dans des limites prédéterminées appelées limites de spécifications client, et propres à chacun des p tests, utilisant l'information multidimensionnelle des réponses de dimension p de ces n composants électroniques On comprend que contrairement à l'état de l'art qui travaille en une dimension ou en deux dimensions, ce procédé va travailler en p dimensions et donc va pouvoir utiliser toute l'information des p tests, et conséquemment identifier plus de composants atypiques ou remettre en cause certains composants rejetés.
En effet, pour la majorité des composants atypiques, leur défaut latent est détectable dans l'atypie de ces composants électroniques, si on considère l'ensemble des réponses aux tests sur l'ensemble des composants électroniques à tester. Selon un mode préféré de réalisation, le procédé de l'invention comporte une proposition d'un nombre q inférieur à p de combinaisons linéaires pertinentes des p tests qui comportent une part arbitrairement grande de l'information présente dans les p tests.
L'utilisation d'une Analyse en Composante Principale, réduit de façon considérable le nombre de dimensions de travail, tout en conservant une part très significative de l'information présente dans le nuage de points initial, chaque point correspondant à un résultat d'un test pour un composant électronique. Les informations extraites vont suffire à caractériser une structure des n composants électroniques et donc à révéler les composants électroniques atypiques. Selon un mode préféré de réalisation, le choix des q combinaisons linéaires des p tests s'effectue en établissant une Analyse en Composantes Principales
Généralisée avec un choix de métrique M adaptée aux p tests des n composants électroniques.
On choisit ici de s'orienter vers un type particulier d'Analyse en Composantes Principales, dit Analyse en Composantes Principales Généralisée, quelle que soit la métrique utilisée.
Si par exemple, les p tests ont une unité de mesure commune, on peut utiliser par exemple la métrique euclidienne et effectuer une Analyse en Composantes Principales avec cette métrique. Selon un mode avantageux de réalisation, la métrique M est choisie telle que
M = W ~ι (inverse de la matrice W) avec
W - matrice carrée d'ordre P- où exp représente la fonction exponentielle et X 1 vecteur colonne associé à un composant électronique i parmi les n composants électroniques, de dimension p correspondant aux p réponses respectives à chacun des p tests sur ce composant électronique i.
X n = — V X 1 vecteur des moyennes empiriques
' (X 1 - X n ) est le vecteur transposé de (X 1 - X n )
Λ n
V n = — Y](X 1 - X n Y (X 1 - X n ) , la matrice des variances et
covariances empiriques usuelles V n qui est une matrice carrée d'ordre p
V n 1 est la matrice inverse de la matrice des variances et covariances empiriques usuelles V n . β étant un nombre réel petit.
On comprend qu'en utilisant une telle métrique, on s'affranchit du problème de centrage des données, l'ensemble des vecteurs (X 1 - X n ) étant par définition centré et qu'on s'affranchit du problème des différences des unités de mesure ou échelles des p tests entre eux en utilisant la norme |x| ι .
Selon un mode préféré de réalisation, les vecteurs principaux sont choisis égaux aux q premiers vecteurs propres associés aux plus grandes valeurs propres parmi l'ensemble des vecteurs propres obtenus par l'Analyse en Composantes Principales, le nombre q étant déterminé en utilisant un critère préalablement choisi. On détermine par le procédé un critère de calcul automatique du nombre q de vecteurs principaux qui vont être utilisées pour évaluer chaque composant.
Préférentiellement, ce critère est tel que la valeur propre associée à une composante principale est supérieure strictement à 1 + β .
Selon un mode préféré de réalisation, on utilise au moins une projection sur un sous espace vectoriel engendré par une sous famille des vecteurs principaux et au moins un critère pour identifier les composants électroniques atypiques.
Plus particulièrement en dimension 2, ce ou ces sous-espaces vectoriels sont des plans vectoriels et le critère pour un plan vectoriel, pour identifier les composants atypiques se fait en considérant la projection des vecteurs X 1 sur ce plan vectoriel, et en définissant un cercle de confiance de rayon r englobant un nuage dit « majoritaire » contenant par définition la projection de l'ensemble des composants électroniques typiques, et en déclarant qu'un composant électronique i est dite atypique si la projection de X 1 sur le plan vectoriel est en dehors du cercle de confiance. Encore plus particulièrement, le rayon r du cercle de confiance pour un niveau de signification OC, est défini par la racine carrée du quantile d'ordre
1 -α d'une loi de χ 2 à (2x^1 + β ) degrés de liberté.
Pour un vecteur^ , la norme de sa projection sur le plan vectoriel définit un score. Les composants électroniques sont ensuite ordonnés selon ce score et éliminés si leur score est supérieur à un seuil préalablement calculé ou choisi.
Selon un mode particulier de réalisation, le critère pour identifier les composants électroniques atypiques utilise le calcul d'un score correspondant à sa norme pour chaque composant, et une limite statistique pour ce score.
L'invention vise également un logiciel mettant en œuvre le procédé tel qu'exposé.
Brève description des figures
Les buts et avantages de l'invention seront mieux compris à la lecture de la description qui suit faite en référence aux dessins dans lesquels : - la figure 1 représente une projection des vecteurs caractérisant les composants électroniques et les réponses respectives à des tests sur un sous espace de dimension deux, engendré par les deux premières composantes principales du système, dans cette figure, les composants atypiques éloignés du nuage de points central, détectés par le procédé selon l'invention, sont marqués par des étoiles, - la figure 2 illustre l'insertion des étapes d'élimination de pièces atypiques par le procédé selon l'invention, au sein du procédé connu de contrôle de composants avant livraison à un client.
Description détaillée d'un mode de réalisation de l'invention L'invention est mise en œuvre par un logiciel informatique exécuté sur un micro-ordinateur ou autre ordinateur de type standard.
L'invention est destinée à être utilisée lors d'un contrôle qualité de fabrication des composants électroniques et ceci : 1/ à la fin des tests sous pointe (probe) qui sont constitués de plusieurs mesures électroniques et qu'on appellera première série de tests après avoir rejeté les composants électroniques dont au moins une réponse à au moins un test faisant partie de cette première série de tests est en dehors des limites de spécification liées à ce test 2/ puis à la fin des tests qui sont réalisés (deuxième série de tests) après avoir assemblé les composants électroniques corrects, c'est à dire les composants électroniques ayant passé les tests sous pointe et le test du procédé de l'invention, dans un boîtier.
Le procédé selon l'invention, peut être utilisé après la première série ou après les deux séries de tests, de façon indifférente. Il utilise en fait un nombre quelconque de tests réalisés sur les composants électroniques considérés.
Le procédé selon l'invention peut aussi être utilisé pour les tests de modules électroniques contenant des composants : modules ABS, Airbag, cartes à puce ...
On note n le nombre de composants électroniques de la série en cours à étudier et p le nombre de tests de la série en cours.
On considère que, parmi les n composants électroniques, on a déjà éliminé les composants électroniques dont une réponse à au moins un test est en dehors des limites de spécification de ce test.
On obtient donc un tableau de données composé de n individus (les composants électroniques) et de p variables (correspondant à chacun des p tests de la série en cours) pour chacun des individus. Les valeurs associées à ces p variables sont des données numériques quantitatives et réelles. A chaque individu i (Ze [1,«] ), on associe un vecteur-individu X 1 (qu'on appellera par abus de langage dans la suite de la description individu X 1 ) de dimension p ayant pour coordonnées sur chaque axe i la réponse obtenue au test d'indice i.
Le but de l'invention est de déterminer les individus atypiques parmi l'ensemble des individus X 1 e IR P . Pour atteindre ce but, on va utiliser des techniques dites de « projections révélatrices ». Une projection révélatrice est une projection du nuage des individus X 1 sur un sous espace de dimension q ( q < p) susceptible de mettre en évidence une éventuelle structure particulière de la distribution de ces individus.
Dans le cas des composants électroniques, p étant un grand nombre
(plusieurs centaines de tests sont typiquement effectuées pour la validation d'un composant électronique), il est intéressant de chercher si on peut définir q combinaisons linéaires indépendantes (au sens de l'algèbre linéaire) des p variables qui permettent de restreindre l'étude de l'ensemble des individus Jf 1 (de dimension p) à un nombre q sensiblement plus petit que p, sans perdre d'information présente dans les p variables initiales, ou avec une perte d'information estimable en proportion de l'information totale contenue dans les p variables.
Afin de déterminer ces q combinaisons linéaires indépendantes, on effectue une Analyse en Composantes Principales Généralisée (ACPG).
On rappelle qu'une Analyse en Composante Principale (ACP) permet de visualiser et résumer en quelques dimensions (q) la structure globale du nuage des individus au lieu de la visualiser en dimension p.
Sans entrer dans les détails de cette technique, connue en soi, on rappelle qu'elle consiste à déterminer les axes d'inertie d'un nuage de points (les individus) dans un espace de p dimensions (les variables), ces axes (orthogonaux par construction) étant des combinaisons linéaires des axes d'origine, mais supportant, par définition, une part significative de l'inertie des points du nuage (ici les individus), c'est à dire de l'information contenue dans ces individus.
Il y a autant d'axes d'inertie que d'axes initiaux, mais cette analyse en composante principale permet de connaître la quantité d'information présente sur chacun de ces axes. En classant les axes d'inertie par quantité d'information contenue, on obtient les axes principaux d'inertie, et on constate généralement que quelques axes principaux d'inertie contiennent de fait une part considérable de l'information totale des individus. Typiquement, quelques dizaines d'axes principaux d'inertie comportent plus de 99.9% de l'information totale des quelques centaines d'axes initiaux. Dès lors, il est possible de restreindre l'étude des individus, qui devait être réalisée sur p axes ou dimensions (quelques centaines), à une valeur arbitraire q de dimensions, selon la part d'information que l'on est prêt à ne pas utiliser.
Les q combinaisons linéaires indépendantes des axes d'origine (les variables) seront alors les axes principaux (composantes principales) déduites de l'Analyse en Composantes Principales. Afin d'affiner les q composantes principales, au lieu de sélectionner une Analyse en Composante Principale classique, on choisit d'utiliser ici une Analyse en Composantes Principales Généralisée (ACPG), laquelle consiste à faire un choix de métrique (c'est à dire de mode de calcul de distance entre individus, de nombreuses distances pouvant être définies mathématiquement sur un même espace), optimisé dans le procédé selon l'invention, au cas particulier de composants électroniques.
On rappelle que dans l'Analyse en Composante Principale (ACP) classique, la métrique utilisée M est soit la métrique euclidienne (M=Id) soit la métrique de la variance inverse M= D 1752 (matrice diagonale S=écart type). Les étapes du procédé selon l'invention sont les suivantes :
Etape 1 : Constitution des n vecteurs X 1 de dimension p. Cette étape est supposée connue, les fichiers de résultats des n composants électroniques lors des p tests formant une donnée d'entrée du procédé. Les vecteurs X 1 sont stockés dans une base de données ad hoc. - Etape 2 : Utilisation de la métrique choisie. Le choix de la métrique utilisé dans le présent procédé, est particulièrement important. Dans la mise en œuvre préférée, on a choisi une métrique M inspirée des travaux de H Caussinus et Anne Ruiz-Gazen, et en particulier inspirée d'un article publié dans la revue de statistiques appliquée, tome 50 n° 4 (2002) p81- 94. Cette métrique est adaptée à la mise en évidence d'individus atypiques dans la mesure où elle dépend de la dispersion des données, chaque individu ayant une influence d'autant plus faible qu'il est atypique. Lors de l'Analyse en Composantes Principales, ces individus atypiques auront donc des coordonnées encore plus extrêmes qu'avec une ACP classique (norme euclidienne) pour les différents axes principaux.
Cette métrique est définie par : M = W ~ι (inverse d'une matrice W) dans laquelle West définie par :
et est une matrice carrée d'ordre p.
et : X n = — V X est le vecteur des moyennes empiriques des
vecteurs X 1 ,
' (X 1 - X n ) est le vecteur transposé de (X 1 - X n ) ,
la norme utilisée est définie par '\x\ γ i ='XV ~ι X ,
V n = — Y](X 1 - X n Y (X 1 - X n ) , la matrice des variances et
covariances empiriques usuelles V n qui est une matrice carrée d'ordre p,
V n 1 est la matrice inverse de la matrice des variances et covariances empiriques usuelles V n . exp est la fonction exponentielle.
Dans la formule définissant la matrice W, on a donc introduit une fonction poids
M ||2
K(x) = Qxp(-x/2) qu'on a appliqué à x = P lX 1 - X n I j avec β , un réel donné petit (en fait très proche de 0 : on recommande une valeur de l'ordre de 1/p mais un choix arbitraire peut être fait avec un β compris entre 0.01 et 0.1 - voir les travaux d'H. Caussinus et A. Ruiz-Gazen), pour chaque vecteur X 1 . On peut donc écrire en utilisant la fonction poids :
Etape 3 : Diagonalisation de la matrice V n M où V n est la matrice des variances obtenue plus haut, et M la métrique utilisée également obtenue à l'étape 1 (des méthodes de diagonalisation de matrice sont connues de l'homme de l'art, et éventuellement disponibles sous forme de bibliothèques informatiques), recherche des valeurs propres de cette matrice. Cette étape est classique lors d'une Analyse en Composante Principale. Etape 4 : Calcul de la dimension q utile de l'espace de projection. On rappelle que la dimension q détermine le nombre d'axes principaux auxquels on réduit l'analyse, et détermine donc quelle quantité d'information on utilise parmi l'ensemble de l'information contenue dans les tests initiaux. Cette dimension q (le nombre d'axes) doit alors être suffisamment grande pour capter la structure recherchée (donc pouvoir déterminer les individus atypiques, c'est à dire les composants électroniques vraisemblablement défectueux) et suffisamment petite pour ne pas exhiber d'éventuels artefacts (fausse détermination d'une puce comme défectueuse). On rappelle que si on ordonne les valeurs propres selon un ordre décroissant, les premiers vecteurs propres (selon cet ordre) associés à ces valeurs propres seront alors les vecteurs principaux du système. Dans cette étape 4, on choisit un critère qui permettra de déterminer le nombre q de vecteurs propres parmi les vecteurs propres qui vont suffire à caractériser les individus atypiques de notre espace d'individus et qui vont donc constituer les vecteurs principaux du système.
La projection, obtenue en projetant les individus M-orthogonalement sur le sous-ensemble de dimension q grâce au choix de la métrique M, est invariante par transformation affine des vecteurs X 1 . Ceci fait bien ressortir qu'elle concerne seulement la structure du nuage des individus, au delà des divers aspects de centrage et d'échelle.
On utilise le critère de choix suivant : on garde les vecteurs propres tels que leur valeur propre associée respective est supérieure strictement à 1 + β .
Si l'on considère un modèle de valeurs atypiques où X 1 est supposé être un vecteur aléatoire dont la loi de probabilité est un mélange de q + \ lois normales (en proportions différentes) de moyenne variables : la loi majoritaire, et q possibilités de contamination de la moyenne, alors, certaines propriétés théoriques sont vérifiées et présentées dans ce qui suit.
Pour n assez grand, et de faibles proportions associés aux q contaminations, les valeurs atypiques (c'est à dire les composants vraisemblablement défectueux) ressortent au mieux sur les sous-espaces de projection engendrés par les q moyennes (associées aux contaminations).
De plus, pour n grand, les q plus grandes valeurs propres de V n M convergent vers un nombre strictement supérieur à 1 + β , les suivantes convergent vers 1 + β . Par choix, dans le présent procédé décrit à titre nullement limitatif, on ne considère donc pas les dimensions pour lesquelles les valeurs propres sont inférieures à 1 + β .
Etape 5 : Détermination de la dimension de représentation. Afin de simplifier la représentation du nuage des points X 1 , on choisit d'effectuer les projections sur des plans vectoriels, donc sur des espaces en deux dimensions. Ces plans vectoriels sont donc engendrés par un choix de deux vecteurs propres parmi les q vecteurs propres choisis (qui sont les q vecteurs principaux). L'ensemble des vecteurs propres d'un système forme, de façon connue, une famille libre (indépendante) au sens de l'algèbre linéaire. Les q vecteurs choisis parmi cet ensemble de vecteurs propres forment donc une sous famille libre de cette famille au sens de l'algèbre linéaire. Ainsi, si par exemple q est égal à 6 et que l'on note (Prini , Prin2, Prin3, Prin4, Prin5, Prinθ) ces six vecteurs propres (vecteurs principaux), on peut représenter graphiquement les projections des X 1 , sur les trois plans vectoriels engendrés respectivement par
(Prini , Prin2), (Prin3, Prin4) et (Prin5, Prinθ), les autres combinaisons de ces six vecteurs pouvant d'ailleurs apporter de l'information supplémentaire. On détermine de même les plans vectoriels à utiliser pour une valeur quelconque du nombre q de composantes principales choisi.
Etape 6 : Utilisation du critère de détermination des individus atypiques. On choisit, dans chacun des plans vectoriels définis lors de l'étape 5, de définir un cercle de confiance. La détection des composants électroniques atypiques se fait alors grâce à ce cercle de confiance (pour un niveau de signification α fixé) englobant le nuage majoritaire (2) et en dehors duquel se situent les individus déclarés atypiques.
La figure 1 illustre ainsi une projection sur deux axes principaux (Prini , Prin2). Sur cette figure 1 , deux éléments (1 ) s'éloignent graphiquement du nuage majoritaire (2). Dans cet exemple illustré par la figure 1 , on n'a retenu que les deux premiers axes principaux c'est à dire ceux qui sont associées aux deux plus grandes valeurs propres (et qui comportent donc le maximum d'information).
La distance entre les points sur ces représentations graphiques correspond ici à une approximation de la distance de Mahalanobis au sens de la métrique M . Le rayon du cercle de confiance correspond à la racine carrée du quantile d'ordrel -α d'une loi de χ 2 à (2x^1 + β ) degrés de liberté (cette loi du chi-deux intervient sous l'hypothèse que les données suivent une loi normale et ce cercle est en quelque sorte le pendant d'un intervalle de confiance).
La valeur du niveau de signification α peut être laissée au choix de l'utilisateur du procédé de l'invention, en général α varie de 1 % à 5 %.
Les individus atypiques déterminés à l'issue du procédé sont alors listés dans une table ad hoc destinée à l'opérateur.
On note que pour des questions de réduction de coût (prix de l'assemblage et prix du boîtier) il est préférable d'éliminer les composants électroniques atypiques avant l'assemblage dans un boîtier et donc il est avantageux de lancer le procédé de l'invention après les tests sous pointe afin d'essayer de détecter le plus de composants électroniques atypiques lors de cette phase de production.
Avantages de l'invention
L'intérêt du procédé tel qu'exposé est de passer de p variables continues à q<p composantes principales, qui sont des combinaisons linéaires des variables initiales présentant les caractéristiques intéressantes suivantes :
Ordonnées selon l'information restituée : la première composante principale est la combinaison linéaire des variables initiales ayant la variance maximale.
Les composantes principales sont des variables non corrélées. - Elles sont moins sensibles à des fluctuations aléatoires que les variables initiales
II est à noter que ceci est vrai uniquement dans le cas d'une Analyse en Composante Principale utilisant la métrique euclidienne (M = id). Ce n'est plus vrai dans le cas d'une Analyse en Composante Principale Généralisée, utilisant une autre métrique.
Variantes de l'invention
La portée de la présente invention ne se limite pas aux détails des formes de réalisation ci-dessus considérées à titre d'exemple, mais s'étend au contraire aux modifications à la portée de l'homme de l'art. Dans une variante, on utilise la métrique M = . Les valeurs propres à
considérer pour déterminer les composantes principales (vecteurs propres associées à ces valeurs propres) sont donc dans ce cas les valeurs propres strictement supérieures à 1. Dans une autre variante, on utilise toute métrique M convenant aux types de mesures réalisées. Par exemple la métrique M peut être égale à la matrice identité, si on choisit la métrique euclidienne, dans le cas de p mesures avec la même unité de mesure.
De même, on peut choisir une métrique M égale à l'inverse des variances lorsque les unités de mesure ne sont pas les mêmes pour toutes les variables. Dans ce cas, on diagonalise durant l'Analyse en Composante Principale la matrice des corrélations.
Une manière alternative pour définir les individus atypiques est de calculer un score pour chaque point, correspondant à sa norme calculée avec ses q composantes principales sélectionnées, et de définir une limite statistique par une méthode usuelle, connue en soi, (exemple : une limite de contrôle) pour déterminer quels individus sont hors-distribution, et donc atypiques, pour ce score (étape 6).
L'invention englobe toute méthode d'ACP généralisée, au sens de la diagonalisation d'un estimateur de matrice de variances covariances relativement à un autre estimateur de matrice de variances covariances, dont l'objectif est de détecter des observations atypiques.
En particulier cela inclut la diagonalisation de tout opérateur VnM, ou Vn est la matrice de variances covariances empirique usuelle, et M est l'inverse d'un estimateur de matrice de variances covariances robuste quelconque (par exemple un
M-, un S-, un MM ou un tau estimateur ou encore l'estimateur MCD de déterminant minimum).
Cela inclut aussi la diagonalisation d'un opérateur de la forme UnM où Un et l'inverse de M sont deux estimateurs robustes. On note que l'ACP classique et l'ACP dite robuste sont des cas particuliers d'ACP généralisée mais que leur objectif premier est de détecter la structure de la majorité des données, et non pas d'éventuelles observations atypiques. Les seules observations atypiques que l'on détecte sur les premiers axes principaux d'une ACP usuelle ou robuste sont celles qui sont atypiques dans les directions où la dispersion de la majorité des données est maximale.
Ainsi, il y a une différence essentielle entre l'ACP classique ou robuste et le procédé selon l'invention qui réside dans le choix de la dimension. Les critères usuels de choix pour toutes ces méthodes se basent sur les valeurs propres des opérateurs diagonalisés : on ne conserve que les composantes principales associées aux plus grandes valeurs propres.
Mais alors que les plus grandes valeurs propres d'une ACP classique ou robuste sont associées à des espaces de projection où la dispersion de la majorité des données est maximale, les plus grandes valeurs propres de l'ACP généralisée sont associées à des espaces de projection qui permettent de repérer au mieux les individus atypiques.
Dans le cas où la dimension des données (le nombre de variables) est importante, l'estimateur de matrice de variances covariances robuste qui intervient dans la méthode d'ACP généralisée n'est pas nécessairement inversible. Pour résoudre ce problème d'inversion, on utilise une inverse généralisée de type pseudoinverse de Moore-Penrose.
Pour obtenir une matrice inverse, il suffit de calculer les valeurs propres et vecteurs propres de la matrice. Dans le cas d'une matrice de variances covariances, ces valeurs propres sont réelles positives.
On calcule la matrice inverse en prenant l'inverse des valeurs propres et en conservant les mêmes vecteurs propres. Si la matrice de variances covariances n'est pas inversible (ce qui se produit si le nombre de variables est grand comparativement au nombre d'observations), c'est qu'elle contient des valeurs propres proches de 0. Prendre une inverse généralisée consiste à ne pas inverser les valeurs propres proches de 0 mais à les prendre égales à 0 dans la matrice inverse.
Cette méthodologie est préconisée dès que la matrice de covariances est mal conditionnées (petites valeurs propres), même si l'inverse est calculable numériquement, pour éviter une trop grande instabilité qui résulterait des grandes valeurs propres apparaissant dans l'inverse.
3) Autres méthodes de projections révélatrices
D'autres variantes de l'invention peuvent être envisagées, dont les méthodes décrites ci-dessous. Ces méthodes n'ont jamais été utilisées dans l'industrie du semi- conducteur avec pour objectif la détection de pièces atypiques dans le cadre de la fiabilité des puces électroniques (zéro défaut). L'ACP généralisée, qui fait l'objet de la description donnée plus haut, est une méthode particulière de projections révélatrices (voir Caussinus and Ruiz-Gazen,
2009). Pour résoudre le problème du grand nombre de dimensions relativement au nombre d'observations, d'autres méthodes de type projections révélatrices que l'ACP généralisée sont préconisées.
L'idée est de chercher des projections linéaires des données sur une
(éventuellement deux) dimension qui mettent en évidence des observations atypiques.
L'ACP généralisée permet d'atteindre cet objectif, mais elle peut être complétée par d'autres méthodes de projections révélatrices ("Projection Pursuit" en anglais) qui consistent en :
(i) la définition d'un indice de projection qui mesure en quelque sorte l'intérêt de la projection. Dans le cas qui nous intéresse ici, une projection est d'autant plus intéressante qu'elle permet de révéler des observations atypiques. Autrement dit, l'indice de projection sera d'autant plus élevé que la projection mettra en évidence des atypiques,
(ii) la recherche d'une ou plusieurs projections qui correspondent à des maxima locaux de l'indice de projection précédemment défini. La mise en oeuvre de cette deuxième étape passe par un algorithme d'optimisation qui peut-être basé sur une méthode déterministe de recherche d'optima locaux ou sur une heuristique dans le cas où la fonction indice n'est pas suffisamment régulière pour utiliser des méthodes déterministes basées sur le gradient.
Les indices de projection adaptés à la recherche de valeurs atypiques sont notamment l'indice de Friedman (1987), mais aussi l'indice du kurtosis (Pena et Prieto, 2001 ) et la mesure d'"outlyingness" de Stahel-Donoho (Stahel, 1981 ). Les deux premiers indices préconisés mesurent l'intérêt d'une projection en termes d'éloignement à la loi normale. Il a été noté que les projections intéressantes obtenues sont en priorité celles qui s'éloignent de la loi normale dans les queues de la distribution et donc sont les projections susceptibles de révéler des observations atypiques.
Pour l'indice de Stahel-Donoho, il mesure l'écart en valeur absolue de la projection d'une observation à la médiane, standardisé par la déviation absolue médiane ("médian absolute déviation" en anglais) des données projetées. Il peut être généralisé à toute mesure d'écart standardisé d'une observation au centre de la distribution. Par exemple, la médiane peut être remplacée par la moyenne et la déviation absolue médiane par l'écart-type. Dans ce dernier cas, on retrouve la mesure utilisée de façon standard dans la méthode PAT ("Part Average Testing") évoquée en début de texte. On note que, contrairement à la méthode PAT qui s'applique uniquement sur chacune des variables initiales, la méthode préconisée dans la présente variante a pour ambition de proposer un test PAT sur toutes les combinaisons linéaires des variables initiales qui révèlent au mieux des individus atypiques. Cette dernière méthode permet ainsi de tenir compte des relations multidimensionnelles qui existent au sein des données, relations qui ne sont absolument pas prises en compte dans la méthode PAT habituelle.
Comme dans la méthode PAT habituelle, on peut décider de choisir une valeur seuil au delà de laquelle un individu est déclaré atypique en fonction du seuil maximal de rejet que l'on est prêt à tolérer (règle dite du " 3 sigma" à adapter en fonction des données et du pourcentage de rejet maximal accepté).
On préconise aussi de centrer et de rendre les données sphériques avant l'étape d'optimisation de l'indice car il a été constaté sur un plan pratique que cela facilitait la découverte de projections intéressantes. Une façon de rendre les données sphériques est de calculer les composantes principales usuelles.
L'invention vise également toute méthode hybride utilisant l'ACP généralisée en liaison avec les méthodes de projections révélatrices telles que préconisées ci- dessus. Ainsi, on peut utiliser l'identification des points atypiques, obtenue en passant par la maximisation d'un indice de projection, pour calculer un estimateur de matrice de variances covariances pondéré (des poids faibles étant affectés aux individus déclarés comme atypiques à l'étape précédente). L'estimateur de Stahel-Donoho (Stahel, 1981 ) est ainsi défini à partir de l'indice de Stahel-Donoho. Cet estimateur peut alors être utilisé comme estimateur robuste dans l'ACP généralisée.
Next Patent: WOUND DRESSING, METHOD FOR THE PRODUCTION THEREOF, AND USE THEREOF FOR DRESSING WOUNDS