mercredi 11 novembre 2015

Ouvrage de référence



Smith W.F., Experimental Design for Formulation, SIAM, Ed. Philadelphia, ASA, Ed. Alexandria, 2005, 368 pages.


Ce livre apparu il y a une dizaine d’années complète fort utilement l’ouvrage de John A. Cornell, considéré comme l’ouvrage de référence sur les plans de mélange.

L’auteur, Wendell F. Smith, marque de son empreinte industrielle chez Eastman Kodak, en particulier dans les laboratoires de recherche, la rédaction des différents chapitres. L’ouvrage est plus concis et sans doute plus appliqué pour l’industrie. Malgré un nombre plus restreint de pages, la lecture des différents chapitres permet d’appréhender de manière efficace la démarche associée à la construction et à l’analyse d’un plan de mélange. Les exemples choisis et les quelques 175 références bibliographiques se révèlent très pertinents ; ils invitent le lecteur à approfondir ses connaissances dans le domaine des plans d’expériences appliqués aux problèmes de formulation.

L’ouvrage est construit autour de 4 grandes parties, elles-mêmes découpées en chapitres. Les chapitres ne sont pas ponctués par des exercices d’application mais les nombreux exemples permettent, au fil des paragraphes, d’appliquer les concepts présentés par l’auteur. Il est parfois fait référence aux logiciels Minitab, Mixsoft, Design Expert ou Jmp pour des graphiques ou des options d’analyse.

  1. La première partie est une introduction (Chapitre 1) qui positionne les plans de mélange parmi les nombreux types de plans d’expériences en spécifiant tout d’abord (Chapitre 2) la nature spécifique du domaine expérimental en présence de facteurs tels que des fractions massiques, volumiques ou molaires, puis (Chapitre 3) les modèles classiques sous-jacents à la construction et à l’analyse des plans de mélange, renvoyant à la stratégie de type Component Proportions.


  2. La deuxième partie, plus conséquente, porte sur les principes de construction des plans de mélange, que ce soit de manière empirique ou algorithmique. Cette partie débute par un chapitre dédié à l’exploration de domaines expérimentaux dont la géométrie est celle d’un simplexe (Chapitre 4). Certes on retrouve les dispositifs proposés par Henry Scheffé en 1958 et en 1969 sous le nom de Simplex Lattice Design et Simplex Centroid Design, mais également, les dispositifs de type Simplex Screening Design, moins connus mais fort utiles pour estimer les effets des variations des proportions des constituants quand le domaine expérimental se présente sous la forme d’un simplexe. Dès que les contraintes transforment la géométrie du domaine en polyèdre convexe, l’auteur passe en revue (Chapitre 5) différents algorithmes de construction de la matrice d’expériences. La présentation des différents critères algébriques retenus pour converger vers une matrice optimale est claire et accessible, mais on ne peut que recommander au lecteur de reprendre l’exploration de ce chapitre après avoir parcouru le chapitre suivant. Les différentes matrices utilisées dans la mise en œuvre de la méthode d’ajustement au sens des moindres carrés, (matrice d’information, matrice de dispersion, matrice H), ou encore la fonction de variance standardisée sont présentées ici (Chapitre 6) en faisant ressortir le rôle des leviers et la définition de la G-Optimalité. Cette deuxième partie consacrée à la construction des plans de mélange s’achève sur un chapitre traitant de l’organisation de la campagne expérimentale sous forme de blocs homogènes (Chapitre 7), concept important dans les principes d’expérimentation proposés par Ronald Fisher au début du XXe siècle.

     
  3. La troisième partie est consacrée à l’analyse des résultats en commençant (Chapitre 8) par l’étude de la qualité descriptive des modèles, puis de la qualité prédictive. La décomposition de la somme des écarts entre les valeurs observées et leur moyenne conduit à la construction d’un ou plusieurs tableaux d'analyse de régression, illustrés par des exemples. L’étude des résidus, avec leurs éventuelles transformations, fait l’objet du chapitre suivant (Chapitre 9) et représente une aide appréciable en complément de celle fournie par les logiciels. Une distribution particulière des valeurs de la réponse peut nuire localement à la qualité descriptive d’un modèle ou empêcher la validation des hypothèses sous-jacentes à l’analyse de régression, comme par exemple la vérification de la normalité des résidus. Un long chapitre (Chapitre 10) est consacré à ces aspects que les logiciels ne peuvent pas prendre en compte de façon automatique. La personne qui analyse les résultats doit savoir utiliser des transformations à bon escient, que ce soit pour la réponse avec une transformation de Box-Cox par exemple ou que ce soit en proposant une autre forme de modélisation. Même si ce chapitre est riche d’informations utiles, il mériterait à lui seul une partie entière du livre, tant ces aspects sont fréquents dans l’utilisation des plans de mélange et leur analyse. L’estimation des effets des variations des proportions des constituants fait l’objet du chapitre suivant (Chapitre 11). Cette approche des plans de mélange est hélas méconnue et rarement intégrée dans les logiciels, si ce n’est au travers de l’étude de la trace d’une surface de réponse. Les effets de Cox et les effets de Piepel sont clairement présentés mais on aurait apprécié un paragraphe spécifique sur les modèles de Cox et leur estimation, au même titre qu’un paragraphe sur la régression PLS qui peut s’avérer très efficace quand on s’intéresse aux effets des facteurs dans un problème de formulation. Le chapitre 12 vient clôturer cette troisième partie en faisant une large place aux techniques d’optimisation associées à l’usage des fonctions de désirabilité.

  4. La quatrième et dernière partie aborde les plans d’expériences qui associent des variables externes aux proportions des constituants dans un plan de mélange, ce qui conduit à une stratégie de type Mixture Process Variables (Chapitre 13). On aurait apprécié des développements plus importants dans ce chapitre, à la fois d’un point de vue méthodologique et d’un point de vue formalisme mathématique et numérique, car les logiciels conduisent souvent à des matrices d’expériences très coûteuses lorsqu’on associe ces deux types de variables. La nature même des facteurs, à savoir des proportions dont la somme est égale à une constante, induit des problèmes numériques spécifiques aux plans de mélange, problèmes que l’on regroupe sous la locution « Collinearity ». Ce dernier chapitre (Chapitre 14) aborde ces problèmes et précise des indicateurs statistiques tels que les facteurs d’inflation de variance ou l’indice de conditionnement d’une matrice. La régression au sens des moindres carrés est très sensible « numériquement » à ces phénomènes ; elle devrait céder sa place en présence de nombreux constituants et de domaines très anisotropes à d’autres méthodes de régression, comme la régression PLS évoquée précédemment. Encore faut-il que ces approches alternatives soient disponibles et bien documentées dans les logiciels de plans d’expériences ! Si ce n’était pas le cas en 2005 lors de la parution de ce livre, les logiciels de plans d’expériences intègrent de plus en plus aujourd’hui ces méthodes de régression. On peut espérer qu’une nouvelle édition vienne combler un jour ce manque !

En conclusion, cet ouvrage trouvera naturellement sa place sur l'étagère des livres consacrés aux plans d'expériences en général et aux plans de mélange en particulier. S'il y a bien moins de démonstrations que dans l'ouvrage de John Cornell, le lecteur appréciera ici une approche plus industrielle des plans de mélange, même si ce livre se limite en grande partie à la stratégie Component Proportions. Enfin, la troisième partie du livre consacrée à l'analyse des résultats peut représenter une excellente aide pour comprendre et bien interpréter les boîtes de dialogues et les résultats produits par les logiciels de plans de mélange.