Archives

N'hésitez pas à chiner dans les archives, j'y consigne mes recettes.

vendredi 13 juin 2008

Pourquoi faire compliqué ?

Pourquoi faire compliqué quand on peut faire simple ?
On m’a récemment posé le problème suivant à l’occasion d’un test produit : identifier parmi une cinquantaine d’items les leviers de la qualité. C’est un sujet classique dans lequel on dispose d’une mesure globale de qualité et de mesures dites « détaillées » (les quelques cinquante items ») sur un ensemble de N produits répartis en deux univers (leaders/challengers). L’échantillon de clients est également divisé en deux populations : consommateurs réguliers de produits leaders et consommateurs réguliers de produits challengers. On s’intéresse ici non pas aux produits ou aux clients en eux-mêmes, mais aux univers dont ils font partie, avec pour objectif de réduire la batterie d’items à sa plus simple expression (pour injection dans les questionnaires futurs, par exemple).
La taille réduite de l’échantillon et le nombre élevé d’items proscrivant le recours à des techniques de régression (même la PLS « craque »), j’ai préféré travailler item par item en calculant par analyse de variance un indice de supériorité qui servit ensuite à hiérarchiser les items en ordre décroissant de supériorité. Le croisement des deux univers (univers de produits, univers de clients) produit quatre moyennes à décomposer :

Produits challengers jugés par des clients challengers : a + b(i) + c + d + e
Produits leaders jugés par des clients leaders : a + b(i) – c – d + e

Produits challengers jugés par des clients leaders : a + b(i) + c – d – e + e(i)
Produits leaders jugés par des clients challengers : a + b(i) – c + d – e + e(i)

Ici, l’indice « i » dénote les produits. Les paramètres sont les suivants :
a = note de base.
b(i) = attrait du produit « i » dans son univers. On impose que la somme des b(i) par univers soit nulle.
c = propension des univers de produits à être plus ou moins bien jugés.
d = propension des clientèles à noter plus ou moins haut.
e = prime/pénalité moyenne lorsque le produit est jugé dans son univers ou dans l’autre univers.
e(i) = aptitude du produit à résister au changement d’univers.

Ces paramètres sont calculés par analyse de variance item par item, à partir des notations des clients. La seule petite subtilité réside dans le codage des différents effets, mais rien de sorcier. Il se trouve que la quantité 4e-2c constitue un indice particulièrement simple et plausible de la supériorité des leaders. Il ne reste plus qu’à identifier le nombre d’items à retenir dans la batterie réduite d’items. On aura deviné à ce stade que la moyenne des "n" premiers items (classés en ordre décroissant de leur indice de supériorité) pondérée par leur indice de supériorité doit par construction être proche de la note globale de qualité donnée par le client. Il suffit alors de calculer cette moyenne en faisant varier "n" de 1 au nombre maximum d’items, et de retenir comme nombre d’item optimal celui au-dessus duquel la qualité de l’ajustement ne progresse plus.

Aucun commentaire:

Notre expérience

Plus de 600 études en 20 ans. Loin de tout savoir, mais pas né de la dernière pluie ...

Ne fait pas ... fait ...

On ne fait pas ...
... De terrain.
... D'études qualitatives.
... De recherche documentaire.
... De veille technologique.
On fait ...
... Du traitement de données quantitatives.
... De l'analyse, de l'interprétation, des synthèses.
... De la modélisation.
... Du reporting on-line.
... De la formation.
... Du développement logiciel.
... Du conseil en marketing et traitement de données.

Moyens

... Une double formation, littéraire et scientifique (PhD en Business Administration de l'Université de Colombie Britannique).
... Des logiciels de traitement de données standards (S-Plus, StatGraphics, Xlstat, Daisie, EQS ).
... Un logiciel spécialisé dans le traitement des données d'enquête et d'analyse multivariée, développé en interne (Mensor) et interfacé avec Excel, Eole, StatGraphics, Cosi et les bases de données ODBC.
... La maîtrise d'un language de programmation (APL), pour les demandes spécifiques, et le reporting on-line (APL+Web Components, ASP.NET)
... Des partenaires méthodologiques "pointus" en cas de besoin.

Des gens qui connaissent notre travail

  • Gordon Zola, éditeur (eric.mogis@wanadoo.fr)
  • Daniel Bachelet, consultant, ancien directeur du marketing de PSA (dbachele@club-internet.fr)
  • Pierre Desmet, professeur à l'Essec (desmet@essec.fr)