Question:
Comprendre les cartes de contrôle statistique
Dave Kincaid
2011-09-09 17:52:12 UTC
view on stackexchange narkive permalink

Les cartes de contrôle font fureur dans mon entreprise ces jours-ci. Nos "analystes de données" (les citations sont faites exprès) mettent des limites de contrôle sur presque tous les graphiques qu'ils produisent. L'autre jour, nous avons examiné quelques graphiques des appels dans notre centre d'appels de support au cours de l'année dernière. Nous avons des mesures du nombre d'appels pour chaque semaine qui sont tracées sur un graphique linéaire. Récemment, les analystes qui préparent ces graphiques ont commencé à mettre des lignes sur les graphiques indiquant des "limites de contrôle".

La question que je me pose est de savoir comment ils calculent où ces limites de contrôle devraient être. Quand j'ai demandé comment ils ont déterminé les limites, voici la réponse que j'ai obtenue:

Nous trouvons d'abord une section du graphique où les points semblent quelque peu stables (ce qui signifie une petite variance) puis calculons la moyenne de ceux-ci points. Ensuite, nous calculons l'erreur standard de ces points et tirons les limites de contrôle à +/- 3 erreurs standard à partir de la moyenne que nous avons calculée.

Est-il correct de calculer la moyenne de cette façon? Il semble que nous devrions utiliser TOUS les points pour calculer la moyenne au lieu de rejeter tout ce qui "semble" trop varier.

Est-il même judicieux de mettre des limites de contrôle sur une mesure comme celle-ci (le nombre d'appels entrant dans un centre d'appels)? Tant que les mesures sont dans les limites de contrôle, nous considérons la semaine comme normale. Si la mesure du volume d'appels d'une semaine est en dehors de ces limites de contrôle, elle est jugée significative et justifie une analyse plus approfondie. Quelque chose me semble artificiel dans tout cela.

Voulaient-ils vraiment * dire * "erreur standard" (de la moyenne) et non "écart type"? (Quoi qu'il en soit, il n'y a * rien * de bon dans les procédures que vous décrivez; rien de tout cela n'a de justification en théorie ou en pratique; et vous avez raison de vous méfier de chaque élément que vous avez mentionné.)
D'accord avec whuber. L'objectif est-il d'estimer les 0,135e et 99,865e centiles de la distribution des appels par semaine? (Si le dist'n était normal, et que vous vouliez dire dev std, et qu'ils n'ont pas jeté de données, alors cela semble être l'estimation cible.) Avec <1000 observations (de la même dist'n), c'est difficile, mais possible, par exemple [Dekkers et de Haan (1989)] (http://www.jstor.org/pss/2241666). Donc: je suis d'accord w / whuber la méthode actuelle est injustifiée; vous demandez si vous demandiez aussi des suggestions positives ou simplement une confirmation de vos pensées critiques (correctes).
J'essaie vraiment de comprendre si les cartes de contrôle sont appropriées pour ces mesures et si elles le sont, comment sont-elles censées être mises en œuvre.
Quant à la question sur l'écart type par rapport à l'estimation standard, ils l'appellent écart type, mais leur calcul ressemble à une erreur standard (sd / sqrt (N)). J'avoue ne pas avoir pleinement saisi ce qui est quoi.
L'écart type nous indique à quel point les valeurs diffèrent généralement de leur moyenne. L'erreur standard nous indique dans quelle mesure la moyenne de l'échantillon est susceptible de différer de la moyenne réelle. Notez le $ 1 / \ sqrt (N) $: cela implique que les limites de contrôle se rétréciront à mesure que des périodes historiques plus grandes sont utilisées, démontrant que les limites dépendent de ce choix * arbitraire *. L'estimation du SD, en revanche, se stabilisera (par rapport à la population SD) à mesure que $ N $ grandira.
En plus des autres commentaires et réponses, votre entreprise peut publier de nouveaux produits de temps à autre, faire des rappels de produits, etc., ce qui pourrait également entraîner des variations temporelles.
Deux réponses:
#1
+12
whuber
2011-09-09 22:19:20 UTC
view on stackexchange narkive permalink

Le but d'une carte de contrôle est d'identifier, le plus rapidement possible, quand quelque chose de réparable ne va pas. Pour que cela fonctionne correctement, il ne doit pas identifier les changements aléatoires ou incontrôlables comme étant "hors de contrôle".

Les problèmes avec la procédure décrite sont collecteur. Ils incluent

  • La section "stable" du graphique n'est pas typique. Par définition, il est moins variable que d'habitude. En sous-estimant la variabilité de la situation sous contrôle, le graphique identifiera à tort de nombreux changements comme étant hors de contrôle.

  • L'utilisation d'erreurs standard est tout simplement une erreur. Une erreur standard estime la variabilité d'échantillonnage du taux d'appel hebdomadaire moyen , et non la variabilité des taux d'appel eux-mêmes.

  • Définition des limites à $ \ pm 3 $ les écarts types peuvent ou non être efficaces. Il est basé sur une règle empirique applicable aux données distribuées normalement qui ne sont pas corrélées en série. Les tarifs d'appels ne seront normalement pas distribués à moins qu'ils ne soient modérément élevés (environ 100+ par semaine, environ). Ils peuvent ou non être corrélés en série.

  • La procédure suppose que le processus sous-jacent a un taux constant dans le temps. Mais vous ne créez pas de widgets; vous répondez à un marché qui - nous l'espérons - est (a) en croissance mais (b) en diminuant son taux d'appel au fil du temps. Des tendances temporelles sont attendues. Tôt ou tard, toute tendance rendra les données toujours hors de contrôle.

  • Les gens ont tendance à subir des cycles d'activité annuels correspondant aux saisons, au calendrier académique, aux vacances, etc. Ces cycles agissent comme des tendances et provoquent des événements incontrôlables prévisibles (mais dénués de sens).

Un ensemble de données simulé illustre ces principes et problèmes.

Control chart

La procédure de simulation crée une série réaliste de données qui sont sous contrôle: par rapport à un modèle sous-jacent prévisible, elle n'inclut aucune excursions hors de contrôle qui peuvent être assigné une cause. Ce graphique est un résultat typique de la simulation.

Ces données sont tirées des distributions de Poisson, un modèle raisonnable pour les taux d'appels. Ils commencent à une base de 100 par semaine, avec une tendance à la hausse linéaire de 13 par semaine et par an. À cette tendance se superpose un cycle annuel sinusoïdal d'une amplitude de huit appels par semaine (tracé par la courbe grise en pointillés). Il s'agit d'une tendance modeste et d'une saisonnalité relativement faible, je crois.

Les points rouges (autour des semaines 12 à 37) ont été identifiés comme la période de 26 semaines de l'écart type le plus bas rencontré au cours des 1,5 premières années de ce graphique de deux ans. Les fines lignes rouges et bleues sont fixées à des erreurs standard de $ \ pm 3 $ autour de la moyenne de cette période. (Évidemment, ils sont inutiles.) Les lignes épaisses dorées et vertes sont fixées à des écarts-types de $ \ pm 3 $ autour de la moyenne.

(On ne projette généralement pas les lignes de contrôle vers l'arrière dans le temps, mais je l'ai fait ici à titre de référence visuelle. Il est généralement inutile d'appliquer des contrôles rétroactivement: ils sont destinés à identifier les futurs changements.)

Notez comment le laïc la tendance et les variations saisonnières conduisent le système dans des conditions apparemment incontrôlables entre les semaines 40-65 (un sommet annuel) et après la semaine 85 (un sommet annuel plus la tendance cumulative sur un an). Quiconque essaierait de l'utiliser comme carte de contrôle chercherait à tort des causes inexistantes la plupart du temps. En pratique, ce système serait détesté et bientôt ignoré de tous. (J'ai vu des entreprises où chaque porte de bureau et tous les murs du couloir étaient couverts de cartes de contrôle que personne ne prenait la peine de lire, car ils savaient tous mieux.)

La bonne façon de procéder commence par poser les questions de base, telles que comment mesurez-vous la qualité? Quelles influences pouvez-vous avoir dessus? Comment, malgré tous vos efforts, ces mesures sont-elles susceptibles de fluctuer? Que vous diraient les fluctuations extrêmes (quelles pourraient être leurs causes contrôlables)? Ensuite, vous devez effectuer une analyse statistique des données passées. Quelle est leur distribution? Sont-ils corrélés dans le temps? Y a-t-il des tendances? Composants saisonniers? Des preuves d'excursions passées qui auraient pu indiquer des situations hors de contrôle?

Après avoir fait tout cela, il peut alors être possible de créer une carte de contrôle efficace (ou un autre système de suivi statistique). La littérature est vaste, donc si cette entreprise est sérieuse à utiliser des méthodes quantitatives pour améliorer la qualité, il y a suffisamment d'informations sur la façon de le faire. Mais ignorer ces principes statistiques (que ce soit par manque de temps ou par manque de connaissances) garantit pratiquement que l'effort échouera.

+1: réponse incroyable. Je suppose que vous n'avez pas de références à certaines des publications canoniques que vous avez mentionnées?
@SnOrfus J'aurais aimé pouvoir vous donner des références fiables mais je ne suis pas au courant de la littérature. Cet article est basé sur ce que j'ai lu il y a un quart de siècle et que j'ai appris en appliquant ces informations. (J'ai écrit et vendu des logiciels de cartographie de contrôle spécialisés à l'époque, et j'ai donc eu l'occasion d'examiner - littéralement plusieurs millions de cartes de contrôle des données des clients et de réfléchir à l'adéquation de ces graphiques pour leurs processus de prise de décision.)
Complètement compréhensible. Merci beaucoup de toute façon.
#2
+6
Greg Snow
2011-09-09 21:38:40 UTC
view on stackexchange narkive permalink

L'idée générale des cartes de contrôle est de faire la distinction entre la variation de cause commune et la variation de cause spéciale. L'idée est que le processus est assez stable et génère des données à partir d'une distribution donnée (bien que le Poisson ait plus de sens pour le nombre d'appels que la normale). Un grand avantage des cartes de contrôle est qu'elles limitent la surréaction à la variation naturelle tout en permettant de déterminer quand le processus a changé.

Choisir un ensemble d'observations parce qu'elles ont une petite variation garantirait presque que les limites sont trop rétrécir et donc augmenter les réactions inappropriées à la variation normale. L'utilisation de toutes les données a beaucoup plus de sens, et l'utilisation d'un graphique Poisson C pourrait être préférable à un graphique à barres x. Mais, il semble également qu'un centre d'appels s'attend à des différences en raison des vacances ou de la saison (en fonction de ce qui est pris en charge), de sorte que les hypothèses sous-jacentes peuvent même ne pas être appropriées ici.

Il semble que ce soit le cas. quelque chose parce qu'ils le peuvent plutôt que parce que cela répond à une question significative.



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...