L’étalonnage et la décision psychométrique
Presses de l’Université du Québec Le Delta I, 2875, boulevard Laurier, bureau 450 Québec (Québec) G1V 2M2 Téléphone : (418) 657-4399 • Télécopieur : (418) 657-2096 Courriel :
[email protected] • Internet : www.puq.ca Distribution : CANADA et autres pays Prologue inc. 1650, boulevard Lionel-Bertrand Boisbriand (Québec) J7H 1N7 Téléphone : (450) 434-0306 / 1-800-363-2864 FRANCE AFPU-Diffusion Sodis
Belgique Patrimoine SPRL 168, rue du Noyer 1030 Bruxelles Belgique
SUISSE Servidis SA 5, rue des Chaudronniers CH-1211 Genève 3 Suisse
La Loi sur le droit d’auteur interdit la reproduction des œuvres sans autorisation des titulaires de droits. Or, la photocopie non autorisée – le « photocopillage » – s’est généralisée, provoquant une baisse des ventes de livres et compromettant la rédaction et la production de nouveaux ouvrages par des professionnels. L’objet du logo apparaissant ci-contre est d’alerter le lecteur sur la menace que représente pour l’avenir de l’écrit le développement massif du « photocopillage ».
Louis Laurencelle
L’étalonnage et la décision psychométrique exemples et tables
2008 Presses de l’Université du Québec Le Delta I, 2875, boul. Laurier, bur. 450 Québec (Québec) Canada G1V 2M2
Catalogage avant publication de Bibliothèque et Archives nationales du Québec et Bibliothèque et Archives Canada Laurencelle, Louis, 1946 L’étalonnage et la décision psychométrique : exemples et tables Comprend des réf. bibliogr. ISBN 978-2-7605-1559-8 1. Psychométrie. 2. Psychologie - Méthodes statistiques. 3. Psychométrie - Prise de décision. 4. Mesure. 5. Psychologie du travail. I. Titre. BF39.L38 2008
150.1'5195
C2008-940510-2
Nous reconnaissons l’aide financière du gouvernement du Canada par l’entremise du Programme d’aide au développement de l’industrie de l’édition (PADIE) pour nos activités d’édition. La publication de cet ouvrage a été rendue possible grâce à l’aide financière de la Société de développement des entreprises culturelles (SODEC).
Mise en pages : L ouis Laurencelle Couverture : Richard Hodgson
1 2 3 4 5 6 7 8 9 PUQ 2008 9 8 7 6 5 4 3 2 1 Tous droits de reproduction, de traduction et d’adaptation réservés © 2008 Presses de l’Université du Québec Dépôt légal – 2 e trimestre 2008 Bibliothèque et Archives nationales du Québec / Bibliothèque et Archives Canada Imprimé au Canada
Préface
L’utilité des tests psychométriques et autres instruments d’évaluation n’est plus à démontrer auprès des praticiens. « Est-ce que cette candidate est la plus qualifiée pour occuper cet emploi ? » « Cet homme a-t-il les acquis suffisants pour suivre cette formation avec succès ? » « Est-ce que le niveau de dépression dont souffre mon client est critique ? » Experts en sélection du personnel, conseillers en orientation, cliniciens ou psychologues scolaires, tous s’aident de ces outils pour éclairer leur diagnostic ou pour fonder leur décision. Or, la confiance aveugle des experts du testing envers les usages traditionnels de la psychométrie a fait son temps. C’est l’idée qui est avancée dans cet ouvrage novateur, portant sur l’erreur de mesure inhérente à l’étalonnage (constitution de normes à partir d’échantillons de la population) et sur le contrôle de l’incertitude reliée aux décisions qui en découlent. Laurencelle va au fond des choses et rappelle que l’interprétation candide du résultat d’un test de même que le recours à la distribution normale ne se font pas sans risque, nécessité étant de tenir compte des éléments pourtant fondamentaux de la statistique. L’auteur avance sur un terrain où peu se sont aventurés, bien en avance sur ce qui est pratiqué. Malgré les développements mathématiques sans doute difficiles pour quiconque n’y est pas rompu, les concepts abordés n’en sont pas moins importants pour tout praticien du testing. Par exemple, quel spécialiste en sélection du personnel n’aimerait pas prédire le rendement moyen espéré pour un ensemble de candidats qui auraient satisfait un certain seuil de sélection ? Cette moyenne espérée, appelée différentiel de sélection, peut être estimée à l’aide de tables savamment concoctées par l’auteur. Ou bien en matière de normes, essentielles pour comparer des résultats de provenances hétérogènes, ce dernier fournit une démarche, et les tables afférentes, pour convertir en rangs centiles, en stanines et en d’autres types de scores, les résultats provenant de diverses distributions, et cela, avec une précision accrue. L’auteur aborde des questions fort complexes, jamais traitées dans les livres de psychométrie. Il le fait de manière courageuse, abattant les obstacles méthodologiques les uns après les autres. Incidemment, dans la situation où l’utilisateur recourt à plusieurs tests en même temps en vue de prendre une décision, il doit tenir compte des interrelations qui existent entre ces tests. En réponse à cette situation et suivant diverses règles de décision, des tables, encore des tables, sont proposées pour déterminer des seuils multinormaux et les différentiels de sélection multivariés correspondants. D’autres problèmes pratiques sont examinés, comme l’incertitude d’une décision prise à partir d’une norme, d’un seuil à atteindre, ce qui amène l’auteur à présenter ses normes sûres.
VIII
L’étalonnage et la décision psychométrique
Cet ouvrage de Laurencelle, le neuvième, sans compter les nombreux articles publiés sur la mesure et la statistique, constitue une sorte d’essai de psychométrie pour praticiens soucieux de rigueur, au premier chef les psychologues industriels et tous ceux oeuvrant dans l’évaluation et l’orientation des personnes. C’est un ouvrage qui se situe à l’abri des modes, certes pas à la portée de tous, et qui n’a pas fini de nous inspirer. Normand Pettersen, Ph. D. en relations industrielles, professeur titulaire au Département des sciences de la gestion Université du Québec à Trois-Rivières
Table des matières
Préface........................................................................................................................ VII Introduction générale................................................................................................. Pourquoi ce livre ?......................................................................................................... Les idées principales mises en œuvre............................................................................ Le vocabulaire, les tables.............................................................................................. Composition des sections..............................................................................................
1 2 2 4 5
Section A La distribution normale et le différentiel de sélection............................................ Introduction.................................................................................................................. Nature et présentation des tables de la section A.......................................................... Exercices de lecture des tables...................................................................................... Exemples élaborés........................................................................................................ Justification mathématique........................................................................................... La distribution normale comme réalité ou comme modèle.............................................. Calcul de P............................................................................................................... Calcul de ∆. .............................................................................................................. Détermination des centiles (ou normes de population). ................................................. Le différentiel de sélection. ........................................................................................ Tables...........................................................................................................................
7 7 8 10 11 18 18 20 20 20 22 25
Section B Échelles classiques de conversion normale (QI, Stanines et Stens).................... Introduction.................................................................................................................. Nature et présentation des tables de la section B.......................................................... Exercices de lecture des tables...................................................................................... Exemples élaborés........................................................................................................ Justification mathématique........................................................................................... Élaboration des grilles de conversion normale : cas général............................................. Élaboration des grilles quasi normales (stanines, stens).................................................. Capacité discriminante et étalement de la série normative.............................................. Tables...........................................................................................................................
41 41 42 43 44 49 49 50 51 53
X
L’étalonnage et la décision psychométrique
Section C Les taux et rapports de sélection............................................................................. Introduction.................................................................................................................. Nature et présentation de la table de la section C......................................................... Exercices de lecture de la table..................................................................................... Exemples élaborés........................................................................................................ Justification mathématique........................................................................................... Calcul direct de la quantité ƒSQ.................................................................................... Calcul approximatif de ƒSQ.......................................................................................... Tables...........................................................................................................................
59 59 60 61 61 63 63 64 65
Section D Seuils et taux de sélection multinormaux................................................................ Introduction.................................................................................................................. Nature et présentation des tables de la section D.......................................................... Exercices de lecture des tables...................................................................................... Exemples élaborés........................................................................................................ Justification mathématique........................................................................................... La loi multinormale homogène. .................................................................................. Calcul de la fraction sélectionnée (α)........................................................................... Biais et approximations.............................................................................................. Tables...........................................................................................................................
67 67 68 69 71 73 73 73 75 76
Section E Différentiels de sélection multivariés....................................................................... Introduction.................................................................................................................. Nature et présentation des tables de la section E.......................................................... Exercices de lecture des tables...................................................................................... Justification mathématique........................................................................................... Théorie des différentiels de sélection multivariés........................................................... Le calcul des quantités mk,ρ(c)..................................................................................... Tables...........................................................................................................................
85 85 87 88 92 92 95 97
Section F Normes sûres (modèle normal)................................................................................ 117 Introduction.................................................................................................................. 117 Nature et présentation des tables de la section F........................................................... 120 Exercices de lecture des tables...................................................................................... 121 Exemples élaborés........................................................................................................ 122
Table des matières
XI
Justification mathématique........................................................................................... 125 Théorie de la norme unilatérale................................................................................... 125 Théorie de la norme bilatérale. ................................................................................... 127 Tables........................................................................................................................... 130 Section G Normes sûres ordinales (non paramétriques)......................................................... 143 Introduction.................................................................................................................. 143 Nature et présentation des tables de la section G.......................................................... 145 Exercices de lectures des tables..................................................................................... 147 Exemples élaborés........................................................................................................ 148 Justification mathématique........................................................................................... 150 Principe général de calcul........................................................................................... 150 Théorie de la norme ordinale unilatérale...................................................................... 151 Théorie de la norme ordinale bilatérale........................................................................ 152 Tables........................................................................................................................... 155 Section H Miscellanées............................................................................................................... 159 Introduction.................................................................................................................. 159 Partie 1. Taille et précision d’un centile normal ou uniforme (tables H1a et H1b)......... 159 Partie 2. Taille et normes sûres normales protégées (tables H2a et H2b)....................... 161 Partie 3. Taille et normes sûres ordinales protégées (table H3)..................................... 162 Partie 4. Taille et sélection individuelle sur la concomitante (tables H4a-H4c).............. 164 Partie 5. Taille et incertitude sur la corrélation r (tables H5a et H5c)............................ 167 Tables........................................................................................................................... 171
Introduction générale
« L’étalonnage et la décision psychométrique », le titre et la substance de ce livre, n’ont guère reçu l’attention qui leur est due depuis l’origine de la psychométrie jusqu’à nos jours : ces deux grands concepts pragmatiques ont historiquement été pris pour acquis. Pour l’étalonnage d’une part, les psychométriciens et adeptes du testing ont œuvré dans l’hypothèse confortable de la distribution normale. Cette distribution normale, découverte et inventée par les mathématiciens Moivre (1667-1754), Laplace (1749-1827) et Gauss (17771855), fut importée en biométrie et pour la description des populations humaines par Quételet (1796-1874), Galton (1822-1911) et K. Pearson (1857-1936), entre autres. Même si d’illustres prédécesseurs, notamment Binet et Simon, procédaient déjà à un étalonnage de leur test d’âge mental, c’est Wechsler (1896-1981) qui introduisit le modèle normal comme référence distributionnelle pour la mesure de l’intelligence, le QI, imposant ainsi un standard dont peu oseront s’écarter par la suite. Dans la tradition pearsonnienne de la statistique, qui privilégie les approches descriptives et ladite « méthode des moments », l’imposition d’un modèle, le modèle normal par exemple, et son application à une distribution empirique suffisent à peu près à en garantir l’interprétation, sans souci particulier de l’incertitude inhérente ni des erreurs d’ajustement possibles dans les portions extrêmes de la distribution. Cette assurance, ce sentiment de sécurité a imprégné et continue de baigner le monde de la psychométrie et des normes psychométriques, et ce, pour les situations ayant recours à la distribution normale comme pour les autres contextes. Pour la décision psychométrique, d’autre part, tout se passe comme si, une fois les « normes du test » publiées, le praticien du testing avait en mains tout ce qu’il faut pour non seulement évaluer son client mais aussi prendre une décision à caractère psychométrique à son endroit. Or, pour autant que nous sachions, la documentation traitant de la décision psychométrique, de ses risques statistiques et de ses procédures n’existe tout simplement pas. En l’absence de documentation appropriée, voire de connaissances pertinentes et de formation, le praticien, livré à lui-même, se voit placé dans le dilemme suivant : ou bien il fait naïvement confiance aux informations normatives disponibles, les interprète au pied de la lettre et donne la décision qui en découle, ou bien il sait ou il pressent que les normes sont approximatives, que certaines erreurs-types s’appliquent, qu’une réévaluation pourrait apporter des changements, et il s’engage alors dans une démarche floue, prudente, qualitative, et propose une décision hésitante, difficile sinon impossible à défendre en cas de litige.
2
L’étalonnage et la décision psychométrique
Pourquoi ce livre ? Ce livre a pour ambition, non pas de combler les lacunes accusées ci-dessus, mais de fournir des pistes grâce auxquelles les approches naïves et souvent peu professionnelles qui ont eu cours jusqu’à présent peuvent évoluer vers des méthodes mathématiquement réfléchies, des méthodes qui prennent en compte l’opération même de la décision psychométrique (« À quel niveau de rendement, à quel niveau d’aptitude est situé mon client ? », « Le candidat possède-t-il les habiletés requises pour satisfaire l’espérance de rendement formulée par l’employeur ? », « L’indice métabolique/sanguin/physiologique du patient a-t-il atteint un niveau critique ? », etc.), en même temps que les risques d’erreur qui sont associés à cette décision. Il existe déjà, nous en sommes conscient, des volumes, plaquettes et chapitres de livre, par des auteurs en psychologie clinique, en éducation, en médecine, en sciences de la gestion, dans lesquels le praticien peut trouver conseils, vérifications suggérées et recommandations diverses, dans le langage de sa pratique. Sans décrier l’intérêt ou la valeur de ces ouvrages, nous croyons qu’ils ne sont pas équivalents à un traitement structuré et mathématiquement explicite de la décision psychométrique et de ses enjeux, tout en reconnaissant qu’ils en seraient un heureux complément au bénéfice des praticiens. Les idées principales mises en œuvre Même dans l’approche classique, et rassurante, de la psychométrie, telle que nous l’avons brossée ci-dessus, les ouvrages traitant d’étalonnage ne sont pas légion, et il n’est pas facile de trouver des guides détaillés pour la constitution de normes, depuis Guilford (1954) jusqu’à Brennan (2006). Dans le présent ouvrage, nous avons inclus, bien sûr, le b.a.-ba de l’étalonnage, notamment par l’intermédiaire d’exemples élaborés qu’on retrouvera dans les deux premières sections. Dans le terreau de cette base rudimentaire, nous avons pour ainsi dire jardiné en y plantant deux idées clés et en observant les espèces qui s’y développaient : ces idées sont l’erreur de mesure et l’incertitude ordinale des séries normatives. La place et le rôle de l’erreur de mesure sont généralement admis et bien compris dans le modèle classique de la théorie des tests (Gulliksen, 1950 ; Laurencelle, 1998a). Cependant, soit on a ignoré les propriétés distributionnelles et probabilistes de l’erreur, soit on ne les a pas exploitées et intégrées dans une approche structurée de la décision psychométrique. Quant à l’incertitude ordinale, elle fait référence au fait que, au lieu d’une population entière et de l’ensemble des mesures qu’elle contient, l’« étalonneur » ne dispose que d’un groupe normatif, un échantillon, qui lui fournit une série clairsemée de valeurs représentatives, série à partir de laquelle il doit fixer des normes de position dans la population. L’erreur d’approximation du centile échantillonnal par rapport au centile populationnel (ou paramétrique), erreur que nous désignons ici par incertitude ordinale, a des propriétés différentes, et plus complexes, par rapport à la simple « erreur de mesure », laquelle on associe ordinairement à une variable aléatoire normale. La théorie mathématique de cette erreur,
Introduction générale
3
théorie liée aux « statistiques d’ordre » d’une série statistique, est bien établie (voir p. ex. David, 1981) mais elle n’a pas fait son chemin en psychométrie et semble remarquablement absente dans les quelques ouvrages qui traitent d’étalonnage. Pourtant, force est de le constater, la pratique contemporaine du testing se voit de plus en plus souvent confrontée à des contestations judiciaires, le psychologue, voire l’expert en psychométrie se faisant prendre à partie sur la théorie de sa décision, le détail de ses modèles, la légitimité de ses procédures : la confiance candide dans les ukases de la psychométrie classique a fait son temps. Les sections F, G et H portent entièrement sur ces sujets, sans oublier la section A, dans laquelle nous introduisons le concept de l’erreur-type d’une norme centile. Toujours dans une perspective de décision psychométrique et, particulièrement, de sélection ou de diagnostic, nous avons tenté de mettre à contribution une troisième idée, celle d’une approche multivariée explicite de l’étalonnage. L’idée n’est pas neuve, particulièrement depuis Thurstone (1887-1955) qui inaugura l’étude des structures multidimensionnelles de l’intelligence, étude bientôt élargie à d’autres objets (intérêts occupationnels, personnalité, diagnostic différentiel, motivation). Les modèles multidimensionnels des objets psychologiques sont une chose acquise depuis plusieurs décennies, et leur traitement (surtout par analyse factorielle), bien représenté dans la documentation savante, la formation universitaire et la pratique du testing. Cependant, multidimensionnel n’équivaut pas ipso facto à multivarié, et on rencontre rarement des procédés psychométriques (en testing appliqué) ou des études qui vont utiliser et interpréter conjointement deux ou plusieurs scores d’un même répondant1 ; quand ils existent, ces procédés, ou « règles du pouce », demeurent largement d’ordre qualitatif et sans assises statistiques sérieuses. Nos tentatives en vue de fonder une approche proprement multivariée en psychométrie occupent les sections D et E. Le lecteur aura compris que l’idée de base à l’origine des trois autres, qui a motivé l’élaboration de ce matériel et qui justifie en quelque sorte l’écriture de ce volume, a été de mettre de la statistique dans la psychométrie, c’est-à-dire de dépasser l’approche pearsonnienne, plutôt descriptive et statique, et tenter d’incorporer, dans les concepts et les pratiques de la psychométrie, les éléments de variation et de distribution qui leur conviennent. Nous sommes certain de n’avoir qu’effleuré le domaine, ou même de n’en avoir qu’indiqué l’existence ou la possibilité. Si tel était le cas, nous en serions tout de même satisfait.
1. Font exception à cette allégation certaines règles d’interprétation de profils de scores, règles souvent mal documentées et dont la validité statistique n’est généralement pas vérifiée. On retrouve par exemple de ces règles dans l’interprétation d’une grille de « cotes pondérées » du QI ou dans les doublets ou triplets d’échelles du MMPI.
4
L’étalonnage et la décision psychométrique
Le vocabulaire, les tables D’abord, le vocabulaire. En français guère plus qu’en anglais, il n’existe de convention lexicale pour la désignation des différents concepts de la psychométrie. Par exemple, pour désigner l’opération qui consiste à recruter et mesurer un groupe de personnes par un test, puis à en élaborer enfin des normes d’interprétation, les mots « étalonner » et « étalonnage » se voient substituer parfois les mots « standardiser », voire « normaliser ». Nous avons scrupuleusement évité d’employer l’expression « normaliser un test », non pas parce qu’elle est hérétique ou disgracieuse, mais parce qu’elle suggère l’utilisation d’un modèle de distribution normale sans qu’un tel modèle soit expressément appliqué. D’autres variations lexicales peuvent apparaître, en plus des désignations nouvelles que nous avons été contraint d’introduire, tels le différentiel de sélection, la norme sûre (normale ou ordinale), la norme sûre protégée, etc. Nous implorons l’indulgence du lecteur pour ces licences que nous nous sommes octroyées. Il nous a fallu réfléchir un long temps sur les contenus et formats des tables épaulant chaque section et, ici comme tantôt, nous ne sommes pas rasséréné quant à la conclusion qui a prévalu. Fallait-il mettre plus, ou moins, de détail ? d’autres seuils ? une précision plus, ou moins, grande ? etc. Bien sûr, le but premier, évident, des tables en est un pratique, c’est-àdire fournir à l’usager les valeurs numériques dont il peut avoir besoin dans une procédure donnée. Un autre but, méthodologique celui-là, est de présenter des valeurs de référence pour les principes et algorithmes de calcul qui sont documentés dans le texte. L’usager qui voudrait réactiver ces algorithmes trouvera là matière à vérification. Il nous faut signaler enfin que les tables présentées ici ne sont pas toutes nouvelles ou inédites, loin de là. La section A (Intégrale et densité de la distribution normale) et la section B (Échelles classiques de conversion normale) présentent des informations faciles à trouver ailleurs, accompagnées ici de données inédites ; c’est le cas aussi de la section C (Les taux et rapports de sélection). Les tables des sections suivantes (D, E, F, G, H) sont nouvelles ou ont paru (en partie ou en tout) dans des publications antérieures de l’auteur. Dans ce dernier cas, les présentes tables améliorent ou remplacent les parutions précédentes, dont certaines contenaient des erreurs2 de calcul, voire de définition. Nous nous sommes efforcé d’assurer la qualité des tables en vérifiant chaque inscription et en peaufinant nos algorithmes afin de garantir la précision (les chiffres significatifs) affichée. Mais ce volume porte sur l’erreur, et il serait absurde de prétendre que sa composition en ait été exempte.
2. Des erreurs numériques, qui ont été corrigées dans le présent volume, mais aussi des erreurs de conception : p. ex. pour le différentiel de sélection multiple, voir section E vs Laurencelle (1998a,b), et pour la norme sûre bilatérale de mode normal, voir section F vs Laurencelle (1998a), Laurencelle (2000a) et Laurencelle (2002).
Introduction générale
5
Composition des sections Chacune des huit sections du volume, numérotées de A à H, comporte une partie explicative et est suivie des Tables numériques correspondantes. La partie explicative débute par une mise en situation, donnant le quoi et le pourquoi du sujet traité : courte Introduction, puis Nature et présentation des tables, Exercices de lecture des tables, Exemples élaborés, enfin Justification mathématique, cette dernière sous-section fournissant en détail le comment des calculs. Ce livre ne constitue pas un manuel d’introduction à la psychométrie, non plus qu’une initiation à l’étalonnage ou au diagnostic psychométrique. Pour la psychométrie générale, les libraires proposent quelques bons ouvrages en français (Bernier et Pietrulewitz, 1997 ; Bertrand et Blais, 2004 ; Laveault et Grégoire, 2002 ; voir notre Laurencelle, 1998a). Pour l’étalonnage, à notre connaissance, seul notre précédent manuel (Laurencelle, 1998a) survole le sujet. Le présent ouvrage peut être vu comme un essai élaboré, un petit traité sur des aspects qui traditionnels, qui prospectifs, du traitement des données normatives et leur application à la décision psychométrique. Ouvrage pour spécialistes, sans doute, mais que nous avons tenté de rendre inspirant et accessible à tous les praticiens de la psychométrie, notamment grâce à nos exemples élaborés que nous avons voulu calqués sur des situations pratiques pour les besoins du psychologue professionnel ou de la firme de gestion du personnel. Nous espérons sincèrement avoir atteint notre but.
Section A La distribution normale et le différentiel de sélection Introduction C’est Francis Galton qui a baptisé du nom de « normale » la loi de distribution statistique qui a successivement été découverte par Abraham Moivre, Pierre-Simon Laplace et Carl Friedrich Gauss, loi dont l’expression mathématique générale prend la forme d’une fonction de densité de probabilité, soit : p(X) =
(1)
La loi normale (Patel et Read, 1996), parfois appelée gaussienne, obéit à deux paramètres externes : le paramètre de position µ, qui dénote à la fois la moyenne arithmétique, la médiane et le mode de la distribution, et le paramètre d’étalement ou de dispersion F, appelé écart-type. La figure 1, sur la page suivante, est une illustration de cette loi, avec les valeurs paramétriques : µX = 100 ; FX = 15 valeurs qui sont typiques des échelles normatives artificielles imposées aux tests de Quotient intellectuel (QI). La transformation linéaire de la variable distribuée X, selon : Z = (X ! µX) / σX ,
(2)
où Z, appelé écart-réduit (ou score Z), permet d’exprimer la loi normale sous sa forme standard, de moyenne µZ = 0 et d’écart-type σZ = 1, soit : p(Z ) = e!½ Z² /
.
(3)
La documentation réfère à cette densité normale standard par le symbole ϕ(Z ) et à son intégrale, par Φ(Z ), aussi appelée fonction de répartition. Nous avons évidemment : Φ(!4) = 0 ; Φ(0) = 0,5 ; Φ(4) = 1.
(4)
Pourquoi la loi mathématique de la distribution normale apparaît-elle dès les premières pages d’un traité sur l’étalonnage ? La raison en est que, historiquement, l’utilisation du « modèle normal » et sa diffusion dans la communauté scientifique ont évolué à partir de deux référentiels importants, soit la théorie des erreurs de mesure, avec Gauss et Laplace, et la répartition des mesures biométriques dans la population, avec
8
L’étalonnage et la décision psychométrique
Figure 1. Distribution normale de moyenne (µ) 100 et d’écart-type (σ) 15. Adolphe Quételet, Francis Galton et Karl Pearson (Stigler, 1986)1. Forts des milliers de mesures relatives soit à la taille des personnes, à la longueur d’un membre, au poids corporel, etc., Quételet avança l’idée de l’universalité de cette loi de distribution et Galton la consacra du nom de « normale », c’est-à-dire une loi suffisamment fiable et confirmée pour servir de norme. C’est ce même modèle normal qui fut adopté et appliqué par les psychométriciens et les praticiens du testing psychologique et qui sert aujourd’hui de référence implicite dans l’interprétation des tests. Le lecteur trouvera d’autres considérations importantes sur le modèle normal et sa légitimité pour la pratique psychométrique dans la section mathématique, plus loin. Nature et présentation des tables de la section A Les tables de la section A concernent la forme de la distribution normale et son interprétation. Noter que toutes ces tables, de même que celles des sections ultérieures, réfèrent à la loi normale standard et à la variable Z (ou z), de moyenne 0 et d’écart-type 1.
1.
Un troisième référentiel, celui par lequel la loi normale sert de modèle d’approximation asymptotique pour d’autres lois de distribution, a été défriché plus tardivement, si on excepte l’observation princeps de Moivre, qui le premier a découvert la loi normale en cherchant une approximation asymptotique de la loi binomiale.
La distribution normale et le différentiel de sélection (Section A)
9
Les tables mettent en jeu six quantités, dont voici une description sommaire : • P ou T(c) : la quantité P, qu’on peut aussi écrire P(z) ou P(c), dénote l’intégrale normale ou fonction de répartition normale standard (aussi indiquée Φ z) et varie de 0 à 1. On réfère aussi à P sous le vocable de rang centile (de 0 à 100), en imaginant la valeur correspondante 100 × P. Pour les valeurs négatives de l’argument z (ou c), la symétrie de la distribution normale entraîne l’équivalence : P(!z) = 1 ! P(z)
(5)
La valeur T(c), qui apparaît à la table A3, est appelée taux de sélection et représente simplement le complément de P, i.e. T = 1 ! P. • ϕ : la densité normale standard, indiquée ϕ(z) ou p(z) comme en (3), est l’ordonnée de la distribution normale d’abscisse z ; c’est une fonction symétrique telle que ϕ(z) = ϕ(!z). • z (ou c) : l’écart-réduit z constitue la variable (la mesure) dont on interprète la distribution : c’est une variable standardisée, c’est-à-dire que, basée sur une mesure originale X de moyenne µX et d’écart-type σX, on l’a obtenue par la transformation (2), soit z = (X ! µX)/σX. La distribution normale étant symétrique, avec la position z = 0 comme axe de symétrie, les tables A1 et A2 fournissent seulement la moitié positive de la distribution, soit P $ 0,5 et z $ 0. La quantité c (en valeurs d’écart-réduit) est équivalente à z et dénote ici un seuil de sélection, une valeur à partir de laquelle les individus sont retenus pour sélection. Ainsi, dans une procédure donnée, on retiendrait tous les éléments pour qui X $ C, où C = µX + c × σX (voir figure 1). • ∆ : le différentiel de sélection dénote, en unités standardisées, la moyenne arithmétique des individus satisfaisant le seuil de sélection c. Dans l’exemple donné à la figure 1, le seuil C = 120 correspond, en écart-réduit, à c = (C ! µX) / σX = (120 ! 100) / 15 .1,33 ; la table A2 indique P(c) = 0,90824, soit un taux de sélection T(c) de 1 ! P = 0,09176, ou un peu plus de 9 % de la population examinée. La colonne suivante indique un différentiel de sélection ∆ = 1,79535, lequel représente la valeur moyenne (en écart-réduit) des individus pour lesquels z $1,33. Retournant à la figure 1 et à la population de moyenne 100 et d’écart-type 15, nous voyons que la sélection des candidats pour qui X $120 nous fournirait une sous-population de moyenne plus élevée, soit µX(C ) = µX + ∆ × σX = 100 + 1,79535 × 15 . 126,93. La précision numérique dans les calculs est affaire de contexte et dépend aussi des exigences et ressources de l’utilisateur. Dans l’exemple ci-dessus, _ la valeur (C ! µ)/σ = (120 ! 100)/15 produit réellement c = 1,33333... = 1,3 , valeur que
10
L’étalonnage et la décision psychométrique
nous_avons raccourcie (arrondie) _ à 1,33. En fait, par interpolation sur la table A2, _ P(1,3 ) . 0,90879, d’où T(1,3 ) . 0,09121. En outre, l’interpolation pour ∆(1,3 ) donne 1,79814, d’où une moyenne µ(C) = 126,97, plutôt que le 126,93 obtenu tantôt. Dans la plupart des cas, on le voit, ce surcroît de précision reste marginal et il est rendu quelque peu illusoire dans le contexte de l’incertitude des estimations numériques employées ainsi que du modèle de distribution.
La valeur du différentiel de sélection pour un argument c négatif, et P(c) < 0,5, s’obtient par l’équivalence : ∆(c) = ∆(!c) × P / (1!P)
(6)
La section mathématique, ci-dessous, donne d’autres informations sur le différentiel de sélection, notamment sur son calcul et son estimation à partir d’une série d’observations. • a1, a2, a3 : En postulant qu’une série d’observations, un échantillon de mesures, se distribue normalement, il est possible d’en estimer différents centiles, comme on le fait couramment dans la fabrication des normes d’un test. L’une des méthodes procède au moyen des statistiques d’ordre de la série (i.e. les valeurs des N observations placées en ordre croissant) ; le centile de rang P s’obtient par : CP = X[r] , où r = P(N + 1)
(7)
ou par une formule équivalente, X[r] désignant la valeur de rang r (1 #r #N) dans la série. Dans ce cas, et si la distribution de X dans la population est normale, alors CP est un estimateur du centile correspondant XP dans la population, et son incertitude est indiquée par une variance d’erreur approximative de var(CP) = σ2X 3 ar / (N + 2)r, r = 1 à 3.
(8)
La section mathématique décrit une méthode différente, et plus risquée, pour la détermination des centiles.
Exercices de lecture des tables 1. Quelle est la valeur du centile normal standard correspondant à P = 0,75 ? Dans la table A1, à P = 0,750, nous trouvons z = 0,67449, qui dénote le centile Z0,95 de la loi normale standard. 2. Dans une population normale standard, quelle est la moyenne des individus situés audessus de c = 1 ? Au-dessus de c = !1 ?
La distribution normale et le différentiel de sélection (Section A)
11
La table A2 fournit directement ∆ = 1,52514 pour c (= z) = 1 ; c’est cette moyenne augmentée (par rapport à la moyenne de la population standard µZ = 0) qui est appelée différentiel de sélection. Pour obtenir ∆(!1), il faut recourir à la relation (6), i.e. ∆(c) = ∆(!c) × P / (1 ! P ), ici ∆(!1) = ∆(1) × P(!1) / [1 ! P(!1)] = 1,52514 × 0,15866 / 0,84134 = 0,28761. 3. Dans une population normale standard, quelle est la moyenne des individus situés en dessous de c = 1 ? La moyenne de tous les individus situés situés en deçà du seuil de sélection c constitue une nouvelle quantité, un concept, qu’on peut désigner par différentiel de _ sélection négatif, dénoté ∆ . Dans une population standard (où µ = 0), nous avons _ _ ∆c× (1 !P) + ∆ c× P = 0,_ d’où ∆ c = !∆c (1 !P) / P = !∆!c. Ainsi, d’après le résultat de l’exercice précédent, ∆ (1) = !∆(1) = !0,28761. 4. Pour sélectionner un groupe dont la moyenne serait de 1 (= ∆) en valeur standardisée, quel seuil et quel taux de sélection doit-on utiliser ? L’utilisateur qui souhaite que la population sélectionnée ait une moyenne située à un écart-type au-dessus de la moyenne générale, i.e. µ(c) = µ + σ, vise donc un différentiel de sélection de ∆ = 1. La table A3, à la ligne correspondante, fournit le seuil c = 0,30263 pour un taux de sélection de T(c) = 0,38109. 5. Quels sont les coefficients de la variance d’un centile normal (standard) imposé au rang centile P = 0,75 ? La table A1, à la ligne P = 0,750, fournit a1 = 1,85677, a2 = 3,42762 et a3 = 5,35867.
Exemples élaborés 1. Base normative. La course de 12 minutes de Cooper sert à évaluer la condition physique d’une personne et permet d’estimer sa puissance aérobie : épreuve individuelle, elle consiste simplement à parcourir, dans des conditions de course optimales, la plus grande distance possible en 12 minutes. Le tableau 1 présente des données fictives de N = 283 participants, la distance étant mesurée en mètres2. La figure 2 illustre la répartition des résultats. Faire une analyse préalable sommaire de ces données à titre de base normative. Globalement, deux caractéristiques ressortent. D’abord, l’histogramme fait apparaître un certain déséquilibre dans la répartition des données, le versant droit de l’histogramme étant plus allongé que son versant gauche. Deuxièmement, si le corps des distances
2.
Données fictives tirées de Laurencelle (1998a), p. 201.
12
L’étalonnage et la décision psychométrique
Tableau 1. Distances courues (en mètres) par 283 participants au test de 12 minutes de Cooper 2429 2252 2807 2077 2220 2169 2002 2565 2489 2310 2081 1897 1970 2057 2658 2193 2158 1849 2440 2040 2254 1786 2443 2153 2007 2007 1955 2196 2122
2485 3105 2455 2464 2025 1959 2315 2051 2190 2623 2094 2478 2186 2397 2581 2504 2431 2347 2969 2050 2673 2359 2177 2323 2160 2187 2179 1998 2057
2301 1946 2031 2336 2322 2164 1765 2328 2059 1986 2799 1969 2230 2349 2323 2369 1827 2751 2160 2260 2272 2274 1824 2292 2859 2766 2094 2386 1797
3044 2679 2139 1891 2401 1991 1784 2087 2039 2282 2428 1997 1984 2357 2114 2295 2064 2169 2285 1868 2803 1838 2333 2714 1843 2670 2036 2328
2442 2964 1941 2192 3108 2051 2199 2010 2418 2731 2265 2288 2857 2400 2111 2269 1949 2582 2333 2097 1752 2757 1997 2291 2474 2147 2299 2583
2440 2218 2345 2484 2098 2059 1681 2490 2488 2349 2013 2103 2295 2646 1937 2217 2317 2490 2167 2431 2098 1960 1768 2034 2041 2287 2312 2372
2064 2064 2488 1967 2579 2867 2260 1892 2446 2341 3013 2299 2198 2935 2374 1972 2221 2538 2229 1945 2308 2160 2597 2149 2335 1874 2845 2192
2375 1983 2612 2429 1741 2496 2235 2464 2218 2362 2462 2737 1875 2469 2454 2294 1997 2062 1880 2521 1962 2418 2321 2038 1896 2311 1895 2075
2343 1655 2900 4253 2799 2232 2248 1780 2401 1814 2569 2032 2108 2122 1893 2588 2278 2137 2164 2398 1904 2329 2020 2186 2218 2548 2203 2611
1826 2389 2452 2445 2261 2626 1965 2340 2354 2467 2010 2058 2124 2062 2106 1831 1820 2047 2210 2066 2507 2025 2312 2225 2384 1795 1979 2344
obtenues s’étale d’environ 1600 à 3100 mètres, nous observons à droite une distance extravagante de 4253 mètres. Cette valeur serait en soi exceptionnelle pour une course de 12 minutes, mais elle est surtout relativement aberrante par rapport aux 282 autres données. Soit la distance « 2453 » a été notée en inversant les deux premiers chiffres, soit
13
La distribution normale et le différentiel de sélection (Section A)
45
40
35
30
25
20
15
10
5
42 50
40 50
38 50
36 50
34 50
32 50
30 50
28 50
26 50
24 50
22 50
20 50
18 50
16 50
0
X (distance en m)
Figure 2.
Distances (en mètres) courues par 283 participants durant 12 minutes (test de Cooper)
un athlète olympique s’est glissé subrepticement dans notre groupe normatif. Dans un contexte d’élaboration de normes, la décision prudente est d’écarter un tel résultat. Nous basant dès lors sur les _N = 282 données (à l’exclusion de la valeur 4253), nous obtenons les _ statistiques X = 2253,90 et sX = 284,64. L’indice d’asymétrie, ½ g1 = N 3(Xi ! X )3 / [(N ! 1) sX2 ]3/2, vaut ici 0,525 ; son erreur-type étant d’environ /(6/N) . 0,146, le test de g1 donne 0,525 / 0,146 . 3,600, confirmant la présence d’une asymétrie solide dans nos données. L’examen des données normatives, fournies au tableau 1, a fait ressortir le fait que la variable observée n’a pas une distribution normale (dans la population) et que le modèle normal ne lui sied pas vraiment. Outre l’examen visuel et le test de l’asymétrie par l’indice g1, d’autres procédures de validation sont possibles, notamment un test Khideux d’ajustement, le test dit de Kolmogorov-Smirnov sur un échantillon (avec critère de Lilliefors), le fameux test de Shapiro et Wilks, etc. Laurencelle (2001) en fait la revue exhaustive.
14
L’étalonnage et la décision psychométrique
Nous devons donc renoncer à l’hypothèse normale pour ces données, mais cela n’entraîne pas que nous devions renoncer au modèle normal pour élaborer des normes. La non-normalité des données normatives nous interdit les interprétations linéaires usuelles, telles que de dire qu’une personne est située à 1½ écart-type au-dessus de la moyenne, et l’utilisation de centiles normaux projetés (voir section mathématique). Cependant, nous pouvons toujours fabriquer des normes à distribution normale, par la technique des centiles normaux imposés (ibid.), ou encore utiliser le modèle normal pour évaluer la précision approximative des centiles de la distribution originale, obtenant ainsi des centiles semi-normaux. Le psychométricien plus curieux, ou le scientifique averti, aura supputé qu’un autre modèle mathématique sous-tend la variation des données représentées par un histogramme, à la figure 2. Parmi les modèles à variables positives (ici, la distance) et à asymétrie positive, le modèle Gamma et le modèle lognormal sont les premiers en lice (Johnson, Kotz et Balakrishnan, 1994). La variable lognormale X en est une dont le logarithme, Y = loge(X ! X0), se distribue normalement, sous les paramètres µY et σY. Prenant l’indice g1 pour critère à minimiser, nos 282 données nous permettent de ^ Y = 7,235 et σ ^ Y = 0,200. La répartition des données sur trouver X0 = 839, g1(X) . 0, et µ l’échelle transformée est illustrée à la figure 3. Une telle modélisation nous met en face 35
30
25
20
15
10
5
8, 08
7, 98
7, 88
7, 78
7, 68
7, 58
7, 48
7, 38
7, 28
7, 18
7, 08
6, 98
6, 88
6, 78
0
ln( X – 839)
Figure 3. Distances (données transformées) de 283 participants au test de Cooper
La distribution normale et le différentiel de sélection (Section A)
15
d’une alternative : utiliser maintenant le modèle lognormal ainsi défini pour servir de référence normative, ou bien opérer au niveau normal sous-jacent et, de là, projeter des normes dans l’échelle originale, en effectuant la transformation inverse, X = X0 + exp(Y). Nous illustrons ce second processus plus loin. 2. Détermination du centile 95. Il est demandé ici de fixer le centile 95 des normes de distance, en se référant au tableau 1. Centile semi-normal. L’exemple 1, ci-dessus, ayant fait ressortir que nos données ne se conforment pas au modèle normal, la méthode du centile normal projeté se trouve disqualifiée. Nous recourons donc aux statistiques d’ordre pour déterminer C95 ; appliquant la formule (7), C95 = X[r], r = 0,95 × (282 + 1) = 268,85. Or, après le tri en ordre croissant, nous avons X(268) = 2799 et X(269) = 2803, d’où X(268,85) = 2799 + (2803 ! 2799) × 0,85 = 2802,40. Quelle est l’incertitude, la variance de cette estimation ? Pour la trouver (approximativement), nous posons que la zone proximale de la statistique d’ordre étudiée a un comportement statistique semblable à celui qu’elle aurait dans une distribution normale, et nous appliquons dès lors les calculs afférents à une statistique d’ordre normale. Considérant l’expression (8) et la table A1 vis-à-vis du rang centile P = 0,950, nous trouvons les coefficients a1 = 4,46556, a2 = 26,6271 et a3 = 104,574. ^ X = sX = 284,64, nous calculons : Utilisant enfin N = 282 et σ var(C95) = 284,642 × [4,46556 / 284 + 26,6271 / 2842 + 104,574 / 2843 ]
. 1301,06, ce qui fournit une estimation d’erreur-type (σe) de /1301,06 . 36,07. Centile normal imposé. À l’instar de plusieurs praticiens, nous pouvons aussi imposer aux normes éditées un modèle, le modèle normal, en leur donnant des valeurs paramétriques de convenance. Utilisons ici l’échelle normale T, de moyenne µ = 50 et d’écart-type 10, donnée en unités entières (sans partie fractionnaire). La table A1 nous indique que, dans une distribution normale continue, le centile 95 tombe à la position z = 1,64485 ; projetée dans une distribution discrète de paramètres µ = 50 et σ = 10, cela donne T = C95 = 50 + 10 × 1,64485 . 66,4. Abandonnant la partie fractionnaire de 0,4, nous trouvons T = 66. Or il appert que la valeur T = 66 correspond, en écart-réduit, à z = (66 ! 50)/10 = 1,600 et, dans la table A2, à P(1,6) = 0,945203. Donc, utilisant P = 0,94520, nous trouvons r = 0,94520 × (282 + 1) . 267,49, Or, puisque X(267) = X(268) = 2799, nous avons C0,94520 (X) = 2799 qui correspond à T = 66, c’est-à-dire que les personnes obtenant la distance X = 2799 se voient attribuer la cote T = 66. La marge
3.
Nous traitons à nouveau ce problème dans le chapitre suivant (La conversion en cotes T et en QI), en tenant compte cette fois de l’intervalle réel attaché à chaque valeur discrète d’échelle, ici l’intervalle (65,5 à 66,6) pour T = 66.
16
L’étalonnage et la décision psychométrique
d’incertitude de cette cote T, appuyée elle aussi sur une statistique d’ordre, se calcule comme ci-dessus, en appliquant cette fois σ = 10 (plutôt que sX = 284,64) et P = 0,9452. Dans la table A1, utilisant les coefficients aj associés à 0,945 et 0,946, nous obtenons les variances standardisées de 0,015076 et 0,015259 respectivement. Nous interpolons pour P = 0,9452, obtenons 0,015113 et multiplions par σ2 = 102 pour aboutir enfin à var(T = 66) = 1,511, ou une erreur-type σe = 1,23. Sur le plan de l’interprétation, ce résultat signifie que, en raison de sa base de calcul normative, la personne recevant la cote T = 66 est sujette à une variation d’écart-type 1,23, ou qu’il y a approximativement 95 % de chances que sa vraie cote se situe dans l’intervalle (T ± 2σe) = (63,5 ; 68,5). Nous revenons sur la question des normes normalisées (à modèle imposé) dans la section suivante. Centile normal projeté après modélisation. La technique du centile projeté, de type _ Cp = X + zP × sX, a été écartée pour nos données de distance parce que leur répartition jurait avec le modèle normal4. Cependant, un modèle lognormal décent a été trouvé, de ^Y = type Y = loge(X ! 839), où Y se répartit quasi normalement, avec ^µY = 7,235 et σ 0,200. La technique de projection convient alors à ce modèle sous-jacent, la valeur projetée pouvant ensuite être re-transformée vers l’échelle originale. Ainsi, pour P = 0,95 et z = 1,64485, nous obtenons C0,95(Y) = 7,235 + 1,64485 × 0,200 . 7,5640, d’où C0,95(X) = 839 + exp(7,5640) . 2766,54. Il faut user d’un subterfuge ici pour estimer l’erreurtype. D’abord, l’erreur-type sur Y (sur échelle logarithmique) s’obtient par le calcul (15, plus bas), soit var(CY) = 0,2002/282 × [1 + 1,644852 × (4 × 2822!5 × 282) / 8(282 ! 1)2] ^ e(Y) . ^ e(Y ) . 0,018282. Ensuite, on définit les bornes C0,95(Y) ± σ . 0,00033424, ou σ (7,5640 ± 0,018282) . (7,5457 ; 7,5823), pour les transposer en X, soit [839 + exp(7,5457) ; 839 + exp(7,5823)] . (2731,59 ; 2802,14), et le demi-intervalle fournit ^ e(X) . (2802,14 ! 2731,59) / 2 . 35,28. enfin l’estimation cherchée, σ Rang centile. Comme nous l’avons vu ci-dessus (centile semi-normal) pour nos N = 282 données de distance courue, le rang centile 95 est occupé par la valeur X(268,85) . 2802,40. Cette correspondance entre valeur obtenue et rang centile constitue aussi une norme, traditionnellement désignée « normes centiles5 ». Ainsi, les personnes courant environ 2802,40 m se voient attribuer le rang centile RC = 95. La précision d’une telle norme est facile à déterminer : soit 0 < P < 1, alors : var( CP | RC) = 1002 P(1 ! P) / (N + 2) .
(9)
Ainsi, pour notre rang centile 95, var(C0,95) = 1002 × 0,95 × 0,05 / (282 + 2) . 1,673, et ^ e(C0,95) .1,29. Le lecteur aura noté que l’erreur-type d’un centile estimé varie selon P : σ 4.
La valeur projetée sur l’échelle originale, C95 = 2253,90 + 1,64485 × 284,64 . 2722,09, est trop basse ; elle correspond au rang centile 92,4 (plutôt que 95) dans la série normative. Comparativement, la norme projetée après modélisation, soit 2766,54, tombe au rang centile 94,0.
5.
Les normes centiles affichent les valeurs discrètes 99, de sorte qu’elles occupent de facto des intervalles réels dans les données. Ainsi, le rang centile 95 s’étale de 94,5 à 95,5, de sorte que, dans nos 282 données, il couvre les valeurs de rangs (282 + 1) × (0,945 à 9,55), soit r = 267,44 à 270,27 et X(r) = 2782,17 à 2804,24.
La distribution normale et le différentiel de sélection (Section A)
17
dans les modèles normaux examinés ci-dessus, l’erreur-type augmente à mesure que P s’écarte de 0,5, son centre. Dans le cas des normes centiles, le contraire se produit, l’erreur s’amenuisant à mesure qu’on approche de P = 0 ou P = 1. 3. Augmenter le rendement de l’usine. Le concept du différentiel de sélection (∆) s’applique aux situations dans lesquelles le décideur souhaite modifier la valeur moyenne d’un ensemble d’éléments, ce en opérant par sélection. Pour notre exemple, prenons une grande usine (avec un nombre indéfini de manœuvres), dont le rendement par employé est mesuré par un critère Y, de moyenne µY = 200, d’écart-type σY = 20 et de distribution normale. Nous avons aussi à disposition un test de mesure X, normalement distribué dans la population avec µX = 50 et σX = 10 ; le coefficient de validité prédictive, ou la corrélation entre test et rendement à l’usine, est DX,Y = 0,80. Le PDG de l’entreprise souhaite augmenter de 5 % le rendement global ; que peut-on lui proposer ? Sélection par attrition et congédiement. Le rendement moyen par employé doit passer de µY = 200 à µ*Y = 210, soit 200 + 5 %, pour un différentiel, c’est-à-dire une différence standardisée, de ∆Y = (µ*Y ! µY) / σY = (210 ! 200) / 20 = 0,50. La première méthode évidente consiste à retenir seulement les employés dont le rendement assurera la nouvelle moyenne : il s’agit de fixer un seuil CY tel que les employés obtenant Y* = Y $CY aient la moyenne µ*Y voulue. Or, pour un différentiel ∆ = 0,50, la table A3 fournit c = !0,51791 et T = 0,69774, déterminant le seuil CY = µY + ∆σX = 200 ! 0,51791 × 20 . 189,64 et un taux de sélection (rétention) de 69,8 %, correspondant à un taux de rejet de 30,2 %. Sélection par recours à un test prédictif. Une autre méthode, applicable cette fois à des candidats à l’emploi, consiste à administrer à ceux-ci un test d’aptitude, statistiquement corrélé au rendement Y, et à retenir ceux dont le rendement prédit permettra l’atteinte de la moyenne escomptée µ*. Y Utilisant le test à mesure X et les valeurs déjà mentionnés, la relation prédictive entre test et rendement s’écrit : YN = bYX X + a , où bYX = DXY × σY / σX et a = µY ! bµX , relation qui s’applique aussi aux moyennes générales µY et µX comme aux moyennes altérées, µ*Y et µ*. X Donc, au lieu de retenir tous ceux à qui le test est administré, il s’agit de garder ceux obtenant X* = X $ CX tels que leur moyenne en X assure l’élévation correspondante en Y. Pour y parvenir et en coupant court, le différentiel ∆X à appliquer en X s’obtient simplement par : ∆X = ∆Y / DXY , ici ∆X = 0,50 / 0,80 . 0,625. Dans la table A3, pour ∆ = 0,60 nous lisons c = !0,33063 et T = 0,62954, pour ∆ = 0,65, c = !0,24282 et T = 0,59593, d’où l’interpolation pour ∆ = 0,625 fournit c = !0,28673 et T = 0,612746. Ainsi, CX = µX + ∆σX = 50 ! 0,28673 × 10 . 52,87, l’application de ce seuil au moment de la sélection promettant un
6.
Les valeurs exactes pour ∆ = 0,625 sont c = !0,28630 et T = 0,61268.
18
L’étalonnage et la décision psychométrique
rendement moyen de µ*Y . 210. Noter ici le taux de rétention d’environ 61,3 % : l’incertitude associée à un test prédictif à corrélation imparfaite (D = 0,80) entraîne bien sûr un taux de rejet plus élevé, ici 38,7 %. Une autre stratégie de sélection consisterait à mettre les candidats au travail durant une période d’essai, pour laquelle leur rendement Y serait directement apprécié : il est probable que, dans ces circonstances, la corrélation entre le « rendement à l’essai » et le vrai rendement soit plus forte que n’importe quel test prédictif, et qu’on puisse y baser une procédure de sélection avantageuse.
Justification mathématique La distribution normale comme réalité ou comme modèle Le modèle normal est strictement défini par sa fonction de densité (1), mathématiquement spécifiée. Que veut-on dire quand, prenant exemple sur Quételet, on affirme que la taille de quelque 20 000 personnes se répartit selon le modèle normal, avec une moyenne µ et un écart-type σ ? Il y a lieu ici de distinguer entre les valeurs réelles et les valeurs estimées des paramètres, et entre l’existence d’un modèle de répartition postulé (ou supposé) et imposé. Valeurs paramétriques réelles vs estimées. L’usage veut que les notations paramétriques « µ » et « σ », celles qui correspondent aux paramètres externes de la loi normale, désignent des données de population, une population de grandeur indéfinie ou dont le nombre d’éléments est assez grand pour être considéré infini à toutes fins pratiques. Or, les mesures prises dans les enquêtes biométriques ou au cours des standardisations psychométriques rejoignent tout au plus des échantillons, parfois des échantillons assez nombreux, comme celui des 20 000 personnes évoqué ci-dessus. Les mesures d’un tel échan_ tillon permettent le calcul d’indices statistiques tels que la moyenne X et l’écart-type sX, en plus d’autres indices relatifs à la forme de la répartition empirique des données. Or, parce que basés sur un échantillon, donc sur une partie seulement des éléments de la population décrite, ces indices en partagent eux-mêmes le caractère échantillonnal et contiennent donc une part d’incertitude, qui dépend de la taille N de l’échantillon. À taille N suffisamment élevée et si l’échantillon peut être dit représentatif de la population, il est d’usage d’égaliser paramètres et statistiques, ces dernières servant donc à estimer les valeurs paramétriques, ce _ qui est symbolisé par : ^µ = X ; σ ^ = sX ; (10) à partir de cette égalisation, tout se passe comme si nous connaissions la vraie moyenne µ et le vrai écart-type σ de la population, et nous en servions tels quels_pour les calculs ultérieurs. Notons toutefois que l’incertitude présente dans les estimateurs X et sX ne disparaît pas par ce subterfuge, et que c’est justement sur la base de cette incertitude que sera établi plus loin le concept de « norme sûre ».
La distribution normale et le différentiel de sélection (Section A)
19
Modèle postulé vs modèle imposé. Trois cas de figure se présentent en ce qui concerne la distribution de données utilisée. Le premier cas est celui d’une variable dont on sait ou dont on a vérifié qu’elle se distribue normalement dans la population : la documentation abonde de telles quantités, par exemple le poids corporel7. La vérification de la forme de distribution exige bien sûr qu’on dispose d’une base de données substantielle : s’il suffit de quelques dizaines de mesures pour rejeter l’hypothèse de distribution normale, il en faut plusieurs centaines pour la confirmer de façon rassurante. Laurencelle (2001) fait le tour des méthodes disponibles. Une fois assuré que la distribution empirique est normale, _ le calcul des statistiques X et sX et l’invocation de la loi (1) suffisent à restituer toutes les propriétés de cette distribution, permettant notamment la détermination de normes sous forme de centiles normaux projetés (voir Détermination des centiles, plus bas). L’incertitude quant à la forme réelle de la distribution empirique nous place dans le deuxième cas de figure : soit le nombre de données disponibles ne permet pas de nous prononcer, soit la forme observée est ou semble tant soit peu non normale, soit nous n’en savons rien. Dans ce cas et par une option heuristique en faveur de la loi normale, nous pouvons recourir à cette loi en en exploitant les propriétés moins globales, celles associées à ses statistiques d’ordre. Cette approche plus prudente permet cette fois de déterminer des centiles pseudo-normaux, c’est-à-dire des normes-centiles de distribution indéterminée mais dont l’incertitude est évaluée sur la base du modèle normal correspondant. L’imposition stricte de la forme normale nous donne le troisième cas de figure, celui dans lequel, quelle que soit la distribution d’origine, l’utilisateur veut produire un résultat strictement normal : c’est le cas par exemple des échelles de QI comme de bien d’autres échelles d’évaluation mentale ou psychologique. On utilise ici aussi les statistiques d’ordre de la série originale, pour les projeter sur des statistiques d’ordre régularisées d’un modèle normal, produisant ainsi des centiles normaux imposés (ou reconstitués). Le psychométricien, bien entendu, n’a pas l’obligation de recourir au modèle normal dans l’élaboration de ses normes, et tous d’ailleurs ne le font pas. Il importe cependant de signaler que le non-recours à un modèle (normal ou autre) interdit au psychométricien de déterminer l’incertitude de ses normes comme à_ l’utilisateur d’y trouver un cadre d’interprétation. Que signifie, par exemple, la norme X si l’on n’est pas assuré de la symétrie _ de la distribution (et_ si X diffère de la médiane) ? Que signifie aussi l’obtention d’un score situé à la position X + sX, i.e. un écart-type au-dessus de la moyenne, si la distribution est fortement asymétrique ? Qu’on le veuille ou non, le modèle normal agit comme un filtre d’interprétation, acquis depuis les bancs d’école, sur toutes nos appréciations normatives, et celui qui s’en éloigne doit veiller à bien tracer son chemin.
7.
En toute rigueur, le modèle normal, pour lequel une valeur de poids négative reste possible, ne convient pas et devrait être remplacé au moins par un modèle lognormal à origine positive. En pratique, cependant, la loi normale décrit presque parfaitement la distribution des poids d’individus d’âges équivalents dans une même espèce.
20
L’étalonnage et la décision psychométrique
Calcul de P La valeur P ou P(z) = Pr{ Z # z } s’obtient en intégrant la fonction (3) depuis !4 jusqu’à z. Il existe un grand nombre de méthodes, qui exactes, qui approximatives, pour ce calcul (voir Laurencelle et Dupuis, 2000), incluant la série convergente : P(z) = Φ(z) =
.
(11)
Calcul de ∆ Par définition, le différentiel de sélection (standard), ∆ ou ∆(c), dénote la moyenne des valeurs z telles que z $c. Or, puisqu’il y a T(c) = 1 ! P(c) valeurs dans cette zone, nous avons :
∆(c) =
(12)
En raison de la symétrie de la distribution normale, les tables A1 et A2 présentent seulement les valeurs ∆ correspondant à P $ 0,5 et c $ 0. Pour la partie complémentaire, i.e. P < 0,5 et c < 0, le différentiel s’obtient par l’équivalence : ∆(c) = ∆(!c) × P / (1!P ).
(13)
Le lecteur intéressé trouvera dans Laurencelle (1994) des informations sur la variance du différentiel de sélection dans une population normale, ainsi que son espérance et sa variance pour de petites séries statistiques. Détermination des centiles (ou normes de population) Les centiles et leurs valeurs constituent le matériel le plus couramment utilisé à titre de normes d’interprétation d’un test, parce qu’ils répartissent les scores obtenus au test selon les différents niveaux de réussite constatés dans la population. Pour établir les centiles, c’est-à-dire les normes d’un test, il nous faut la série statistique des données du groupe normatif, un échantillon représentatif de la population, constitué d’un nombre d’éléments suffisant pour assurer une estimation précise de toutes les parties de la distribution. La précision d’estimation est ici reflétée par l’erreur-type (ou variance) du centile, et elle dépend essentiellement du modèle d’estimation appliqué. Le centile vrai XP d’une distribution est la valeur X sous laquelle se trouve la fraction P de la population, ou Pr{ X # XP } = P ; le centile CP en est un estimateur, basé sur une série statistique de taille N. Les propriétés de biais et de variance du centile dépendent de la méthode et du modèle d’estimation ; on souhaite évidemment un biais nul et une variance minimale. Il existe deux types fondamentaux d’estimation des centiles : l’estimation basée sur les propriétés d’un modèle postulé, et l’estimation faite à partir des statistiques d’ordre
La distribution normale et le différentiel de sélection (Section A)
21
de la série observée. Dans le cas d’un modèle postulé, l’incertitude apparaît sous deux espèces, celle de la plus _ ou moins grande adéquation du modèle et celle de la valeur des estimateurs (p. ex. X et sX ) de ses paramètres (p. ex. µX et σX). Quand on utilise les statistiques d’ordre, ou les centiles empiriques de la série normative, l’incertitude émane du caractère granulaire, épars, de leur séquence sur l’axe numérique, en fait des intervalles irréguliers qui séparent les valeurs les unes des autres. Les déterminations d’incertitude suggérées plus bas tiennent compte de ces caractéristiques. Propriétés des centiles normaux projetés. Si on pose que la population étudiée est normale et que la série statistique obtenue en est représentative, on peut recourir_à la méthode ^ = sX. Le du centile projeté, en basant cette projection sur la loi (1) et en utilisant ^µ = X ; σ centile de niveau P s’obtient alors par : _ C P = X + zP × sX . (14) Malgré un léger biais imputable à l’estimateur sX , cette formule d’estimation est très précise, avec une variance d’erreur de : var (CP ) = σX2 / N × [1 + zP2 × (4N 2!5N) / 8(N ! 1)2 ] ,
(15)
. σX2 / N × [1 + zP2 /2] ;
_ l’imprécision, ici, provient de l’incertitude des estimateurs X et sX et, comme on le voit, elle augmente à mesure que la norme s’écarte du centre de la distribution. Cette technique des centiles normaux projetés permet bien sûr de spécifier d’autres _ valeurs quelconques des paramètres µ et σ, en appliquant d’abord Y = µY + σY × (X ! X ) / sX. Propriétés des centiles normaux imposés et des centiles semi-normaux. Dans le doute quant à la forme exacte de distribution de sa population, le psychométricien doit opter pour une solution prudente, qui consiste soit à calquer ses normes-centiles sur la distribution observée, en leur concédant néanmoins des propriétés d’incertitude liées au modèle normal, soit à imposer carrément le modèle _normal, c’est-à-dire en normalisant ses données. Dans ^ X = sX est encore implicite ; cependant, au lieu ^X = X ; σ le premier cas, l’égalisation µ ^ et σ ^ , les normes d’utiliser les propriétés du modèle normal (1) finalisé par les paramètres µ centiles sont établies cette fois à partir des statistiques d’ordre de la série normative, notées { X(1), X(2), ..., X(N) }. Dans ce cas, l’estimateur du centile P devient : CP = X(r) , où r = P × (N + 1) .
(16)
Le second cas consiste à substituer directement à la distribution empirique des N données originales une distribution normale reconstituée, à partir de valeurs paramétriques arbitraires µY et σY, p. ex. les valeurs µY = 100 et σY = 15 des échelles de _ QI, les valeurs µY = 50 et σY = 10 de l’échelle normale T, ou peut-être, les valeurs µX = X et σX = sX, qui produiraient un modèle normalisé calqué sur la moyenne et l’écart-type de la série originale. Pour ce cas, peut-être le plus courant, l’estimateur s’obtient par : C = µ + σ × z[P^ (X)] , (17) P
Y
Y
22
L’étalonnage et la décision psychométrique
où :
P^ (X) = rang (X) / (N +1)
(18)
et « rang (X) » indique le rang de X (de 1 à N) dans les statistiques d’ordre. Dans ce procédé, chaque valeur originale X est, selon son rang, re-localisée au même rang relatif dans une distribution normale arbitraire à paramètres imposés. Les estimateurs (16) et (17) possèdent globalement les mêmes propriétés, à savoir un biais pratiquement nul et une variance d’erreur cernée par : var (CP) = σY2 3aj(P) / (N + 2) j , j = 1, 2, 3,
(19)
les coefficients aj(P) étant fournis à la table A1 (voir David et Johnson, 1954 ; Laurencelle, 2000a). En première approximation, cette variance est donnée par : var(CP) . σY2 P(1!P)ϕ(P)!2 / N ,
(20)
où ϕ(P) est la densité (3) correspondant au rang centile P dans la loi normale standard ; l’expression P(1!P)ϕ(P)!2, dans (20), donne la valeur du coefficient a1 de la table A1. La norme centile imposée, représentée par l’expression (16), présente une variance plus grande que la norme projetée indiquée par l’expression (14) ; moins stable, elle requiert donc une base d’estimation plus grande, un N plus fort, pour atteindre la même précision. Nonobstant cet inconvénient, l’avantage insigne d’une norme associée à un modèle normal imposé est double. D’une part, l’utilisateur qui l’exploite est assuré que le modèle d’interprétation classique qu’il a en tête y est effectivement en force ; d’autre part, même si la distribution originale était asymétrique ou non normale d’une façon ou d’une autre, les centiles qui en sont produits restent essentiellement sans biais tandis que les centiles projetés deviendraient pratiquement inutilisables ou mensongers8. Le différentiel de sélection Dans une population de mesure X, le différentiel de sélection9 est simplement la moyenne (ou l’espérance mathématique) des éléments dont la valeur est égale à C ou plus grande ; en unités standardisées dénotées z, ∆(c) = E (z | z $ c) .
(21)
8.
Les centiles à modèle imposé de type (17) garantissent par définition la correspondance de rangs centiles. Ainsi, quelqu’un obtenant le score X = XP dans la mesure originale se voit attribuer, disons, le score Y = CP dans le système normatif, les rangs de X et de Y dans la population étant les mêmes (à peu de chose près). Les centiles projetés de type (14), par contre, garantissent cette équivalence par le truchement_du modèle normal. Dans une population normale, la norme C0,95 correspondra à une valeur proche de X + 1,64485 × sX (d’après la table A1). Or, si par exemple la population a une distribution à forte asymétrie positive, le vrai centile X0,95 sera situé sérieusement plus loin, à droite de la valeur projetée, constituant un biais essentiel pour cette norme (un biais semblable de sous-estimation se produira aussi pour les rangs centiles P < 0,5).
9.
Voir Laurencelle (1998a, p. 130) pour un bref historique du concept.
La distribution normale et le différentiel de sélection (Section A)
23
Pour le modèle normal de variation aléatoire, on montre facilement10 que ∆c = ϕ(c) / [1 ! Φ(c)] ; p. ex., ∆!4 = E (z) = 0, ∆z64 6 4 et ∆0 = 2ϕ(0) = /(2/π) . 0,79788. Le lecteur aura compris qu’on peut aussi bien écrire ∆(P) = ϕ(zP) / (1! P). La symétrie du modèle normal permet de fournir seulement les valeurs de ∆ pour lesquelles c $ 0 ou P $ 0,5 ; la règle (6), qui s’applique aussi bien pour c < 0 que pour P < 0,5, supplée au reste. Le retour à l’échelle originale X s’opère simplement par µX + σX ∆. À notre connaissance, aucune étude ne permet de se prononcer sur la robustesse de la valeur du différentiel de sélection suivant une modification du modèle distributionnel. Étant donné que la quantité ∆ concerne plus particulièrement la zone de l’aile (droite) de la distribution, il est vraisemblable que sa valeur soit assez fortement altérée par une altération du modèle dans cette région. Par ailleurs, la quantité ∆ présentée ici concerne une population normale, de taille pratiquement infinie, plutôt qu’un échantillon de N éléments, une série statistique. Dans le cas d’une série échantillonnée, le différentiel est défini comme la moyenne des k statistiques d’ordre supérieures, soit : D(N,k) = 3ii == NN!k+1 z(i :N) / k ,
(22)
où P = 1 ! k / N. Il est avéré que cette quantité D(N,k) est biaisée, en fait qu’elle est déficitaire par rapport à ∆(P) et qu’elle tend vers sa valeur à mesure que N croît. Burrows11 a fourni une excellente approximation de l’espérance ∆(N,k) = 3ii == NN!k+1 µ(z(i :N)) / k , soit : ∆(N,k) . ∆(P) ! P / [2(N + 1)ϕ(zP)] ,
(23)
le second terme à droite identifiant le biais : il est apparent aussi que le biais augmente sensiblement avec P. P. ex., pour P = 0,5 ou c = 0, ∆ . 0,7979. Or, pour N = 20 et k = 10, soit P = k / N = 0,5, un calcul exact fournit ∆(20,10) . 0,7675, alors que l’approximation (23) donne 0,7680, une valeur proche du but. Noter aussi que l’approximation devient plus précise quand N croît. L’importance du biais de D(N,k) dans les applications normatives ne doit pas être exagérée, ce pour plusieurs raisons. D’abord, la « stratégie » du différentiel de sélection, si l’on peut dire, s’applique à de grands groupes et est orientée sur un effet moyen : le facteur N, dans la formule (23), va éponger rapidement le plus gros du biais. Ensuite, le biais mentionné est un biais en espérance, c’est-à-dire basé sur le calcul d’une moyenne ; or, la distribution du différentiel empirique (22), basé sur les k plus grandes statistiques d’ordre, est non normale et positivement asymétrique, une situation pour laquelle les indices habituels de moyenne et d’écart-type sont quelque peu trompeurs. Enfin, la quantité (22), qui en fait
10. En fait, dϕ(z) / dz = !z ϕ(z), d’où il appert que ϕ(z) est la primitive de la fonction d’espérance z × ϕ(z), etc. 11. « Expected selection differentials for directional selection », Biometrics, 1972, vol. 28, p. 1091-1100. Voir aussi Laurencelle (1994), p. 22-25.
24
L’étalonnage et la décision psychométrique
est un estimateur de (21), a elle-même une variance, approchée par12 : var[ D(N,k) ] .
,
(24)
où k = N × (1!P). L’incertitude de D(N,k), qui augmente elle même avec P, compte pour une bonne part du biais et le noie, pour ainsi dire, de sorte qu’il n’y a guère moyen d’y parer. Bref, faute d’une étude plus approfondie de la question, nous recommandons d’ignorer simplement le problème du biais et, dans la mesure où la taille N le justifie (p. ex. N > 50), d’aller directement à l’asymptote, en utilisant les valeurs fournies dans nos tables A1 à A3.
12. P.M. Burrows : « Variances of selection differentials in normal samples », Biometrics, 1975, vol. 31, p. 125-133. Voir aussi Laurencelle (1994), p. 22-25.
25
La distribution normale et le différentiel de sélection (Section A)
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant P 0,500 0,501 0,502 0,503 0,504 0,505 0,506 0,507 0,508 0,509 0,510 0,511 0,512 0,513 0,514 0,515 0,516 0,517 0,518 0,519 0,520 0,521 0,522 0,523 0,524 0,525 0,526 0,527 0,528 0,529 0,530 0,531 0,532 0,533 0,534 0,535 0,536 0,537 0,538 0,539 0,540 0,541 0,542 0,543 0,544 0,545 0,546 0,547 0,548 0,549
z (c)
ϕ(z)
)(P)
0,00000 0,00251 0,00501 0,00752 0,01003 0,01253 0,01504 0,01755 0,02005 0,02256 0,02507 0,02758 0,03008 0,03259 0,03510 0,03761 0,04012 0,04263 0,04513 0,04764 0,05015 0,05266 0,05517 0,05768 0,06020 0,06271 0,06522 0,06773 0,07024 0,07276 0,07527 0,07778 0,08030 0,08281 0,08533 0,08784 0,09036 0,09288 0,09540 0,09791 0,10043 0,10295 0,10547 0,10799 0,11052 0,11304 0,11556 0,11809 0,12061 0,12314
0,39894 0,39894 0,39894 0,39893 0,39892 0,39891 0,39890 0,39888 0,39886 0,39884 0,39882 0,39879 0,39876 0,39873 0,39870 0,39866 0,39862 0,39858 0,39854 0,39849 0,39844 0,39839 0,39834 0,39828 0,39822 0,39816 0,39809 0,39803 0,39796 0,39789 0,39781 0,39774 0,39766 0,39758 0,39749 0,39741 0,39732 0,39723 0,39713 0,39703 0,39694 0,39683 0,39673 0,39662 0,39651 0,39640 0,39629 0,39617 0,39605 0,39593
0,79788 0,79948 0,80108 0,80268 0,80428 0,80588 0,80748 0,80909 0,81070 0,81230 0,81391 0,81552 0,81713 0,81875 0,82036 0,82198 0,82360 0,82522 0,82684 0,82846 0,83009 0,83171 0,83334 0,83497 0,83660 0,83823 0,83986 0,84150 0,84313 0,84477 0,84641 0,84805 0,84970 0,85134 0,85299 0,85464 0,85629 0,85794 0,85959 0,86125 0,86290 0,86456 0,86622 0,86788 0,86955 0,87121 0,87288 0,87455 0,87622 0,87789
a1 1,57080 1,57080 1,57081 1,57083 1,57085 1,57089 1,57093 1,57097 1,57103 1,57109 1,57116 1,57123 1,57131 1,57140 1,57150 1,57160 1,57172 1,57183 1,57196 1,57209 1,57223 1,57238 1,57254 1,57270 1,57287 1,57304 1,57323 1,57342 1,57362 1,57382 1,57403 1,57425 1,57448 1,57472 1,57496 1,57521 1,57546 1,57573 1,57600 1,57628 1,57657 1,57686 1,57716 1,57747 1,57779 1,57811 1,57844 1,57878 1,57912 1,57948
a2 2,46740 2,46741 2,46744 2,46750 2,46757 2,46766 2,46778 2,46792 2,46808 2,46826 2,46846 2,46868 2,46892 2,46918 2,46947 2,46978 2,47010 2,47045 2,47082 2,47122 2,47163 2,47206 2,47252 2,47300 2,47349 2,47401 2,47456 2,47512 2,47570 2,47631 2,47694 2,47759 2,47826 2,47895 2,47967 2,48040 2,48116 2,48194 2,48274 2,48357 2,48441 2,48528 2,48617 2,48709 2,48802 2,48898 2,48996 2,49096 2,49199 2,49304
a3 3,46273 3,46275 3,46281 3,46290 3,46304 3,46321 3,46342 3,46368 3,46396 3,46429 3,46466 3,46506 3,46551 3,46599 3,46651 3,46707 3,46767 3,46831 3,46899 3,46970 3,47046 3,47125 3,47208 3,47296 3,47387 3,47482 3,47581 3,47684 3,47791 3,47902 3,48016 3,48135 3,48258 3,48385 3,48516 3,48651 3,48790 3,48933 3,49080 3,49231 3,49386 3,49545 3,49708 3,49876 3,50047 3,50223 3,50402 3,50586 3,50775 3,50967
26
L’étalonnage et la décision psychométrique
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant (suite) P 0,550 0,551 0,552 0,553 0,554 0,555 0,556 0,557 0,558 0,559 0,560 0,561 0,562 0,563 0,564 0,565 0,566 0,567 0,568 0,569 0,570 0,571 0,572 0,573 0,574 0,575 0,576 0,577 0,578 0,579 0,580 0,581 0,582 0,583 0,584 0,585 0,586 0,587 0,588 0,589 0,590 0,591 0,592 0,593 0,594 0,595 0,596 0,597 0,598 0,599
z (c)
ϕ(z)
∆(P)
0,12566 0,12819 0,13072 0,13324 0,13577 0,13830 0,14084 0,14337 0,14590 0,14843 0,15097 0,15351 0,15604 0,15858 0,16112 0,16366 0,16620 0,16874 0,17128 0,17383 0,17637 0,17892 0,18147 0,18402 0,18657 0,18912 0,19167 0,19422 0,19678 0,19934 0,20189 0,20445 0,20701 0,20957 0,21214 0,21470 0,21727 0,21983 0,22240 0,22497 0,22754 0,23012 0,23269 0,23527 0,23785 0,24043 0,24301 0,24559 0,24817 0,25076
0,39580 0,39568 0,39555 0,39542 0,39528 0,39514 0,39501 0,39486 0,39472 0,39457 0,39442 0,39427 0,39411 0,39396 0,39380 0,39364 0,39347 0,39330 0,39313 0,39296 0,39279 0,39261 0,39243 0,39224 0,39206 0,39187 0,39168 0,39149 0,39129 0,39109 0,39089 0,39069 0,39049 0,39028 0,39007 0,38985 0,38964 0,38942 0,38920 0,38897 0,38875 0,38852 0,38829 0,38805 0,38782 0,38758 0,38734 0,38709 0,38684 0,38659
0,87957 0,88124 0,88292 0,88460 0,88628 0,88797 0,88965 0,89134 0,89303 0,89472 0,89641 0,89811 0,89981 0,90150 0,90321 0,90491 0,90661 0,90832 0,91003 0,91174 0,91345 0,91517 0,91689 0,91861 0,92033 0,92205 0,92378 0,92550 0,92723 0,92897 0,93070 0,93244 0,93417 0,93592 0,93766 0,93940 0,94115 0,94290 0,94465 0,94641 0,94816 0,94992 0,95168 0,95345 0,95521 0,95698 0,95875 0,96052 0,96230 0,96408
a1 1,57984 1,58021 1,58058 1,58097 1,58136 1,58176 1,58216 1,58258 1,58300 1,58343 1,58387 1,58431 1,58477 1,58523 1,58569 1,58617 1,58665 1,58715 1,58765 1,58815 1,58867 1,58919 1,58972 1,59026 1,59081 1,59136 1,59193 1,59250 1,59308 1,59367 1,59426 1,59486 1,59548 1,59610 1,59673 1,59736 1,59801 1,59866 1,59932 1,59999 1,60067 1,60136 1,60205 1,60276 1,60347 1,60419 1,60492 1,60566 1,60641 1,60716
a2 2,49411 2,49520 2,49632 2,49746 2,49862 2,49980 2,50101 2,50224 2,50350 2,50478 2,50608 2,50740 2,50875 2,51013 2,51152 2,51294 2,51439 2,51585 2,51735 2,51886 2,52040 2,52197 2,52356 2,52517 2,52681 2,52848 2,53017 2,53188 2,53362 2,53538 2,53718 2,53899 2,54083 2,54270 2,54459 2,54651 2,54846 2,55043 2,55243 2,55445 2,55651 2,55858 2,56069 2,56282 2,56498 2,56717 2,56939 2,57163 2,57390 2,57620
a3 3,51163 3,51364 3,51569 3,51778 3,51992 3,52209 3,52431 3,52658 3,52888 3,53123 3,53363 3,53607 3,53855 3,54107 3,54364 3,54626 3,54892 3,55162 3,55437 3,55717 3,56001 3,56289 3,56583 3,56881 3,57183 3,57490 3,57802 3,58119 3,58441 3,58767 3,59098 3,59434 3,59774 3,60120 3,60470 3,60826 3,61186 3,61552 3,61922 3,62298 3,62678 3,63064 3,63455 3,63851 3,64253 3,64659 3,65071 3,65488 3,65911 3,66339
27
La distribution normale et le différentiel de sélection (Section A)
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant (suite) P
z (c)
ϕ(z)
∆(P)
0,600 0,601 0,602 0,603 0,604 0,605 0,606 0,607 0,608 0,609 0,610 0,611 0,612 0,613 0,614 0,615 0,616 0,617 0,618 0,619 0,620 0,621 0,622 0,623 0,624 0,625 0,626 0,627 0,628 0,629 0,630 0,631 0,632 0,633 0,634 0,635 0,636 0,637 0,638 0,639 0,640 0,641 0,642 0,643 0,644 0,645 0,646 0,647 0,648 0,649
0,25335 0,25594 0,25853 0,26112 0,26371 0,26631 0,26891 0,27151 0,27411 0,27671 0,27932 0,28193 0,28454 0,28715 0,28976 0,29237 0,29499 0,29761 0,30023 0,30286 0,30548 0,30811 0,31074 0,31337 0,31600 0,31864 0,32128 0,32392 0,32656 0,32921 0,33185 0,33450 0,33716 0,33981 0,34247 0,34513 0,34779 0,35045 0,35312 0,35579 0,35846 0,36113 0,36381 0,36649 0,36917 0,37186 0,37454 0,37723 0,37993 0,38262
0,38634 0,38609 0,38583 0,38557 0,38531 0,38504 0,38478 0,38451 0,38423 0,38396 0,38368 0,38340 0,38312 0,38283 0,38254 0,38225 0,38196 0,38166 0,38136 0,38106 0,38076 0,38045 0,38014 0,37983 0,37951 0,37920 0,37888 0,37855 0,37823 0,37790 0,37757 0,37724 0,37690 0,37656 0,37622 0,37588 0,37553 0,37518 0,37483 0,37447 0,37412 0,37376 0,37340 0,37303 0,37266 0,37229 0,37192 0,37154 0,37116 0,37078
0,96586 0,96764 0,96942 0,97121 0,97300 0,97479 0,97659 0,97839 0,98019 0,98199 0,98379 0,98560 0,98741 0,98922 0,99104 0,99286 0,99468 0,99650 0,99833 1,00016 1,00199 1,00382 1,00566 1,00750 1,00934 1,01119 1,01304 1,01489 1,01674 1,01860 1,02046 1,02232 1,02418 1,02605 1,02792 1,02980 1,03168 1,03356 1,03544 1,03733 1,03922 1,04111 1,04300 1,04490 1,04680 1,04871 1,05062 1,05253 1,05444 1,05636
a1 1,60793 1,60870 1,60948 1,61027 1,61107 1,61188 1,61270 1,61353 1,61436 1,61521 1,61606 1,61692 1,61780 1,61868 1,61957 1,62047 1,62138 1,62230 1,62323 1,62416 1,62511 1,62607 1,62703 1,62801 1,62900 1,62999 1,63100 1,63201 1,63304 1,63407 1,63512 1,63618 1,63724 1,63832 1,63940 1,64050 1,64161 1,64272 1,64385 1,64499 1,64614 1,64730 1,64847 1,64965 1,65084 1,65204 1,65325 1,65448 1,65571 1,65696
a2
a3
2,57853 2,58088 2,58327 2,58568 2,58812 2,59059 2,59309 2,59562 2,59818 2,60077 2,60339 2,60604 2,60872 2,61143 2,61417 2,61694 2,61975 2,62258 2,62545 2,62835 2,63128 2,63424 2,63724 2,64026 2,64332 2,64642 2,64955 2,65271 2,65590 2,65913 2,66239 2,66569 2,66903 2,67239 2,67580 2,67924 2,68271 2,68622 2,68977 2,69336 2,69698 2,70064 2,70433 2,70807 2,71184 2,71566 2,71951 2,72340 2,72733 2,73130
3,66772 3,67211 3,67655 3,68105 3,68561 3,69022 3,69488 3,69961 3,70439 3,70923 3,71413 3,71909 3,72410 3,72918 3,73431 3,73951 3,74476 3,75008 3,75546 3,76091 3,76641 3,77198 3,77761 3,78331 3,78907 3,79490 3,80079 3,80675 3,81278 3,81887 3,82504 3,83127 3,83757 3,84394 3,85038 3,85690 3,86348 3,87014 3,87687 3,88367 3,89055 3,89751 3,90454 3,91164 3,91883 3,92609 3,93343 3,94085 3,94835 3,95593
28
L’étalonnage et la décision psychométrique
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant (suite) P
z (c)
0,650 0,651 0,652 0,653 0,654 0,655 0,656 0,657 0,658 0,659 0,660 0,661 0,662 0,663 0,664 0,665 0,666 0,667 0,668 0,669 0,670 0,671 0,672 0,673 0,674 0,675 0,676 0,677 0,678 0,679 0,680 0,681 0,682 0,683 0,684 0,685 0,686 0,687 0,688 0,689 0,690 0,691 0,692 0,693 0,694 0,695 0,696 0,697 0,698 0,699
0,38532 0,38802 0,39073 0,39343 0,39614 0,39886 0,40157 0,40429 0,40701 0,40974 0,41246 0,41519 0,41793 0,42066 0,42340 0,42615 0,42889 0,43164 0,43440 0,43715 0,43991 0,44268 0,44544 0,44821 0,45099 0,45376 0,45654 0,45933 0,46211 0,46490 0,46770 0,47050 0,47330 0,47610 0,47891 0,48173 0,48454 0,48736 0,49019 0,49302 0,49585 0,49869 0,50153 0,50437 0,50722 0,51007 0,51293 0,51579 0,51866 0,52153
ϕ(z) 0,37040 0,37001 0,36962 0,36923 0,36884 0,36844 0,36804 0,36764 0,36723 0,36682 0,36641 0,36600 0,36558 0,36516 0,36474 0,36431 0,36389 0,36346 0,36302 0,36259 0,36215 0,36171 0,36126 0,36082 0,36037 0,35991 0,35946 0,35900 0,35854 0,35808 0,35761 0,35714 0,35667 0,35620 0,35572 0,35524 0,35475 0,35427 0,35378 0,35329 0,35279 0,35230 0,35180 0,35129 0,35079 0,35028 0,34977 0,34925 0,34874 0,34822
∆(P) 1,05828 1,06021 1,06213 1,06407 1,06600 1,06794 1,06988 1,07182 1,07377 1,07572 1,07768 1,07964 1,08160 1,08356 1,08553 1,08750 1,08948 1,09146 1,09344 1,09543 1,09742 1,09941 1,10141 1,10341 1,10542 1,10743 1,10944 1,11146 1,11348 1,11551 1,11753 1,11957 1,12160 1,12364 1,12569 1,12774 1,12979 1,13185 1,13391 1,13597 1,13804 1,14012 1,14220 1,14428 1,14636 1,14845 1,15055 1,15265 1,15475 1,15686
a1 1,65822 1,65949 1,66077 1,66206 1,66336 1,66468 1,66600 1,66734 1,66869 1,67005 1,67143 1,67281 1,67421 1,67562 1,67704 1,67848 1,67992 1,68138 1,68285 1,68434 1,68583 1,68734 1,68887 1,69040 1,69195 1,69351 1,69509 1,69668 1,69828 1,69989 1,70152 1,70316 1,70482 1,70649 1,70817 1,70987 1,71158 1,71331 1,71505 1,71681 1,71858 1,72036 1,72216 1,72398 1,72581 1,72766 1,72952 1,73139 1,73328 1,73519
a2 2,73531 2,73936 2,74345 2,74758 2,75175 2,75597 2,76023 2,76453 2,76888 2,77326 2,77769 2,78217 2,78669 2,79126 2,79587 2,80052 2,80523 2,80998 2,81477 2,81962 2,82451 2,82945 2,83444 2,83948 2,84457 2,84971 2,85490 2,86014 2,86544 2,87078 2,87618 2,88164 2,88714 2,89270 2,89832 2,90399 2,90972 2,91550 2,92134 2,92724 2,93320 2,93922 2,94529 2,95143 2,95763 2,96389 2,97021 2,97660 2,98305 2,98956
a3 3,96359 3,97134 3,97917 3,98708 3,99508 4,00317 4,01134 4,01960 4,02794 4,03638 4,04491 4,05353 4,06224 4,07104 4,07994 4,08893 4,09802 4,10720 4,11649 4,12587 4,13536 4,14494 4,15463 4,16442 4,17432 4,18432 4,19443 4,20464 4,21497 4,22541 4,23596 4,24662 4,25740 4,26829 4,27930 4,29043 4,30168 4,31305 4,32454 4,33616 4,34790 4,35977 4,37177 4,38390 4,39617 4,40856 4,42109 4,43376 4,44657 4,45952
29
La distribution normale et le différentiel de sélection (Section A)
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant (suite) P
z (c)
0,700 0,701 0,702 0,703 0,704 0,705 0,706 0,707 0,708 0,709 0,710 0,711 0,712 0,713 0,714 0,715 0,716 0,717 0,718 0,719 0,720 0,721 0,722 0,723 0,724 0,725 0,726 0,727 0,728 0,729 0,730 0,731 0,732 0,733 0,734 0,735 0,736 0,737 0,738 0,739 0,740 0,741 0,742 0,743 0,744 0,745 0,746 0,747 0,748 0,749
0,52440 0,52728 0,53016 0,53305 0,53594 0,53884 0,54174 0,54464 0,54755 0,55047 0,55338 0,55631 0,55924 0,56217 0,56511 0,56805 0,57100 0,57395 0,57691 0,57987 0,58284 0,58581 0,58879 0,59178 0,59477 0,59776 0,60076 0,60376 0,60678 0,60979 0,61281 0,61584 0,61887 0,62191 0,62496 0,62801 0,63106 0,63412 0,63719 0,64027 0,64335 0,64643 0,64952 0,65262 0,65573 0,65884 0,66196 0,66508 0,66821 0,67135
ϕ(z) 0,34769 0,34717 0,34664 0,34611 0,34557 0,34503 0,34449 0,34395 0,34340 0,34286 0,34230 0,34175 0,34119 0,34063 0,34007 0,33950 0,33893 0,33836 0,33778 0,33720 0,33662 0,33604 0,33545 0,33486 0,33427 0,33367 0,33307 0,33247 0,33187 0,33126 0,33065 0,33003 0,32941 0,32879 0,32817 0,32754 0,32691 0,32628 0,32565 0,32501 0,32437 0,32372 0,32307 0,32242 0,32177 0,32111 0,32045 0,31979 0,31912 0,31845
∆(P) 1,15898 1,16109 1,16321 1,16534 1,16747 1,16961 1,17175 1,17389 1,17604 1,17820 1,18036 1,18252 1,18469 1,18687 1,18905 1,19123 1,19342 1,19561 1,19781 1,20002 1,20223 1,20444 1,20666 1,20889 1,21112 1,21335 1,21559 1,21784 1,22009 1,22235 1,22461 1,22688 1,22916 1,23144 1,23372 1,23601 1,23831 1,24061 1,24292 1,24524 1,24756 1,24989 1,25222 1,25456 1,25690 1,25925 1,26161 1,26398 1,26635 1,26872
a1 1,73711 1,73905 1,74101 1,74298 1,74497 1,74697 1,74899 1,75103 1,75308 1,75516 1,75724 1,75935 1,76147 1,76361 1,76577 1,76795 1,77014 1,77236 1,77459 1,77684 1,77911 1,78139 1,78370 1,78603 1,78837 1,79074 1,79312 1,79552 1,79795 1,80039 1,80286 1,80534 1,80785 1,81038 1,81293 1,81550 1,81809 1,82070 1,82334 1,82599 1,82867 1,83138 1,83410 1,83685 1,83963 1,84242 1,84524 1,84809 1,85096 1,85385
a2 2,99614 3,00278 3,00949 3,01627 3,02311 3,03003 3,03701 3,04407 3,05119 3,05839 3,06566 3,07301 3,08042 3,08792 3,09549 3,10314 3,11086 3,11866 3,12655 3,13451 3,14256 3,15069 3,15890 3,16720 3,17559 3,18406 3,19262 3,20126 3,21000 3,21883 3,22776 3,23677 3,24588 3,25509 3,26440 3,27380 3,28330 3,29291 3,30262 3,31243 3,32234 3,33237 3,34250 3,35274 3,36309 3,37356 3,38414 3,39483 3,40564 3,41657
a3 4,47260 4,48584 4,49922 4,51274 4,52642 4,54025 4,55423 4,56836 4,58266 4,59711 4,61173 4,62651 4,64145 4,65656 4,67185 4,68730 4,70293 4,71874 4,73473 4,75090 4,76726 4,78380 4,80053 4,81746 4,83458 4,85190 4,86942 4,88715 4,90508 4,92322 4,94158 4,96015 4,97894 4,99795 5,01719 5,03666 5,05636 5,07629 5,09647 5,11689 5,13755 5,15847 5,17964 5,20107 5,22276 5,24472 5,26695 5,28946 5,31224 5,33531
30
L’étalonnage et la décision psychométrique
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant (suite) P 0,750 0,751 0,752 0,753 0,754 0,755 0,756 0,757 0,758 0,759 0,760 0,761 0,762 0,763 0,764 0,765 0,766 0,767 0,768 0,769 0,770 0,771 0,772 0,773 0,774 0,775 0,776 0,777 0,778 0,779 0,780 0,781 0,782 0,783 0,784 0,785 0,786 0,787 0,788 0,789 0,790 0,791 0,792 0,793 0,794 0,795 0,796 0,797 0,798 0,799
z (c)
ϕ(z)
0,67449 0,67764 0,68080 0,68396 0,68713 0,69031 0,69349 0,69668 0,69988 0,70309 0,70630 0,70952 0,71275 0,71599 0,71923 0,72248 0,72574 0,72900 0,73228 0,73556 0,73885 0,74214 0,74545 0,74876 0,75208 0,75542 0,75875 0,76210 0,76546 0,76882 0,77219 0,77557 0,77897 0,78237 0,78577 0,78919 0,79262 0,79606 0,79950 0,80296 0,80642 0,80990 0,81338 0,81687 0,82038 0,82389 0,82742 0,83095 0,83450 0,83805
0,31778 0,31710 0,31642 0,31574 0,31505 0,31436 0,31367 0,31298 0,31228 0,31158 0,31087 0,31017 0,30945 0,30874 0,30802 0,30730 0,30658 0,30585 0,30512 0,30439 0,30365 0,30291 0,30216 0,30142 0,30067 0,29991 0,29916 0,29840 0,29763 0,29686 0,29609 0,29532 0,29454 0,29376 0,29298 0,29219 0,29140 0,29060 0,28981 0,28901 0,28820 0,28739 0,28658 0,28577 0,28495 0,28413 0,28330 0,28247 0,28164 0,28080
∆(P) 1,27111 1,27350 1,27589 1,27830 1,28070 1,28312 1,28554 1,28797 1,29041 1,29285 1,29530 1,29776 1,30023 1,30270 1,30518 1,30767 1,31016 1,31266 1,31517 1,31769 1,32021 1,32274 1,32528 1,32783 1,33038 1,33294 1,33552 1,33809 1,34068 1,34328 1,34588 1,34849 1,35111 1,35374 1,35638 1,35902 1,36168 1,36434 1,36702 1,36970 1,37239 1,37509 1,37780 1,38051 1,38324 1,38598 1,38873 1,39148 1,39425 1,39702
a1 1,85677 1,85971 1,86268 1,86567 1,86869 1,87174 1,87481 1,87791 1,88104 1,88419 1,88738 1,89058 1,89382 1,89709 1,90038 1,90371 1,90706 1,91045 1,91386 1,91730 1,92078 1,92429 1,92782 1,93139 1,93500 1,93863 1,94230 1,94600 1,94973 1,95350 1,95731 1,96115 1,96502 1,96893 1,97288 1,97686 1,98089 1,98494 1,98904 1,99318 1,99735 2,00157 2,00582 2,01012 2,01445 2,01883 2,02325 2,02772 2,03222 2,03678
a2 3,42762 3,43880 3,45010 3,46152 3,47307 3,48475 3,49656 3,50851 3,52059 3,53281 3,54516 3,55766 3,57030 3,58309 3,59602 3,60910 3,62234 3,63573 3,64927 3,66298 3,67684 3,69087 3,70507 3,71943 3,73397 3,74868 3,76357 3,77864 3,79389 3,80933 3,82496 3,84077 3,85679 3,87300 3,88941 3,90603 3,92286 3,93990 3,95715 3,97462 3,99232 4,01024 4,02839 4,04678 4,06541 4,08428 4,10339 4,12276 4,14238 4,16227
a3 5,35867 5,38232 5,40627 5,43052 5,45508 5,47995 5,50514 5,53065 5,55649 5,58267 5,60919 5,63605 5,66326 5,69083 5,71877 5,74707 5,77575 5,80481 5,83427 5,86411 5,89437 5,92503 5,95611 5,98762 6,01956 6,05194 6,08477 6,11806 6,15182 6,18605 6,22076 6,25597 6,29168 6,32790 6,36464 6,40191 6,43973 6,47809 6,51702 6,55653 6,59662 6,63730 6,67860 6,72051 6,76306 6,80626 6,85012 6,89465 6,93987 6,98579
31
La distribution normale et le différentiel de sélection (Section A)
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant (suite) P
z (c)
0,800 0,801 0,802 0,803 0,804 0,805 0,806 0,807 0,808 0,809 0,810 0,811 0,812 0,813 0,814 0,815 0,816 0,817 0,818 0,819 0,820 0,821 0,822 0,823 0,824 0,825 0,826 0,827 0,828 0,829 0,830 0,831 0,832 0,833 0,834 0,835 0,836 0,837 0,838 0,839 0,840 0,841 0,842 0,843 0,844 0,845 0,846 0,847 0,848 0,849
0,84162 0,84520 0,84879 0,85239 0,85600 0,85962 0,86325 0,86689 0,87055 0,87422 0,87790 0,88159 0,88529 0,88901 0,89273 0,89647 0,90023 0,90399 0,90777 0,91156 0,91537 0,91918 0,92301 0,92686 0,93072 0,93459 0,93848 0,94238 0,94629 0,95022 0,95417 0,95812 0,96210 0,96609 0,97009 0,97411 0,97815 0,98220 0,98627 0,99036 0,99446 0,99858 1,00271 1,00686 1,01103 1,01522 1,01943 1,02365 1,02789 1,03215
ϕ(z) 0,27996 0,27912 0,27827 0,27742 0,27657 0,27571 0,27485 0,27398 0,27311 0,27224 0,27137 0,27049 0,26960 0,26871 0,26782 0,26693 0,26603 0,26513 0,26422 0,26331 0,26240 0,26148 0,26056 0,25964 0,25871 0,25778 0,25684 0,25590 0,25495 0,25401 0,25305 0,25210 0,25114 0,25017 0,24921 0,24823 0,24726 0,24628 0,24529 0,24430 0,24331 0,24232 0,24131 0,24031 0,23930 0,23829 0,23727 0,23625 0,23522 0,23419
∆(P) 1,39981 1,40261 1,40541 1,40823 1,41105 1,41389 1,41674 1,41960 1,42247 1,42535 1,42824 1,43114 1,43405 1,43698 1,43991 1,44286 1,44582 1,44879 1,45178 1,45477 1,45778 1,46080 1,46383 1,46687 1,46993 1,47300 1,47608 1,47918 1,48229 1,48541 1,48855 1,49170 1,49486 1,49804 1,50124 1,50444 1,50766 1,51090 1,51415 1,51742 1,52070 1,52400 1,52731 1,53064 1,53398 1,53734 1,54072 1,54411 1,54752 1,55095
a1 2,04137 2,04601 2,05070 2,05543 2,06021 2,06504 2,06992 2,07484 2,07982 2,08484 2,08992 2,09505 2,10023 2,10547 2,11076 2,11610 2,12150 2,12696 2,13247 2,13804 2,14367 2,14936 2,15512 2,16093 2,16681 2,17275 2,17875 2,18483 2,19096 2,19717 2,20344 2,20979 2,21621 2,22270 2,22926 2,23589 2,24261 2,24940 2,25627 2,26322 2,27025 2,27736 2,28456 2,29184 2,29921 2,30667 2,31422 2,32186 2,32959 2,33742
a2 4,18241 4,20283 4,22353 4,24450 4,26576 4,28731 4,30915 4,33130 4,35376 4,37652 4,39961 4,42302 4,44676 4,47084 4,49526 4,52003 4,54517 4,57066 4,59653 4,62278 4,64942 4,67645 4,70388 4,73173 4,76000 4,78869 4,81783 4,84741 4,87744 4,90795 4,93893 4,97040 5,00236 5,03483 5,06782 5,10135 5,13541 5,17003 5,20522 5,24099 5,27735 5,31432 5,35191 5,39014 5,42901 5,46856 5,50879 5,54971 5,59135 5,63373
a3 7,03242 7,07979 7,12790 7,17678 7,22643 7,27689 7,32815 7,38025 7,43319 7,48700 7,54170 7,59731 7,65384 7,71132 7,76977 7,82922 7,88968 7,95117 8,01373 8,07737 8,14213 8,20803 8,27509 8,34335 8,41284 8,48357 8,55559 8,62893 8,70361 8,77968 8,85716 8,93610 9,01652 9,09848 9,18200 9,26713 9,35391 9,44239 9,53261 9,62461 9,71844 9,81417 9,91182 10,0115 10,1132 10,2169 10,3229 10,4311 10,5415 10,6543
32
L’étalonnage et la décision psychométrique
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant (suite) P 0,850 0,851 0,852 0,853 0,854 0,855 0,856 0,857 0,858 0,859 0,860 0,861 0,862 0,863 0,864 0,865 0,866 0,867 0,868 0,869 0,870 0,871 0,872 0,873 0,874 0,875 0,876 0,877 0,878 0,879 0,880 0,881 0,882 0,883 0,884 0,885 0,886 0,887 0,888 0,889 0,890 0,891 0,892 0,893 0,894 0,895 0,896 0,897 0,898 0,899
z (c)
ϕ(z)
1,03643 1,04073 1,04505 1,04939 1,05374 1,05812 1,06252 1,06694 1,07138 1,07584 1,08032 1,08482 1,08935 1,09390 1,09847 1,10306 1,10768 1,11232 1,11699 1,12168 1,12639 1,13113 1,13590 1,14069 1,14551 1,15035 1,15522 1,16012 1,16505 1,17000 1,17499 1,18000 1,18504 1,19012 1,19522 1,20036 1,20553 1,21073 1,21596 1,22123 1,22653 1,23186 1,23723 1,24264 1,24808 1,25357 1,25908 1,26464 1,27024 1,27587
0,23316 0,23212 0,23108 0,23003 0,22898 0,22792 0,22686 0,22580 0,22473 0,22365 0,22258 0,22149 0,22041 0,21932 0,21822 0,21712 0,21601 0,21490 0,21379 0,21267 0,21155 0,21042 0,20928 0,20814 0,20700 0,20585 0,20470 0,20354 0,20238 0,20121 0,20004 0,19886 0,19768 0,19649 0,19530 0,19410 0,19290 0,19169 0,19048 0,18926 0,18804 0,18681 0,18557 0,18433 0,18309 0,18184 0,18058 0,17932 0,17805 0,17678
∆(P) 1,55439 1,55785 1,56133 1,56483 1,56835 1,57188 1,57543 1,57900 1,58259 1,58620 1,58983 1,59348 1,59715 1,60084 1,60455 1,60829 1,61204 1,61581 1,61961 1,62343 1,62727 1,63113 1,63502 1,63893 1,64287 1,64683 1,65081 1,65482 1,65886 1,66292 1,66700 1,67112 1,67526 1,67943 1,68362 1,68785 1,69210 1,69638 1,70070 1,70504 1,70941 1,71382 1,71826 1,72273 1,72723 1,73177 1,73634 1,74095 1,74559 1,75027
a1 2,34534 2,35337 2,36149 2,36972 2,37805 2,38649 2,39503 2,40369 2,41246 2,42134 2,43034 2,43946 2,44870 2,45806 2,46755 2,47717 2,48692 2,49681 2,50683 2,51699 2,52730 2,53775 2,54835 2,55910 2,57001 2,58108 2,59231 2,60371 2,61527 2,62701 2,63893 2,65103 2,66332 2,67580 2,68847 2,70134 2,71442 2,72770 2,74120 2,75492 2,76887 2,78305 2,79746 2,81212 2,82703 2,84220 2,85762 2,87332 2,88930 2,90556
a2 5,67685 5,72075 5,76543 5,81093 5,85725 5,90442 5,95246 6,00140 6,05126 6,10206 6,15382 6,20658 6,26036 6,31518 6,37108 6,42808 6,48622 6,54552 6,60603 6,66776 6,73077 6,79508 6,86073 6,92776 6,99622 7,06615 7,13758 7,21056 7,28515 7,36139 7,43934 7,51904 7,60055 7,68393 7,76923 7,85653 7,94589 8,03737 8,13105 8,22700 8,32529 8,42601 8,52924 8,63507 8,74360 8,85490 8,96910 9,08628 9,20657 9,33008
a3 10,7696 10,8873 11,0076 11,1305 11,2561 11,3845 11,5159 11,6501 11,7875 11,9280 12,0718 12,2189 12,3695 12,5237 12,6816 12,8433 13,0089 13,1786 13,3525 13,5308 13,7136 13,9010 14,0932 14,2904 14,4928 14,7005 14,9137 15,1327 15,3576 15,5886 15,8261 16,0701 16,3211 16,5792 16,8447 17,1179 17,3991 17,6887 17,9869 18,2941 18,6107 18,9371 19,2736 19,6208 19,9790 20,3487 20,7305 21,1248 21,5322 21,9534
33
La distribution normale et le différentiel de sélection (Section A)
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant (suite) P 0,900 0,901 0,902 0,903 0,904 0,905 0,906 0,907 0,908 0,909 0,910 0,911 0,912 0,913 0,914 0,915 0,916 0,917 0,918 0,919 0,920 0,921 0,922 0,923 0,924 0,925 0,926 0,927 0,928 0,929 0,930 0,931 0,932 0,933 0,934 0,935 0,936 0,937 0,938 0,939 0,940 0,941 0,942 0,943 0,944 0,945 0,946 0,947 0,948 0,949
z (c)
ϕ(z)
1,28155 1,28727 1,29303 1,29884 1,30469 1,31058 1,31652 1,32251 1,32854 1,33462 1,34076 1,34694 1,35317 1,35946 1,36581 1,37220 1,37866 1,38517 1,39174 1,39838 1,40507 1,41183 1,41865 1,42554 1,43250 1,43953 1,44663 1,45381 1,46106 1,46838 1,47579 1,48328 1,49085 1,49851 1,50626 1,51410 1,52204 1,53007 1,53820 1,54643 1,55477 1,56322 1,57179 1,58047 1,58927 1,59819 1,60725 1,61644 1,62576 1,63523
0,17550 0,17421 0,17292 0,17163 0,17033 0,16902 0,16770 0,16639 0,16506 0,16373 0,16239 0,16105 0,15970 0,15834 0,15698 0,15561 0,15423 0,15285 0,15146 0,15007 0,14867 0,14726 0,14584 0,14442 0,14299 0,14156 0,14011 0,13866 0,13720 0,13574 0,13427 0,13279 0,13130 0,12981 0,12830 0,12679 0,12528 0,12375 0,12222 0,12067 0,11912 0,11756 0,11600 0,11442 0,11284 0,11124 0,10964 0,10803 0,10641 0,10478
∆(P) 1,75498 1,75974 1,76453 1,76936 1,77423 1,77914 1,78409 1,78909 1,79413 1,79921 1,80434 1,80951 1,81474 1,82000 1,82532 1,83069 1,83611 1,84158 1,84711 1,85269 1,85833 1,86402 1,86978 1,87559 1,88147 1,88741 1,89341 1,89948 1,90562 1,91183 1,91811 1,92447 1,93090 1,93741 1,94400 1,95068 1,95744 1,96429 1,97122 1,97826 1,98538 1,99261 1,99994 2,00737 2,01492 2,02258 2,03035 2,03825 2,04627 2,05442
a1 2,92211 2,93896 2,95613 2,97361 2,99142 3,00957 3,02806 3,04691 3,06613 3,08573 3,10572 3,12611 3,14692 3,16816 3,18984 3,21197 3,23458 3,25768 3,28128 3,30540 3,33007 3,35529 3,38109 3,40749 3,43452 3,46218 3,49052 3,51955 3,54930 3,57980 3,61107 3,64316 3,67609 3,70990 3,74463 3,78031 3,81698 3,85469 3,89349 3,93343 3,97455 4,01692 4,06059 4,10563 4,15211 4,20009 4,24966 4,30090 4,35390 4,40875
a2 9,45692 9,58723 9,72113 9,85877 10,0003 10,1459 10,2956 10,4497 10,6084 10,7718 10,9401 11,1136 11,2924 11,4768 11,6671 11,8635 12,0662 12,2756 12,4919 12,7155 12,9468 13,1861 13,4338 13,6902 13,9559 14,2313 14,5169 14,8133 15,1209 15,4404 15,7725 16,1178 16,4771 16,8512 17,2408 17,6470 18,0707 18,5130 18,9750 19,4579 19,9631 20,4920 21,0462 21,6273 22,2372 22,8779 23,5516 24,2607 25,0076 25,7954
a3 22,3889 22,8393 23,3055 23,7881 24,2879 24,8057 25,3424 25,8990 26,4764 27,0756 27,6979 28,3443 29,0162 29,7148 30,4417 31,1983 31,9863 32,8074 33,6635 34,5566 35,4888 36,4625 37,4801 38,5443 39,6579 40,8239 42,0458 43,3270 44,6714 46,0833 47,5670 49,1275 50,7702 52,5006 54,3253 56,2508 58,2848 60,4353 62,7113 65,1224 67,6794 70,3940 73,2791 76,3490 79,6194 83,1077 86,8332 90,8173 95,0838 99,6594
34
L’étalonnage et la décision psychométrique
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant (suite) P
z (c)
0,950 0,951 0,952 0,953 0,954 0,955 0,956 0,957 0,958 0,959 0,960 0,961 0,962 0,963 0,964 0,965 0,966 0,967 0,968 0,969 0,970 0,971 0,972 0,973 0,974 0,975 0,976 0,977 0,978 0,979 0,980 0,981 0,982 0,983 0,984 0,985 0,986 0,987 0,988 0,989 0,990 0,991 0,992 0,993 0,994 0,995 0,996 0,997 0,998 0,999
1,64485 1,65463 1,66456 1,67466 1,68494 1,69540 1,70604 1,71689 1,72793 1,73920 1,75069 1,76241 1,77438 1,78661 1,79912 1,81191 1,82501 1,83842 1,85218 1,86630 1,88079 1,89570 1,91104 1,92684 1,94313 1,95996 1,97737 1,99539 2,01409 2,03352 2,05375 2,07485 2,09693 2,12007 2,14441 2,17009 2,19729 2,22621 2,25713 2,29037 2,32635 2,36562 2,40892 2,45726 2,51214 2,57583 2,65207 2,74778 2,87816 3,09023
ϕ(z) 0,10314 0,10149 0,09983 0,09816 0,09648 0,09479 0,09309 0,09137 0,08965 0,08792 0,08617 0,08442 0,08265 0,08087 0,07908 0,07727 0,07545 0,07362 0,07177 0,06992 0,06804 0,06615 0,06425 0,06233 0,06040 0,05845 0,05648 0,05449 0,05249 0,05046 0,04842 0,04635 0,04427 0,04216 0,04003 0,03787 0,03569 0,03348 0,03123 0,02896 0,02665 0,02431 0,02192 0,01949 0,01700 0,01446 0,01185 0,00915 0,00634 0,00337
∆(P) 2,06271 2,07114 2,07972 2,08844 2,09732 2,10637 2,11559 2,12499 2,13458 2,14436 2,15434 2,16454 2,17497 2,18563 2,19654 2,20772 2,21917 2,23091 2,24296 2,25534 2,26807 2,28116 2,29466 2,30857 2,32295 2,33780 2,35319 2,36914 2,38570 2,40294 2,42091 2,43968 2,45934 2,47998 2,50172 2,52470 2,54906 2,57502 2,60282 2,63275 2,66521 2,70072 2,73995 2,78385 2,83381 2,89195 2,96176 3,04973 3,17010 3,36709
a1 4,46556 4,52444 4,58551 4,64890 4,71476 4,78322 4,85446 4,92866 5,00602 5,08675 5,17108 5,25927 5,35161 5,44842 5,55003 5,65683 5,76924 5,88775 6,01289 6,14524 6,28549 6,43441 6,59284 6,76178 6,94237 7,13590 7,34389 7,56810 7,81059 8,07380 8,36065 8,67461 9,01991 9,40172 9,82645 10,3021 10,8390 11,4502 12,1531 12,9713 13,9371 15,0964 16,5172 18,3046 20,6297 23,7942 28,3856 35,7315 49,6541 88,1163
a2 26,6271 27,5062 28,4364 29,4219 30,4674 31,5779 32,7590 34,0173 35,3596 36,7938 38,3289 39,9748 41,7427 43,6454 45,6972 47,9147 50,3167 52,9249 55,7640 58,8631 62,2558 65,9812 70,0856 74,6236 79,6601 85,2726 91,5550 98,6208 106,609 115,692 126,085 138,057 151,954 168,223 187,447 210,407 238,160 272,173 314,526 368,254 437,929 530,708 658,326 841,160 1117,26 1564,76 2366,60 4042,41 8624,45 31713,9
a3 104,574 109,860 115,556 121,703 128,348 135,547 143,358 151,852 161,108 171,216 182,280 194,419 207,772 222,501 238,792 256,865 276,978 299,437 324,604 352,912 384,880 421,138 462,448 509,746 564,185 627,200 700,590 786,630 888,233 1009,16 1154,33 1330,27 1545,74 1812,71 2147,84 2574,73 3127,61 3857,43 4842,16 6205,34 8150,54 11029,3 15484,6 22777,3 35612,3 60515,9 116014 269079 883265 6766989
35
La distribution normale et le différentiel de sélection (Section A)
Table A1. Intégrales, abscisses et densités normales, avec différentiels de sélection et coefficients de l’estimateur de variance du centile normal correspondant (suite) P
z (c)
0,9991 0,9992 0,9993 0,9994 0,9995 0,9996 0,9997 0,9998 0,9999
3,12139 3,15591 3,19465 3,23888 3,29053 3,35279 3,43161 3,54008 3,71902
ϕ(z)
∆(P)
a1
a2
a3
0,00306
3,39615
96,2483
38679,5
9224098
0,00274 0,00243 0,00210 0,00178 0,00145 0,00111 0,03758 0,03396
3,42838 3,46459 3,50598 3,55438 3,61283 3,68695 3,78921 3,95848
106,264 118,931 135,509 158,229 191,457 245,139 348,165 638,116
48300,7 62146,7 83157,6 117396 179123 309067 667625 2499082
13041732 19314368 30393819 51963877 100184×103 233557×103 770091×103 592180×104
36
L’étalonnage et la décision psychométrique
Table A2. Abscisses (z) et intégrales P(z) normales et différentiels de sélection ∆c z (ou c)
P(z)
∆(c)
z (c)
P(z)
∆(c)
z (c)
P(z)
∆(c)
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,10 0,11 0,12 0,13 0,14 0,15 0,16 0,17 0,18 0,19 0,20 0,21 0,22 0,23 0,24 0,25 0,26 0,27 0,28 0,29 0,30 0,31 0,32 0,33 0,34 0,35 0,36 0,37 0,38 0,39 0,40 0,41 0,42 0,43 0,44 0,45 0,46 0,47 0,48 0,49
0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793
0,79788 0,80426 0,81066 0,81708 0,82352 0,82999 0,83647 0,84298 0,84950 0,85605 0,86262 0,86921 0,87582 0,88245 0,88910 0,89577 0,90246 0,90917 0,91590 0,92265 0,92942 0,93620 0,94301 0,94984 0,95669 0,96355 0,97044 0,97734 0,98427 0,99121 0,99817 1,00514 1,01214 1,01915 1,02619 1,03324 1,04031 1,04739 1,05450 1,06162 1,06876 1,07591 1,08309 1,09028 1,09748 1,10471 1,11195 1,11921 1,12648 1,13377
0,50 0,51 0,52 0,53 0,54 0,55 0,56 0,57 0,58 0,59 0,60 0,61 0,62 0,63 0,64 0,65 0,66 0,67 0,68 0,69 0,70 0,71 0,72 0,73 0,74 0,75 0,76 0,77 0,78 0,79 0,80 0,81 0,82 0,83 0,84 0,85 0,86 0,87 0,88 0,89 0,90 0,91 0,92 0,93 0,94 0,95 0,96 0,97 0,98 0,99
0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891
1,14108 1,14840 1,15574 1,16310 1,17047 1,17785 1,18526 1,19268 1,20011 1,20756 1,21503 1,22251 1,23000 1,23751 1,24504 1,25258 1,26013 1,26770 1,27529 1,28289 1,29050 1,29813 1,30577 1,31342 1,32109 1,32878 1,33648 1,34419 1,35191 1,35965 1,36740 1,37517 1,38295 1,39074 1,39854 1,40636 1,41419 1,42204 1,42989 1,43776 1,44564 1,45354 1,46144 1,46936 1,47729 1,48524 1,49319 1,50116 1,50914 1,51713
1,00 1,01 1,02 1,03 1,04 1,05 1,06 1,07 1,08 1,09 1,10 1,11 1,12 1,13 1,14 1,15 1,16 1,17 1,18 1,19 1,20 1,21 1,22 1,23 1,24 1,25 1,26 1,27 1,28 1,29 1,30 1,31 1,32 1,33 1,34 1,35 1,36 1,37 1,38 1,39 1,40 1,41 1,42 1,43 1,44 1,45 1,46 1,47 1,48 1,49
0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189
1,52514 1,53315 1,54118 1,54921 1,55726 1,56532 1,57340 1,58148 1,58957 1,59768 1,60580 1,61392 1,62206 1,63021 1,63837 1,64654 1,65472 1,66292 1,67112 1,67933 1,68755 1,69578 1,70403 1,71228 1,72054 1,72882 1,73710 1,74539 1,75369 1,76201 1,77033 1,77866 1,78700 1,79535 1,80371 1,81208 1,82046 1,82884 1,83724 1,84564 1,85406 1,86248 1,87091 1,87935 1,88780 1,89626 1,90473 1,91320 1,92168 1,93018
37
La distribution normale et le différentiel de sélection (Section A)
Table A2 (suite) z (c)
P(z)
∆(c)
z (c)
P(z)
∆(c)
z (c)
P(z)
∆(c)
1,50 1,51 1,52 1,53 1,54 1,55 1,56 1,57 1,58 1,59 1,60 1,61 1,62 1,63 1,64 1,65 1,66 1,67 1,68 1,69 1,70 1,71 1,72 1,73 1,74 1,75 1,76 1,77 1,78 1,79 1,80 1,81 1,82 1,83 1,84 1,85 1,86 1,87 1,88 1,89 1,90 1,91 1,92 1,93 1,94 1,95 1,96 1,97 1,98 1,99
0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670
1,93868 1,94719 1,95570 1,96423 1,97276 1,98130 1,98985 1,99841 2,00697 2,01555 2,02413 2,03272 2,04131 2,04992 2,05853 2,06715 2,07578 2,08441 2,09305 2,10170 2,11036 2,11902 2,12769 2,13637 2,14506 2,15375 2,16245 2,17115 2,17987 2,18859 2,19731 2,20605 2,21479 2,22353 2,23229 2,24105 2,24981 2,25859 2,26737 2,27615 2,28495 2,29375 2,30255 2,31136 2,32018 2,32900 2,33783 2,34667 2,35551 2,36436
2,00 2,01 2,02 2,03 2,04 2,05 2,06 2,07 2,08 2,09 2,10 2,11 2,12 2,13 2,14 2,15 2,16 2,17 2,18 2,19 2,20 2,21 2,22 2,23 2,24 2,25 2,26 2,27 2,28 2,29 2,30 2,31 2,32 2,33 2,34 2,35 2,36 2,37 2,38 2,39 2,40 2,41 2,42 2,43 2,44 2,45 2,46 2,47 2,48 2,49
0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
2,37322 2,38208 2,39094 2,39981 2,40869 2,41757 2,42646 2,43536 2,44426 2,45317 2,46208 2,47100 2,47992 2,48885 2,49778 2,50672 2,51566 2,52461 2,53357 2,54253 2,55150 2,56047 2,56944 2,57842 2,58741 2,59640 2,60540 2,61440 2,62341 2,63242 2,64143 2,65046 2,65948 2,66851 2,67755 2,68659 2,69563 2,70468 2,71374 2,72280 2,73186 2,74093 2,75000 2,75908 2,76816 2,77725 2,78634 2,79543 2,80453 2,81364
2,50 2,51 2,52 2,53 2,54 2,55 2,56 2,57 2,58 2,59 2,60 2,61 2,62 2,63 2,64 2,65 2,66 2,67 2,68 2,69 2,70 2,71 2,72 2,73 2,74 2,75 2,76 2,77 2,78 2,79 2,80 2,81 2,82 2,83 2,84 2,85 2,86 2,87 2,88 2,89 2,90 2,91 2,92 2,93 2,94 2,95 2,96 2,97 2,98 2,99
0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861
2,82274 2,83186 2,84097 2,85009 2,85922 2,86835 2,87748 2,88662 2,89576 2,90491 2,91406 2,92321 2,93237 2,94153 2,95070 2,95987 2,96904 2,97822 2,98740 2,99658 3,00577 3,01497 3,02416 3,03336 3,04257 3,05177 3,06098 3,07020 3,07942 3,08864 3,09787 3,10710 3,11633 3,12556 3,13480 3,14405 3,15329 3,16254 3,17180 3,18105 3,19032 3,19958 3,20885 3,21812 3,22739 3,23667 3,24595 3,25523 3,26452 3,27381
38
L’étalonnage et la décision psychométrique
Table A2 (suite) z (c)
P(z)
∆(c)
z (c)
P(z)
∆(c)
z (c)
P(z)
∆(c)
3,00 3,01 3,02 3,03 3,04 3,05 3,06 3,07 3,08 3,09 3,10 3,11 3,12 3,13 3,14 3,15 3,16 3,17 3,18 3,19
0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900 0,93032 0,93065 0,93096 0,93126 0,93155 0,93184 0,93211 0,93238 0,93264 0,93289
3,28310 3,29239 3,30169 3,31100 3,32030 3,32961 3,33892 3,34824 3,35755 3,36687 3,37620 3,38552 3,39485 3,40419 3,41352 3,42286 3,43220 3,44154 3,45089 3,46024
3,20 3,21 3,22 3,23 3,24 3,25 3,26 3,27 3,28 3,29 3,30 3,31 3,32 3,33 3,34 3,35 3,36 3,37 3,38 3,39
0,93313 0,93336 0,93359 0,93381 0,93402 0,93423 0,93443 0,93462 0,93481 0,93499 0,93517 0,93534 0,93550 0,93566 0,93581 0,93596 0,93610 0,93624 0,93638 0,93651
3,46959 3,47895 3,48830 3,49767 3,50703 3,51640 3,52576 3,53514 3,54451 3,55389 3,56327 3,57265 3,58203 3,59142 3,60081 3,61020 3,61960 3,62900 3,63840 3,64780
3,40 3,41 3,42 3,43 3,44 3,45 3,46 3,47 3,48 3,49 3,50 3,60 3,70 3,80 3,90 4,00 4,50 5,00
0,93663 0,93675 0,93687 0,93698 0,93709 0,93720 0,93730 0,93740 0,93749 0,93758 0,93767 0,93841 0,93892 0,94277 0,94519 0,94683 0,95660 0,96713
3,65720 3,66661 3,67602 3,68543 3,69485 3,70427 3,71369 3,72311 3,73253 3,74196 3,75139 3,84581 3,94046 4,03531 4,13037 4,22561 4,70432 5,18650
39
La distribution normale et le différentiel de sélection (Section A)
Table A3. Différentiels de sélection simples ∆(c), leurs seuils de sélection c et leurs taux de sélection Tc T(c)
∆
c
T(c)
∆
c
T(c)
1,00000 0,97972 0,95460 0,92676 0,89694 0,86564 0,83322 0,79997 0,76616 0,73201
2,00 2,05 2,10 2,15 2,20 2,25 2,30 2,35 2,40 2,45
1,57186 1,63009 1,68803 1,74569 1,80308 1,86021 1,91710 1,97377 2,03021 2,08645
0,05799 0,05154 0,04570 0,04043 0,03569 0,03143 0,02761 0,02420 0,02117 0,01847
4,00 4,05 4,10 4,15 4,20 4,25 4,30 4,35 4,40 4,45
3,76280 3,81547 3,86808 3,92063 3,97313 4,02558 4,07798 4,13033 4,18263 4,23488
0,04840 0,04680 0,04548 0,04442 0,04355 0,04284 0,04227 0,04181 0,04144 0,04114
0,00332 0,08076 0,15633 0,23023
0,69774 0,66353 0,62954 0,59593 0,56283 0,53038 0,49868 0,46782 0,43789 0,40896
2,50 2,55 2,60 2,65 2,70 2,75 2,80 2,85 2,90 2,95
2,14248 2,19833 2,25400 2,30949 2,36482 2,42000 2,47502 2,52990 2,58463 2,63924
0,01608 0,01396 0,01210 0,01046 0,02902 0,02776 0,02666 0,02570 0,02487 0,02415
4,50 4,55 4,60 4,65 4,70 4,75 4,80 4,85 4,90 4,95
4,28709 4,33926 4,39138 4,44346 4,49551 4,54751 4,59947 4,65140 4,70330 4,75515
0,05905 0,05715 0,05563 0,05443 0,05347 0,05271 0,05212 0,05165 0,05128 0,06991
1,00 1,05 1,10 1,15 1,20 1,25 1,30 1,35 1,40 1,45
0,30263 0,37367 0,44349 0,51218 0,57985 0,64658 0,71245 0,77753 0,84186 0,90552
0,38109 0,35432 0,32871 0,30426 0,28101 0,25895 0,23809 0,21842 0,19993 0,18259
3,00 3,05 3,10 3,15 3,20 3,25 3,30 3,35 3,40 3,45
2,69372 2,74807 2,80231 2,85644 2,91045 2,96437 3,01818 3,07189 3,12552 3,17905
0,02353 0,02300 0,02254 0,02214 0,02180 0,02152 0,02127 0,02106 0,03887 0,03739
5,00
4,80698
0,06766
1,50 1,55 1,60 1,65 1,70 1,75 1,80 1,85 1,90 1,95
0,96854 1,03098 1,09286 1,15423 1,21512 1,27555 1,33556 1,39518 1,45442 1,51331
0,16639 0,15128 0,13723 0,12420 0,11216 0,10106 0,09085 0,08148 0,07292 0,06510
3,50 3,55 3,60 3,65 3,70 3,75 3,80 3,85 3,90 3,95
3,23249 3,28586 3,33914 3,39234 3,44547 3,49852 3,55151 3,60443 3,65728 3,71007
0,03614 0,03508 0,03420 0,03346 0,03285 0,03234 0,03192 0,03156 0,03127 0,03104
∆ 0,00 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50 0,55 0,60 0,65 0,70 0,75 0,80 0,85 0,90 0,95
c
!4
!2,04806 !1,69122 !1,45206 !1,26433 !1,10602 !0,96695 !0,84151 !0,72625 !0,61891 !0,51791 !0,42210 !0,33063 !0,24282 !0,15816 !0,07623
Section B Échelles classiques de conversion normale (QI, Stanines et Stens) Introduction Les tests psychométriques diffèrent les uns des autres notamment par leurs procédés de quantification. Dans certaines épreuves, par exemple pour une habileté psychomotrice simple, la personne doit réaliser une tâche ou plusieurs essais d’une exécution perceptivomotrice, et c’est le résultat chiffré de l’exécution qui sert de base quantitative : le temps requis pour réussir 5 essais, en secondes, ou le nombre de pièces correctement traitées, en 1 minute. Dans d’autres cas, tel un test qui comporte plusieurs épreuves disparates, les « résultats » n’apparaissent pas sous une forme simple ou ils ne sont pas directement combinables ; il faut alors appliquer un scoring, une procédure d’attribution de points, essentiellement arbitraire, et le score final ainsi attribué est artificiel1. Parmi les tests à composantes multiples et disparates, se retrouvent les fameux « tests d’intelligence ». Les tests élaborés afin de mesurer les capacités mentales, le degré d’« intelligence », remontent à Alfred Binet (1857-1911) et Théodore Simon (1873-1961), au début de XXe siècle, le concept ayant évolué du « niveau mental » à l’« âge mental », au « quotient mental » (= âge mental / âge physique) ou « quotient intellectuel » (QI), pour aboutir, avec David Wechsler, à l’échelle QI moderne, basée sur le rang de réussite d’une personne par rapport aux personnes d’âge physique comparable. Les principales échelles de QI utilisées de nos jours sont artificielles et basées, comme chez Wechsler, sur l’étalement des scores dans un groupe normatif approprié : toutes ces échelles sont à centiles normaux imposés (voir section A) et utilisent explicitement le modèle normal. Les trois configurations les plus courantes sont : •
• •
la famille Wechsler (WAIS, WISC, WPPSI, ...), incluant l’Épreuve individuelle d’habileté mentale (EIHM), dont l’échelle de scores utilise une moyenne (µ) de 100 et un écart-type (σ) de 15 ; le Stanford-Binet, qui applique une moyenne de 100 et un écart-type de 16 ; le Cattell, qui applique une moyenne de 100 et un écart-type de 24.
Bernier et Pietrulewitz (1997) documentent ces épreuves.
1. Ce caractère construit du score attribué n’enlève rien, paradoxalement, à ses qualités possibles de fidélité et de validité, comme l’illustre à gogo l’histoire des tests psychométriques.
42
L’étalonnage et la décision psychométrique
À l’exemple et sous l’inspiration des échelles d’intelligence normalisées, d’autres échelles à paramètres conventionnels ont aussi été proposées, notamment la cote T normale2, de moyenne 50 et d’écart-type 10, et la cote Z normale3, de moyenne 5 et d’écart-type 1. Tout comme pour les échelles de QI, la fabrication de normes à cote T normale nécessite le recours à une grille de conversion, grâce à laquelle les valeurs paramétriques de moyenne et d’écart-type sont imposées et la forme normale est pour ainsi dire sculptée dans la distribution. Nous incluons enfin deux autres normes conventionnelles, les « stanines » (ou standard nine), incluant les cotes 0 à 9, avec moyenne 5, écart-type 2 et distribution quasi normale, et les « stens » (ou standard ten), pour les cotes 0 à 9 (ou 1 à 10), avec moyenne 4,5 (ou 5,5), écart-type 2 et distribution quasi normale. Mises sur pied naguère pour l’inscription sur une seule colonne de carte perforée informatique, ces cotes ont survécu et sont encore appliquées dans certains contextes.
Nature et présentation des tables de la section B Qu’il s’agisse des diverses échelles de QI, de la cote T ou des stanines et stens, les cotes sont toutes discrètes et ne comportent jamais de partie fractionnaire. Par exemple, la valeur 105 au QI est suivie directement de la valeur 106 et précédée de 104. Par convention et afin d’assurer la correspondance de l’échelle des cotes avec le modèle normal continu, il est postulé que chaque cote X dénote un intervalle de 1 unité, allant de X ! ½ à X + ½, les extrémités de l’intervalle constituant les bornes réelles de la cote. Ainsi, dans la logique d’attribution des cotes, quelqu’un dont le QI vaudrait, disons, X = 104,6471, se verrait décerner la cote entière X = 105, puisque sa valeur réelle occupe l’intervalle de cette cote. C’est à ces bornes réelles, selon les diverses échelles présentées dans les tables de la section B, que correspondent les rangs centiles fournis pour chaque cote. La table B1 présente les grilles de conversion « rangs centiles 6 QI », selon trois conventions d’échelle différentes, soit µ = 100 pour toutes et σ = 15 (Wechsler), 16 (Stanford-Binet) et 24 (Cattell). À l’extrémité inférieure comme à l’extrémité supérieure de chaque échelle, les grilles sont interrompues au moment où la fraction de population désignée s’évanouit, c’est-à-dire devient moindre que 1 / 1000 (. 0,001, ou rang centile . 0,10), ce qui correspond à une distance d’à peu près trois écarts-types par rapport à la
2. On utilise aussi une cote T linéaire, p. ex. dans le test diagnostique MMPI et le Jesness, cote obtenue par une _ simple transformation linéaire, soit T = 50 + 10 × (X ! X ) / sX . Cette transformation, qui ne modifie en rien la forme de la distribution des scores, n’assure pas le respect du modèle normal ni la validité des interprétations afférentes. 3. La cote Z linéaire est aussi en usage et équivaut simplement à Z = 5 + ( X − X ) / s X .
Échelles classiques de conversion normale (Section B)
43
moyenne. Inutile d’aller plus loin, car les prolongements exigeraient l’exploitation d’un groupe normatif de plus de mille personnes (par tranche d’âge), ce qui est largement inusité. La table B2, pour l’échelle T normale, est confectionnée de la même manière. Quant aux échelles quasi normales des stanines et des stens, présentées dans la table B3, elles se distinguent des précédentes en ce qu’il s’agit ici d’échelles fermées, et dont les valeurs s’arrêtent aux cotes extrêmes (p. ex. 1 et 9) présentées, ce quelle que soit la taille du groupe normatif. Telles que fournies, les grilles garantissent la moyenne et l’écart-type spécifiés, et la répartition des cotes singe le modèle normal, avec cependant une fraction de population tant soit peu gonflée aux deux extrémités.
Exercices de lecture des tables 1. Selon l’échelle du Wechsler, quelle valeur de QI se mériterait quelqu’un occupant le rang centile 90 par rapport au groupe normatif ? Dans la table B1, aux colonnes Wechsler (σ = 15), nous repérons l’intervalle de rangs centiles (89,12 ; 90,32) dans lequel s’inscrit notre 90, vis-à-vis de quoi on lit QI = 119. 2. Robert prétend avoir obtenu un QI de 148 dans un test américain traduit, qui serait le Cattell. Quel aurait été son score équivalent s’il avait passé le EIHM québécois? La table B1 indique que, pour obtenir QI = 148 au test de Cattell, la personne doit se loger dans l’intervalle centile (97,61 ; 97,84). Cet intervalle se retrouve presque équivalent dans la colonne Wechsler (appropriée au EIHM), soit (97,54 ; 97,90), pour un QI de 130. Le lecteur notera que, dans les deux cas, la personne se situe précisément à 2 écarts-types au-dessus de la moyenne normative correspondante. 3. Dans un test d’habileté manuelle standardisé, Lucie obtient la cote T = 35. Comment se situe-t-elle par rapport à la population? En admettant que le modèle normal s’applique, la cote T = 35 correspond, dans la table B2, à l’intervalle centile (6,06 ; 7,35), de sorte qu’on peut affirmer que Lucie se classe peu favorablement, soit parmi les 7 % inférieurs de la population. 4. Quel stanine obtiendrait quelqu’un situé dans les meilleurs 15 % de la population? La table B3 indique, pour une personne située au 85e rang centile, c’est-à-dire dans l’intervalle (76,52 ; 88,59), le stanine approprié est 7.
44
L’étalonnage et la décision psychométrique
Exemples élaborés 1. Élaboration d’une échelle en cotes T. L’exercice proposé ici consiste à élaborer une grille de conversion en cotes T pour les données de distance au test de Cooper déjà présentées dans la section A. Les opérations peuvent être effectuées « à la main » (avec calculette) ou programmées (sur chiffrier de type Excelmd ou dans un langage de programmation plus classique), la première consistant à mettre les données en ordre numérique croissant, en indiquant leur rang individuel. Le tableau 1, à la page suivante, reproduit ces données. Noter que, du seul point de vue mathématique, l’apparition de rangs consécutifs distincts pour deux ou plusieurs valeurs égales ne crée pas de paradoxe, puisqu’en fait l’égalité absolue de deux mesures, ici des distances courues, est théoriquement impossible : tout n’est qu’affaire de précision. Les cas litigieux d’attribution, qui restent possibles, doivent être réglés à la pièce, le plus souvent arbitrairement. L’intervalle de valeurs (de distance) à associer à une cote T particulière se trouve grâce aux quatre étapes suivantes : 1) Déterminer les bornes réelles de la cote, ici T ! ½ et T + ½ ; 2) Trouver, dans le modèle normal voulu, ici N(µ = 50, σ = 10), les intégrales (ou rangs centiles) correspondantes, disons Pinf et Psup ; 3) convertir les rangs centiles en rangs dans la série des N statistiques d’ordre, soit : rang = P × (N + 1) , 4) finalement, trouver (par interpolation) la statistique d’ordre dénotée par X(rang). La table B2 concrétise déjà les résultats des deux premières étapes. Ainsi, pour trouver l’intervalle approprié à la cote T = 40, les rangs centiles affichés à la table B2 sont Pinf = 14,69 et Psup = 17,11. Utilisant N = 282, nous trouvons les rangs bruts 14,69 % × (282 + 1) . 41,57 et 17,11 % × (282 + 1) . 48,42 respectivement. Pour la borne inférieure et en nous référant au tableau 1, nous déterminons X(41,57) = X(41) + 0,57 × (X42)!X(41)) = 1965 + 0,57 × (1967!1965) . 1966,14. La borne supérieure fournit semblablement 1984,84. Par ce procédé, nous obtenons : T
X inf.
X sup.
38
1896,88
1947,20
39
1947,20
1966,14
40
1966,14
1984,84
41
1984,84
2006,75
42
2006,75
2031,13
45
Échelles classiques de conversion normale (Section B)
Tableau 1. Distances (en mètres) de 283 participants au test de Cooper, en ordre croissant 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
1655 1681 1741 1752 1765 1768 1780 1784 1786 1795 1797 1814 1820 1824 1826 1827 1831 1838 1843 1849 1868 1874 1875 1880 1891 1892 1893 1895 1896 1897 1904 1937 1941 1945 1946 1949 1955 1959 1960 1962 1965 1967 1969 1970 1972 1979 1983 1984 1986
50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98
1991 1997 1997 1997 1998 2002 2007 2007 2010 2010 2013 2020 2025 2025 2031 2032 2034 2036 2038 2039 2040 2041 2047 2050 2051 2051 2057 2057 2058 2059 2059 2062 2062 2064 2064 2064 2066 2075 2077 2081 2087 2094 2094 2097 2098 2098 2103 2106 2108
99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147
2111 2114 2122 2122 2124 2137 2139 2147 2149 2153 2158 2160 2160 2160 2164 2164 2167 2169 2169 2177 2179 2186 2186 2187 2190 2192 2192 2193 2196 2198 2199 2203 2210 2217 2218 2218 2218 2220 2221 2225 2229 2230 2232 2235 2248 2252 2254 2260 2260
148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196
2261 2265 2269 2272 2274 2278 2282 2285 2287 2288 2291 2292 2294 2295 2295 2299 2299 2301 2308 2310 2311 2312 2312 2315 2317 2321 2322 2323 2323 2328 2328 2329 2333 2333 2335 2336 2340 2341 2343 2344 2345 2347 2349 2349 2354 2357 2359 2362 2369
197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245
2372 2374 2375 2384 2386 2389 2397 2398 2400 2401 2401 2418 2418 2428 2429 2429 2431 2431 2440 2440 2442 2443 2445 2446 2452 2454 2455 2462 2464 2464 2467 2469 2474 2478 2484 2485 2488 2488 2489 2490 2490 2496 2504 2507 2521 2538 2548 2565 2569
246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283
2579 2581 2582 2583 2588 2597 2611 2612 2623 2626 2646 2658 2670 2673 2679 2714 2731 2737 2751 2757 2766 2799 2799 2803 2807 2845 2857 2859 2867 2900 2935 2964 2969 3013 3044 3105 3108 4253
46
L’étalonnage et la décision psychométrique
La résolution des bordures d’intervalles peut se faire simplement, en profitant ici de l’élimination de la partie fractionnaire des nombres : arrondir vers le haut la borne inférieure, tronquer la borne supérieure. Ainsi, pour T = 38, l’intervalle (1896,88 ; 1947,20) devient (1897 ; 1947). Le tableau 2 (préparé par programmation informatique) fournit la grille complète.
Tableau 2. Grille de conversion en cotes T pour les distances courues au test de Cooper (données fictives) T
X inf
23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
! 1659 1669 1683 1721 1747 1759 1768 1781 1787 1803 1825 1832 1865 1892 1897 1948 1967 1985 2007 2032 2050 2063 2096 2124 2164 2192 2220
à à à à à à à à à à à à à à à à à à à à à à à à à à à à
X sup
T
X inf
1658 1668 1682 1720 1746 1758 1767 1780 1786 1802 1824 1831 1864 1891 1896 1947 1966 1984 2006 2031 2049 2062 2095 2123 2164 2192 2219 2260
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77
2261 2292 2312 2333 2349 2386 2429 2445 2468 2489 2529 2582 2614 2670 2733 2765 2803 2853 2867 2927 2966 2993 3030 3065 3104 3107 3108
X sup à à à à à à à à à à à à à à à à à à à à à à à à à à à
2291 2312 2333 2349 2385 2428 2444 2467 2488 2528 2581 2613 2669 2732 2764 2802 2852 2866 2926 2965 2992 3029 3064 3103 3106 3107
!
Échelles classiques de conversion normale (Section B)
47
2. Déterminer quelques erreurs-types représentatives pour la grille élaborée au tableau 2. En fait, dans un exercice de la section A (« Détermination du centile 95 »), nous avons déjà illustré le calcul de la marge d’incertitude associée à un centile normalisé, soit la cote T = 66 (pour laquelle nous avons obtenu l’erreur-type σe . 1,23). Un calcul du même type peut être réitéré pour les cotes T = 50, 60, 70 et 75. Noter que les cotes inférieures 40, 30 et 25 auront, par symétrie du modèle normal, les mêmes erreurs-types que les cotes 60, 70 et 75 respectivement. Les cotes 50, 60, 70 et 75 délimitent (au point-milieu de l’intervalle T ! ½ à T + ½) les intégrales P = 0,50000, 0,84134, 0,97725 et 0,99379, respectivement. Nous référant encore à la table A1, ligne 0,500, la variance sur T = 50 est obtenue par : var (T = 50) = 102 × [ 1,57080 / 284 + 2,46740 / 2842 + 3,46273 / 2843 ]
. 0,556 , ce qui donne une erreur-type σe = /0,556 . 0,75. Pour T = 60, l’intégrale P = 0,84134 nous amène à interpoler entre 0,841 et 0,842 à la table A1, produisant var . 0,809 et σe . 0,90. Les erreurs-types de T = 70 et T = 75 sont ensuite de 1,68 et 2,92. Comme on peut voir, la marge d’incertitude augmente dramatiquement aux extrémités de l’échelle normale ; les psychométriciens tentés de déborder les rangs centiles relatifs aux bornes 1 / (N + 1) et N / (N + 1), c’est-à-dire en extrapolant au-delà de la série normative, devraient y penser à deux fois! 3. Grilles de conversion pour des distributions compactes. Prenons l’exemple d’une grille pour l’échelle T, à bâtir à partir d’un échantillon normatif de N = 150 participants. Les bornes de l’échelle sont déterminées à partir des rangs centiles extrêmes, soit 100 × 1/(N + 1) . 0,66 et 100 × N /(N + 1) . 99,34, ce qui délimite l’étendue T = (25 ; 75), qui comprend donc 51 cotes T distinctes. Or, selon le type de mesure prise pour les N = 150 sujets, il se peut que ceux-ci se partagent non pas N valeurs distinctes, mais beaucoup moins que N, disons NN, et que, éventuellement, NN < 51. Le fait qu’il y ait moins de mesures distinctes que de cotes à attribuer va obliger le psychométricien à une gymnastique pénible et approximative, que nous illustrons dans les deux cas suivants. Attribution de stanines à partir de NN = 7 valeurs distinctes. Nous supposons ici que N = 90 personnes mesurées ont donné lieu à la distribution de scores présentée à la page suivante (« f » dénote le nombre de personnes ayant obtenu chaque score X) :
48
L’étalonnage et la décision psychométrique
Score X
f
RC inf
RC sup
Stanine
0
3
1,10
3,30
1
1
4
4,40
7,69
2
2
26
8,79
36,26
3
3
33
37,36
72,53
5
4
17
73,63
91,21
7
5
4
92,31
95,60
8
6
3
96,70
98,90
9
Comme on le voit, impossible d’attribuer 9 stanines différents alors qu’il n’y a que 7 scores X distincts. L’attribution se fait en tentant de faire concorder les intervalles centiles de la distribution normative et la grille appropriée, à la table B3. [Les rangs centiles, RC, indiqués au tableau ci-dessus correspondent respectivement à la première et la dernière observation de chaque ligne. Par exemple, la valeur X = 2 apparaît en 8e position et occupe les positions suivantes jusqu’à la 33e, d’où les rangs centiles 100 × 8 / (90+1) . 8,79 et 36,26.] La valeur X = 3, qui campe à la médiane de la distribution, se voit facilement attribuer la cote S = 5. Quant à X = 2 maintenant, les stanines S = 3 et S = 4 couvrent les intervalles centiles (11,41 ; 23,48) et (23,48 ; 40,48) ; les deux ne pouvant être attribués, nous suggérons d’opter pour S = 3, dont l’intervalle est totalement inclus dans celui du score X = 2. Des raisonnements semblables président à l’attribution des autres cotes, en gardant à l’esprit qu’il faut aussi respecter l’étendue complète des stanines. Sur l’échelle des cotes stanines, le lecteur peut vérifier que les 90 données normatives génèrent une moyenne de 4,800 et un écart-type de 1,944 : une belle réussite, vu les circonstances. Attribution de stanines à partir de NN = 6 données distinctes. Le tableau suivant offre une seconde illustration du processus d’attribution de cotes à partir d’une distribution normative qui pose certains problèmes, notamment dans la partie basse de la distribution.
X
0
1
2
3
4
5
f
30
25
15
15
3
2
S
3
5
6
7
8
9
Échelles classiques de conversion normale (Section B)
49
La solution présentée, que nous invitons le lecteur à étudier, donne pour moyenne 5,022 et pour écart-type 1,689. Signalons en outre que, en raison du peu d’espace de transformation dans l’échelle originale, l’échelle de stanines produite reste légèrement asymétrique (g1 . 0,208), en écho à la forme initiale (g1 . 0,753). Ces problèmes d’attribution, qui sont malheureusement assez fréquents et qui mettent en échec le pouvoir transformant des grilles normales, découlent du manque de « capacité discriminante » (Laurencelle, 1997) de la mesure, et ils nuisent considérablement aux qualités métrologiques (normalité, additivité, corrélation, précision) habituellement recherchées. Le moyen d’y échapper ? Les solutions possibles sont nombreuses et devraient être envisagées par les constructeurs de test : augmenter le nombre d’items ou d’essais dans le test, augmenter/ diminuer/varier le niveau de difficulté, augmenter si possible la précision (le nombre de décimales) de la mesure, mesurer le temps de réussite plutôt que le nombre d’items réussis, etc., tout cela dans le but de générer un plus grand nombre de scores bruts distincts. Nous revenons sur le sujet dans la section mathématique suivante.
Justification mathématique Élaboration des grilles de conversion normale : cas général Quelle que soit la forme de la distribution des N données normatives brutes, ces données varient entre elles et on peut les réarranger en ordre numérique croissant, obtenant ainsi les « statistiques d’ordre ». Ces N statistiques d’ordre découpent, pour ainsi dire, la population représentée par le groupe normatif en N + 1 tranches, ou strates, tranches qui comportent un individu chacune et représentent chacune une proportion 1 / N de la population. C’est sur cette correspondance de rangs entre, d’une part, les N + 1 tranches délimitées par les statistiques d’ordre et les fractions équivalentes du modèle normal qu’est basée la conversion normale des échelles comme le QI et le T. Ainsi, chacune des données normatives Xi, après réarrangement en ordre croissant, dénote une statistique d’ordre X(i), dont la place i dans la série varie de 1 à N et sert à déterminer (approximativement) le rang centile. En fait, correspondant à la formule (A.16), le rang centile RCX = 100 PX est calculé par4 : RC(X(i)) = 100 × i / (N + 1) .
(1)
Or, pour attribuer, par exemple, la valeur 70 dans l’échelle QI de Wechsler (avec σ = 15),
4. D’autres formules existent, toutes statistiquement consistantes, celle-ci ayant l’avantage de fournir un estimateur non biaisé du quantile correspondant de la population, ce qui justifie en retour (mais approximativement) la formule inverse (A.16).
50
L’étalonnage et la décision psychométrique
il faut préciser l’intervalle, c.-à-d. la tranche de rangs centiles, qui dans le modèle normal N(µ = 100, σ = 15) inclura « 70 ». La valeur discrète « 70 » occupe l’espace unitaire dont les bornes sont respectivement 69,5 et 70,5, lesquelles correspondent aux écarts-réduits : zinf = (69,5 !100) / 15 = !2,0333 zsup = (70,5 !100) / 15 = !1,9667 . Pour ces bornes exprimées dans le modèle de la loi normale standard, le calcul5 indique P(z = !2,03) = 0,02101 et P(z = !1,97) = 0,02461, correspondant aux rangs centiles approximatifs 2,10 et 2,46, ou à l’intervalle (2,10 ; 2,46). Les grilles fournies dans la table B1 assurent la moyenne normative µ = 100. Quant à l’écart-type, chaque grille, par son caractère et discret et indéfini, ne peut le garantir précisément. Si par exemple la grille était appliquée avec une série normative de N = 200 données, la fraction minimale de 1 / N, soit 0,005, ciblerait le rang centile 0,50 (ou, plus précisément, 100 × 1 /(N + 1) = 0,4975 . 0,50) ; ainsi, dans l’échelle Wechsler, le QI le plus bas attribuable serait 61 (ou 62), de même que le plus élevé serait 139. Cette étendue, de 61 à 139, n’est qu’un intervalle partiel de l’ensemble (potentiellement infini) du modèle normal, cet état de faits correspondant à une troncature bilatérale du modèle et par conséquent à la réduction de l’écart-type, lequel dans ce cas vaut à peu près 14,50 (plutôt que 15). Un même raisonnement s’applique à la grille des cotes T. Néanmoins, ce déficit de l’écart-type calculé n’affecte pas la validité des échelles puisque l’interprétation des cotes attribuées repose sur leur équivalence à des rangs centiles, laquelle est préservée par l’application de la grille de conversion. Élaboration des grilles quasi normales (stanines, stens) Les échelles quasi normales fermées, par exemple, les stanines et les stens, constituent un cas particulier des échelles normalisées puisque les quelques différentes valeurs d’échelle enferment toute la population, ce quelle que soit la taille de la série normative. C’est cette propriété de fermeture qui leur donne leur statut d’échelles quasi normales. Nous avons défini les stanines et stens de la table B3 en leur imposant un écart-type effectif de 2. Prenons l’exemple des stanines pour rendre compte de la procédure suivie. Supposons que nous définissons une échelle normale discrète selon µ = 5 et σgén = 2, où σgén indique l’écart-type générique appliqué pour repérer les rangs centiles appropriés (sous le modèle normal). Ainsi, pour le stanine S = 3, la borne inférieure 2,5 fournira l’écart réduit z = (2,5 ! 5) / 2 = !1,25 puis le rang centile (RC) 10,57, la borne supérieure correspondant au RC = 22,66 ; etc. Nous déterminons aussi les bornes de S = 8, la borne supérieure 8,5 correspondant au RC = 95,99. Or, cette borne supérieure de S = 8 coïncide avec la borne
5. Si on utilise la table A2 et la valeur z réduite à 2 décimales, on obtient P(z = !2,03) = 1 ! 0,97882 = 0,02118 et P(z = !1,97) = 1 ! 0,97558 = 0,02442, les différences d’avec les valeurs exactes apparaissant négligeables.
51
Échelles classiques de conversion normale (Section B)
inférieure de S = 9, le plus haut stanine, dont la borne supérieure virtuelle est +4 et correspond donc au RC = 100,0 ; le même phénomène d’entassement du pourcentage se produit au niveau de la cote la plus basse, le stanine 1. La grille ainsi produite subdivise la population en 9 strates, dont les intervalles de rangs centiles dénotent l’importance numérique : la moyenne résultante calculée est bien 5, mais l’écart-type effectif n’est que 1,944. Qu’est-ce qui affecte l’écart-type calculé à partir de la grille de conversion des stanines et des cotes quasi normales comparables? Deux facteurs interviennent. Le plus important revient à la troncature, c.-à-d. au fait d’arrêter la distribution aux valeurs extrêmes 1 et 9, en y entassant les pourcentages excédentaires du modèle normal, ce facteur amenant une réduction de l’écart-type effectif. L’autre facteur ressortit à l’effet de groupement de Sheppard, par lequel toutes les valeurs intermédiaires de l’intervalle de la cote brute, i.e. de S ! ½ à S + ½, sont traitées comme étant de probabilité égale, ce qui n’est pas le cas sous le modèle normal continu, ce facteur ayant pour impact un léger accroissement de l’écarttype effectif 6,7. Ainsi, en raison de la relation complexe qui relie l’écart-type appliqué pour générer les intervalles centiles et l’écart-type résultant, nous devons procéder par essai et erreur afin d’assurer une valeur prescrite de l’écart-type. Pour l’échelle des stanines, nous avons trouvé σgén = 2,0743, et σgén = 2,0240 pour l’échelle des stens, obtenant dans les deux cas σeff . 2,000. Capacité discriminante et étalement de la série normative L’exemple 3 ci-dessus a soulevé le problème, hélas souvent rencontré, de l’insuffisance du nombre de valeurs normatives (brutes) distinctes pour élaborer et appliquer correctement une conversion en cotes normales. En effet, même si l’on avait une série basée sur N = 1000 participants, comment attribuer, disons, les 55 cotes T (de 23 à 77), comme au tableau 2, si les 1000 participants n’ont produit que 15 valeurs différentes! Ce problème du nombre de catégories numériques (attribuées aux objets mesurés) ressortit à la « capacité discriminante » (Laurencelle, 1998a) de la mesure. Dans son développement du concept de capacité discriminante, Laurencelle (1997) réutilise le « coefficient de discrimination » de G. A. Ferguson, D = f1 × f2 + f1 × f3 + ... fk!1 × fk =
,
(2)
6. Soit u, la longueur d’intervalle entre les cotes (ici, u = 1), alors l’effet de groupement sur l’écart-type (attribué à Sheppard) est conventionnellement égal à σeff(u) = /(σ2 + u 2/12). 7. L’effet de groupement affecte aussi, bien sûr, les échelles discrètes de QI, mais il y a un impact minuscule, augmentant σgén = 15 à σeff .15,0020 pour les grilles de type Wechsler.
52
L’étalonnage et la décision psychométrique
qui dénote le nombre de comparaisons (ou classements) deux à deux que permet la distribution des N observations, lesquelles sont réparties en k valeurs (ou catégories) distinctes de fj observations chacune. Cette quantité (D) dépend, on le voit, de trois paramètres : le nombre total d’observations (N), le nombre de valeurs attribuées distinctes (k) et la série des fréquences d’attribution { fj }. Si toutes les valeurs attribuées étaient distinctes, i.e. k = N, nous aurions D = = N(N ! 1)/2. Cependant, comme il arrive souvent, k < N. Or, pour un nombre donné de valeurs k distinctes, le nombre de discriminations possibles dépend de la forme de la série { fj }et il est maximal lorsque sa répartition est égalitaire, soit f1 = f2 = ... = fk. Enfin, il est possible de déterminer la quantité k* telle que, pour une valeur donnée de N, l’indice observé D correspondrait à son maximum, en faisant comme si les k* fréquences étaient égales, l’indice k* correspondant alors au nombre de catégories (ou valeurs) efficaces de la distribution. Cet indice est obtenu par : k* =
.
(3)
C’est donc, en fait, à ce nombre k* de catégories de mesure efficaces que doit être confrontée la grille de cotes normales à attribuer. Prenons, par exemple, le tableau présentant k = (NN =) 7 valeurs distinctes, à l’exemple 3 ci-dessus. Le calcul de (2) pour ce cas indique D = 2998, et l’estimation (3) fournit à son tour k* . 3,85, c’est-à-dire que, par rapport à sa capacité à séparer les participants les uns des autres, cette série de N = 90 observations comporte non pas 7, mais environ 4 valeurs distinctes efficaces. [À cette base comparative inspirée de Ferguson, Laurencelle (1997) ajoute la contribution de l’erreur de mesure, via l’erreur-type σe, ainsi que le modèle de la répartition normale des fréquences fj afin d’achever son concept de capacité discriminante.]
53
Échelles classiques de conversion normale (Section B)
Table B1. Grilles de conversion de rangs centiles pour trois échelles de type QI : Wechsler (: = 100, σ = 15), Stanford-Binet (µ = 100, σ = 16) et Cattell (µ = 100, σ = 24) QI 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64
Wechsler (σ = 15) de à
0,10 0,12 0,15 0,19 0,23 0,28 0,35 0,42 0,51 0,62 0,75
0,10 0,12 0,15 0,19 0,23 0,28 0,35 0,42 0,51 0,62 0,75 0,90
Stanford-Binet (σ = 16) de à
0,10 0,12 0,15 0,18 0,22 0,27 0,33 0,40 0,47 0,57 0,68 0,81 0,95 1,13
0,10 0,12 0,15 0,18 0,22 0,27 0,33 0,40 0,47 0,57 0,68 0,81 0,95 1,13 1,33
Cattell (σ = 24) de à 0,10 0,11 0,13 0,14 0,17 0,19 0,22 0,25 0,28 0,32 0,36 0,41 0,46 0,52 0,59 0,66 0,74 0,83 0,93 1,04 1,16 1,29 1,44 1,59 1,77 1,96 2,16 2,39 2,63 2,90 3,19 3,50 3,83 4,19 4,58 4,99 5,43 5,91 6,42
0,10 0,11 0,13 0,14 0,17 0,19 0,22 0,25 0,28 0,32 0,36 0,41 0,46 0,52 0,59 0,66 0,74 0,83 0,93 1,04 1,16 1,29 1,44 1,59 1,77 1,96 2,16 2,39 2,63 2,90 3,19 3,50 3,83 4,19 4,58 4,99 5,43 5,91 6,42 6,95
QI 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64
54
L’étalonnage et la décision psychométrique
Table B1. Grilles de conversion de rangs centiles pour trois échelles de type QI (suite) QI 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104
Wechsler (σ = 15) de à 0,90 1,07 1,28 1,51 1,79 2,10 2,46 2,87 3,34 3,86 4,46 5,12 5,86 6,68 7,59 8,59 9,68 10,87 12,17 13,57 15,07 16,69 18,41 20,23 22,16 24,20 26,33 28,55 30,85 33,24 35,69 38,21 40,78 43,38 46,02 48,67 51,33 53,98 56,62 59,22
1,07 1,28 1,51 1,79 2,10 2,46 2,87 3,34 3,86 4,46 5,12 5,86 6,68 7,59 8,59 9,68 10,87 12,17 13,57 15,07 16,69 18,41 20,23 22,16 24,20 26,33 28,55 30,85 33,24 35,69 38,21 40,78 43,38 46,02 48,67 51,33 53,98 56,62 59,22 61,79
Stanford-Binet (σ = 16) de à 1,33 1,55 1,81 2,11 2,45 2,83 3,26 3,74 4,28 4,88 5,55 6,29 7,10 7,98 8,95 10,01 11,15 12,38 13,70 15,12 16,63 18,24 19,94 21,73 23,61 25,58 27,63 29,76 31,96 34,23 36,55 38,93 41,34 43,79 46,27 48,75 51,25 53,73 56,21 58,66
1,55 1,81 2,11 2,45 2,83 3,26 3,74 4,28 4,88 5,55 6,29 7,10 7,98 8,95 10,01 11,15 12,38 13,70 15,12 16,63 18,24 19,94 21,73 23,61 25,58 27,63 29,76 31,96 34,23 36,55 38,93 41,34 43,79 46,27 48,75 51,25 53,73 56,21 58,66 61,07
Cattell (σ = 24) de à 6,95 7,53 8,14 8,78 9,47 10,19 10,95 11,75 12,59 13,48 14,40 15,37 16,37 17,43 18,52 19,65 20,83 22,04 23,29 24,59 25,92 27,29 28,69 30,12 31,59 33,09 34,61 36,16 37,73 39,33 40,94 42,56 44,20 45,85 47,51 49,17 50,83 52,49 54,15 55,80
7,53 8,14 8,78 9,47 10,19 10,95 11,75 12,59 13,48 14,40 15,37 16,37 17,43 18,52 19,65 20,83 22,04 23,29 24,59 25,92 27,29 28,69 30,12 31,59 33,09 34,61 36,16 37,73 39,33 40,94 42,56 44,20 45,85 47,51 49,17 50,83 52,49 54,15 55,80 57,44
QI 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104
55
Échelles classiques de conversion normale (Section B)
Table B1. Grilles de conversion de rangs centiles pour trois échelles de type QI (suite) QI 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144
Wechsler (σ = 15) de à 61,79 64,31 66,76 69,15 71,45 73,67 75,80 77,84 79,77 81,59 83,31 84,93 86,43 87,83 89,13 90,32 91,41 92,41 93,32 94,14 94,88 95,54 96,14 96,66 97,13 97,54 97,90 98,21 98,49 98,72 98,93 99,10 99,25 99,38 99,49 99,58 99,65 99,72 99,77 99,81
64,31 66,76 69,15 71,45 73,67 75,80 77,84 79,77 81,59 83,31 84,93 86,43 87,83 89,13 90,32 91,41 92,41 93,32 94,14 94,88 95,54 96,14 96,66 97,13 97,54 97,90 98,21 98,49 98,72 98,93 99,10 99,25 99,38 99,49 99,58 99,65 99,72 99,77 99,81 99,85
Stanford-Binet (σ = 16) de à 61,07 63,45 65,77 68,04 70,24 72,37 74,42 76,39 78,27 80,06 81,76 83,37 84,88 86,30 87,62 88,85 89,99 91,05 92,02 92,90 93,71 94,45 95,12 95,72 96,26 96,74 97,17 97,55 97,89 98,19 98,45 98,67 98,87 99,05 99,19 99,32 99,43 99,53 99,60 99,67
63,45 65,77 68,04 70,24 72,37 74,42 76,39 78,27 80,06 81,76 83,37 84,88 86,30 87,62 88,85 89,99 91,05 92,02 92,90 93,71 94,45 95,12 95,72 96,26 96,74 97,17 97,55 97,89 98,19 98,45 98,67 98,87 99,05 99,19 99,32 99,43 99,53 99,60 99,67 99,73
Cattell (σ = 24) de à 57,44 59,06 60,67 62,27 63,84 65,39 66,91 68,41 69,88 71,31 72,71 74,08 75,41 76,71 77,96 79,17 80,35 81,48 82,57 83,63 84,63 85,60 86,52 87,41 88,25 89,05 89,81 90,53 91,22 91,86 92,47 93,05 93,58 94,09 94,57 95,01 95,42 95,81 96,17 96,50
59,06 60,67 62,27 63,84 65,39 66,91 68,41 69,88 71,31 72,71 74,08 75,41 76,71 77,96 79,17 80,35 81,48 82,57 83,63 84,63 85,60 86,52 87,41 88,25 89,05 89,81 90,53 91,22 91,86 92,47 93,05 93,58 94,09 94,57 95,01 95,42 95,81 96,17 96,50 96,81
QI 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144
56
L’étalonnage et la décision psychométrique
Table B1. Grilles de conversion de rangs centiles pour trois échelles de type QI (suite) QI 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176
Wechsler (σ = 15) de à 99,85 99,88 99,90 99,92
99,88 99,90 99,92 100,0
Stanford-Binet (σ = 16) de à 99,73 99,78 99,82 99,85 99,88 99,90 99,92
99,78 99,82 99,85 99,88 99,90 99,92 100,0
Cattell (σ = 24) de à
QI
96,81 97,10 97,37 97,61 97,84 98,04 98,23 98,41 98,56 98,71 98,84 98,96 99,07 99,17 99,26 99,34 99,41 99,48 99,54 99,59 99,64 99,68 99,72 99,75 99,78 99,81 99,83 99,86 99,87 99,89 99,90 99,92
145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176
97,10 97,37 97,61 97,84 98,04 98,23 98,41 98,56 98,71 98,84 98,96 99,07 99,17 99,26 99,34 99,41 99,48 99,54 99,59 99,64 99,68 99,72 99,75 99,78 99,81 99,83 99,86 99,87 99,89 99,90 99,92 100,0
57
Échelles classiques de conversion normale (Section B)
Table B2. Grille de conversion de rangs centiles pour l’échelle T (µ = 50, σ = 10) T
de
à
T
de
à
18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
0,058 0,082 0,114 0,159 0,219 0,298 0,402 0,539 0,714 0,938 1,22 1,58 2,02 2,56 3,22 4,01 4,95 6,06 7,35 8,85 10,56 12,51 14,69 17,11 19,77 22,66 25,78 29,12 32,64 36,32 40,13 44,04
0,082 0,114 0,159 0,219 0,298 0,402 0,539 0,714 0,938 1,22 1,58 2,02 2,56 3,22 4,01 4,95 6,06 7,35 8,85 10,56 12,51 14,69 17,11 19,77 22,66 25,78 29,12 32,64 36,32 40,13 44,04 48,01
50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82
48,01 51,99 55,96 59,87 63,68 67,36 70,88 74,22 77,34 80,23 82,89 85,31 87,48 89,44 91,15 92,65 93,94 95,05 95,98 96,78 97,44 97,98 98,42 98,78 99,06 99,29 99,45 99,59 99,70 99,78 99,84 99,89 99,92
51,99 55,96 59,87 63,68 67,36 70,88 74,22 77,34 80,23 82,89 85,31 87,48 89,44 91,15 92,65 93,94 95,05 95,98 96,78 97,44 97,98 98,42 98,78 99,06 99,29 99,45 99,59 99,70 99,78 99,84 99,89 99,92 99,94
58
L’étalonnage et la décision psychométrique
Table B3. Grilles de conversion de rangs centiles pour l’échelle Stanine et l’échelle Sten† Stanines Cote 1 2 3 4 5 6 7 8 9
de
Stens à
0,00 4,58 4,58 11,41 11,41 23,48 23,48 40,48 40,48 59,52 59,52 76,52 76,52 88,59 88,59 95,42 95,42 100,00
Cote 0 (1) 1(2) 2(3) 3(4) 4(5) 5(6) 6(7) 7(8) 8(9) 9(10)
de
à
0,00 2,41 2,41 6,91 6,91 16,15 16,15 31,06 31,06 50,00 50,00 68,94 68,94 83,85 83,85 93,09 93,09 97,59 97,59 100,00
† Les échelles sont définies de telle façon que l’écart-type nominal de 2 soit respecté. Voir la section mathématique.
Section C Les taux et rapports de sélection Introduction Dans une population donnée, pour sélectionner les candidats les plus qualifiés, il faudrait connaître à l’avance leur rendement à l’emploi et engager ceux qui satisfont un certain critère. Le cas étant rare, le bureau du personnel va plutôt soumettre les candidats à un test, ou à une batterie de tests, dont le résultat possède une certaine capacité prédictive du rendement. Si le taux de qualification dans la population est connu de même que la relation prédictive entre le test et le rendement, quelle proportion d’individus qualifiés obtiendronsnous si nous retenons une fraction déterminée des meilleurs candidats au test ? C’est à des questions de cet ordre qu’est adressé le présent chapitre. Nous supposons une population virtuelle de candidats. Dans cette population, le test utilisé pour la sélection, à mesure résultante X, a une corrélation ρ (0 # ρ # 1) avec le rendement de mesure Y. Le taux de qualification des personnes, selon que Yi $ YQ, est dénoté fQ (0 < fQ < 1), et la fraction de sélection fS, selon que Xi $ XC. Enfin, parmi les candidats sélectionnés, la proportion d’individus qualifiés, c.-à-d. pour lesquels Xi $ XC et Yi $ YQ, est notée ici fSQ : le tableau 1 illustre ces subdivisions.
Tableau 1. Répartition d’une population selon que les individus sont sélectionnés ou non et qu’ils sont qualifiés ou non Qualification
Sélection
Y $ YQ
Y < YQ a
X $ XC
b
fSQ
fS c
X < XC fQ
d
60
L’étalonnage et la décision psychométrique
Si aucun test de sélection n’est appliqué ou si tous les candidats sont retenus, selon fS = 1, alors la proportion de candidats qualifiés (fSQ) restera fQ, ce qui en retour suppose une proportion 1 ! fQ de candidats non qualifiés. Le but de la sélection est, bien sûr, de réduire voire d’annuler cette proportion, nuisible au rendement de l’entreprise. De même, si un test de sélection est administré mais qu’il n’entretient aucune relation (ρ = 0) avec le rendement, alors évidemment fSQ = fS × fQ, et le rapport de sélection, RS = fSQ / fS ,
(1)
reste égal à fQ. D’autre part, la présence d’une corrélation positive (ρ > 0) entre X et Y va contribuer à engraisser le taux de sélection correcte fSQ : à la limite, avec une corrélation parfaite (ρ = 1), on aura fSQ = min( fS, fQ), de sorte que le rapport de sélection pourra atteindre 1. Outre les indices simples déjà mentionnés, soit fSQ et RS, la littérature présente d’autres indices semblables, parmi lesquels la « proportion de classements corrects » : PCC = 1 ! fS ! fQ + 2 × fSQ
(2)
et l’« avantage de sélection prédictive » : ASP =
(3)
méritent d’être signalés.
Nature et présentation de la table de la section C Une seule table, la table C, suffit pour cette section : on y présente la quantité fSQ, soit la fraction de population sélectionnée qui est à la fois qualifiée, pour différentes combinaisons des paramètres fQ (le taux de qualification dans la population), fS (le taux ou la fraction de sélection) et ρ (la corrélation entre le score résultant du test de sélection et la mesure du rendement) : la table suppose que les mesures X et Y ont une distribution bivariée normale à corrélation ρ. La lecteur aura remarqué que, pour ρ = 0, la valeur tabulée s’obtient directement par l’équation : fSQ = fS × fQ, alors que pour ρ = 1, le cas optimal, nous avons plutôt fSQ = min(fS, fQ) ; par ailleurs, la fonction fSQ est symétrique dans ses arguments fS et fQ, de sorte que, par exemple, la valeur de fSQ pour fQ > fS s’obtienne simplement en intervertissant les paramètres. Le cas d’une valeur négative de la corrélation (ρ < 0) n’est pas pertinent dans le présent contexte ; advenant le cas d’un test de sélection à scoring négatif (p. ex. une mesure du temps de réalisation d’une tâche) et à corrélation négative, il suffira d’inverser le score (i.e. !X) pour revenir dans le cadre paramétrique de la table C.
Les taux et rapports de sélection (Section C)
61
Exercices de lecture de la table 1. Trouver la valeur de la fraction fSQ correspondant à fS = fQ = 0,70 et ρ = 0,8. La seconde page de la table C fournit tout de suite fSQ = 0,611. 2. Utilisant fS = 0,20, fQ = 0,50 et ρ = 0,6, calculer les indices RS, PCC et ASP. La table C étant organisée selon fQ # fS, nous intervertissons d’abord fQ et fS pour obtenir (à la ligne fQ = 0,20 et fS = 0,50) fSQ = 0,168. Appliquant les formules (1) à (3) ci-dessus, nous obtenons RS = 0,168 / 0,2 = 0,84, PCC = 1!0,20 ! 0,50 + 2 × 0,168 = 0,636 et ASP = (0,168 ! 0,20 × 0,50) / (min(0,20 ; 0,50) ! 0,20 × 0,50) = 0,342. 3. Soit une fraction de sélection fS = 0,65, un taux de qualification fQ = 0,45 et une corrélation ρ = 0,45 : quelle valeur peut-on attribuer à fSQ ? Aucune des valeurs paramétriques demandées n’apparaît dans la table C. Cependant, nous pouvons repérer d’autres valeurs (fS = 0,60 et 0,70 ; fQ = 0,40 et 0,50 ; ρ = 0,40 et 0,50) dans l’intervalle desquelles la valeur cherchée se trouve. En procédant par interpolation simple, nous obtenons fSQ . (0,316 + 0,347 + 0,380 + 0,422 + 0,333 + 0,360 + 0,399 + 0,437) / 8 . 0,37425, la valeur directement calculée étant 0,37273, une différence d’à peine 0,4 %. L’exemple 2, plus bas, détaille la méthode d’interpolation.
Exemples élaborés 1. Calcul de bénéfice à l’emploi. Imaginons une entreprise qui, par le roulement du personnel qui part à la retraite après 25 ans de service, engage régulièrement de nouveaux candidats. Peut-on établir une base de calcul pour chiffrer l’avantage de l’embauche de personnel par test de sélection ? La procédure d’engagement d’un nouvel employé dans une entreprise implique des coûts (testing et entraînement) et des bénéfices escomptés. Énumérons les éléments suivants (les montants indiqués, en dollars, sont purement illustratifs) : • • • •
T$, le coût global du testing d’un candidat (500 $) ; E$, le bénéfice global au rendement, en période d’entraînement, incluant les coûts associés (!2000 $) ; BQ$, le bénéfice annuel au rendement à long terme pour un candidat qualifié (10 000 $) ; BNQ$, le bénéfice annuel au rendement à long terme pour un candidat non qualifié (6000 $) ;
62
L’étalonnage et la décision psychométrique
• • •
P$, la pénalité de renvoi (payée au candidat non qualifié) (10 000 $) ; hQ et hNQ, l’horizon d’emploi, en nombre d’années, pour un candidat qualifié et non qualifié respectivement (hQ = 25 ; hNQ = 0,5) ; G$, le bénéfice global (annualisé) pour l’entreprise.
Ces ingrédients étant admis, une formule de calcul possible est : hQG$ = !T$ +{ fS E$ + fSQhQBQ$ + (fS ! fSQ)(hNQBNQ$ ! P$) } / fS
(4)
Toujours pour illustrer le calcul, supposons maintenant un taux de qualification fQ = 0,30 et une fraction de sélection fS = 0,10. Sans sélection ou avec une sélection aléatoire (p. ex. selon ρ = 0), nous obtiendrions fSQ = fS × fQ = 0,10 × 0,30 = 0,03 et la formule (4) indique alors hQG$ = 67600 $, ou G$ = 67600 $ / 25 = 2704 $ à titre de bénéfice annualisé, par employé. Par le moyen d’un test de sélection pour lequel ρ = 0,70, la table C indique (vis-à-vis de fQ = 0,10 et fS = 0,30) fSQ = 0,082, d’où on obtient G$ = 8049,60 $. Si la sélection avait été parfaite, avec ρ = 1 et fSQ = fS = 0,10, alors G$ = 9900 $. L’interprétation de cette approche, où l’on doit tenir compte aussi des valeurs (arbitraires) fournies pour les différents paramètres, est laissée au lecteur. 2. Interpolation dans la table C. Quelle est la valeur de la fraction fSQ pour fQ = 0,50, fS = 0,33 et ρ = 0,8 ? Quels sont les indices RS, PCC et ASP pour fQ = 0,25, fS = 0,40 et ρ = 0,77 ? Considérons le premier cas. La fonction fSQ étant symétrique dans les arguments fS et fQ, nous pouvons les intervertir et posons fQ = 0,33 et fS = 0,50. Lisant vis-à-vis de ρ = 0,8, le couple (0,30 ; 0,50) donne 0,271 et (0,40 ; 0,50) donne 0,341. Interpolant sur le premier paramètre pour repérer (0,33 ; 0,50), nous avons fSQ . 0,271 + (0,33 ! 0,30) / (0,40 ! 0,30) × (0,341 ! 0,271) = 0,292, un résultat proche de la valeur exacte qui est 0,294. Dans le second cas, le triplet (0,25 ; 0,40 ; 0,77) est inscrit dans l’intervalle borné par (0,20 ; 0,40 ; 0,7), (0,30 ; 0,40 ; 0,7), (0,20 ; 0,40 ; 0,8) et (0,30 ; 0,40 ; 0,8). Interpolant d’abord sur le premier paramètre ( fS), nous avons fSQ(0,25 ; 0,40 ; 0,7) . (0,165 + 0,227) / 2 = 0,196, puis fSQ(0,25 ; 0,40 ; 0,8) . (0,179 + 0,247) / 2 = 0,213. Enfin, l’interpolation sur le troisième paramètre (ρ) fournit fSQ(0,25 ; 0,40 ; 0,77) . 0,196 + (0,77 ! 0,7) / (0,8 ! 0,7) × (0,213 ! 0,196) . 0,208, le résultat exact à 3 décimales étant 0,209. Par conséquent, le rapport de sélection devient (approximativement) RS = 0,208 / 0,25 . 0,832, la proportion de classements corrects PCC = 1 ! 0,25 ! 0,40 + 2 × 0,208 = 0,766, et l’avantage de sélection prédictive ASP = (0,208 ! 0,25 × 0,40) / ( min(0,25 ; 0,40) ! 0,25 × 0,40) = 0,108 / 0,150 = 0,720.
63
Les taux et rapports de sélection (Section C)
3. Estimation de fSQ par inversion de la corrélation tétrachorique. La section mathématique présente une méthode d’approximation de l’intégrale fSQ par l’inversion de la formule « cos-pi » proposée par K. Pearson pour estimer la corrélation à partir d’une double dichotomisation de la population bivariée normale. Soit les paramètres fS = 0,40, fQ = 0,60 et ρ = 0,8. La table C indique fSQ = 0,369. Que donne l’estimation proposée par l’équation (9) ? Nous obtenons S = 0,4 + 0,6 = 1, U = (π / cos!10,8 ! 1)2 = 3,1416 / 0,6435 ! 1)2 . 15,07 et V = 0,4 × 0,6 = 0,24. L’application de (9) donne alors : fSQ . •1 × (15,07!1) + 1 !/{[1 × (15,07 ! 1) +1]2 ! 4 × 15,07 × 0,24 × (15,070 ! 1)}œ / 2 × (15,07!1) = 0,363,
une valeur assez juste. À notre connaissance, les mérites ou les failles de cette approximation n’ont pas été étudiées.
Justification mathématique Calcul direct de la quantité fSQ Par sa définition, soit fSQ = Pr{ X $ XC, Y > YQ }, la quantité fSQ apparaît comme une probabilité dans une distribution bivariée, soit l’aire d’un quadrant positif extrême. Dans le contexte convenu de la distribution normale bivariée standard, nous posons donc : fSQ =
.
(5)
Hormis les cas extrêmes déjà mentionnés (pour ρ = 0 et ρ = 1), seule vaut la peine d’être signalée l’équivalence suivante : fSQ(xC = 0 ; yQ = 0 ; ρ) = ¼ + (sin!1ρ) / 2π. Le calcul explicite de la double intégrale (5) n’est pas banal mais il existe tout de même plusieurs procédés, notamment par la fonction tétrachorique (Kendall et Stuart, 1979) ou la fonction T de Owen (1962). En vertu de celle-ci et rappelant la fonction de répartition normale Φ(z) de la section A, nous avons : fSQ = 1 ! ½[Φ(xC) + Φ(yQ)] ! T(xC, ay) ! T(yQ, ax) !K ,
(6)
où K = 0 si xC × yQ $ 0 et K = ½ sinon, ay = (y !ρx) / x /(1!ρ2), ax = (x !ρy) / y /(1!ρ2), et : T(x, ay) =
.
(7)
64
L’étalonnage et la décision psychométrique
Pour fins de calcul, notons aussi T(x,0) = 0, T(0, a) = (tan!1 a) / 2π, T(!x, a) = T(x,a), T(x,!a) = !T(x,a) et T(x,a) = ½[Φ(x) + Φ(xa)] ! Φ(x)Φ(xa) ! T(xa,1/a). Owen1 fournit aussi un calcul en série convergente pour l’intégrale (7). Le calcul direct illustré ici ou celui approximatif décrit plus bas se réfèrent tous deux à un contexte paramétrique, dans lequel les valeurs réelles des paramètres (XC ou fC, YQ ou fQ, µX, σX, µY, σY, ρ) sont connues et utilisées. Dans les cas pratiques, ces valeurs ne sont pas connues et doivent être estimées à partir de séries statistiques, en y calculant par exemple r(X,Y) pour estimer ρ. Owen et Li2, en plus de brosser une vue d’ensemble sur la sélection prédictive, scrutent les cas où l’un ou l’autre ou plusieurs de ces paramètres doivent être empiriquement estimés, et ils en dérivent certaines procédures permettant de pallier au problème. Ni ces auteurs ni d’autres, à notre connaissance, n’ont établi systématiquement le biais engendré par la substitution de statistiques (i.e. utiliser rX,Y pour ρ) ni la grandeur N de la série statistique suffisante pour pulvériser à toutes fins pratiques ce biais. Calcul approximatif de fSQ La population bivariée normale à corrélation ρ est divisée en quatre parties par les seuils de sélection XC et de qualification YQ, produisant un tableau de répartition tel que le tableau 1, avec les proportions indiquées a, b, c et d, où a + b + c + d = 1 et a = fSQ = Pr{ X $ XC, Y $ YQ }. Un tel tableau, exprimé par le quadruplet (a, b, c, d ), permet d’obtenir exactement la valeur de ρ par la fonction tétrachorique, la valeur obtenue étant parfois appelée « corrélation tétrachorique », ou ρt. Réciproquement, la connaissance de fS = a + b, fQ = a + c et ρ permet d’inférer a, en inversant la fonction tétrachorique. Or, K. Pearson a proposé une très bonne approximation de la corrélation ρt, soit la célèbre formule « cos-pi », ρt =
.
(8)
Cette formule peut être inversée, pour obtenir (voir Laurencelle 1998a) : fSQ .
,
(9)
où S = fS + fQ, U = (π / cos!1ρ ! 1)2 et V = fC × fQ. L’exemple 3 ci-dessus illustre le calcul.
1. D.B. Owen : « Tables for computing bivariate normal probabilities », dans Annals of mathematical statistics, 1956, vol. 27, p. 1075-1090. 2. D.B. Owen et L. Li : « The use of cutting scores in selection procedures », dans Journal of educational statistics, 1980, vol. 5, p. 157-168.
65
Les taux et rapports de sélection (Section C)
Table C.
fQ
Fraction sélectionnée et qualifiée (fSQ) dans une population selon la fraction de sélection (fS), la fraction de qualification (fQ) et la corrélation (ρ) entre les mesures de sélection et de qualification Valeurs de ρ 0,4 0,5 0,6
fS
0,0
0,1
0,2
0,3
0,7
0,8
0,9
0,95
1,0
,05 ,05 ,10 ,20 ,30 ,40 ,50 ,60 ,70 ,80 ,90 ,95
0,0225 0,0250 0,010 0,015 0,020 0,025 0,030 0,035 0,040 0,045 0,048
0,0237 0,0270 0,013 0,019 0,024 0,029 0,034 0,038 0,043 0,047 0,048
0,0253 0,0294 0,017 0,023 0,028 0,033 0,038 0,041 0,045 0,048 0,049
0,0271 0,012 0,020 0,027 0,032 0,037 0,041 0,044 0,047 0,049 0,050
0,0294 0,016 0,025 0,031 0,037 0,041 0,044 0,046 0,048 0,049 0,050
0,012 0,019 0,029 0,036 0,041 0,044 0,046 0,048 0,049 0,050 0,050
0,016 0,024 0,034 0,040 0,044 0,047 0,048 0,049 0,050 0,050 0,050
0,020 0,029 0,039 0,044 0,047 0,049 0,049 0,050 0,050 0,050 0,050
0,025 0,035 0,044 0,048 0,049 0,050 0,050 0,050 0,050 0,050 0,050
0,032 0,043 0,049 0,050 0,050 0,050 0,050 0,050 0,050 0,050 0,050
0,037 0,047 0,050 0,050 0,050 0,050 0,050 0,050 0,050 0,050 0,050
0,050 0,050 0,050 0,050 0,050 0,050 0,050 0,050 0,050 0,050 0,050
,10 ,10 ,20 ,30 ,40 ,50 ,60 ,70 ,80 ,90 ,95
0,010 0,020 0,030 0,040 0,050 0,060 0,070 0,080 0,090 0,095
0,013 0,025 0,036 0,047 0,057 0,067 0,076 0,085 0,093 0,097
0,017 0,031 0,043 0,054 0,064 0,073 0,081 0,089 0,095 0,098
0,022 0,037 0,050 0,061 0,071 0,079 0,086 0,092 0,097 0,099
0,027 0,044 0,058 0,068 0,077 0,085 0,091 0,095 0,098 0,099
0,032 0,051 0,065 0,076 0,084 0,090 0,094 0,097 0,099 0,100
0,039 0,060 0,074 0,083 0,090 0,094 0,097 0,099 0,100 0,100
0,047 0,069 0,082 0,090 0,095 0,097 0,099 0,100 0,100 0,100
0,056 0,079 0,090 0,096 0,098 0,099 0,100 0,100 0,100 0,100
0,069 0,091 0,098 0,100 0,100 0,100 0,100 0,100 0,100 0,100
0,078 0,097 0,100 0,100 0,100 0,100 0,100 0,100 0,100 0,100
0,100 0,100 0,100 0,100 0,100 0,100 0,100 0,100 0,100 0,100
,20 ,20 ,30 ,40 ,50 ,60 ,70 ,80 ,90 ,95
0,040 0,060 0,080 0,100 0,120 0,140 0,160 0,180 0,190
0,048 0,070 0,091 0,111 0,131 0,150 0,168 0,185 0,193
0,057 0,080 0,102 0,122 0,141 0,159 0,175 0,189 0,195
0,066 0,091 0,114 0,134 0,151 0,167 0,181 0,192 0,197
0,076 0,103 0,126 0,145 0,162 0,175 0,187 0,195 0,198
0,087 0,115 0,138 0,156 0,171 0,183 0,192 0,197 0,199
0,099 0,129 0,151 0,168 0,181 0,190 0,196 0,199 0,200
0,113 0,143 0,165 0,179 0,189 0,195 0,198 0,200 0,200
0,129 0,160 0,179 0,190 0,196 0,199 0,200 0,200 0,200
0,150 0,180 0,193 0,198 0,200 0,200 0,200 0,200 0,200
0,165 0,192 0,199 0,200 0,200 0,200 0,200 0,200 0,200
0,200 0,200 0,200 0,200 0,200 0,200 0,200 0,200 0,200
,30 ,30 ,40 ,50 ,60 ,70 ,80 ,90 ,95
0,090 0,120 0,150 0,180 0,210 0,240 0,270 0,285
0,102 0,134 0,164 0,193 0,222 0,250 0,276 0,288
0,115 0,147 0,178 0,207 0,234 0,259 0,281 0,291
0,128 0,162 0,192 0,220 0,245 0,267 0,286 0,294
0,142 0,176 0,207 0,233 0,256 0,275 0,291 0,296
0,157 0,192 0,222 0,247 0,267 0,283 0,294 0,298
0,173 0,209 0,237 0,260 0,277 0,290 0,297 0,299
0,191 0,227 0,254 0,273 0,287 0,295 0,299 0,300
0,211 0,247 0,271 0,286 0,295 0,299 0,300 0,300
0,238 0,272 0,290 0,297 0,299 0,300 0,300 0,300
0,256 0,287 0,298 0,300 0,300 0,300 0,300 0,300
0,300 0,300 0,300 0,300 0,300 0,300 0,300 0,300
66
L’étalonnage et la décision psychométrique
Table C (suite)
fQ
Valeurs de ρ 0,4 0,5 0,6
fS
0,0
0,1
0,2
0,3
0,7
0,8
0,9
0,95
1,0
,40 ,40 ,50 ,60 ,70 ,80 ,90 ,95
0,160 0,200 0,240 0,280 0,320 0,360 0,380
0,175 0,215 0,255 0,293 0,331 0,367 0,384
0,190 0,231 0,270 0,307 0,341 0,373 0,388
0,206 0,247 0,285 0,320 0,351 0,379 0,391
0,222 0,263 0,300 0,333 0,362 0,385 0,394
0,239 0,280 0,316 0,347 0,371 0,390 0,396
0,257 0,299 0,333 0,360 0,381 0,394 0,398
0,278 0,319 0,350 0,373 0,389 0,397 0,399
0,301 0,341 0,369 0,386 0,396 0,399 0,400
0,331 0,368 0,388 0,397 0,400 0,400 0,400
0,351 0,385 0,397 0,400 0,400 0,400 0,400
0,400 0,400 0,400 0,400 0,400 0,400 0,400
,50 ,50 ,60 ,70 ,80 ,90 ,95
0,250 0,300 0,350 0,400 0,450 0,475
0,266 0,315 0,364 0,411 0,457 0,479
0,282 0,331 0,378 0,422 0,464 0,483
0,298 0,347 0,392 0,434 0,471 0,487
0,315 0,363 0,407 0,445 0,477 0,491
0,333 0,380 0,422 0,456 0,484 0,494
0,352 0,399 0,437 0,468 0,490 0,497
0,373 0,419 0,454 0,479 0,495 0,499
0,398 0,441 0,471 0,490 0,498 0,500
0,428 0,468 0,490 0,498 0,500 0,500
0,449 0,485 0,498 0,500 0,500 0,500
0,500 0,500 0,500 0,500 0,500 0,500
,60 ,60 ,70 ,80 ,90 ,95
0,360 0,420 0,480 0,540 0,570
0,375 0,434 0,491 0,547 0,574
0,390 0,447 0,502 0,554 0,578
0,406 0,462 0,514 0,561 0,582
0,422 0,476 0,526 0,568 0,587
0,439 0,492 0,538 0,576 0,591
0,457 0,509 0,551 0,583 0,594
0,478 0,527 0,565 0,590 0,597
0,501 0,547 0,579 0,596 0,599
0,531 0,572 0,593 0,600 0,600
0,551 0,587 0,599 0,600 0,600
0,600 0,600 0,600 0,600 0,600
,70 ,70 ,80 ,90 ,95
0,490 0,560 0,630 0,665
0,502 0,570 0,636 0,669
0,515 0,580 0,643 0,673
0,528 0,591 0,650 0,677
0,542 0,603 0,658 0,681
0,557 0,615 0,665 0,686
0,573 0,629 0,674 0,690
0,591 0,643 0,682 0,694
0,611 0,660 0,690 0,698
0,638 0,680 0,698 0,700
0,656 0,692 0,700 0,700
0,700 0,700 0,700 0,700
,80 ,80 ,90 ,95
0,640 0,648 0,657 0,666 0,676 0,687 0,699 0,713 0,729 0,750 0,765 0,800 0,720 0,725 0,731 0,737 0,744 0,751 0,760 0,769 0,779 0,791 0,797 0,800 0,760 0,763 0,767 0,770 0,775 0,779 0,784 0,789 0,794 0,799 0,800 0,800
,90 ,90 ,95
0,810 0,813 0,817 0,822 0,827 0,832 0,839 0,847 0,856 0,869 0,878 0,900 0,855 0,857 0,859 0,862 0,866 0,869 0,874 0,879 0,885 0,893 0,897 0,900
,95 ,95
0,902 0,904 0,905 0,907 0,909 0,912 0,916 0,920 0,925 0,932 0,937 0,950
Section D Seuils et taux de sélection multinormaux Introduction La sélection des personnes, dans un contexte d’embauche, de diagnostic ou de qualification pour une fonction, est un processus souvent complexe, en plusieurs phases, pour lequel l’application de tests de sélection normés constitue une phase clé. Le but ordinaire de ces tests est de déterminer, estimer ou prédire si la personne évaluée appartient ou non à une fraction donnée de la population, soit les 100 α % supérieurs (0 < α < 1). Parfois, un seul test fera l’affaire mais, la plupart du temps, l’agence de sélection mettra en œuvre deux ou plusieurs tests afin de cerner les qualités à évaluer. Or, l’exploitation concomitante de plusieurs tests place l’utilisateur dans une démarche d’interprétation particulière, qui diffère de la démarche habituelle associée à l’utilisation d’un seul test. La démarche appropriée dans ce contexte doit prendre en compte les interactions particulières entre les tests, en fonction notamment de leurs intercorrélations, ce en invoquant une distribution statistique multivariée, ici la distribution multinormale. Dans cette section, nous considérons la détermination des seuils multinormaux et des taux de sélection correspondants, alors que la section suivante abordera les différentiels de sélection multiples, une généralisation multivariée du différentiel de sélection présenté dans la section A. Lorsqu’un seul test est en jeu, disons X1, la détermination d’un seuil et d’un taux de sélection est une affaire simple. Il s’agit de résoudre pour c l’équation : α = Pr{ X1 $ c }
(1)
en se référant à une distribution (univariée) quelconque. Dans le cas conventionnel de la loi normale standard (voir section A), nous aurons évidemment : c = Φ!1(1 ! α) ;
(2)
par exemple, pour un taux de sélection α = 0,10, nous obtenons le seuil c = Φ!1(0,90) . 1,282. Prenons maintenant le cas de k = 3 tests, disons X1, X2 et X3, les scores étant exprimés en unités standardisées (de moyenne 0 et variance 1), et appliquons à chacun le seuil c = 1,282. Le contexte défini par ce cas permet maintenant l’application de trois stratégies de sélection distinctes, ou règles, soit :
68
L’étalonnage et la décision psychométrique
1. Retenir le sujet si X1 $ c ou X2 $ c ou X3 $ c (règle d’union) ;
(3)
2. Retenir le sujet si X1 $ c et X2 $ c et X3 $ c (règle d’intersection) ; 3. Retenir le sujet si (X1 $ c et X2 $ c) ou (X1 $ c et X3 $ c) ou (X2 $ c et X3 $ c). On peut résumer verbalement ces règles par l’exigence d’une qualification dans au moins l’un des tests, dans tous les tests ou dans au moins deux des tests. Or, de façon générale, les personnes repérées par l’une de ces règles ne sont pas forcément les mêmes que celles trouvées par une autre, et leur nombre diffère aussi. Ainsi, la personne sélectionnée par la règle 2 doit se qualifier à la fois aux tests 1, 2 et 3, ce qui apparaît plus exigeant et « rare » que celle qui, dans la règle 1, n’a à se qualifier qu’à l’un des tests. De plus, la possibilité de se qualifier dans plus d’un test à la fois dépend essentiellement de la corrélation qu’il y a entre les tests, un paramètre dont il nous faudra tenir compte. Avec seulement k = 2 tests utilisés en concomitance, seules les règles 1 et 2 ci-dessus s’appliquent, la règle 3 s’y confondant avec la règle 2. Avec k > 3 tests, la règle 3 ci-dessus pourrait s’assouplir et se généraliser en exigeant que le sujet se qualifie dans au moins r parmi les k tests. Dans cette section, nous explorons des situations comportant de k = 2 à k = 5 tests, en nous en tenant toutefois aux règles de sélection 1, 2 et 3 énoncées ci-dessus. La sélection dans un contexte de testing multivarié, parce qu’elle comporte de nombreux ingrédients (les tests et leurs caractéristiques psychométriques) et leurs interactions, peut atteindre un niveau de complexité inabordable, ou qui dépasse en tout cas le traitement que nous avons prévu y consacrer ici1. À toutes fins utiles, nous nous voyons contraint d’adopter un cadre général simplifié, qui sera utilisé dans tous nos calculs. D’abord, le modèle normal est encore mis à contribution, cette fois sous forme de la distribution normale multivariée homogène standard, notée N(0k, 1k ; ρ), désignant une population mesurée sur k critères ou tests, chacun étant ramené à moyenne 0 et écart-type 1, et tous ayant des intercorrélations égales à une même valeur ρ. Le contexte de sélection nous permet de restreindre le domaine de ρ à l’intervalle positif [0 ..1]. De plus, le seuil de sélection c (en valeur standardisée) sera le même pour chaque test, tel que le montrent les exemples ayant servi à illustrer les règles de sélection (3). Nature et présentation des tables de la section D Les tables de cette section mettent en jeu les relations complexes entre le nombre de tests (k), la corrélation commune entre les tests (ρ), le seuil de sélection appliqué à chaque test (c, en valeur standardisée), la règle de sélection et la fraction de sélection visée, dénotée « α ».
1. Noter cependant que même les situations statistiques les plus complexes peuvent être domestiquées en vue d’une solution numérique, en recourant à l’approche dite de Monte Carlo : voir Laurencelle (2001).
Seuils et taux de sélection multinormaux (Section D)
69
Cette relation, qu’on peut symboliser par : α = f { k, ρ, c, Règle }, fait ressortir le fait que la fraction α de population sélectionnée en vertu d’une règle donnée diffère généralement de la fraction retenue par chaque test, laquelle est une fonction simple du seuil de sélection c, ou T = 1 ! Φ(c) (voir section A). Rappelons que les calculs sousjacents aux valeurs tabulées reposent sur le modèle multinormal homogène, documenté à la section mathématique. Les tables D1 à D3 fournissent les seuils individuels c, applicables à chaque test, afin d’espérer une fraction de sélection α, ce pour les trois règles de sélection identifiées plus haut, en (3). Les tables D4 à D6 sont complémentaires, fournissant cette fois la fraction α correspondant à différentes valeurs du seuil de sélection c.
Exercices de lecture des tables 1. Quels seuils doit-on appliquer avec 4 tests normés en cotes T (µ = 50, σ = 10) et à corrélations mutuelles de 0,70, si on souhaite sélectionner les 10 % meilleurs selon la règle 1 (union) ? La table D1 fournit un jeu de seuils d’union. Pour k = 4 tests, ρ = 0,70 et α = 0,10, le seuil standardisé trouvé est c = 1,745 ; cette valeur équivaut à un taux de sélection par test d’environ T = 1 ! Φ(1,745) . 0,0405 (voir table A2). Transposé en cote T, le seuil c devient TC = µ + c × σ = 50 + 1,745 × 10 = 67,452. 2. Quelle est la fraction de population attendue si les candidats doivent excéder la borne d’un écart-type (i.e. Xi > µ + σ) pour 3 tests à corrélations ρi,j = 0,5, 0,6 et 0,7 respectivement ? Ce sont les tables D4 à D6 qui nous informent de la fraction attendue sous différentes conditions ; ici, l’exigence de se qualifier à chacun de 3 tests (règle 2) nous amène à la table D5b. Nous avons évidemment c = 1 (puisque le seuil à battre est situé à +1σ au-delà de µ). Quant à ρ, les valeurs fournies étant assez proches l’une de _ l’autre, nous suggérons d’appliquer la moyenne, ρ = (0,5 + 0,6 + 0,7) / 3 = 0,6. La _ fraction trouvée est α(ρ ) = 0,04447. Une autre stratégie eût été de trouver la fraction _ moyenne, α = a [ α(0,5) + α(0,6) + α(0,7) ] . 0,04528. L’estimation de la fraction α réelle par simulation Monte Carlo (basée sur 2 × 106 échantillons) indique _ α . 0,04449, donnant nettement l’avantage à l’estimateur α(ρ ).
2. Dans cet exemple comme ailleurs dans le texte, c’est le contexte qui permettra au lecteur de discriminer le taux de sélection T et la cote T conventionnelle, les deux objets étant notés identiquement.
70
L’étalonnage et la décision psychométrique
En continuation de cet exercice, posant les corrélations ρi,j = 0,4, 0,6 et 0,8, _ _ l’estimateur recommandé indique encore α(ρ ) = 0,04447, alors que α . 0,04789 ; _ l’estimateur Monte Carlo donne ici α . 0,04462, l’avantage allant encore à α(ρ ). En sur-continuation de cet exercice, des calculs semblables mais appliqués pour la règle d’union (en utilisant les tables D4), donnent maintenant l’avantage à _ _ l’estimateur α plutôt qu’à α(ρ ). Des études complémentaires sur ces approximations sont bien sûr de mise. 3. Quels seuils (standardisés) devrait-on exiger avec k = 5 tests pour des candidats qui n’ont à se qualifier qu’à l’un d’entre eux si l’on veut écrémer les meilleurs 2 % de la population ? Le problème est posé pour des intercorrélations de ρ = 1 ; de ρ = 0 ; de ρ = 0,7. La table des seuils d’union (table D1) ne présente pas de valeurs pour une fraction de 2 %. On peut toutefois s’en tirer en utilisant certains moyens. D’abord, pour ρ = 1, la règle n’y est pour rien, tous les tests rendant la même information. Nous nous basons ainsi sur T = α = 2 %, et le seuil à appliquer est simplement c = Φ!1(1 !T) = Φ!1(0,98) . 2,054. Quant au cas ρ = 0, le calcul de probabilité montre que k 5 T = 1! /(1 ! α), soit T = 1 ! /0,98 . 0,0040324, d’où c = Φ!1(1 !T ) . 2,649. Les astuces déployées ci-dessus pour ρ = 0 et ρ = 1 ne conviennent pas au cas ρ = 0,7. À défaut de procéder à l’évaluation complexe des intégrales concernées (voir section mathématique), il nous faut songer à l’interpolation. Il s’agirait donc d’interpoler entre les couples (α = 0,05 ; c = 2,144) et (α = 0,01 ; c = 2,776) pour trouver le seuil approprié à α = 0,02. L’interpolation linéaire simple n’y valant rien, nous suggérons de transformer d’abord α en αN, selon αN = /(!ln α), puis de faire l’interpolation linéaire sur αN. Pour notre exemple, αN(0,05) = /(!ln 0,05) . 1,7308, αN(0,01) . 2,1460 et αN(0,02) . 1,9779, d’où : c(0,02) = c(0,01) + [c(0,05)!c(0,01)] × [αN(0,02)!αN(0,01)] / [αN(0,05)!αN(0,01)] = 2,776 + [2,144 ! 2,776] × [1,9779!2,1460] / [1,7308!2,1460]
. 2,520, la valeur exacte étant 2,523. Pour accréditer encore cette méthode d’interpolation, notons que la valeur interpolée pour ρ = 0 serait de 2,651 (vs 2,649) et, pour ρ = 1, de 2,051 (vs 2,054). 4. Quelle est la fraction retenue si, en appliquant la règle d’union et 3 tests à corrélation de 0,3, on utilise un taux de sélection de 10 % ? Il s’agit donc ici de retenir tout candidat qui se classe dans les T = 10 % meilleurs de la population à n’importe quel des 3 tests, les tests étant intercorrélés à ρ = 0,3. Le seuil appliqué, c = Φ!1(0,10), est 1,28155 (voir table A1). La table D4b fournit la
Seuils et taux de sélection multinormaux (Section D)
71
fraction α pour c = 1 (α = 0,35736) et c = 1,5 (α = 0,16951). L’interpolation directe fournirait α . 0,25158, avec une erreur de +3,9 % par rapport à la vraie valeur de 0,24209. Nous recommandons plutôt une interpolation sur variable transformée, comme à l’exercice précédent. Soit αN(0,35736) = 1,01440 et αN(0,16951) = 1,33223, l’interpolation linéaire pour c = 1,28155 fournit αN = 1,19337 et α = exp(!αN2 ) . 0,24072, l’erreur étant ici de !0,6 %.
Exemples élaborés 1. Un concours de douance dans une commission scolaire. Une commission scolaire, qui gère 16 écoles primaires et N = 8000 élèves, veut favoriser l’effort en encourageant les jeunes à se dépasser. La direction pédagogique met sur pied un concours de douance, basé sur l’utilisation de quatre épreuves normées, l’une sur la compétence en langue maternelle, l’une sur les mathématiques, l’une sur l’expression artistique et enfin l’une sur le sport ; la corrélation entre les épreuves est d’environ 0,6. La commission souhaite récompenser environ 400 élèves. Comment procéder ? « Être doué » signifie d’abord montrer un talent exceptionnel dans un domaine particulier ; dans le contexte du concours, cela revient à se démarquer dans au moins l’une des quatre épreuves imposées. Ainsi, pour distinguer 400 élèves parmi 8000, soit α = 0,05, avec k = 4 et ρ . 0,6, le seuil d’union approprié, à la table D1, est c = 2,127. Le taux de sélection par épreuve, T, est donc de 1 ! Φ(2,127) . 0,01671, soit environ 134 élèves. L’application d’un tel seuil ne garantit le nombre de lauréats qu’en espérance, l’erreur-type de cette estimation étant /[Nα(1!α)] . 19,49 ; on peut donc espérer obtenir 400 ± 20 lauréats dans ce concours. Parmi les lauréats, retenus pour s’être distingués à l’une des épreuves. certains l’auront fait à plus d’une, voire à toutes les épreuves. La direction pédagogique entend couronner de façon particulière ces génies potentiels. Le nombre attendu de ceux-là peut être estimé en trouvant la fraction α résultant d’une sélection par la règle 2 (intersection), k = 4 et c = 2,127. La table D5c fournit, pour ρ = 0,6 et c = 2, α = 0,00132, et pour c = 2,5, α = 0,000170. Utilisant l’interpolation sur αN, comme à l’Exercice 3, nous trouvons αN(c = 2) = /(!ln α) = 2,57490, αN(c = 2,5) = 2,94614, puis par interpolation, αN(c = 2,127) . 2,66919 et α . 0,00081. Multipliant par N = 8000, le nombre escompté de « génies » serait de 6,5 ± 2,5, soit de 4 à 9.
72
L’étalonnage et la décision psychométrique
2. En exigeant une qualification à deux tests corrélés à 0,50, quel seuil doit-on imposer à chacun pour s’assurer d’obtenir au moins 1 gagnant sans déborder le nombre de 50 candidats ? Cette question, à la fois curieuse et complexe, permet d’explorer d’autres aspects de la sélection. D’abord, la phrase « assurer d’obtenir au moins 1 gagnant » demande une spécification en termes de probabilité, l’assurance étant un coefficient de probabilité A (0 < A < 1) : nous choisirons (par exemple) A = 0,90. Ensuite, nous devons fixer le processus statistique en vertu duquel les candidats sont testés jusqu’au candidat gagnant : ce procédé nous fournira la fraction échantillonnale α à appliquer. Enfin, il s’agira de déterminer le seuil standardisé c, en considérant k = 2 et ρ = 0,50. Soit p = α, la probabilité pour chaque candidat de se qualifier aux deux tests. La probabilité que le je candidat se qualifie (alors que les précédents ne l’ont pas fait) est (1!p) j!1 × p, soit un élément de la loi géométrique, dont les premiers éléments sont p, (1!p) p, (1!p)2 p, (1!p)3 p, etc. La probabilité de trouver un gagnant parmi les K premiers candidats, c’est-à-dire notre « assurance » A, est la somme : A = p + (1 ! p) p + (1 ! p)2 p + (1 ! p)3 p + (1 ! p)K!1 = 1 ! (1 ! p)K . Posant A = 1 ! (1! p)K = 0,90 et K = 50, nous trouvons α = p = 1 ! /(1!A) = 1 ! 50 /0,10 . 0,04501. k
Muni à présent de la fraction α, nous pouvons nous tourner vers la table D2. Pour k = 2 et ρ = 0,50, nous trouvons c = 1,100 pour α = 0,05 et c = 1,712 pour α = 0,01. L’interpolation à faire pour α = 0,04501 peut encore utiliser la transformation αN = /(!ln α), le résultat3 étant c . 1,144 (la valeur exacte serait 1,145). En résumé, si sur deux tests à corrélation 0,50 on impose un seuil c de 1,144, il y a 90 % de chances de trouver un gagnant (se qualifiant aux deux tests) dans les 50 premiers candidats. Si la sélection s’arrête à l’obtention d’un gagnant, tout est dit. Si elle se poursuit jusqu’à N = 50 candidats, alors il y a environ 2 chances sur 3 de trouver 2 gagnants4 et le nombre espéré de gagnants est simplement p × N = 0,04501 × 50 . 2,25.
3. En fait, nous voulons interpoler sur c pour αN(0,04501) = 1,76093, à partir de αN(c = 1,100) = 1,73082 et αN(c = 1,712) = 2,14597, soit c(0,04501) = 1,100 + (1,712 ! 1,100) × (1,76093 ! 1,73082)/(2,14597 ! 1,73082) . 1,144. 4. Le nombre N étant alors fixé (= 50), nous avons affaire à un processus binomial, de probabilité x N!x . La probabilité d’obtenir au moins 1 gagnant est 1!p(0) . 0,900, celle d’en obtenir au moins NCx p (1 ! p) 2 est 1 ! p(0) !p(1) . 0,664.
73
Seuils et taux de sélection multinormaux (Section D)
Justification mathématique La loi multinormale homogène La loi normale multivariée standard, ou loi multinormale, a pour fonction de densité : f (x1, x2,, ... , xk) =
,
(4)
où les variables sont xN = { x1, x2,, ... , xk } et R est la matrice des variances-covariances, ici une matrice homogène correspondant à :
R=
,
(5)
de sorte que la densité (4) peut être réécrite explicitement, soit :
f (x1, x2,, ... , xk) =
. (6)
Quant aux intégrations requises pour l’application de nos règles de sélection, elles concernent toutes un secteur de dimension 1 à k de l’hypervolume formé par la distribution (6) ci-dessus. La méthode la plus simple que nous ayons trouvée consiste à évaluer l’aire définie à gauche par x1 < c, x2 < c, ..., xk < c au moyen de (Kotz, Balakrishnan et Johnson, 2000 ; Laurencelle, 1998b) : bk(c, ρ) = Pr{ x1 < c, x2 < c, ..., xk < c } =
.
(7)
Calcul de la fraction sélectionnée (α α) Le lecteur aura réalisé que, pour k = 1, l’intégrale bk(c, ρ) équivaut à Φ(c), voire que 1 ! b1(c) = α = T, où T représente toujours le taux de sélection par test. Pour k $ 2, la détermination de la fraction α et, corrélativement, celle du taux de sélection T par test, dépendent essentiellement de la règle de sélection (voir Laurencelle, 1998a).
74
L’étalonnage et la décision psychométrique
Règle d’union (règle 1). Pour être retenu par la règle 1, dite d’union, un candidat n’a besoin de se qualifier qu’à l’un des tests, nonobstant ses résultats aux autres tests. Ainsi, s’il y a deux tests (k = 2), il sera recruté si (x1 $ c et x2 < c) ou (x1 < c et x2 $ c) ou (x1 $ c et x2 $ c), et il ne le sera pas si (x1 < c et x2 < c). La fraction de sélection, on le voit, est le complément de la fraction de population ne se qualifiant à aucun test, d’où généralement (Règle 1)
α = 1 ! bk .
(8) k
Lorsque ρ = 0, nous observons bk = b1k, d’où α = 1 ! b1k et T =1 ! /(1 ! α). Lorsque ρ = 1, nous avons encore α = hk = h1 = T. Règle d’intersection (règle 2). Cette règle demande que le candidat sélectionné se qualifie aux k tests à la fois. Soit α = hk = Pr{ x1 $ c, x2 $ c, ..., xk $ c }, la fraction cherchée. Il est évident que, avec un seul test en jeu, on a α = h1 = 1 ! b1 = T. Pour k = 2, la fraction α = h2 désigne les cas (x1 $ c et x2 $ c). La portion 1!b1(x1) nous fournit (x1 $ c et tout x2), de même que 1!b1(x2) fournit (tout x1 et x2 $ c) ; ces deux portions combinées incluent donc les cas (x1 $ c et x2 $ c) mais on y soustrait deux fois les cas (x1 < c et x2 < c), de fraction b2, d’où h2 = 1 ! 2b1 + b2. Par induction, on montre que : (Règle 2)
α = hk = (1 ! bu)(k) ,
(9)
expression dont le développement imite le développement binomial, soit 1 ! k×b1 + ‡ 2k ×b2 ! ‡ 3k × b3 + ... (!1)k ‡ kk × bk. Lorsque ρ = 0, les qualifications auxk critères (xi $ c) sont mutuellement indépendantes et alors α = hk = h1k = (1 ! b1)k, et T = /α ; lorsque ρ = 1, les qualifications sont simultanément toutes satisfaites, d’où α = hk = h1 = T. Règle du 2 sur k (règle 3). La règle 3 exige du candidat qu’il se qualifie sur au moins 2 tests sur k. L’exigence d’obtenir au moins r succès sur k est une généralisation de la règle d’union, dont la règle du 2 sur k constitue un autre cas particulier. D’obtenir au moins r succès est équivalent au fait de ne pas obtenir r!1 succès ou moins, soit Pr{ t $ r } = 1 ! Pr{ t < r }, d’où : x=r!1 Pr{ t $ r | k } = 1 ! 3x=0 p(x | k) ,
(10)
où p(x | k) dénote la probabilité d’obtenir exactement x succès en k occasions ou tests. Par définition, p(0 | k) = bk et, en général : p(x | k) = bk!x+u(1 ! 1)(x) ,
(11)
soit, par exemple, pour x = 3, (1 ! 1)3 = 1 ! 3 + 3 ! 1 et bk!x+u(1 ! 1)(3) = bk!3 !3bk!2 + 3bk!1 ! bk. La combinaison des expressions (10) et (11) aboutit, pour la règle du 2 sur k, à l’expression : (Règle 3)
α = 1 !k bk!1 + (k !1)bk .
(12)
Seuils et taux de sélection multinormaux (Section D)
75
Laurencelle (1998a) donne une autre dérivation de la règle. La valeur α étant fixée, il s’agit alors de trouver par repérage b1 et c = Φ!1(b1) tels que bk !1 et bk satisfont (12).
Biais et approximations Les calculs démontrés ci-dessus, calculs qui ont permis l’élaboration des tables de la section, sont hypothétiques et basés sur les paramètres d’une population fictive plutôt que sur des estimations et des séries statistiques observées de grandeur N. Chaque cas concret correspond pourtant à l’utilisation de telles séries, lesquelles sont gouvernées par la loi t multivariée5 plutôt que par la loi multinormale appliquée ici. De cette différence de contextes, découlent deux conséquences probables : une marge d’incertitude, qui doit être considérée autour des seuils et des taux de sélection proposés, et des biais d’échantillonnage, ceux surtout associés aux statistiques d’ordre extrêmes et aux écarts d’approximation entre la valeur estimée (r) et la valeur réelle (ρ) de la corrélation. Difficile d’affirmer si ces conséquences sont sérieuses ou préjudiciables, surtout lorsque la grandeur N des séries statistiques atteint un niveau confortable (p. ex. N > 500). Seules des études Monte Carlo systématiques pourraient nous renseigner là-dessus. La section H, partie 5, documente ce problème. L’utilisation d’un modèle multinormal homogène entraîne aussi certaines difficultés, puisque ce modèle impose des corrélations toutes égales entre elles (ρi,j = ρ) entre les k variables ou tests. En supposant des corrélations ρi,j toutes positives, est-ce que _ l’exploitation de leur moyenne ρ introduit un biais important, par exemple, en modifiant la fraction sélectionnée réelle (α) ? Les tables présentées imposent aussi le même taux de sélection (T ) et le même seuil (standardisé) c à chaque test (voir par contre la table C, concernant k = 2 tests, dans laquelle un jeu de taux différents est appliqué aux deux mesures). C’est la situation la plus plausible, et celle aussi dont la solution mathématique (via l’expression (7)) était la plus commode. L’application de seuils différents, soit (c1, c2, ..., ck), engendre certainement une variation de la fraction sélectionnée α : l’utilisateur intéressé devra se retrousser les manches pour en venir à bout.
5. On trouve un traitement de cette loi dans l’édition 1972 de N.L. Johnson et S. Kotz, Continuous multivariate distributions, chez Wiley.
76
L’étalonnage et la décision psychométrique
Table D1. Seuils (c) multinormaux d’union (1 sur k) k=2 ρ 1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
k=3
α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 0,000 0,126 0,178 0,251 0,307 0,353 0,394 0,430 0,462 0,492 0,520 0,545
0,675 0,795 0,842 0,904 0,949 0,985 1,014 1,039 1,060 1,078 1,094 1,108
1,282 1,398 1,440 1,493 1,529 1,556 1,577 1,594 1,607 1,617 1,626 1,632
1,645 1,758 1,798 1,846 1,877 1,900 1,916 1,929 1,939 1,946 1,951 1,955
2,326 2,435 2,469 2,509 2,532 2,548 2,558 2,565 2,569 2,572 2,574 2,575
0,000 0,189 0,267 0,377 0,461 0,531 0,592 0,646 0,695 0,740 0,782 0,819
0,675 0,856 0,927 1,022 1,090 1,144 1,189 1,228 1,260 1,288 1,312 1,332
1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
1,645 1,816 1,877 1,952 2,001 2,036 2,062 2,082 2,097 2,108 2,116 2,121
2,326 2,491 2,544 2,607 2,644 2,668 2,685 2,696 2,703 2,708 2,710 2,712
α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 0,000 0,230 0,325 0,459 0,561 0,646 0,721 0,787 0,847 0,902 0,953 0,998
0,675 0,896 0,982 1,099 1,183 1,250 1,306 1,353 1,393 1,427 1,456 1,480
1,282 1,495 1,574 1,676 1,745 1,797 1,838 1,871 1,896 1,917 1,932 1,943
ρ 1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
k=5
k=4 ρ
1,282 1,457 1,521 1,603 1,659 1,701 1,734 1,759 1,780 1,796 1,809 1,818
1,645 1,854 1,929 2,022 2,083 2,127 2,160 2,185 2,204 2,218 2,228 2,234
2,326 2,528 2,594 2,672 2,719 2,750 2,772 2,786 2,795 2,801 2,804 2,806
0,000 0,260 0,367 0,519 0,634 0,731 0,815 0,890 0,959 1,021 1,078 1,129
0,675 0,925 1,023 1,115 1,251 1,328 1,391 1,445 1,491 1,530 1,563 1,590
1,282 1,524 1,614 1,730 1,809 1,869 1,916 1,954 1,983 2,007 2,024 2,036
1,645 1,882 1,967 2,074 2,144 2,195 2,234 2,263 2,285 2,301 2,312 2,319
2,326 2,555 2,631 2,721 2,776 2,812 2,837 2,854 2,864 2,871 2,875 2,877
ρ 1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
77
Seuils et taux de sélection multivariés (Section D)
Table D2. Seuils (c) multinormaux d’intersection (k sur k) k=3
k=2 ρ 1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 0,000 -0,126 -0,178 -0,251 -0,307 -0,353 -0,394 -0,430 -0,462 -0,492 -0,520 -0,545
0,675 0,543 0,485 0,401 0,334 0,275 0,222 0,173 0,127 0,083 0,041 0,000
1,282 1,145 1,082 0,987 0,908 0,838 0,772 0,710 0,650 0,592 0,535 0,478
1,645 1,505 1,439 1,337 1,251 1,173 1,100 1,030 0,961 0,894 0,827 0,760
2,326 2,181 2,109 1,994 1,894 1,801 1,712 1,626 1,540 1,454 1,369 1,282
0,000 -0,189 -0,267 -0,367 -0,461 -0,531 -0,592 -0,646 -0,695 -0,740 -0,782 -0,819
0,675 0,478 0,392 0,266 0,166 0,079 0,000 -0,073 -0,142 -0,208 -0,271 -0,332
1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
1,645 1,437 1,340 1,190 1,064 0,950 0,842 0,739 0,638 0,538 0,437 0,336
2,326 2,111 2,005 1,837 1,692 1,558 1,429 1,302 1,176 1,050 0,921 0,788
α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 0,000 -0,230 -0,325 -0,459 -0,561 -0,646 -0,721 -0,787 -0,847 -0,902 -0,953 -0,998
0,675 0,436 0,332 0,180 0,058 -0,047 -0,142 -0,231 -0,315 -0,394 -0,471 -0,545
1,282 1,035 0,923 0,753 0,614 0,489 0,373 0,263 0,156 0,052 -0,052 -0,157
1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
k=5
k=4 ρ
1,282 1,078 0,985 0,844 0,728 0,624 0,528 0,436 0,348 0,261 0,175 0,090
ρ
1,645 1,393 1,276 1,096 0,945 0,809 0,680 0,556 0,435 0,314 0,192 0,068
2,326 2,056 1,939 1,738 1,566 1,406 1,252 1,102 0,951 0,799 0,642 0,478
0,000 -0,260 -0,367 -0,519 -0,634 -0,731 -0,815 -0,890 -0,959 -1,021 -1,078 -1,129
0,675 0,405 0,288 0,177 -0,020 -0,138 -0,246 -0,345 -0,439 -0,529 -0,616 -0,699
1,282 1,004 0,878 0,687 0,531 0,392 0,262 0,139 0,019 -0,099 -0,216 -0,334
1,645 1,362 1,230 1,029 0,860 0,708 0,564 0,426 0,290 0,154 0,017 -0,124
2,326 2,033 1,891 1,668 1,476 1,298 1,127 0,960 0,792 0,621 0,445 0,258
ρ 1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
78
L’étalonnage et la décision psychométrique
Table D3. Seuils (c) multinormaux mixtes (2 sur k) k=2 ρ 1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
k=3
α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 0,000 -0,126 -0,178 -0,251 -0,307 -0,353 -0,394 -0,430 -0,462 -0,492 -0,520 -0,545
0,675 0,543 0,485 0,401 0,334 0,275 0,222 0,173 0,127 0,083 0,041 0,000
1,282 1,145 1,082 0,987 0,908 0,838 0,772 0,710 0,650 0,592 0,535 0,478
1,645 1,505 1,439 1,337 1,251 1,173 1,100 1,030 0,961 0,894 0,827 0,760
2,326 2,181 2,109 1,994 1,894 1,801 1,712 1,626 1,540 1,454 1,369 1,282
0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000
0,675 0,665 0,656 0,636 0,616 0,595 0,574 0,551 0,528 0,503 0,478 0,450
1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
1,645 1,622 1,599 1,552 1,503 1,452 1,400 1,345 1,289 1,230 1,167 1,101
2,326 2,294 2,261 2,194 2,125 2,054 1,981 1,904 1,825 1,742 1,655 1,564
α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 α=0,50 α=0,25 α=0,10 α=0,05 α=0,01 0,000 0,066 0,094 0,133 0,162 0,187 0,209 0,228 0,246 0,262 0,277 0,290
0,675 0,730 0,746 0,763 0,769 0,769 0,765 0,758 0,748 0,734 0,717 0,697
1,282 1,327 1,334 1,330 1,315 1,294 1,268 1,237 1,202 1,163 1,119 1,069
ρ 1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
k=5
k=4 ρ
1,282 1,264 1,246 1,209 1,171 1,131 1,090 1,048 1,004 0,957 0,908 0,857
1,645 1,685 1,685 1,669 1,642 1,608 1,569 1,524 1,475 1,421 1,361 1,295
2,326 2,355 2,345 2,307 2,256 2,199 2,135 2,065 1,990 1,909 1,822 1,728
0,000 0,111 0,156 0,221 0,270 0,312 0,348 0,381 0,411 0,438 0,463 0,485
0,675 0,773 0,807 0,848 0,872 0,887 0,895 0,899 0,897 0,891 0,881 0,864
1,282 1,370 1,393 1,412 1,413 1,405 1,389 1,366 1,338 1,304 1,263 1,215
1,645 1,744 1,749 1,737 1,715 1,685 1,648 1,604 1,553 1,496 1,429 0,124
2,326 2,397 2,402 2,383 2,346 2,298 2,242 2,177 2,106 2,026 1,939 1,843
ρ 1 0,95 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
79
Seuils et taux de sélection multivariés (Section D)
Table D4a. Taux de sélection par l’atteinte d’au moins 1 sur 2 tests (union) en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 4
9 614 94196 93849 93738 93571 93331 99899 99851 99783 99678 99595 99379
!2 3
9 482 93128 99863 99796 99708 99595 99450 99264 99017 98664 98376 97725
!1,5
!1
!0,5
0
0,5
1
1,5
2
2,5
c/ρ
99554 99367 99139 98867 98546 98168 97721 97183 96514 95605 94945 93319
97483 96868 96193 95454 94644 93749 92747 91602 90236 88451 87187 84134
90480 89224 87298 86582 85169 83668 82044 80240 78144 75467 73602 69146
75000 73406 71795 70151 68451 66667 64758 62659 60242 57178 55054 50000
52188 50932 49636 48290 46877 45376 43751 41947 39851 37175 35309 30854
29214 28599 27924 27185 26375 25480 24478 23333 21967 20182 18918 15866
12915 12728 12500 12228 11907 11529 11082 10545 09876 08967 08306 06681
04498 04463 04413 04346 04258 04145 04000 03814 03568 03214 02948 02275
01238 01234 01227 01216 01199 01175 01141 01094 01025 00920 00837 00621
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
Table D4b. Taux de sélection par l’atteinte d’au moins 1 sur 3 tests (union) en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 6
9 761 95817 95159 94721 94256 93829 93648 93326 99876 99770 99674 99379
!2 4
9 882 94449 93850 93640 93259 99863 99763 99611 99376 98987 98660 97725
!1,5 3
9 702 93210 99832 99692 99487 99201 98814 98290 97566 96478 95623 93319
!1
!0,5
0
0,5
1
1,5
2
2,5
c/ρ
99601 99264 98808 98223 97500 96620 95553 94244 92581 90266 88544 84134
97063 95838 94467 92948 91274 89420 87343 84963 82117 78376 75706 69146
87500 85109 82693 80226 77676 75000 72138 68989 65362 60767 57581 50000
66940 64395 61880 59359 56795 54145 51350 48318 44876 40588 37661 30854
40444 38936 37368 35736 34027 32222 30285 28158 25725 22683 20613 15866
18733 18221 17627 16951 16192 15344 14390 13302 12019 10380 09253 06681
06671 06569 06429 06249 06023 05747 05412 05006 04502 03830 03358 02275
01851 01839 01818 01787 01742 01679 01595 01485 01337 01127 00975 00621
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
80
L’étalonnage et la décision psychométrique
Table D4c. Taux de sélection par l’atteinte d’au moins 1 sur 4 tests (union) en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 8
9 851 97345 96190 95496 94793 94351 93830 93605 93143 99816 99717 99379
!2 6
9 732 95603 94754 94061 93732 93367 99868 99748 99540 99156 98808 97725
!1,5 4
9 801 93877 93568 99889 99766 99564 99253 98790 98093 96961 96020 93319
!1 3
9 366 99801 99551 99160 98606 97858 96875 95588 93859 91325 89366 84134
!0,5
0
0,5
1
1,5
2
2,5
c/ρ
99094 98254 97160 95823 94237 92383 90214 87636 84457 80156 77022 69146
93750 91291 88699 85969 83083 80000 76655 72931 68601 63069 59212 50000
77140 73660 70280 66936 63572 60126 56520 52638 48268 42873 39224 30854
49893 47414 44941 42455 39929 37330 34608 31685 28415 24428 21773 15866
24162 23226 22184 21046 19815 18487 17045 15453 13638 11404 09919 06681
08794 08597 08336 08010 07617 07155 06617 05989 05241 04292 03654 02275
02461 02436 02396 02337 02254 02144 02002 01823 01594 01288 01077 00621
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
Table D4d. Taux de sélection par l’atteinte d’au moins 1 sur 5 tests (union) en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 11
9 077 97664 96885 95872 95239 94690 94017 93735 93349 99843 99745 99379
!2 8
9 391 96590 95465 94683 93880 93652 93158 99818 99633 99262 98907 97725
!1,5 5
9 867 94771 93864 93520 99875 99728 99477 99070 98412 97276 96289 93319
!1 3
9 899 93394 99806 99549 99130 98506 97625 96402 94678 92039 89936 84134
!0,5
0
0,5
1
1,5
2
2,5
c/ρ
99720 99214 98414 97313 95900 94150 92011 89379 86038 81399 77956 69146
96875 94714 92259 89547 86581 83333 79741 75681 70900 64726 60394 50000
84193 80180 76275 72406 68509 64514 60335 55839 50786 44569 40381 30854
57843 54430 51129 47889 44661 41392 38018 34443 30498 25759 22648 15866
29229 27801 26267 24646 22945 21157 19261 17217 14940 12207 10431 06681
10869 10551 10144 09650 09073 08415 07672 06830 05857 04664 03886 02275
03067 03026 02962 02868 02741 02577 02372 02122 01815 01420 01158 00621
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
81
Seuils et taux de sélection multivariés (Section D)
Table D5a. Taux de sélection par l’atteinte de 2 sur 2 tests (intersection) en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 98762 98766 98773 98784 98801 98825 98859 98907 98975 99080 99163 99379
!2 95502 95537 95587 95654 95742 95855 96000 96186 96432 96786 97052 97725
!1,5 87085 87272 87500 87772 88093 88471 88918 89455 90124 91033 91694 93319
!1 70786 71401 72076 72815 73625 74520 75522 76667 78033 79818 81082 84134
!0,5 47812 49068 50364 51710 53123 54624 56249 58053 60149 62825 64691 69146
0 25000 26594 28205 29849 31549 33333 35242 37341 39758 42822 44946 50000
0,5 09520 10776 12072 13418 14831 16332 17956 19760 21856 24533 26398 30854
1 02517 03132 03807 04546 05356 06251 07253 08398 09764 11549 12813 15866
1,5 00446 00633 00861 01133 01454 01832 02279 02817 03486 04395 05055 06681
2 3
0 518 03872 00137 00204 00292 00405 00550 00736 00983 01336 01602 02275
2,5 4
0 386 04804 03151 03262 03429 03669 00101 00149 00217 00322 00405 00621
c/ρ 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
Table D5b. Taux de sélection par l’atteinte de 3 sur 3 tests (intersection) en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 98149 98161 98182 98213 98258 98321 98405 98515 98663 98873 99025 99379
!2 93329 93431 93571 93751 93977 94253 94588 94994 95498 96170 96642 97725
!1,5 81267 81779 82373 83049 83808 84656 85610 86698 87981 89620 90747 93319
!1 59556 61064 62632 64264 65973 67778 69715 71842 74275 77317 79387 84134
!0,5 33060 35605 38120 40641 43205 45855 48650 51682 55124 59412 62339 69146
0 12500 14891 17307 19774 22324 25000 27862 31011 34638 39233 42419 50000
0,5 02937 04162 05533 07052 08726 10580 12657 15037 17883 21624 24294 30854
1 00399 00736 01192 01777 02500 03380 04447 05756 07419 09734 11456 15866
1,5 3
0 298 03790 00168 00308 00513 00799 01186 01710 02434 03522 04377 06681
2 4
0 118 04501 03150 03360 03741 00137 00237 00389 00624 01013 01340 02275
2,5 6
0 239 05183 05841 04279 04744 03171 03352 03674 00124 00230 00326 00621
c/ρ 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
82
L’étalonnage et la décision psychométrique
Table D5c. Taux de sélection par l’atteinte de 4 sur 4 tests (intersection) en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 97539 97564 97604 97663 97746 97856 97998 98177 98406 98712 98923 99379
!2 91206 91403 91664 91990 92383 92845 93383 94011 94759 95708 96346 97725
!1,5 75838 76774 77816 78954 80185 81513 82955 84547 86362 88596 90081 93319
!1 50107 52586 55059 57545 60071 62670 65392 68315 71585 75572 78227 84134
!0,5 22860 26340 29720 33064 36428 39874 43480 47362 51732 57127 60776 69146
0 06250 08709 11301 14031 16917 20000 23345 27069 31399 36931 40788 50000
0,5 00906 01746 02840 04177 05763 07617 09786 12364 15543 19844 22978 30854
1 3
0 634 00199 00449 00840 01394 02142 03125 04412 06141 08675 10634 15866
1,5 4
0 199 03123 03432 00111 00234 00436 00747 01210 01907 03039 03980 06681
2 6
0 268 05397 04246 04939 03268 03633 00132 00252 00460 00844 01192 02275
2,5 8
0 149 07655 06810 05504 04207 04649 03170 03395 03857 00184 00283 00621
c/ρ 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
Table D5d. Taux de sélection par l’atteinte de 5 sur 5 tests (intersection) en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 96933 96974 97038 97132 97259 97423 97628 97878 98185 98580 98842 99379
!2 89131 89449 89856 90350 90927 91585 92328 93170 94143 95336 96114 97725
!1,5 70771 72199 73733 75354 77055 78843 80739 82783 85060 87793 89569 93319
!1 42157 45570 48871 52111 55339 58608 61982 65557 69502 74241 77352 84134
!0,5 15807 19820 23725 27594 31491 35486 39665 44161 49214 55431 59619 69146
0 03125 05286 07741 10453 13419 16667 20259 24319 29100 35274 39606 50000
0,5 00280 00786 01586 02687 04100 05850 07989 10621 13962 18601 22044 30854
1 3
0 101 03606 00194 00451 00870 01494 02375 03598 05322 07961 10064 15866
1,5 5
0 133 04229 03136 03480 00125 00272 00523 00930 01588 02724 03711 06681
2 8
0 609 06410 05535 04317 03120 03348 03842 00182 00367 00738 01093 02275
2,5 11
0 923 08336 06115 05128 05761 04310 04983 03265 03651 00157 00255 00621
c/ρ 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
83
Seuils et taux de sélection multivariés (Section D)
Table D6a. Taux de sélection par l’atteinte de (au moins) 2 sur 2 tests en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 98762 98766 98773 98784 98801 98825 98859 98907 98975 99080 99163 99379
!2 95502 95537 95587 95654 95742 95855 96000 96186 96432 96786 97052 97725
!1,5 87085 87272 87500 87772 88093 88471 88918 89455 90124 91033 91694 93319
!1 70786 71401 72076 72815 73625 74520 75522 76667 78033 79818 81082 84134
!0,5 47812 49068 50364 51710 53123 54624 56249 58053 60149 62825 64691 69146
0 25000 26594 28205 29849 31549 33333 35242 37341 39758 42822 44946 50000
0,5 09520 10776 12072 13418 14831 16332 17956 19760 21856 24533 26398 30854
1 02517 03132 03807 04546 05356 06251 07253 08398 09764 11549 12813 15866
1,5 00446 00633 00861 01133 01454 01832 02279 02817 03486 04395 05055 06681
2 3
0 518 03872 00137 00204 00292 00405 00550 00736 00983 01336 01602 02275
2,5 4
0 386 04804 03151 03262 03429 03669 00101 00149 00217 00322 00405 00621
c/ρ 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
Table D6b. Taux de sélection par l’atteinte d’au moins 2 sur 3 tests en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 3
9 885 93763 93563 93268 99886 99833 99768 99689 99598 99494 99438 99379
!2 99847 99748 99619 99460 99272 99059 98824 98570 98301 98018 97873 97725
!1,5 98721 98258 97752 97217 96663 96100 95534 94970 94411 93860 93588 93319
!1 93247 92075 90964 89916 88931 88005 87135 86317 85547 84821 84473 84134
!0,5 77316 75996 74852 73849 72960 72164 71446 70794 70198 69651 69394 69146
0 50000 50000 50000 50000 50000 50000 50000 50000 50000 50000 50000 50000
0,5 22684 24004 25148 26151 27040 27836 28554 29206 29802 30349 30606 30854
1 06753 07925 09036 10084 11069 11995 12865 13683 14453 15179 15527 15866
1,5 01279 01742 02248 02786 03337 03900 04466 05030 05589 06140 06412 06681
2 00153 00252 00381 00540 00728 00941 01176 01430 01699 01982 02127 02275
2,5 3
0 115 03237 03436 03732 00114 00167 00232 00311 00402 00506 00562 00621
c/ρ 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
84
L’étalonnage et la décision psychométrique
Table D6c. Taux de sélection par l’atteinte d’au moins 2 sur 4 tests en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 6
9 047 95286 94688 94035 93764 93512 93104 99849 99761 99634 99545 99379
!2 4
9 537 93812 93473 99884 99784 99640 99447 99198 98884 98479 98215 97725
!1,5 99887 99721 99459 99101 98651 98114 97494 96790 95986 95028 94432 93319
!1 98593 97654 96579 95412 94184 92908 91588 90213 88747 87091 86079 84134
!0,5 90970 88593 86386 84326 82384 80531 78732 76943 75096 73034 71758 69146
0 68750 66561 64675 62996 61454 60000 58586 57161 55645 53864 52690 50000
0,5 36339 36602 36681 36627 36465 36204 35840 35356 34701 33732 32971 30854
1 12098 13503 14651 15580 16322 16898 17317 17578 17653 17450 17134 15866
1,5 02445 03205 03955 04667 05324 05914 06427 06851 07163 07308 07255 06681
2 00301 00484 00709 00965 01240 01522 01798 02057 02282 02443 02470 02275
2,5 3
0 229 03468 03842 00137 00204 00285 00375 00471 00565 00645 00669 00621
c/ρ 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
Table D6d. Taux de sélection par l’atteinte d’au moins 2 sur 5 tests en fonction de c et de ρ (virgule décimale omise) ρ\c 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
!2,5 8
9 260 96286 95641 94799 94270 93799 93543 93085 99832 99705 99606 99379
!2 5
9 868 94818 93899 93657 93141 99822 99678 99467 99166 98730 98415 97725
!1,5 4
9 057 93477 99389 99638 99330 98907 98359 97673 96817 95700 94942 93319
!1 99723 99247 98529 97605 96509 95263 93875 92333 90854 88466 87083 84134
!0,5 96587 94412 92145 89863 87589 85318 83026 80664 78134 75185 73285 69146
0 81250 77601 74459 71659 69091 66667 64310 61934 59409 56439 54483 50000
0,5 48928 47581 46300 45058 43826 42573 41261 39834 38195 36091 34597 30854
1 18095 19349 20187 20716 21001 21081 20968 20652 20084 19103 18272 15866
1,5 03896 04928 05852 06643 07294 07807 08177 08395 08431 08194 07871 06681
2 00494 00777 01104 01450 01793 02114 02397 02626 02778 02806 02727 02275
2,5 3
0 381 03768 00135 00214 00308 00413 00521 00624 00710 00759 00752 00621
c/ρ 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,95 1
Section E Différentiels de sélection multivariés Introduction Le « différentiel de sélection », déjà rencontré dans la section A, dénote l’augmentation de rendement due au recrutement de personnes sélectionnées. En fait, les candidats, évalués par une procédure produisant un score X, donneront éventuellement un rendement de mesure Y, la corrélation entre les deux étant le coefficient de validité prédictive, ρ(X,Y). Il existe donc un lien entre test de sélection (X) et rendement (Y), représenté par l’équation linéaire : Y^ = b X + a , (1) où b = ρ(X,Y) σY / σX et a = µY ! b µX . La sélection suppose qu’on retienne seulement les candidats atteignant un score seuil XC, soit ceux pour qui X $ XC, de sorte que, pour eux, la valeur attendue de rendement µ*Y, soit µ* = E{ Y^ * } = E{ b X + a | X $ X } (2) Y
C
soit améliorée. La valeur de cette amélioration, µ*Y ! µY, dépend donc à la fois de l’avantage de sélection, en X, et du coefficient ρ(X,Y) :
où :
µ*Y ! µY = σY × ρ(X,Y) × ∆ ,
(3)
∆ = (µ*X ! µX) / σX ,
(4)
∆ étant le différentiel de sélection simple. S’inspirant d’une proposition faite par Brogden en 1951, Laurencelle (1998a,b) développe le concept de différentiel de sélection et l’étend à une procédure de sélection qui comporte plusieurs tests prédictifs correspondant à autant d’emplois : c’est le concept de différentiel de sélection multiple. Pour l’agence de sélection comme pour l’employeur éventuel, l’approche multivariée a pour intérêt spécifique de répartir les candidats de manière plus profitable que si on recourait à une approche univariée habituelle. Pour illustrer la chose, imaginons une situation dans laquelle trois catégories d’emploi sont en jeu et trois tests appropriés disponibles. Notons que, par « test approprié », on entend toute procédure comportant une ou plusieurs sources d’information quantitative et résultant éventuellement en un score, le prédicteur, qui entretient une relation linéaire, une corrélation, avec l’emploi visé. Les trois tests produisent chacun un score : X1, X2, X3, chacun avec un seuil à atteindre : C1, C2, C3, et un rendement espéré : Y^1, Y^2, Y^3 pour les trois emplois en concours, ce en fonction de leurs coefficients de validité prédictive respectifs : ρ(X1,Y1), ρ(X2,Y2), ρ(X3,Y3).
86
L’étalonnage et la décision psychométrique
Soumis aux trois tests, un candidat donné obtient les scores X1, X2, X3. S’il échoue aux trois tests, il est remercié. S’il réussit un seul test, disons le test 1 en obtenant X1 > C1, alors il est assigné à l’emploi 1, et l’avantage de rendement pour l’employeur est, en espérance, estimé par l’expression (3). Si, cependant, il réussit à deux ou trois tests, l’agence de sélection peut recommander son recrutement dans l’emploi pour lequel il obtient la meilleure qualification, et alors l’avantage de rendement pour l’employeur sera supérieur à celui estimé par l’expression (3). L’avantage de rendement par l’attribution de candidats à l’emploi pour lequel ils se qualifient le plus dépend alors de la règle d’attribution appliquée et définit trois catégories de différentiels de sélection multivariés.
Le contexte multivarié de la sélection, avec k catégories d’emplois à combler et k tests de qualification, permet d’envisager trois stratégies différentes d’attribution, chacune avec son avantage de rendement propre, son « différentiel » : 1. Différentiel de sélection multiple (∆). Chaque candidat, soumis aux k tests de qualification, est retenu s’il se qualifie au moins à l’un des tests, et il est attribué à l’emploi pour lequel il se qualifie le plus. 2. Différentiel de sélection polyvalent (∆p). Un candidat n’est retenu que s’il se qualifie aux k tests, et il est alors attribué à l’emploi pour lequel il se qualifie le plus. 3. Différentiel de sélection conjoint (∆c). Un candidat n’est retenu que s’il se qualifie aux k tests, et il est attribué au hasard ou comme au hasard à l’un des k emplois. La règle la plus souple, celle du différentiel multiple, permet de recruter quelqu’un dès qu’il se qualifie pour l’un des emplois, mais elle tire avantage du contexte de testing multivarié en discriminant le meilleur score du candidat aux tests et en le recrutant dans l’emploi où son rendement espéré est le plus grand. Pour les deux autres règles, seuls sont retenus les candidats multi-qualifiés, donc mutables d’un emploi à l’autre : la règle « polyvalente » attribue tout de même le candidat à l’emploi qui lui sied le mieux, au contraire de la règle « conjointe » qui ne fait pas la différence d’un emploi à l’autre. Pour arriver à fournir des estimations de l’avantage de rendement correspondant aux règles ci-dessus et aux conditions de testing et d’emploi qui s’y appliquent, plusieurs simplifications s’imposent, dont voici les principales : (a)
Population de candidats infinie. Les calculs réfèrent à une population hypothétique, en fait un « bassin de candidats », dont les caractéristiques psychométriques sont établies, notamment celles relatives aux scores (Xi) des tests de sélection et aux mesures (Yi) de rendement à l’emploi.
Différentiels de sélection multivariés (Section E)
87
(b)
Distribution multinormale homogène des scores aux tests. La loi normale multivariée à corrélations homogènes, égales à ρ, sert de modèle pour la distribution conjointe des scores des k tests, la valeur du paramètre ρ pouvant varier de 0 à 1.
(c)
Relation linéaire entre le rendement à l’emploi et le score au test. Cette relation, supposée linéaire, est représentée pour chaque emploi par le coefficient de validité prédictive ρ(Xi,Yi).
(d)
Égalité des coefficients de validité prédictive. Les relations prédictives entre le score au test et le rendement à l’emploi sont supposées de même force d’un emploi à l’autre.
Ces différentes simplifications, dont les implications pour une situation de sélection réelle doivent être sérieusement considérées, permettent de ramener le calcul de l’avantage de rendement (en Y) au calcul de l’avantage de sélection (en X) : l’expression (3), ci-dessus, pivote alors sur son élément essentiel, le différentiel lui-même, qu’il soit de type ∆, ∆p ou ∆c.
Nature et présentation des tables de la section E Les tables E1 à E4 présentent les différentiels de sélection multiples pour des situations de k = 2 à k = 5 emplois respectivement : la partie a de la table détaille les valeurs ∆(P), c’est-àdire selon la fraction P de population sollicitée, tandis que la partie b le fait pour ∆(c), selon le seuil de sélection standardisé c, équivalant à (XC ! X) / σX. Les tables E5 à E8 présentent les différentiels polyvalents ∆p(P) et ∆p(c) correspondants. Quant aux différentiels conjoints, de type ∆c, ce sont en fait des différentiels simples (voir tables A1 et A2), correspondant aux fractions P ou seuils c déterminés pour les différentiels polyvalents ∆p : nous n’en avons pas élaboré une nouvelle table. La table E9, enfin, présente certaines statistiques intéressantes émanant de la loi multinormale homogène, soit l’espérance du maximum de k variables normales corrélées à ρ et bornées depuis c, de même que l’aire du volume de probabilité borné inférieurement par l’hyperplan (c, c, .. , c). Les différentes formes du différentiel de sélection multivarié sont gouvernées par trois paramètres, soit la dimension (ou nombre de tests) k, la corrélation commune entre les tests prédictifs ρ, et le taux de sélection, sous forme du seuil c ou de la fraction P de population sollicitée. Les valeurs de P et de c proposées semblent représentatives des besoins en matière de sélection. Le lecteur remarquera que les seuils c égaux à 1,2816, 1,6449 et 2,3263 correspondent respectivement à des taux de sélection univariée (T ) de 0,10, 0,05 et 0,01.
88
L’étalonnage et la décision psychométrique
Notons d’une part que ρ, la corrélation supposée égale entre les k tests, peut vraisemblablement varier entre 0 et 1. Avec ρ = 0, les tests (et les emplois) seraient statistiquement indépendants entre eux ; avec ρ = 1 par contre, les k tests seraient essentiellement interchangeables, et tous les différentiels se confondraient alors avec les différentiels simples présentés dans la section A. Le paramètre du taux de sélection, d’autre part, mérite une discussion particulière dans le présent contexte multivarié. Pour le différentiel de sélection simple (univarié), les relations entre seuil de sélection c, taux de sélection T par test et fraction P de population sollicitée sont simples, soit : P = T = 1 ! Φ(c) , mais ce n’est plus le cas en mode multivarié, avec k $ 2 et ρ < 1. Prenons l’exemple de k = 3 tests à corrélation mutuelle ρ = 0,6. Pour le différentiel multiple, le taux de rétention selon le test 1 (en appliquant p. ex. x1 $ c) sera T1 (le « 1 » en indice réfère ici à la qualification par un seul test). De plus, cependant, il est possible que la personne non qualifiée au test 1 le devienne par le test 2, définissant encore le taux T1 pour ce test doté du même seuil c. Or, cette seconde fraction T1, découlant du test 2, n’est pas la même que celle attachée au test 1 ; elle en est partiellement indépendante, le degré de recoupement des qualifications étant déterminé par la corrélation ρ (= 0,6 dans le cas présent) entre les tests. Possiblement aussi, la personne peut se qualifier à la fois au test 1 et au test 2, selon un taux de qualification conjointe T2, lequel dépend du seuil c et de la corrélation ρ. La même possibilité advient aussi pour le test 3, et cætera, de sorte que, au total, la fraction de population sollicitée se situera entre T1 et k × T1 : c’est cette fraction totale que nous désignons P, satisfaisant l’expression générale : P $ T1 = 1 ! Φ(c) .
(5)
La section mathématique, plus bas, explicite ces relations.
Exercices de lecture des tables 1. Avec trois emplois et trois tests à intercorrélation ρ = 0,6, on veut retenir les candidats débordant la moyenne normative d’un écart-type, soit c = 1. Trouver le différentiel de sélection multiple approprié ainsi que la fraction de population rejointe. Les différentiels multiples apparaissant dans les tables E1-E4, nous trouvons dans la table E2b, pour c = 1 et ρ = 0,6, le différentiel ∆ = 1,7141 et la fraction P = 0,3029. Ainsi, le gain de rendement espéré (µ*Y ! µY) serait estimé par = σY × ρ(X,Y) × 1,7141 pour chaque emploi, en sollicitant un peu plus de 30 % (~ 0,3029) de la population. Si on avait procédé en mode univarié, un emploi à la fois, la fraction sollicitée par
Différentiels de sélection multivariés (Section E)
89
test eût été de 1 ! Φ(c) = 1 ! 0,84134 = 0,15866, avec un différentiel de 1,52514 (voir table A2). 2. Nous avons k = 4 tests à intercorrélation ρ = 0,6 et souhaitons obtenir un avantage ∆ . 2. Quel seuil c devrions-nous appliquer ? La ligne ρ = 0,6 de la table E3b indique ∆ = 1,9622 pour c = 1,2816 et ∆ = 2,2158 pour c = 1,6449. Pour estimer c tel que ∆(c) . 2, l’interpolation linéaire convient ici, soit c = 1,2816 + (1,6449 ! 1,2816) × [(2 ! 1,9622)/(2,2158 ! 1,9622) .1,3358. [Le seuil plus précis pour ∆ = 2 eût été c = 1,3396, tandis que ∆(c = 1,3358) . 1,9974.] 3. Quels sont les différentiels polyvalents et conjoints applicables avec 3 tests à corrélation 0,4, pour P = 0,10 ? Pour P = 0,02 ? Nous devons consulter à présent les tables E5-E8, notamment la table E6a dans laquelle, pour P = 0,10, nous trouvons tout de suite c = 0,4363 (vis-à-vis de ρ = 0,4) et ∆p = 1,7367 pour le différentiel polyvalent ; quant au différentiel conjoint, c.-à-d. le différentiel simple convenant à c = 0,4363, la table A2 indique ∆ = 1,09028 pour c = 0,43 et ∆ = 1,09748 pour c = 0,44, d’où, par interpolation linéaire, ∆c . 1,0948, la valeur juste. Les tables ne fournissent rien pour P = 0,02, cependant les valeurs des seuils et des différentiels varient presque linéairement avec u(P) = − ln( P ) . Nous repérons c = 0,7389 pour P = 0,05 et c = 1,3022 pour P = 0,01. Interpolant avec u(P), nous calculons 0,7389 + (1,3022 ! 0,7389) × (u(0,02) ! u(0,05)) / (u(0,01) ! u(0,05) . 1,0741 ; le même procédé fournit ∆p = 2,1769. Utilisant encore c = 1,0741 et consultant la table A2, nous obtenons ∆c . 1,5848 comme estimation du différentiel conjoint. [Les valeurs exactes seraient ici c = 1,0775, ∆p = 2,1860 et ∆c = 1,5876.] 4. Trouver l’espérance du maximum de 4 variables normales standards à corrélation ρ = 0,7 ; trouver le maximum si chaque variable est bornée inférieurement à c = 1,5. La table E9 fournit en fait l’information de base utile à la détermination des différentiels de sélection polyvalents, soit l’espérance du maximum de k variables normales corrélées et sélectionnées à partir d’un seuil c. La table E9h, pour ρ = 0,7, fournit m = 0,56420 comme maximum de 4 variables normales corrélées (sans restriction, c.-à-d. c = !4) et m = 2,67074 si l’échantillonnage débute au-delà de c = 1,5.
90
L’étalonnage et la décision psychométrique
Exemples élaborés 1. Détermination du gain espéré après sélection. En sélectionnant les meilleurs 10 % parmi les candidats à deux emplois, le bureau de la gestion du personnel s’interroge sur le gain de production espéré. Les coefficients de corrélation (ou de validité prédictive) entre chaque test d’admission et l’emploi correspondant sont de ρ1 = 0,65 et ρ2 = 0,75 respectivement, et la corrélation entre les deux tests, ρ1,2 = 0,6. En première interprétation, « les meilleurs 10 % » réfèrent vraisemblablement aux candidats qui se classent parmi les 10 % meilleurs à chaque test, soit au-delà du seuil standard c = 1,2816. Considérant la table E1b, avec l’intercorrélation ρ = 0,6, nous trouvons ∆2 = 1,8392 et P = 0,1610. Cela indique d’abord que le taux de rétention global de candidats sera (approximativement) de 16 %. Ensuite, en moyennant les coefficients de validité prédictive selon ρ(X,Y) = (0,65 + 0,75) / 2 = 0,70, le gain moyen espéré pour les deux emplois est de ∆ × ρ(X,Y) = 1,8392 × 0,70 . 1,287 en valeurs standardisées, l’emploi 1 avec 1,195 et l’emploi 2 avec 1,379. En seconde interprétation, « les meilleurs 10 % » pourraient désigner la fraction supérieure de 10 % dans la population, donc une sélection plus sévère que celle touchant les 16,10 % de tantôt. La table E1a indique cette fois c = 1,5560 et ∆2 = 2,0527, avec un gain espéré moyen ∆2 de 1,437, soit 1,334 et 1,540 pour les emplois 1 et 2. 2. Repérage du seuil à appliquer en vue d’un gain de rendement déterminé. Une usine de recyclage de produits électroniques emploie des personnes qui trient (à la main) de petits composants, selon la taille, la forme ou la couleur. Les statistiques de production à l’heure sont de (µY =) 350, 560 et 470 pièces, avec des écarts-types de (σY =) 60, 100 et 80 pièces, pour le tri en taille, forme et couleur respectivement. Des tests d’habileté oculomanuelle, normés chacun avec une moyenne (µX) de 500 et un écart-type (σX) de 150, ont une corrélation prédictive de 0,70, 0,75 et 0,80 avec les rendements respectifs correspondants, leurs intercorrélations étant de 0,80, 0,85 et 0,90. Quel seuil de sélection devrait-on appliquer aux tests oculomanuels dans le but de hausser la production de 15 % ? Les scénarios de situations réelles, telles que celle décrite ici, doivent être quelque peu simplifiés pour trouver solution. Nous pouvons procéder comme suit. 1) Augmenter la production des trieurs de taille de 15 % équivaut à 15 % de 350 pièces, soit 52,5 pièces. Divisant par l’écart-type σY = 60 et encore par le coefficient de validité prédictive ρ(X,Y) = 0,70, le différentiel de sélection souhaité sera de 52,5 / (60 × 0,70) = 1,25. Les mêmes calculs donnent ∆ = 1,12 pour la forme et ∆ = 1,1015625 pour la couleur. Enfin, le ∆ moyen espéré est d’à peu près 1,1572.
91
Différentiels de sélection multivariés (Section E)
2) Les corrélations entre les tests d’habileté (0,80, 0,85, 0,90) ont un coefficient moyen de 0,85. Les tables E2a et E2b fournissent des ∆3 selon ρ = 0,8 et ρ = 0,9 : l’interpolation linéaire entre les deux devrait convenir. Interpolant donc pour ρ = 0,85, nous aurions ∆ . 1,1189 pour c = 0 et ∆ . 1,7601 pour c = 1 d’où, linéairement encore, c . 0,0597 pour ∆ = 1,1572. Appliquant enfin le seuil standardisé c = 0,0597, le score minimal à exiger pour les tests oculomanuels sera de XC = 500 + 150 × 0,0597 = 508,955 . 509. Des interpolations semblables indiquent un taux de sélection global (P) d’environ 61 %. 3) Une autre stratégie pour atteindre la hausse de productivité désirée consisterait à exiger du personnel qu’il soit polyvalent, chaque employé pouvant être affecté à une table de tri ou à l’autre, selon sa meilleure aptitude. La hausse de rendement référerait ici aux différentiels polyvalents des tables E6a et E6b. À la table E6a, nous retrouvons le sous-tableau suivant, sur lequel baser nos interpolations. P = 0,50
P = 0,10
ρ
c
∆p3
c
∆p3
0,9
!0,2671
1,0156
0,9850
1,9164
0,8
!0,3770
1,0747
0,8443
1,9201
0,85
%0,32205
1,04515
0,91465
1,91825
Nous interpolons d’abord pour c et ∆c en vue d’une intercorrélation moyenne de ρ = 0,85. Ensuite, l’interpolation linéaire pour ∆ = 1,1572 (entre ∆ = 1,04515 et 1,91825) donne c . !0,1633 et un critère XC d’au moins 500 + 150 × (!0,1633) = 475,505 . 4761, à satisfaire dans les trois tests à la fois. Même si le score liminaire par test est moins sévère, le taux de sélection l’est davantage. En fait, interpolant pour ∆ = 1,1572 sur u(P) = − ln P, à partir de u(0,50) . 0,833 et u(0,10) . 1,517, nous obtenons u . 0,92045 et P = exp(!u2) . 0,4286, soit un taux de sélection de 43 %. 4) Ne retenir que ceux qui se qualifient aux trois tests mais en les attribuant au hasard aux trois emplois (dans un but de polyvalence accrue) implique le différentiel conjoint ∆c, qu’on doit interpréter comme un différentiel simple. Consultant la table A3, nous trouvons c = 0,51218 pour ∆ = 1,15 et c = 0,57985 pour ∆ = 1,16, d’où l’interpolation linéaire pour ∆c = 1,1572 donne c = 0,5219, puis XC = 578. Un tel seuil entraîne évidemment un taux de sélection plus sérieux, qu’on peut estimer par les données P de la table E6b. Transformant les quantités P en u(P), nous obtenons d’abord, pour c = 0, u(0,3923) . 0,96733 avec ρ = 0,8 et u(0,3464) . 1,02964 avec ρ = 0,9, d’où
1. Pour ρ = 0,85 et ∆p3 = 1,1572, le seuil précis applicable est c = !0,1533, aboutissant à XC . 477.
92
L’étalonnage et la décision psychométrique
u1 . 0,99849 pour ρ = 0,85 ; puis, de la même manière, u2 = 1,56957 pour c = 1,56959. Enfin, interpolant entre u1 et u2 pour c = 0,5219, nous obtenons u . 1,29654 puis P . 0,18622, soit un taux de sélection estimé de 19 %, un coût plutôt élevé mais qui garantit un surcroît de production de 15 % sur une base parfaitement polyvalente d’employés.
Justification mathématique Théorie des différentiels de sélection multivariés Trois paramètres et trois règles d’évaluation déterminent la théorie des différentiels de sélection multivariés, tous basés sur la loi normale multivariée homogène (section D, éq. 4-6) : les paramètres du seuil de sélection c, de la fraction de population sélectionnée P et du différentiel obtenu « ∆ » , et les règles du différentiel multiple (∆), polyvalent (∆p) et conjoint (∆c). La loi multinormale elle-même se caractérise par son ordre k (correspondant au nombre de tests/emplois considérés) et sa corrélation ρ (la valeur commune d’intercorrélation entre les k tests). La fixation des seuils c selon différents critères d’échantillonnage est exposée à la section D. Théorie du différentiel multiple. La règle qui définit le différentiel de sélection multiple spécifie que le candidat sera retenu s’il rencontre le seuil d’au moins un parmi les k tests, et qu’il sera attribué à l’emploi correspondant au test auquel il s’est le mieux qualifié. C’est donc la « règle d’union » (section D, éq. 8) qui s’applique ici, symbolisée par : P = 1 ! bk,ρ(c) ,
(6)
où, rappelons-le, bk,ρ(c) est l’hyper-volume inférieur de probabilité défini par Pr{ x1 < c, x2 < c, ..., xk < c }, le taux de sélection par test T (= T1) étant alors T = 1 ! Φ(c).
(7)
Or, la détermination du gain de rendement, ∆, est basée sur une répartition optimale de l’ensemble des candidats recrutés. •
Certains candidats ne se qualifiant qu’à un seul test apporteront une contribution au rendement égale au différentiel simple ∆(c), tel que présenté dans la section A.
•
D’autres candidats, qualifiés sur deux des k tests, seront assignés à l’emploi pour lequel ils obtiennent le meilleur score. Leur contribution correspond alors au maximum de 2 scores supraliminaires, i.e. max (x1, x2), où x1, x2 $ c, l’espérance étant dénotée ici m2(c).
2. La valeur précise calculée pour c = 0,5219 et ρ = 0,85 est de P = 0,1897.
93
Différentiels de sélection multivariés (Section E)
•
En général, certains se qualifieront dans r parmi les k tests, et ils seront assignés selon le meilleur score, avec une contribution dénotée mr(c), soit l’espérance du maximum de r variables multinormales standards corrélées, chacune bornée à c : mr(c) = E{ max(x1, x2, ..., xr) | x1, x2, ..., xr $ c }
(8)
Notons que, évidemment, c < ∆(c) = m1(c) # m2( c) # ... # mr(c), l’égalité des espérances se produisant seulement lorsque ρ = 1. La proportion de candidats se qualifiant dans 1, 2, ou r tests varie selon r et ρ. Par exemple, lorsque ρ = 1, le fait de se qualifier dans 1 test implique qu’on se qualifie aussi dans tous les autres, alors que, si ρ = 0, les coqualifications se produisent au hasard. Le gain total, basé sur la fraction P de population, repose sur le gain obtenu pour chaque catégorie de candidats. Il y a, disons, T = T1 candidats (en proportion de la population) qualifiés à 1 test, T2 à 2 tests, etc. Dans la situation impliquant, disons, k = 3 tests, il y aurait T3 candidats qualifiés aux 3 tests à la fois, candidats dont l’apport spécifique est dénoté m3. Quant à ceux qualifiés à 2 tests, il y en a T2 aux tests 1 et 2, T2 encore aux tests 1 et 3, et T2 aux tests 2 et 3. Cependant, parmi les T2 qualifiés à 1 et 2, par exemple, il y a une portion T3 qui l’est aussi au test 3, portion qu’il faut exclure ; le total des candidats qualifiés seulement à 2 tests, quels qu’ils soient, sera donc 3T2 ! 3T3, ce contingent apportant un gain de rendement dénoté m2. Enfin, il reste à déterminer les candidats qualifiés à un seul parmi les 3 tests. Au test 1, par exemple, la portion qualifiée serait T1 = T, mais elle inclut ceux qui sont qualifiés aussi au test 2 (T2) et au test 3 (T2). En éliminant ces 2 derniers sous-groupes, par T ! 2T2, on se trouve à éliminer aussi deux fois les T3 personnes qualifiées aux 3 trois tests, opération qu’il faut corriger, pour obtenir T ! 2T2 + T3 pour chaque test, d’où, au total, 3T ! 6T2 + 3T3 pour les individus qualifiés à un seul test et contribuant au rendement global par la quantité m1 = ∆(c). Le gain global est alors une moyenne pondérée des gains spécifiques des sousgroupes, la part de chacun servant de pondération : ∆3 =
.
(9)
L’expression générique suivante, inspirée de Laurencelle (1998b), fournit la solution générale :
∆k,r(P) =
. (10)
94
L’étalonnage et la décision psychométrique
Le développement binomial « (1 ! 1)r » donne « 1 ! r + ‡ 2r ! ... ± 1 », l’indice u variant de 0 à r et déterminant la fraction T correspondante. Ainsi, pour le premier terme à gauche avec k = 3, le coefficient est ‡ 31 [T1+u(1 ! 1)2] = ‡ 31 [T1+u(1 ! 2 + 1)] = 3[1 × T1 ! 2 × T2 + 1 × T3] = 3T1 ! 6T2 + 3T3, tel que dans l’expression (9) ci-dessus. Il est intéressant de noter que la fraction globale de population3 engagée dans le calcul du différentiel ∆, la fraction P, définie par (6), peut s’obtenir autrement. Considérons que Tk désigne la fraction de population qualifiée sur k tests, c’est-à-dire l’hyper-volume supérieur de probabilité hk,r(c) défini par Pr{ x1 > c, x2 > c, ..., xk > c } et opposé à bk,r(c), alors : P = 1 ! bu,ρ(c) = 1 ! [1 !hu,ρ(c)](k)
(11)
= 1 ! [1 ! k × h1,ρ(c) + ‡ 2k h2,ρ(c) ! ... ± hk,ρ(c)] = k × h1,ρ(c) ! ‡ 2k h2,ρ(c) + ... ± hk,ρ(c) . Ainsi, pour l’exemple du cas k = 3, nous obtenons P = 3h1!3h2 + h3, correspondant à la somme des coefficients dans (9) est 3T1 ! 6T2 + 3T3 + 3T2 ! 3T3 + T3 = 3T1 ! 3T2 + T3. La détermination des valeurs numériques des différentiels multiples dépend enfin du calcul des quantités bk,ρ(c) et hk,ρ(c), déjà considérées à la section D, et des quantités (8), les mr(c), que nous considérons plus loin. Théorie du différentiel polyvalent. Pour être recruté, chaque candidat doit rencontrer le critère Xi $ Ci à chacun des k tests, et il est ensuite attribué à l’emploi pour lequel il s’est le plus qualifié. La « règle d’intersection » (section D, éq. 9) s’applique donc ici, et la fraction, P = hk,ρ(c), de population concernée, celle occupant le coin supérieur droit de l’hyper-volume normal, peut s’obtenir par : P = hk,ρ(c) = [1 ! bu,ρ(c)](k)
(12)
= 1 ! k × b1(c) + ‡ 2k b2,ρ(c) ! ... ± bk,ρ(c) . Quant au gain de rendement espéré, il émane exclusivement de ce groupe de candidats et correspond ainsi directement au maximum des k scores qualifiés obtenus, soit ∆p = mk,ρ(c). Théorie du différentiel conjoint. Le recrutement hautement sélectif, consistant à retenir les seuls candidats satisfaisant aux k tests à la fois, est appliqué comme dans le cas du différentiel polyvalent, hormis que, ici, les candidats sont distribués au hasard parmi les k emplois, sans égard pour leur profil particulier de qualifications. Ainsi, la fraction de population visée est encore P = hk,ρ(c) ; toutefois, comme l’attribution aux emplois s’opère 3. Le concept de la fraction P trouvé dans Laurencelle (1998a, b), confus et confusément appliqué, a donné lieu à des calculs impropres et des valeurs erronées des différentiels multiples et polyvalents. Le document présent rectifie ces erreurs.
95
Différentiels de sélection multivariés (Section E)
au hasard, le gain espéré n’est plus un maximum mais une moyenne et correspond ici au différentiel de sélection simple, soit ∆c = m1(c) = ∆(c), tel qu’on le retrouve à la section A. Le calcul des quantités mk,ρρ(c) La densité de la loi multinormale homogène. La loi multinormale standard à corrélation ρ homogène donne lieu à une densité relativement simple (section D, éq. 6), qui permet notamment une intégration unidimensionnelle de la quantité bk,ρ(c) (section D, éq. 7) déjà considérée. La densité du maximum de k variables multinormales homogènes. Soit y = max (x1, x2, ..., xk), où les xi obéissent à la densité multinormale f (x1, x2, ..., xk), donnée à la section D, éq. 6, sous la contrainte que x1 $ c, x2 $ c, ... xk $ c. Alors, la densité de y est généralement donnée par : gk(y) =
/ hk,ρ(c)
(13)
et l’espérance mk,ρ(c), par : mk,ρ(c) =
.
(14)
Certains cas spéciaux méritent d’être considérés. Pour k = 2, Laurencelle (1998b) rapporte la densité unidimensionnelle, g2(y) =
,
(15)
qu’on peut intégrer numériquement. Pour k = 3, le maximum sur 3 variables peut d’abord être réduit par : y
t( y, x1) = I f ( y, x1, x2) dx2 c
=
(16)
,
puis la densité g3(y) peut être obtenue par intégration numérique de t(y, x1) sur x1 dans l'intervalle [c, y] pour finalement être incorporée dans (14) afin de déterminer m3. Pour
96
L’étalonnage et la décision psychométrique
k = 4 et plus, nous avons procédé par intégration numérique directe de la densité (13), dans une procédure récursive programmée qui garantit à peu près quatre décimales de précision pour mk,ρ(c). Laurencelle (1998b) présente aussi une approche d’estimation par échantillonnage Monte Carlo. Un dernier cas spécial intéressant à considérer concerne la loi multinormale à corrélation nulle (ρ = 0). La densité (éq. 6, section D) se simplifie alors considérablement. De plus, grâce à un théorème connu, la densité du maximum prend une forme unidimensionnelle particulièrement simple, soit : gk(y) = qui s’intègre numériquement.
, y $ c,
(17)
97
Différentiels de sélection multivariés (Section E)
Table E1a. Différentiels de sélection d’ordre 2, ∆2,ρ(P) P = 0,50
P = 0,10
P = 0,05
P = 0,01
ρ
c
∆
c
∆
c
∆
c
∆
1
0
0,7979
1,2816
1,755
1,6449
2,0627
2,3263
2,6652
0,95
0,126
0,9812
1,3796
1,9728
1,7581
2,2717
2,4346
2,8563
0,9
0,178
1,0948
1,4397
2,0131
1,7976
2,3055
2,4694
2,8796
0,8
0,2511
1,1593
1,4931
2,0418
1,846
2,3269
2,5091
2,8907
0,7
0,3067
1,1899
1,5292
2,0504
1,8773
2,332
2,5324
2,8917
0,6
0,3531
1,2056
1,556
2,0527
1,8997
2,3328
2,5476
2,8912
0,5
0,3935
1,2134
1,577
2,0532
1,9163
2,3327
2,5578
2,8906
0,4
0,4296
1,217
1,5936
2,0533
1,8289
2,3326
2,5647
2,8905
0,3
0,4623
1,2185
1,6069
2,0537
1,9385
2,333
2,5692
2,8906
0,2
0,4922
1,2192
1,6175
2,0545
1,9456
2,3335
2,5722
2,8909
0,1
0,5196
1,22
1,6258
2,0556
1,9508
2,3343
2,5739
2,8912
0
0,545
1,2215
1,6322
2,057
1,9545
2,3353
2,575
2,8916
Table E1b, Différentiels de sélection d’ordre 2, ∆2,ρ(c) c = 0,0
c = 1,2816
c = 1,0
c = 1,6449
c = 2,3263
ρ
P
∆
P
∆
P
∆
P
∆
P
∆
1
0,5
0,7979
0,1587
1,5251
0,1
1,755
0,05
2,0627
0,01
2,6652
0,95
0,5505
0,9495
0,1892
1,6564
0,1221
1,8789
0,0629
2,1767
0,0133
2,761
0,9
0,5718
0,9843
0,2018
1,6704
0,1311
1,8876
0,0681
2,1794
0,0146
2,755
0,8
0,6024
1,0105
0,2197
1,666
0,1438
1,8771
0,0752
2,1629
0,0162
2,7322
0,7
0,6266
1,0147
0,2333
1,6499
0,1533
1,8584
0,0801
2,1425
0,0173
2,7121
0,6
0,6476
1,0088
0,2448
1,6313
0,161
1,8392
0,0845
2,1238
0,0181
2,6967
0,5
0,6667
0,9974
0,2548
1,6129
0,1676
1,8215
0,0878
2,1081
0,0187
2,6856
0,4
0,6845
0,9825
0,2638
1,5958
0,1734
1,806
0,0906
2,0952
0,0194
2,6778
0,3
0,7015
0,9654
0,2719
1,5803
0,1784
1,7928
0,0929
2,0851
0,0194
2,6725
0,2
0,718
0,947
0,2792
1,5667
0,1828
1,7819
0,0948
2,0773
0,0197
2,6691
0,1
0,7341
0,9277
0,286
1,5552
0,1867
1,7732
0,0963
2,0716
0,0198
2,6671
0
0,75
0,908
0,2921
1,5456
0,19
1,7664
0,0975
2,0677
0,0199
2,666
98
L’étalonnage et la décision psychométrique
Table E2a. Différentiels de sélection d’ordre 3, ∆3,ρ(P) P = 0,50
P = 0,10
P = 0,05
P = 0,01
ρ
c
∆
c
∆
c
∆
c
∆
1
0
0,7979
1,2816
1,7550
1,6449
2,0627
2,3263
2,6652
0,95
0,1891
1,1539
1,4567
2,0887
1,8162
2,3856
2,4906
2,9636
0,9
0,2671
1,2563
1,5209
2,1553
1,8767
2,4412
2,5444
3,0019
0,8
0,3770
1,3587
1,6031
2,2002
1,9516
2,4773
2,6068
3,0173
0,7
0,4607
1,4062
1,6589
2,2135
2,0005
2,4818
2,6440
3,0188
0,6
0,5307
1,4285
1,7008
2,2163
2,0358
2,4813
2,6684
3,0174
0,5
0,5917
1,4230
1,7335
2,2157
2,0621
2,4824
2,6849
3,0157
0,4
0,6462
1,4400
1,7595
2,2052
2,0820
2,4801
2,6959
3,0163
0,3
0,6955
1,4396
1,7801
2,2151
2,0969
2,4804
2,7032
3,0161
0,2
0,7405
1,4384
1,7964
2,2162
2,1080
2,4811
2,7078
3,0162
0,1
0,7817
1,4382
1,8089
2,2177
2,1158
2,4828
2,7105
3,0165
0
0,8193
1,4404
1,8183
2,2198
2,1212
2,4840
2,7119
3,0176
Table E2b. Différentiels de sélection d’ordre 3, ∆3,ρ(c) c = 0,0
c = 1,2816
c = 1,0
c = 1,6449
c = 2,3263
D
P
D
P
∆
P
∆
P
∆
P
∆
1
,5000
0,7979
,1587
1,5251
,1000
1,7550
,0500
2,0627
,0100
2,6652
0,95
,5758
1,0332
,2061
1,7319
,1347
1,9502
,0705
2,2434
,0154
2,8137
0,9
,6077
1,0928
,2268
1,7590
,1498
1,9696
,0795
2,2506
,0177
2,8137
0,8
,6536
1,1450
,2572
1,7611
,1721
1,9602
,0926
2,2321
,0209
2,7851
0,7
,6899
1,1617
,2816
1,7406
,1897
1,9348
,1026
2,2044
,0233
2,7457
0,6
,7214
1,1612
,3029
1,7141
,2048
1,9063
,1111
2,1740
,0251
2,7207
0,5
,7500
1,1502
,3222
1,6856
,2184
1,8770
,1184
2,1459
,0265
2,7015
0,4
,7768
1,1317
,3403
1,6566
,2307
1,8502
,1247
2,1249
,0276
2,6871
0,3
,8023
1,1080
,3574
1,6299
,2421
1,8277
,1303
2,1061
,0284
2,6800
0,2
,8269
1,0802
,3737
1,6057
,2526
1,8072
,1351
2,0920
,0290
2,6739
0,1
,8511
1,0490
,3894
1,5847
,2622
1,7917
,1392
2,0810
,0294
2,6718
0
,8750
1,0150
,4044
1,5662
,2710
1,7778
,1426
2,0729
,0297
2,6673
99
Différentiels de sélection multivariés (Section E)
Table E3a. Différentiels de sélection d’ordre 4, ∆4,ρ(P) P = 0,50
P = 0,10
P = 0,05
P = 0,01
D
c
∆
c
∆
c
∆
c
∆
1
0
0,7979
1,2816
1,7550
1,6449
2,0627
2,3263
2,6652
0,95
0,2300
1,2362
1,4954
2,1730
1,8543
2,4574
2,5276
3,0290
0,9
0,3250
1,3651
1,5744
2,2507
1,9289
2,5217
2,5943
3,0749
0,8
0,4588
1,4940
1,6759
2,3133
2,0219
2,5764
2,6724
3,0974
0,7
0,5609
1,5534
1,7452
2,3249
2,0830
2,5846
2,7194
3,1073
0,6
0,6462
1,5802
1,7974
2,3290
2,1272
2,5833
2,7505
3,1053
0,5
0,7207
1,5891
1,8383
2,3269
2,1603
2,5824
2,7716
3,1024
0,4
0,7873
1,5897
1,8707
2,3242
2,1854
2,5806
2,7857
3,1025
0,3
0,8475
1,5870
1,8965
2,3246
2,2042
2,5818
2,7950
3,1022
0,2
0,9024
1,5839
1,9167
2,3250
2,2180
2,5818
2,8008
3,1023
0,1
0,9526
1,5911
1,9320
2,3273
2,2276
2,5838
2,8041
3,1032
0
0,9981
1,5862
1,9432
2,3300
2,2340
2,5859
2,8058
3,1040
Table E3b. Différentiels de sélection d’ordre 4, ∆4,ρ(c) c = 0,0
c = 1,2816
c = 1,0
c = 1,6449
c = 2,3263
D
P
∆
P
∆
P
∆
P
∆
P
∆
1
,5000
,7979
,1587
1,5251
,1000
1,7550
,0500
2,0627
,0100
2,6652
0,95
,5921
1,0896
,2177
1,7833
,1434
1,9999
,0759
2,2895
,0169
2,8579
0,9
,6307
1,1679
,2443
1,8218
,1632
2,0280
,0879
2,3051
,0201
2,8573
0,8
,6860
1,2422
,2841
1,8320
,1930
2,0251
,1058
2,2860
,0248
2,8145
0,7
,7293
1,2723
,3169
1,8120
,2173
1,9959
,1203
2,2537
,0283
2,7819
0,6
,7665
1,2803
,3461
1,7825
,2389
1,9622
,1329
2,2158
,0312
2,7452
0,5
,8000
1,2739
,3733
1,7474
,2588
1,9259
,1441
2,1799
,0336
2,7156
0,4
,8308
1,2569
,3993
1,7111
,2775
1,8899
,1543
2,1501
,0354
2,7034
0,3
,8597
1,2316
,4245
1,6765
,2952
1,8605
,1635
2,1255
,0369
2,6888
0,2
,8870
1,1992
,4494
1,6436
,3122
1,8321
,1718
2,1053
,0381
2,6742
0,1
,9129
1,1605
,4741
1,6140
,3284
1,8091
,1792
2,0889
,0389
2,6689
0
,9375
1,1155
,4989
1,5867
,3439
1,7895
,1855
2,0775
,0394
2,6683
100
L’étalonnage et la décision psychométrique
Table E4a. Différentiels de sélection d’ordre 5, ∆5,ρ(P) P = 0,50
P = 0,10
P = 0,05
P = 0,01
D
c
∆
c
∆
c
∆
c
∆
1
0
0,7979
1,2816
1,7550
1,6449
2,0627
2,3263
2,6652
0,95
0,2599
1,2978
1,5239
2,2281
1,8823
2,5168
2,5548
3,0880
0,9
0,3673
1,4462
1,6137
2,3256
1,9674
2,5998
2,6313
3,1467
0,8
0,5186
1,5958
1,7296
2,3909
2,0740
2,5909
2,7213
3,1592
0,7
0,6340
1,6640
1,8091
2,4102
2,1443
2,6659
2,7759
3,1718
0,6
0,7307
1,6942
1,8691
2,4126
2,1954
2,6548
2,8123
3,1716
0,5
0,8150
1,7033
1,9162
2,4093
2,2338
2,6599
2,8370
3,1682
0,4
0,8904
1,7023
1,9537
2,4082
2,2629
2,6566
2,8536
3,1679
0,3
0,9587
1,6965
1,9834
2,4070
2,2847
2,6569
2,8645
3,1675
0,2
1,0210
1,6917
2,0065
2,4085
2,3006
2,6575
2,8712
3,1673
0,1
1,0777
1,6898
2,0240
2,4098
2,3116
2,6607
2,8750
3,1685
0
1,1290
1,6932
2,0365
2,4127
2,3187
2,6616
2,8769
3,1694
Table E4b. Différentiels de sélection d’ordre 5, ∆5,ρ(c) c = 0,0
c = 1,2816
c = 1,0
c = 1,6449
c = 2,3263
ρ
P
∆
P
∆
P
∆
P
∆
P
∆
1
,5000
0,7979
,1587
1,5251
,1000
1,7550
,0500
2,0627
,0100
2,6652
0,95
,6039
1,1320
,2265
1,8216
,1501
2,0359
,0801
2,3261
,0181
2,8901
0,9
,6473
1,2247
,2576
1,8701
,1735
2,0738
,0945
2,3485
,0220
2,9025
0,8
,7090
1,3177
,3050
1,8879
,2095
2,0747
,1166
2,3312
,0280
2,8520
0,7
,7568
1,3605
,3444
1,8710
,2396
2,0455
,1350
2,2909
,0328
2,8013
0,6
,7974
1,3775
,3802
1,8393
,2667
2,0089
,1513
2,2525
,0367
2,7653
0,5
,8333
1,3775
,4139
1,8019
,2922
1,9691
,1663
2,2101
,0401
2,7313
0,4
,8658
1,3645
,4466
1,7605
,3167
1,9281
,1803
2,1742
,0428
2,7116
0,3
,8955
1,3404
,4789
1,7196
,3404
1,8910
,1933
2,1434
,0451
2,6917
0,2
,9226
1,3063
,5113
1,6793
,3638
1,8556
,2053
2,1187
,0468
2,6829
0,1
,9471
1,2622
,5443
1,6424
,3868
1,8262
,2164
2,0978
,0481
2,6748
0
,9688
1,2074
,5784
1,6081
,4095
1,8012
,2262
2,0828
,0490
2,6695
101
Différentiels de sélection multivariés (Section E)
Table E5a. Différentiels de sélection polyvalents d’ordre 2, )p2,D(P)’ P = 0,50
P = 0,10
P = 0,05
P = 0,01
D
c
)
c
)
c
)
c
)p2
1
0
0,7979
1,2816
1,7550
1,6449
2,0627
2,3263
2,6652
,95
!0,1260
0,9031
1,1451
1,8366
1,5053
2,1370
2,1810
2,7255
,9
!0,1780
0,9341
1,0823
1,8450
1,4393
2,1385
2,1088
2,7142
,8
!0,2511
0,9647
0,9869
1,8317
1,3372
2,1124
1,9936
2,6641
,7
!0,3067
0,9770
0,9081
1,8012
1,2513
2,0695
1,8938
2,5985
,6
!0,3531
0,9792
0,8376
1,7611
1,1733
2,0174
1,8011
2,5245
,5
!0,3935
0,9743
0,7721
1,7142
1,0999
1,9588
1,7123
2,4444
,4
!0,4296
0,9640
0,7099
1,6619
1,0295
1,8949
1,6256
2,3593
,3
!0,4623
0,9489
0,6501
1,6049
0,9610
1,8263
1,5400
2,2697
,2
!0,4922
0,9297
0,5919
1,5434
0,8936
1,7532
1,4545
2,1754
,1
!0,5196
0,9066
0,5347
1,4775
0,8268
1,6756
1,3686
2,0765
0
!0,5450
0,8796
0,4783
1,4071
0,7601
1,5934
1,2816
1,9726
p 2
p 2
p 2
Table E5b. Différentiels de sélection polyvalents d’ordre 2, )p2,D(c) c=0
c=1
c = 1,2816
c = 1,6449
c =2,3263
D
P
)
P
)
P
)
P
)
P
)p2
1
,5000
0,7979
,1587
1,5251
,1000
1,7550
,0500
2,0627
,0100
2,6652
,95 ,9 ,8 ,7 ,6 ,5 ,4 ,3
,4495 ,4282 ,3976 ,3734 ,3524 ,3333 ,31545 ,2985
p 2
0,9836 1,0468 1,1200 1,1616 1,1855 1,1968 1,1984 1,1917
,1281 ,1155 ,0976 ,0840 ,0725 ,0625 ,0536 ,0455
p 2
1,7190 1,7790 1,8420 1,8719 1,8836 1,8830 1,8729 1,855
,0779 ,0689 ,0562 ,0468 ,0390 ,0324 ,0267 ,0216
p 2
1,9491 2,0075 2,0671 2,0973 2,1025 2,0993 2,0870 2,0673
,0371 ,0318 ,0247 ,0196 ,0155 ,0122 2
,0 943 2
,0 713 2
p 2
2,2562 2,3123 2,3674 2,3900 2,3954 2,3894 2,3749 2,3536
2
2,8554
2
2,9067
2
2,9535
2
2,9695
2
2,9695
2
2,9427
3
2,9427
3
2,9200
3
,0 670 ,0 542 ,0 377 ,0 267 ,0 188 ,0 129 ,0 866 ,0 556
,2
,2821
1,1775
,0381
1,8303
,0172
2,0413
,0 524
2,3266
,0 339
2,8926
,1
,2659
1,1563
,0313
1,7995
,0133
2,0096
,02371
2,2945
,03193
2,8614
0
,2500
1,1284
,0252
1,7628
,0100
1,9726
2
,0 250
2,2578
3
,0 100
2,8267
102
L’étalonnage et la décision psychométrique
Table E6a. Différentiels de sélection polyvalents d’ordre 3, )p3,D(P) P = 0,50
P = 0,10
P = 0,05
P = 0,01
D
c
)p3
c
)p3
c
)p3
c
)p3
1
0
0,7979
1,2816
1,7550
1,6449
2,0627
2,3263
2,6652
,95
!0,1891
0,9624
1,0780
1,8911
1,4371
2,1899
2,1106
2,7752
,9
!0,2671
1,0156
0,9850
1,9164
1,3398
2,2067
2,0048
2,7757
,8
!0,3770
1,0747
0,8443
1,9201
1,1897
2,1935
1,8370
2,7309
,7
!0,4607
1,1059
0,7283
1,8956
1,0639
2,1524
1,6921
2,6586
,6
!0,5307
1,1215
0,6245
1,8545
0,9498
2,0947
1,5577
2,5697
,5
!0,5917
1,1260
0,5281
1,8011
0,8423
2,0242
1,4286
2,4677
,4
!0,6462
1,1215
0,4363
1,7367
0,7389
1,9426
1,3022
2,3541
,3
!0,6955
1,1090
0,3477
1,6621
0,6378
1,8502
1,1765
2,2288
,2
!0,7405
1,0890
0,2611
1,5770
0,5376
1,7464
1,0498
2,0911
,1
!0,7817
1,0614
0,1754
1,4802
0,4375
1,6302
0,9208
1,9394
0
!0,8193
1,0257
0,0900
1,3700
0,3361
1,4994
0,7877
1,7709
Table E6b. Différentiels de sélection polyvalents d’ordre 3, )p3,D(c) c=0
c = 1,2816
c=1
c = 1,6449
c =2,3263
D
P
)p3
P
)p3
P
)p3
P
)p3
P
)p3
1
,5000
0,7979
,1587
1,5251
,1000
1,7550
,0500
2,0627
,0100
2,6652
,95 ,9 ,8 ,7 ,6 ,5 ,4 ,3 ,2 ,1 0
,4242 ,3923 ,3464 ,3101 ,2786 ,2500 ,2232 ,1977 ,1731 ,1489 ,1250
1,0842 1,1864 1,3100 1,3846 1,4307 1,4558 1,4632 1,4544 1,4296 1,3877 1,3264
,1145 ,0973 ,0742 ,0576 ,0445 ,0338 ,0250 ,0178 ,0119 2
,0 736 2
,0 399
1,8277 1,9284 2,0420 2,1027 2,1327 2,1403 2,1292 2,1010 2,0560 1,9936 1,9120
,0684 ,0565 ,0408 ,0300 ,0219 ,0156 ,0107 2
,0 694 2
,0 417 2
,0 223 2
,0 100
2,0591 2,1584 2,2680 2,3244 2,3502 2,3536 2,3385 2,3066 2,2583 2,1933 2,1104
,0318 ,0252 ,0169 ,0115 2
,0 767 2
,0 496 2
,0 304 2
,0 172 3
,0 873 3
,0 376 3
,0 125
2,3675 2,4643 2,5686 2,6196 2,6401 2,6387 2,6192 2,5835 2,5323 2,4655 2,3825
2
2,9679
2
3,0594
2
3,1532
2
3,1945
3
3,2065
3
3,1975
3
3,1719
4
3,1316
4
3,0777
5
3,0109
5
3,9311
,0 547 ,0 396 ,0 224 ,0 128 ,0 706 ,0 366 ,0 172 ,0 711 ,0 242 ,0 616 ,0 100
103
Différentiels de sélection multivariés (Section E)
Table E7a. Différentiels de sélection polyvalents d’ordre 4, )4,p D(P) P = 0,50
P = 0,10
P = 0,05
P = 0,01
D
c
)p4
c
)p4
c
)p4
c
)p4
1
0
0,7979
1,2816
1,7550
1,6449
2,0627
2,3263
2,6652
,95
!0,2300
1,0022
1,0349
1,8007
1,3933
2,2277
2,0657
2,8120
,9
!0,3250
1,0712
0,9227
1,9688
1,2761
2,2579
1,9388
2,8246
,8
!0,4588
1,1516
0,7532
1,9896
1,0960
2,2604
1,7383
2,7923
,7
!0,5609
1,1981
0,6138
1,9754
0,9454
2,2278
1,5658
2,7247
,6
!0,6462
1,2256
0,4892
1,9402
0,8088
2,1737
1,4059
2,6351
,5
!0,7207
1,2394
0,3734
1,8888
0,6801
2,1028
1,2524
2,5278
,4
!0,7873
1,2419
0,2631
1,8231
0,5562
2,0168
1,1017
2,4037
,3
!0,8475
1,2344
0,1563
1,7431
0,4347
1,9154
0,9512
2,2624
,2
!0,9024
1,2171
0,0516
1,6477
0,3140
1,7972
0,7988
2,1017
,1
!0,9526
1,1894
!0,0524
1,5344
0,1923
1,6590
0,6422
1,9177
0
!0,9981
1,1504
!0,1569
1,3985
0,0681
1,4954
0,4783
1,7033
Table E7b. Différentiels de sélection polyvalents d’ordre 4, )4,p D(c) c=0
c=1
c = 1,2816
c = 1,6449
c =2,3263
D
P
)
P
)
P
)
P
)
P
)p4
1
,5000
0,7979
,1587
1,5251
,1000
1,7550
,0500
2,0627
,0100
2,6652
,95 ,9 ,8 ,7 ,6 ,5 ,4 ,3 ,2 ,1 0
,4079 ,3693 ,3140 ,2707 ,2335 ,2000 ,1692 ,1403 ,1130 ,0871 ,0625
p 4
1,1514 1,2809 1,4414 1,5418 1,6067 1,6447 1,6594 1,6515 1,6197 1,5601 1,4647
,1063 ,0868 ,0614 ,0441 ,0313 ,0214 ,0139 2
,0 840 2
,0 449 2
,0 199 3
,0 634
p 4
1,9010 2,0311 2,1835 2,2703 2,3182 2,3367 2,3293 2,2968 2,2375 2,1475 2,0192
,0628 ,0494 ,0328 ,0220 ,0145 2
,0 911 2
,0 535 2
,0 283 2
,0 128 3
,0 449 3
,0 100
p 4
2,1336 2,2625 2,4112 2,4936 2,5367 2,5502 2,5377 2,5000 2,4357 2,3412 2,2099
,0287 ,0215 ,0130 2
,0 790 2
,0 466 2
,0 258 2
,0 130 3
,0 568 3
,0 199 4
,0 487 5
,0 625
p 4
2,4431 2,5699 2,7133 2,7900 2,8272 2,8340 2,8162 2,7729 2,7037 2,6055 2,4731
2
3,0451
2
3,1669
2
3,2996
3
3,3655
3
3,3924
3
3,3901
4
3,3628
4
3,3118
5
3,2369
6
3,1365
7
3,0077
,0 479 ,0 321 ,0 158 ,0 777 ,0 359 ,0 149 ,0 527 ,0 147 ,0 282 ,0 295 ,0 100
104
L’étalonnage et la décision psychométrique
Table E8a. Différentiels de sélection polyvalents d’ordre 5, )5,p D(P) P = 0,50
P = 0,10
P = 0,05
P = 0,01
D
c
)p5
c
)p5
c
)p5
c
)p5
1
0
0,7979
1,2816
1,7550
1,6449
2,0627
2,3263
2,6652
,95
!0,2599
1,0317
1,0036
1,9584
1,3616
2,2565
2,0332
2,8402
,9
!0,3673
1,1129
0,8775
2,0090
1,2301
2,2976
1,8913
2,8633
,8
!0,5186
1,2096
0,6875
2,0446
1,0286
2,3142
1,6677
2,8437
,7
!0,6340
1,2684
0,5314
2,0402
0,8603
2,2906
1,4757
2,7832
,6
!0,7307
1,3055
0,3919
2,0118
0,7078
2,2422
1,2980
2,6971
,5
!0,8150
1,3273
0,2622
1,9648
0,5642
2,1744
1,1274
2,5898
,4
!0,8904
1,3363
0,1387
1,9009
0,4258
2,0885
0,9597
2,4625
,3
!0,9587
1,3337
0,0190
1,8200
0,2899
1,9841
0,7920
2,3138
,2
!1,0210
1,3196
!0,0987
1,7201
0,1544
1,8586
0,6215
2,1403
,1
!1,0777
1,2932
!0,2160
1,5972
0,0173
1,7070
0,4450
1,9353
0
!1,1290
1,2527
!0,3344
1,4435
!0,1238
1,5198
0,2582
1,6862
Table E8b. Différentiels de sélection polyvalents d’ordre 5, )5,p D(c) c=0
c=1
c = 1,2816
c = 1,6449
c =2,3263
D
P
)
P
)
P
)
P
)
P
)p5
1
,5000
0,7979
,1587
1,5251
,1000
1,7550
,0500
2,0627
,0100
2,6652
,95 ,9 ,8 ,7 ,6 ,5 ,4 ,3 ,2 ,1 0
,3961 ,3527 ,2910 ,2432 ,2026 ,1667 ,1342 ,1045 ,0774 ,0529 ,0313
p 5
1,2011 1,3514 1,5406 1,6618 1,7424 1,7921 1,8143 1,8089 1,7728 1,6985 1,5698
,1006 ,0796 ,0532 ,0360 ,0238 ,0149 2
,0 870 2
,0 451 2
,0 194 3
,0 606 3
,0 101
p 5
1,9555 2,1080 2,2912 2,3999 2,4639 2,4934 2,4918 2,4587 2,3899 2,2769 2,1023
,0590 ,0448 ,0278 ,0174 ,0105 2
,0 597 2
,0 307 2
,0 135 3
,0 466 3
,0 105 4
,0 100
p 5
2,1889 2,3406 2,5205 2,6249 2,6841 2,7082 2,7009 2,6615 2,5863 2,4668 2,2874
,0267 ,0191 ,0107 2
,0 597 2
,0 318 2
,0 155 3
,0 663 3
,0 229 4
,0 567 5
,0 773 6
,0 313
p 5
2,4993 2,6493 2,8244 2,923 2,976 2,9936 2,9794 2,9331 2,8511 2,7259 2,5439
2
3,1024
2
3,2482
2
3,4129
3
3,5007
3
3,5426
4
3,5492
4
3,5242
5
3,4677
6
3,3771
7
3,2468
9
3,0680
,0 435 ,0 276 ,0 122 ,0 535 ,0 215 ,0 748 ,0 208 ,0 412 ,0 467 ,0 195 ,0 100
105
Différentiels de sélection multivariés (Section E)
Table E9a (D = 0,00). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,00, bornées inférieurement à c
c __ !4 !3,0 !2,5 !2,0 !1,5 !1,0 !0,5 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
mk,D(c) k =____________________________ 2 3 4 5 0,56419 0,56571 0,57115 0,58938 0,63688 0,73435 0,89711 1,12838 1,18234 1,23867 1,29727 1,35805 1,42091 1,48575 1,55245 1,62094 1,69109 1,76284 1,83608 1,91072 1,98670 2,06392 2,14231 2,22181 2,30234 2,38384 2,46626 2,54955 2,63364 2,71849 2,80405 2,89029 2,97716 3,06462 3,15265 3,24121 3,33026 3,41978
0,84628 0,84743 0,85154 0,86555 0,90306 0,98292 1,12175 1,32639 1,37502 1,42609 1,47951 1,53521 1,59308 1,65305 1,71502 1,77890 1,84459 1,91200 1,98105 2,05166 2,12372 2,19718 2,27194 2,34794 2,42511 2,50338 2,58269 2,66297 2,74418 2,82626 2,90917 2,99284 3,07725 3,16234 3,24809 3,33445 3,42139 3,50888
1,02938 1,03036 1,03393 1,04611 1,07899 1,15002 1,27576 1,46473 1,51012 1,55793 1,60812 1,66061 1,71531 1,77216 1,83106 1,89193 1,95469 2,01924 2,08551 2,15340 2,22283 2,29374 2,36603 2,43964 2,51450 2,59054 2,66769 2,74589 2,82509 2,90523 2,98626 3,06813 3,15080 3,23422 3,31834 3,40314 3,48858 3,57462
1,16296 1,16387 1,16712 1,17825 1,20841 1,27402 1,39138 1,56983 1,61299 1,65856 1,70649 1,75672 1,80919 1,86381 1,92052 1,97923 2,03986 2,10233 2,16656 2,23246 2,29996 2,36898 2,43944 2,51127 2,58440 2,65876 2,73429 2,81092 2,88860 2,96727 3,04688 3,12738 3,20872 3,29085 3,37374 3,45734 3,54162 3,62654
hk,D(c) 2 3 4 5 ______________________________ 1,00000 0,99730 0,98762 0,95502 0,87085 0,70786 0,47812 0,25000 0,21176 0,17702 0,14599 0,11873 0,09520 0,07521 0,05855 0,04488 0,03388 0,02517 0,01841 0,01324 0,00937 0,00652 0,00446 0,00300 0,00199 0,00129 0,03825 0,03518 0,03319 0,03193 0,03115 0,04672 0,04386 0,04217 0,04120 0,05653 0,05348 0,05182
1,00000 0,99596 0,98149 0,93329 0,81267 0,59556 0,33060 0,12500 0,09745 0,07448 0,05578 0,04091 0,02937 0,02063 0,01417 0,00951 0,00624 0,00399 0,00250 0,00152 0,03907 0,03527 0,03298 0,03165 0,04885 0,04464 0,04237 0,04118 0,05570 0,05269 0,05123 0,06551 0,06239 0,06101 0,07417 0,07167 0,08650 0,08246
1,00000 0,99461 0,97539 0,91206 0,75838 0,50107 0,22860 0,06250 0,04484 0,03134 0,02131 0,01410 0,00906 0,00566 0,00343 0,00201 0,00115 0,03634 0,03339 0,03175 0,04878 0,04425 0,04199 0,05902 0,05394 0,05167 0,06680 0,06268 0,06102 0,07374 0,07132 0,08452 0,08149 0,09472 0,09144 0,010426 0,010121 0,011332
1,00000 0,99327 0,96933 0,89131 0,70771 0,42157 0,15807 0,03125 0,02063 0,01318 0,00814 0,00486 0,00280 0,00155 0,03829 0,03427 0,03211 0,03101 0,04460 0,04202 0,05850 0,05343 0,05133 0,06494 0,06176 0,07599 0,07195 0,08609 0,08182 0,09520 0,09142 0,010370 0,011923 0,011220 0,012501 0,012109 0,013226 0,014448
106
L’étalonnage et la décision psychométrique
Table E9b (D = 0,10). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,10, bornées inférieurement à c
c __ !4 !3,0 !2,5 !2,0 !1,5 !1,0 !0,5 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
mk,D(c) k =____________________________ 2 3 4 5 0,53524 0,53756 0,54523 0,56918 0,62716 0,73847 0,91479 1,15631 1,21181 1,26952 1,32934 1,39117 1,45493 1,52053 1,58787 1,65686 1,72742 1,79946 1,87290 1,94767 2,02369 2,10088 2,17919 2,25856 2,33891 2,42019 2,50235 2,58535 2,66912 2,75364 2,83885 2,92471 3,01120 3,09827 3,18590 3,27404 3,36267 3,45177
0,80286 0,80526 0,81297 0,83646 0,89205 0,99701 1,16192 1,38765 1,43962 1,49371 1,54984 1,60795 1,66794 1,72975 1,79329 1,85849 1,92527 1,99356 2,06328 2,13437 2,20675 2,28037 2,35517 2,43107 2,50803 2,58599 2,66490 2,74472 2,82539 2,90687 2,98912 3,07210 3,15577 3,24010 3,32505 3,41060 3,49671 3,58336
0,97656 0,97925 0,98770 1,01278 1,07046 1,17650 1,33966 1,56007 1,61058 1,66311 1,71757 1,77391 1,83206 1,89195 1,95351 2,01667 2,08137 2,14754 2,21512 2,28404 2,35425 2,42569 2,49829 2,57201 2,64680 2,72260 2,79936 2,87704 2,95557 3,03491 3,11498 3,19568 3,27686 3,35895 3,44163 3,52482 3,60847 3,69251
1,10322 1,10631 1,11571 1,14300 1,20420 1,31384 1,47891 1,69852 1,74854 1,80045 1,85420 1,90974 1,96699 2,02590 2,08640 2,14844 2,21195 2,27688 2,34317 2,41076 2,47960 2,54963 2,62080 2,69308 2,76639 2,84071 2,91597 2,99206 3,06899 3,14630 3,22479 3,30398 3,38382 3,46426 3,54523 3,62667 3,70850 3,79063
hk,D(c) 2 3 4 5 _____________________________ 1,00000 0,99731 0,98766 0,95537 0,87272 0,71401 0,49068 0,26594 0,22755 0,19237 0,16062 0,13242 0,10776 0,08653 0,06854 0,05355 0,04125 0,03132 0,02344 0,01729 0,01256 0,00899 0,00633 0,00440 0,00300 0,00202 0,00134 0,03872 0,03559 0,03353 0,03219 0,03134 0,04804 0,04475 0,04276 0,04158 0,05888 0,05491
1,00000 0,99596 0,98161 0,93431 0,81779 0,61064 0,35605 0,14891 0,11942 0,09418 0,07301 0,05562 0,04162 0,03057 0,02204 0,01559 0,01082 0,00736 0,00491 0,00321 0,00205 0,00129 0,03790 0,03475 0,03280 0,03161 0,04908 0,04501 0,04270 0,04143 0,05736 0,05372 0,05183 0,06885 0,06417 0,06192 0,07866 0,07382
1,00000 0,99463 0,97564 0,91403 0,76774 0,52586 0,26340 0,08709 0,06588 0,04883 0,03543 0,02515 0,01746 0,01186 0,00786 0,00510 0,00322 0,00199 0,00120 0,03705 0,03404 0,03226 0,03123 0,04653 0,04337 0,04170 0,05833 0,05397 0,05185 0,06835 0,06367 0,06157 0,07655 0,07265 0,07104 0,08400 0,08149 0,09539
1,00000 0,99330 0,96974 0,89449 0,72199 0,45570 0,19820 0,05286 0,03794 0,02658 0,01816 0,01210 0,00786 0,00497 0,00306 0,00183 0,00107 0,03606 0,03334 0,03179 0,04928 0,04468 0,04229 0,04109 0,05503 0,05225 0,06975 0,06410 0,06167 0,07659 0,07252 0,08935 0,08336 0,08117 0,09393 0,09128 0,010403 0,010124
107
Différentiels de sélection multivariés (Section E)
Table E9c (D = 0,20). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,20, bornées inférieurement à c mk,D(c) c k =_____________________________ 2 3 4 5 __ !4 0,50463 0,75694 0,92070 1,04013 !3,0 0,50772 0,76057 0,92505 1,04529 !2,5 0,51753 0,77168 0,93803 1,06027 !2,0 0,54677 0,80366 0,97430 1,10112 !1,5 0,61417 0,87458 1,05190 1,18600 !1,0 0,73775 1,00000 1,18438 1,32668 !0,5 0,92626 1,18604 1,37520 1,52430 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
1,17747 1,23450 1,29360 1,35468 1,41765 1,48241 1,54889 1,61700 1,68666 1,75778 1,83029 1,90411 1,97919 2,05543 2,13280 2,21121 2,29063 2,37098 2,45222 2,53430 2,61718 2,70081 2,78515 2,87016 2,95581 3,04205 3,12887 3,21623 3,30410 3,39245 3,48126
1,42958 1,48452 1,54137 1,60005 1,66048 1,72260 1,78634 1,85161 1,91835 1,98650 2,05598 2,12675 2,19873 2,27186 2,34611 2,42140 2,49769 2,57494 2,65309 2,73211 2,81195 2,89258 2,97395 3,05603 3,13879 3,22219 3,30621 3,39081 3,47597 3,56167 3,64787
1,61972 1,67438 1,73080 1,78892 1,84865 1,90994 1,97272 2,03693 2,10251 2,16940 2,23755 2,30689 2,37739 2,44898 2,52162 2,59526 2,66987 2,74539 2,82179 2,89903 2,97708 3,05589 3,13543 3,21568 3,29658 3,37810 3,46016 3,54269 3,62553 3,70744 3,78920
1,77283 1,82792 1,88464 1,94294 2,00275 2,06400 2,12664 2,19060 2,25584 2,32231 2,38994 2,45869 2,52852 2,59938 2,67123 2,74402 2,81773 2,89230 2,96771 3,04392 3,12089 3,19860 3,27701 3,35607 3,43572 3,51591 3,59605 3,67646 3,75440 3,83179 3,91191
hk,D(c) 2 3 4 5 ______________________________ 1,00000 0,99731 0,98773 0,95587 0,87500 0,72076 0,50364 0,28205 0,24351 0,20792 0,17552 0,14643 0,12072 0,09830 0,07906 0,06278 0,04921 0,03807 0,02906 0,02189 0,01626 0,01192 0,00861 0,00614 0,00431 0,00298 0,00204 0,00137 0,03908 0,03593 0,03382 0,03242 0,03151 0,04929 0,04563 0,04336 0,04198 0,04114
1,00000 0,99598 0,98182 0,93571 0,82373 0,62632 0,38120 0,17307 0,14192 0,11471 0,09135 0,07165 0,05533 0,04206 0,03146 0,02315 0,01676 0,01192 0,00834 0,00573 0,00387 0,00257 0,00168 0,00107 0,03675 0,03417 0,03252 0,03150 0,04876 0,04502 0,04282 0,04156 0,05841 0,05446 0,05232 0,05119 0,06594 0,06291
1,00000 0,99467 0,97604 0,91664 0,77816 0,55059 0,29720 0,11301 0,08878 0,06856 0,05204 0,03879 0,02840 0,02041 0,01439 0,00996 0,00676 0,00449 0,00293 0,00187 0,00117 0,03719 0,03432 0,03254 0,03146 0,04825 0,04455 0,04246 0,04130 0,05671 0,05339 0,05168 0,06810 0,06383 0,06177 0,07800 0,07354 0,07153
1,00000 0,99336 0,97038 0,89856 0,73733 0,48871 0,23725 0,07741 0,05863 0,04356 0,03174 0,02267 0,01586 0,01087 0,00730 0,00480 0,00308 0,00194 0,00119 0,03718 0,03422 0,03243 0,03136 0,04748 0,04401 0,04210 0,04107 0,05535 0,05260 0,05124 0,06574 0,06260 0,06115 0,07494 0,07207 0,08850 0,08340 0,08132
108
L’étalonnage et la décision psychométrique
Table E9d (D = 0,30). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,30, bornées inférieurement à c mk,D(c) c k = 2 3 4 5 __ ____________________________ !4 0,47203 0,70806 0,86123 0,97295 !3,0 0,47588 0,71286 0,86715 0,98005 !2,5 0,48767 0,72707 0,88416 0,99987 !2,0 0,52170 0,76644 0,92977 1,05163 !1,5 0,59745 0,85014 1,02311 1,15434 !1,0 0,73185 0,99221 1,17581 1,31752 !0,5 0,93132 1,19561 1,38782 1,53869 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
1,19165 1,25020 1,31071 1,37308 1,43724 1,50309 1,57055 1,63955 1,71000 1,78183 1,85496 1,92933 2,00488 2,08153 2,15923 2,23793 2,31757 2,39810 2,47948 2,56165 2,64458 2,72823 2,81256 2,89753 2,98311 3,06927 3,15598 3,24321 3,33094 3,41913 3,50777
1,45444 1,51204 1,57141 1,63246 1,69512 1,75931 1,82498 1,89204 1,96043 2,03009 2,10097 2,17299 2,24612 2,32029 2,39546 2,47157 2,54860 2,62648 2,70519 2,78468 2,86493 2,94588 3,02752 3,10981 3,19272 3,27623 3,36030 3,44492 3,53005 3,61568 3,70179
1,65154 1,70964 1,76935 1,83059 1,89330 1,95741 2,02285 2,08957 2,15750 2,22659 2,29679 2,36805 2,44031 2,51354 2,58769 2,66273 2,73860 2,81528 2,89274 2,97093 3,04982 3,12940 3,20962 3,29047 3,37191 3,45392 3,53647 3,61951 3,70308 3,78703 3,87129
1,80889 1,86793 1,92846 1,99042 2,05372 2,11832 2,18415 2,25116 2,31928 2,38847 2,45868 2,52987 2,60199 2,67500 2,74886 2,82354 2,89900 2,97520 3,05213 3,12974 3,20802 3,28693 3,36644 3,44654 3,52719 3,60839 3,69007 3,77219 3,85467 3,93736 4,02002
hk,D(c) 2 3 4 5 _____________________________ 1,00000 0,99732 0,98784 0,95654 0,87772 0,72815 0,51710 0,29849 0,25983 0,22385 0,19082 0,16090 0,13418 0,11063 0,09017 0,07263 0,05781 0,04546 0,03531 0,02709 0,02052 0,01535 0,01133 0,00826 0,00594 0,00422 0,00295 0,00204 0,00139 0,03936 0,03621 0,03407 0,03262 0,03167 0,03105 0,04649 0,04396 0,04239
1,00000 0,99602 0,98213 0,93751 0,83049 0,64264 0,40641 0,19774 0,16516 0,13620 0,11085 0,08902 0,07052 0,05509 0,04243 0,03221 0,02410 0,01777 0,01290 0,00923 0,00650 0,00451 0,00308 0,00207 0,00137 0,03891 0,03571 0,03360 0,03223 0,03136 0,04815 0,04481 0,04279 0,04159 0,05893 0,05492 0,05267 0,05142
1,00000 0,99474 0,97663 0,91990 0,78954 0,57545 0,33064 0,14031 0,11344 0,09039 0,07096 0,05487 0,04177 0,03131 0,02309 0,01676 0,01196 0,00840 0,00580 0,00393 0,00262 0,00172 0,00111 0,03701 0,03436 0,03266 0,03160 0,04939 0,04543 0,04308 0,04172 0,05939 0,05504 0,05265 0,05137 0,06696 0,06346 0,06169
1,00000 0,99348 0,97132 0,90350 0,75354 0,52111 0,27594 0,10453 0,08229 0,06376 0,04861 0,03645 0,02687 0,01948 0,01388 0,00971 0,00668 0,00451 0,00299 0,00195 0,00124 0,03780 0,03480 0,03290 0,03171 0,04996 0,04567 0,04317 0,04173 0,05931 0,05490 0,05253 0,05128 0,06632 0,06307 0,06146 0,07680 0,07310
109
Différentiels de sélection multivariés (Section E)
Table E9e (D = 0,40). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,40, bornées inférieurement à c mk,D(c) c k =_____________________________ 2 3 4 5 __ !4 0,43702 0,65554 0,79737 0,90079 !3,0 0,44158 0,66143 0,80468 0,90958 !2,5 0,45517 0,67835 0,82508 0,93334 !2,0 0,49343 0,72391 0,87814 0,99342 !1,5 0,57642 0,81798 0,98357 1,10919 !1,0 0,72024 0,97351 1,15167 1,28870 !0,5 0,92950 1,19120 1,38012 1,52730 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
1,19839 1,25843 1,32033 1,38403 1,44942 1,51642 1,58495 1,65494 1,72630 1,79896 1,87285 1,94792 2,02409 2,10131 2,17952 2,25867 2,33871 2,41959 2,50127 2,58370 2,66686 2,75069 2,83517 2,92026 3,00594 3,09216 3,17892 3,26617 3,35389 3,44207 3,53068
1,46321 1,52320 1,58486 1,64811 1,71287 1,77906 1,84662 1,91547 1,98556 2,05681 2,12918 2,20261 2,27704 2,35243 2,42873 2,50590 2,58390 2,66268 2,74222 2,82247 2,90340 2,98498 3,06719 3,14999 3,23336 3,31728 3,40171 3,48665 3,57206 3,65793 3,74423
1,65939 1,72038 1,78290 1,84686 1,91218 1,97881 2,04668 2,11572 2,18587 2,25708 2,32931 2,40249 2,47658 2,55155 2,62735 2,70393 2,78128 2,85934 2,93809 3,01751 3,09755 3,17820 3,25943 3,34121 3,42352 3,50634 3,58966 3,67344 3,75766 3,84232 3,92735
1,81426 1,87646 1,94008 2,00504 2,07127 2,13870 2,20727 2,27692 2,34761 2,41926 2,49185 2,56532 2,63963 2,71474 2,79061 2,86721 2,94451 3,02247 3,10107 3,18028 3,26007 3,34042 3,42130 3,50270 3,58460 3,66697 3,74979 3,83304 3,91672 4,00075 4,08510
hk,D(c) 2 3 4 5 ______________________________ 1,00000 0,99735 0,98801 0,95742 0,88093 0,73625 0,53123 0,31549 0,27671 0,24036 0,20672 0,17600 0,14831 0,12365 0,10199 0,08321 0,06714 0,05356 0,04225 0,03294 0,02538 0,01933 0,01454 0,01081 0,00794 0,00576 0,00413 0,00292 0,00204 0,00141 0,03960 0,03646 0,03429 0,03281 0,03182 0,03116 0,04734 0,04457
1,00000 0,99608 0,98258 0,93977 0,83808 0,65973 0,43205 0,22324 0,18940 0,15885 0,13168 0,10785 0,08726 0,06973 0,05501 0,04285 0,03295 0,02500 0,01872 0,01382 0,01007 0,00724 0,00513 0,00358 0,00247 0,00168 0,00112 0,03741 0,03482 0,03309 0,03195 0,03121 0,04744 0,04450 0,04268 0,04157 0,05905 0,05515
1,00000 0,99485 0,97746 0,92383 0,80185 0,60071 0,36428 0,16917 0,13998 0,11436 0,09222 0,07339 0,05763 0,04463 0,03409 0,02567 0,01906 0,01394 0,01006 0,00714 0,00500 0,00345 0,00234 0,00157 0,00103 0,03669 0,03427 0,03268 0,03166 0,03101 0,04605 0,04357 0,04207 0,04118 0,05663 0,05366 0,05199 0,05106
1,00000 0,99366 0,97259 0,90927 0,77055 0,55339 0,31491 0,13419 0,10884 0,08709 0,06872 0,05347 0,04100 0,03099 0,02308 0,01693 0,01223 0,00870 0,00610 0,00420 0,00285 0,00191 0,00125 0,03811 0,03516 0,03323 0,03199 0,03120 0,04717 0,04420 0,04242 0,04137 0,05761 0,05416 0,05224 0,05118 0,06615 0,06314
110
L’étalonnage et la décision psychométrique
Table E9f (D = 0,50). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,50, bornées inférieurement à c
c __ !4 !3,0 !2,5 !2,0 !1,5 !1,0 !0,5 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
mk,D(c) k _____________________________ = 2 3 4 5 0,39894 0,40414 0,41932 0,46117 0,55026 0,70209 0,91996 1,19683 1,25831 1,32160 1,38662 1,45327 1,52147 1,59114 1,66219 1,73456 1,80817 1,88295 1,95885 2,03579 2,11373 2,19260 2,27236 2,35297 2,43437 2,51653 2,59940 2,68295 2,76714 2,85195 2,93733 3,02327 3,10972 3,19668 3,28411 3,37199 3,46030 3,54902
0,59842 0,60526 0,62442 0,67488 0,77703 0,94311 1,17243 1,45576 1,51789 1,58163 1,64690 1,71362 1,78171 1,85110 1,92171 1,99349 2,06637 2,14029 2,21520 2,29105 2,36779 2,44538 2,52377 2,60292 2,68279 2,76336 2,84459 2,92644 3,00889 3,09192 3,17548 3,25957 3,34416 3,42922 3,51473 3,60069 3,68706 3,77383
0,82795 0,73639 0,75943 0,81802 0,93224 1,11170 1,35278 1,64468 1,70811 1,77303 1,83934 1,90696 1,97584 2,04589 2,11706 2,18929 2,26251 2,33668 2,41174 2,48766 2,56438 2,64186 2,72008 2,79899 2,87856 2,95876 3,03956 3,12093 3,20285 3,28529 3,36824 3,45166 3,53554 3,61987 3,70461 3,78976 3,87530 3,96120
0,82231 0,83247 0,85914 0,92503 1,04976 1,24071 1,49211 1,79210 1,85686 1,92300 1,99045 2,05913 2,12897 2,19990 2,27187 2,34482 2,41869 2,49343 2,56901 2,64536 2,72247 2,80028 2,87876 2,95788 3,03761 3,11793 3,19879 3,28019 3,36209 3,44447 3,52732 3,61061 3,69432 3,77845 3,86296 3,94785 4,03310 4,11868
hk,D(c) 2 3 4 5 ______________________________ 1,00000 0,99738 0,98825 0,95855 0,88471 0,74520 0,54624 0,33333 0,29442 0,25771 0,22349 0,19198 0,16332 0,13757 0,11472 0,09469 0,07734 0,06251 0,04999 0,03955 0,03094 0,02394 0,01832 0,01386 0,01037 0,00767 0,00561 0,00405 0,00289 0,00204 0,00143 0,03983 0,03669 0,03451 0,03300 0,03197 0,03128 0,04819
1,00000 0,99618 0,98321 0,94253 0,84656 0,67778 0,45855 0,25000 0,21503 0,18303 0,15414 0,12841 0,10580 0,08619 0,06941 0,05526 0,04347 0,03380 0,02596 0,01970 0,01476 0,01093 0,00799 0,00576 0,00411 0,00289 0,00201 0,00137 0,03930 0,03621 0,03409 0,03266 0,03171 0,03108 0,04674 0,04415 0,04252 0,04151
1,00000 0,99504 0,97856 0,92845 0,81513 0,62670 0,39874 0,20000 0,16873 0,14075 0,11606 0,09458 0,07617 0,06060 0,04762 0,03695 0,02832 0,02142 0,01600 0,01179 0,00858 0,00616 0,00436 0,00305 0,00210 0,00143 0,03958 0,03633 0,03413 0,03266 0,03168 0,03105 0,04649 0,04394 0,04236 0,04139 0,05811 0,05465
1,00000 0,99394 0,97423 0,91585 0,78843 0,58608 0,35486 0,16667 0,13850 0,11374 0,09227 0,07393 0,05850 0,04570 0,03525 0,02683 0,02015 0,01494 0,01092 0,00788 0,00560 0,00393 0,00272 0,00185 0,00125 0,03827 0,03540 0,03348 0,03221 0,03138 0,04852 0,04517 0,04310 0,04183 0,04106 0,05607 0,05342 0,05190
111
Différentiels de sélection multivariés (Section E)
Table E9g (D = 0,60). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,60, bornées inférieurement à c
c __ !4 !3,0 !2,5 !2,0 !1,5 !1,0 !0,5 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
mk,D(c) k _____________________________ = 2 3 4 5 0,35682 0,36257 0,37904 0,42376 0,51771 0,67607 0,90131 1,18547 1,24833 1,31297 1,37930 1,44722 1,51665 1,58750 1,65970 1,73316 1,80781 1,88360 1,96044 2,03830 2,11710 2,19679 2,27733 2,35867 2,44076 2,52357 2,60705 2,69118 2,77592 2,86123 2,94709 3,03346 3,12034 3,20768 3,29546 3,38368 3,47229 3,56130
0,53525 0,54284 0,56365 0,61761 0,72552 0,89940 1,13783 1,43069 1,49470 1,56031 1,62742 1,69594 1,76581 1,83693 1,90925 1,98269 2,05719 2,13268 2,20913 2,28646 2,36464 2,44361 2,52334 2,60379 2,68492 2,76669 2,84907 2,93204 3,01556 3,09960 3,18415 3,26918 3,35466 3,44059 3,52693 3,61367 3,70079 3,78827
0,65122 0,66042 0,68523 0,74735 0,86724 1,05440 1,30473 1,60666 1,67212 1,73906 1,80739 1,87702 1,94787 2,01989 2,09299 2,16712 2,24222 2,31823 2,39510 2,47279 2,55124 2,63042 2,71029 2,79081 2,87195 2,95368 3,03596 3,11878 3,20210 3,28591 3,37018 3,45488 3,54001 3,62553 3,71144 3,79772 3,88435 3,97131
0,73551 0,74660 0,77502 0,84423 0,97418 1,17231 1,43255 1,74243 1,80922 1,87741 1,94691 2,01763 2,08950 2,16246 2,23644 2,31138 2,38723 2,46392 2,54142 2,61967 2,69864 2,77829 2,85857 2,93947 3,02093 3,10295 3,18548 3,26851 3,35200 3,43595 3,52032 3,60509 3,69026 3,77580 3,86170 3,94793 4,03450 4,12138
hk,D(c) 2 3 4 5 ______________________________ 1,00000 0,99744 0,98859 0,96000 0,88918 0,75522 0,56249 0,35242 0,31338 0,27631 0,24150 0,20919 0,17956 0,15270 0,12863 0,10731 0,08866 0,07253 0,05873 0,04708 0,03736 0,02933 0,02279 0,01753 0,01333 0,01003 0,00747 0,00550 0,00401 0,00289 0,00206 0,00145 0,00101 0,03695 0,03473 0,03319 0,03212 0,03140
1,00000 0,99633 0,98405 0,94588 0,85610 0,69715 0,48650 0,27862 0,24262 0,20927 0,17876 0,15118 0,12657 0,10488 0,08600 0,06978 0,05601 0,04447 0,03492 0,02711 0,02082 0,01581 0,01186 0,00880 0,00645 0,00468 0,00335 0,00237 0,00166 0,00115 0,03782 0,03528 0,03352 0,03231 0,03150 0,04967 0,04613 0,04384
1,00000 0,99530 0,97998 0,93383 0,82955 0,65392 0,43480 0,23345 0,20030 0,17012 0,14299 0,11893 0,09786 0,07965 0,06412 0,05104 0,04017 0,03125 0,02403 0,01826 0,01372 0,01018 0,00747 0,00541 0,00387 0,00274 0,00191 0,00132 0,03897 0,03603 0,03401 0,03263 0,03170 0,03109 0,04686 0,04427 0,04263 0,04159
1,00000 0,99433 0,97628 0,92328 0,80739 0,61982 0,39665 0,20259 0,17186 0,14425 0,11978 0,09837 0,07989 0,06416 0,05093 0,03996 0,03099 0,02375 0,01798 0,01345 0,00994 0,00725 0,00523 0,00372 0,00262 0,00182 0,00124 0,03842 0,03562 0,03371 0,03241 0,03155 0,04983 0,04615 0,04380 0,04231 0,04139 0,05825
112
L’étalonnage et la décision psychométrique
Table E9h (D = 0,70). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,70, bornées inférieurement à c
c __ !4 !3,0 !2,5 !2,0 !1,5 !1,0 !0,5 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
mk,D(c) k _____________________________ = 2 3 4 5 0,30902 0,31518 0,33256 0,37928 0,47665 0,63988 0,87106 1,16165 1,22580 1,29172 1,35932 1,42849 1,49915 1,57121 1,64459 1,71921 1,79499 1,87188 1,94979 2,02868 2,10848 2,18914 2,27062 2,35286 2,43582 2,51947 2,60376 2,68865 2,77413 2,86015 2,94668 3,03371 3,12119 3,20912 3,29747 3,38622 3,47535 3,56483
0,46354 0,47162 0,49336 0,54923 0,66042 0,83921 1,08414 1,38462 1,45023 1,51745 1,58618 1,65633 1,72782 1,80056 1,87449 1,94952 2,02560 2,10266 2,18064 2,25949 2,33916 2,41960 2,50076 2,58261 2,66511 2,74823 2,83192 2,91617 3,00093 3,08619 3,17192 3,25809 3,34469 3,43169 3,51908 3,60684 3,69495 3,78339
0,56420 0,57365 0,59920 0,66271 0,78503 0,97625 1,23248 1,54183 1,60891 1,67749 1,74749 1,81881 1,89137 1,96510 2,03992 2,11577 2,19259 2,27031 2,34888 2,42826 2,50839 2,58923 2,67074 2,75288 2,83562 2,91892 3,00276 3,08710 3,17193 3,25720 3,34291 3,42903 3,51555 3,60243 3,68967 3,77725 3,86515 3,95336
0,63697 0,64844 0,67730 0,74724 0,87865 1,07980 1,34507 1,66180 1,73013 1,79990 1,87101 1,94337 2,01692 2,09157 2,16726 2,24392 2,32149 2,39992 2,47915 2,55913 2,63983 2,72119 2,80319 2,88577 2,96892 3,05260 3,13678 3,22144 3,30654 3,39207 3,47801 3,56433 3,65102 3,73806 3,82543 3,91312 4,00111 4,08939
hk,D(c) 2 3 4 5 _____________________________ 1,00000 0,99753 0,98907 0,96186 0,89455 0,76667 0,58053 0,37341 0,33425 0,29679 0,26137 0,22824 0,19760 0,16958 0,14423 0,12156 0,10151 0,08398 0,06882 0,05586 0,04490 0,03574 0,02817 0,02198 0,01698 0,01298 0,00983 0,00736 0,00546 0,00401 0,00291 0,00209 0,00149 0,00105 0,03727 0,03501 0,03341 0,03230
1,00000 0,99655 0,98515 0,94994 0,86698 0,71842 0,51682 0,31011 0,27316 0,23852 0,20641 0,17700 0,15037 0,12654 0,10547 0,08705 0,07114 0,05756 0,04610 0,03654 0,02867 0,02226 0,01710 0,01300 0,00977 0,00727 0,00535 0,00389 0,00280 0,00200 0,00141 0,03979 0,03674 0,03459 0,03309 0,03206 0,03135 0,04881
1,00000 0,99567 0,98177 0,94011 0,84547 0,68315 0,47362 0,27069 0,23581 0,20354 0,17405 0,14741 0,12364 0,10268 0,08442 0,06871 0,05534 0,04412 0,03480 0,02716 0,02097 0,01601 0,01210 0,00904 0,00668 0,00488 0,00353 0,00252 0,00178 0,00124 0,03858 0,03586 0,03395 0,03264 0,03174 0,03113 0,04729 0,04464
1,00000 0,99487 0,97878 0,93170 0,82783 0,65557 0,44161 0,24319 0,21009 0,17977 0,15235 0,12784 0,10621 0,08734 0,07109 0,05725 0,04563 0,03598 0,02806 0,02165 0,01652 0,01247 0,00930 0,00687 0,00501 0,00361 0,00258 0,00182 0,00127 0,03872 0,03593 0,03399 0,03265 0,03174 0,03113 0,04726 0,04461 0,04288
113
Différentiels de sélection multivariés (Section E)
Table E9i (D = 0,80). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,80, bornées inférieurement à c
c __ !4 !3,0 !2,5 !2,0 !1,5 !1,0 !0,5 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
mk,D(c) k _____________________________ = 2 3 4 5 0,25231 0,25868 0,27646 0,32403 0,42301 0,58901 0,82427 1,12004 1,18532 1,25240 1,32116 1,39151 1,46336 1,53661 1,61118 1,68699 1,76396 1,84202 1,92109 2,00113 2,08207 2,16384 2,24642 2,32973 2,41375 2,49842 2,58372 2,66960 2,75603 2,84299 2,93043 3,01834 3,10668 3,19545 3,28460 3,37413 3,46402 3,55424
0,37848 0,38663 0,40838 0,46421 0,57570 0,75599 1,00428 1,31000 1,37685 1,44535 1,51541 1,58693 1,65982 1,73400 1,80938 1,88589 1,96345 2,04201 2,12149 2,20185 2,28302 2,36496 2,44762 2,53095 2,61492 2,69950 2,78463 2,87030 2,95648 3,04312 3,13022 3,21774 3,30566 3,39397 3,48263 3,57165 3,66098 3,75063
0,46105 0,47006 0,49507 0,55742 0,67845 0,86950 1,12774 1,44144 1,50964 1,57941 1,65065 1,72328 1,79720 1,87233 1,94860 2,02593 2,10425 2,18351 2,26364 2,34458 2,42629 2,50872 2,59182 2,67555 2,75989 2,84478 2,93020 3,01612 3,10251 3,18934 3,27660 3,36425 3,45227 3,54065 3,62937 3,71841 3,80776 3,89740
0,52010 0,53118 0,55895 0,62662 0,75522 0,95463 1,22057 1,54065 1,60994 1,68074 1,75296 1,82651 1,90130 1,97726 2,05430 2,13236 2,21136 2,29126 2,37200 2,45351 2,53575 2,61868 2,70226 2,78643 2,87118 2,95646 3,04224 3,12850 3,21520 3,30233 3,38985 3,47776 3,56602 3,65462 3,74354 3,83276 3,92228 4,01207
hk,D(c) 2 3 4 5 _____________________________ 1,00000 0,99767 0,98975 0,96432 0,90124 0,78033 0,60149 0,39758 0,35828 0,32042 0,28434 0,25031 0,21856 0,18926 0,16250 0,13833 0,11673 0,09764 0,08093 0,06648 0,05411 0,04363 0,03486 0,02758 0,02162 0,01678 0,01290 0,00983 0,00741 0,00553 0,00409 0,00299 0,00217 0,00156 0,00110 0,03776 0,03540 0,03372
1,00000 0,99688 0,98663 0,95498 0,87981 0,74275 0,55124 0,34638 0,30854 0,27262 0,23890 0,20758 0,17883 0,15271 0,12925 0,10841 0,09010 0,07419 0,06052 0,04890 0,03913 0,03101 0,02434 0,01891 0,01455 0,01109 0,00836 0,00624 0,00461 0,00337 0,00244 0,00175 0,00124 0,03871 0,03605 0,03416 0,03283 0,03190
1,00000 0,99619 0,98406 0,94759 0,86362 0,71585 0,51732 0,31399 0,27750 0,24321 0,21134 0,18205 0,15543 0,13151 0,11025 0,09158 0,07535 0,06141 0,04957 0,03962 0,03136 0,02458 0,01907 0,01465 0,01114 0,00838 0,00624 0,00460 0,00336 0,00242 0,00173 0,00122 0,03857 0,03593 0,03406 0,03275 0,03184 0,03122
1,00000 0,99559 0,98185 0,94143 0,85060 0,69502 0,49214 0,29100 0,25569 0,22274 0,19234 0,16462 0,13962 0,11733 0,09768 0,08056 0,06580 0,05322 0,04263 0,03381 0,02655 0,02064 0,01588 0,01209 0,00912 0,00680 0,00502 0,00367 0,00265 0,00190 0,00134 0,03940 0,03651 0,03446 0,03303 0,03203 0,03135 0,04883
114
L’étalonnage et la décision psychométrique
Table E9j (D = 0,90). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,90, bornées inférieurement à c
c __ !4 !3,0 !2,5 !2,0 !1,5 !1,0 !0,5 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
mk,D(c) k =____________________________ 2 3 4 5 0,17841 0,18463 0,20197 0,24859 0,34638 0,51179 0,74807 1,04679 1,11288 1,18082 1,25050 1,32183 1,39470 1,46902 1,54469 1,62163 1,69976 1,77900 1,85928 1,94053 2,02269 2,10571 2,18952 2,27407 2,35933 2,44524 2,53177 2,61887 2,70651 2,79467 2,88330 2,97238 3,06189 3,15179 3,24208 3,33272 3,42369 3,51499
0,26763 0,27521 0,29555 0,34842 0,45579 0,63241 0,87922 1,18638 1,25385 1,32308 1,39397 1,46640 1,54028 1,61553 1,69205 1,76975 1,84858 1,92844 2,00928 2,09103 2,17363 2,25702 2,34116 2,42600 2,51149 2,59759 2,68427 2,77148 2,85921 2,94741 3,03605 3,12512 3,21458 3,30442 3,39461 3,48514 3,57598 3,66712
0,32669 0,33420 0,35684 0,41436 0,52866 0,71328 0,96763 1,28091 1,34944 1,41967 1,49149 1,56481 1,63952 1,71554 1,79279 1,87118 1,95064 2,03109 2,11249 2,19475 2,27783 2,36167 2,44622 2,53144 2,61729 2,70372 2,79071 2,87821 2,96619 3,05463 3,14349 3,23276 3,32241 3,41242 3,50276 3,59342 3,68439 3,77564
0,36780 0,37742 0,40192 0,46311 0,58274 0,77337 1,03336 1,35141 1,42076 1,49176 1,56432 1,63833 1,71370 1,79034 1,86817 1,94711 2,02709 2,10804 2,18990 2,27260 2,35609 2,44032 2,52525 2,61082 2,69700 2,78374 2,87102 2,95880 3,04704 3,13573 3,22483 3,31432 3,40418 3,49439 3,58492 3,67576 3,76690 3,85831
hk,D(c) 2 3 4 5 _____________________________ 1,00000 0,99791 0,99080 0,96786 0,91033 0,79818 0,62825 0,42822 0,38875 0,35040 0,31352 0,27841 0,24533 0,21448 0,18602 0,16002 0,13652 0,11549 0,09687 0,08056 0,06641 0,05427 0,04395 0,03527 0,02806 0,02211 0,01727 0,01336 0,01024 0,00778 0,00585 0,00436 0,00322 0,00235 0,00170 0,00122 0,03868 0,03610
1,00000 0,99737 0,98873 0,96170 0,89620 0,77317 0,59412 0,39233 0,35361 0,31636 0,28088 0,24743 0,21624 0,18746 0,16116 0,13740 0,11615 0,09734 0,08086 0,06659 0,05434 0,04395 0,03522 0,02797 0,02201 0,01715 0,01325 0,01013 0,00768 0,00576 0,00428 0,00315 0,00230 0,00166 0,00119 0,03840 0,03589 0,03409
1,00000 0,99694 0,98712 0,95708 0,88596 0,75572 0,57127 0,36931 0,33129 0,29492 0,26051 0,22829 0,19844 0,17107 0,14624 0,12395 0,10415 0,08675 0,07162 0,05860 0,04752 0,03818 0,03039 0,02397 0,01873 0,01450 0,01111 0,00844 0,00635 0,00473 0,00349 0,00255 0,00184 0,00132 0,03937 0,03658 0,03457 0,03315
1,00000 0,99658 0,98580 0,95336 0,87793 0,74241 0,55431 0,35274 0,31530 0,27967 0,24612 0,21484 0,18601 0,15970 0,13595 0,11474 0,09600 0,07961 0,06543 0,05329 0,04300 0,03439 0,02724 0,02138 0,01662 0,01280 0,00976 0,00738 0,00552 0,00409 0,00300 0,00218 0,00157 0,00112 0,03788 0,03550 0,03380 0,03260
115
Différentiels de sélection multivariés (Section E)
Table E9k (D = 0,95). Espérance mk,D(c) du maximum d’une variable supnormale et aire hk,D(c) supnormale correspondante dans une distribution multinormale à k dimensions et intercorrélations égales à D = 0,95, bornées inférieurement à c
c __ !4 !3,0 !2,5 !2,0 !1,5 !1,0 !0,5 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0
mk,D(c) k _____________________________ = 2 3 4 5 0,12616 0,13202 0,14852 0,19333 0,28839 0,45096 0,68529 0,98357 1,04975 1,11785 1,18774 1,25933 1,33252 1,40719 1,48327 1,56065 1,63926 1,71901 1,79983 1,88166 1,96442 2,04805 2,13249 2,21770 2,30363 2,39022 2,47744 2,56524 2,65359 2,74245 2,83180 2,92160 3,01183 3,10246 3,19346 3,28482 3,37651 3,46852
0,18925 0,19608 0,21471 0,26403 0,36609 0,53700 0,77933 1,08415 1,15144 1,22056 1,29142 1,36391 1,43793 1,51338 1,59016 1,66821 1,74742 1,82773 1,90905 1,99134 2,07452 2,15853 2,24332 2,32884 2,41504 2,50188 2,58931 2,67731 2,76582 2,85483 2,94430 3,03420 3,12451 3,21520 3,30625 3,39764 3,48935 3,58137
0,23160 0,23775 0,25795 0,31049 0,41746 0,59422 0,84213 1,15136 1,21944 1,28931 1,36087 1,43402 1,50866 1,58470 1,66203 1,74059 1,82029 1,90105 1,98280 2,06548 2,14903 2,23339 2,31851 2,40433 2,49082 2,57792 2,66560 2,75383 2,84256 2,93177 3,02143 3,11151 3,20198 3,29283 3,38402 3,47555 3,56738 3,65951
0,26024 0,26843 0,28984 0,34484 0,45549 0,63642 0,88834 1,20112 1,26979 1,34023 1,41232 1,48598 1,56110 1,63758 1,71535 1,79431 1,87438 1,95550 2,03759 2,12059 2,20444 2,28908 2,37447 2,46054 2,54727 2,63460 2,72249 2,81092 2,89985 2,98924 3,07907 3,16932 3,25995 3,35094 3,44228 3,53393 3,62589 3,71814
hk,D(c) 2 3 4 5 _____________________________ 1,00000 0,99811 0,99163 0,97052 0,91694 0,81082 0,64691 0,44946 0,40989 0,37121 0,33379 0,29795 0,26398 0,23210 0,20249 0,17525 0,15047 0,12813 0,10821 0,09062 0,07524 0,06194 0,05055 0,04090 0,03280 0,02606 0,02053 0,01602 0,01239 0,00950 0,00721 0,00543 0,00405 0,00299 0,00219 0,00158 0,00114 0,03809
1,00000 0,99775 0,99025 0,96642 0,90747 0,79387 0,62339 0,42419 0,38502 0,34699 0,31045 0,27568 0,24294 0,21243 0,18428 0,15858 0,13534 0,11456 0,09615 0,08002 0,06602 0,05399 0,04377 0,03517 0,02801 0,02211 0,01729 0,01340 0,01029 0,00783 0,00590 0,00441 0,00326 0,00239 0,00173 0,00125 0,03888 0,03627
1,00000 0,99748 0,98923 0,96346 0,90081 0,78227 0,60776 0,40788 0,36908 0,33156 0,29566 0,26166 0,22978 0,20021 0,17304 0,14835 0,12613 0,10634 0,08890 0,07368 0,06054 0,04931 0,03980 0,03185 0,02525 0,01984 0,01545 0,01192 0,00911 0,00690 0,00518 0,00385 0,00283 0,00207 0,00149 0,00107 0,03756 0,03531
1,00000 0,99726 0,98842 0,96114 0,89569 0,77352 0,59619 0,39606 0,35756 0,32046 0,28507 0,25166 0,22044 0,19156 0,16513 0,14118 0,11970 0,10064 0,08389 0,06932 0,05679 0,04611 0,03711 0,02960 0,02339 0,01832 0,01422 0,01093 0,00833 0,00629 0,00470 0,00348 0,00255 0,00186 0,00134 0,03953 0,03673 0,03470
Section F Normes sûres (modèle normal) Introduction La fonction usuelle d’une norme psychométrique, telles les normes considérées dans les sections A et B de ce volume, consiste principalement à repérer la position relative, le rang d’une personne testée parmi la population. Pour ce repérage, le psychométricien peut invoquer un modèle paramétrique de répartition, comme le modèle de la loi normale, ou bien utiliser les propriétés de base des données normatives et produire une norme nonparamétrique, telle la norme centile. Dans les deux cas, l’information cherchée est avant tout descriptive et est destinée à s’intégrer comme un élément d’un portrait global de la personne. Il existe d’autres contextes, des applications plus spécialisées, où la norme est intimement associée à une prise de décision : nous évoquons ici la sélection de personnel, l’examen de qualification, le contrôle de qualité, etc. Peuvent être concernés le psychologue, le gestionnaire du personnel, le conseiller en orientation, le technicien médical, l’ingénieur. Une personne (un produit, une structure) est mesurée, et sa mesure comparée à une norme ; si la norme est atteinte une décision s’ensuit, sinon une autre décision s’applique. La norme est ici conçue comme un seuil, un score de césure, un niveau à atteindre, et la valeur de la décision dépend évidemment de la validité de la norme. Or, qu’elles soient purement descriptives ou utilisées dans un contexte décisionnel, les normes psychométriques ont une base statistique, c’est-à-dire fluctuante, et l’incertitude qui leur est inhérente affecte essentiellement leur validité. En effet, peu importe le modèle adopté, les normes émanent d’un échantillon de la population visée, et les indices métriques ou positionnels qu’on en obtient restent des estimations par rapport aux indices correspondants dans la population. Or, puisque les normes seuils traitées ici donnent lieu à une décision et que cette décision est par là même incertaine, il importe d’en contrôler l’incertitude : c’est la fonction spécifique des « normes sûres », dont nous présentons deux variantes, l’une, paramétrique, basée sur le modèle normal, et l’autre, non paramétrique, basée sur les propriétés ordinales des mesures, celle-ci présentée dans la section suivante. La norme de qualification, celle à partir de laquelle la décision sera prise, a donc pour but de définir le niveau d’aptitude ou de performance à partir duquel un candidat peut prétendre faire partie de la portion supérieure de population. Soit LS, la valeur populationnelle de limite qui établit cette norme : tout candidat obtenant au test un score X tel que X déborde LS ferait partie de la portion supérieure de la population et serait donc jugé qualifié. Sur la base des données connues, on exigera par exemple un QI d’au moins 130 pour être admis au baccalauréat en psychologie, ou encore un niveau de V°O2 max de
118
L’étalonnage et la décision psychométrique
45,5 ml@kg!1@min!1 ou plus pour participer à l’équipe élite de marathon canadienne, etc. La sélection, on le conçoit, vise à assurer un niveau de réussite ou de performance éventuelle satisfaisant pour les candidats reçus. La norme LS caractérise et délimite la fraction supérieure f de la population1, selon : Pr{ X $ LS } = f .
(1)
Cette norme LS, toutefois, n’est pas connue, non plus que n’a été mesurée toute la population concernée. Pour établir la norme, l’usage consiste à se baser sur un échantillon tiré de la population et comportant n éléments, les données normatives, et à élaborer une estimation de la norme LS sur cette base. Supposons qu’on ait en mains un estimateur LSN calculé à partir des données normatives X1, X2, ..., Xn. La plupart des estimateurs, on le sait, sont consistants, en ce sens qu’ils tendent vers la valeur (réelle) du paramètre à mesure que la taille d’échantillon n augmente, de sorte que : Pr{ X $ LSN } 6 f si n 6 4 .
(2)
Nonobstant cette tendance asymptotique, il reste que la valeur d’un estimateur basé sur n = 25, 100 ou 200 éléments va fluctuer considérablement, et il y a lieu de se demander si la norme empirique ainsi obtenue est sûre. Comment alors définir une « norme sûre », la « sûreté » d’une norme ? 2 En premier lieu, convenons d’utiliser un estimateur particulier d’une norme de réussite, soit la valeur située à un écart standardisé au-dessus de la moyenne, _ (3) LNS = X + z1!f s , lequel estimateur a pour cible la valeur paramétrique, et inconnue, correspondante : LS = µX + z1!f σ ;
(4)
l’écart standardisé z1! f dénote la borne au delà de laquelle se situent les 100 f % d’une population normale standard._ En raison de la fluctuation due à l’échantillonnage et l’imprécision des statistiques X et s, l’estimateur LSN oscille autour de LS, la vraie norme. En établissant notre norme empirique, nous souhaitons que tout individu non qualifié, celui pour lequel X < LS, ne soit pas retenu par le critère X $ LNS et ce, avec une bonne probabilité : c’est cette probabilité qui définit la sûreté de la norme. Pour établir cette probabilité, considérons quelqu’un tout juste non qualifié, c’est-à-dire quelqu’un qui obtient le score XNQ = LS ! ε,
1. Certains contextes peuvent exiger qu’un candidat fasse partie d’une fraction inférieure f de la population, auquel cas le candidat devra obtenir un score borné par une valeur LI : il conviendra d’adapter les normes supérieures proposées pour ces cas. Nous traitons en outre de normes bilatérales, plus loin. 2. La présentation faite ici suit étroitement celle de Laurencelle (2002).
Normes sûres normales (Section F)
119
où ε est une petite quantité positive. Cette personne serait rejetée par la norme exacte, de sorte que : Pr{ XNQ $ LS } = 0 .
(5a)
D’autre part, la personne tout juste qualifiée, avec XQ = LS + ε, sera sûrement retenue, soit : Pr{ XQ $ LS } = 1 .
(5b)
À la limite, pour la personne ayant un niveau de qualification limitrophe, ε . 0 et X . LS, la probabilité de rétention oscillera entre 0 et 1, de sorte que : Pr{ X $ LS } 6 ½ si ε 6 0 .
(5c)
En utilisant la norme exacte LS, nous voyons que la marge de variation entre le rejet (5a) et la sélection (5b) est fine et très sûre puisque, par exemple, quelqu’un tout juste non qualifié est certain d’être rejeté. La norme empirique LNS , quant à elle, est incertaine et la marge de variation entre sélection et rejet a de l’épaisseur. Il est néanmoins possible et approprié de définir une norme sûre 7S telle que, par exemple, le risque de retenir une personne non qualifiée est contrôlé, soit : max Pr{ X $ ΛS | X < LNS } = α .
(6) _ Cette norme empirique, basée sur le modèle normal et les statistiques échantillonnales X et s, assure que quelqu’un non qualifié sera retenu selon une probabilité d’au plus α, ou rejeté selon une probabilité d’au moins 1 ! α. Pour obtenir α = 0 et retrouver le critère de sûreté absolue donné en (5a), il faudrait bien entendu un échantillon de taille infinie, c’est-à-dire la population elle-même. La norme sûre standard 8E est définie par : _ Λ S = X + 8E s ,
(7)
où λE = λE( f, α, n) est un écart standardisé tel que λE > z1!f . La section mathématique, plus loin, explique et documente ces relations. Les « normes sûres » présentées dans cette section réfèrent expressément au modèle normal, à la loi normale de distribution. Pour les appliquer et les interpréter avec validité, il est donc nécessaire que les mesures dans la population ciblée se distribuent (quasi) normalement et que la répartition des données normatives soit compatible avec le modèle normal3, ce telles qu’obtenues ou après une transformation normalisante. L’étude de la robustesse de ces normes en cas de violation du postulat de normalité reste à faire.
3. Laurencelle (2001) répertorie les procédures pour tester la « normalité » d’une série statistique.
120
L’étalonnage et la décision psychométrique
Normes exigeantes, normes permissives. La norme sûre vise à garantir une décision, à protéger une instance contre une erreur de décision possible. Or, cette erreur peut consister à retenir (par X $ LNS ) quelqu’un non qualifié (selon X < LS), auquel cas il faut relever la norme, obtenant ainsi une norme exigeante (dénotée λE). Ou bien, l’erreur peut consister à rejeter (par X < LSN) quelqu’un qualifié (selon X $ LS), auquel cas il faut rabattre la norme, obtenant alors une norme permissive (λP). Il s’agit, le lecteur l’entendra bien, d’erreurs opposées (mais non statistiquement symétriques), entre lesquelles l’utilisateur devra choisir celle qu’il lui faut contrôler. Normes unilatérales, normales bilatérales. Par une norme unilatérale, telle que celle qui nous a servi d’exemple dans l’introduction, nous voulons discriminer et retenir les candidats qui se démarquent dans une seule zone extrême ( f ) de la population. On peut concevoir aussi un contexte dans lequel nous serions intéressés à discriminer les candidats qui se distinguent soit dans la zone extrême supérieure ( f /2), soit dans la zone extrême inférieure ( f /2) de la population : nous aurons alors besoin d’une norme bilatérale. Elle sera exigeante (±λE) si, pour être retenu (à titre de candidat exceptionnel), le candidat doit produire un score soit très élevé (X $ ΛS), soit très bas (X # ΛI), et tel que la probabilité qu’il appartienne en fait aux 100(1!f ) % centraux de la population soit d’au plus α. La norme permissive (±λP) assurera, d’autre part, que la probabilité qu’un candidat réellement exceptionnel (dans une zone ou l’autre) soit rejeté est d’au plus α.
Nature et présentation des tables de la section F Les tables F1 à F4 présentent un_jeu étendu de normes sûres à base de distribution normale et exploitant les statistiques X et s de la série normative. Se font suite les normes unilatérales exigeantes (F1) et permissives (F2), puis bilatérales exigeantes (F3) et permissives (F4), chacune selon le risque d’erreur, ou degré de sûreté, α = 0,10 (a), 0,05 (b) et_ 0,01 (c). Sont présentés les écarts standardisés λ, destinés à être combinés aux statistiques X et s selon (7) afin de constituer la norme applicable. Malgré la relative abondance des tables offertes en termes de couverture ( f ), de taille échantillonnale (n), voire de risque d’erreur (α), il peut et il va arriver que l’utilisateur n’y trouve pas les valeurs paramétriques convenant à son contexte particulier. L’interpolation reste possible. Pour le paramètre de taille n, notamment dans les grands intervalles (n > 100), nous recommandons l’interpolation avec 1/ n . Pour le paramètre de couverture (ou fraction de population visée) f, nous proposons l’interpolation linéaire avec u(1! f ) = !ln (!ln 1! f )). Quant au paramètre de sûreté α, l’utilisateur peut recourir à la transformation u(α) = − ln α ; au besoin, pour α > 0,10, il peut exploiter le fait que la norme non fournie λ( f, α = 0,50, n) correspondant à peu près à λ( f, *, 4).
Normes sûres normales (Section F)
121
Enfin, Johnson, Kotz et Balakrishnan (1994) présentent une approximation du t non central (voir section mathématique, plus loin), qui, après adaptation, convient à l’estimation des normes sûres unilatérales ou bilatérales. La formule :
λ=
utilise :
(8)
δ = /n Φ!1(1!f ) , pour une norme unilatérale, = /n Φ!1(1!f /2) , pour une norme bilatérale ; b = 1 ! 1 / (4n ! 4) ; Ua = Φ!1(1 ! α) , pour une norme exigeante, = Φ!1(α) , pour une norme permissive.
Nous n’avons pas sérieusement étudié ni validé ces diverses techniques d’estimation. Les normes offertes ici ont été présentées dans un contexte d’interprétation particulier, mais le lecteur imaginatif pourra en transférer l’application dans d’autres contextes. Par exemple, supposons que nous voulions retenir toute la population sauf une fraction inférieure f, cela en assurant que les candidats rejetés soient vraiment dignes de l’être : le lecteur vérifiera que, dans ce cas particulier, il s’agira d’appliquer une norme exigeante négative, soit !λE.
Exercices de lecture des tables 1. L’échantillon normatif comporte 100 personnes. La compagnie veut s’assurer que les personnes retenues occupent les 10 meilleurs centiles de la population, avec un risque d’erreur de 5 %. Quelle norme doit-elle appliquer ? La norme exigeante, à la table F1, assure qu’une personne non qualifiée ait peu de chances d’être recrutée. Pour une sûreté de 1!α = 0,95, la table F1b, avec f = 0,10 (ou 1! f = 0,90) et n = 100, indique λE = 1,527. 2. Dans une population soi-disant normale, pour laquelle des normes ont été prélevées (n = 800), on veut détecter l’« anormalité », en repérant le 1 % d’individus potentiellement exceptionnels et ce, que leur mesure soit très basse ou très haute. Un risque d’erreur de 10 % est consenti.
122
L’étalonnage et la décision psychométrique
La quête d’individus « potentiellement exceptionnels » semble suggérer un critère de rétention tolérant, soit une norme permissive. Nous voici donc dans les normes bilatérales permissives, et particulièrement à la table F4a (pour α = 0,10) : vis-à-vis de 1!f = 0,99, nous trouvons ±λP = 2,481 pour n = 750 et ±λP = 2,494 pour n = 1000. Interpolant avec 1//n pour n _= 800, nous obtenons 2,484, de sorte que les bornes de repérage à appliquer seront X ± 2,484 s. 3. Quelle norme exigeante unilatérale devra-t-on appliquer pour n = 49, f = 0,25 et α = 0,02 ? Les tables F1b et F2b permettent de constituer le tableau d’interpolation ci-dessous : 1! f = 0,7
1! f = 0,8
1! f = 0,75
α = 0,05
0,799
1,150
0,9599
α = 0,01
0,926
1,296
1,0956
α = 0,02
0,8746
1,2369
1,0407
On peut interpoler sur α avec u(α) = − ln α : par exemple, pour 1! f = 0,7, λE(α = 0,02) = 0,799 + (0,926!0,799) × Q, où Q = − ln 0, 02 − − ln 0, 05 / − ln 0, 01 − − ln 0, 05 . 0,5951, soit λE . 0,8746 ; pour 1! f = 0,8, on obtient λE . 1,2369. Interpolant entre ces deux valeurs pour 1! f = 0,75 avec u(1! f ) = !ln(!ln 1 ! f ), nous obtenons λE .1,041. Ou bien on interpole sur f avec u(1! f ) : par exemple, pour α = 0,05, λE(1!f = 0,75) . 0,9599 et, pour α = 0,01, λE . 1,0956, d’où, pour α = 0,02 et utilisant cette fois u(α), nous obtenons λE . 1,041.
(
)
(
)
Utilisant l’approximation suggérée (8), nous calculons d’abord δ = /n Φ!1(1! f ) = 4,72143, Uα = Φ!1(1 ! α) = 2,05375 et b = 1 ! 1 / (4n ! 4) . 0,99479, puis λE . 1,046. Un calcul exact eût fourni λE = 1,043.
Exemples élaborés 1. Déclaration de « lenteur intellectuelle ». La création et l’application par les psychologues des tests d’intelligence, ou mesures d’aptitudes intellectuelles, avaient pour but une gestion plus efficiente de la scolarisation des jeunes. Au premier chef, il importait de repérer les enfants dotés d’aptitudes insuffisantes pour cheminer correctement dans le programme scolaire, afin de leur fournir un cadre particulier de développement et de formation qui leur convienne. Aussi, les psychologues ont accoutumé d’utiliser le test de quotient intellectuel (QI) notamment pour détecter
Normes sûres normales (Section F)
123
la « lenteur intellectuelle4 », utilisant pour ce faire des valeurs seuils. Comme c’est le cas pour la plupart des tests de QI, l’Épreuve individuelle d’habileté mentale (EIHM-IV) de Chevrier5 distribue les scores de QI sur un modèle normal, avec une moyenne (µ) de 100 et un écart-type (σ) de 15, la « lenteur intellectuelle » étant repérée à partir d’un QI de 85. Généralement favorable à l’intégration des jeunes handicapés dans les programmes réguliers, la direction d’une grande commission scolaire québécoise a néanmoins mis sur pied un programme expérimental destiné aux jeunes déficients, programme qui tablerait sur l’identification de leurs forces ou talents particuliers. On veut donc recruter pour ce programme des jeunes dont la « lenteur intellectuelle » est avérée. Quel critère de sélection peut-on leur proposer ? Le seuil convenu de lenteur intellectuelle, QI = 85, se situe à la distance d’un écarttype de la moyenne, i.e. 85 = 100 ! 1 × 15 ; il délimite donc, dans la population, une fraction extrême f de 1 ! 0,84134 = 0,15866 (voir table A2). De plus, d’après les informations du manuel du test5, les groupes normatifs de jeunes de 5 à 9 ans varient en nombre de 194 à 241, avec un nombre moyen d’environ 215. Disposant donc de 1! f = 0,84134, n . 215 , et optant pour α = 0,01, nous nous tournons vers la norme unilatérale exigeante, à la table F1c. L’interpolation double, entre n = 200 et 250 et entre 1!f = 0,8 et 0,9, fournit 1,201. L’approximation (8) exploite δ = /215 × 1 . 14,663, b = 0,998832, U = 2,3253 et indique λ*E = 1,210. Un calcul exact eût donné λE = 1,209. Comme il s’agit ici d’une sélection exigeante vers le bas, la norme à appliquer est µ ! λE σ = 100 ! 1,210 × 15 = 81,85 . 82. En retenant, pour le programme spécial, les enfants dont le QI est égal ou inférieur à 82, on est assuré à 99 % que ces enfants font partie de la fraction inférieure à 16 % de la population, les « lents intellectuels ». 2. Échantillonnage restrictif dans une population normale. Une équipe de chercheurs s’intéresse aux effets de certaines conditions du milieu environnant sur la productivité des travailleurs, le programme de recherche incluant des facteurs comme le bruit, la chaleur, l’exiguïté des lieux, la pollution de l’air, la longueur des quarts de travail. Pour leur usine expérimentale, les chercheurs veulent recruter des hommes de 30 à 40 ans dans la population normale, en particulier des personnes qui n’auraient une capacité de travail ni trop faible ni trop forte.
4. Le vocabulaire employé pour désigner les paliers inférieurs de l’intelligence humaine a d’abord été de source médicale ou psychiatrique et incluait des termes comme imbécillité, idiotie, crétinisme, etc. Les désignations n’ont pas fait encore l’objet d’une convention universelle, cependant on parle aujourd’hui plutôt de déficience intellectuelle, de retard mental, de lenteur, ce à différents degrés. 5. J.-M. Chevrier (1998). Épreuve individuelle d’habileté mentale. Montréal, Institut de recherches psychologiques.
124
L’étalonnage et la décision psychométrique
Pour les fins du recrutement, le kinésiologue de l’équipe suggère d’écarter d’abord de l’échantillon les personnes ayant un dossier médical ouvert et de mesurer la capacité aérobie des autres, afin d’en retenir celles dont la valeur serait confortablement « normale », soit celles situées parmi les 95 % centraux de la population. La mesure de référence de la capacité aérobie est le V/ O2 max, c.-à-d. le volume d’oxygène échangé lors d’une activité cardiovasculaire maximale, cette mesure étant un débit en millilitres par minute par kilo de masse corporelle. Pour la fourchette d’âges de 30 à 40 ans, des normes canadiennes (fictives), basées sur 150 hommes sains, indique une moyenne de 35,0 ml O2 et un écart-type de 6,0. L’hypothèse de distribution normale est plausible. Nous réclamons ici une norme qui, tout en écartant les personnes occupant de 2,5 % rangs inférieurs ou supérieurs de la population, nous protégerait contre des intrus possibles, dus à l’imprécision statistique des indices retenus : nous nous dirigeons ainsi vers une norme bilatérale permissive, à la table F4b. Endossant un risque d’erreur de 0,05, avec n = 150, 1!f = 0,95, nous trouvons ±λP = ±1,748. Utilisant les valeurs _ normatives (fictives) mentionnées ci-dessus, les bornes de sélection sont donc X ± 1,748 s . (24,51 ; 45,49). L’échantillonnage normal «prudent» consisterait donc à évaluer le V/ O2 max de chaque candidat par une procédure appropriée et à ne retenir comme sujets expérimentaux que ceux pour qui 24,51 #V/ O2 max # 45,49. 3. Admission dans un programme universitaire. Le taux d’échecs dans un programme de baccalauréat en sciences étant trop élevé, les administrateurs universitaires décident d’admettre les candidats grâce à une sélection selon leur degré de réussite dans les études préparatoires : leur choix se porte sur la cote de rendement collégial (CRC), une moyenne du bulletin basée sur quatre trimestres de scolarité et pondérée selon une mesure de la force des groupes-classes concernés. Le nouveau règlement stipule que, pour être admis, le candidat doit présenter une CRC supérieure à la moyenne établie. Le programme datant de seulement quelques années, on n’a pu amasser que quelques statistiques sur le rendement des étudiants concernés au niveau d’études collégiales. La cote CRC moyenne des n = 30 étudiants a été de 27,40, avec un écart-type de 3,70. Les autorités universitaires, bien que soucieuses de la réussite des candidats admis dans ce programme, ne veulent cependant pas léser ceux dont la CRC jouxterait le seuil prescrit, c’est pourquoi leur choix se porte sur une norme permissive, assortie d’un risque d’erreur de 5 %. Quelle sera la norme finale imposée ? « Sélectionner à la moyenne » signifie, en fait, retenir les personnes situées dans la moitié supérieure de la population, soit la fraction f = 0,5. Dans la table F2b, les normes unilatérales permissives au risque de 5 % donnent λP = !0,343 pour n = 25 et λP = ! 0,282 pour n = 36. Interpolant avec 1//n pour n = 30, nous obtenons λE(n = 30)
Normes sûres normales (Section F)
125
.!0,311. Ou bien, puisque f = 0,5, la relation (15) avec le t de Student s’applique. Dans un table du t (p. ex. Laurencelle et Dupuis, 2000), on trouve t(n ! 1[1 ! α]) = t(29[0,95]) _ = 1,699, et λP = !1,699 //30 .!0,311. Le seuil de sélection imposé sera donc X + λP s = 27,50 ! 0,311 × 3,70 . 26,35. 4. Sélection dans une population à distribution non normale. L’exemple 1 de la section A nous mettait en présence d’une mesure, la distance courue en 12 minutes (course de 12 minutes de Cooper), dont la distribution normative accusait une forme nettement non normale. En fait, la distance mesurée en mètres, X, semblait répondre à un modèle de distribution lognormal à trois paramètres, Y = log(X ! X0), avec X0 . 839, et les esti^ Y = 0,200 basées sur n = 282 données. Dans ce contexte, quelle mations ^µY = 7,235 et σ norme devrait-on appliquer pour recruter les meilleurs 5 % de la population dans un club sportif, en s’assurant que des personnes moins qualifiées (i.e. qualifiées à un rang centile inférieur à 95) ne soient retenues que selon une probabilité de 1 % ? Les normes présentées dans cette section supposent que les mesures se répartissent selon un modèle normal dans la population, ce qui n’est pas le cas de la mesure X considérée ici. Cependant, après transformation en une mesure Y, les données normatives (et de population) obéissent à peu près à un modèle normal, tel que Y = log(X ! X0) ^ Y = 0,200). Nous pouvons dès lors trouver la norme normale ~ N ( ^µY = 7,235 ; σ exigeante qu’on demande ici sur l’échelle Y, et la retranscrire ensuite en son équivalent X, ses propriétés probabilistes étant préservées (puisque celles-ci dépendent strictement de la position relative de la norme plutôt que de la forme de sa distribution générale). Dans le domaine Y donc et en nous référant à la table F1c pour α = 0,01, nous trouvons, sous f = 0,05, λ = 1,891 pour n = 250 et λ = 1,868 pour n = 300. Interpolant sur 1/ n pour n = 282, nous calculons λ . 1,876 (la formule (8) donne 1,877), d’où le seuil Y, LY = 7,235 + 0,200 × 1,876 . 7,6102. Relocalisant dans l’espace X, nous obtenons enfin LX = X0 + exp (LY ) = 839 + exp(7,6102) . 2857,68. Justification mathématique Théorie de la norme unilatérale Le concept de « norme sûre » apparaît dans la littérature statistique sous la dénomination de « limite de tolérance normale » (Kendall et Stuart, 1979 ; Johnson, Kotz et Balakrishnan, 1994 ; Odeh et _ Owen, 1980). Soient la fraction élective f, la base normative résumée dans le triplet (n, X , s) et le risque d’erreur α. Le candidat non qualifié est tel que X < LS = µ + σU1!f, où U1!f dénote le centile 100(1 ! f ) d’une population normale standard. Pour la norme exigeante, il convient donc d’assurer : Pr{ X $ LSN | X < LS} # α ,
(9)
126
L’étalonnage et la décision psychométrique
autrement dit : max Pr { X $ LSN | X < LS} = α ,
(10)
ce maximum advenant lorsque X . LS, soit : Pr{ LS $ LSN } = α .
(11) _ Réécrivant explicitement l’expression (11), avec LNS = X + λE s, nous obtenons : _ Pr{ µ + σU1!f $ X + λE s } = α (12) _ Pr{ U1!f $ (X + λE s ! µ)/σ } = α _ Pr{ U1!f $ X N + λE sN } = α , _ _ _ où X N et sN sont standardisés, i.e. X N = (X ! µ) / σ et sN = s / σ. _ Sous le modèle normal stipulé ici, la moyenne arithmétique X a pour distribution une normale d’espérance µ et de variance σ2 / n, tandis que l’écart-type s a pour distribution une Khi ayant n!1 degrés de liberté, avec comme espérance approchée σ[1 ! 1/(4n)] et variance approchée σ2 (4n ! 1) / (8n2) (Laurencelle et Dupuis, 2000). Ces deux indices étant statistiquement indépendants dans le cas normal, la probabilité (12) s’obtient par la convolution de leurs densités respectives, soit : _ _ _ Pr{ X N + λsN < U1!f } = II g(X ) h(s) ds dX (13) _ X N+λ sN < U1! f
Le but étant de déterminer λE telle que la probabilité (13) soit égale à α (pour une norme _ exigeante), il y a trois procédés possibles. Supposant λE et sN connus, la probabilité Pr{ X N< U1!f !λE sN} est égale à Pr{ z < /n × (U1!f !λE sN) } ou simplement Φ[ /n × (U1!f !λE sN) ] ; cet ingrédient doit ensuite être incorporé dans une intégration sur sN, soit IΦ[ /n × (U1!f ! λE sN)] h(sN) dsN, pour sN > 0, finalisant la _ probabilité et permettant enfin _ de déterminer λE (par repérage). Supposant _ plutôt λE et X N connus, la probabilité Pr{ _X N + λE sN < U1!f } devient Pr{ sN < (U1!f _!X N)/λE } = Pr{ (n ! 1) s N2/σ2 < (n ! 1)(U1!f ! X N)2/λE2 }, c.-à-d. Pr{ P2n !1 _< (n !1)(U1!f !X N)2/λ2E }. Cet ingrédient _ serait ensuite _ _incorporé_ dans une intégration 2 2 2 sur X N, soit I Pr{ Pn !1 < (n ! 1)(U1!f ! X N) /λE } g(X ) dX N, pour X > U1!f ! λE sN, pour produire la probabilité finale et fixer λE. Enfin, si l’on dispose d’une table ou d’une fonction d’évaluation de la loi t non centrale, la valeur λE satisfera : Pr{ tnN!1(δ) < λE /n } = 1 ! α ,
(14)
avec < = n !1 degrés de liberté et le paramètre de non-centralité δ = U1!f /n (Laurencelle, 2002), d’où λE = tnN!1[1!α](δ) / /n. Dans le cas d’une norme médiane, c.-à-d. pour f = 0,5, U0,5 = 0, d’où δ = 0, et le tN devient un t central, le t de Student, de sorte que : λE( f = 0,5, α, n) = tn !1(1!α) / /n .
(15)
Normes sûres normales (Section F)
127
Pour établir la norme permissive λP (applicable à quelqu’un tout juste qualifié et pour qui la probabilité d’être rejeté ne doit pas excéder α), le même itinéraire s’applique, en remplaçant cette fois α par son complément 1!α. Théorie de la norme bilatérale De même que la norme sûre unilatérale peut être mise en correspondance avec le concept classique de « limite de tolérance », de même la littérature (Kendall et Stuart 1979) présente un concept affin à celui de norme sûre bilatérale : c’est le concept d’« intervalle de tolérance », que nous avons d’abord, à tort, identifié avec la norme sûre (Laurencelle, 1998a, 2000). L’intervalle de tolérance (LNI , LSN) est tel que la probabilité qu’il contienne au moins 100γ % de la population est d’au moins 1 ! α, i.e. Pr{ Φ(LNI ) ! Φ(LNS ) $ γ } $ 1 ! α : il s’agit d’un intervalle flottant, dont la caractéristique déterminante _ est l’écart (LNS ! LNI ), dont les bornes ne sont pas forcément symétriques (i.e. LNI … 2X ! LNS ) ni reliées à des fractions extrêmes déterminées de la population. La norme sûre bilatérale est, quant à elle, ancrée sur les deux fractions extrêmes symétriques de la population, soit la fraction f /2 inférieure et la fraction f / 2 supérieure ; de la sorte, pour la norme exigeante, est contrôlée la probabilité qu’un candidat appartenant de fait au corps central (1 ! f ) de la population soit jugé exceptionnellement fort (s’il est classé dans la fraction f / 2 supérieure) ou exceptionnellement faible (s’il aboutit dans la fraction f / 2 inférieure). Raisonnant encore en fonction d’une norme exigeante (±λE) , considérons un candidat non qualifié, c’est-à-dire ici non exceptionnel selon LI < X < LS. Pour cet individu, il faut assurer que la probabilité qu’il soit retenu d’un côté ou de l’autre ne déborde pas α, soit : Pr{ X # LIN ou X $ LSN | LI < X < LS } # α ,
(16)
expression qu’on peut réécrire comme : max Pr{ X # LIN ou X $ LNS | LI < X < LS } = α .
(17)
Ce maximum advient lorsque le candidat est presque qualifié, soit X 6 LI ou X 6 LS . Prenons indifféremment X . LS. Alors :
et :
Pr{ LS # LIN ou LS $ LNS } # α _ _ Pr{ µ + U1!f /2σ # X !λE s ou µ + U1!f /2σ $ X + λE s } = α .
En valeurs standardisées, l’expression (19) devient : _ _ Pr{ U1!f /2 # X N!λE sN ou U1!f /2 $ X N+ λE sN } = α _ _ et : Pr{ X N! λE sN$ U1!f /2 ou X N+ λE sN # U1!f /2 } = α .
(18) (19)
(20) (21)
Le membre gauche de l’expression ci-dessus peut se traduire symboliquement comme : Pr{ A ou B } ,
(22)
128
L’étalonnage et la décision psychométrique
Pr{ A } + Pr{ B } ! Pr{ A et B }.
qui égale :
Or, A et B étant incompatibles, l’intersection « A et B » est impossible de sorte que Pr{ A et B } = 0, et (22) devient :
soit :
Pr{ A } + Pr { B } , _ _ Pr{ X N! λE sN$ U1!f /2 } + Pr{ X N+ λE sN # U1!f /2 } .
(23) (24)
À l’instar de la norme unilatérale traitée auparavant, les probabilités (24) peuvent être explicitement évaluées par les deux intégrations suivantes :
1 ! IΦ[ /n×(U1!f /2 +λE sN) ] h(sN) dsN + IΦ[ /n×(U1!f /2 !λE sN) ] h(sN) dsN , (25) la valeur λE cherchée étant celle qui égalisera l’expression à α. À toutes fins utiles, la densité h(sN) de l’écart-type normal standard sN, basé sur < = n ! 1 degrés de liberté, est donnée par (Laurencelle et Dupuis, 2000) : h(sN) = 2(
Quant à la norme bilatérale permissive (±λP), le candidat considéré est qualifié, par X < LI ou par X > LS, et il peut être refusé par erreur si X > LNI et X < LNS . La probabilité d’un refus est maximale pour un candidat tout juste qualifié, par exemple X . LS, et c’est cette probabilité qu’il faut garder sous le seuil α, soit : Pr{ LS > LNI et LS < LNS } # α , expression que, à l’exemple de (21), nous traduisons immédiatement par : _ _ Pr{ X N! λP sN< U1!f /2 et X N+ λP sN > U1!f /2 } = α .
(27)
(28)
Réécrivant (28) symboliquement : Pr{ A et !B } ,
(29)
nous utilisons l’équivalence P{ A } = P{ A et B } + P{ A et !B } pour obtenir : Pr{ A } ! Pr{ A et B } . (30) _ _ Or, considérant Pr{ A et B } = Pr{ X N! λP sN< U1!f /2 et X N+ λP sN < U1!f /2 }, nous constatons que l’événement B implique l’événement A, soit Pr{ A|B } = 1, d’où Pr{ A et B } = Pr{ A|B } × Pr{ B } = Pr{ B }. Ainsi, (28) équivaut à : Pr{ A } ! Pr{ B } = α ,
(31)
IΦ[/n×(U1!f /2 +λp sN) ] h(sN) dsN!IΦ[ /n×(U1!f/2 !λp sN)] h(sN) dsN = α ,
(32)
soit, explicitement :
ce qui nous permet de déterminer la norme λP.
Normes sûres normales (Section F)
129
Noter que, en dépit de la dualité d’intégrales qui constitue nos expressions (25) et (32), l’approximation (8) reste satisfaisante pour n suffisants (p. ex. n $ 100). En effet, seule l’une des deux intégrales constitutives dans chaque expression varie sensiblement, de sorte que la norme bilatérale sur la fraction (divisée) f correspond à toutes fins pratiques à la norme unilatérale à fraction f /2.
130
L’étalonnage et la décision psychométrique
Table F1a. Normes sûres unilatérales exigeantes, avec sûreté (α) de 0,10 n / 1!f
0,5
0,6
0,7
0,8
0,9
0,95
0,99
4 5 6 7 8 9 10
0,819 0,686 0,603 0,545 0,501 0,466 0,438
1,220 1,042 0,935 0,862 0,808 0,767 0,733
1,693 1,456 1,318 1,226 1,158 1,107 1,066
2,295 1,977 1,795 1,676 1,591 1,526 1,475
3,188 2,743 2,494 2,333 2,219 2,133 2,066
3,957 3,400 3,092 2,894 2,755 2,650 2,569
5,439 4,666 4,243 3,972 3,783 3,642 3,532
11 12 13 14 15 16 18 20
0,414 0,394 0,377 0,361 0,348 0,336 0,315 0,297
0,705 0,681 0,661 0,644 0,628 0,614 0,590 0,571
1,032 1,004 0,980 0,959 0,941 0,925 0,897 0,874
1,433 1,398 1,369 1,343 1,321 1,301 1,268 1,241
2,012 1,967 1,929 1,896 1,867 1,842 1,800 1,766
2,503 2,449 2,403 2,363 2,329 2,299 2,249 2,208
3,444 3,371 3,310 3,258 3,212 3,173 3,106 3,052
25 36 49 64 81 100 150 200 250 300 400 500 750 1000
0,264 0,218 0,186 0,162 0,144 0,129 0,106 0,091 0,082 0,075 0,065 0,058 0,047 0,041 0,000
0,534 0,483 0,448 0,423 0,403 0,388 0,362 0,347 0,337 0,330 0,320 0,313 0,302 0,295 0,253
0,831 0,774 0,735 0,707 0,685 0,668 0,641 0,625 0,614 0,606 0,595 0,587 0,576 0,569 0,524
1,190 1,123 1,078 1,045 1,021 1,002 0,971 0,952 0,940 0,931 0,919 0,911 0,898 0,890 0,842
1,702 1,619 1,563 1,524 1,494 1,471 1,433 1,412 1,397 1,387 1,372 1,362 1,347 1,338 1,282
2,133 2,035 1,970 1,923 1,889 1,862 1,819 1,794 1,777 1,765 1,748 1,737 1,719 1,709 1,645
2,953 2,825 2,740 2,680 2,636 2,601 2,546 2,515 2,493 2,478 2,457 2,442 2,420 2,407 2,326
4
131
Normes sûres normales (Section F)
Table F1b. Normes sûres unilatérales exigeantes, avec sûreté (α) de 0,05 n / 1!f
0,5
0,6
0,7
0,8
0,9
0,95
0,99
4 5 6 7 8 9 10
1,177 0,954 0,823 0,735 0,670 0,620 0,580
1,673 1,370 1,199 1,087 1,007 0,945 0,896
2,266 1,861 1,639 1,495 1,394 1,317 1,257
3,027 2,484 2,191 2,006 1,876 1,779 1,704
4,162 3,407 3,007 2,756 2,582 2,454 2,355
5,144 4,203 3,708 3,400 3,188 3,032 2,911
7,043 5,742 5,062 4,642 4,354 4,143 3,982
11 12 13 14 15 16 18 20
0,547 0,519 0,495 0,474 0,455 0,439 0,410 0,387
0,857 0,823 0,795 0,770 0,748 0,729 0,697 0,670
1,209 1,168 1,134 1,104 1,079 1,056 1,018 0,986
1,643 1,593 1,551 1,515 1,483 1,456 1,410 1,372
2,276 2,211 2,156 2,109 2,069 2,033 1,974 1,926
2,815 2,737 2,671 2,615 2,566 2,524 2,453 2,396
3,853 3,748 3,660 3,585 3,521 3,464 3,371 3,296
25 36 49 64 81 100 150 200 250 300 400 500 750 1000
0,343 0,282 0,240 0,209 0,185 0,167 0,136 0,117 0,105 0,096 0,083 0,074 0,061 0,053 0,000
0,620 0,552 0,506 0,472 0,447 0,427 0,394 0,375 0,362 0,352 0,339 0,330 0,315 0,307 0,253
0,928 0,851 0,799 0,761 0,733 0,711 0,675 0,654 0,640 0,629 0,615 0,605 0,590 0,581 0,524
1,302 1,211 1,150 1,107 1,075 1,049 1,009 0,985 0,969 0,957 0,941 0,931 0,914 0,904 0,842
1,839 1,725 1,650 1,597 1,558 1,527 1,478 1,450 1,431 1,417 1,398 1,385 1,366 1,354 1,282
2,292 2,158 2,071 2,009 1,963 1,927 1,870 1,838 1,816 1,800 1,778 1,764 1,741 1,728 1,645
3,158 2,983 2,869 2,789 2,730 2,684 2,612 2,570 2,542 2,522 2,495 2,476 2,447 2,431 2,326
4
132
L’étalonnage et la décision psychométrique
Table F1c. Normes sûres unilatérales exigeantes, avec sûreté (α) de 0,01 n / 1!f
0,5
0,6
0,7
0,8
0,9
0,95
0,99
4 5 6 7 8 9 10
2,271 1,676 1,374 1,188 1,060 0,966 0,893
3,103 2,288 1,885 1,642 1,478 1,359 1,267
4,112 3,020 2,491 2,177 1,967 1,816 1,701
5,418 3,959 3,262 2,854 2,584 2,391 2,246
7,380 5,362 4,412 3,860 3,498 3,241 3,048
9,084 6,579 5,406 4,728 4,286 3,973 3,739
12,388 8,939 7,335 6,412 5,812 5,389 5,074
11 12 13 14 15 16 18 20
0,834 0,785 0,744 0,709 0,678 0,651 0,605 0,568
1,194 1,134 1,085 1,042 1,005 0,973 0,919 0,875
1,611 1,537 1,476 1,424 1,379 1,340 1,275 1,223
2,132 2,040 1,963 1,899 1,844 1,795 1,716 1,652
2,898 2,777 2,677 2,594 2,522 2,460 2,357 2,276
3,557 3,410 3,290 3,189 3,103 3,028 2,906 2,808
4,830 4,633 4,472 4,338 4,223 4,124 3,961 3,832
25 36 49 64 81 100 150 200 250 300 400 500 750 1000
0,499 0,407 0,344 0,299 0,264 0,237 0,192 0,166 0,149 0,136 0,117 0,105 0,086 0,074 0,000
0,794 0,689 0,619 0,569 0,531 0,502 0,454 0,426 0,407 0,393 0,374 0,361 0,341 0,329 0,253
1,128 1,006 0,926 0,869 0,826 0,793 0,740 0,710 0,689 0,674 0,653 0,639 0,618 0,605 0,524
1,537 1,391 1,296 1,230 1,181 1,143 1,082 1,047 1,024 1,007 0,984 0,968 0,944 0,930 0,842
2,129 1,946 1,828 1,746 1,686 1,639 1,566 1,524 1,497 1,477 1,449 1,430 1,402 1,385 1,282
2,634 2,416 2,277 2,181 2,111 2,057 1,972 1,923 1,891 1,868 1,836 1,815 1,782 1,763 1,645
3,602 3,316 3,135 3,011 2,920 2,850 2,741 2,679 2,638 2,608 2,568 2,541 2,499 2,475 2,326
4
133
Normes sûres normales (Section F)
Table F2a. Normes sûres unilatérales permissives, avec sûreté (α) de 0,10 n / 1!f
0,5
0,6
4 5 6 7 8 9 10
!0,819 !0,686 !0,603 !0,545 !0,501 !0,466 !0,438 !0,414 !0,394 !0,377 !0,361 !0,348 !0,336 !0,315 !0,297 !0,264 !0,218 !0,186 !0,162 !0,144 !0,130 !0,106 !0,091 !0,082 !0,075 !0,065 !0,058 !0,047 !0,041
!0,463 !0,363 !0,298 !0,250 !0,213 !0,184 !0,160 !0,139 !0,121 !0,106 !0,092 !0,080 !0,069 !0,050 !0,034 !0,003
11 12 13 14 15 16 18 20 25 36 49 64 81 100 150 200 250 300 400 500 750 1000
4
0,000
0,039 0,070 0,093 0,110 0,125 0,148 0,162 0,171 0,178 0,188 0,195 0,206 0,212 0,253
0,7
0,8
!0,130 0,208 !0,053 0,272
0,9
0,95
0,99
0,922 0,982 1,028 1,065 1,095 1,121 1,143
1,455 1,524 1,578 1,621 1,657 1,688 1,714
0,001 0,041 0,073 0,099 0,120
0,318 0,354 0,383 0,407 0,428
0,617 0,675 0,719 0,754 0,783 0,807 0,828
0,139 0,155 0,169 0,182 0,193 0,203 0,221 0,236
0,445 0,461 0,475 0,487 0,498 0,508 0,525 0,540
0,846 0,862 0,876 0,889 0,901 0,911 0,930 0,946
1,163 1,180 1,195 1,209 1,222 1,233 1,253 1,271
1,737 1,758 1,776 1,792 1,807 1,821 1,845 1,866
0,266 0,307 0,337 0,360 0,378 0,392 0,415 0,430 0,439 0,447 0,457 0,464 0,475 0,481 0,524
0,570 0,612 0,643 0,666 0,685 0,700 0,725 0,740 0,750 0,758 0,769 0,776 0,788 0,795 0,842
0,977 1,023 1,057 1,083 1,103 1,120 1,148 1,165 1,177 1,185 1,198 1,206 1,220 1,228 1,282
1,305 1,356 1,393 1,422 1,444 1,463 1,494 1,513 1,526 1,536 1,550 1,560 1,575 1,584 1,645
1,908 1,969 2,014 2,050 2,077 2,100 2,139 2,162 2,179 2,191 2,208 2,220 2,239 2,250 2,326
134
L’étalonnage et la décision psychométrique
Table F2b. Normes sûres unilatérales permissives, avec sûreté (α) de 0,05 n / 1!f
0,5
0,6
0,7
0,8
0,9
0,95
0,99
4 5 6 7 8 9 10
!1,177 !0,954 !0,823 !0,735 !0,670 !0,620 !0,580 !0,547 !0,519 !0,495 !0,474 !0,455 !0,439 !0,411 !0,387 !0,343 !0,282 !0,240 !0,209 !0,185 !0,167 !0,136 !0,117 !0,105 !0,096 !0,083 !0,074 !0,061 !0,053
!0,746 !0,583 !0,483 !0,414 !0,361 !0,320 !0,286 !0,258 !0,234 !0,213 !0,195 !0,178 !0,164 !0,139 !0,118 !0,077 !0,021
!0,356 !0,238 !0,160 !0,104 !0,060 !0,025 0,004
0,020 0,110 0,172 0,220 0,258 0,289 0,316
0,443 0,518 0,574 0,619 0,655 0,685 0,711
0,743 0,817 0,874 0,920 0,958 0,989 1,017
1,246 1,330 1,396 1,449 1,493 1,530 1,562
0,029 0,050 0,069 0,085 0,100 0,113 0,136 0,156
0,338 0,358 0,376 0,391 0,405 0,418 0,440 0,459
0,734 0,754 0,771 0,787 0,802 0,815 0,838 0,858
1,041 1,062 1,081 1,098 1,113 1,128 1,153 1,174
1,590 1,615 1,638 1,658 1,676 1,693 1,723 1,749
0,194 0,247 0,286 0,314 0,337 0,355 0,385 0,403 0,416 0,425 0,438 0,447 0,461 0,469 0,524
0,497 0,550 0,589 0,619 0,642 0,661 0,693 0,712 0,725 0,735 0,748 0,758 0,773 0,782 0,842
0,897 0,955 0,997 1,029 1,055 1,076 1,111 1,133 1,148 1,159 1,175 1,185 1,202 1,213 1,282
1,217 1,280 1,326 1,362 1,391 1,414 1,453 1,477 1,494 1,506 1,524 1,536 1,555 1,567 1,645
1,800 1,876 1,932 1,976 2,011 2,040 2,088 2,118 2,138 2,154 2,176 2,191 2,215 2,229 2,326
11 12 13 14 15 16 18 20 25 36 49 64 81 100 150 200 250 300 400 500 750 1000
4
0,000
0,018 0,047 0,070 0,088 0,118 0,136 0,148 0,157 0,170 0,179 0,192 0,200 0,253
135
Normes sûres normales (Section F)
Table F2c. Normes sûres unilatérales permissives, avec sûreté (α) de 0,01 n / 1!f
0,5
0,6
0,7
0,8
0,9
0,95
0,99
4 5 6 7 8 9 10
!2,271 !1,676 !1,374 !1,188 !1,060 !0,966 !0,893 !0,834 !0,785 !0,744 !0,709 !0,678 !0,651 !0,606 !0,568 !0,499 !0,407 !0,344 !0,299 !0,264 !0,237 !0,193 !0,166 !0,149 !0,136 !0,117 !0,105 !0,086 !0,074
!1,563 !1,145 !0,925 !0,785 !0,686 !0,611 !0,553 !0,505 !0,465 !0,431 !0,401 !0,376 !0,353 !0,314 !0,281 !0,220 !0,138 !0,080 !0,038 !0,006
!0,950 !0,671 !0,514 !0,410 !0,334 !0,275 !0,228 !0,189 !0,155 !0,127 !0,101 !0,079 !0,059 !0,025
!0,405 !0,228 !0,118 !0,040 0,019 0,067 0,106
0,122 0,237 0,318 0,380 0,430 0,472 0,507
0,442 0,543 0,618 0,677 0,726 0,768 0,803
0,923 1,027 1,107 1,172 1,227 1,273 1,313
0,004
0,139 0,168 0,193 0,216 0,236 0,254 0,285 0,312
0,538 0,564 0,588 0,610 0,629 0,647 0,678 0,704
0,834 0,862 0,886 0,909 0,929 0,947 0,980 1,008
1,349 1,380 1,408 1,434 1,457 1,479 1,517 1,550
0,059 0,135 0,189 0,230 0,262 0,287 0,329 0,355 0,372 0,385 0,403 0,416 0,435 0,447 0,524
0,364 0,438 0,491 0,532 0,564 0,590 0,634 0,660 0,678 0,692 0,711 0,724 0,745 0,758 0,842
0,757 0,833 0,890 0,934 0,969 0,997 1,045 1,075 1,095 1,111 1,132 1,147 1,171 1,185 1,282
1,064 1,146 1,208 1,256 1,294 1,326 1,379 1,412 1,435 1,452 1,476 1,493 1,520 1,536 1,645
1,616 1,714 1,788 1,846 1,893 1,932 1,997 2,037 2,065 2,086 2,116 2,137 2,170 2,190 2,326
11 12 13 14 15 16 18 20 25 36 49 64 81 100 150 200 250 300 400 500 750 1000
4
0,000
0,020 0,063 0,088 0,105 0,118 0,136 0,148 0,167 0,179 0,253
136
L’étalonnage et la décision psychométrique
Table F3a. Normes sûres bilatérales exigeantes, avec sûreté (α) de 0,10 n / 1!f
0,5
0,6
0,7
0,8
0,9
0,95
0,99
4 5 6 7 8 9 10
1,979 1,700 1,541 1,436 1,360 1,303 1,257
2,297 1,977 1,795 1,676 1,591 1,526 1,475
2,685 2,311 2,100 1,963 1,866 1,792 1,734
3,188 2,743 2,494 2,333 2,219 2,133 2,066
3,957 3,400 3,092 2,894 2,755 2,650 2,569
4,637 3,982 3,621 3,390 3,227 3,106 3,012
5,989 5,136 4,670 4,372 4,164 4,009 3,889
11 12 13 14 15 16 18 20
1,220 1,189 1,162 1,139 1,119 1,101 1,071 1,046
1,433 1,398 1,369 1,343 1,321 1,301 1,268 1,241
1,687 1,647 1,614 1,586 1,561 1,539 1,502 1,472
2,012 1,967 1,929 1,896 1,867 1,842 1,800 1,766
2,503 2,449 2,403 2,363 2,329 2,299 2,249 2,208
2,936 2,873 2,820 2,775 2,736 2,701 2,643 2,597
3,792 3,713 3,646 3,588 3,539 3,495 3,423 3,364
25 36 49 64 81 100 150 200 250 300 400 500 750 1000
1,000 0,938 0,897 0,866 0,843 0,825 0,796 0,779 0,768 0,760 0,748 0,740 0,728 0,721 0,674
1,190 1,123 1,078 1,045 1,021 1,002 0,971 0,952 0,940 0,931 0,919 0,911 0,898 0,890 0,842
1,415 1,341 1,292 1,256 1,229 1,208 1,175 1,155 1,142 1,133 1,119 1,110 1,096 1,088 1,036
1,702 1,619 1,563 1,524 1,494 1,471 1,433 1,412 1,397 1,387 1,372 1,362 1,347 1,338 1,282
2,133 2,035 1,970 1,923 1,889 1,862 1,819 1,794 1,777 1,765 1,748 1,737 1,719 1,709 1,645
2,510 2,399 2,325 2,272 2,233 2,203 2,154 2,126 2,108 2,094 2,075 2,063 2,043 2,032 1,960
3,256 3,116 3,024 2,959 2,911 2,873 2,814 2,779 2,756 2,740 2,717 2,701 2,677 2,663 2,576
4
137
Normes sûres normales (Section F)
Table F3b. Normes sûres bilatérales exigeantes, avec sûreté (α) de 0,05 n / 1!f
0,5
0,6
0,7
0,8
0,9
0,95
0,99
4 5 6 7 8 9 10
2,625 2,152 1,896 1,733 1,618 1,533 1,466
3,028 2,484 2,191 2,006 1,876 1,779 1,704
3,521 2,886 2,547 2,333 2,184 2,074 1,988
4,162 3,407 3,007 2,756 2,582 2,454 2,355
5,144 4,203 3,708 3,400 3,188 3,032 2,911
6,015 4,909 4,330 3,970 3,723 3,542 3,403
7,749 6,314 5,566 5,104 4,788 4,556 4,379
11 12 13 14 15 16 18 20
1,412 1,367 1,329 1,296 1,268 1,243 1,201 1,167
1,643 1,593 1,551 1,515 1,483 1,456 1,410 1,372
1,920 1,863 1,816 1,775 1,740 1,709 1,657 1,615
2,276 2,211 2,156 2,109 2,069 2,033 1,974 1,926
2,815 2,737 2,671 2,615 2,566 2,524 2,453 2,396
3,292 3,201 3,125 3,061 3,005 2,956 2,875 2,810
4,238 4,122 4,026 3,945 3,874 3,813 3,710 3,628
25 36 49 64 81 100 150 200 250 300 400 500 750 1000
1,103 1,020 0,964 0,924 0,894 0,870 0,832 0,810 0,795 0,784 0,769 0,759 0,743 0,734 0,674
1,302 1,211 1,150 1,107 1,075 1,049 1,009 0,985 0,969 0,957 0,941 0,931 0,914 0,904 0,842
1,538 1,437 1,370 1,322 1,287 1,260 1,216 1,190 1,173 1,160 1,143 1,132 1,114 1,103 1,036
1,839 1,725 1,650 1,597 1,558 1,527 1,478 1,450 1,431 1,417 1,398 1,385 1,366 1,354 1,282
2,292 2,158 2,071 2,009 1,963 1,927 1,870 1,838 1,816 1,800 1,778 1,764 1,741 1,728 1,645
2,691 2,538 2,439 2,369 2,316 2,276 2,212 2,176 2,151 2,133 2,109 2,092 2,067 2,052 1,960
3,479 3,288 3,164 3,077 3,013 2,963 2,885 2,839 2,809 2,788 2,758 2,737 2,706 2,688 2,576
4
138
L’étalonnage et la décision psychométrique
Table F3c. Normes sûres bilatérales exigeantes, avec sûreté (α) de 0,01 n / 1!f
0,5
0,6
0,7
0,8
0,9
4 5 6 7 8 9 10
4,725 3,456 2,849 2,491 2,254 2,084 1,955
5,421 3,959 3,262 2,854 2,584 2,391 2,246
6,270 4,568 3,762 3,292 2,982 2,761 2,596
7,380 5,362 4,412 3,860 3,498 3,241 3,048
9,084 6,579 5,406 4,728 4,286 3,973 3,739
10,599 13,618 7,661 9,819 6,290 8,054 5,500 7,040 4,985 6,381 4,622 5,917 4,351 5,571
11 12 13 14 15 16 18 20
1,853 1,771 1,703 1,645 1,596 1,553 1,481 1,424
2,132 2,040 1,963 1,899 1,844 1,795 1,716 1,652
2,466 2,361 2,275 2,202 2,140 2,086 1,996 1,925
2,898 2,777 2,677 2,594 2,522 2,460 2,357 2,276
3,557 3,410 3,290 3,189 3,103 3,028 2,906 2,808
4,140 3,971 3,833 3,716 3,617 3,531 3,390 3,278
5,303 5,089 4,912 4,765 4,639 4,531 4,353 4,212
25 36 49 64 81 100 150 200 250 300 400 500 750 1000
1,319 1,186 1,099 1,038 0,993 0,957 0,901 0,869 0,847 0,831 0,809 0,794 0,772 0,758 0,674
1,537 1,391 1,296 1,230 1,181 1,143 1,082 1,047 1,024 1,007 0,984 0,968 0,944 0,930 0,842
1,796 1,634 1,530 1,457 1,403 1,361 1,295 1,258 1,233 1,214 1,189 1,172 1,146 1,131 1,036
2,129 1,946 1,828 1,746 1,686 1,639 1,566 1,524 1,497 1,477 1,449 1,430 1,402 1,385 1,282
2,634 2,416 2,277 2,181 2,111 2,057 1,972 1,923 1,891 1,868 1,836 1,815 1,782 1,763 1,645
3,078 2,830 2,672 2,563 2,483 2,422 2,326 2,272 2,236 2,210 2,174 2,150 2,113 2,092 1,960
3,961 3,649 3,453 3,317 3,218 3,143 3,024 2,957 2,913 2,881 2,837 2,807 2,763 2,736 2,576
4
0,95
0,99
139
Normes sûres normales (Section F)
Table F4a. Normes sûres bilatérales permissives, avec sûreté (α) de 0,10 n / 1!f
0,5
0,6
0,7
0,8
0,9
0,95
0,99
4 5 6 7 8 9 10
0,165 0,178 0,195 0,215 0,234 0,253 0,271
0,255 0,290 0,325 0,357 0,384 0,408 0,428
0,405 0,458 0,501 0,535 0,564 0,588 0,608
0,618 0,675 0,719 0,754 0,783 0,807 0,828
0,922 0,982 1,028 1,065 1,095 1,121 1,143
1,173 1,236 1,286 1,325 1,358 1,386 1,410
1,642 1,716 1,773 1,820 1,858 1,891 1,919
11 12 13 14 15 16 18 20
0,288 0,303 0,316 0,328 0,339 0,349 0,367 0,382
0,445 0,461 0,475 0,487 0,498 0,508 0,525 0,540
0,626 0,641 0,655 0,667 0,679 0,689 0,707 0,722
0,846 0,862 0,876 0,889 0,901 0,911 0,930 0,946
1,163 1,180 1,195 1,209 1,222 1,233 1,253 1,271
1,431 1,449 1,466 1,481 1,495 1,507 1,529 1,548
1,943 1,965 1,985 2,003 2,019 2,033 2,059 2,081
25 36 49 64 81 100 150 200 250 300 400 500 750 1000
0,411 0,453 0,483 0,506 0,524 0,538 0,562 0,577 0,587 0,594 0,605 0,612 0,623 0,630 0,674
0,570 0,612 0,643 0,666 0,685 0,700 0,725 0,740 0,750 0,758 0,769 0,776 0,788 0,795 0,842
0,752 0,796 0,827 0,852 0,871 0,887 0,913 0,929 0,939 0,948 0,959 0,967 0,979 0,987 1,036
0,977 1,023 1,057 1,083 1,103 1,120 1,148 1,165 1,177 1,185 1,198 1,206 1,220 1,228 1,282
1,305 1,356 1,393 1,422 1,444 1,463 1,494 1,513 1,526 1,536 1,550 1,560 1,575 1,584 1,645
1,585 1,640 1,682 1,713 1,738 1,758 1,793 1,814 1,828 1,839 1,855 1,865 1,882 1,892 1,960
2,126 2,191 2,240 2,278 2,308 2,332 2,374 2,399 2,417 2,430 2,448 2,461 2,481 2,494 2,576
4
140
L’étalonnage et la décision psychométrique
Table F4b. Normes sûres bilatérales permissives, avec sûreté (α) de 0,05 n / 1!f 4 5 6 7 8 9 10 11 12 13 14 15 16 18 20 25 36 49 64 81 100 150 200 250 300 400 500 750 1000
4
0,5
0,6
0,7
0,8
0,9
0,95
0,99
0,084 0,091 0,103 0,116 0,132 0,149 0,167 0,185 0,202 0,219 0,234 0,247 0,260 0,282 0,301 0,339 0,392 0,430 0,459 0,482 0,501 0,531 0,550 0,563 0,572 0,585 0,594 0,609 0,617 0,674
0,136 0,163 0,196 0,230 0,262 0,291 0,316 0,338 0,358 0,376 0,391 0,405 0,418 0,440 0,459 0,497 0,550 0,589 0,619 0,642 0,661 0,693 0,712 0,725 0,735 0,748 0,758 0,773 0,782 0,842
0,248 0,307 0,359 0,403 0,439 0,469 0,495 0,517 0,537 0,554 0,570 0,584 0,597 0,619 0,639 0,676 0,731 0,771 0,802 0,826 0,846 0,879 0,899 0,913 0,923 0,938 0,948 0,963 0,973 1,036
0,446 0,519 0,574 0,619 0,655 0,685 0,711 0,734 0,754 0,771 0,787 0,802 0,815 0,838 0,858 0,897 0,955 0,997 1,029 1,055 1,076 1,111 1,133 1,148 1,159 1,175 1,185 1,202 1,213 1,282
0,743 0,817 0,874 0,920 0,958 0,989 1,017 1,041 1,062 1,081 1,099 1,113 1,128 1,153 1,174 1,217 1,280 1,326 1,362 1,391 1,414 1,453 1,477 1,494 1,506 1,524 1,536 1,555 1,567 1,645
0,982 1,060 1,120 1,169 1,209 1,243 1,272 1,298 1,321 1,341 1,360 1,376 1,392 1,419 1,442 1,489 1,557 1,608 1,647 1,678 1,705 1,748 1,774 1,792 1,806 1,826 1,839 1,861 1,873 1,960
1,419 1,509 1,579 1,635 1,682 1,722 1,756 1,786 1,813 1,837 1,858 1,878 1,896 1,928 1,955 2,010 2,091 2,152 2,199 2,236 2,267 2,319 2,351 2,373 2,390 2,413 2,430 2,455 2,471 2,576
141
Normes sûres normales (Section F)
Table F4c. Normes sûres bilatérales permissives, avec sûreté (α) de 0,01 n / 1!f
0,5
0,6
0,7
0,8
0,9
0,95
0,99
4 5 6 7 8 9 10
0,016 0,018 0,021 0,024 0,028 0,033 0,039
0,028 0,034 0,044 0,057 0,075 0,096 0,120
0,057 0,084 0,122 0,168 0,214 0,255 0,291
0,160 0,244 0,319 0,381 0,430 0,472 0,507
0,443 0,543 0,618 0,677 0,726 0,768 0,803
0,677 0,776 0,852 0,913 0,964 1,007 1,044
1,080 1,189 1,274 1,342 1,400 1,449 1,491
11 12 13 14 15 16 18 20
0,046 0,055 0,065 0,076 0,088 0,101 0,128 0,154
0,146 0,171 0,195 0,216 0,236 0,254 0,285 0,312
0,323 0,350 0,374 0,396 0,415 0,433 0,463 0,490
0,538 0,564 0,588 0,610 0,629 0,647 0,678 0,704
0,834 0,862 0,886 0,909 0,929 0,947 0,980 1,008
1,077 1,106 1,132 1,156 1,177 1,197 1,232 1,262
1,529 1,562 1,592 1,619 1,644 1,667 1,708 1,743
25 36 49 64 81 100 150 200 250 300 400 500 750 1000
0,206 0,280 0,334 0,374 0,406 0,432 0,474 0,500 0,518 0,531 0,549 0,562 0,582 0,594 0,674
0,364 0,438 0,491 0,532 0,564 0,590 0,634 0,660 0,678 0,692 0,711 0,724 0,745 0,758 0,842
0,541 0,616 0,670 0,712 0,745 0,772 0,817 0,845 0,864 0,878 0,898 0,912 0,934 0,947 1,036
0,757 0,833 0,890 0,934 0,969 0,997 1,045 1,075 1,095 1,111 1,132 1,148 1,171 1,185 1,282
1,064 1,146 1,208 1,256 1,294 1,326 1,379 1,412 1,435 1,452 1,476 1,493 1,520 1,536 1,645
1,322 1,411 1,478 1,531 1,573 1,607 1,666 1,702 1,727 1,746 1,773 1,792 1,822 1,839 1,960
1,813 1,918 1,997 2,060 2,110 2,151 2,221 2,264 2,294 2,317 2,349 2,372 2,407 2,429 2,576
4
Section G Normes sûres ordinales (non paramétriques) Introduction Sélectionner un candidat à partir d’un test, qualifier une personne sur la base de mesures prises exige l’existence et l’application d’une norme, une valeur telle que, si la mesure de la personne l’atteint ou la déborde, elle sera dite qualifiée. La décision de retenir ou rejeter un candidat dépend donc du résultat de ses mesures mais elle est aussi liée étroitement à la fiabilité de la norme utilisée. Or, dans la plupart des cas, la norme appliquée a été établie empiriquement, en estimant une certaine quantité caractéristique de la population à partir d’un échantillon de celle-ci, le groupe normatif. La norme estimée, basée sur cet échantillon, constitue une statistique, c’est-à-dire une valeur approximative de la quantité réelle, valeur entachée d’incertitude. Or, même si la règle de sélection est formulée avec précision et clarté, la norme statistique qui la concrétise en compromet la rigueur de sorte que des décisions erronées deviennent possibles. Extirper l’incertitude de la norme utilisée demanderait que l’on évalue tous les membres de la population, une tâche ordinairement utopique. L’incertitude, l’imprécision de la norme statistique est là pour rester. Toutefois, il est loisible d’en gérer l’application afin de réduire le risque d’une erreur de décision : c’est le concept de « norme sûre », déjà abordé dans la section précédente. Deux contextes généraux s’imposent à nous dans le dessein de contrôler l’incertitude de la décision de sélection. L’incertitude rimant avec le calcul de probabilités, nous sommes placé soit dans un contexte où le modèle de probabilité auquel nos mesures et notre norme obéissent est connu ou peut être stipulé, soit dans un contexte où la seule réalité admise est que les mesures, celles du groupe normatif comme celles des candidats, sont mutuellement indépendantes et proviennent toutes de la même population statistique. Le premier contexte, celui d’un modèle supposé et qui contribue à structurer, donc à réduire l’incertitude, a été développé et solutionné dans la section précédente, sous les couleurs de la loi normale de distribution. Le second contexte, sans modèle paramétrique, n’exploite finalement que les propriétés brutes des données normatives exprimées sous forme de statistiques d’ordre : il s’agit de la norme ordinale sûre (Laurencelle, 2008). Les psychométriciens sont depuis toujours accoutumés de définir une norme par la détermination d’un centile (ou percentile) brut : c’est la norme ordinale. La série des rangs centiles (de 0 à 100) est mise en correspondance avec les statistiques d’ordre de la série normative : X(1 : n), X(2 : n), ..., X(n : n), selon une règle linéaire quelconque. Ainsi, le centile de rang γ (0 < P < 1), dénoté CP, pourra être défini par :
144
L’étalonnage et la décision psychométrique
CP = X(r : n) , où r = P(n + 1),
(1)
une règle qui en vaut d’autres (voir éq. 7, section A, et David et Johnson, 1954) : le centile CP va servir, par exemple, à discriminer les personnes occupant la portion supérieure 1!P de la population. Ce centile empirique constitue une estimation, une approximation du centile réel XP dans la population, tel que : F( XP ) = P,
(2)
où F( X ) est la fonction de répartition (inconnue) de X dans la population. Utilisant CP . XP, nous avons F( CP ) = P ± ε(P) : l’incertitude sur la norme centile empirique CP implique une incertitude sur son rang dans la population et, par conséquent, un risque d’erreur lors de l’application de cette norme à un candidat. Comme la norme paramétrique normale, vue à la section précédente, la norme ordinale, dénotée Cγ (0 < γ < 1), peut servir à discriminer les candidats selon qu’ils font partie de la fraction f supérieure de la population ou de la fraction γ (= 1 ! f ) inférieure. Cependant, même si Cγ 6 XP, la fluctuation statistique de la norme Cγ peut entraîner son déplacement vers le haut ou vers le bas. Ainsi, quelqu’un de mesure X0, qui serait non qualifié au rang γ selon une norme exacte (par X0 < Xγ), pourrait néanmoins être retenu par la norme approximative Cγ (selon X0 $ Cγ) : la probabilité d’une telle erreur de décision peut être réduite en décalant vers le haut la norme Cγ. C’est par ce jeu de décalage et en contrôlant la probabilité d’erreur qui lui est associée qu’est établie la norme ordinale sûre, dans chacune de ses variantes. En fait, comme l’indiquent les explications de la section mathématique, il va s’agir de trouver pour norme une statistique d’ordre X(r : n) telle que : Pr{ n, r, γ : Règle } # α ,
(3)
la probabilité α définissant le taux d’erreur (ou complément du niveau de sûreté) de cette norme. Normes exigeantes, normes permissives. Par la norme exigeante Cγ = X(r : n), on vise à minimiser l’erreur consistant à recruter quelqu’un qui serait non qualifié : « être qualifié », dans le présent contexte, signifie faire partie de la fraction supérieure f = 1 ! γ de la population. Pour ce faire, la probabilité d’erreur diminuera avec l’augmentation du ratio r : n. Il s’agit alors de fixer r ou n de telle sorte que : max Pr{ X0 $ X(r : n)| X0 < Xγ } = α.
(4a)
La norme permissive, au contraire, cherche à protéger la personne qualifiée contre le risque d’être refoulée. La probabilité d’un tel risque diminue avec le ratio r : n, qu’on doit modifier afin d’obtenir: max Pr{ X0 < X(r : n)| X0 $ Xγ } = α .
(4b)
Normes sûres non paramétriques (Section G)
145
Normes unilatérales, normes bilatérales. Outre les normes simples, unilatérales, présentées ci-dessus, on peut aussi définir des normes bilatérales, exigeantes ou permissives. La norme bilatérale permet de discriminer des candidats selon qu’ils font partie du corps central de la population, de fraction γ, ou qu’ils en occupent les fractions ½(1 ! γ) inférieure ou supérieure : cette norme est double et symétrique dans ses rangs, soit X(r : n) et X(s : n), s = n + 1 ! r. Ainsi, un candidat non qualifié, c’est-à-dire n’appartenant ni à la fraction inférieure, ni à la fraction supérieure de la population, risque d’être retenu si la double norme appliquée n’est pas assez large. Il nous faut donc une norme bilatérale exigeante, déterminée par n et r (et s = n + 1 ! r) telle que : max Pr{ X0 # X(r : n) ou X0 $ X(s : n) | X½(1!γ) < X0 < X½(1+γ) } = α.
(5a)
Pour la norme bilatérale permissive, nous avons un candidat qui serait qualifié (parce qu’il appartiendrait à l’une ou l’autre des fractions extrêmes de la population) et dont le risque d’être refusé, dépendant de n, r et s, est contrôlé par : max Pr{ X0 > X(r : n) et X0 < X(s : n) | X0 < X½(1!γ) ou X0 > X½(1+γ) } = α.
(5b)
Les exemples qui suivent illustrent les concepts. La section mathématique expose l’articulation complète de ces concepts et en indique les méthodes de calcul.
Nature et présentation des tables de la section G Contrairement aux normes linéaires de modèle normal vues à la section précédente, les normes ordinales sont déterminées à partir d’une base discontinue, à savoir les rangs des statistiques d’ordre ; pour cette raison, les expressions qui les définissent sont des inéquations et leurs résultats restent approximatifs. Nous avons choisi de présenter ces normes sous forme de multiplets, soit le couple (r, n) ou le couple (s, n) pour la norme unilatérale, le premier valant pour la norme basse, p. ex. X # X (r, n), le second pour la norme haute, par exemple, X $ X (s, n), ou bien le triplet (r, s, n) pour la norme bilatérale : le lecteur trouvera ces données dans les tables G1 à G4, ce pour 4 valeurs de γ et 3 valeurs de α. Pour chaque valeur de r (avec s = n + 1 ! r) et chaque règle (Exigeante ou Permissive, Unilatérale ou Bilatérale), nous présentons la valeur de n qui satisfait au mieux l’égalité (3). Or, dans le contexte des usages courants en psychométrie, la taille (n) du groupe normatif n’est pas une variable : elle découle d’autres considérations, souvent économiques, et est pour ainsi dire imposée. Prenons l’exemple d’une taille (relativement petite) n = 100, et nous cherchons à discriminer parmi les meilleurs 10 % de la population, avec un taux d’erreur α de 0,05 : nous avons donc f = 0,10, γ = 1! f = 0,90, et une règle unilatérale exigeante. Il nous faut déterminer s tel que l’égalité (3), ici spécifiquement Gs,n(γ) = Gs,100(0,90) . 0,05. Par calcul, nous obtenons G100,100 = 0,00003, G99,100 = 0,00032, ..., G96,100 = 0,02371 et G95,100 = 0,05758. En observant G # 0,05, nous retiendrions le couple
146
L’étalonnage et la décision psychométrique
(96, 100). Cependant, la variable normative elle-même, X, est (souvent) continue, et il est possible et avantageux d’interpoler une quantité X(s*, n) telle que Gn,s* . 0,05. L’interpolation d’une norme plus précise, à partir des statistiques d’ordre, se fait en deux temps. Dans le premier temps, il s’agit de déterminer un rang intermédiaire s*, tel que Gn,s* . 0,05 : cette interpolation peut se faire sur la probabilité P ou sur n. Dans le second temps, la norme appliquée s’obtient par interpolation linéaire de X(s*, n), selon a < s* < b, a et b entiers voisins de s*, et X(s*, n) = X(a, n) + (s*!a) × [X(b, n) ! X(a, n)]. Quant à la détermination de s*, reprenons l’exemple de la norme exigeante avec γ = 0,90, α = 0,05 et n = 100. Nous avons trouvé Pr{ n , s } = Pr { 100, 96 } . 0,024 et Pr { 100, 95 } = 0,058. Pour arriver à P = 0,05, nous utilisons l’interpolation linéaire sur s et . Ici, s* = 96 !( ! )/( ! ) . 95,18, la norme à trouver (par interpolation) étant donc X(95,18, 100). Une autre méthode, beaucoup plus simple, consiste à recourir aux couples (s, n) de la table G1 (α = 0,05, γ = 0,90). Près de n = 100, nous trouvons les couples (n ! 4, 89) et (n ! 5, 103), ou (85, 89) et (98, 103). La relation entre s (ou r) et n est quasi linéaire. Ainsi, pour interpoler s* pour n = 100, nous calculons simplement s* = 85 + (98 ! 85) × [(100 ! 89) / (103 ! 89)] . 95,21. Nous aurions pu procéder par le bas, selon les couples tabulés (r, n) = (5, 89) et (6, 103), en faisant r* = 5 + [(100 ! 89) / (103 ! 89)] . 5,79, d’où s* = n + 1 ! r* = 95,21. L’approximation normale pour une variable binomiale peut servir à pallier les lacunes des tables disponibles, cette approximation s’avérant d’autant plus précise que les tailles n concernées sont élevées. Ainsi, pour une taille n, un risque α et une capacité γ données, la quantité r se transforme en écart-réduit par z = (r ! 1! nγ ± ½) / , dont la distribution est presque normale, de sorte qu’on peut obtenir la norme basse r par : r . ln(1!γ) + z[P]
+ 1,5m ,
(6)
où P varie selon la règle appliquée, soit P = α pour une norme exigeante ou P = 1!α pour une norme permissive : noter que la notation l xm désigne la partie entière de x. Pour les normes bilatérales, il suffit de remplacer γ par (1 + γ)/2. Ainsi, prenant n = 377, γ = 0,95 et α = 0,10 pour une norme unilatérale exigeante basse, nous calculons : r = l377 × 0,05 + z[0,10] × /(377 × 0,95 × 0,05) + 1½m = l18,85 ! 1,2816 × 4,23 + 1½m . l14,93m .14. La norme haute s’obtient par s = n + 1 ! r, ici s = 377 + 1 ! 14 = 364 ; on peut faire aussi s . jnγ ! z[P] ! 0,5 k : ces valeurs concordent avec celles trouvées dans la table G1. Pour la norme bilatérale permissive avec n = 167, γ = 0,90 et α = 0,01, nous remplaçons γ = 0,90 par γ* = (1 + 0,90)/2 = 0,95, P = 0,99, z[P] = 2,3263 et r .16, tel que le montre la table G4.
Normes sûres non paramétriques (Section G)
147
Se basant sur une approximation de la somme binomiale Gr,n(P) par la fonction Bêta incomplète, Scheffé et Tukey1 élaborent une formule d’estimation de la taille n pour des valeurs connues de γ, α et r (la norme haute s devant être ramenée en bas, par n +1!s). Laurencelle (2008) présente la formule suivante : n* =
,
(7)
M = 1 en mode unilatéral, 3 en mode bilatéral ; P = 1 ! α en règle exigeante, α en règle permissive. Par exemple, à la table G4, la norme permissive applicable pour γ = 0,95, α = 0,01 et r = 10 (avec s = n ! 9) indique n = 167. Posant M = 3, r = 10 et γ = 0,95, nous trouvons d’abord P2(20[0,01]) . 8,26, d’où n* = 8,26/4 × (3 + 0,95) / (1 ! 0,95) + ½(10 ! 1) = 167,64, l’usage étant d’arrondir vers le bas (i.e. 167) pour la norme permissive, et vers le haut pour la norme exigeante.
Exercices de lecture des tables 1. On dispose de 260 sujets normatifs pour établir une norme visant à discriminer les meilleurs 5 % de la population, selon un risque d’erreur de 1 %. Quelle est la norme ordinale qui s’applique? Pour trouver la norme qui garantit que les personnes retenues soient vraiment qualifiées, c’est la table G1 (norme unilatérale exigeante) qui doit être consultée. Examinant la région α = 0,01 et γ = 1 ! 0,05 = 0,95, on trouve n = 259, une valeur proche de 260 : pour cette taille, la norme indiquée (à gauche) est n ! 5, d’où la statistique X(255 : 260) est la norme à appliquer ici. 2. Un chercheur veut établir une norme qui permette de repérer les individus atypiques d’une population, ceux logés dans la fraction 2,5 % inférieure ou la fraction 2,5 % supérieure ; le taux d’erreur consenti est de 10 %, et n = 600. Quelle norme appliquer ? Le problème réclame ici une norme bilatérale exigeante, qu’on trouve dans la table G3. Vis-à-vis de α = 0,10 et γ = 0,95 (car f = 2,5 + 2,5 = 5 %), nous voyons r = 10, s = n ! 9 pour n = 566 et r = 11, s = n!10 pour n = 614. Interpolant pour r, nous calculons r = 10 + (600 ! 566)/(614 ! 566) .10,71 et s = n + 1 ! r = 590,29, d’où la norme à appliquer sera X(10,71 : 600) et X(590,29 : 600).
1. H. Scheffé et J.W. Tukey, « A formula for sample sizes for population tolerance limits », Annals of mathematical statistics, 1944, vol. 15, p. 217.
148
L’étalonnage et la décision psychométrique
3. Quelle serait la norme permissive applicable pour discriminer les individus relevant du quart supérieur de la population, utilisant n = 500 données et au taux d’erreur de 2 % ? Les valeurs des paramètres fournies s’écartent totalement de celles disponibles dans notre table G2, de sorte que, à défaut de faire les calculs extensifs de la norme, nous recourons à l’approximation binomiale (6). Ici, pour la norme basse, γ = 0,25, P = 1!α = 0,98, z[0,98] = 2,0537, d’où r .l500 × 0,25 + 2,0537 × /(500 × 0,25 × 0,75) + 1,5m = 146. De là, la norme haute requise, de rang s = 500 + 1 ! 146 = 355, serait X(355 : 500).
Exemples élaborés 1. Échantillonnage restrictif dans une population non normale. Dans la section F précédente, l’exemple 2 présente le cas d’une étude sur les effets de certaines conditions du milieu environnant sur la productivité des travailleurs. Pour son échantillonnage, l’équipe de recherche s’intéressait aux hommes âgés de 30 à 40 ans, dotés d’une capacité de travail « normale » ; la capacité de travail est évaluée par un test du V/ O2 max (volume d’oxygène échangé lors d’une activité cardiovasculaire maximale), et la référence « normale » signifie ici d’appartenir à la portion centrale des 95 % de la population. Pour la fourchette d’âges de 30 à 40 ans, des normes canadiennes (fictives), basées sur 150 hommes sains, indiquent une moyenne de 35,0 ml O2 et un écart-type de 6,0 ; nous supposerons ici que l’hypothèse de distribution normale est infondée et, qui plus est, contredite par les données. Dans le dessein de protéger l’échantillon contre l’intrusion possible de cas exceptionnels, les chercheurs optent ici pour une norme permissive, au seuil d’erreur de 5 %. Comme dans l’exemple 2 de la section F, nous voulons donc une norme bilatérale permissive pour une couverture (γ) de 0,95, au seuil α = 0,05, la référence normative comportant n = 150 données. Dans la table G4, dans la portion correspondant à γ = 0,95 et α = 0,05, nous trouvons r = 7 pour n = 132 ou r = 8 pour n = 160. L’interpolation linéaire pour n = 150 donne r . 7,64 ( = 7 + (150 ! 132)/(160 ! 132)) ; le rang correspondant pour la norme haute sera donc s = n + 1 ! r = 150 + 1 ! 7,64 = 143,36. Par conséquent, la norme approximative à appliquer sera ( X(7,64) ; X(143,36) ). Le chercheur assidu pourra vérifier que, pour n = 150, la probabilité associée à r = 7 en mode bilatéral permissif est P . 0,0837, et qu’elle vaut P . 0,0356 pour r = 8. L’interpolation sur P, grâce à la transformation , fournit r . 7,62 (d’où s . 143,38), notre approximation la plus sûre. L’approximation (6), toute bonne qu’elle soit, reste tout de même moins précise que les méthodes précédentes, qu’il est préférable d’utiliser lorsque possible. Ainsi, pour l’exemple ci-dessus, le lecteur pourra vérifier que, avec γ* = 0,975, P = 0,95 z[p] = 1,645
149
Normes sûres non paramétriques (Section G)
et n = 150, l’expression (6) donne r . 8,40 (d’où s . 142,60), une valeur un peu trop forte dans le cas présent. 2. Comparaison des normes ordinales et des normes paramétriques normales. La norme sûre ordinale, on le suppose, est moins efficace que la norme paramétrique normale parce qu’elle n’exploite pas l’information d’un modèle distributionnel stipulé. Peut-on évaluer cette différence d’efficacité ou, en d’autres mots, peut-on comparer les deux types de normes sous des conditions équitables ? Nous pouvons effectuer la comparaison des normes ordinale et normale en fixant la règle de sélection à « exigeante unilatérale » et la couverture γ à 0,95 ; pour les deux conditions restantes, nous utiliserons les taux d’erreur α de 0,05 et 0,01, et certaines valeurs représentatives de n. En fait, le tableau suivant, adapté de Laurencelle (2008)2, réalise cette comparaison. α = 0,05
n
α = 0,01
r*
z(r*; n)
N
r*
z(r*; n)
N
100
98,76
2,011
1,927
99,74
2,242
2,056
250
243,37
1,875
1,815
245,27
1,999
1,891
500
483,24
1,806
1,763
486,12
1,885
1,814
1000
961,56
1,758
1,727
965,83
1,810
1,762
2500
2393,16
1,716
1,696
2400,17
1,747
1,718
5000
4775,59
1,695
1,681
4785,67
1,716
1,693
4
1,645
1,645
r* = rang r estimé pour la norme sûre ordinale de règle unilatérale exigeante, avec γ = 0,95 z(r*; n) = abscisse normale standard équivalente à r*, obtenue selon M(z) = r*/(n + 1) N = norme sûre normale de règle unilatérale exigeante, avec γ = 0,95
Par exemple, pour n = 100, α = 0,05, le calcul direct (voir plus bas) fournit G98,100(0,95) = 0,11826 et G99,100(0,95) = 0,03798. En interpolant pour Gr*,n(0,95) = 0,05 via , nous obtenons r* . 98,76. L’interpolation plus simple, en utilisant les données de la table G1, soit entre n = 93 pour r = 2 (ou 93 + 1 ! 2 = 92) et n = 124 pour r = 3 (ou 122), donne r* = 2,23 (ou 98,77) pour n = 100.
2. Permission de reproduction obtenue auprès de la revue Tutorials in quantitative methods for psychology.
150
L’étalonnage et la décision psychométrique
Les abscisses normales équivalentes de la norme ordinale, les z(r*; n), débordent évidemment les normes à modèle normal correspondantes, l’écart entre les deux s’amenuisant à mesure que la taille échantillonnale croît. En l’absence de la supposition d’une distribution normale des données, cette différence est peu chère à payer pour obtenir les mêmes garanties de sélection.
Justification mathématique Principe général de calcul Pour la norme non paramétrique dont il est ici question, nul modèle distributionnel n’est invoqué, comme c’était le cas pour la norme à modèle normal présentée à la section précédente. Seuls, deux principes statistiques fondamentaux doivent être stipulés : toutes les données, celles servant à constituer le groupe normatif comme celles des candidats, doivent provenir de la même population statistique, c’est-à-dire répondre à la même fonction de répartition F(X), et chaque élément échantillonné est indépendant. Ainsi, pour une observation Xi quelconque, la transformation intégrale Ui = F(Xi) la ramène à une variable uniforme U, 0 # U # 1, et les statistiques d’ordre X(1 : n), X(2 : n), ..., X(n : n) se transforment elles-mêmes en leurs équivalents uniformes U(1 : n), U(2 : n), ..., U(n : n). Même sans connaître le modèle paramétrique de la variable X, ou sa fonction de répartition F(X), il est possible d’élaborer des énoncés de probabilité à propos des centiles de X, en se repliant sur les propriétés des statistiques d’ordre équivalentes U(1 : n), U(2 : n), ..., U(n : n). Par exemple, la probabilité que X déborde la plus forte donnée normative, Pr{ X > X(n : n) }, est la même que Pr{ U > U(n : n) } et est égale à 1 ! Un. De même, la probabilité que X déborde la médiane paramétrique X0,5 équivaut à Pr{ U > 0,5 }; par conséquent, pour assurer que la personne choisie par la règle « X $ X(r : n) » appartiendra à la moitié supérieure de la population, il suffira de déterminer r tel que Pr{ U $ U(r : n) | U # 0,5 } # α. La probabilité critique, Pr{ U $ U(r : n) }, s’évalue en fait en posant U comme une constante et en traitant U(r : n) comme une variable aléatoire. Par le modèle binomial, on obtient : Gr,n(U) = Pr{ U(r : n) # U } = Pr{ au moins r valeurs Ui sur n sont # U } =
(8)
Normes sûres non paramétriques (Section G)
151
Théorie de la norme ordinale unilatérale Dans le mode exigeant, le candidat, de mesure X0, ne fait pas partie de la fraction f supérieure, où γ = 1 ! f, et n’est donc pas qualifié, selon X0 < Xg. Grâce à l’incertitude intrinsèque du centile Cg = X(r : n), où r = γ(n + 1), la probabilité que le candidat non qualifié soit tout de même retenu par la règle « X0 $ Cg » est non contrôlée et proche de 0,5. Il s’agit donc de trouver une norme X(r : n) telle que l’équation (4a) soit respectée. Le maximum indiqué se produira lorsque le candidat sera tout près d’être qualifié, soit X0 . Xg. c’est-à-dire U0 . γ. Ainsi : max Pr{ X0 $ X(r : n) | X < Xγ } = α
(9)
Pr{ Xγ $ X(r : n) } # α
(10)
et :
Pr{ γ $ U(r : n) } # α
(11)
ou :
Pr{ U(r : n) # γ } # α ,
(12)
soit :
Gr,n(γ) # α ,
(13)
équivaut à :
l’égalité stricte n’étant possible qu’accidentellement, étant donné le caractère discontinu du rang r qui sert de paramètre d’ajustement. Ainsi, la règle (13) garantit que, pour quelqu’un non qualifié à γ, la probabilité d’être retenu par X0 $ X(r : n) est d’au maximum α. Par symétrie, la norme unilatérale appliquée à la fraction f inférieure de la population sera fournie par X(n + 1 ! r : n). La table G1 fournit un ensemble de couple (r, n) satisfaisant différentes valeurs des paramètres γ et α. La norme unilatérale de mode permissif suppose un candidat qualifié selon X0 $ Xg, pour lequel le risque de ne pas être retenu par la règle X < X(r : n) doit être contrôlé. Mutatis mutandis, l’équation (9) ci-dessus devient : max Pr{ X0 < X(r : n) | X $ Xγ } = α ,
(14)
dont le développement aboutit à :
et :
Pr{ U(r : n) $ γ } # α
(15)
1 ! Gr,n(γ) # α ,
(16)
définissant la norme permissive comme une norme complémentaire à la norme exigeante. Le lecteur trouvera à la table G2 plusieurs couples (r, n) appropriés à cette norme.
152
L’étalonnage et la décision psychométrique
Théorie de la norme ordinale bilatérale On trouve dans la littérature un concept, l’« intervalle de tolérance3 », qui ressemble à une norme bilatérale, est déterminé par les deux statistiques X(r : n) et X(s : n) et dont le principe est de garantir la couverture d’une fraction de γ ou plus dans la population, soit : Pr{ F[X(s : n)] ! F[X(r : n)] $ γ } $ 1 ! α .
(17)
En fait, le couple X(r : n), X(s : n) détermine un intervalle flottant, non centré et non ancré sur les fractions extrêmes (1 ! γ)/2 et (1 + γ)/2, non symétrique, de sorte qu’il ne peut servir de norme psychométrique telle que nous l’envisageons4. Pour la version exigeante de la norme bilatérale X(r : n) et X(s : n), nous considérons un candidat qui n’est qualifié ni dans la fraction supérieure, ni dans l’inférieure, selon X(1!γ)/2 < X0 < X(1+γ)/2, candidat qui pourrait néanmoins être retenu si X0 # X(r : n) ou X0 $ X(s : n), où s = n + 1 ! r. Ce risque d’être retenu doit être réduit à un seuil convenu α, soit : max Pr{ X0 # X(r : n) ou X0 $ X(s : n) | X(1!γ)/2 < X0 < X(1+γ)/2 } = α .
(18)
L’expression (18) atteindra son maximum lorsque X0 6 X(1!γ)/2 ou X0 6 X(1+γ)/2. Prenons indifféremment X0 . X(1 ! γ)/2 . Alors, (18) devient : Pr{ X(1+γ)/2 # X(r : n) ou X(1+γ)/2 $ X(s : n) } # α
(19)
ou :
Pr{ (1 + γ)/2 # U(r : n) ou (1 + γ)/2 $ U(s : n) } # α
(20)
ou encore :
Pr{ U(r : n) $ (1 + γ)/2 ou U(s : n) # (1 + γ)/2 } # α .
(21)
Traduisons symboliquement la partie gauche de l’expression (21) : Pr{ !A ou B } .
(22)
Pr{ !A ou B } = Pr{ !A } + Pr{ B } ! Pr{ !A et B } .
(23)
Par un théorème bien connu :
Considérant la contrainte par définition U(r : n) # U(s : n), l’événement « !A et B » est impossible, d’où Pr{ !A et B } = 0. De plus, Pr{ !A} = 1 ! Pr{ A}. L’expression symbolique (22) devient donc : 1 ! Pr{ A } + Pr{ B } ,
(24)
3. S.S. Wilks, Annals of mathematical statistics, 1941, vol. 12, p. 91-96 ; H.A. David, Order statistics, Wiley 1981 ; V.K. Rohatgi, An introduction to probability theory and mathematical statistics, Wiley 1976 ; M. Kendall et A. Stuart, The advanced theory of statistics. Vol. 2 : Inference and relationship (4e édition), Macmillan 1979. 4. La proximité sémantique de l’intervalle de tolérance et de notre norme nous a piégé en nous amenant à les confondre, dans Laurencelle (1998) et Laurencelle (2000). Nous nous en excusons auprès de nos lecteurs.
Normes sûres non paramétriques (Section G)
153
et (21) peut s’évaluer par : 1 ! Pr{ U(r : n) # (1 + γ)/2 } + Pr{ U(s : n) # (1 + γ)/2 } # α
(25)
1 !Gr,n([1 + γ]/2) + Gs,n([1 + γ]/2) # α ,
(26)
ou :
permettant de fixer le triplet (n, r, s) qui définit la norme ordinale bilatérale exigeante. La table G3 présente différents triplets pour cette norme. Quant à la version permissive de la norme bilatérale, elle concerne un candidat qualifié, selon qu’il relève de la fraction inférieure, par X0 # X(1!g)/2, ou de la fraction supérieure, par X0 $ X(1+g)/2. Ce candidat qualifié pourrait n’être pas retenu si son résultat X0 ne déborde ni la borne gauche ni la borne droite, risque que nous voulons contrôler par : max Pr{ X0 > X(r : n) et X0 < X(s : n) | X0 # X(1!γ)/2 ou X0 $ X(1+γ)/2 } = α .
(27)
Le risque maximal advient lorsque le candidat est tout juste qualifié, par X0 6 X(1!γ)/2 ou X0 6 X(1!γ)/2. Optant indifféremment pour X0 . X(1+γ)/2 et passant à la variable U, nous avons :
ou :
Pr{ (1 + γ)/2 > U(r : n) et (1 + γ)/2 < U(s : n) } # α
(28)
Pr{ U(r : n) # (1 + γ)/2 et U(s : n) $ (1 + γ)/2 } # α .
(29)
Symboliquement traduite, la partie gauche de (27) devient : Pr{ A et !B } = Pr{ A } ! Pr{ A et B } ,
(30)
en arguant de l’égalité Pr{ A } = Pr{ A et B } + Pr{ A et !B }. Or, l’événement { A et B }correspond à { U(r : n) # (1 + γ)/2 et U(s : n) # (1 + γ)/2 }. Étant donné que U(r : n) # U(s : n), il appert que l’événement A (U(r : n) # (1 + γ)/2) est impliqué par l’événement B (U(s : n) # (1 + γ)/2), d’où Pr{ A|B } = 1. Considérant Pr{ A et B } = Pr { A|B } × Pr { B } = Pr{ B }, l’expression (28) devient enfin : Pr{ A } ! Pr{ B }
(31)
Pr{ U(r : n) # (1 + γ)/2 } ! Pr{ U(s : n) # (1 + γ)/2 } # α
(32)
Gr,n([1 + γ]/2) ! Gs,n([1 + γ]/2) # α ,
(33)
et l’expression (29) :
ce qui définit complètement la norme bilatérale permissive. Les triplets (n, r, s) pour cette norme sont donnés à la table G4. Il est intéressant de noter que, dans les normes bilatérales définies respectivement par (24) et (31), la portion controlatérale, Pr{ A }, est typiquement proche de, voire égale à 1, de sorte que la norme repose essentiellement sur la valeur de Pr{ B }. Ainsi, (26) devient approximativement :
154
L’étalonnage et la décision psychométrique
Gs,n([1 + γ] / 2) # α
(34)
pour la norme exigeante, et (33) devient : Gs,n([1 + γ] / 2) $1 ! α
(35)
pour la norme permissive. Cette simplification ramène les quatre règles de normes dans la même procédure de calcul et facilite leur approximation.
155
Normes sûres non paramétriques (Section G)
Table G1.
Norme ordinale unilatérale exigeante : taille n minimale pour que la norme X(r) ou X(s) n’accepte un candidat non qualifié à γ que selon un taux d’erreur α α = 0,10
r ou s γ (= 1 ! f )
α = 0,05
α = 0,01
0,50
0,90
0,95
0,99
0,50
0,90
0,95
0,99
0,50
0,90
0,95
0,99
1
n
4
22
45
230
5
29
59
299
7
44
90
459
2
n !1
7
38
77
388
8
46
93
473
11
64
130
662
3
n !2
9
52
105
531
11
61
124
628
14
81
165
838
4
n !3
12
65
132
667
13
76
153
773
17
97
198
1001
5
n !4
14
78
158
798
16
89
181
913
19
113
229
1157
6
n !5
17
91
184
926
18
103
208
1049
22
127
259
1307
7
n !6
19
104
209
1051
21
116
234
1182
25
142
288
1453
8
n !7
21
116
234
1175
23
129
260
1312
27
156
316
1596
9
n !8
24
128
258
1297
26
142
286
1441
30
170
344
1736
10
n !9
26
140
282
1418
28
154
311
1568
33
183
371
1874
11
n !10
28
152
306
1538
30
167
336
1693
35
197
398
2010
12
n !11
31
164
330
1658
33
179
361
1818
38
210
425
2144
13
n !12
33
175
353
1776
35
191
386
1941
40
223
451
2277
14
n !13
35
187
377
1893
37
203
410
2064
42
236
478
2409
15
n !14
37
199
400
2010
40
215
434
2185
45
249
504
2539
16
n !15
39
210
423
2127
42
227
458
2306
47
262
529
2669
17
n !16
42
222
446
2242
44
239
482
2426
50
275
555
2798
18
n !17
44
233
469
2358
47
251
506
2546
52
287
580
2925
19
n !18
46
245
492
2473
49
263
530
2665
54
300
606
3052
20
n !19
48
256
515
2587
51
275
554
2784
57
312
631
3179
21
n !20
51
267
538
2701
53
286
577
2902
59
325
656
3304
22
n !21
53
279
561
2815
56
298
601
3020
62
337
681
3429
23
n !22
55
290
583
2929
58
310
624
3137
64
350
706
3554
24
n !23
57
301
606
3042
60
321
647
3254
66
362
730
3678
25
n !24
59
312
628
3155
62
333
671
3371
69
374
755
3801
156
L’étalonnage et la décision psychométrique
Table G2.
Norme ordinale unilatérale permissive : taille n maximale pour que la norme X(r) ou X(s) ne refuse un candidat qualifié à γ que selon un taux d’erreur α α = 0,10
r ou s γ (= 1 ! f )
α = 0,05
α = 0,01
0,50
0,90
0,95
0,99
0,50
0,90
0,95
0,99
0,50
0,90
0,95
0,99
1
n
-
-
2
10
-
-
-
5
-
-
-
-
2
n !1
-
5
10
53
-
3
7
35
-
-
3
15
3
n !2
-
11
22
110
-
8
16
82
-
5
9
44
4
n !3
4
18
35
175
-
14
28
137
-
9
17
83
5
n !4
5
25
49
244
5
20
40
198
-
14
26
129
6
n !5
7
32
63
316
6
27
53
262
-
19
37
180
7
n !6
9
40
78
390
8
34
67
329
7
25
48
234
8
n !7
10
47
94
466
9
41
81
399
8
31
60
292
9
n !8
12
55
109
544
11
48
95
471
9
37
72
353
10
n !9
14
63
125
623
13
56
110
544
11
43
85
415
11
n !10
15
71
141
703
14
63
125
618
12
50
98
479
12
n !11
17
79
158
784
16
71
140
694
14
57
111
545
13
n !12
19
88
174
866
18
79
155
771
15
64
124
612
14
n !13
21
96
191
948
19
86
171
848
17
71
138
681
15
n !14
22
104
207
1031
21
94
187
927
19
78
152
750
16
n !15
24
113
224
1115
23
102
203
1006
20
85
167
821
17
n !16
26
121
241
1199
24
110
219
1085
22
92
181
893
18
n !17
28
130
258
1284
26
119
235
1166
23
99
196
965
19
n !18
29
138
275
1369
28
127
251
1246
25
107
210
1038
20
n !19
31
147
292
1454
30
135
268
1328
27
114
225
1112
21
n !20
33
156
310
1540
31
143
284
1410
28
122
240
1186
22
n !21
35
164
327
1626
33
152
300
1492
30
130
255
1261
23
n !22
37
173
344
1713
35
160
317
1575
31
137
270
1337
24
n !23
39
182
362
1799
37
168
334
1658
33
145
286
1413
25
n !24
40
191
379
1887
38
177
351
1741
35
153
301
1489
157
Normes sûres non paramétriques (Section G)
Table G3.
Norme ordinale bilatérale exigeante : taille n minimale pour que la double norme X(r) et X(s) n’accepte un candidat non qualifié à γ que selon un taux d’erreur α α = 0,10
r ou s γ (= 1 ! f )
α = 0,05
α = 0,01
0,50
0,90
0,95
0,99
0,50
0,90
0,95
0,99
0,50
0,90
0,95
0,99
1
n
9
45
91
460
11
59
119
598
17
90
182
919
2
n !1
15
77
155
777
18
93
188
947
24
130
263
1325
3
n !2
20
105
212
1063
23
124
250
1258
31
165
334
1678
4
n !3
25
132
266
1335
29
153
308
1549
37
198
399
2006
5
n !4
30
158
318
1597
34
181
364
1829
43
229
461
2318
6
n !5
35
184
369
1853
40
208
418
2100
49
259
521
2618
7
n !6
40
209
420
2105
45
234
471
2366
54
288
579
2910
8
n !7
45
234
469
2352
50
260
523
2627
60
316
636
3196
9
n !8
50
258
518
2597
55
286
575
2884
65
344
692
3476
10
n !9
55
282
566
2839
60
311
625
3138
70
371
747
3752
11
n !10
59
306
614
3079
65
336
675
3389
76
398
801
4024
12
n !11
64
330
662
3317
70
361
725
3638
81
425
855
4293
13
n !12
69
353
709
3554
74
386
774
3885
86
451
908
4559
14
n !13
73
377
756
3789
79
410
823
4130
91
478
960
4823
15
n !14
78
400
803
4023
84
434
872
4374
96
504
1013
5084
16
n !15
82
423
849
4256
89
458
920
4616
101
529
1064
5343
17
n !16
87
446
895
4488
93
482
968
4857
106
555
1116
5601
18
n !17
91
469
941
4718
98
506
1016
5096
111
580
1167
5856
19
n !18
96
492
987
4948
103
530
1064
5335
116
606
1217
6110
20
n !19
100
515
1033
5178
107
554
1111
5572
121
631
1268
6363
21
n !20
105
538
1079
5406
112
577
1158
5808
126
656
1318
6615
22
n !21
109
561
1124
5634
117
601
1205
6044
131
681
1368
6865
23
n !22
114
583
1170
5861
121
624
1252
6279
136
706
1418
7114
24
n !23
118
606
1215
6087
126
647
1299
6513
141
730
1467
7362
25
n !24
123
628
1260
6313
130
671
1346
6746
145
755
1517
7609
158
L’étalonnage et la décision psychométrique
Table G4.
Norme ordinale bilatérale permissive : taille n maximale pour que la double norme X(r) et X(s) ne refuse un candidat non qualifié à γ que selon un taux d’erreur α α = 0,10
r ou s γ (= 1 ! f )
α = 0,05
α = 0,01
0,50
0,90
0,95
0,99
0,50
0,90
0,95
0,99
0,50
0,90
0,95
0,99
1
n
-
2
4
21
-
-
2
10
-
-
-
2
2
n !1
-
10
21
106
-
7
14
71
-
-
6
30
3
n !2
-
22
44
220
-
16
33
164
-
9
18
87
4
n !3
8
35
70
349
-
28
55
274
-
17
34
165
5
n !4
10
49
98
487
-
40
79
395
-
26
52
257
6
n !5
13
63
127
631
12
53
105
523
-
37
73
358
7
n !6
16
78
156
780
14
67
132
658
-
48
95
467
8
n !7
19
94
187
932
17
81
160
797
-
60
118
583
9
n !8
23
109
218
1087
20
95
189
940
-
72
142
703
10
n !9
26
125
250
1245
23
110
218
1086
20
85
167
828
11
n !10
29
141
282
1405
26
125
248
1235
22
98
193
956
12
n !11
33
158
314
1567
29
140
279
1386
25
111
219
1088
13
n !12
36
174
347
1730
33
155
309
1540
27
124
246
1222
14
n !13
39
191
380
1895
36
171
340
1695
30
138
274
1359
15
n !14
43
207
413
2061
39
187
372
1851
33
152
302
1498
16
n !15
46
224
447
2228
42
203
403
2009
36
167
330
1639
17
n !16
50
241
481
2397
46
219
435
2169
39
181
359
1782
18
n !17
53
258
514
2566
49
235
468
2329
42
196
388
1926
19
n !18
57
275
549
2736
52
251
500
2491
45
210
417
2072
20
n !19
60
292
583
2907
56
268
533
2653
48
225
447
2220
21
n !20
64
310
617
3078
59
284
565
2817
51
240
477
2369
22
n !21
67
327
652
3251
62
300
598
2981
54
255
507
2519
23
n !22
71
344
686
3423
66
317
631
3147
58
270
537
2670
24
n !23
74
362
721
3597
69
334
665
3313
61
286
568
2822
25
n !24
78
379
756
3771
73
351
698
3479
64
301
598
2975
Section H Miscellanées
Introduction Diverses tables complémentaires meublent la présente section, chacune faisant l’objet d’une sous-section. Les sous-sections 1 à 3 ayant déjà fait l’objet d’une première élaboration, nous en exposons la matière de façon plus succincte. La sous-section 4 évoque quant à elle une norme de sélection particulière, la « sélection par la concomitante », que nous abordons sommairement. Enfin, des informations névralgiques sur la corrélation et son incertitude, informations peu répandues chez les usagers de la statistique et de la psychométrie, terminent la section.
Partie 1. Taille et précision d’un centile normal ou uniforme (tables H1a et H1b) Il y a plus d’une façon de déterminer un centile, selon l’information statistique dont on dispose et la forme normative qu’on veut adopter : la section A (exemple A-2) en fait une revue. Lorsque, comme il arrive fréquemment, le psychométricien ne peut assurer que ses données normatives obéissent à un modèle probabiliste déterminé, il va recourir aux statistiques d’ordre de sa base normative et proposer ses normes d’après elles, la relation entre rangs centiles et numéro d’ordre des données assurant cette correspondance (voir formule A7) : quelle est la précision d’une norme élaborée ainsi, et quelle taille normative faut-il pour garantir une précision donnée ? Dans le cas de normes semi-normales, l’erreur-type du centile estimé peut s’évaluer via l’approximation (A8) pour la variance d’un centile normal, soit : var( CP ) = σ2X 3 ar / (N + 2)r , r = 1 à 3 ,
(1)
les coefficients a1, a2, a3 apparaissant dans la table A1. Ainsi, pour l’exemple A-2, la détermination du centile 95 fournissait la valeur C95 = 2802,40, basée sur N = 282 statistiques d’ordre. Les coefficients ai pour C95 étant 4,46556, 26,6271 et 104,574, la variance d’erreur de l’estimation était: var(C95) = 284,642 × [4,46556 / 284 + 26,6271 / 2842 + 104,574 / 2843 ]
. 1301,06, ^e . 36,07. pour une erreur-type de σ
160
L’étalonnage et la décision psychométrique
Nous considérons deux façons d’apprécier cette erreur-type. On peut établir l’importance de l’erreur-type par rapport à l’écart-type de la distribution normative (ici, sX = 284,64) : en effet, la précision de la mesure d’un individu peut prendre pour étalon la marge d’écart typique qui sépare les individus les uns des autres. Dans le cas présent, le ratio de l’erreur-type sur l’écart-type, soit 36,07 / 284,64, égale 0,127. Le décideur pourrait exiger, ^e / sX d’au plus 0,1 : la table H1a fournit la taille N requise pour par exemple, un quotient σ garantir un quotient d’au plus f. Pour le rang centile P = 0,95 et f = 0,10, on lit N = 451. Appliquant cette taille N dans la formule (1) ci-dessus, nous obtenons var(C95) . 809,278, ^e . 2845, et un ratio σ ^e / sX . 0,100 tel que désiré. σ Dans notre exemple de la course de 12 minutes de Cooper, la distance à faire est souvent un circuit jalonné par intervalles constants, par exemple tous les 10 mètres, et la mesure est rapportée en un multiple de cet intervalle. Ainsi, l’autre façon d’imposer la précision d’un centile pourrait consister à l’égaler à une constante externe, tel le 10 mètres ^e . 10, toujours appliqué ici. Nous cherchons donc la taille normative N qu’il faudrait pour σ ^e . 36,07, soit une valeur 3,607 en appliquant la formule (1). Avec N = 282, nous avions σ fois trop forte. Nous référant au premier terme de (1), nous pouvons tenter N . 282 × ^e . 9,936, trop petite. Par tâtonnement, nous aboutissons (3,607)2 . 3669, qui aboutit à σ ^e = 10,000. enfin à N = 3622 et σ Dans le cas de normes centiles (ou uniformes), le lecteur se rappellera que leur incertitude varie a contrario par rapport aux normes « normales », en ce sens que la norme centile est d’autant plus précise qu’elle s’approche d’une extrémité de la distribution, son erreur-type étant maximale au centre. La formule A9, que nous reprenons ci-dessous, en fait foi : (2) var( CP | RC ) = 1002 P(1!P) / (N + 2) ; RC dénote le rang centile (1 à 99), où RC = 100P. Il s’agit d’une norme « uniforme », c.-à-d. telle que chacune de ses valeurs est également probable dans la population : on applique la norme uniforme parfois sous forme d’un pointage, par exemple, en attribuant des points de 1 à 25. De façon générale, la variable uniforme varie entre les bornes (inclusives) A et B et elle a pour espérance ½(A + B) et pour variance (A!B)2 /12 ; la norme centile en est un cas particulier pour lequel A = 0 et B = 100. On peut assurer une précision donnée à la norme uniforme (ou centile) en trouvant la taille N qui égalisera son erreur-type à une fraction f de l’écart-type de la variable : c’est ce que propose la table H1b. Ainsi, dans le cas d’une norme centile de rang centile 90 (ou P = 0,90), il faudrait une taille normative N = 106 pour assurer une précision de 1/10e ( f = 0,10) de l’écart-type. En effet, d’après (2) ci-dessus, var(C90) = 1002 × 0,90 × 0,10 / (106 + 2) . 8,333, tandis que σ2 = (100 ! 0)2 / 12 = 833,3, respectant le ratio f 2 = 8,333 / 833,3 = 0,01 ou f = 0,10. La fraction f = 0,034641, indiquée vers la droite de la table H1b, donne
Miscellanées (Section H)
161
une précision correspondant à 1/100e de l’étendue entre les bornes A et B de l’échelle normative, soit 1 point sur l’échelle des rangs centiles. Les tailles N présentées dans la table H1b ont été obtenues grâce à la formule raccourcie : N$
.
(3)
Partie 2. Taille et normes sûres normales protégées (tables H2a et H2b) La « norme sûre », telle que présentée dans les sections F (modèle normal) et G (sans modèle paramétrique), est une norme de position qui, par exemple, permet de recruter quelqu’un ayant un niveau d’aptitude d’au moins γ (en termes de fraction de la population), ce tout en assurant que la personne non qualifiée aura tout au plus une probabilité α d’être retenue. Dans le modèle normal, la norme de référence pour le rang centile γ, LS = µ + zγσ, est _ estimée à partir des descripteurs X et s de la série de n données normatives, soit LSN(n) = _ X + zγ s. Cette norme empirique LSN est évidemment instable, en raison de l’instabilité de ses composantes, et ce n’est qu’à la limite, lorsque n 6 4, qu’elle rejoint précisément LS. Grâce à son instabilité statistique, la probabilité qu’une personne tout juste non qualifiée (située sous γ) soit tout de même recrutée par cette norme avoisine ½, et il faut rehausser la norme, par exemple, LSO(n) = LSN + δn s, pour que la probabilité d’un recrutement erroné baisse jusqu’à un seuil α acceptable : c’est le principe de la norme sûre λ(γ, α, n), où λn égale ici zγ + δn. _ _ Le relèvement de la norme naïve, LSN = X N + zγ sN, vers la norme sûre, LSO= X N + λn sN(λn > zγ) a aussi pour effet d’augmenter le risque de voir refusés des gens vraiment qualifiés. Or, incertitude et risque dépendent de la base échantillonnale de la norme, et de sa taille n, et on peut concevoir une norme exigeante telle que le risque de repousser une personne suffisamment qualifiée est lui aussi contrôlé. _ Dans un premier temps, pour une taille n donnée, la norme sûre LSO(n) = X N + λnsN, ou λn en forme standardisée, limite à α la probabilité de recruter une personne non qualifiée au niveau γ : cette norme λn génère une certaine probabilité P de _ refouler quelqu’un qualifié à un niveau légèrement supérieur ω, où ω > γ et P = Pr{ Uω < X N + λn sN). Si maintenant on accroît la taille normative n, tous les estimateurs deviennent plus précis, y compris la norme elle-même qui va diminuer en se rapprochant de zγ, et la probabilité de refoulement P va décroître. Il suffit donc de trouver la taille nN minimale pour laquelle cette probabilité atteigne un seuil β convenu, donnant la norme exigeante λ(γ, α, ω, β, n*), à double coussin probabiliste, soit :
162
L’étalonnage et la décision psychométrique
_ Trouver n* et λn* = Pr{ Uγ $ X N + λn* sN) = α _ tels que Pr{ Uω < XN + λn* sN) #β .
(4)
La définition d’une norme normale permissive protégée suit un itinéraire semblable. À la base, la norme permissive réduit à α le risque de ne pas recruter quelqu’un qualifié au niveau γ, sans considération du risque de retenir d’autres candidats qui n’atteindraient pas le niveau ω, où ω < γ. Encore une fois, l’accroissement de la taille n permet de raffiner les seuils et réduire ainsi la probabilité d’une rétention erronée, d’où la norme permissive λ(γ, α, ω, β, n*) à double coussin probabiliste : _ (5) Trouver n* et λn* = Pr{ Uγ < X N + λn* sN) = α _ tels que Pr{ Uω $ XN + λn* sN) # β . La table H2 fournit les tailles minimales n* et les seuils l correspondants pour ce type de norme. Il est important de noter que la protection assurée par cette norme est symétrique, de sorte que les paramètres γ et ω peuvent être interchangés concomitamment aux niveaux de risque α et β. Pour cette raison, la table de la norme exigeante protégée H2a peut être lue à l’envers, comme s’il s’agissait d’une norme permissive. Ainsi, la norme exigeante applicable pour γ = 0,90, α = 0,05, ω = 0,95 et β = 0,01, soit n* = 244 et λE = 1,433 à la table H2a, coïncide avec la norme permissive pour γ = 0,95,α = 0,01, ω = 0,90 et β = 0,05 à la table H2b. Faut-il le rappeler : il s’agit ici d’une taille minimale (n*) et de la norme λ qui lui convient. La taille n serait-elle plus importante qu’on pourra alors obtenir ou estimer une norme λ qui garantira à coup sûr le seuil β retenu.
Partie 3. Taille et normes sûres ordinales protégées (table H3) Tout comme la norme sûre à distribution normale considérée ci-dessus, la norme sûre nonparamétrique, ou norme ordinale sûre, permet de garantir la sélection contre un risque de qualification incorrecte, sans cependant faire appel à un modèle de distribution particulier : tel était l’objet de la section G. Ainsi, la norme exigeante ordinale U(r* : n | γ,α), définie par G13, assure que quelqu’un tout juste non qualifié au rang γ a une probabilité d’au plus α d’être retenu par le critère X $ X(r* : n). Or, pour atteindre cette assurance, le numéro d’ordre r* a dû être relevé au-delà de sa position centrale, soit r . γ(n + 1), abaissant alors d’environ ½ jusqu’à α la probabilité d’une sélection injustifiée. Le relèvement ainsi opéré a un effet pervers, ici comme pour la norme normale discutée dans la partie 2 antécédente : celui d’augmenter le risque de refouler un candidat qui serait lui-même qualifié. La manière de gérer ce risque et l’effet pervers qui l’accompagne consiste encore à accroître
Miscellanées (Section H)
163
la taille normative n : à chaque accroissement de n, le rang r* de la norme U(r* : n | γ, α) va redescendre vers sa référence, γ(n + 1), et la probabilité de refouler quelqu’un plus qualifié va diminuer. Nous définissons donc une norme ordinale sûre protégée qui, en sus de la garantie de ne pas retenir quelqu’un non qualifié à γ selon une probabilité de plus de α, assure que quelqu’un qualifié à ω (où ω > γ) sera retenu avec une probabilité d’au moins 1!β. Dans le but d’obtenir cette norme exigeante protégée, l’expression G13 devient ici : Déterminer r et n tels que Gr,n(γ) #α et Gr,n(ω) $1!β ,
(6)
ce en exploitant les calculs indiqués dans la section G. De même, pour la norme permissive protégée (qui garantit que quelqu’un qualifié à γ ne sera refusé que selon une probabilité α, tout en limitant à β la probabilité de retenir quelqu’un non qualifié à ω, où ω < γ), l’expression G16 devient ici : Déterminer r et n tels que Gr,n(γ) $1!α et Gr,n(ω) #β .
(7)
La grande table H3 fournit les couples (r, n) appropriés pour ces normes. Les contenus de la table H3 sont parfaitement symétriques, en ce sens que leurs paramètres γ, α et ω, β peuvent être interchangés, ce afin d’utiliser la table à la fois pour la norme unilatérale exigeante et la norme unilatérale permissive. Par exemple, dans le mode exigeant pour γ = 0,90, α = 0,05, ω = 0,95 et β = 0,50, nous lisons 85/89. Ainsi, utilisant un groupe normatif d’au moins n = 89, le critère X $ X(85 : 89) garantit qu’un candidat non qualifié à γ = 0,90 a au plus 5 % de chances d’être retenu, tandis que ceux qualifiés à ω = 0,95 ou plus seront eux-mêmes retenus avec une probabilité d’au moins 1!β = 0,50. Autre exemple, cette fois dans le mode permissif : prenons γ = 0,90, α = 0,01, ω = 0,80, β = 0,01, et nous lisons 233/272. Dans ce cas, pour n = 272, la règle X $ X(233 : 272) garantit qu’une personne qualifiée γ = 0,90 ou mieux sera retenue avec une probabilité de 1!α = 0,99, alors que quelqu’un non qualifié à ω = 0,80 ne sera retenu que dans 1 % des cas. Rappelons que les couples (r, n) fournis le sont selon une taille n minimale, les tailles plus élevées ne pouvant en principe qu’améliorer la sélection en amenuisant les risques de chaque côté. Dans le cas où l’usager dispose d’une taille nN plus élevée que la taille n proposée dans un couple (r, n) proposé, il est possible d’estimer par extrapolation le numéro rN approprié qui satisfera la garantie α de la norme exigeante correspondante (de rang γ), en calculant : rN . jγ × (nN + 1) + /(nN/n) [r ! γ × (n + 1)k ;
(8)
l’expression j x k dénote le plus petit entier plus grand que x ; l’accroissement de nN va évidemment réduire la seconde probabilité bien en deçà de β. À titre d’illustration, prenons la norme exigeante appropriée pour γ = 0,65, α = 0,01, avec protection pour ω = 0,85 et
164
L’étalonnage et la décision psychométrique
β = 0,05, soit le couple (r = 58, n = 74). Alors, pour une taille nN = 300, nous estimons : rN = j0,65 × 301 + /(300 / 74) × [58 ! 0,65 × 75] k . j214,3k = 215 , la valeur étant arrondie vers le haut. Après vérification, la norme (rN = 215, nN = 300) a pour mérites la probabilité de 0,0084 (< 0,01)1 de retenir quelqu’un non qualifié à γ = 0,65, et une probabilité infime (< 0,0001) de refuser quelqu’un de rang ω = 0,85 ou supérieur. L’approximation normale G6 peut aussi servir, ici sous la forme : rN = jγ nN + z[1!α]
k.
(9)
En exploitant z[1!0,01] = 2,3263, nous obtenons rN = j0,65 × 300 + 2,3263 × k . j 214,2 k = 215, coïncidant ici avec l’extrapolation précédente. Nous n’avons pas vérifié la validité générale de ces approximations.
Partie 4. Taille et sélection individuelle sur la concomitante (tables H4a-H4c) Dans cette partie, nous nous intéressons à la sélection individuelle, c’est-à-dire au sort particulier qui échoit au candidat que l’on soumet au test de sélection et au résultat qui s’ensuit. Rappelons d’abord le contexte paradigmatique de la sélection. Il existe un emploi, une occupation professionnelle ou un métier, dont la mesure Y résume et exprime le rendement. Aux fins du recrutement du personnel pour cet emploi, l’agence de sélection utilise une procédure d’évaluation, un test, dont la mesure X donne la valeur globale. Enfin, il existe une relation linéaire entre rendement Y et mesure X au test, soit : Y = bX + a + ε ,
(10)
la corrélation entre X et Y étant ρ. À quels enjeux et stratégies possibles l’agence de sélection se voit-elle confrontée ? Laurencelle (2005a, 2005b) examine différents aspects de la sélection individuelle, notamment par le biais de la concomitante. Soit une série statistique bivariée comportant n couples X,Y : { (X1, Y1), (X2 ,Y2), ..., (Xn ,Yn) }. Si on réarrange les couples de façon à obtenir une série croissante des valeurs de X, nous obtenons : { (X(1) ,Y[1]), (X(2) ,Y[2]), ..., (X(n) ,Y[n]) }, les composantes X(i) résultantes constituent les statistiques d’ordre de la série, et les composantes Y[i] constituent les concomitantes. Si les séries X et Y sont associées selon le modèle (10) ci-dessus, alors, de même, nous avons le modèle : Y[i] = b X(i) + a + εN ,
(11)
1. La norme (rN = 214, nN = 300) aurait une probabilité de 0,0117 (> 0,01) de retenir quelqu’un non qualifié à γ = 0,65.
165
Miscellanées (Section H)
comportant les mêmes valeurs paramétriques a, b et ρ. Supposons que l’agence de sélection reçoit n candidats pour évaluation (par X), et qu’elle doit recommander ou non le recrutement sur la base du rendement Y anticipé : si la corrélation entre test et rendement est positive (ρ > 0), les candidats obtenant les scores X plus élevés devraient être préférés aux autres. Y a-t-il des stratégies de sélection qui garantissent d’une manière ou d’une autre la décision prise ? Sélection selon le niveau de compétence attendu. L’une des premières stratégies qui nous viennent à l’esprit consiste à imposer à la future recrue un niveau de compétence, ou de rendement, minimal. Concrétisons cette idée en supposant qu’il existe un ensemble des mesures de rendement possibles (Y), ensemble commensurable à la population des candidats2. Par rapport aux caractéristiques de cet ensemble, l’employeur peut, par exemple, exiger de recruter seulement les candidats situés dans le meilleur 1/5e (ou les meilleurs 20 %) de la population, ou le meilleur 1/100e (ou les meilleurs 1 %). À défaut de connaître le rendement Y de chaque candidat afin de le comparer au rendement Y* exigé, l’agence de sélection va l’évaluer au test, obtenant sa mesure X0. Dans ce cas, une fois le modèle de prédiction (10) établi, la distribution du rendement probable, Y0, en découle, ce qui permet d’en obtenir un énoncé de probabilité. Dans le modèle bivarié normal traditionnel, la distribution conditionnelle de Y pour X0 est normale elle-même, avec moyenne b X0 + a et variance σ2(Y^ |X0) = σε2 {1 + 1/n + (X0 ! :X)2/ [(n ! 1) σX2]}, les quantités :X, σX2 et σε2 pouvant être estimées. Pour garantir à un niveau de probabilité P que le candidat retenu rencontrera le critère de rendement Y*ou mieux, il faut donc déterminer le score minimal X* tel que (bX* ! a ! Y*)/σ(Y^ |X0) = zP, soit X* = :X + σX /ρXY{ zP /(1!ρ2XY) + (Y* ! :Y)/σY }, ce pour n élevé. Les solutions pour n modeste peuvent être documentées dans les ouvrages spécialisés3.
Or, même si le modèle (10) n’est pas connu, ni les caractéristiques de rendement de la population, ni même la valeur X obtenue au test mais seulement son rang, les principes de l’échantillonnage au hasard permettent néanmoins d’obtenir un énoncé de probabilité, ce à partir des concomitantes Y[i] et de leur distribution. Laurencelle (2005a) montre que la concomitante Y[i] a pour fonction de densité : hy[i](y) =
,
(12)
2. En pratique, cet ensemble de mesures de rendement est estimé ou approximé par échantillonnage, et nous pouvons alors en établir un modèle paramétrique caractérisé par certains indices, tels la moyenne et l’écarttype. 3. Voir p. ex. N. Draper et H. Smith, Applied regression analysis (3e édition), 1998, New York, Wiley, ou R.J. Freund et W.J. Wilson, Regression analysis, 1998, San Diego, Academic Press.
166
L’étalonnage et la décision psychométrique
dans laquelle : gx(i)(x) =
;
(13)
ϕ et Φ sont les fonctions de densité et de répartition de la loi normale standard, et K = (1!ρ2)!½. La fonction (12) et son intégration permettent de calculer la probabilité que n’importe quelle concomitante Y[i] atteigne une valeur prescrite de Y, comme un centile YP donné. La table H4a fournit la taille (minimale) requise pour que la meilleure concomitante (Y[n]) atteigne un niveau de rendement correspondant à une fraction supérieure prescrite (P) de la population4. Par exemple, si la relation estimée entre X et Y a pour corrélation ρ = 0,8, qu’on souhaite atteindre un rendement dans les meilleurs 10 % (ou 1/10e), avec un risque d’erreur (α) n’excédant pas 0,05, la table indique n = 399. En retenant et recommandant, parmi les n = 399 candidats, celui qui obtient le meilleur score au test (quel que soit ce score), la recommandation effectuée respecte la garantie indiquée. Sélection selon la préséance au rendement. À défaut de pouvoir spécifier un niveau de rendement attendu, Y*, il serait naturel que l’employeur, qui paye pour la sélection, soit assuré de recruter le ou les meilleurs parmi les candidats en lice. Si, par exemple, il se présente 5 candidats, le premier candidat venu (au hasard) aura une probabilité de 1/5 d’être le meilleur des 5 ; le but de la sélection par test consiste précisément à accroître cette probabilité. La probabilité mentionnée précédemment se rapporte en fait à la distribution du rang d’une concomitante, un sujet difficile abordé aussi dans Laurencelle (2005a) et que David, O’Connell et Yang (1997) ont tenté de maîtriser. Pour aller au plus utile, nous avons préparé la table H4b aux fins de retenir le meilleur candidat parmi n, ou de retenir les deux meilleurs parmi n, sur la base de leurs scores au test de sélection : les probabilités indiquées ont été estimées par échantillonnage Monte Carlo et ont la précision indiquée. Par exemple, si 10 candidats se présentent, la rétention de l’un deux au hasard a une probabilité de 0,10 de nous procurer le meilleur ; la même probabilité s’applique si nous utilisons un test de sélection corrélant à ρ = 0,00 avec le rendement à l’emploi. Dans la partie haute de la table H4b, on peut voir qu’il nous faut une corrélation test-emploi d’environ 0,80 pour que la rétention du meilleur soit assurée à plus de 0,50. Dans la partie basse de la table, la probabilité correspondante se lit 0,73 ; c’est ici la probabilité que, sous une corrélation test-emploi de 0,80, la rétention du candidat ayant le meilleur score au test nous procurera
4. Des difficultés dans les calculs nous ont empêché de compléter la table, des problèmes de convergence survenant dans le cas de tailles n très élevées.
Miscellanées (Section H)
167
le meilleur ou le second meilleur qualifié pour l’emploi, ou bien que le candidat obtenant le meilleur ou second meilleur score au test soit le plus qualifié pour l’emploi. Cette stratégie de sélection, qu’on peut qualifier d’aveugle dans la mesure où elle vise à déterminer un niveau de rendement attendu sans en spécifier la valeur, apparaît plus coûteuse, plus exigeante en termes de degré de corrélation requis, en un mot moins sûre, que celle examinée précédemment. C’est cette relation, entre le degré de corrélation et la taille du groupe normatif, que nous avons explorée dans la table H4c. On y trouve la taille du groupe de candidats (n) à partir de laquelle, pour un niveau de corrélation donné (ρ) entre test de sélection et rendement à l’emploi, un employeur a une assurance de 50 % ou mieux d’obtenir le meilleur candidat (en termes de rendement) s’il retient celui qui obtient le meilleur score (à la sélection). Dans la colonne de droite, la probabilité concerne le recrutement du meilleur ou second meilleur candidat en retenant le meilleur score à la sélection ou, de façon équivalente, l’obtention du meilleur candidat en retenant soit le meilleur, soit le second meilleur score au test. Par exemple, pour une relation moyenne ρ = 0,67, la rétention du meilleur score parmi 5 candidats nous assure (à P $ 0,50) de recruter le meilleur candidat parmi les 5 ; avec 19 candidats, il nous faudrait une corrélation d’au moins 0,84 pour obtenir la même assurance. D’autre part, si nous nous satisfaisons de retenir l’un des deux meilleurs candidats à l’emploi, l’assurance de 0,50 ou mieux peut être donnée pour des groupes allant jusqu’à n = 19 ou 20 candidats (avec ρ = 0,67). Cette table H4c tout comme la table H4b qui la précède illustrent bien les délicates interrelations qui existent entre le rang à la sélection, le rang au rendement, la corrélation entre test et rendement et la probabilité de décision. Laurencelle (2005b) examine d’autres aspects de cette question. Partie 5. Taille et incertitude sur la corrélation r (tables H5a et H5c) Comme le lecteur l’aura constaté, une bonne part des propositions du psychométricien comme de ses opérations concrètes pour la mesure et la sélection repose sur le concept et la valeur de la corrélation linéaire r. Le coefficient de corrélation, avec ses variantes algébriques telles le phi, le r point-bisérial et le ρS de Spearman, est documenté in extenso dans les manuels spécialisés. Cependant, le statisticien appliqué tout comme le chercheur en sciences humaines ou le spécialiste en mesure et évaluation connaissent mal les propriétés du coefficient r comme estimateur de la corrélation paramétrique ρ de même que son incertitude, laquelle est plutôt forte. Globalement, cette incertitude est de l’ordre de 1/ /n, de sorte que, assez souvent, les inférences tirées d’informations psychométriques sur la base d’un coefficient r sont fragiles, ne reposant que sur des séries de taille modeste, par exemple, n = 200, voire n = 100 ou moins.
168
L’étalonnage et la décision psychométrique
Comment apprécier l’incertitude de r dans un contexte général ? Plusieurs perspectives se présentent, en se confinant cependant au contexte de la distribution binormale (Laurencelle, 2000b). D’abord, la distribution échantillonnale de r est généralement asymétrique, l’asymétrie ayant pour signe « !ρ » : ceci a pour conséquence principale que la moyenne et l’écart-type de la distribution n’en sont plus les statistiques suffisantes ; que, par exemple, la moyenne (l’espérance) est relativement éloignée du mode et représente donc un estimateur moins probable du paramètre ρ ; que, enfin, l’écart-type (σr) peut fournir un indice trompeur de l’incertitude de r comme estimateur de ρ. Le tableau 1, ci-dessous, donne un aperçu des propriétés d’estimation du coefficient de corrélation r, pour des séries binormales de tailles n = 10, 25 ou 100 : il s’agit ici d’estimer ρ, soit par l’intervalle de confiance à 95 %, soit par l’écart entre l’estimateur ponctuel r (= ^ρ) et le centile 16 correspondant à la distance de 1 écart-type sous ^ρ, soit par l’erreur-type de r (σ ρ^) calculée en substituant r pour ρ, soit par une excellente approximation de l’erreur-type de r due à D. Allaire. Il apparaît clairement que à la fois l’asymétrie de r ^ ) se décroît pour des tailles n croissantes et que les estimations de l’erreur-type (σ ρ^ = r, σ rapprochent de l’incertitude réelle, mieux reflétée par l’écart r ! ρ[0,1587] . Quoi qu’il en soit, les intervalles de confiance affichés montrent à suffisance l’incertitude de l’estimateur r et la grandeur de sa marge d’imprécision. Ainsi, pour une corrélation r = 0,50 obtenue à partir d’une série de n = 100 données X, Y, la corrélation réelle sous-jacente s’étend virtuellement de ρ = 0,335 à ρ = 0,679. Or, on se rappellera que, dans les applications psychométriques mettant en jeu la corrélation, c’est la valeur paramétrique ρ qui est utilisée au lieu de son estimateur r. C’est le cas des rapports de sélection (section C), des seuils de sélection multinormaux (section D), des différentiels de sélection multivariés (section E), voire de la sélection individuelle par la concomitante (section H, partie 4). L’imprécision de r comme estimateur de ρ, pour de modestes tailles n, implique à son tour une incertitude dérivée dans l’application de la procédure pour laquelle ρ joue le rôle de pivot prédictif, donc un flottement dans la décision psychométrique qui s’y rattache. L’impact de cette incertitude dans chaque cas d’espèce n’a pas encore fait l’objet d’études systématiques, à notre connaissance. La table H5a donne une mesure de l’incertitude sur ρ, pour un bon jeu de grandeurs échantillonnales n : la quantité tabulée est le demi-intervalle le plus grand, celui situé en position ipsilatérale par rapport à la partie allongée de la distribution conditionnelle de ρ, qui délimite l’intervalle de confiance à 95 % sur ρ : ce demi-intervalle est fourni en fait par la différence : ^ [0,025] . r!ρ
169
Miscellanées (Section H)
Tableau 1. Incertitude et asymétrie sur l’estimateur r (voir légende) n r = 0,00
r = 0,50
r = 0,90
ρI
ρS
Asym
r ! ρ[0,1587]
σρ^ = r
^ σ
10
!0,602 0,602
0
0,333
0,333
0,333
25
!0,388 0,388
0
0,204
0,204
0,204
100
!0,196 0,196
0
0,101
0,101
0,101
10
!0,181 0,839
!0,290
0,331
0,267
0,265
25
0,127
0,739
!0,193
0,181
0,157
0,157
100
0,335
0,679
!0,052
0,081
0,076
0,076
10
0,601
0,972
!0,553
0,115
0,083
0,088
25
0,777
0,953
!0,353
0,054
0,043
0,044
100
0,854
0,941
!0,034
0,022
0,020
0,020
Légende : ρI , ρS : bornes inférieure et supérieure de l’intervalle de confiance à 95 % sur r Asym : indice d’asymétrie de Yule, [(Q3 ! Q2) ! (Q2 ! Q1)] / (Q3 ! Q1) r !ρ[0,34134] : écart réel (équivalent à 1 écart-type) entre r et le centile 34,134 de la distribution de vraisemblance de ρ ^ = r) : écart-type de la distribution de r (en supposant ρ = r) σ(ρ ^ : écart-type estimé d’après Allaire (Laurencelle 2000b), (1 ! r2)(n!2)/n / /(n ! 1) σ
Le lecteur constatera que l’incertitude diminue globalement quand n augmente, ce à un rythme correspondant à 1//n , et qu’elle diminue aussi quand r (et ρ) augmente. Pour l’exemple, tirons au hasard un cas de la table, soit une corrélation r = 0,60 issue d’une série de (n =) 250 données : le demi-intervalle indiqué est 0,087, indiquant que ρ pourrait se loger aussi bas que 0,6 ! 0,087 = 0,513. Il est indéniable que cette différence de prédictivité, entre la valeur r mesurée et la valeur génératrice réelle ρ, est susceptible de modifier peu ou prou les décisions psychométriques qui seraient basées sur elles. La table H5b, enfin, fournit la taille de série requise pour assurer une précision prédéterminée, c’est-à-dire pour que le demi-intervalle (gauche) au seuil de confiance 1!α s’inscrive en dedans d’une précision d spécifiée. Par exemple, pour une corrélation r de 0,60, si nous requérons que l’écart (à 95 %) de r d’avec ρ soit d’au plus 0,01, en d’autres mots que le vrai ρ varie de 0,59 à 0,61, il nous faudrait 16 070 données, alors que 450 suffiraient si le r obtenu était de 0,95.
170
L’étalonnage et la décision psychométrique
Nous ne voulons pas conclure cette partie sur des propos alarmistes, et nous sommes conscient que peu de travaux psychométriques ! normatifs ou autres ! engagent autant de ressources que celles que semble exiger cette incertitude sur la corrélation. En fait, des valeurs de ρ au voisinage de r peuvent être satisfaisantes, même avec des intervalles de ± 0,02 ou ± 0,05. Bien qu’aucune étude de robustesse ne nous soit disponible (pour les procédures concernées présentées dans ce traité), nous croyons que les systèmes prédictifs impliqués, parce qu’ils sont fondamentalement stochastiques, possèdent une dose raisonnable de robustesse et qu’on peut les appliquer avec sécurité. Il reste que des études complémentaires sur ce sujet devront être réalisées afin de préciser les limites de cette sécurité.
171
Miscellanées - Partie 1 (Section H)
Table H1a.
Taille minimale requise pour que le centile normal de rang P ait une erreurtype n’excédant pas la fraction f d’écart-type prescrite†
P
f = 0,50
50 55 60 65 70 75 80 82 84 86 88 90 91 92 93 94 95 96 97 98 99 99,5
6 6 6 7 7 8 9 9 10 11 12 13 14 15 17 19 22 26 32 45 80 147
0,40
0,30
0,20
10 10 10 10 11 12 13 14 15 16 18 20 21 23 25 28 32 38 47 64 113 204
18 18 18 19 19 21 23 24 26 28 31 34 36 39 43 48 54 63 78 106 182 323
39 40 40 42 44 47 52 54 58 62 67 75 80 86 93 103 116 135 165 222 377 656
†Soit σ^ (Cp | n) # f × σX , où X est une variable normale.
0,15 70 70 72 74 77 83 91 96 102 109 119 132 140 150 163 180 203 236 288 385 649 1120
0,10
0,05
157 158 161 166 174 186 205 215 228 244 265 294 313 335 364 401 451 523 637 850 1423 2443
628 632 643 663 695 743 817 858 909 973 1057 1171 1244 1334 1447 1593 1791 2074 2523 3358 5605 9582
172
L’étalonnage et la décision psychométrique
Table H1b.
Taille minimale requise pour qu’un centile uniforme de rang P soit défini et qu’il ait une erreur-type n’excédant pas la fraction f d’écart-type prescrite†,‡
P
f = 0,50
0,25
0,20
0,10
0,05
0,025
0,034641
50 55 60 65 70 75 80 82 84 86 88 90 91 92 93 94 95 96 97 98 99 99,5
10 10 10 9 9 7 6 6 6 7 8 9 11 12 14 16 19 24 33 49 99 199
46 46 45 42 39 34 29 27 24 22 19 16 14 13 14 16 19 24 33 49 99 199
73 73 70 67 61 55 46 43 39 35 30 25 23 21 18 16 19 24 33 49 99 199
298 295 286 271 250 223 190 176 160 143 125 106 97 87 77 66 56 45 33 49 99 199
1198 1186 1150 1090 1006 898 766 707 644 576 505 430 392 352 311 269 227 183 138 93 99 199
4798 4750 4606 4366 4030 3598 3070 2832 2579 2310 2026 1726 1571 1412 1248 1081 911 736 557 375 189 199
2499 2474 2399 2274 2099 1874 1599 1475 1343 1203 1055 899 818 735 650 563 474 383 290 195 99 199
† Soit σ^ (CP | n) # f × σX , où X est une variable uniforme. Noter que la fraction f = 0,034641 permet de définir Cp avec une précision équivalant à une fraction de 1/100e de l’étendue de X.
‡ Les nombres imprimés en italique indiquent la taille requise pour définir le centile approprié à partir des statistiques d’ordre (même si une taille moindre suffirait à en assurer la précision), soit n $ P / (1!P).
173
Miscellanées - Partie 2 (Section H)
Table H2a.
α = 0,05
α = 0,01
Taille minimale requise (n) et pour fixer une norme exigeante normale λ de rang γ au seuil α en garantissant que quelqu’un qualifié au rang ω (ω > γ) soit retenu avec une probabilité d’au moins 1!β γ
ω
0,5
0,55 0,60 0,65 0,70
176 44 20 12
0,125 0,254 0,387 0,519
551 136 60 33
0,071 0,142 0,216 0,295
690 171 75 41
0,063 0,127 0,193 0,263
1003 247 108 59
0,052 0,105 0,160 0,218
0,75 0,80 0,85 0,90
132 32 14
0,843 1,044 1,296
399 91 36
0,769 0,880 1,020
503 114 44
0,758 0,857 0,982
723 163 62
0,744 0,825 0,928
0,90 0,95 0,99
48 10
1,655 2,355
137 23
1,488 1,869
171 27
1,465 1,812
244 37
1,433 1,718
0,95 0,99
22
2,349
57
2,034
70
1,990
99
1,929
0,55 0,60 0,65 0,70
350 88 40 23
0,125 0,253 0,384 0,523
827 207 91 51
0,081 0,163 0,249 0,337
1016 251 110 61
0,073 0,148 0,226 0,306
1381 342 149 82
0,063 0,127 0,193 0,262
0,75 0,80 0,85 0,90
262 64 27
0,842 1,038 1,288
614 141 56
0,782 0,909 1,067
742 169 66
0,772 0,887 1,032
1000 227 88
0,758 0,856 0,978
0,90 0,95 0,99
95 18
1,650 2,357
212 35
1,517 1,958
253 41
1,495 1,893
342 53
1,463 1,802
0,95 0,99
42
2,342
89
2,086
105
2,045
140
1,985
0,5
β = 0,50 n λ
β = 0,10 n λ
β = 0,05 n λ
β = 0,01 n λ
174
Table H2b.
α = 0,05
α = 0,01
L’étalonnage et la décision psychométrique
Taille minimale requise (n) et pour fixer une norme permissive normale λ de rang γ au seuil α en garantissant que quelqu’un non qualifié au rang ω (ω < γ) soit rejeté avec une probabilité d’au moins 1!β β = 0,10 n λ
β = 0,05 n λ
β = 0,01 n λ
γ
ω
β = 0,50 n λ
0,5
0,45 0,40 0,35 0,30
176 !0 ,125 44 !0,254 20 !0,387 12 !0,519
551 136 60 33
!0,071 !0,143 !0,216 !0,295
690 171 75 41
!0,063 !0,127 !0,193 !0,263
1003 248 108 59
!0,052 !0,105 !0,160 !0,218
0,75 0,70 0,65 0,60
139 36 16
0,526 0,392 0,260
453 117 54
0,591 0,513 0,441
572 149 69
0,600 0,531 0,467
841 219 101
0,612 0,555 0,501
0,90 0,85 0,80
71 20
1,041 0,858
238 69
1,145 1,038
303 88
1,160 1,064
448 132
1,180 1,101
0,95 0,90
39
1,292
134
1,443
171
1,465
253
1,495
0,99 0,95
16
1,693
55
1,952
70
1,990
105
2,046
0,45 0,40 0,35 0,30
350 88 40 23
!0,125 !0,258 !0,384 !0,524
829 207 91 51
!0,081 !0,163 !0,249 !0,337
1016 251 110 61
!0,074 !0,148 !0,226 !0,307
1381 342 149 82
!0,063 !0,127 !0,193 !0,263
0,75 0,70 0,65 0,60
275 70 32
0,525 0,387 0,258
677 176 80
0,578 0,489 0,404
827 214 98
0,587 0,506 0,429
1148 297 136
0,600 0,530 0,465
0,90 0,85 0,80
141 39
1,039 0,849
356 102
1,124 1,000
437 126
1,138 1,026
605 176
1,159 1,062
0,95 0,90
77
1,287
199
1,412
244
1,433
342
1,463
0,99 0,95
30
1,667
80
1,891
99
1,930
140
1,986
0,5
175
Miscellanées - Partie 3 (Section H)
Table H3. Numéro d’ordre (r) et taille minimale (n) requise pour définir une norme ordinale sûre de rang γ à protection de rang ω, sous les risques d’erreur α et β α ; β = 0,05 ; 0,50 γ:ω
0,50
0,50
!
0,55 135/269
0,55
0,60
0,65
0,70
0,75
0,80
0,85
0,90
0,95
1,00
155/281 43/71
20/30
13/18
10/13
7/8
7/8
5/5
5/5
5/5
163/271 46/70
24/34
14/18
10/12
8/9
6/6
6/6
6/6
172/264 46/65
23/30
14/17
9/10
6/6
6/6
6/6
172/245 47/62
23/28
14/16
11/12
7/7
7/7
170/226 43/53
21/24
13/14
9/9
9/9
155/193 43/50
21/23
11/11
11/11
140/164 40/44
21/22
14/14
114/126 29/30
19/19
!
!
0,60
34/67 148/268
0,65
19/36
38/68 153/254
0,70
11/20
16/28
39/64 154/236
0,75
8/14
10/17
18/29
37/56 154/219
0,80
6/10
8/13
9/14
17/25
37/52 144/191
0,85
4/6
4/6
6/9
10/14
16/22
33/43 128/159
0,90
4/6
4/6
5/7
6/8
9/12
15/19
0,95
3/4
3/4
3/4
4/5
5/6
6/7
12/14
1,00
2/2
2/2
2/2
2/2
2/2
3/3
0,60
0,65
0,70
42/64
325/541 87/133
!
!
!
!
!
!
85/89
29/29
22/25
61/67
!
59/59
4/4
5/5
7/7
14/14
!
0,75
0,80
0,85
0,90
0,95
1,00
25/35
17/22
14/17
12/14
10/11
7/7
7/7
43/61
26/34
18/22
14/16
11/12
8/8
8/8
334/513 92/131
44/58
26/32
19/22
13/14
10/10
10/10
340/485 89/118 43/536
26/30
15/16
11/11
11/11
38/44
23/25
13/13
13/13
311/388 82/96
39/43
23/24
17/17
276/324 69/76
30/31
21/21
230/255 51/53
29/29
28/34 101/118
α ; β = 0,01 ; 0,50 γ:ω
0,50
0,50
!
0,55 272/543
0,55
303/550 85/141
!
0,60 67/133 295/535
!
!
0,65
29/57
75/135 306/509
0,70
19/36
32/57
75/124 310/476
0,75
12/22
19/33
33/54
76/116 301/429
0,80
9/16
11/19
18/29
32/48
70/99 282/375
0,85
6/10
8/13
11/17
17/25
28/39
63/83 248/309
0,90
5/8
5/8
6/9
10/14
14/19
24/31
52/64 197/231
0,95
4/9
4/6
5/7
6/8
7/9
12/15
20/24
1,00
2/2
2/2
2/2
2/2
2/2
3/3
4/4
!
332/442 87/108
!
!
!
!
39/45 124/137 5/5
7/7
162/170 44/44
!
90/90
14/14
!
176
L’étalonnage et la décision psychométrique
Table H3 (suite) α = β = 0,05 (Matrice triangulaire supérieure) | α = β = 0,01 (Matrice triangulaire inférieure) γ:ω
0,50
0,55
0,60
0,65
0,70
0,75
0,80
0,85
0,90
0,95
1,00
0,50
!
574/ 1092
148/ 268
69/ 119
41/ 67
27/ 42
19/ 28
13/ 18
10/ 13
9/ 11
5/ 5
0,55
1140/ 2170
!
609/ 1058
158/ 262
72/ 114
41/ 62
28/ 40
19/ 26
14/ 18
10"12
6/ 6
0,60
295/ 535
1221/ 2122
!
637/ 1018
162/ 248
73/ 107
43/ 60
25/ 33
19/ 24
12/ 14
6/ 6
0,65
136/ 235
314/ 522
1271/ 2032
!
649/ 960
162/ 230
72/ 98
40/ 52
25/ 31
14/ 16
7/ 7
0,70
79/ 130
141/ 224
323/ 495
1283/ 1899
!
631/ 869
154/ 204
67/ 85
34/ 41
21/ 24
9/ 9
0,75
51/ 80
81/ 123
143/ 210
317/ 451
1252/ 1725
!
587/ 756
142/ 176
59/ 70
30/ 34
11/ 11
0,80
35/ 52
52/ 75
79/ 111
140/ 191
303/ 402
1171/ 1509
!
516/ 624
116/ 135
45/ 50
14/ 14
0,85
27/ 38
35/ 48
50/ 67
75/ 98
131/ 167
277/ 344
1033/ 1250
!
416/ 474
85/ 93
19/ 19
0,90
19/ 25
24/ 31
33/ 42
45/ 56
68/ 83
114/ 136
233/ 272
828/ 944
!
277/ 298
29/ 29
0,95
14/ 17
18/ 22
21/ 25
29/ 34
38/ 44
53/ 60
86/ 96
165/ 181
547/ 589
!
59/ 59
1,00
7/ 7
8/ 8
10/ 10
11/ 11
13/ 13
17/ 17
21/ 21
29/ 29
44/ 44
90/ 90
!
177
Miscellanées - Partie 3 (Section H)
Table H3 (suite) α ; β = 0,01 ; 0,05 γ:ω
0,50
0,55
0,60
0,65
0,70
0,75
0,80
0,85
0,90
0,95
1,00
0,50
!
838/ 1582
219/ 391
103/ 174
60/ 96
39/ 59
28/ 40
20/ 27
15/ 19
12/ 14
7/ 7
0,55
825/ 1583
!
894/ 1542
232/ 380
108/ 168
61/ 90
40/ 56
28/ 37
20/ 25
14/ 16
8/ 8
0,60
213/ 392
883/ 1546
!
936/ 1486
238/ 360
107/ 154
62/ 85
37/ 48
26/ 32
19/ 22
10/ 10
0,65
98/ 173
225/ 379
917/ 1476
!
948/ 1394
237/ 333
103/ 138
58/ 74
34/ 41
22/ 25
11/ 11
0,70
55/ 93
100/ 162
232/ 360
930/ 1385
!
923/ 1264
225/ 295
99/ 124
52/ 62
31/ 35
13/ 13
0,75
36/ 58
56/ 87
101/ 151
230/ 331
910/ 1261
!
864/ 1107
206/ 253
86/ 101
44/ 49
17/ 17
0,80
24/ 37
35/ 52
55/ 79
98/ 136
217/ 291
846/ 1096
!
766/ 922
175/ 202
69/ 76
21/ 21
0,85
19/ 28
24/ 34
35/ 48
54/ 72
92/ 119
200/ 251
745/ 906
!
617/ 700
127/ 138
29/ 29
0,90
13/ 18
18/ 24
23/ 30
33/ 42
46/ 57
81/ 98
168/ 198
598/ 685
!
406/ 435
44/ 44
0,95
10/ 13
12/ 15
14/ 17
20/ 24
28/ 33
39/ 45
61/ 69
121/ 134
393/ 425
!
90/ 90
1,00
5/ 5
6/ 6
6/ 6
7/ 7
9/ 9
11/ 11
14/ 14
19/ 19
29/ 29
59/ 59
!
178
L’étalonnage et la décision psychométrique
Table H4a. _ α = 0,3 (a) ρ\P
Taille n requise pour que la ne concomitante ( Y[n:n] ) fasse partie des 100P% supérieurs de la population avec une probabilité d’au moins 1!α, selon une corrélation ρ entre X et Y 1/2
1/3
1/4
1/5
1/10
1/20
1/100
1
2
3
4
5
11
22
110
0,95
2
3
5
6
13
28
170
0,9
2
4
5
7
16
38
287
0,8
2
4
7
9
28
83
1103
0,7
3
5
9
15
60
255
7643
0,6
3
8
16
29
196
1398
0,5
3
13
37
87
1343
!
! !
ρ\P
1/2
1/3
1/4
1/5
1/10
1/20
1/100
1
4
6
9
11
22
45
230
0,95
4
7
11
14
33
77
538
0,9
5
9
14
19
52
141
1381
0,8
6
15
27
42
168
653
0,7
10
32
72
134
900
5782
0,6
19
101
322
781
0,5
57
677
3786
!
! !
! !
! ! ! !
ρ\P
1/2
1/3
1/4
1/5
1/10
1/20
1/100
1
5
8
11
14
29
59
299
0,95
6
10
15
20
49
117
872
0,9
7
13
21
30
88
252
2769
0,8
11
28
53
88
399
1734
0,7
21
81
206
418
3489
0,6
59
430
1650
4551
0,5
337
6744
!
!
! !
! ! !
! ! ! !
1/2
1/3
1/4
1/5
1/10
1/20
1/100
α = 0,1
α = 0,05
α = 0,01 ρ\P 1
7
12
17
21
44
90
459
0,95
9
18
27
37
98
253
2161
0,9
13
28
48
72
242
781
10776
0,8
30
100
221
402
2374
0,7
111
648
2066
4901
0,6
860
!
!
!
! !
! ! !
! ! !
179
Miscellanées - Partie 4 (Section H)
Table H4b.
Probabilité que le candidat ayant le meilleur score au test de sélection soit le meilleur au critère, ou que le candidat ayant le meilleur score au test de sélection soit le meilleur ou le second meilleur au critère, ou que celui obtenant le meilleur ou le second meilleur score, soit vraiment le meilleur, selon la taille n du groupe et la corrélation ρ†
Pr { rang (Y[n:n]) = n } ρ\n
5
10
20
30
40
50
75
100
0,00 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 0,95 1,00
,20 ,24 ,28 ,32 ,36 ,41 ,47 ,53 ,61 ,72 ,80 1,00
,10 ,13 ,16 ,20 ,24 ,29 ,35 ,42 ,52 ,65 ,74 1,00
,05 ,07 ,10 ,13 ,17 ,22 ,28 ,35 ,44 ,59 ,70 1,00
,03 ,05 ,07 ,10 ,13 ,18 ,23 ,31 ,41 ,55 ,67 1,00
,03 ,04 ,06 ,08 ,12 ,16 ,21 ,28 ,38 ,54 ,65 1,00
,02 ,03 ,05 ,07 ,10 ,14 ,20 ,27 ,37 ,52 ,64 1,00
,01 ,02 ,04 ,06 ,08 ,12 ,17 ,24 ,34 ,49 ,62 1,00
,01 ,02 ,03 ,05 ,07 ,11 ,16 ,22 ,32 ,48 ,61 1,00
Pr { rang (Y[n:n]) = n ou n ! 1 }, Pr {rang(Y[n!1,n] ou Y[n:n] = n } ρ\n
5
10
20
30
40
50
75
100
0,00 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 0,95 1,00
,40 ,45 ,50 ,55 ,60 ,66 ,72 ,78 ,85 ,92 ,96 1,00
,20 ,25 ,30 ,35 ,41 ,48 ,56 ,64 ,73 ,85 ,92 1,00
,10 ,14 ,18 ,22 ,29 ,35 ,43 ,53 ,64 ,79 ,88 1,00
,07 ,09 ,13 ,18 ,23 ,29 ,37 ,47 ,59 ,75 ,86 1,00
,05 ,07 ,11 ,15 ,20 ,27 ,34 ,44 ,56 ,73 ,84 1,00
,04 ,06 ,09 ,13 ,18 ,24 ,32 ,41 ,54 ,71 ,83 1,00
,03 ,04 ,07 ,10 ,15 ,20 ,28 ,38 ,50 ,69 ,81 1,00
,02 ,03 ,06 ,09 ,13 ,18 ,26 ,35 ,48 ,67 ,80 1,00
† Les probabilités indiquées dans la table ont été estimées sur la base d’échantillons Monte Carlo, soit 50000 pour la partie supérieure et 100000 pour la partie inférieure.
180
L’étalonnage et la décision psychométrique
Table H4c.
Taille maximale pour que la probabilité d'une sélection du meilleur ou de l'un des deux meilleurs candidats soit d'au moins 0,5, selon la corrélation ρ et deux critères†
ρ minimum
Pr{ rang(Y[n:n]) = n } $ 0,5
0,00
! þ
þ
0,20
þ
0,33
þ
0,41
þ
0,46
þ
0,50
þ
0,53
þ
0,56
þ
0,58
þ ! þ ! þ ! þ ! þ ! þ ! þ
Pr{ rang(Y[n:n]) = n ou n!1 } $ 0,5 Pr{ rang(Y[n:n] ou Y[n!1:n]) = n } $ 0,5 4
þ 5
þ 6
þ 7
þ 8
þ 9
þ 10
þ
11
þ
þ
4 4 4 4
þ
13 14
0,63 0,64 0,65 0,66 0,67 0,68 0,69 0,70 0,71 0,72 0,73 0,74 0,75 0,76 0,77 0,78 0,79
4 4 4 4 5 5 5 5 6 6 6 7 7 8 9 9 10
15 16 17 18 19-20 21 22-23 24-25 26-27 28-29 30-32 33-36 37-39 40-44 45-50 51-57 58-65
þ
0,60 0,61
12
þ
þ
181
Miscellanées - Partie 4 (Section H)
Table H4c (suite)
†
ρ minimum
Pr{ rang(Y[n:n]) = n } $ 0,5
Pr{ rang(Y[n:n]) = n ou n!1 } $ 0,5 Pr{ rang(Y[n:n] ou Y[n!1:n]) = n } $ 0,5
0,80 0,81 0,82 0,83 0,84 0,85 0,86 0,87 0,88 0,89 0,90 0,91 0,92 0,93 0,94 0,95 0,96
11 12-13 14 15-16 17-19 20-22 23-26 27-32 33-40 41-51 52-67 68-95 92-142 143-227 228-394 395-760 761-2346 +
66-76 77-90 91-108 109-133 134-166 167-213 214-284 285-393 394-568 569-865 866-1406 +
Estimations (par interpolation pour n # 100 et par extrapolation au-delà) faites à partir d’un modèle en puissance, de forme P . Aρ n!Bρ,dont les paramètres Aρ et Bρ sont ajustés sur des séries Monte Carlo générées pour des échantillons de n = 5 à n = 100.
182
L’étalonnage et la décision psychométrique
Table H5a. Demi-intervalle d’incertitude à 95% sur ρ, selon r et n† n\r
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0,95
5 10 25 50 100 250 500 1000
0,811 0,602 0,388 0,276 0,196 0,124 0,088 0,062
0,880 0,639 0,402 0,282 0,198 0,124 0,088 0,062
0,945 0,667 0,408 0,282 0,196 0,122 0,086 0,060
1,003 0,686 0,407 0,277 0,191 0,118 0,082 0,058
1,052 0,692 0,395 0,265 0,180 0,110 0,077 0,053
1,089 0,681 0,373 0,245 0,165 0,100 0,069 0,048
1,107 0,648 0,338 0,217 0,144 0,087 0,060 0,041
1,094 0,585 0,286 0,180 0,118 0,070 0,048 0,033
1,022 0,477 0,216 0,133 0,086 0,050 0,034 0,024
0,812 0,299 0,123 0,073 0,046 0,027 0,018 0,019
0,567 0,170 0,065 0,038 0,024 0,014 0,009 0,006
† La valeur affichée est donnée par r* ! ρI , où ρI est tel que Pr{ r # r* | ρI } . 0,975. Table H5b. Taille échantillonnale requise pour que le demi-intervalle d’incertitude r!ρI au seuil α bilatéral s’inscrive dans une distance d de la valeur r obtenue d\r
0,0
0,1
0,2
0,2 0,1 0,05 0,02 0,01
26 101 401 2501 10001
27 102 399 2467 9832
0,2 0,1 0,05 0,02 0,01
68 271 1083 6765 27056
70 272 1074 6662 26581
0,2 0,1 0,05 0,02 0,01
96 384 1537 9604 38415
99 385 1523 9456 37736
97 371 1450 8934 35570
0,2 0,1 0,05 0,02 0,01
165 662 2653 16586 66348
168 663 2628 16327 65169
166 638 2500 15423 61420
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0,95
14 39 128 706 2711
10 25 72 370 1386
7 12 28 119 416
5 7 13 41 126
32 96 330 1876 7269
21 57 180 972 3695
12 25 65 303 1091
8 13 26 98 321
43 134 464 2656 10304
28 78 253 1373 5232
15 33 89 425 1540
9 16 35 136 450
46 131 430 2359 9013
23 53 150 726 2644
14 25 58 230 769
Demi-intervalle à 0,1587 (1!α = 68,26% ou ±1 σ ) 27 99 382 2334 9275
26 93 349 2113 8364
25 82 304 1816 7158
22 70 250 1465 5740
18 55 189 1084 4214
Demi-intervalle à 0,05 (1!α = 90 %) 69 262 1023 6296 25058
66 243 932 5690 22581
60 214 808 4882 19307
52 178 658 3927 15461
42 138 495 2896 11330
Demi-intervalle à 0,025 (1!α = 95%) 92 342 1320 8072 32049
83 301 1143 6923 27398
72 250 931 5566 21935
58 193 698 4102 16070
Demi-intervalle à 0,005 (1!α = 99%) 156 588 2275 13930 55332
141 516 1968 11943 47295
121 427 1601 9598 37857
97 328 1198 7069 27726
71 226 795 4571 17769