Informations

Quand est-il défendable d'utiliser des variables manifestes au lieu de variables latentes dans la recherche psychologique ?

Quand est-il défendable d'utiliser des variables manifestes au lieu de variables latentes dans la recherche psychologique ?

En psychologie, la plupart des concepts, théories, idées, etc. d'intérêt se réfèrent à variables latentes, où une variable latente est une variable qui ne peut pas être observée directement. Au lieu de cela, il faut trouver un variable manifeste, qui peut être observé directement et qui peut être utilisé comme indicateur de la variable latente. À moins qu'il n'y ait un indicateur parfait (ce qui n'est généralement pas le cas), la mesure de la variable latente contient une erreur. Pour estimer l'erreur, des techniques de modélisation de variables latentes telles que CFA ou Item Response Theory (entre autres) ont été développées.

Théorie des variables latentes

Maintenant, il est généralement admis que des variables comme l'âge et le sexe sont manifestes. Mais qu'est-ce qui fait la différence entre une variable latente et une variable manifeste ? Borsboom (2008) explique cette différence. Dans son théorie des variables latentes, la distinction dépend de la certitude avec laquelle une inférence peut être faite à partir des données observées à la variable en question. En ce sens, une variable comme le genre est manifeste, car on peut déduire avec certitude si un sujet est un homme ou une femme à partir de sa réponse à un questionnaire. Notez que cela est possible, même si l'on n'a pas réellement observé le sexe de ce sujet. Le compte rendu de Borsboom de la théorie des variables latentes implique également que le statut d'une variable comme latente ou manifeste peut changer au fil du temps, si par exemple plus d'informations deviennent accessibles. Mais tant qu'une variable s'est avérée manifeste, elle reste latente.

Il me semble donc que pratiquement tous les chercheurs en psychologie devraient utiliser des techniques de modélisation de variables latentes, car la plupart du temps, il n'est pas du tout possible d'inférer quelque chose avec certitude. Or, ce n'est clairement pas le cas. Il existe de nombreux articles publiés qui utilisent des variables manifestes et analysent les relations entre elles sans tenir compte des erreurs de mesure, faisant ainsi implicitement de la variable latente en question une variable manifeste. (Si quelqu'un veut des citations pour cette affirmation, je me ferai un plaisir de les fournir.)

Question : Dans quelles circonstances est-il défendable d'utiliser des variables manifestes au lieu de variables latentes dans la recherche psychologique, même s'il est clair que les variables ne peuvent être mesurées qu'avec erreur ?

Borsboom, D. (2008). Théorie des variables latentes. Mesure : recherche interdisciplinaire et perspective, 6(1-2), 25-53. PDF


Les psychologues expérimentaux semblent assez heureux de travailler avec un seul élément ad hoc échelles d'auto-évaluation, mesures physiologiques, etc. avec très peu d'évaluation psychométrique, donc même avant de parler d'une approche de modélisation à part entière des variables latentes, d'une analyse factorielle confirmatoire, etc., vous voudrez peut-être vous demander pourquoi ils semblent relativement indifférents aux problèmes de mesure en général et pourquoi il y a encore un si grand écart entre la psychologie expérimentale et la psychométrie.

Quelques explications potentielles (certaines d'entre elles ne sont pas très convaincantes justifications pour ne pas faire de modélisation de variables latentes mais expliquer quand même pourquoi les gens se contentent d'utiliser des variables manifestes) :

  • L'expérimentateur peut créer des effets (relativement) forts. Si vous faites une expérience dans laquelle vous essayez de provoquer le dégoût en montrant des images de choses dégoûtantes aux gens et que vos images ne semblent pas produire d'effet mesurable, vous pouvez essayer d'améliorer votre mesure, mais vous pouvez également utiliser des images encore plus dégoûtantes. ou ajoutez quelques essais supplémentaires dans votre expérience. D'autre part, lorsque vous créez un test de personnalité à des fins de recrutement, vous ne pouvez pas simplement souhaiter que les candidats soient plus différents les uns des autres pour vous faciliter la tâche ou vous contenter d'estimer la moyenne de tous les candidats, vous devez vraiment attribuer une note à chaque candidat avec un niveau de précision qui permet de les discriminer.
  • Ils s'appuient sur la nature de la manipulation et ses effets sur la réponse et non principalement sur la corrélation entre différentes échelles pour interpréter leurs résultats.
  • Ils sont souvent intéressés par les différences de groupe. (Les différences interindividuelles éclipsent souvent toute erreur liée aux éléments, alors pourquoi même s'en soucier ? Ajoutez simplement quelques participants !)
  • Ils structurent toujours leurs expériences comme un test d'une hypothèse « nul » (y a-t-il un effet ou non ?)
  • Ils ne sont pas très intéressés par les tailles d'effet en tant que telles, une conséquence du point précédent (s'ils calculent une mesure de taille d'effet, c'est surtout avec un œil pour la puissance statistique).

En bref, si une différence statistiquement significative est considérée comme un résultat intéressant (c'est-à-dire que votre manipulation a eu un effet), vous n'avez pas besoin de vous préoccuper trop de la fiabilité ou de la signification de la réponse.

Fait intéressant, vous semblez aborder la question d'un camp, en supposant que la modélisation des variables latentes est clairement utile et que les gens doivent se défendre activement pour ne pas faire ce qui est évident. Vous pouvez également retourner la question et demander « La modélisation des variables latentes est-elle si utile ? Qu'est-ce que ça nous achète ? Dans le contexte que je viens de souligner, il n'est peut-être pas si facile d'articuler une réponse convaincante.

Et bien sûr, dans la pratique, beaucoup de gens se soucient le moins possible de la méthodologie pour vaquer à leurs occupations, être publiés et faire les choses qu'ils considèrent comme vraiment intéressantes. Par conséquent, de nombreux chercheurs n'entendent pas grand-chose sur la modélisation des variables latentes après avoir terminé leur master et ils ne s'en soucient même pas d'une manière ou d'une autre parce que ce n'est tout simplement pas la façon dont les choses se font dans leurs disciplines.


C'est une question intéressante. Voici un tas de réflexions qui me sont venues à l'esprit pour expliquer pourquoi les chercheurs pourraient se concentrer sur les variables observées.

  • De nombreux chercheurs font état de la fiabilité et des relations observées entre les variables. En adoptant quelques hypothèses, le le lecteur peut estimer ce que les relations latentes serait (voir par exemple la formule de correction de l'atténuation).

  • Certains les chercheurs interprètent leurs tailles d'effet par rapport à d'autres études qui ont rapporté des variables observées. Ainsi, les tailles d'effet ne sont pas interprétées en termes absolus. Dans les domaines où les tailles d'effet sont généralement rapportées à l'aide de variables observées, ce cadre de référence peut être plus logique. Cela dit, cela devient problématique lorsque la fiabilité varie d'une étude à l'autre. Dans ces cas, les corrections méta-analytiques de style Hunter et Schmidt pour le manque de fiabilité conduisent généralement à des résultats plus comparables.

  • La modélisation des variables observées implique moins de choix de modélisation que de modéliser des variables latentes. En particulier, les estimations des relations entre les variables latentes dépendent des hypothèses d'estimation des variables latentes. Si, en tant que lecteur, vous n'êtes pas d'accord avec ces hypothèses, il peut être difficile de retrouver les relations entre les variables observées.

  • La modélisation des variables observées est plus simple que de modéliser des variables latentes. Cela aide à expliquer pourquoi de nombreux chercheurs rapportent des matrices de corrélation et des régressions en psychologie, plutôt que des équivalents de variables latentes. Cependant, les choses peuvent devenir beaucoup plus complexes lorsque vous sortez des contextes SEM normaux multivariés standard : par exemple, incorporation de variables catégorielles, effets modérateurs, variables latentes mal définies, effets non linéaires, variance d'erreur non normale, variance d'erreur corrélée , etc. Il est compréhensible que certains chercheurs en sciences sociales se replient sur le territoire plus familier de la modélisation des variables observées par morceaux. Cependant, bien qu'il s'agisse d'une explication, les chercheurs devraient toujours s'efforcer de modéliser les données de manière plus intégrée et réaliste.

  • Finalement, c'est le chercheur qui décide s'il souhaite tirer des conclusions sur les relations entre les variables observées ou latentes. Alors que certains contextes suggèrent que le chercheur devrait s'intéresser au construit sous-jacent, c'est toujours au chercheur de décider.

  • Les relations entre les variables observées sont parfois principalement intéressantes. Quelques exemples : (a) conditions expérimentales ; (b) lorsque les chercheurs s'intéressent à la prédiction appliquée; (c) lorsque les chercheurs s'intéressent à la variable observée elle-même.

  • Si les chercheurs modélisent les variables latentes semblent être liées au domaine. En particulier, la modélisation des variables latentes semble être particulièrement populaire dans les domaines avec de grands échantillons, des conceptions d'observation, qui utilisent des échelles psychologiques d'auto-évaluation ou à choix multiples. Dans de tels contextes, l'hypothèse selon laquelle les variables observées sont un échantillon aléatoire de variables observées possibles et sont une manifestation d'une variable latente semble souvent plus appropriée. Il est facile d'imaginer les éléments alternatifs qui auraient pu être collectés et comment la fiabilité aurait pu être améliorée si davantage d'éléments avaient été inclus. Il est intéressant de se demander pourquoi c'est le cas et s'il existe des domaines qui bénéficieraient d'une plus grande incorporation de la modélisation des variables latentes.

  • Souvent, la variable latente d'intérêt n'est pas la variable impliquée par l'intercorrélation des variables observées. Par exemple, le facteur latent sous-jacent à un ensemble d'éléments d'extraversion autodéclarés ne sera pas une véritable extraversion. Je peux conceptualiser une véritable extraversion qui pourrait être calculée s'il était possible d'intégrer tout ce que l'on pourrait savoir sur le comportement d'une personne, ses pensées, sa physiologie et ses régularités environnementales. Cependant, le facteur sous-jacent aux intercorrélations des éléments d'auto-évaluation ne serait pas ce facteur. Bien qu'il soit utile d'estimer les relations si une fiabilité parfaite avait été obtenue, cela ne devrait pas nous dispenser d'essayer d'estimer la variable latente réelle d'intérêt.

  • La correction des erreurs de mesure ne doit pas empêcher les chercheurs d'essayer d'augmenter la fiabilité et la validité des mesures. Corriger le manque de fiabilité n'est pas aussi efficace que mesurer de manière fiable en premier lieu.


Mise à l'échelle pour obtenir des écarts pour les comparaisons

La réalisation de variances à l'échelle pour comparer les influences des variables latentes sur les réponses comme les poids de régression standardisés dans l'analyse des régressions est présentée comme un objectif majeur dans la deuxième section de l'article. Pour atteindre cet objectif, nous avons recours à une méthode de base d'analyse factorielle pour estimer la variance expliquée par un facteur. Cette méthode suggère le calcul de la somme de la surcharge factorielle au carré λ′λ. Il peut alternativement être réalisé par la trace de la matrice correspondante :

Bien qu'un paramètre de variance ne soit pas pris en compte, on peut supposer qu'il est égal à un (ϕ = 1) et qu'il est omis pour plus de commodité. Afin d'obtenir une similitude entre la partie droite de cette équation et la partie gauche de l'équation (10) ainsi que l'équation (7), ϕ (= 1) est inséré dans la partie droite de cette équation :

Dans l'étape suivante, la matrice incluse entre parenthèses est transformée en utilisant la deuxième méthode basée sur des critères (équation 15). Le numéro de critère pc est mis à 1 :

Le cadre d'échelle de l'Équation (10) respectivement de l'Équation (7) permet le remplacement des vecteurs entre parenthèses de l'Équation (18) et l'affectation de la constante d'échelle comme numérateur au paramètre de variance :

Puisque le rapport de ϕ et c 2 est un scalaire, il peut être retiré des parenthèses et est remplacé par le paramètre de variance mis à l'échelle ϕ* :

En raison de la définition du numéro de critère pc à 1, la trace doit être 1 pour que

Les contributions de toutes les saturations factorielles sont transférées au paramètre de variance mis à l'échelle. Si cette méthode est appliquée aux variances de deux variables latentes du même modèle, comme par exemple aux variables latentes de l'équation (3), il existe deux variances à l'échelle qui incorporent les contributions de toutes les saturations factorielles sur les variables latentes correspondantes. Il permet de comparer les influences de ces variables latentes sur la réponse.


Quand est-il défendable d'utiliser des variables manifestes au lieu de variables latentes dans la recherche psychologique ? - Psychologie

Neil W. Henry
Université du Commonwealth de Virginie
Richmond VA 23284-2014
Document présenté aux Joint Statistical Meetings 1999, Baltimore MD, 11 août 1999

Note de l'auteur : Dans cette présentation, je me concentre sur la question des traits latents/continuum latent, et sur les premiers travaux sur les modèles de structure latente. Les sections ultérieures du document seront éventuellement élargies pour fournir un examen plus approfondi des travaux depuis 1985.

INTRODUCTION

Pendant la Seconde Guerre mondiale, des équipes multidisciplinaires ont été employées par le ministère de la Guerre pour étudier le personnel militaire. Bon nombre de ces études de psychologie sociale ont été documentées dans les quatre volumes de Le soldat américain (Stouffer, 1949-50). L'un des principaux problèmes auxquels ces chercheurs étaient confrontés était la validité et la fiabilité des instruments d'enquête et de la méthodologie d'analyse des enquêtes, ce qui a conduit à une interaction entre les psychologues, les sociologues et les statisticiens concernés par le concept d'attitude et la logique de construction des échelles d'attitude.

Tome 4 de Le soldat américain, intitulé Mesure et prédiction, paru en 1950 et contenait deux chapitres de Paul F. Lazarsfeld dans lesquels il formulait la théorie et démontrait l'utilisation de modèles de structure latente. Lazarsfeld a plus tard contribué un chapitre sur l'analyse de la structure latente à l'œuvre monumentale Psychologie: Une étude d'une science, publié en 1959, et les développements de vingt ans ont été rassemblés et affinés dans la référence et le manuel de 1968, Analyse de la structure latente.

Au cours des 30 années qui ont suivi, de nombreux statisticiens, psychologues et sociologues ont continué à étudier les modèles contenus sous l'égide de l'analyse de structure latente. Dans cet article, je passerai en revue certaines des contributions majeures afin d'essayer d'évaluer les progrès qui ont été réalisés dans l'utilisation et la compréhension de ces modèles.

Un projet plus ambitieux serait intitulé "Latent Variable Analysis at 100", puisque l'article de Charles Spearman de 1904 dans le Journal américain de psychologie, « « Intelligence générale » objectivement déterminée et mesurée », est généralement considérée comme le point de départ du mouvement de l'analyse factorielle. Quel que soit le nom utilisé pour notre sujet (facteur, variable latente, équations structurelles linéaires, etc.), il y a quelques aspects critiques qui sont partagés par tous les contributeurs à la littérature.

La première est que les choses ne sont pas toujours ce qu'elles semblent être. Les observations que nous enregistrons sont liées, mais ne représentent pas exactement, les phénomènes que nous cherchons à mesurer et par la mesure à comprendre. Le deuxième aspect est que les liens entre ce que Lazarsfeld a appelé les variables latentes et manifestes peuvent être représentés par des modèles mathématiques formels.

A part : Lazarsfeld était bien sûr viennois, ce qui explique probablement son affection pour les mots « latent » et « manifeste ». Son collègue de Columbia, le sociologue Robert K. Merton, a adapté les termes à l'étude des fonctions des normes sociales.

Les variables manifestes, ou variables observables, sont les mesures de base d'une étude empirique. L'hypothèse selon laquelle des variables latentes ou inobservables existent et ont des types spécifiques de relations avec des variables manifestes, permet au chercheur empirique de transcender ses données et de parler en tant que théoricien, pas simplement en tant que statisticien. Gigerenzer, et al (L'empire du hasard : comment les probabilités ont changé la science et la vie de tous les jours", 1989) font remarquer que le concept d'intelligence proposé par Spearman « était une construction statistique définie par la méthode de l'analyse factorielle » (p. 244). L. L. Thurstone a étendu le programme de recherche de Spearman pour inclure la définition et la mesure scientifique d'une variété de capacités mentales (Les vecteurs de l'esprit), et les psychologues sociaux réunis pour étudier les attitudes des soldats de la Seconde Guerre mondiale ont adapté les méthodes à l'étude des attitudes.

Les quatre tomes intitulés Le soldat américain : études en psychologie sociale pendant la Seconde Guerre mondiale, ont été publiés en 1949 et 1950. Les deux chapitres de Lazarsfeld dans le Volume IV, Mesure et prédiction, ont été précédés de huit chapitres par Louis Guttman (sur Guttman Scaling, bien sûr). Ce qui distinguait ce travail des études psychométriques des décennies précédentes, c'est que pour Guttman et Lazarsfeld, les données empiriques, les variables manifestes, étaient des éléments qui consistaient en des réponses catégoriques discrètes aux questions. Lazarsfeld, en fait, s'est concentré pour la plupart sur les items les plus simples, ceux avec seulement deux réponses possibles, Oui/Non ou, de manière générique, plus/moins, positif/négatif.

Le tableau 1 (tableau 2 de Lazarsfeld, 1950b) montre un ensemble de données typique pour une analyse de structure latente. Quatre items dichotomiques fournissent une répartition empirique de 1000 répondants-soldats en 16 catégories. Les réponses ont été codées de telle sorte que + indique un sentiment positif à l'égard de l'armée, - un sentiment négatif.

TABLEAU 1
Données manifestes de quatre éléments sur l'attitude envers l'armée

En général, comment pensez-vous que l'armée est dirigée ? Pensez-vous que lorsque vous serez démobilisé, vous [avoir] une attitude favorable envers l'armée ? En général, avez-vous le sentiment d'avoir obtenu un accord de l'armée ? Pensez-vous que l'armée fait de son mieux pour veiller au bien-être des hommes enrôlés ? Compter
+ + + + 75
+ + + - 69
+ + - + 55
+ - + + 42
- + + + 3
+ + - - 96
+ - + - 60
+ - - + 45
- + + - 16
- + - + 8
- - + + 10
+ - - - 199
- + - - 52
- - + - 25
- - - + 16
- - - - 229

Une simple analyse descriptive de ces données montre que les réponses négatives sont plus nombreuses sauf sur l'item 1 et qu'il existe une association positive entre chaque couple d'items. Un soldat qui répond positivement à un élément est plus susceptible de répondre positivement à un deuxième élément. L'analyse de Lazarsfeld est basée sur l'hypothèse que chaque soldat peut être considéré comme appartenant à l'une des deux classes latentes. La probabilité de réponse positive à un item est différente dans un groupe que dans l'autre. Plus important encore, il est prêt à supposer que pour un répondant individuel, les réponses aux items sont statistiquement indépendantes. C'est l'essence d'un modèle de classe latente.

D'un point de vue interprétatif, notez les implications. Les items semblent corrélés car la population est hétérogène. Si une seule « classe » avait été interrogée, aucune corrélation ne serait observée. Lazarsfeld a inventé le terme « indépendance locale » pour décrire cette condition.

Dans les deux chapitres de Mesure et prédiction Lazarsfeld a montré comment certains modèles de structure latente pouvaient être définis, puis a montré comment les paramètres de ces modèles pouvaient être estimés à partir des données manifestes. La structure latente de cet exemple est résumée dans le tableau 2 (tableau 6 de Lazarsfeld, 1950b).

TABLEAU 2
Structure latente calculée pour l'attitude envers l'armée

Fréquences de classe latente Objet 1
Probabilité +
Article 2
Probabilité +
Article 3
Probabilité +
Article 4
Probabilité +
424.3 .9240 .6276 .5704 .5125
575.7 .4324 .1871 .1008 .0635

Les résultats nous disent que la population se répartit à peu près 40%/60% entre ceux qui sont généralement favorables à l'armée et ceux qui sont généralement négatifs. Presque tout le monde (92%) qui appartient à la première classe répondra positivement à la question "En général, comment pensez-vous que l'armée est gérée" tandis que presque tout le monde (94%) dans la dernière classe répondra négativement au quatrième élément, " veiller au bien-être des hommes enrôlés. » Il est possible de calculer pour chacun des 16 modèles de réponse manifeste du tableau 1 la probabilité que cette réponse provienne d'un répondant de classe 1. Cette "probabilité postérieure" peut alors être utilisée comme échelle numérique, une manière d'ordonner les 16 modèles de réponse, et finalement comme une caractéristique du répondant lui-même dans les analyses ultérieures.

Bien entendu, cette interprétation des chiffres du tableau 2 est fondée sur l'hypothèse que le modèle mathématique décrit avec précision le comportement des soldats répondant aux questions sur leurs sentiments.

CLASSES LATENTES OU TRAITS LATENTS ?

J'ai déjà noté que l'utilisation de variables manifestes discrètes (catégorielles) distinguait l'analyse de structure latente (et l'échelle de Guttman) de l'analyse factorielle. Une question connexe concerne la nature de la structure latente, la nature de la variable latente (ou des variables). L'intelligence, pour Charles Spearman, était un phénomène numérique continu, de même que presque tous les concepts définis psychométriquement associés à la modélisation de l'analyse factorielle. L'objectif des chercheurs sur les attitudes dans les années 1940 était de mesurer les attitudes et, dans la plupart des cas, les attitudes étaient conceptualisées comme des variables numériques. Les recherches qualifiées d'« analyse d'échelle » prenaient généralement cette prémisse pour acquise, comme les travaux de Louis Guttman et Clyde Coombs (Une théorie des données, 1964) dans les années 1950 le démontre.

L'exemple ci-dessus prend une position différente, en postulant l'existence d'un nombre relativement faible de sous-populations homogènes ou de classes latentes. Un individu est caractérisé par son appartenance à une classe et par les probabilités de réponse associées à cette appartenance. Supposons que nous supposions que le modèle est réellement stochastique au niveau de l'individu, que les réponses de l'individu sont déclenchées par l'équivalent d'une série de lancers de quelques pièces pondérées. Bien que chaque modèle de réponse ait une probabilité d'avoir été généré par un membre de la classe latente 1, et que ces nombres puissent être utilisés pour ordonner (ou mettre à l'échelle) les modèles de réponse, ces probabilités ne sont pas des propriétés intrinsèques de l'individu. Ce sont simplement des expressions de l'incertitude que ressent le chercheur quant à l'affectation appropriée d'un répondant à la classe latente.

Le terme « trait latent » a longtemps été utilisé pour les modèles de structure latente avec des variables latentes continues. Deux des livres les plus récents sur la structure latente utilisent les termes « classe » et « trait » dans leurs titres (Heinen, 1996 Langeheine et Rost, 1988). Les arguments pour savoir si un concept particulier est discret ou continu, et s'il est même possible de répondre empiriquement à une telle question, font partie de l'histoire de cinquante ans de l'analyse de la structure latente.

Heinen et Jan DeLeeuw dans l'introduction de son éditeur, soulignent l'origine des deux modèles pour expliquer pourquoi ils sont considérés comme des traditions différentes dans la modélisation des données catégorielles. "L'analyse de classe latente a été développée principalement dans les sciences sociales et politiques, alors que les modèles de traits latents ont un fond psychométrique clair." (Heinen, 1996, ix) Curieusement, ils n'ont pas perçu comment le développement des deux modèles s'est produit simultanément dans le travail de Lazarsfeld dans les années 40, 50 et 60.

Les sociologues américains ont été fascinés dès le début par l'idée de classe sociale. La question de savoir si le statut social est permis par l'appartenance à une classe de personnes ou doit être conceptualisé comme une variable continue a été vivement, chaleureusement et froidement débattue tout au long de ce siècle. L'analyse de classe latente de Lazarsfeld a été reprise par les partisans de la classe comme une méthode qui permettrait l'évaluation scientifique de l'appartenance d'une personne à une classe. Il est toutefois important de se rappeler que l'environnement de recherche par sondage du milieu du siècle était plus psychologique que sociologique.

La première explication publiée de l'analyse de la structure latente est "Le fondement logique et mathématique de l'analyse des structures latentes", chapitre 10 de Mesure et prédiction. Dans ce chapitre, le modèle qui est d'abord discuté est un modèle de trait latent. Le premier tableau du chapitre explique ce que Lazarsfeld a appelé un trace, une fonction qui indique comment la probabilité de réponse à un élément change à mesure que l'« ethnocentrisme » des soldats américains varie le long d'un continuum. Ce n'est que plus tard qu'il évoque le cas particulier où la distribution latente « est supposée être concentrée en un point différent du continuum ». (p. 376) L'existence d'un continuum est considérée comme allant de soi, ici et ailleurs tout au long de ces deux chapitres, ce qui, je crois, a causé beaucoup de confusion dans les années suivantes. À l'époque, cependant, cela rendait le sujet plus compréhensible et acceptable pour les psychologues sociaux qui étaient le principal public de ces études de recherche, les héritiers sinon en fait les étudiants de Thurstone et Spearman.

La position ambivalente de Lazarsfeld entre les disciplines de la sociologie et de la psychologie est illustrée par sa prochaine publication majeure. Il s'agit d'un chapitre de l'ensemble en plusieurs volumes parrainé par l'American Psychological Association, Psychologie: Une étude d'une science (Koch, 1959). Une fois de plus, l'approche de la structure latente de l'analyse des données manifestes dichotomiques est expliquée en termes de fonctions de trace et d'un continuum latent (possiblement multidimensionnel !). Quand vient le temps d'expliquer de quelle indépendance locale il s'agit, il se rabat cependant sur un exemple de trois classes latentes. Il est, après tout, plus facile de démontrer comment un mélange de 2x2 tables de fréquences, chacune satisfaisant la propriété d'indépendance statistique, s'additionnent pour former une table dans laquelle il y a une association, que de démontrer l'analogue pour les variables continues X et Y.

Les tracés linéaires, et plus généralement polynomiaux, ont la propriété gênante de dépasser éventuellement 1,0 et/ou de tomber en dessous de zéro. Bien avant 1959, d'autres, occupés à modéliser des phénomènes discrets, avaient choisi de contourner ce problème en choisissant une forme fonctionnelle contrainte de se situer entre zéro et 1. D. J. Finney avait utilisé une ogive normale (fonction de distribution cumulative) dans son analyse probit modèle pour la réponse d'un animal aux doses d'un poison, comme l'avaient fait Fred Lord et Ledyard Tucker dans leur élaboration de modèles pour les tests d'aptitude. Des modèles logit, dans lesquels le log des probabilités d'une réponse au lieu de la probabilité de la réponse avait une relation linéaire avec le continuum latent, avaient également été développés.

Lazarsfeld a choisi de décrire les modèles de lignes de trace polynomiales en raison de leur lien avec le modèle de classe latente. Deux points déterminent une ligne. Si une trace est un polynôme de degré m, alors m+1 points nous diront quel est le polynôme. Un modèle à deux classes, a-t-il prouvé, était indiscernable d'un modèle de trace linéaire, un modèle à trois classes était indiscernable d'un modèle de trace quadratique, et ainsi de suite, tant que les seules données disponibles sont les réponses des éléments manifestes. Il pourrait présenter une analyse de classe latente en utilisant des mots qui avaient du sens pour un public de psychologues « facteur » en traduisant les paramètres de classe en terminologie de trait, en « localisant » les classes à des points discrets le long du « continuum latent »

L'ÈRE DU STATISTICIEN MATHÉMATIQUE

Les statistiques mathématiques (comme la recherche sur les attitudes) ne sont devenues une discipline distincte aux États-Unis qu'après la Seconde Guerre mondiale. Il est instructif que dans les chapitres de 1950 et 1959, l'idée d'évaluer l'ajustement d'un modèle aux données manifestes est presque invisible. ("Le professeur Frederick Mosteller a suggéré que la qualité de l'ajustement pourrait être testée en utilisant le chi carré avec 2 m de degrés de liberté réduits par le nombre de paramètres", Lazarsfeld 1950b: p.429). Ce qu'on appelle maintenant l'estimation des paramètres a été formulé comme un problème de décomposition d'une distribution manifeste en ses composants homogènes. Le fait qu'avec des données réelles ce programme ne puisse jamais être exactement réalisé n'a pas été ignoré, mais n'a pas été traité systématiquement. Des concepts familiers (pour les statisticiens) comme les erreurs standard, l'estimation sans biais et le maximum de vraisemblance n'apparaissent pas dans les travaux de 1950.

Certaines de ces questions étaient traitées dans des articles de revues par des statisticiens, notamment par T.W. Anderson (1954, 1959). Quand le manuel Analyse de la structure latente a été publié en 1968, il utilisait ce qui était alors la terminologie statistique standard pour la formulation, l'estimation et le test des modèles stochastiques. Il a toutefois conservé le souci de Lazarsfeld d'identifier les paramètres du modèle (identifiabilité) et la primauté de la méthode des moments comme outil pour dériver les estimations des paramètres.

Modélisation log-linéaire et analyse de structure latente

Lazarsfeld considérait que l'analyse statistique de données catégoriques discrètes avait été ignorée par les statisticiens de sa génération et, dans une série d'articles historiques, il évalua les travaux du statisticien du XIXe siècle August Quetelet et du statisticien britannique G. U. Yule. En 1975, cependant, une nouvelle approche était devenue courante. Leo Goodman, dans une série d'articles qui ont été réimprimés en 1978, avait fait connaître les termes « modèle log-linéaire » parmi les sociologues ainsi que parmi les statisticiens mathématiques. Dans un long article de 1974, il montrait comment le modèle de classe latente pouvait être interprété comme un modèle log-linéaire. Cet article et la publication en 1975 de Analyse multivariée discrète par Bishop, Fienberg et Holland, a attiré l'attention des statisticiens traditionnels sur le modèle LSA.

En considérant la variable de classe latente comme une « donnée manquante » dans une classification croisée, un plus large éventail d'interprétations et d'applications est devenu disponible. Les algorithmes d'estimation des paramètres dans les modèles log-linéaires pourraient être adaptés pour traiter de nombreux modèles classiques de structure latente. Les livres de Shelby Haberman (Analyse de données qualitatives, 2 volumes, 1978-79) et programme LAT pour l'estimation des paramètres de classe latente sont également importants, bien que peut-être moins influents.

Une question importante dans la littérature a été la manière dont les cas particuliers de modèles généraux de structure latente sont spécifiés. De "nouveaux" modèles ont été proposés de temps à autre qui s'avèrent être des "anciens" modèles dans lesquels certaines contraintes ont été imposées sur les paramètres. Lazarsfeld modèle de distance latente, par exemple, est équivalent à un modèle de classe latente dans lequel certaines des probabilités de classe latente sont forcées d'être égales. Rolf Langeheine a fourni une très belle revue des différentes approches des paramètres contraignants dans son chapitre "New Developments in Latent Class Theory" dans Langeheine et Rost (1988).

Revisiter la controverse trait/classe

Lazarsfeld avait une grande affection pour le modèle de distance latente, qui combinait explicitement les caractéristiques des approches trait et classe des variables latentes. Dans ces modèles, le continuum latent est supposé exister, mais il a une relation discontinue de fonction échelonnée avec la probabilité de réponse à un élément particulier. Dans les écrits de Lazarsfeld, le modèle est décrit comme une généralisation de la célèbre échelle de Guttman, avec des hypothèses moins restrictives mais intuitivement attrayantes sur les éléments. Les variations les plus intéressantes sur ce thème se trouvent dans les articles de Cliff Clogg et de ses étudiants et collègues (par exemple Clogg, 1988).

Comme je l'ai déjà noté, la collection de 1988 de Langeheine et Rost s'est concentrée sur ce même sujet. En plus des chapitres déjà mentionnés, ceux de John Bergan ("Latent Variable Techniques for Measuring Development") et Erling Andersen ("Comparison of Latent Structure Models") montrent comment les modèles de classes et de traits peuvent être utilisés et interprétés. Alors que la plupart des modèles de traits latents ("Rasch") supposent une variable latente unidimensionnelle, une approche de classe latente invite à une interprétation multidimensionnelle.

Michael Sobel a critiqué l'interprétation traditionnelle de la variable latente comme la véritable cause des réponses manifestes (Sobel, 1997), basée sur l'hypothèse d'indépendance locale. Cette critique s'applique bien sûr aux modèles de classe et de trait.

O SONT LES APPLICATIONS ?

J'avais eu l'impression que l'analyse de la structure latente survivait principalement dans les écrits des statisticiens et des méthodologistes qui avaient pu trouver des modèles et des théorèmes spéciaux intéressants à dériver. Cependant, un nombre étonnamment élevé d'applications de l'analyse de classe latente sont apparus depuis 1990. La diversité des sources est remarquable, mais compréhensible, étant donné la variété des disciplines que Lazarsfeld lui-même a directement influencées : psychiatrie, médecine, marketing, opinion publique sont toutes représentées dans des titres trouvés par une recherche dans la base de données Social Science Citation Index. La suite de cet article commentera certaines de ces applications.

Anderson, T. W. (1954) "Sur l'estimation des paramètres dans l'analyse de la structure latente", Psychométrie, 19: 1-10.

Anderson, T. W. (1959) "Some Scaling Methods and Estimation Procedures in the Latent Class Model", dans Probabilités et statistiques, U. Grenander (éd.). New York : John Wiley & Sons.

Bishop, Y.M.M., S.E. Fienberg et P.W. Hollande (1975) Analyse multivariée discrète. Cambridge MA : MIT Press.

Clogg, Clifford C. (1988) « Modèles de classe latente pour la mesure », dans Langeheine et Rost, 1988.

Gigerenzer, Gerd et Al. (1989) L'empire du hasard, Cambridge : Cambridge University Press

Goodman, Léo A. Analyse de données qualitatives/catégorielles : modèles log-linéaires et analyse de structure latente. Cambridge, MA : Abt Books.

Heinen, Tod (1996) Modèles de classe latente et de traits latents discrets. Thousand Oaks, Californie : SAGE.

Langeheine, Rolf et Jurgen Rost (1988) Modèles de traits latents et de classes latentes. New York : Plenum Press.

Lazarsfeld, Paul F. (1950a) "Les fondements logiques et mathématiques de l'analyse de structure latente", chapitre 10 dans Stouffer (1950).

Lazarsfeld, Paul F. (1950b) "Some Latent Structures", chapitre 11 dans Stouffer (1950).

Lazarsfeld, Paul F. (1959) "Analyse de la structure latente", dans Psychologie : Une étude d'une science, Vol. 3, S. Koch (éd.). New York : McGraw-Hill.

Lazarsfeld, Paul F. et Neil W. Henry (1968) Analyse de la structure latente. Boston : Houghton Mifflin.

Sobel, Michael E. (1997) "Mesure, causalité et indépendance locale", dans Modélisation des variables latentes et applications à la causalité, M. Berkane (éd.). New York : Springer-Verlag.

Spearman, Charles (1904) "'Intelligence générale', objectivement déterminée et mesurée", Journal américain de psychologie, 15: 201-293.

Stouffer, Samuel A., et al. (1950) Mesure et prédiction, Tome IV de Le soldat américain : études en psychologie sociale pendant la Seconde Guerre mondiale. Presse de l'Université de Princeton. Réimprimé en 1973 par Peter Smith, Gloucester MA.

CONTRIBUTEURS CLÉS À
ANALYSE DE LA STRUCTURE LATENTE

1950 Paul F. Lazarsfeld, deux chapitres de Mesure et prédiction, vol. IV du Soldat américain

1959 Lazarsfeld, chapitre de La psychologie : une étude d'une science

1959 T.W. Anderson Jr., chapitre dans Probabilités et statistiques

1968 Lazarsfeld et Henri, Analyse de la structure latente

1978 Leo A. Goodman, articles publiés entre 1973 et 1975, dans Analyse des données qualitatives/catégorielles. Dernier article, 1996, Un m. J. Sociol.

1981-1988 Clifford C. Clogg, articles et chapitres non rassemblés au même endroit

1988 Rolf Langeheine et Jurgen Rost, éd. Modèles de traits latents et de classes latentes

1996 Tod Heinen, Modèles de classe latente et de traits latents discrets


Psychométrie de réseau généralisée : combinaison de modèles de réseau et de variables latentes

Nous introduisons le modèle de réseau en tant que modèle psychométrique formel, conceptualisant la covariance entre les indicateurs psychométriques comme résultant des interactions par paires entre les variables observables dans une structure de réseau. Cela contraste avec les modèles psychométriques standard, dans lesquels la covariance entre les éléments de test résulte de l'influence d'une ou plusieurs variables latentes communes. Ici, nous présentons deux généralisations du modèle de réseau qui englobent les structures de variables latentes, établissant la modélisation de réseau comme faisant partie du cadre plus général de la modélisation par équation structurelle (SEM). Dans la première généralisation, nous modélisons la structure de covariance des variables latentes comme un réseau. Nous appelons ce cadre la modélisation de réseau latent (LNM) et montrons qu'avec le LNM, une structure unique de relations d'indépendance conditionnelle entre variables latentes peut être obtenue de manière exploratoire. Dans la deuxième généralisation, la structure de variance–covariance résiduelle des indicateurs est modélisée sous forme de réseau. Nous appelons cette généralisation modélisation de réseau résiduel (RNM) et montrons que, dans ce cadre, des modèles identifiables peuvent être obtenus dans lesquels l'indépendance locale est structurellement violée. Ces généralisations permettent un cadre de modélisation général qui peut être utilisé pour ajuster et comparer les modèles SEM, les modèles de réseau et les généralisations RNM et LNM. Cette méthodologie a été implémentée dans le progiciel gratuit lvnet, qui contient des tests de modèle de confirmation ainsi que deux algorithmes de recherche exploratoire : des algorithmes de recherche pas à pas pour les ensembles de données de faible dimension et une estimation du maximum de vraisemblance pénalisée pour les ensembles de données plus volumineux. Nous montrons dans des études de simulation que ces algorithmes de recherche fonctionnent de manière adéquate pour identifier la structure des réseaux résiduels ou latents pertinents. Nous démontrons en outre l'utilité de ces généralisations dans un exemple empirique sur un ensemble de données d'inventaire de personnalité.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Avancées dans la modélisation de la mesure des variables latentes

Carina Coulacoglou , Donald H. Saklofske , dans Psychométrie et évaluation psychologique , 2017

Évaluation de l'invariance de mesure des échelles

L'invariance de mesure a un rôle crucial dans le contexte de la construction et de la validation d'échelle, et pour répondre à certaines des décisions clés et des défis auxquels les chercheurs sont confrontés dans l'application de ces techniques. Bien que le développement conceptuel de l'analyse de l'EM porte sur des applications à plusieurs groupes telles qu'elles sont abordées dans un cadre SEM, les concepts et les méthodes présentés ici sont facilement étendus à plusieurs autres contextes.Premièrement, d'une manière analogue à celle utilisée pour évaluer l'IM entre les groupes, l'IM peut également être examiné entre des occasions de mesure répétées dans des contextes longitudinaux, abordant ainsi la stabilité d'un modèle LV au fil du temps ( Little, 2013 Widaman, Ferrer, & Conger, 2010 ). Deuxièmement, les questions de MI, notamment pour les tests, peuvent également être abordées dans le cadre de l'IRT. Dans le cadre de l'IRT, le biais est généralement défini et examiné en identifiant le fonctionnement différentiel des éléments (DIF) entre les groupes. Pour les modèles de mesure impliquant des mesures dichotomiques, les modèles IRT peuvent être paramétrés de telle sorte qu'ils produisent des résultats équivalents aux spécifications basées sur CFA ( Kamata & Bauer, 2008 ), et des procédures comparables pour évaluer MI ont été décrites dans ces cadres (par exemple, Meade & Lautenschlager, 2004 Stark, Chernyshenko, & Drasgow, 2006).


4. Conclusion

Les règles de la méthodologie des pêcheurs en psychologie, tandis que la patrie de la psychométrie est la méthodologie corrélationnelle. Le document de discussion opportun de Borsboom nous oblige à réfléchir sérieusement aux stratégies qui pourraient nous sauver de l'isolement et de l'inutilité. Certaines des suggestions de Borsboom&# x02019 (écrire des manuels, publier largement) sont bonnes. Mais d'après mon analyse, il devrait être clair que sa suggestion de devenir un chercheur en psychologie actif sous-estime ce qu'il faut pour faire partie de la communauté de la recherche en psychologie. Pour la quasi-totalité d'entre nous, il faudrait un changement de carrière irréversible. Lorsque la psychologie corrélationnelle était encore forte, on pouvait imaginer que les psychométriciens étaient un type particulier de psychologue, car après tout, la théorie des tests était son infrastructure. Mais ce n'est plus le cas.

Il y a des signes que les psychologues cognitifs font enfin face aux différences individuelles comme un facteur sérieux et commencent à les modéliser. Nous devons bien sûr soutenir ce développement chaque fois que nous le pouvons. Il semble également que la communauté de la psychologie mathématique se trouve dans les mêmes dangers que nous. Je serais fortement en faveur d'une tentative de rapprochement. Cela ajouterait de la masse et de la concentration si nous avions une plate-forme unie pour l'ensemble de la psychologie quantitative, suivant la devise sur la couverture de ce journal. Dans un passé récent, certains de nos collègues ont fait un changement de carrière dans les statistiques, mais un tel changement n'a que rarement augmenté leur impact. La psychométrie est une discipline à part entière, avec un corpus de résultats qui a résisté à l'épreuve du temps, mais elle doit maintenant trouver un nouvel équilibre entre la psychologie et les statistiques.

Les variables latentes sont importantes, mais il ne faut pas essayer de les pousser à tout prix, et elles ne peuvent plus être l'instrument dominant de notre répertoire. La psychologie a besoin d'une nouvelle génération de techniques statistiques adaptées à ses défis actuels. Les mesures des résultats physiologiques sont chaudes, il est donc nécessaire d'analyser les données fonctionnelles. Plus de données hiérarchiques sont collectées, il est donc nécessaire d'effectuer une analyse à plusieurs niveaux. Il y a un intérêt accru pour les variables modératrices, nous devrions donc travailler sur des arbres de régression dans des configurations (quasi-) expérimentales. Ce ne sont là que quelques exemples pour élargir le champ de la psychométrie.

Enfin, la psychométrie devrait se soucier davantage de son image dans le monde extérieur. Ce que nous ne faisons pas assez et je m'en veux aussi, c'est de propager et de défendre notre patrimoine dans la communauté scientifique et publique au sens large. Nous devrions suivre l'exemple de personnes comme John Carroll, qui a pris une position courageuse contre les opinions biaisées de Stephen Jay Gould sur les tests mentaux et l'analyse factorielle (Carroll, 1995). Joignez-vous à vos amis et attaquez cet ennemi !


Avancées dans la modélisation de la mesure des variables latentes

Carina Coulacoglou , Donald H. Saklofske , dans Psychométrie et évaluation psychologique , 2017

Évaluation de l'invariance de mesure des échelles

L'invariance de mesure a un rôle crucial dans le contexte de la construction et de la validation d'échelle, et pour répondre à certaines des décisions clés et des défis auxquels les chercheurs sont confrontés dans l'application de ces techniques. Bien que le développement conceptuel de l'analyse de l'EM porte sur des applications à plusieurs groupes telles qu'elles sont abordées dans un cadre SEM, les concepts et les méthodes présentés ici sont facilement étendus à plusieurs autres contextes. Premièrement, d'une manière analogue à celle utilisée pour évaluer l'IM entre les groupes, l'IM peut également être examiné entre des occasions de mesure répétées dans des contextes longitudinaux, abordant ainsi la stabilité d'un modèle LV au fil du temps ( Little, 2013 Widaman, Ferrer, & Conger, 2010 ). Deuxièmement, les questions de MI, notamment pour les tests, peuvent également être abordées dans le cadre de l'IRT. Dans le cadre de l'IRT, le biais est généralement défini et examiné en identifiant le fonctionnement différentiel des éléments (DIF) entre les groupes. Pour les modèles de mesure impliquant des mesures dichotomiques, les modèles IRT peuvent être paramétrés de telle sorte qu'ils produisent des résultats équivalents aux spécifications basées sur CFA ( Kamata & Bauer, 2008 ), et des procédures comparables pour évaluer MI ont été décrites dans ces cadres (par exemple, Meade & Lautenschlager, 2004 Stark, Chernyshenko, & Drasgow, 2006).


4. Conclusion

Les règles de la méthodologie des pêcheurs en psychologie, tandis que la patrie de la psychométrie est la méthodologie corrélationnelle. Le document de discussion opportun de Borsboom nous oblige à réfléchir sérieusement aux stratégies qui pourraient nous sauver de l'isolement et de l'inutilité. Certaines des suggestions de Borsboom&# x02019s (écrire des manuels, publier largement) sont bonnes. Mais d'après mon analyse, il devrait être clair que sa suggestion de devenir un chercheur en psychologie actif sous-estime ce qu'il faut pour faire partie de la communauté de la recherche en psychologie. Pour la quasi-totalité d'entre nous, il faudrait un changement de carrière irréversible. Lorsque la psychologie corrélationnelle était encore forte, on pouvait imaginer que les psychométriciens étaient un type particulier de psychologue, car après tout, la théorie des tests était son infrastructure. Mais ce n'est plus le cas.

Il y a des signes que les psychologues cognitifs font enfin face aux différences individuelles comme un facteur sérieux et commencent à les modéliser. Nous devons bien sûr soutenir ce développement chaque fois que nous le pouvons. Il semble également que la communauté de la psychologie mathématique se trouve dans les mêmes dangers que nous. Je serais fortement en faveur d'une tentative de rapprochement. Cela ajouterait de la masse et de la concentration si nous avions une plate-forme unie pour l'ensemble de la psychologie quantitative, suivant la devise sur la couverture de ce journal. Dans un passé récent, certains de nos collègues ont fait un changement de carrière dans les statistiques, mais un tel changement n'a que rarement augmenté leur impact. La psychométrie est une discipline à part entière, avec un corpus de résultats qui a résisté à l'épreuve du temps, mais elle doit maintenant trouver un nouvel équilibre entre la psychologie et les statistiques.

Les variables latentes sont importantes, mais il ne faut pas essayer de les pousser à tout prix, et elles ne peuvent plus être l'instrument dominant de notre répertoire. La psychologie a besoin d'une nouvelle génération de techniques statistiques adaptées à ses défis actuels. Les mesures des résultats physiologiques sont chaudes, il est donc nécessaire d'analyser les données fonctionnelles. Plus de données hiérarchiques sont collectées, il est donc nécessaire d'effectuer une analyse à plusieurs niveaux. Il y a un intérêt accru pour les variables modératrices, nous devrions donc travailler sur des arbres de régression dans des configurations (quasi-) expérimentales. Ce ne sont là que quelques exemples pour élargir le champ de la psychométrie.

Enfin, la psychométrie devrait se soucier davantage de son image dans le monde extérieur. Ce que nous ne faisons pas assez et je m'en veux aussi, c'est de propager et de défendre notre patrimoine dans la communauté scientifique et publique au sens large. Nous devrions suivre l'exemple de personnes comme John Carroll, qui a pris une position courageuse contre les opinions biaisées de Stephen Jay Gould sur les tests mentaux et l'analyse factorielle (Carroll, 1995). Joignez-vous à vos amis et attaquez cet ennemi !


Quand est-il défendable d'utiliser des variables manifestes au lieu de variables latentes dans la recherche psychologique ? - Psychologie

Neil W. Henry
Université du Commonwealth de Virginie
Richmond VA 23284-2014
Document présenté aux Joint Statistical Meetings 1999, Baltimore MD, 11 août 1999

Note de l'auteur : Dans cette présentation, je me concentre sur la question des traits latents/continuum latent, et sur les premiers travaux sur les modèles de structure latente. Les sections ultérieures du document seront éventuellement élargies pour fournir un examen plus approfondi des travaux depuis 1985.

INTRODUCTION

Pendant la Seconde Guerre mondiale, des équipes multidisciplinaires ont été employées par le ministère de la Guerre pour étudier le personnel militaire. Bon nombre de ces études de psychologie sociale ont été documentées dans les quatre volumes de Le soldat américain (Stouffer, 1949-50). L'un des principaux problèmes auxquels ces chercheurs étaient confrontés était la validité et la fiabilité des instruments d'enquête et de la méthodologie d'analyse des enquêtes, ce qui a conduit à une interaction entre les psychologues, les sociologues et les statisticiens concernés par le concept d'attitude et la logique de construction des échelles d'attitude.

Tome 4 de Le soldat américain, intitulé Mesure et prédiction, paru en 1950 et contenait deux chapitres de Paul F. Lazarsfeld dans lesquels il formulait la théorie et démontrait l'utilisation de modèles de structure latente. Lazarsfeld a plus tard contribué un chapitre sur l'analyse de la structure latente à l'œuvre monumentale Psychologie: Une étude d'une science, publié en 1959, et les développements de vingt ans ont été rassemblés et affinés dans la référence et le manuel de 1968, Analyse de la structure latente.

Au cours des 30 années qui ont suivi, de nombreux statisticiens, psychologues et sociologues ont continué à étudier les modèles contenus sous l'égide de l'analyse de structure latente. Dans cet article, je passerai en revue certaines des contributions majeures afin d'essayer d'évaluer les progrès qui ont été réalisés dans l'utilisation et la compréhension de ces modèles.

Un projet plus ambitieux serait intitulé "Latent Variable Analysis at 100", puisque l'article de Charles Spearman de 1904 dans le Journal américain de psychologie, « « Intelligence générale » objectivement déterminée et mesurée », est généralement considérée comme le point de départ du mouvement de l'analyse factorielle. Quel que soit le nom utilisé pour notre sujet (facteur, variable latente, équations structurelles linéaires, etc.), il y a quelques aspects critiques qui sont partagés par tous les contributeurs à la littérature.

La première est que les choses ne sont pas toujours ce qu'elles semblent être. Les observations que nous enregistrons sont liées, mais ne représentent pas exactement, les phénomènes que nous cherchons à mesurer et par la mesure à comprendre. Le deuxième aspect est que les liens entre ce que Lazarsfeld a appelé les variables latentes et manifestes peuvent être représentés par des modèles mathématiques formels.

A part : Lazarsfeld était bien sûr viennois, ce qui explique probablement son affection pour les mots « latent » et « manifeste ». Son collègue de Columbia, le sociologue Robert K. Merton, a adapté les termes à l'étude des fonctions des normes sociales.

Les variables manifestes, ou variables observables, sont les mesures de base d'une étude empirique. L'hypothèse selon laquelle des variables latentes ou inobservables existent et ont des types spécifiques de relations avec des variables manifestes, permet au chercheur empirique de transcender ses données et de parler en tant que théoricien, pas simplement en tant que statisticien. Gigerenzer, et al (L'empire du hasard : comment les probabilités ont changé la science et la vie de tous les jours", 1989) font remarquer que le concept d'intelligence proposé par Spearman « était une construction statistique définie par la méthode de l'analyse factorielle » (p. 244). L. L. Thurstone a étendu le programme de recherche de Spearman pour inclure la définition et la mesure scientifique d'une variété de capacités mentales (Les vecteurs de l'esprit), et les psychologues sociaux réunis pour étudier les attitudes des soldats de la Seconde Guerre mondiale ont adapté les méthodes à l'étude des attitudes.

Les quatre tomes intitulés Le soldat américain : études en psychologie sociale pendant la Seconde Guerre mondiale, ont été publiés en 1949 et 1950. Les deux chapitres de Lazarsfeld dans le Volume IV, Mesure et prédiction, ont été précédés de huit chapitres par Louis Guttman (sur Guttman Scaling, bien sûr). Ce qui distinguait ce travail des études psychométriques des décennies précédentes, c'est que pour Guttman et Lazarsfeld, les données empiriques, les variables manifestes, étaient des éléments qui consistaient en des réponses catégoriques discrètes aux questions. Lazarsfeld, en fait, s'est concentré pour la plupart sur les items les plus simples, ceux avec seulement deux réponses possibles, Oui/Non ou, de manière générique, plus/moins, positif/négatif.

Le tableau 1 (tableau 2 de Lazarsfeld, 1950b) montre un ensemble de données typique pour une analyse de structure latente. Quatre items dichotomiques fournissent une répartition empirique de 1000 répondants-soldats en 16 catégories. Les réponses ont été codées de telle sorte que + indique un sentiment positif à l'égard de l'armée, - un sentiment négatif.

TABLEAU 1
Données manifestes de quatre éléments sur l'attitude envers l'armée

En général, comment pensez-vous que l'armée est dirigée ? Pensez-vous que lorsque vous serez démobilisé, vous [avoir] une attitude favorable envers l'armée ? En général, avez-vous le sentiment d'avoir obtenu un accord de l'armée ? Pensez-vous que l'armée fait de son mieux pour veiller au bien-être des hommes enrôlés ? Compter
+ + + + 75
+ + + - 69
+ + - + 55
+ - + + 42
- + + + 3
+ + - - 96
+ - + - 60
+ - - + 45
- + + - 16
- + - + 8
- - + + 10
+ - - - 199
- + - - 52
- - + - 25
- - - + 16
- - - - 229

Une simple analyse descriptive de ces données montre que les réponses négatives sont plus nombreuses sauf sur l'item 1 et qu'il existe une association positive entre chaque couple d'items. Un soldat qui répond positivement à un élément est plus susceptible de répondre positivement à un deuxième élément. L'analyse de Lazarsfeld est basée sur l'hypothèse que chaque soldat peut être considéré comme appartenant à l'une des deux classes latentes. La probabilité de réponse positive à un item est différente dans un groupe que dans l'autre. Plus important encore, il est prêt à supposer que pour un répondant individuel, les réponses aux items sont statistiquement indépendantes. C'est l'essence d'un modèle de classe latente.

D'un point de vue interprétatif, notez les implications. Les items semblent corrélés car la population est hétérogène. Si une seule « classe » avait été interrogée, aucune corrélation ne serait observée. Lazarsfeld a inventé le terme « indépendance locale » pour décrire cette condition.

Dans les deux chapitres de Mesure et prédiction Lazarsfeld a montré comment certains modèles de structure latente pouvaient être définis, puis a montré comment les paramètres de ces modèles pouvaient être estimés à partir des données manifestes. La structure latente de cet exemple est résumée dans le tableau 2 (tableau 6 de Lazarsfeld, 1950b).

TABLEAU 2
Structure latente calculée pour l'attitude envers l'armée

Fréquences de classe latente Objet 1
Probabilité +
Article 2
Probabilité +
Article 3
Probabilité +
Article 4
Probabilité +
424.3 .9240 .6276 .5704 .5125
575.7 .4324 .1871 .1008 .0635

Les résultats nous disent que la population se répartit à peu près 40%/60% entre ceux qui sont généralement favorables à l'armée et ceux qui sont généralement négatifs. Presque tout le monde (92%) qui appartient à la première classe répondra positivement à la question "En général, comment pensez-vous que l'armée est gérée" tandis que presque tout le monde (94%) dans la dernière classe répondra négativement au quatrième élément, " veiller au bien-être des hommes enrôlés. » Il est possible de calculer pour chacun des 16 modèles de réponse manifeste du tableau 1 la probabilité que cette réponse provienne d'un répondant de classe 1. Cette "probabilité postérieure" peut alors être utilisée comme échelle numérique, une manière d'ordonner les 16 modèles de réponse, et finalement comme une caractéristique du répondant lui-même dans les analyses ultérieures.

Bien entendu, cette interprétation des chiffres du tableau 2 est fondée sur l'hypothèse que le modèle mathématique décrit avec précision le comportement des soldats répondant aux questions sur leurs sentiments.

CLASSES LATENTES OU TRAITS LATENTS ?

J'ai déjà noté que l'utilisation de variables manifestes discrètes (catégorielles) distinguait l'analyse de structure latente (et l'échelle de Guttman) de l'analyse factorielle. Une question connexe concerne la nature de la structure latente, la nature de la variable latente (ou des variables). L'intelligence, pour Charles Spearman, était un phénomène numérique continu, de même que presque tous les concepts définis psychométriquement associés à la modélisation de l'analyse factorielle. L'objectif des chercheurs sur les attitudes dans les années 1940 était de mesurer les attitudes et, dans la plupart des cas, les attitudes étaient conceptualisées comme des variables numériques. Les recherches qualifiées d'« analyse d'échelle » prenaient généralement cette prémisse pour acquise, comme les travaux de Louis Guttman et Clyde Coombs (Une théorie des données, 1964) dans les années 1950 le démontre.

L'exemple ci-dessus prend une position différente, en postulant l'existence d'un nombre relativement faible de sous-populations homogènes ou de classes latentes. Un individu est caractérisé par son appartenance à une classe et par les probabilités de réponse associées à cette appartenance. Supposons que nous supposions que le modèle est réellement stochastique au niveau de l'individu, que les réponses de l'individu sont déclenchées par l'équivalent d'une série de lancers de quelques pièces pondérées. Bien que chaque modèle de réponse ait une probabilité d'avoir été généré par un membre de la classe latente 1, et que ces nombres puissent être utilisés pour ordonner (ou mettre à l'échelle) les modèles de réponse, ces probabilités ne sont pas des propriétés intrinsèques de l'individu. Ce sont simplement des expressions de l'incertitude que ressent le chercheur quant à l'affectation appropriée d'un répondant à la classe latente.

Le terme « trait latent » a longtemps été utilisé pour les modèles de structure latente avec des variables latentes continues. Deux des livres les plus récents sur la structure latente utilisent les termes « classe » et « trait » dans leurs titres (Heinen, 1996 Langeheine et Rost, 1988). Les arguments pour savoir si un concept particulier est discret ou continu, et s'il est même possible de répondre empiriquement à une telle question, font partie de l'histoire de cinquante ans de l'analyse de la structure latente.

Heinen et Jan DeLeeuw dans l'introduction de son éditeur, soulignent l'origine des deux modèles pour expliquer pourquoi ils sont considérés comme des traditions différentes dans la modélisation des données catégorielles. "L'analyse de classe latente a été développée principalement dans les sciences sociales et politiques, alors que les modèles de traits latents ont un fond psychométrique clair." (Heinen, 1996, ix) Curieusement, ils n'ont pas perçu comment le développement des deux modèles s'est produit simultanément dans le travail de Lazarsfeld dans les années 40, 50 et 60.

Les sociologues américains ont été fascinés dès le début par l'idée de classe sociale. La question de savoir si le statut social est permis par l'appartenance à une classe de personnes ou doit être conceptualisé comme une variable continue a été vivement, chaleureusement et froidement débattue tout au long de ce siècle. L'analyse de classe latente de Lazarsfeld a été reprise par les partisans de la classe comme une méthode qui permettrait l'évaluation scientifique de l'appartenance d'une personne à une classe. Il est toutefois important de se rappeler que l'environnement de recherche par sondage du milieu du siècle était plus psychologique que sociologique.

La première explication publiée de l'analyse de la structure latente est "Le fondement logique et mathématique de l'analyse des structures latentes", chapitre 10 de Mesure et prédiction. Dans ce chapitre, le modèle qui est d'abord discuté est un modèle de trait latent. Le premier tableau du chapitre explique ce que Lazarsfeld a appelé un trace, une fonction qui indique comment la probabilité de réponse à un élément change à mesure que l'« ethnocentrisme » des soldats américains varie le long d'un continuum. Ce n'est que plus tard qu'il évoque le cas particulier où la distribution latente « est supposée être concentrée en un point différent du continuum ». (p. 376) L'existence d'un continuum est considérée comme allant de soi, ici et ailleurs tout au long de ces deux chapitres, ce qui, je crois, a causé beaucoup de confusion dans les années suivantes. À l'époque, cependant, cela rendait le sujet plus compréhensible et acceptable pour les psychologues sociaux qui étaient le principal public de ces études de recherche, les héritiers sinon en fait les étudiants de Thurstone et Spearman.

La position ambivalente de Lazarsfeld entre les disciplines de la sociologie et de la psychologie est illustrée par sa prochaine publication majeure. Il s'agit d'un chapitre de l'ensemble en plusieurs volumes parrainé par l'American Psychological Association, La psychologie : une étude d'une science (Koch, 1959). Une fois de plus, l'approche de la structure latente de l'analyse des données manifestes dichotomiques est expliquée en termes de fonctions de trace et d'un continuum latent (possiblement multidimensionnel !). Quand vient le temps d'expliquer de quelle indépendance locale il s'agit, il se rabat cependant sur un exemple de trois classes latentes. Il est, après tout, plus facile de démontrer comment un mélange de 2x2 tables de fréquences, chacune satisfaisant la propriété d'indépendance statistique, s'additionnent pour former une table dans laquelle il y a une association, que de démontrer l'analogue pour les variables continues X et Y.

Les tracés linéaires, et plus généralement polynomiaux, ont la propriété gênante de dépasser éventuellement 1,0 et/ou de tomber en dessous de zéro. Bien avant 1959, d'autres, occupés à modéliser des phénomènes discrets, avaient choisi de contourner ce problème en choisissant une forme fonctionnelle contrainte de se situer entre zéro et 1. D. J. Finney avait utilisé une ogive normale (fonction de distribution cumulative) dans son analyse probit modèle pour la réponse d'un animal aux doses d'un poison, comme l'avaient fait Fred Lord et Ledyard Tucker dans leur élaboration de modèles pour les tests d'aptitude. Des modèles logit, dans lesquels le log des probabilités d'une réponse au lieu de la probabilité de la réponse avait une relation linéaire avec le continuum latent, avaient également été développés.

Lazarsfeld a choisi de décrire les modèles de lignes de trace polynomiales en raison de leur lien avec le modèle de classe latente. Deux points déterminent une ligne. Si une trace est un polynôme de degré m, alors m+1 points nous diront quel est le polynôme. Un modèle à deux classes, a-t-il prouvé, était indiscernable d'un modèle de trace linéaire, un modèle à trois classes était indiscernable d'un modèle de trace quadratique, et ainsi de suite, tant que les seules données disponibles sont les réponses des éléments manifestes. Il pourrait présenter une analyse de classe latente en utilisant des mots qui avaient du sens pour un public de psychologues « facteur » en traduisant les paramètres de classe en terminologie de trait, en « localisant » les classes à des points discrets le long du « continuum latent »

L'ÈRE DU STATISTICIEN MATHÉMATIQUE

Les statistiques mathématiques (comme la recherche sur les attitudes) ne sont devenues une discipline distincte aux États-Unis qu'après la Seconde Guerre mondiale. Il est instructif que dans les chapitres de 1950 et 1959, l'idée d'évaluer l'ajustement d'un modèle aux données manifestes est presque invisible. ("Le professeur Frederick Mosteller a suggéré que la qualité de l'ajustement pourrait être testée en utilisant le chi carré avec 2 m de degrés de liberté réduits par le nombre de paramètres", Lazarsfeld 1950b: p.429). Ce qu'on appelle maintenant l'estimation des paramètres a été formulé comme un problème de décomposition d'une distribution manifeste en ses composants homogènes. Le fait qu'avec des données réelles ce programme ne puisse jamais être exactement réalisé n'a pas été ignoré, mais n'a pas été traité systématiquement. Des concepts familiers (pour les statisticiens) comme les erreurs standard, l'estimation sans biais et le maximum de vraisemblance n'apparaissent pas dans les travaux de 1950.

Certaines de ces questions étaient traitées dans des articles de revues par des statisticiens, notamment par T.W. Anderson (1954, 1959). Quand le manuel Analyse de la structure latente a été publié en 1968, il utilisait ce qui était alors la terminologie statistique standard pour la formulation, l'estimation et le test des modèles stochastiques. Il a toutefois conservé le souci de Lazarsfeld d'identifier les paramètres du modèle (identifiabilité) et la primauté de la méthode des moments comme outil pour dériver les estimations des paramètres.

Modélisation log-linéaire et analyse de structure latente

Lazarsfeld considérait que l'analyse statistique de données catégoriques discrètes avait été ignorée par les statisticiens de sa génération et, dans une série d'articles historiques, il évalua les travaux du statisticien du XIXe siècle August Quetelet et du statisticien britannique G. U. Yule. En 1975, cependant, une nouvelle approche était devenue courante. Leo Goodman, dans une série d'articles qui ont été réimprimés en 1978, avait fait connaître les termes « modèle log-linéaire » parmi les sociologues ainsi que parmi les statisticiens mathématiques. Dans un long article de 1974, il montrait comment le modèle de classe latente pouvait être interprété comme un modèle log-linéaire. Cet article et la publication en 1975 de Analyse multivariée discrète par Bishop, Fienberg et Holland, a attiré l'attention des statisticiens traditionnels sur le modèle LSA.

En considérant la variable de classe latente comme une « donnée manquante » dans une classification croisée, un plus large éventail d'interprétations et d'applications est devenu disponible. Les algorithmes d'estimation des paramètres dans les modèles log-linéaires pourraient être adaptés pour traiter de nombreux modèles classiques de structure latente. Les livres de Shelby Haberman (Analyse de données qualitatives, 2 volumes, 1978-79) et programme LAT pour l'estimation des paramètres de classe latente sont également importants, bien que peut-être moins influents.

Une question importante dans la littérature a été la manière dont les cas particuliers de modèles généraux de structure latente sont spécifiés. De "nouveaux" modèles ont été proposés de temps à autre qui s'avèrent être des "anciens" modèles dans lesquels certaines contraintes ont été imposées sur les paramètres. Lazarsfeld modèle de distance latente, par exemple, est équivalent à un modèle de classe latente dans lequel certaines des probabilités de classe latente sont forcées d'être égales. Rolf Langeheine a fourni une très belle revue des différentes approches des paramètres contraignants dans son chapitre "New Developments in Latent Class Theory" dans Langeheine et Rost (1988).

Revisiter la controverse trait/classe

Lazarsfeld avait une grande affection pour le modèle de distance latente, qui combinait explicitement les caractéristiques des approches trait et classe des variables latentes. Dans ces modèles, le continuum latent est supposé exister, mais il a une relation discontinue de fonction échelonnée avec la probabilité de réponse à un élément particulier. Dans les écrits de Lazarsfeld, le modèle est décrit comme une généralisation de la célèbre échelle de Guttman, avec des hypothèses moins restrictives mais intuitivement attrayantes sur les éléments. Les variations les plus intéressantes sur ce thème se trouvent dans les articles de Cliff Clogg et de ses étudiants et collègues (par exemple Clogg, 1988).

Comme je l'ai déjà noté, la collection de 1988 de Langeheine et Rost s'est concentrée sur ce même sujet. En plus des chapitres déjà mentionnés, ceux de John Bergan ("Latent Variable Techniques for Measuring Development") et Erling Andersen ("Comparison of Latent Structure Models") montrent comment les modèles de classes et de traits peuvent être utilisés et interprétés. Alors que la plupart des modèles de traits latents ("Rasch") supposent une variable latente unidimensionnelle, une approche de classe latente invite à une interprétation multidimensionnelle.

Michael Sobel a critiqué l'interprétation traditionnelle de la variable latente comme la véritable cause des réponses manifestes (Sobel, 1997), basée sur l'hypothèse d'indépendance locale. Cette critique s'applique bien sûr aux modèles de classe et de trait.

O SONT LES APPLICATIONS ?

J'avais eu l'impression que l'analyse de la structure latente survivait principalement dans les écrits des statisticiens et des méthodologistes qui avaient pu trouver des modèles et des théorèmes spéciaux intéressants à dériver. Cependant, un nombre étonnamment élevé d'applications de l'analyse de classe latente sont apparus depuis 1990. La diversité des sources est remarquable, mais compréhensible, étant donné la variété des disciplines que Lazarsfeld lui-même a directement influencées : psychiatrie, médecine, marketing, opinion publique sont toutes représentées dans des titres trouvés par une recherche dans la base de données Social Science Citation Index. La suite de cet article commentera certaines de ces applications.

Anderson, T. W. (1954) "Sur l'estimation des paramètres dans l'analyse de la structure latente", Psychométrie, 19: 1-10.

Anderson, T. W. (1959) "Some Scaling Methods and Estimation Procedures in the Latent Class Model", dans Probabilités et statistiques, U. Grenander (éd.). New York : John Wiley & Sons.

Bishop, Y.M.M., S.E. Fienberg et P.W. Hollande (1975) Analyse multivariée discrète. Cambridge MA : MIT Press.

Clogg, Clifford C. (1988) « Modèles de classe latente pour la mesure », dans Langeheine et Rost, 1988.

Gigerenzer, Gerd et Al. (1989) L'empire du hasard, Cambridge : Cambridge University Press

Goodman, Léo A. Analyse de données qualitatives/catégorielles : modèles log-linéaires et analyse de structure latente. Cambridge, MA : Abt Books.

Heinen, Tod (1996) Modèles de classe latente et de traits latents discrets. Thousand Oaks, Californie : SAGE.

Langeheine, Rolf et Jurgen Rost (1988) Modèles de traits latents et de classes latentes. New York : Plenum Press.

Lazarsfeld, Paul F. (1950a) "Les fondements logiques et mathématiques de l'analyse de structure latente", chapitre 10 dans Stouffer (1950).

Lazarsfeld, Paul F. (1950b) "Some Latent Structures", chapitre 11 dans Stouffer (1950).

Lazarsfeld, Paul F. (1959) "Analyse de la structure latente", dans Psychologie : Une étude d'une science, Vol. 3, S. Koch (éd.). New York : McGraw-Hill.

Lazarsfeld, Paul F. et Neil W. Henry (1968) Analyse de la structure latente. Boston : Houghton Mifflin.

Sobel, Michael E. (1997) "Mesure, causalité et indépendance locale", dans Modélisation des variables latentes et applications à la causalité, M. Berkane (éd.). New York : Springer-Verlag.

Spearman, Charles (1904) "'Intelligence générale', objectivement déterminée et mesurée", Journal américain de psychologie, 15: 201-293.

Stouffer, Samuel A., et al. (1950) Mesure et prédiction, Tome IV de Le soldat américain : études en psychologie sociale pendant la Seconde Guerre mondiale. Presse de l'Université de Princeton. Réimprimé en 1973 par Peter Smith, Gloucester MA.

CONTRIBUTEURS CLÉS À
ANALYSE DE LA STRUCTURE LATENTE

1950 Paul F. Lazarsfeld, deux chapitres de Mesure et prédiction, vol. IV du Soldat américain

1959 Lazarsfeld, chapitre de La psychologie : une étude d'une science

1959 T.W. Anderson Jr., chapitre dans Probabilités et statistiques

1968 Lazarsfeld et Henri, Analyse de la structure latente

1978 Leo A. Goodman, articles publiés entre 1973 et 1975, dans Analyse des données qualitatives/catégorielles. Dernier article, 1996, Un m. J. Sociol.

1981-1988 Clifford C. Clogg, articles et chapitres non rassemblés au même endroit

1988 Rolf Langeheine et Jurgen Rost, éd. Modèles de traits latents et de classes latentes

1996 Tod Heinen, Modèles de classe latente et de traits latents discrets


Des modèles

Avant d'introduire les trois modèles de traits latents, nous souhaitons d'abord introduire quelques notations et clarifier notre terminologie. Nous supposerons que les paramètres d'item des modèles de traits latents sont des constantes fixes, mais que les précisions, les temps de réponse et les variables latentes sont aléatoires. Puisque ces variables sont supposées être aléatoires partout dans cet article, nous ne faisons pas de distinction entre les (vecteurs de) variables aléatoires et leurs réalisations. Nous utiliserons x pour désigner un vecteur de p précisions de réponse— x i ∈ < 0 , 1 >𠅎t utilisez t pour désigner un vecteur de p temps de réponse— t i ∈ R + pour le HM et le DM et t i ∈ ( 0 , d i ) pour le SM, voir ci-dessous. Les deux variables latentes capacité et vitesse seront désignées par θ et η , respectivement. Enfin, nous utiliserons “mdistribution marginale” pour désigner la distribution conditionnelle d'un type d'observable, par exemple,

où les autres observables ont été intégrées, et nous utiliserons “manifest distribution” pour faire référence aux distributions de la forme

où les variables latentes ont été intégrées.

Le modèle hiérarchique

Le HM, tel que proposé par van der Linden (2007), est un cadre statistique général pour la modélisation des précisions et des temps de réponse qui est basé sur l'idée qu'il existe deux traits latents à la capacité de travail θ régit la distribution de précision de réponse et la vitesse & #x003b7 la distribution du temps de réponse. Il est important de noter que la distribution de la précision de la réponse est supposée indépendante de la vitesse η étant donné la capacité θ , la distribution du temps de réponse est supposée être indépendante de la capacité θ étant donné la vitesse η , et il est également supposé que les précisions et les temps de réponse sont indépendants compte tenu de l'ensemble des traits latents, c'est-à-dire,

Cette configuration fournit un cadre plug-and-play pour la modélisation de la précision et des temps de réponse : modèle pour la vitesse η 𠅍istribution marginale des temps de réponse p ( t ∣ η ) . Le HM se termine par un modèle pour les deux traits latents.

Différents modèles de mesure de la capacité θ ont été utilisés dans la littérature. Par exemple, van der Linden (2007) a utilisé des modèles d'ogives normales, Bolsinova, De Boeck et Tijmstra (2017) ont utilisé leurs homologues logistiques, tandis que Zhan, Jiao et Liao (2018) ont utilisé à la place des modèles de diagnostic cognitif. Ici, nous utilisons le modèle logistique à deux paramètres,

où α i est un paramètre de discrimination d'article et β i est un paramètre de facilité d'article. Il y a deux raisons d'utiliser le modèle logistique à deux paramètres ici. Premièrement, la distribution marginale des précisions p ( x ∣ θ ) qui est impliquée par les versions du SM et du DM qui sont utilisées ici est également un modèle logistique à deux paramètres. Deuxièmement, le modèle logistique à deux paramètres est un membre de la famille exponentielle des distributions, ce qui sera pratique pour exprimer la distribution de probabilité manifeste p ( x , t ) .

Différents modèles de mesure de la vitesse η ont également été utilisés dans la littérature. Par exemple, van der Linden (2006) a utilisé une distribution log-normale, Fox, Klein Entink et van der Linden (2007) ont utilisé un modèle à facteurs linéaires pour les temps de réponse log-transformés, et Klein Entink, van der Linden et Fox (2009) ont utilisé des modèles basés sur des transformations de Box𠄼ox des temps de réponse. Dans cet article, nous utiliserons la distribution log-normale,

où ξ i est un paramètre d'intensité temporelle de l'élément et ϕ i un paramètre de précision de l'élément. La précision de l'élément ϕ i est l'analogue du temps de réponse de la discrimination de l'élément dans le modèle logistique à deux paramètres. La distribution log-normale est un choix courant pour le modèle de mesure de la vitesse η dans le cadre HM et fait également partie de la famille des distributions exponentielles.

Pour conclure le HM, nous spécifions une distribution pour la capacité θ et la vitesse η . Typiquement, une distribution normale bivariée est utilisée dans laquelle la capacité et la vitesse sont corrélées. Pour identifier le modèle, cependant, les moyennes de la normale bivariée doivent être contraintes à zéro et la variance marginale de la capacité doit être contrainte à un. 1

Le modèle de temps résiduel signé

Le SM a été proposé par Maris et van der Maas (2012) comme modèle de mesure de la capacité θ dans le contexte de tests avec des limites de temps au niveau des items. Le modèle a été spécialement conçu pour les tests qui utilisent la règle de notation suivante,

où d i est la limite de temps pour l'élément je. Cette règle de notation encourage les personnes à travailler vite mais punit les devinettes : le temps résiduel d i - t i est gagné lorsque la réponse est correcte, mais est perdu lorsque la réponse est incorrecte. Van Rijn et Ali (2017b) ont démontré que le SM est également approprié pour les applications où ces délais ne sont pas spécifiés a priori, mais "estimés" à partir des distributions de temps de réponse observées.

Le SM spécifie la distribution suivante pour la précision x et les temps de réponse t :

où β i est un paramètre de facilité d'article. Observez que le SM est un modèle familial exponentiel et que la règle de notation s est la statistique suffisante pour la capacité θ . Le SM a été généralisé par van Rijn et Ali (2017b) permettant aux items de différer dans leur pouvoir discriminant même lorsque les limites de temps sont les mêmes pour tous les items. Dans cet article, nous utiliserons la version standard du SM.

Alors que le HM caractérise la distribution conjointe des précisions et des temps de réponse par des choix spécifiques des marginaux p ( x ∣ θ ) et p ( t ∣ η ) , le SM spécifie directement une distribution conjointe des précisions et temps de réponse p ( x , t ∣ θ ) . En intégrant les temps de réponse nous obtenons la distribution marginale des précisions p ( x ∣ θ ) . Maris et van der Maas (2012) montrent que cette distribution marginale est le modèle logistique à deux paramètres dans l'équation. (1), où la discrimination de l'article α i est égale à la limite de temps de l'article d i . De manière similaire, on obtient la distribution marginale des temps de réponse p ( t ∣ θ ) en sommant les précisions,

Une spécification alternative du SM est en termes de précision et ce que Maris et van der Maas (2012, p. 624) appellent pseudo-temps de réponse t ∗ . Pseudo-les temps de réponse sont obtenus à partir des temps de réponse à travers la transformation

Cette transformation des temps de réponse en pseudo-les temps de réponse sont un à un, de sorte qu'aucune information n'est perdue. Une fonctionnalité pratique d'utilisation pseudo-temps de réponse au lieu de temps de réponse est que le pseudo-les temps de réponse et les précisions sont (conditionnellement) indépendants dans le SM, c'est-à-dire,

où la distribution marginale p ( t ∗ ∣ θ ) est égale à,

Le modèle de diffusion par dérive

Le DM a été introduit par Ratcliff (1978) comme modèle pour les expériences à deux choix. Dans le DM, les preuves de l'un ou l'autre choix s'accumulent au fil du temps jusqu'à ce qu'une limite de décision soit atteinte.Une façon de caractériser ce processus d'accumulation de preuves est en termes de processus de Wiener avec une dérive et une volatilité constantes, et absorbant les limites supérieure et inférieure (Cox & Miller, 1970). La dérive μ du processus de diffusion détermine la vitesse à laquelle les informations sont accumulées, la volatilité σ détermine le niveau de bruit du processus d'accumulation et la distance entre les deux frontières α détermine la quantité de preuves à accumuler avant un choix est fait. Le processus a deux paramètres supplémentaires : un paramètre de biais z qui indique la distance entre le point de départ et la limite inférieure, et le temps de non-décision T ( e r ) . Une simplification couramment utilisée du DM suppose que le processus est sans biais z = 1 2 α .

Le DM a été étendu pour modéliser les différences entre les personnes et les tâches. Par exemple, Tuerlinckx et De Boeck (2005) ont proposé de décomposer la dérive μ du processus d'accumulation en une personne et une partie élément —i.e., μ = θ + β i &# x02014et de traiter la distance entre les limites comme une caractéristique d'élément —i.e., α = α i . La composante de personne θ dans la spécification de dérive porte l'interprétation d'une capacité dans les modèles de théorie de réponse aux items, car une valeur plus élevée de θ implique une probabilité accrue de choisir la bonne alternative. Pour identifier le DM, Tuerlinckx et De Boeck (2005) ont fixé la volatilité σ à un. La distribution conjointe des temps de décision et des alternatives choisies —, c'est-à-dire la précision des réponses si les limites supérieure et inférieure correspondent aux réponses correctes et incorrectes— est alors égale à :

Le SM et le DM spécifient directement une distribution conjointe des précisions et des temps de décision (temps de réponse) basée sur un trait latent, la capacité θ . Contrairement au SM, cependant, les précisions et les temps de réponse sont indépendants compte tenu de la capacité dans le DM (impartial). Le p marginal ( x ∣ θ ) est le modèle logistique à deux paramètres dans l'équation. (1), où le paramètre de discrimination est égal à la distance entre les frontières dans le processus de diffusion, et le paramètre de facilité est un effet d'élément sur la dérive du processus de diffusion. Le p marginal ( t ∣ θ ) est égal à

Même si la distribution marginale p ( x ∣ θ ) fait partie de la famille exponentielle, ni la distribution marginale p ( t ∣ θ ) ni la distribution conjointe p ( x , t ∣ & #x003b8 ) est un membre de la famille exponentielle. La principale raison pour laquelle cette dernière ne peut pas être écrite sous forme de famille exponentielle est qu'elle implique une statistique s 1 = s 1 ( x , t ) = ∑ i α ixi - ∑ i β iti qui est suffisante pour θ et une autre statistique s 2 = s 2 ( t ) = ∑ iti qui est suffisant pour - 1 2 θ 2 . Si on exprime ce dernier par η = η ( θ ) = - 1 2 θ 2 , on obtient un modèle familial exponentiel soumis à des contraintes sur les paramètres θ et η : & #x003b7 est fonctionnellement lié à la capacité θ . C'est ce qu'on appelle un modèle familial exponentiel courbe (Efron, 1975, 1978).


Psychométrie de réseau généralisée : combinaison de modèles de réseau et de variables latentes

Nous introduisons le modèle de réseau en tant que modèle psychométrique formel, conceptualisant la covariance entre les indicateurs psychométriques comme résultant des interactions par paires entre les variables observables dans une structure de réseau. Cela contraste avec les modèles psychométriques standard, dans lesquels la covariance entre les éléments de test résulte de l'influence d'une ou plusieurs variables latentes communes. Ici, nous présentons deux généralisations du modèle de réseau qui englobent les structures de variables latentes, établissant la modélisation de réseau comme faisant partie du cadre plus général de la modélisation par équation structurelle (SEM). Dans la première généralisation, nous modélisons la structure de covariance des variables latentes comme un réseau. Nous appelons ce cadre la modélisation de réseau latent (LNM) et montrons qu'avec le LNM, une structure unique de relations d'indépendance conditionnelle entre variables latentes peut être obtenue de manière exploratoire. Dans la deuxième généralisation, la structure de variance–covariance résiduelle des indicateurs est modélisée sous forme de réseau. Nous appelons cette généralisation modélisation de réseau résiduel (RNM) et montrons que, dans ce cadre, des modèles identifiables peuvent être obtenus dans lesquels l'indépendance locale est structurellement violée. Ces généralisations permettent un cadre de modélisation général qui peut être utilisé pour ajuster et comparer les modèles SEM, les modèles de réseau et les généralisations RNM et LNM. Cette méthodologie a été implémentée dans le progiciel gratuit lvnet, qui contient des tests de modèle de confirmation ainsi que deux algorithmes de recherche exploratoire : des algorithmes de recherche pas à pas pour les ensembles de données de faible dimension et une estimation du maximum de vraisemblance pénalisée pour les ensembles de données plus volumineux. Nous montrons dans des études de simulation que ces algorithmes de recherche fonctionnent de manière adéquate pour identifier la structure des réseaux résiduels ou latents pertinents. Nous démontrons en outre l'utilité de ces généralisations dans un exemple empirique sur un ensemble de données d'inventaire de personnalité.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Mise à l'échelle pour obtenir des écarts pour les comparaisons

La réalisation de variances à l'échelle pour comparer les influences des variables latentes sur les réponses comme les poids de régression standardisés dans l'analyse des régressions est présentée comme un objectif majeur dans la deuxième section de l'article. Pour atteindre cet objectif, nous avons recours à une méthode de base d'analyse factorielle pour estimer la variance expliquée par un facteur. Cette méthode suggère le calcul de la somme de la surcharge factorielle au carré λ′λ. Il peut alternativement être réalisé par la trace de la matrice correspondante :

Bien qu'un paramètre de variance ne soit pas pris en compte, on peut supposer qu'il est égal à un (ϕ = 1) et qu'il est omis pour plus de commodité. Afin d'obtenir une similitude entre la partie droite de cette équation et la partie gauche de l'équation (10) ainsi que l'équation (7), ϕ (= 1) est inséré dans la partie droite de cette équation :

Dans l'étape suivante, la matrice incluse entre parenthèses est transformée en utilisant la deuxième méthode basée sur des critères (équation 15). Le numéro de critère pc est mis à 1 :

Le cadre d'échelle de l'Équation (10) respectivement de l'Équation (7) permet le remplacement des vecteurs entre parenthèses de l'Équation (18) et l'affectation de la constante d'échelle comme numérateur au paramètre de variance :

Puisque le rapport de ϕ et c 2 est un scalaire, il peut être retiré des parenthèses et est remplacé par le paramètre de variance mis à l'échelle ϕ* :

En raison de la définition du numéro de critère pc à 1, la trace doit être 1 pour que

Les contributions de toutes les saturations factorielles sont transférées au paramètre de variance mis à l'échelle. Si cette méthode est appliquée aux variances de deux variables latentes du même modèle, comme par exemple aux variables latentes de l'équation (3), il existe deux variances à l'échelle qui incorporent les contributions de toutes les saturations factorielles sur les variables latentes correspondantes. Il permet de comparer les influences de ces variables latentes sur la réponse.


Un cadre conceptuel et psychométrique pour distinguer les catégories et les dimensions

Cet article décrit un schéma conceptuel et psychométrique permettant de distinguer la nature catégorique de la nature dimensionnelle des variables psychologiques. Par "variables psychologiques", nous entendons des variables utilisées pour faire la distinction entre les entités à certains égards psychologiques. Ces entités sont généralement des personnes, mais elles peuvent également être des situations, des tâches, des éléments de test, etc. Le schéma est né de frustrations face à des cas de recherche psychologique qui avaient supposé ou "prouvé" que les variables étaient d'un type ou d'un autre sans examiner la base philosophique ou empirique pour le faire et sans un cadre global dans lequel l'un ou l'autre était véritablement possible. Dans cet article, nous proposons un tel cadre global, appelé le cadre de dimension/catégorie, aussi appelé Dimcat, et fournir des illustrations empiriques de son utilisation.

Une distinction préliminaire pour déterminer si les variables sont de type catégorie ou de type dimension est la distinction entre variables manifestes et variables latentes. Trop souvent, ces deux types de variables sont confondus, ce qui peut conduire à des conclusions inappropriées. Plus précisément, les chercheurs peuvent confondre les catégories ou dimensions manifestes, qui sont des artefacts de l'approche de mesure, avec des catégories ou dimensions latentes, qui sont généralement les phénomènes psychologiques sous-jacents d'intérêt.

La question à l'examen ici est de savoir si la nature latente des variables manifestes est de type catégorie ou dimension. Une hypothèse pourrait être que la nature des variables latentes et manifestes correspond. Comme discuté ci-dessous, cependant, les dimensions manifestes peuvent être transformées en catégories manifestes (par exemple, dans la segmentation en groupes) et les catégories manifestes en dimensions manifestes (par exemple, dans les scores de somme sur un test). Ainsi, les relations entre différents types de variables manifestes et entre différents types de variables manifestes et latentes ne sont pas aussi simples qu'elles pourraient le paraître à première vue. Par conséquent, un cadre conceptuel et méthodologique qui englobe toutes ces possibilités est nécessaire.

Dimensions du manifeste (ou continuum manifeste) sont courants dans la recherche psychologique, bien que leur nature dimensionnelle puisse n'être qu'une fiction commode. Par exemple, les scores bruts sur un test (par exemple, le nombre de réponses correctes) sont des catégories manifestes ordonnées, mais ils sont généralement considérés comme approximant une dimension manifeste. Les éléments d'un test sont des exemples d'indicateurs de la même manière que les symptômes d'un système de diagnostic sont des indicateurs, bien que ces différents types d'indicateurs soient généralement utilisés à des fins très différentes. Alors que les éléments sont généralement additionnés pour produire une dimension manifeste, les symptômes sont généralement additionnés pour produire une catégorie manifeste (un diagnostic). Pour compliquer les choses, une dimension manifeste basée sur des sommes d'éléments peut également être segmentée (par exemple, en utilisant une division médiane) pour produire une catégorie manifeste, ou la somme des symptômes peut être utilisée comme indicateur de la mesure dans laquelle les patients présentent un syndrome. Il devrait ressortir de cette discussion que les catégories manifestes et les dimensions manifestes peuvent être fonctionnellement interchangeables et donc arbitraires.

Dimensions latentes sont des variables quantitatives dont les valeurs dépendent de la personne et qui contribuent d'une manière ou d'une autre aux observations, soit directement, soit indirectement via l'effet de la variable quantitative sur la probabilité des réponses. Pour une discussion sur le statut épistémologique des variables latentes, voir Borsboom, Mellenbergh et van Heerden (2003). Les dimensions latentes sont invoquées en tant que quantités sous-jacentes qui déterminent des données ou des fonctions de celles-ci, telles que le score total. Par exemple, dans la théorie classique des tests, un vrai score (dimension latente) est censé être à la base du score total d'un test (dimension manifeste), à ​​l'exception des distorsions dues au terme d'erreur. Les dimensions latentes sont implicites chaque fois que des concepts tels que la fiabilité de la cohérence interne sont utilisés, c'est-à-dire dans pratiquement tous les tests de phénomènes psychologiques. Les variables sous-jacentes dans les modèles d'analyse factorielle, la modélisation par équation structurelle (SEM) et la théorie de la réponse aux items (IRT) ne sont pas des dimensions manifestes mais latentes.

Catégories de manifeste sont également courantes dans la recherche psychologique, en tant que variables indépendantes ou dépendantes. Que les variables catégorielles soient des variables indépendantes ou dépendantes, elles sont souvent (mais pas toujours) enracinées, dérivées, basées sur ou liées à certains indicateurs manifestes ou tacites du même domaine. Les indicateurs doivent être observés directement ou indirectement afin d'en déduire une catégorie manifeste.

Une catégorie manifeste est généralement dérivée d'indicateurs soit par segmentation, soit par jugement d'expert. La segmentation signifie qu'un indicateur ou un ensemble d'indicateurs (par exemple, un score total sur un test) est segmenté en différentes catégories manifestes. Certains segments peuvent être omis, comme dans la méthode des groupes extrêmes, dans laquelle le segment médian est omis. Le jugement d'expert signifie qu'un expert attribue des catégories manifestes sur la base implicite ou explicite de connaissances concernant les valeurs des indicateurs. Par exemple, un diagnostic psychiatrique repose sur la connaissance des symptômes. Les systèmes de diagnostic tels que le Manuel diagnostique et statistique des troubles mentaux (DSM-IV American Psychiatric Association, 1994) fournissent à l'expert des règles explicites basées sur le score total obtenu à partir d'une liste de symptômes, mais souvent l'expert ne suit pas littéralement ces règles mais s'appuie plutôt sur des indicateurs tacites. Un autre exemple de jugement d'expert est lorsque les gens se jugent sur un trait (par exemple, "Je suis timide") ou sur une attitude (par exemple, "Je suis contre la peine capitale"). Dans ce cas, les gens sont considérés comme des juges experts en ce qui concerne des indicateurs plus spécifiques, éventuellement tacites, sur eux-mêmes qui indiquent un trait, une attitude ou une autre variable sous-jacente.

On peut se demander si une catégorie manifeste résultant d'une segmentation ou d'un jugement d'expert est en quelque sorte plus qu'une segmentation arbitraire d'une dimension sous-jacente. Par exemple, c'est une pratique courante de déterminer des scores de coupure, tels que ceux utilisés pour faire la distinction entre les personnes déprimées et non déprimées. Le fait que des catégories soient utilisées ne prouve pas que le phénomène auquel les catégories se réfèrent est semblable à une catégorie. L'utilisation des catégories peut être purement pragmatique. Lorsqu'une variable manifeste de type catégorie est utilisée, il est important de connaître la nature de cette variable afin d'interpréter les résultats obtenus avec elle. Les catégories manifestes (par exemple, un diagnostic) peuvent correspondre à des différences qualitatives ou à des différences quantitatives. La question fondamentale est de savoir si les catégories au niveau du manifeste sont semblables à des catégories ou à des dimensions dans la structure latente. La question complémentaire, si une dimension manifeste (par exemple, un score de somme) est semblable à une catégorie ou à une dimension dans la structure latente, est une question légitime mais n'est pas abordée directement ici, sa réponse nécessite l'utilisation de modèles de classe latente ou de profil latent (par exemple, voir Wilson [1989] pour une discussion). Ainsi, le présent article est asymétrique : étant donné les catégories manifestes, nous tentons de déterminer si elles sont vraiment semblables à des catégories dans la structure latente. S'ils sont de type catégorie au niveau latent, alors ils ont les propriétés de catégories latentes.

Le problème que nous voulons étudier est parallèle à un problème de psychologie cognitive et de linguistique, en particulier en ce qui concerne la nature et le sens des catégories et des mots que nous utilisons dans la vie quotidienne. Par exemple, est-ce que le concept derrière la catégorie des arbres vraiment catégoriel, ou correspond-il mieux à une dimension arborescente ? Lorsque les catégories sont des personnes - par exemple, la catégorie des patients psychiatriques - et lorsque la cognition humaine intervient dans l'attribution des catégories (comme avec le jugement d'expert), alors la similitude est encore plus pertinente. Les points communs et les différences entre nos questions de recherche et celles du domaine des concepts et des catégories illustrent ce que nous prévoyons de faire. Ci-après, dans la section 1, nous résumons la recherche sur les catégories et les concepts et comment elle s'applique à notre sujet.


UN EXEMPLE MOTIVANT

Considérez la situation de recherche suivante : Des recherches antérieures ont montré que la pression économique sur la famille a un certain nombre d'influences négatives, y compris des associations avec des niveaux plus élevés de dépression chez les pères et les mères, des conflits conjugaux plus élevés, des niveaux inférieurs de comportements parentaux positifs et des niveaux inférieurs de résultats du développement de l'enfant (voir Conger & Donnellan, 2007, pour une revue). Cependant, une grande partie des recherches antérieures sur les influences néfastes de la pression économique familiale a été menée sur les familles américaines européennes. Étant donné que les théories concernant les influences culturelles sur les processus familiaux et le développement de l'enfant suggèrent que la structuration des relations entre les variables du processus familial peut différer d'un groupe ethnique à l'autre (Parke et al., 2004), les chercheurs ne devraient pas supposer que les résultats de la recherche sur les familles euro-américaines se généraliseront aux familles. d'origines ethniques différentes. Au lieu de cela, les enquêteurs devraient chercher à établir si des relations d'ampleur similaire existent entre différents groupes ethniques.

Nous avons eu accès à des données sur les participants de trois groupes ethniques vivant aux États-Unis et voulions tester si la pression économique était liée à la dépression du père et de la mère de manière similaire dans tous les groupes. Les trois groupes ont été obtenus à partir des études suivantes : (a) l'étude sur la santé familiale et communautaire (FACHS), une étude de 889 enfants afro-américains et leurs familles (b) le California Families Project (CFP), une étude de 327 enfants mexicains- les familles et les enfants d'origine et (c) le Iowa Youth and Families Project (IYFP), une étude portant sur 451 enfants et familles européens et américains. Parce que nous testions l'influence de la pression économique sur les mères et les pères, nous nous sommes concentrés sur les familles biparentales, produisant 428 familles de l'étude FACHS, 262 familles de l'étude CFP et 385 familles de l'étude IYFP, pour un total de 1 075 familles réparties dans les trois groupes.

La première variable latente de notre étude était la pression économique. Les trois études incluaient les trois mêmes indicateurs de pression économique, consistant en : (a) les besoins matériels non satisfaits (U), la moyenne de quatre éléments évaluant les besoins matériels non satisfaits dans différents domaines, y compris ‚voir assez d'argent pour s'offrir le type de maison , vêtements et nourriture dont votre famille a besoin” (échelle de réponse 1 = tout à fait d'accord à 4 = fortement en désaccord) (b) ne peut pas joindre les deux bouts (C), la moyenne de deux éléments mesurant les difficultés à avoir de l'argent pour couvrir les dépenses, y compris 𠇍ifficulté à payer les factures” et “le montant d'argent restant à la fin du mois& #x0201d (échelle de réponse : 1 = aucune difficulté à 4 = beaucoup de difficulté 1 = il reste plus qu'assez d'argent à 4 = pas assez pour joindre les deux bouts) et (c) les réductions financières (F), le nombre de 11 domaines dans lesquels la famille a dû faire des réductions, y compris “la famille reportant les achats importants du ménage, changeant de résidence et/ou éliminant l'assurance médicale” (chaque domaine a obtenu un score dichotomique , 0 = pas de réductions, 1 = réductions). Les pères et les mères ont fourni des réponses sur les échelles précédentes. Conformément aux recherches antérieures (par exemple, Conger & Donnellan, 2007), les réponses moyennes des pères et des mères ont été utilisées comme scores analysés.Pour les familles auxquelles les pères n'ont pas participé, les scores des variables de pression économique ont été traités comme des données manquantes. Les scores des trois indicateurs ont été inversés lorsque cela était nécessaire, de sorte que les scores les plus élevés indiquaient une plus grande pression économique sur la famille.

Les deux autres variables latentes à étudier étaient la dépression du père et la dépression de la mère. Dans les trois études, deux échelles ont été utilisées pour évaluer la dépression du père et de la mère. Une échelle était la sous-échelle de dépression générale du Mini-Mood and Anxiety Symptom Questionnaire (Mini-MASQ Clark & Watson, 1991 Casillas & Clark, 2001), composée de cinq éléments, chacun étant répondu sur une échelle allant de 1 (pas du tout) à 4 (extrêmement). La deuxième échelle était une forme abrégée de 10 items de l'échelle de dépression du Center for Epidemiological Studies (CES&# x02013D Radloff, 1977), avec des réponses tombant sur une échelle allant de 1 (presque jamais ou jamais) à 4 (presque toujours ou toujours). Deux parcelles (une à deux éléments et une à trois éléments) ont été formées à partir du Mini-MASQ, et elles sont notées M1F, M2F, M1M et M2M pour les Mini-MASQ Parcelles 1 et 2 du père et de la mère, respectivement. Deux parcelles (deux parcelles de cinq éléments) ont été formées à partir des éléments de l'échelle CES𠄽, et ces parcelles sont appelées C1F, C2F, C1M et C2M pour CES𠄽 Parcelles 1 et 2 pour le père et la mère, respectivement. Ainsi, les données à analyser sont constituées de 11 variables manifestes : (a) trois indicateurs de pression économique (U, C et F), (b) quatre indicateurs de dépression paternelle (M1F, M2F, C1F et C2F), et (c) quatre indicateurs de dépression maternelle (M1M, M2M, C1M et C2M).

La figure 1 montre des modèles factoriels confirmatoires contenant 11 variables manifestes et trois variables latentes pour chacun des trois groupes. Dans la figure 1 , la notation standard est utilisée : les triangles désignent la constante unitaire utilisée pour estimer les moyennes ou les interceptions, les carrés ou les rectangles représentent les variables manifestes, les cercles ou les ellipses représentent les variables latentes, les flèches à une seule tête désignent les effets dirigés (p. pondérations), et les flèches à deux pointes représentent les variances ou les covariances. Les lignes pleines représentent les variables manifestes observées et toutes les variables latentes et estimations de paramètres connexes. Les lignes pointillées indiquent les variables manifestes qui manquent complètement (c'est-à-dire MVMC) dans un échantillon donné, ainsi que les paramètres associés pour ces variables manifestes.

Représentation figurative du modèle de facteur de confirmation à trois facteurs dans chacun des trois groupes : Étude sur la santé familiale et communautaire (FACHS), California Families Project (CFP) et Iowa Youth and Families Project (IYFP), avec des lignes pointillées associées aux variables manifestes manquant complètement . Noter. U = besoins matériels non satisfaits C = impossible de joindre les deux bouts F = réductions financières M1F et M2F = Mini-MASQ Parcelles 1 et 2 rapport père, respectivement C1F et C2F = CES𠄽 Parcelles 1 et 2 rapport père, respectivement M1M et M2M = Mini-MASQ Rapport mère Parcelles 1 et 2, respectivement C1M et C2M = CES𠄽 Parcelles 1 et 2 rapport mère, respectivement.

Dans la figure 1, des dénotations communes sont utilisées pour les paramètres. Plus précisément, τj (j = 1, …, 11) représente l'interception de mesure pour la variable manifeste j, λj désigne le chargement de la variable j sur sa variable latente correspondante, θj représente la variance de facteur unique pour la variable j, ψkk(k = 1, …, 3) représente la variance du facteur pour la variable latente k, ψkk (kk′)dénote la covariance entre les variables latentes k et k′, et αk représente le facteur moyen pour la variable latente k. En conséquence, l'équation du modèle de mesure pour chacune des 11 variables manifestes de la figure 1 peut être écrite comme suit :

où εj est le facteur unique de Ouij, et d'autres symboles ont été définis plus tôt. Les scores de facteurs uniques ne peuvent pas être estimés directement, donc seule la variance de εj, étiqueté θj, est estimée, comme le montre la figure 1 .

Comme le montre la figure 1 , le CES𠄽 n'a pas été administré dans l'étude FACHS, de sorte que les parcelles CES𠄽 étaient MVMC dans cet échantillon. Dans l'IYFP, le Mini-MASQ n'était pas administré, de sorte que les parcelles Mini-MASQ étaient des MVMC pour l'échantillon IYFP. Le protocole de l'étude CFP utilisait à la fois le Mini-MASQ et le CES𠄽, de sorte que les 11 variables manifestes ont été mesurées dans l'étude CFP. Cependant, nous notons que, dans chaque étude, les données n'étaient pas complètes.

Comme indiqué précédemment, l'imputation n'est pas une option viable pour la structure de données représentée par la figure 1 parce que certaines variables sont des MVMC dans l'un ou l'autre groupe, laissant deux approches analytiques restantes. L'approche de suppression de variable manifeste n'est pas non plus viable dans ce cas. Étant donné que les parcelles CES𠄽 étaient MVMC dans l'étude FACHS et les parcelles Mini-MASQ étaient MVMC dans l'échantillon IYFP, tous les scores des parcelles de dépression illustrés à la figure 1 seraient supprimés si l'on supprimait tous les MVMC dans un échantillon, excluant toute analyse liée à la dépression. Enfin, en adoptant l'approche de réplication conceptuelle, un chercheur pourrait comparer les échantillons FACHS et CFP sur la base des scores Mini-MASQ et pourrait comparer séparément les échantillons CFP et IYFP sur la base des scores CES𠄽, mais le chercheur ne serait pas en mesure de comparer les résultats quantitativement à travers les séries d'analyses précédentes, car la comparabilité des métriques des scores sur les variables latentes de dépression définies par les parcelles Mini-MASQ et CES𠄽 n'a pas pu être assurée. De plus, aucune comparaison n'a pu être faite entre les échantillons FACHS et IYFP en raison des ensembles de variables manifestes non concordantes liées à la dépression dans ces échantillons. Ce qui est nécessaire, c'est une approche du problème MVMC qui utilise toutes les observations et variables disponibles dans chaque groupe et peut mettre en œuvre des comparaisons quantitatives entre tous les groupes, testant ainsi fortement les modèles théoriques à l'étude.

Solution 1 : utilisez un programme capable de gérer MVMC

La première solution au problème MVMC consiste à utiliser un programme, tel que EQS 1 (Bentler & Wu, 1996), qui peut gérer différents nombres de variables manifestes dans chaque échantillon. L'avantage évident de cette approche est que la solution résultante donne la solution à maximum de vraisemblance lors de l'ajustement d'un modèle aux données, et que le MVMC n'a aucune influence sur la solution. Cependant, nous notons que EQS est le seul programme dont nous avons connaissance qui est capable d'adapter plusieurs modèles de groupe avec un nombre différent de variables manifestes. Ainsi, cela pourrait ne pas être une solution raisonnable si d'autres programmes SEM sont utilisés (par exemple, LISREL).

Solution 2 : utiliser des procédures de mélange de motifs avec des groupes connus

Une deuxième solution consiste à utiliser la procédure de mélange de motifs avec des groupes connus disponibles dans certains programmes, tels que Mplus (Muthén & Muthén, 2007). 2 La procédure de mélange de modèles utilise le cadre de modélisation de mélange pour la spécification et l'estimation, mais traite l'appartenance à une classe comme connue. Ainsi, la probabilité d'appartenance à une classe est considérée comme observée et basée sur la variable de regroupement. La logique derrière cette solution est que, dans la modélisation des mélanges, une classe d'individus pourrait avoir MVMC. Cette approche évite la nécessité d'avoir les mêmes variables mesurées dans chaque groupe. Cette approche n'est cependant pas sans limites. Semblable à la solution 1, cette option n'est pas largement disponible. De plus, lors de l'utilisation de cette approche, les indices absolus et globaux d'ajustement du modèle (par exemple, l'indice d'ajustement comparatif [CFI], l'erreur quadratique moyenne d'approximation [RMSEA]) ne sont pas fournis. Bien sûr, ces indices pourraient être calculés post-hoc en estimant d'abord le modèle saturé (par exemple, les moyennes, les variances et les covariances) séparément pour chaque groupe, en calculant la statistique du chi carré, puis en calculant chaque indice d'ajustement. De plus, l'ajustement du modèle de mélange de motifs n'est pas simple. Le modèle est ajusté selon la figure 1, cependant, les chemins en pointillés sont fixés à 0 dans chaque classe connue, à l'exception des variances résiduelles en pointillés, qui ont été fixées à une petite valeur positive (par exemple, .01).

Solution 3 : générer des données aléatoires pour MVMC

Une troisième solution au problème du MVMC, proposée ici, est la procédure en deux étapes suivante : (a) générer des écarts normaux aléatoires pour toutes les observations (c'est-à-dire des personnes) dans un échantillon donné pour tous les MVMC de cet échantillon, et (b) procéder avec la spécification du modèle et les tests d'une manière qui respecte, ou est cohérente avec, la nature aléatoire des scores générés. 3

La première étape est la génération d'écarts normaux aléatoires (c'est-à-dire des nombres pseudo-aléatoires d'une population qui est normalement distribuée avec M = 0 et Dakota du Sud = 1) pour toutes les observations sur MVMC dans un échantillon donné. Dans la population, une variable aléatoire donnée Ouij a une moyenne de 0 (μj = 0), écart type (Dakota du Sud) d'unité (σj = 1), et des corrélations de zéro (ρjj = 0) avec toutes les autres variables Ouij. Dans tout échantillon fini, ces valeurs de population ne seraient pas observées, car les estimations de l'échantillon s'écarteraient des paramètres de la population en raison de la variabilité de l'échantillonnage. Cependant, à mesure que la taille de l'échantillon augmente, les statistiques de l'échantillon devraient converger vers les valeurs de la population, de sorte que la moyenne de Ouij devrait approcher de zéro (comme N → ∞, E(Ouije) → 0), la variance et, par conséquent, la Dakota du Sud de Ouij devrait se rapprocher de l'unité (comme N → ∞, E[(OuijeȲ) 2 ] → 1), et les corrélations de Ouij avec toutes les autres variables manifestes Ouij devrait approcher de zéro (comme N → ∞, E(rjj → 0)), où E est l'opérateur de valeur attendue.

Les caractéristiques précédentes des écarts normaux aléatoires ont des implications pour la spécification correcte du modèle. Pour une variable manifeste Ouij qui manque complètement dans un échantillon donné et dont les valeurs manquantes sont donc remplacées par des écarts normaux aléatoires, la spécification du modèle doit être :

Son interception τj devraient être estimés librement dans tous les modèles structurels.

Sa charge factorielle, λj, doit être fixé à 0 dans tous les modèles structurels.

Sa variance factorielle unique, θj, et les covariances de son facteur unique avec des facteurs uniques pour toutes les autres variables manifestes Ouij, θjj, doit être estimée librement dans tous les modèles structurels.

Les spécifications du modèle notées ici sont présentées pour le problème actuel dans la Figure 2, où tous les paramètres entourés de lignes en pointillés sont associés à MVMC. Dans l'échantillon FACHS, ces paramètres sont associés aux parcelles CES𠄽 et incluent (a) les interceptions τ6, τ7, τ10, et τ11 (b) les saturations factorielles correspondantes, indiquées comme fixées à zéro et (c) les variances factorielles uniques θ6, θ7, θ10, et θ11, et covariances de facteurs uniques θ12 via θ45. Dans le CFP, aucune variable manifeste n'est MVMC, donc aucun paramètre n'est contenu dans des lignes pointillées. Dans l'échantillon IYFP, les quatre parcelles dérivées du MASQ sont indiquées entre des lignes pointillées, et celles-ci incluent (a) les interceptions τ4, τ5, τ8, et τ9 (b) les saturations factorielles correspondantes, indiquées comme fixées à zéro et (c) les variances factorielles uniques θ4, θ5, θ8, et θ9, et covariances de facteurs uniques θ12 via θ45. Tous les paramètres associés à MVMC doivent être estimés librement sans aucune contrainte entre les groupes dans aucun modèle. Si cela est fait, le nombre d'estimations de paramètres associées à MVMC sera égal au nombre de nouvelles statistiques d'échantillon (c'est-à-dire, moyennes, variances et covariances) associées à ces variables. Les degrés de liberté (df) rapporté par le programme sera correct, basé sur les statistiques d'échantillon et le nombre de paramètres pour MVP à travers les échantillons. Les analyses peuvent ensuite procéder avec des contraintes intergroupes sur les estimations de paramètres associées aux variables manifestes qui ont été évaluées en commun dans chaque paire d'échantillons. Les détails concernant ces détails de spécification sont illustrés ci-après.

Représentation schématique du vecteur d'interception τ, matrice de chargement factoriel Λ, et matrice de covariance à facteur unique Θ pour les études Family and Community Health Study (FACHS), California Families Project (CFP) et Iowa Youth and Families Project (IYFP). Noter. U = besoins matériels non satisfaits C = impossible de joindre les deux bouts F = réductions financières M1F et M2F = Mini-MASQ Parcelles 1 et 2 rapport père, respectivement C1F et C2F = CES𠄽 Parcelles 1 et 2 rapport père, respectivement M1M et M2M = Rapport mère Mini-MASQ Parcelles 1 et 2, respectivement et C1M et C2M = Rapport mère CES𠄽 Parcelles 1 et 2, respectivement.

Notre solution proposée pourrait entraîner un biais potentiel dans l'ajustement du modèle et dans les estimations des paramètres obtenus lorsque des données incomplètes sont présentes dans chaque groupe dans la mesure où les valeurs pseudo-aléatoires générées pour MVMC affichent des estimations d'échantillon de moyenne et de covariance avec d'autres variables qui s'écartent de la population. valeurs. Supposons la présence d'un modèle de structure de covariance ou de moment pour un ensemble de variables manifestes qui produit des estimations basées sur un modèle du vecteur moyen de la population μ et matrice de covariance Σ. Sous estimation FIML, la fonction à minimiser, F, peut être écrit

ouije est le vecteur des scores observés pour l'observation je (c'est-à-dire la suppression des variables manifestes pour l'observation je qui contiennent des valeurs manquantes), μje est le vecteur moyen de population correspondant, et Σje est la matrice de covariance parmi les variables manifestes en supprimant les lignes et les colonnes associées aux valeurs manquantes pour l'observation je. Pour invoquer l'équation 2, les estimations basées sur un modèle de μ et Σ sur la base de données d'échantillon sont utilisées dans l'équation. Ainsi, si les moyennes et les variances de la MVMC s'écartent de 0,0 et de 1,0 et que les corrélations de la MVMC avec la MVP s'écartent de zéro comme on pourrait s'y attendre sous l'échantillonnage, ces valeurs d'échantillon pour la MVMC affecteraient les estimations basées sur un modèle de μ et Σ pour toutes les variables manifestes si le MVP contenait également des valeurs manquantes. Si cela devait se produire, des estimations quelque peu différentes de l'ajustement du modèle ou des estimations des paramètres du modèle pourraient être obtenues lorsque les MVMC sont inclus dans une analyse par rapport à lorsque les MVMC ont été supprimés de l'analyse. L'étude de l'ampleur de ces formes de biais potentiel est une tâche pour ce projet.


Contenu

La modélisation des équations structurelles, comme le terme est actuellement utilisé en sociologie, en psychologie et dans d'autres sciences sociales, a évolué à partir des méthodes antérieures de modélisation du chemin génétique de Sewall Wright. Leurs formes modernes sont apparues avec des implémentations informatiques intensives dans les années 1960 et 1970. Le SEM a évolué en trois courants différents : (1) des systèmes de méthodes de régression d'équations développés principalement à la Commission Cowles (2) des algorithmes itératifs de maximum de vraisemblance pour l'analyse de chemin développés principalement par Karl Gustav Jöreskog au Educational Testing Service et par la suite à l'Université d'Uppsala et (3 ) algorithmes itératifs d'ajustement de corrélation canonique pour l'analyse de chemin, également développés à l'Université d'Uppsala par Hermann Wold. Une grande partie de ce développement s'est produit à une époque où l'informatique automatisée offrait des améliorations substantielles par rapport aux méthodes de calcul et de calcul analogique existantes disponibles, elles-mêmes le produit de la prolifération des innovations en matière d'équipement de bureau à la fin du 20e siècle. Le texte de 2015 Modélisation par équation structurelle : des chemins aux réseaux fournit un historique des méthodes. [11]

Une terminologie vague et confuse a été utilisée pour masquer les faiblesses des méthodes. En particulier, PLS-PA (l'algorithme de Lohmoller) a été confondu avec la régression partielle des moindres carrés PLSR, qui remplace la régression ordinaire des moindres carrés et n'a rien à voir avec l'analyse de chemin. PLS-PA a été faussement promu comme une méthode qui fonctionne avec de petits ensembles de données lorsque d'autres approches d'estimation échouent. Westland (2010) a montré de manière décisive que cela n'était pas vrai et a développé un algorithme pour les tailles d'échantillons en SEM. Depuis les années 1970, l'affirmation de la « petite taille de l'échantillon » est connue pour être fausse (voir par exemple Dhrymes, 1972, 1974 Dhrymes & Erlat, 1972 Dhrymes et al., 1972 Gupta, 1969 Sobel, 1982).

LISREL et PLS-PA ont tous deux été conçus comme des algorithmes informatiques itératifs, en mettant l'accent dès le départ sur la création d'une interface graphique et de saisie de données accessible et sur l'extension de l'analyse de chemin de Wright (1921). Les premiers travaux de la Commission Cowles sur l'estimation d'équations simultanées centrés sur les algorithmes de Koopman et Hood (1953) à partir de l'économie du transport et de l'acheminement optimal, avec estimation du maximum de vraisemblance et calculs algébriques sous forme fermée, car les techniques de recherche de solutions itératives étaient limitées à l'époque avant les ordinateurs. Anderson et Rubin (1949, 1950) ont développé l'estimateur du maximum de vraisemblance à information limitée pour les paramètres d'une seule équation structurelle, qui incluait indirectement l'estimateur des moindres carrés à deux degrés et sa distribution asymptotique (Anderson, 2005) et Farebrother (1999). Les moindres carrés à deux degrés ont été initialement proposés comme méthode d'estimation des paramètres d'une équation structurelle unique dans un système d'équations linéaires simultanées, introduit par Theil (1953a, 1953b, 1961) et plus ou moins indépendamment par Basmann (1957) et Sargan (1958). L'estimation du maximum de vraisemblance d'informations limitées d'Anderson a finalement été implémentée dans un algorithme de recherche informatique, où elle était en concurrence avec d'autres algorithmes SEM itératifs. Parmi celles-ci, la méthode des moindres carrés à deux degrés était de loin la méthode la plus utilisée dans les années 1960 et au début des années 1970.

Des systèmes d'approches d'équations de régression ont été développés à la Commission Cowles à partir des années 1950, étendant la modélisation des transports de Tjalling Koopmans. Sewall Wright et d'autres statisticiens ont tenté de promouvoir les méthodes d'analyse de chemin à Cowles (alors à l'Université de Chicago). Les statisticiens de l'Université de Chicago ont identifié de nombreux défauts dans les applications d'analyse de chemin aux défauts des sciences sociales qui n'ont pas posé de problèmes significatifs pour identifier la transmission de gènes dans le contexte de Wright, mais qui ont rendu problématiques les méthodes de chemin telles que PLS-PA et LISREL dans les sciences sociales. Freedman (1987) a résumé ces objections dans des analyses de cheminement : « l'incapacité à distinguer les hypothèses causales, les implications statistiques et les revendications politiques a été l'une des principales raisons de la suspicion et de la confusion entourant les méthodes quantitatives dans les sciences sociales » (voir aussi Wold ( 1987) réponse). L'analyse du chemin de Wright n'a jamais gagné un grand nombre d'adeptes aux États-Unis.économètres, mais réussit à influencer Hermann Wold et son élève Karl Jöreskog. L'étudiant de Jöreskog, Claes Fornell, a promu LISREL aux États-Unis.

Les progrès de l'informatique ont permis aux novices d'appliquer facilement des méthodes d'équations structurelles à l'analyse informatique de grands ensembles de données dans des problèmes complexes et non structurés. Les techniques de résolution les plus populaires se répartissent en trois classes d'algorithmes : (1) les algorithmes des moindres carrés ordinaires appliqués indépendamment à chaque chemin, tels qu'appliqués dans les packages d'analyse de chemin PLS qui estiment avec OLS (2) les algorithmes d'analyse de covariance évoluant à partir de travaux de Wold et son étudiant Karl Jöreskog implémentés dans LISREL, AMOS et EQS et (3) algorithmes de régression d'équations simultanées développés à la Commission Cowles par Tjalling Koopmans.

Pearl [12] a étendu le SEM des modèles linéaires aux modèles non paramétriques et a proposé des interprétations causales et contrefactuelles des équations. Par exemple, exclure une variable Z des arguments d'une équation affirme que la variable dépendante est indépendante des interventions sur la variable exclue, une fois que nous maintenons constants les arguments restants. Les SEM non paramétriques permettent d'estimer les effets totaux, directs et indirects sans s'engager sur la forme des équations ou sur les distributions des termes d'erreur. Cela étend l'analyse de médiation aux systèmes impliquant des variables catégorielles en présence d'interactions non linéaires. Bollen et Pearl [13] examinent l'histoire de l'interprétation causale du SEM et pourquoi elle est devenue une source de confusions et de controverses.

Les méthodes d'analyse de chemin SEM sont populaires dans les sciences sociales en raison de leurs programmes informatiques d'accessibilité permettant aux chercheurs d'obtenir des résultats sans avoir à comprendre la conception expérimentale et le contrôle, la taille des effets et des échantillons, ainsi que de nombreux autres facteurs faisant partie d'une bonne conception de recherche. Les partisans disent que cela reflète une interprétation holistique, et moins ouvertement causale, de nombreux phénomènes du monde réel - en particulier en psychologie et en interaction sociale - que ce qui peut être adopté dans les détracteurs des sciences naturelles suggèrent que de nombreuses conclusions erronées ont été tirées en raison de ce manque de données expérimentales. contrôler.

La direction dans les modèles de réseau dirigé de SEM découle d'hypothèses présumées de cause à effet faites sur la réalité. Les interactions sociales et les artefacts sont souvent des épiphénomènes – des phénomènes secondaires difficiles à relier directement à des facteurs causaux. Un exemple d'épiphénomène physiologique est, par exemple, le temps pour terminer un sprint de 100 mètres. Une personne peut être en mesure d'améliorer sa vitesse de sprint de 12 secondes à 11 secondes, mais il sera difficile d'attribuer cette amélioration à des facteurs de causalité directs, comme l'alimentation, l'attitude, la météo, etc. L'amélioration d'une seconde du temps de sprint est un épiphénomène - le produit holistique de l'interaction de nombreux facteurs individuels.

Bien que chaque technique de la famille SEM soit différente, les aspects suivants sont communs à de nombreuses méthodes SEM, car il peut être résumé comme un cadre 4E par de nombreux chercheurs SEM comme Alex Liu, à savoir 1) Égalité (spécification de modèle ou d'équation), 2 ) Estimation des paramètres libres, 3) Évaluation des modèles et ajustement du modèle, 4) Explication et communication, ainsi que l'exécution des résultats.

Spécification du modèle Modifier

Deux composants principaux des modèles se distinguent en SEM : le modèle structurel montrant les dépendances causales potentielles entre les variables endogènes et exogènes, et la modèle de mesure montrant les relations entre les variables latentes et leurs indicateurs. Les modèles d'analyse factorielle exploratoire et confirmatoire, par exemple, ne contiennent que la partie mesure, tandis que les diagrammes de cheminement peuvent être considérés comme des SEM qui ne contiennent que la partie structurelle.

En spécifiant des chemins dans un modèle, le modélisateur peut poser deux types de relations : (1) libre voies, dans lesquelles les relations causales hypothétiques (en fait contrefactuelles) entre les variables sont testées, et sont donc laissées « libres » de varier, et (2) les relations entre les variables qui ont déjà une relation estimée, généralement basée sur des études antérieures, qui sont « » fixe' dans le modèle.

Un modélisateur spécifiera souvent un ensemble de modèles théoriquement plausibles afin d'évaluer si le modèle proposé est le meilleur de l'ensemble des modèles possibles. Non seulement le modélisateur doit tenir compte des raisons théoriques de la construction du modèle tel qu'il est, mais le modélisateur doit également prendre en compte le nombre de points de données et le nombre de paramètres que le modèle doit estimer pour identifier le modèle. Un modèle identifié est un modèle où une valeur de paramètre spécifique identifie de manière unique le modèle (définition récursive), et aucune autre formulation équivalente ne peut être donnée par une valeur de paramètre différente. Un point de données est une variable avec des scores observés, comme une variable contenant les scores sur une question ou le nombre de fois où les répondants achètent une voiture. Le paramètre est la valeur d'intérêt, qui peut être un coefficient de régression entre la variable exogène et la variable endogène ou la saturation factorielle (coefficient de régression entre un indicateur et son facteur). S'il y a moins de points de données que le nombre de paramètres estimés, le modèle résultant est « non identifié », car il y a trop peu de points de référence pour tenir compte de toute la variance dans le modèle. La solution est de contraindre l'un des chemins à zéro, ce qui signifie qu'il ne fait plus partie du modèle.

Estimation des paramètres libres Modifier

L'estimation des paramètres est effectuée en comparant les matrices de covariance réelles représentant les relations entre les variables et les matrices de covariance estimées du modèle le mieux ajusté. Ceci est obtenu par la maximisation numérique via l'espérance-maximisation d'un critère d'ajustement tel que fourni par l'estimation du maximum de vraisemblance, l'estimation du quasi-maximum de vraisemblance, les moindres carrés pondérés ou les méthodes sans distribution asymptotique. Ceci est souvent accompli en utilisant un programme d'analyse SEM spécialisé, dont plusieurs existent.

Évaluation des modèles et ajustement du modèle Modifier

Après avoir estimé un modèle, les analystes voudront interpréter le modèle. Les chemins estimés peuvent être tabulés et/ou présentés graphiquement sous la forme d'un modèle de chemin. L'impact des variables est évalué à l'aide de règles de traçage de chemin (voir analyse de chemin).

Il est important d'examiner l'« ajustement » d'un modèle estimé pour déterminer dans quelle mesure il modélise les données. Il s'agit d'une tâche de base dans la modélisation SEM, constituant la base pour accepter ou rejeter des modèles et, plus généralement, accepter un modèle concurrent plutôt qu'un autre. La sortie des programmes SEM comprend des matrices des relations estimées entre les variables du modèle. L'évaluation de l'ajustement calcule essentiellement dans quelle mesure les données prédites sont similaires aux matrices contenant les relations dans les données réelles.

Des tests statistiques formels et des indices d'ajustement ont été développés à ces fins. Les paramètres individuels du modèle peuvent également être examinés dans le modèle estimé afin de voir dans quelle mesure le modèle proposé correspond à la théorie de conduite. La plupart des méthodes d'estimation, mais pas toutes, permettent de tels tests du modèle.

Bien entendu, comme dans tous les tests d'hypothèses statistiques, les tests de modèle SEM sont basés sur l'hypothèse que les données pertinentes correctes et complètes ont été modélisées. Dans la littérature SEM, la discussion sur l'ajustement a conduit à une variété de recommandations différentes sur l'application précise des divers indices d'ajustement et des tests d'hypothèse.

Il existe différentes approches pour évaluer l'adéquation. Les approches traditionnelles de la modélisation partent d'une hypothèse nulle, récompensant les modèles plus parcimonieux (c'est-à-dire ceux avec moins de paramètres libres), à d'autres telles que l'AIC qui se concentrent sur la façon dont les valeurs ajustées s'écartent peu d'un modèle saturé [ citation requise ] (c'est-à-dire dans quelle mesure ils reproduisent les valeurs mesurées), en tenant compte du nombre de paramètres libres utilisés. Étant donné que différentes mesures d'ajustement capturent différents éléments de l'ajustement du modèle, il est approprié de rapporter une sélection de différentes mesures d'ajustement. Les lignes directrices (c. [14]

Certaines des mesures d'ajustement les plus couramment utilisées comprennent :

    • Une mesure fondamentale de l'ajustement utilisée dans le calcul de nombreuses autres mesures d'ajustement. Conceptuellement, c'est une fonction de la taille de l'échantillon et de la différence entre la matrice de covariance observée et la matrice de covariance du modèle.
    • Un test d'ajustement relatif du modèle : Le modèle préféré est celui avec la valeur AIC la plus faible.
    • A I C = 2 k − 2 ln ⁡ ( L ) >=2k-2ln(L),>
    • k est le nombre de paramètres dans le modèle statistique, et L est la valeur maximisée de la vraisemblance du modèle.
    • Indice d'ajustement où une valeur de zéro indique le meilleur ajustement. [15] Alors que la ligne directrice pour déterminer un « ajustement serré » à l'aide du RMSEA est très contestée, [16] la plupart des chercheurs s'accordent à dire qu'un RMSEA de 0,1 ou plus indique un mauvais ajustement. [17][18]
    • Le SRMR est un indicateur d'ajustement absolu populaire. Hu et Bentler (1999) ont suggéré 0,08 ou moins comme ligne directrice pour un bon ajustement. [19] Kline (2011) a suggéré 0,1 ou moins comme ligne directrice pour un bon ajustement.
    • Lors de l'examen des comparaisons de base, le CFI dépend en grande partie de la taille moyenne des corrélations dans les données. Si la corrélation moyenne entre les variables n'est pas élevée, alors le CFI ne sera pas très élevé. Une valeur CFI de 0,95 ou plus est souhaitable. [19]

    Pour chaque mesure d'ajustement, une décision quant à ce qui représente un ajustement suffisant entre le modèle et les données doit refléter d'autres facteurs contextuels tels que la taille de l'échantillon, le rapport indicateurs/facteurs et la complexité globale du modèle. Par exemple, de très grands échantillons rendent le test du Chi carré trop sensible et plus susceptible d'indiquer un manque d'ajustement des données du modèle. [20]

    Modification du modèle Modifier

    Le modèle peut devoir être modifié afin d'améliorer l'ajustement, estimant ainsi les relations les plus probables entre les variables. De nombreux programmes fournissent des indices de modification qui peuvent guider des modifications mineures. Les indices de modification rapportent le changement de χ² qui résulte de la libération de paramètres fixes : généralement, donc l'ajout d'un chemin à un modèle qui est actuellement mis à zéro. Les modifications qui améliorent l'ajustement du modèle peuvent être signalées comme des modifications potentielles pouvant être apportées au modèle. Les modifications apportées à un modèle, en particulier le modèle structurel, sont des changements à la théorie prétendue vraie. Les modifications doivent donc avoir un sens en termes de théorie testée, ou être reconnues comme des limitations de cette théorie. Les modifications apportées au modèle de mesure prétendent effectivement que les éléments/données sont des indicateurs impurs des variables latentes spécifiées par la théorie. [21]

    Les modèles ne devraient pas être dirigés par l'IM, comme l'a démontré Maccallum (1986) : « même dans des conditions favorables, les modèles issus des recherches de spécifications doivent être considérés avec prudence ». [22]

    Taille et puissance de l'échantillon Modifier

    Alors que les chercheurs conviennent que de grandes tailles d'échantillon sont nécessaires pour fournir une puissance statistique suffisante et des estimations précises à l'aide de SEM, il n'y a pas de consensus général sur la méthode appropriée pour déterminer la taille d'échantillon adéquate. [23] [24] Généralement, les considérations pour déterminer la taille de l'échantillon incluent le nombre d'observations par paramètre, le nombre d'observations requises pour que les indices d'ajustement fonctionnent correctement et le nombre d'observations par degré de liberté. [23] Les chercheurs ont proposé des lignes directrices basées sur des études de simulation, [25] l'expérience professionnelle, [26] et des formules mathématiques. [24] [27]

    Les exigences de taille d'échantillon pour atteindre une signification et une puissance particulières dans les tests d'hypothèses SEM sont similaires pour le même modèle lorsque l'un des trois algorithmes (PLS-PA, LISREL ou systèmes d'équations de régression) est utilisé pour les tests. [ citation requise ]

    Explication et communication Modifier

    L'ensemble de modèles est ensuite interprété de sorte que des déclarations concernant les constructions puissent être formulées, sur la base du modèle le mieux adapté.

    Des précautions doivent toujours être prises lors de l'affirmation d'une causalité, même lorsque des expérimentations ou des études chronologiques ont été effectuées. Le terme modèle causal doit être compris comme signifiant « un modèle qui véhicule des hypothèses causales », pas nécessairement un modèle qui produit des conclusions causales validées. La collecte de données à plusieurs moments et l'utilisation d'une conception expérimentale ou quasi expérimentale peuvent aider à exclure certaines hypothèses rivales, mais même une expérience randomisée ne peut exclure toutes ces menaces pour l'inférence causale. Un bon ajustement par un modèle compatible avec une hypothèse causale entraîne invariablement un ajustement tout aussi bon par un autre modèle compatible avec une hypothèse causale opposée. Aucune conception de recherche, aussi intelligente soit-elle, ne peut aider à distinguer de telles hypothèses rivales, à l'exception des expériences interventionnelles. [12]

    Comme dans toute science, la réplication ultérieure et peut-être la modification découleront de la découverte initiale.

    Plusieurs progiciels existent pour ajuster les modèles d'équations structurelles. LISREL a été le premier logiciel de ce type, initialement publié dans les années 1970.

    Il existe également plusieurs packages pour l'environnement statistique open source R. Le package OpenMx R fournit une version open source et améliorée de l'application Mx. Lavaan est un autre package R open source pour SEM. [28]

    Les chercheurs considèrent qu'il est de bonne pratique de signaler le progiciel et la version utilisés pour l'analyse SEM, car ils ont des capacités différentes et peuvent utiliser des méthodes légèrement différentes pour exécuter des techniques portant le même nom. [29]


    Voir la vidéo: CS50 2014 - Week 0, continued (Janvier 2022).