INFORMATION

Psicothema was founded in Asturias (northern Spain) in 1989, and is published jointly by the Psychology Faculty of the University of Oviedo and the Psychological Association of the Principality of Asturias (Colegio Oficial de Psicología del Principado de Asturias).
We currently publish four issues per year, which accounts for some 100 articles annually. We admit work from both the basic and applied research fields, and from all areas of Psychology, all manuscripts being anonymously reviewed prior to publication.

PSICOTHEMA
  • Director: Laura E. Gómez Sánchez
  • Frequency:
         February | May | August | November
  • ISSN: 0214-9915
  • Digital Edition:: 1886-144X
CONTACT US
  • Address: Ildelfonso Sánchez del Río, 4, 1º B
    33001 Oviedo (Spain)
  • Phone: 985 285 778
  • Fax: 985 281 374
  • Email:psicothema@cop.es

Psicothema, 1994. Vol. Vol. 6 (nº 3). 483-491




RECUPERACION DE LA SOLUCION FACTORIAL A PARTIR DE VARIABLES DICOTOMIZADAS

Pere Joan Ferrando Piera y Urbano Lorenzo Seva

Universidad Rovira i Virgili de Tarragona

Se presenta un estudio de simulación cuya finalidad es la de investigar en qué forma las variables: sesgo, tamaño muestral y magnitud de las saturaciones afectan a la recuperación de una solución factorial obtenida en variables contínuas cuando estas son dicotomizadas. Bajo las distintas condiciones se estudia el comportamiento de diversos métodos factoriales y coeficientes de asociación.

Recovery of factorial solution with dichotomous variables: A comparative study. A simulation study for recovery of factorial solution under different experimental conditions is presented. The aim is to analyze the behavior of different methods and indices of association under the conditions obtained at different levels of skewness, sample size and magnitude of factorial loadings, when originally continuous variables are dichotomized.

PDF

Una de las aplicaciones comunes del modelo de análisis factorial (AF) en Psicometría, es la de evaluar la unidimensionalidad de un conjunto de reactivos que componen una escala psicológica. En estos casos, el modelo AF asume que las respuestas observadas en los ítems constituyen medidas imperfectas de una sola variable latente (factor común) que es la que se pretende medir.

Cuando las respuestas a los ítems se dan en un formato multipunto (de dos a siete es lo más habitual), entonces el modelo del análisis factorial resulta teóricamente inadecuado. La inadecuación puede mostrarse evaluando la ecuación estructural del AF en el caso de un factor común:

(1) Zij = ajc * fic + uje * ei

Donde zij es la puntuación típica del sujeto «i» en la variable «j»; fic, ei son las puntuaciones del sujeto «i» en el factor común y en el factor específico respectivamente y, por último, ajc, uje son las saturaciones (coeficientes de regresión estandarizados en este caso) de la variable «j» en el factor común y en el factor específico. El modelo asume que, tanto las variables observables (zj) como las latentes (fc, e) son contínuas y con distribución N (0,1).

Considérese ahora que «xj» (la variable en puntuación directa) es una variable dicotómica. Su rango de valores, por tanto, esta limitado entre 0 y 1. Por otra parte, en el lado derecho de la igualdad en (1), «fc» y «e» pueden adoptar valores entre +/- infinito. Se hace muy difícil suponer que la relación entre variables observables y variable latente sea lineal. De hecho, el modelo más plausible que, en este caso, relacionaría a cada variable observable con el factor común sería, probablemente, la ojiva utilizada en los modelos de TRI, es decir, una relación que se haría asintótica en los extremos de «fc», siendo aproximadamente lineal en algún intérvalo medio.

A riesgo de pecar de simplistas, cabría decir que en análisis de ítems, existen respecto a esta limitación tres posturas enfrentadas, de las cuales derivan diversas metodologías de análisis.

Primera postura

Un grupo de autores (ver p. ej. Burt, 1950; Kim y Mueller, 1978; Harman, 1980; Nunnally, 1987) consideran que, aunque la limitación es evidente (al menos a nivel teórico), la mejor solución es tratar a las variables como si fuesen contínuas y no preocuparse demasiado, excepto en el caso de que existan sesgos extremos en sentido contrario. Procediendo de este modo, se supone que las posibles distorsiones serán mínimas y se verán compensadas por el hecho de poder utilizar como base del análisis la matriz de correlación producto-momento, que, estrictamente hablando, es la única que puede usarse legítimamente en el modelo.

Desde esta óptica, el procedimiento más recomendable sería utilizar un método de mínimos cuadrados simple U.L.S (MINRES en la terminología del AF exploratorio), sobre la matriz de correlaciones producto momento. El método citado, si bien requiere la especificación previa del número de factores, es descriptivo y no presupone condiciones adicionales acerca de la distribución marginal o conjunta de las variables observables. Para una exposición detallada del método y su justificación puede leerse Harman (1980).

Segunda postura

Una forma de legitimizar el uso del modelo AF, consiste en plantear el supuesto de una variable continua de respuesta que subyace a la respuesta observada en el reactivo (ver p. ej. Olsson, 1979 o Lord, 1980). De esta forma, las puntuaciones observadas, pueden considerarse discretizaciones de contínuos de respuesta normalmente distribuidos. Este supuesto es razonable, pero su cumplimiento no puede verificarse empíricamente.

Asumir esta segunda postura lleva a una serie de consecuencias bastante complejas. En primer lugar, el interés del investigador deberá centrarse propiamente en las relaciones entre los supuestos contínuos más que en las relaciones entre observables (Carroll, 1961). Además, deberá suponerse que la discretización de los continuos de respuesta podrá producir cambios en la forma de las distribuciones, (Muthen, 1980; Bollen, 1989), atenuar los coeficientes de correlación (Martin, 1978; Olsson, Drasgow y Dorans, 1982) y, por último, podrá distorsionar la solución factorial, especialmente en la estimación de las saturaciones (Olsson, 1979).

La evidencia empírica, basada en estudios Montecarlo, tiende a indicar que tales distorsiones tienden a incrementarse: a) cuando las distribuciones están sesgadas en sentido contrario; b) cuando la muestra es pequeña y c) cuando las «verdaderas» saturaciones factoriales son bajas. El número de puntos de discretización, parece que por sí solo no influye demasiado; sin embargo, cuando la forma de las distribuciones es distinta, entonces, cuantos menos puntos, mayor es el efecto distortivo (ver Olsson, 1979).

Si se adopta el segundo enfoque y sus supuestos, entonces deberá buscarse una metodología de análisis que permita recuperar la «verdadera» estructura factorial que existe entre los continuos. El índice de asociación apropiado en este caso será el estimador del coeficiente producto-momento a partir de variables discretizadas, es decir, la correlación policórica, denominada tetracórica en el caso de dicotomización (Olsson, Drasgow y Dorans, 1982). Respecto al método factorial, al margen de desarrollos generales más complejos (ver p. ej. Muthen, 1987), consideraremos dos propuestas.

La propuesta que contiene más supuestos no verificables consiste en utilizar el método de máxima verosimilitud (ML) sobre la matriz de correlaciones policóricas. Este sería el procedimiento adecuado si las puntuaciones observadas fuesen realmente discretizaciones de un conjunto de variables distribuido en forma normal multivariante. Sin embargo, en este caso la matriz de correlación debería estimarse conjuntamente para todas las variables, lo cual sería extremadamente costoso en términos de computación (ver Christofferson, 1975). Los métodos de estimación actualmente disponibles se basan en las distribuciones marginales y en las bivariadas, razón por la cual la matriz obtenida puede ser, en ocasiones, no Gramiana.

Aún cuando la matriz obtenida sea nonegativa definida, existe una potencial fuente de distorsión en el hecho de que los estimadores de la supuesta correlación subyacente tienen distintas varianzas de error, pudiendo ser tales diferencias bastante acusadas. Un método apropiado debería tener en cuenta este hecho, lo que implica un tratamiento diferencial de los residuales al llevar a cabo el ajuste.

En este sentido, una propuesta intermedia entre MINRES y ML es la defendida por Jöreskog (1989). Consiste en analizar la matriz de correlaciones policóricas mediante el método de mínimos cuadrados ponderados diagonalmente (D.W.L.S.). Al igual que en MINRES se pretende obtener un vector de saturaciones (en el caso de un solo factor), que permita reproducir una matriz de correlación, lo más ajustada posible, (en el sentido de mínimos cuadrados) a la matriz observada. Sin embargo, en lugar de asignar el mismo peso a todos los residuales, en D.W.L.S, estos son ponderados según la magnitud de la varianza de error del estimador de la correspondiente correlación. Cuanto mayor sea la varianza de error, menor peso se le concede al residual y viceversa. Nótese que en este método se asumen ciertos supuestos distribucionales subyacentes a las variables observables. Sin embargo, después de intentar recuperar la «verdadera» estructura de la matriz de correlación, corrigiendo según la variabilidad de los estimadores, lo que se hace en definitiva es aplicar un análisis de mínimos cuadrados ordinarios sobre unos datos corregidos.

Para una justificación estadística de este método puede leerse Browne (1984).

Tercera postura

En forma sintética, la primera de las posturas hasta ahora citadas consiste en utilizar directamente un método no estrictamente apropiado confiando en su robustez, mientras que la segunda se ocupa en encontrar el coeficiente de asociación más apropiado para realizar después un análisis basado en un modelo lineal. Una tercera vía consistiría en plantear y ajustar un modelo de relaciones no lineales entre los observables y el factor común, por ejemplo un modelo en el que dichas relaciones adoptaran la forma de la ojiva normal. Desde el punto de vista teórico ésta parece ser la solución más limpia y elegante; sin embargo, desde un punto de vista aplicado cabe considerar si el ajuste proporcionado por un modelo así compensa la notable complicación que se introduce en los procedimientos de estimación.

Es relativamente fácil mostrar (ver p. ej. Lord, 1980) que, si una variable de respuesta contínua y una variable latente también contínua tienen una relación lineal (de acuerdo al modelo de regresión lineal) y la variable de respuesta se dicotomiza arbitrariamente en un punto crítico, entonces la relación entre la variable latente y la variable dicotomizada adopta la forma de la curva característica del modelo de ojiva normal. En este caso, la probabilidad de que un sujeto con un determinado nivel en la variable latente acierte el ítem viene dada por la conocida expresión integral del modelo. McDonald (1967) ha mostrado que dicha integral puede aproximarse con la precisión que se desee por una combinación lineal cuyos términos son polinomios ortogonales. Debe hacerse notar pués que, aún cuando el modelo de McDonald no sea lineal, sí que lo es en los parámetros.

La probabilidad condicional de acierto bajo un nivel determinado en el rasgo latente puede también considerarse como la puntuación esperada en el ítem para los sujetos con este nivel (puntuación verdadera en la terminología de la teoría clásica del test). Bajo esta perspectiva, la media de las puntuaciones verdaderas de todos los sujetos en un ítem «j» será la proporción esperada de aciertos en este ítem (Pj); por otra parte, dados dos vectores de puntuaciones verdaderas en dos ítems «j», «k» el producto interno de estos vectores dividido por el número de sujetos, nos dará la proporción esperada de sujetos que acierten tanto «j» como «k» (Pjk). En la aproximación de McDonald, «Pj» viene dado por el primer coeficiente de la correspondiente combinación lineal, mientras que Pjk viene dado por la suma de productos de coeficientes correspondientes a «j» y a «k». De este modo puede derivarse un método de ajuste para estimar los coeficientes (y, por posterior transformación, los parámetros del modelo). El programa NOHARM (Fraser, 1988) lleva a cabo esta estimación bajo el criterio de que la suma de las diferencias cuadráticas entre los Pj, Pjk observados y los esperados desde el modelo sea mínima.

Objetivos

El trabajo que se presenta, es un estudio de simulación cuyo objetivo general es el de estudiar en qué forma los métodos de factorización comentados permiten recuperar la solución factorial existente, en caso de que se cumplan totalmente los supuestos del modelo y que las variables de respuesta hayan sido dicotomizadas. Para ello se genera un conjunto de datos que satisfaga totalmente los requisitos del modelo y se obtienen los valores de saturación y comunalidad directamente. A continuación las variables se dicotomizan bajo distintas condiciones y se llevan a cabo los distintos análisis sobre los datos discretizados.

Existen estudios similares al nuestro relativamente recientes. Al margen de los comentados antes, puede citarse como más afín un trabajo de Parry y McArdle (1991). Sin embargo dichos autores tan sólo comparan métodos mínimo cuadráticos y, por otra parte su objetivo es mucho más ambicioso, al tomar en consideración efectos de tipo interactivo.

Método

Elaboración de las matrices de datos:

Inicialmente se generaron tres conjuntos de 6 variables aleatorias, con distribución N (0,1), de 200, 400 y 600 observaciones. Los tamaños muestrales se escogieron tras estudiar los trabajos de robustez de Boombsma (1987) con la estimación ML y los de Balderjahn (1986) con ULS, los cuales tienden a indicar que los respectivos algoritmos convergen en estimaciones razonables sin problemas a partir de 200 casos.

En los tres conjuntos la primera variable se utilizó como factor común y las cinco restantes como factores de error. Se verificó su distribución así como el que estuvieran totalmente incorreladas (rij=0.0 en todos los casos).

A continuación se generaron las matrices de datos (N-observaciones x 5-variables observables) de acuerdo al modelo de un factor común. Bajo cada tamaño muestral se construyeron tres matrices de datos de acuerdo con los siguientes patrones:

Patrón 1

Patrón 2
Patrón 3
v1

0.1

0.5
0.1

v2

0.2
0.6
0.2

v3

0.3
0.7
0.3

v4

0.4
0.8
0.8
v5
0.5
0.9
0.9

Es decir un patrón con saturaciones bajas, un patrón con saturaciones altas y un patrón con saturaciones desiguales (patrón mixto).

Los datos se generaron según la expresión (1). Así, por ejemplo, la primera variable en el segundo patrón se obtuvo mediante la siguiente combinación lineal:

z1 = 0.5 * f + 0.866 * e1

Dado que «f» y «e1» están incorreladas y se distribuyen con varianza 1, es inmediato que la varianza de z1 será (0.5)2 + (0.866)2 = 1, tendremos de este modo una variable distribuida N(0,1) y con saturación de 0.5 en el factor común.

Seguidamente se reprodujeron las matrices de correlación correspondientes a cada uno de los patrones mediante el teorema fundamental del AF:

(2) R = a a' + U2

Por último, los datos fueron dicotomizados bajo dos condiciones: 1) sesgo moderado y 2) fuerte sesgo. En la primera condición, las variables 1, 3, y 5 fueron dicotomizadas en el nivel crítico zc = 0.25, es decir, el 60% inferior de la distribución recibió una puntuación de 0 y el 40% superior de 1; las variables 2 y 4 fueron dicotomizadas en zc=-0.25, es decir el 40% inferior 0 y el 60% superior 1.

Bajo la condición de fuerte sesgo, las variables 1, 3 y 5 fueron dicotomizadas en zc = 0.85, es decir, el 20 % superior recibió 1 y el 80% inferior 0, mientras que las variables 2 y 4 fueron dicotomizadas en zc = -0.85 (20% inferior 0 y 80% superior 1). En términos de un test clásico de aptitud diríamos que 1,3 y 5 eran muy difíciles y que 2 y 4 eran muy fáciles.

En suma, podemos decir que el estudio consiste en un diseño de tres variables independientes: 1) tamaño del grupo normativo (200, 400 y 600); 2) patrones factoriales (saturaciones bajas, altas y mixtas) y 3) sesgo en las variables dicotomizadas (moderado y fuerte). Las condiciones experimentales son, por tanto, 3 x 3 x 2 = 18.

Análisis:

Los datos dicotomizados se analizaron como sigue:

ULS (MINRES): La matriz de correlaciones producto momento (phi) fue analizada mediante el paquete SAS (Proc: Factor, Option: ULS)

ML.: La matriz de correlaciones tetracóricas se obtuvo mediante el programa PRELIS. Fue analizada mediante la opción ML (por defecto) del programa LISREL VII.

DWLS : La matriz de correlaciones tetracóricas y la matriz inversa de covarianzas asintóticas de los estimadores se obtuvieron mediante PRELIS. Fueron analizadas bajo la opción DWLS del LISREL VII.

AF No Lineal: La matriz de productos directos cruzados se obtuvo mediante el programa PRODMOM. Fue analizada con el programa NOHARM.

Como indicadores (variables dependientes) del diseño se utilizaron los siguientes:

Las matrices de correlaciones phi y tetracóricas obtenidas en cada condición se compararon con la correspondiente matriz original de correlación mediante la raíz media cuadrática de las diferencias en los elementos no diagonales.

Los patrones factoriales obtenidos bajo cada condición se compararon con el correspondiente patrón original mediante un índice de congruencia (el índice de Burt) y un índice de discrepancia. La expresión correspondiente a ambos índices se presenta a continuación.

Donde âj es la saturación correspondiente a la variable «j» en la solución original y aj es la saturación correspondiente a la misma variable en la solución recuperada.

El ajuste del modelo a los datos se verificó mediante la raíz media cuadrática residual entre los elementos observados y los reproducidos por el modelo. El ajuste obtenido con NOHARM no fue incluido ya que, en este caso los residuales son productos cruzados directos y no correlaciones.

Por último cabe decir que, al disponer tan sólo de una observación por celda el análisis de los datos del diseño es puramente descriptivo.

Resultados

Dado que en el trabajo se maneja una cantidad de información notable y que, por razones de espacio, se ha intentado ofrecerlos en una sola tabla, los resultados se encuentran muy condensados. Para facilitar su interpretación, se describe cómo está organizada una celda cualquiera de dicha tabla:

Rp=0.056
Rt=0.049
c: 0.90
ULS
(1)

d: 0.30

El valor que sigue a Rp es la raíz media cuadrática de las diferencias entre la matriz original de correlación y la matriz de coeficientes phi. El valor que sigue a Rt es el mismo índice comparando la matriz original con la matriz de correlaciones tetracóricas.

ULS nos indicaría que los datos corresponden al ajuste de mínimos cuadrados; detrás de c: iría el valor del coeficiente de congruencia entre el patrón original y el patrón obtenido por el método de mínimos cuadrados, detrás de d: iría el valor del índice de discrepancia para esta misma comparación. Por último, el número entre paréntesis indica la magnitud de la raíz media cuadrática de los valores residuales de acuerdo a la categorización: (1): < 0.05; (2) 0.05-0.1; (3): 0.1-0.15 y (4):>0.15.

Estos datos se dan para los 4 métodos a comparar, siendo las abreviaciones: ULS: mínimos cuadrados ordinarios; ML: máxima verosimilitud; DWLS: mínimos cuadrados diagonalmente ponderados; NH: ajuste polinormal NoHarm.

Debe advertirse por último que el ajuste DWLS no puede obtenerse con el tamaño muestral N=200 debido a que es insuficiente para estimar la matriz de covarianzas asintóticas.

La tabla de datos se presenta a continuación:

A la vista de la tabla pueden hacerse, de entrada, una serie de comentarios de tipo general. En primer lugar y, a nivel de matrices de correlación, cabe observar que la discrepancia media siempre es mayor en el caso del coeficiente phi que en el caso de la correlación tetracórica. Este resultado es de esperar ya que la atenuación producida por la dicotomización de las variables siempre afecta más al primero de estos coeficientes. Sin embargo no puede concluirse que la matriz de tetracóricas sea más similar ala original: para esto haría falta un indicador de congruencia además del de discrepancia. Otro hecho general que se observa es que cuanto más altos son los valores del patrón y, por tanto, más altas son las correlaciones de la matriz, mayores tienden a ser también las discrepancias.

Respecto a la solución factorial, cabe ver previamente que, en ningún caso los residuales entre la matriz observada y la reproducida por el modelo tienen una gran magnitud: de hecho el valor más alto de la RMR fue de 0.07. Desde un enfoque puramente descriptivo se tendería a pensar siempre (correctamente en este caso) que basta un sólo factor para reproducir los datos con razonable precisión. Sin embargo, dada la simplicidad del modelo y el pequeño número de variables, este hecho tampoco resulta sorprendente.

Una segunda constatación inmediata es que, en circunstancias adversas, ningún método permite una recuperación correcta de la solución original. Esto se pone de manifiesto particularmente en el cuadrante superior izquierdo de la tabla. En el caso conjunto de bajas saturaciones, pequeño tamaño muestral y sesgo fuerte, las soluciones obtenidas no se parecen ni remotamente a las originales. De hecho cabría pensar que los factores citados tienen un efecto interactivo ya que las disimilitudes extremas entre indicadores tan sólo se disparan en este cuadrante. Recíprocamente, en el otro extremo y, como era de esperar, con patrones elevados, buen tamaño muestral y poco sesgo, la recuperación es casi perfecta. En estas circunstancias, además, todos los métodos se comportan bien.

La comparación de métodos debe hacerse evaluando su comportamiento en situaciones intermedias. En forma general se aprecia que el método de mínimos cuadrados proporciona sistemáticamente patrones bastante congruentes con los originales pero con valores atenuados. Los otros tres métodos dan resultados bastante similares entre sí: los valores de congruencia son semejantes a los obtenidos con mínimos cuadrados pero las discrepancias son menores. Es de destacar particularmente la coincidencia en las soluciones DWLS y NOHARM que en la mayor parte de los casos son iguales en los dos primeros decimales. Globalmente además cabría plantear que estos dos parecen ser los que mejor permiten recuperar la solución original.

Existen algunos resultados que no se aprecian directamente en la tabla, pero que pueden ser interesantes de comentar. Así, cabe decir que en las estimaciones ML y DWLS mediante LISREL se produjeron algunos casos Heywood (comunalidades mayores de 1). Estas anomalías se producían en caso de tamaños muestrales pequeños y de patrones bajos o desiguales. Por último, tan sólo en un caso (patrón mixto, N=200), la matriz de correlaciones tetracóricas resultó no Gramiana.

Discusión

A pesar de sus evidentes limitaciones, los resultados del trabajo consideramos que pueden incitar a una serie de reflexiones de cara al investigador que utiliza el A.F. en estudios aplicados con variables dicotómicas.

En primer lugar, como cabe esperar, cualquier método funcionará mejor con muestras grandes, distribuciones simétricas y saturaciones altas. A pesar de que los datos no permitan un análisis inferencial cabría pensar que los dos factores con más relevancia son el tamaño de la muestra y la magnitud de las saturaciones y que, respecto al primero, se produce una notable mejora al pasar de 200 casos a 400.

Estos factores están (en general) bajo control del investigador y, por tanto, éste deberá preocuparse en buscar variables que sean buenos indicadores del factor que pretende medir y en utilizar un grupo normativo suficientemente grande.

Respecto a los métodos a utilizar, ninguno de los evaluados parece ser mucho mejor que los demás, pero en conjunto y con las precauciones que aconseja un estudio tan reducido, los datos parecen dar ventaja a NOHARM. Las estimaciones de este método son prácticamente iguales a las de DWLS y muy semejantes a ML, pero evita los problemas de las matrices no Gramianas y de los casos Heywood. Por otra parte, el análisis MINRES sobre la matriz de coeficientes phi, el método más simple y comprensible y, a la vez, el más asequible en cuanto a disponibilidad en paquetes estadísticos parece funcionar razonablemente bien cuando las circunstancias no son excesivamente desfavorables.

Por último y, como conclusión general, de los resultados parece desprenderse que la utilización de reactivos dicotómicos siempre plantea problemas, aun cuando tales problemas pueden ser minimizados en buena parte controlando los factores que parecen tener mayores efectos distortivos. Sin embargo parece apropiado que se contemple el uso de otros formatos de respuesta alternativos al binario. Desde un punto de vista práctico parece razonable aconsejar al constructor de una escala que, siempre que sea posible, evite el uso del formato binario sustituyéndolo por un formato multipunto. Cara a la investigación metodológica, necesaria dada la gran cantidad de escalas que siguen utilizando el formato binario, parece también adecuado investigar acerca de métodos alternativos al modelo AF tradicional.

Referencias

Balderjhan,I. (1986). The robustness of LISREL U.L.S. estimations against small sample size in confirmatory factor analysis models. En Gaul, W y Schader, M. (eds) Classification as a tool of research. Amsterdam. Elsevier.

Bollen, K. A. (1989). Structural equations with latent variables. New York: Wiley.

Boombsma, A. (1987). The robustness of maximum likelihood estimation in structural equation models. In Cuttance, P. & Ecob, R: Structural modeling by example. Cambridge: Cambridge University press.

Browne, M. W. (1984). Asymptotically distribution-free methods for the analysis of covariance structures. British Journal of Mathematical and Statistical Psychology, 37, 62-83.

Burt. C. (1950). The factorial analysis of qualitative data. British Journal of Psychology, 3, 166-185.

Carroll, J. B. (1961). The nature of the data or how to chose a correlation coefficient. Psychometrika, 26, 4: 347-371

Christoffersson, A. (1975). Factor analysis of dichotomized variables. Psychometrika, 40, 5-32.

Fraser, C. (1988). NOHARM. Armidale. Univ. of New England.

Harman, H. (1980). Análisis factorial moderno. Madrid: Salts.

Jöreskog, K. G. y Sörbom, D. (1989). Lisrel 7 User's reference guide. Mooresville. Scientific Software.

Kim, J. y Mueller, Ch.W. (1978). Factor analysis. Newbury Park: Sage.

Lord, F. M. (1980). Applications of item response theory to practical testing problems. Hillsdale: L.E.A.

Martin, W. S. (1978). Effects of scaling on the correlation coefficient. Additional considerations. Journal of marketing research 15, 304-308.

McDonald, R. P. (1967). Non-linear factor analysis. Psychometric Monograph n.° 15.

Muthen, B. (1984). A general structural equation model with dichotomous, ordered, categorical and continuous latent variable indicators. Psychometrika, 49, 115-132.

Muthen, B. (1987). LISCOMP: Analysis of linear structural equations with a comprehensive measurement model. Mooresville. Scientific Software.

Nunnally, J. (1987). Teoría psicométrica. México: Trillas.

Olsson, U. (1979). On the robustness of factor analysis against crude classification of the observations. Multivariate Behavioral Research. 14,485-500.

Olsson, U., Drasgow, F. & Dorans, N. J. (1982). The polyserial correlation coefficient. Psychometrika, 4, 337-347.

Parry, Ch. D. y McArdle, J. J. (1991). An applied comparison of methods for least squares factor analysis of dichotomous variables. Applied Psychological Measurement 15 (1), 35-46.

Aceptado el 30 de noviembre de 1993

Impact Factor JCR SSCI Clarivate 2023 = 3.2 (Q1) / CiteScore SCOPUS 2023 = 6.5 (Q1)