INFORMACIÓN

La revista Psicothema fue fundada en Asturias en 1989 y está editada conjuntamente por la Facultad y el Departamento de Psicología de la Universidad de Oviedo y el Colegio Oficial de Psicología del Principado de Asturias. Publica cuatro números al año.
Se admiten trabajos tanto de investigación básica como aplicada, pertenecientes a cualquier ámbito de la Psicología, que previamente a su publicación son evaluados anónimamente por revisores externos.

PSICOTHEMA
  • Director: Laura E. Gómez Sánchez
  • Periodicidad:
         Febrero | Mayo | Agosto | Noviembre
  • ISSN: 0214-9915
  • ISSN Electrónico: 1886-144X
CONTACTO
  • Dirección: Ildelfonso Sánchez del Río, 4, 1º B
    33001 Oviedo (España)
  • Teléfono: 985 285 778
  • Fax:985 281 374
  • Email: psicothema@cop.es

Psicothema, 1996. Vol. Vol. 8 (Suplem.1). 293-325




LA ESTRUCTURA DIFERENCIAL DE LA INTELIGENCIA: EL ENFOQUE FACTORIAL

Mariano Yela

Tratado de Psicología General. Pensamiento e inteligencia.

La psicología de la inteligencia abunda en perplejidades y polémicas y es copiosa en cuestiones disputadas y problemas no resueltos. Hay, sin embargo, algunas cosas que hoy parecen razonablemente claras, aunque, conviene decirlo también, no del todo comprendidas ni unánimemente aceptadas. Yo diría que, al menos, estas tres.

PDF

1. Introducción

La psicología de la inteligencia abunda en perplejidades y polémicas y es copiosa en cuestiones disputadas y problemas no resueltos. Hay, sin embargo, algunas cosas que hoy parecen razonablemente claras, aunque, conviene decirlo también, no del todo comprendidas ni unánimemente aceptadas. Yo diría que, al menos, estas tres.

Primera: la inteligencia surge y se enriquece a lo largo de la evolución de la vida, de alguna manera ligada al desarrollo de la capacidad de excitación y respuesta, a la progresiva diferenciación de funciones, a su integración a niveles cada vez más complejos, a la organización de un sistema nervioso y, finalmente, a la encefalización y corticalización crecientes. En este proceso van apareciendo organismos dotados de mayor control sobre el medio en que viven y de una autonomía más amplia y profunda frente a él. El grado de control y autonomía es un índice de la inteligencia de cada especie (Jerison, 1973, 1982; Laín, 1989; Yela, 1981 a; Zubiri, 1964, 1986).

La segunda cosa suficientemente clara es que esta evolución culmina, por el momento y por lo que sabemos, en el ser humano. Debido a su peculiar inteligencia inaugura el hombre, en las relaciones del ser vivo con su medio, una nueva forma de comportamiento, ya prefigurada en el animal (Griffin, 1986). Aparece, en efecto, en la persona humana, con características irreductibles a la actividad animal, aunque no inconexas con ella, la conducta responsable y personalmente apropiada y autoposeída y, con ella, una nueva forma de vida, la biográfica y un nuevo nicho ecológico, la historia y el mundo cultural (Yela, 1981 a, 1983, 1987a y b).

La tercera cuestión que me parece aceptablemente clara es que la inteligencia afecta a todas las dimensiones de la conducta y que ninguna puede ser cabalmente comprendida ni explicada sin apelar a ella. En el caso del hombre, la inteligencia inaugura nuevas formas de pensamiento, como las operaciones formales y abstractas, el raciocinio lógico, la comprensión reflexiva o la invención, que hacen posible la aparición, en el mundo, del saber hacer según reglas descubiertas, inventadas y transmitidas históricamente -la técnica y el trabajo-, el saber hacer y explicar según razones -la ciencia y la filosofía-, y el saber hacer según la creación simbólica y semántica -el arte, el lenguaje, la poesía-. La inteligencia -la nuestra- inaugura también, en el curso de la vida, la transformación de la sensibilidad, del afecto y la emoción en sentimiento espontáneo y reflexivo en sí mismo; la modulación de la memoria en recuerdo autobiográfico y en continuo proceso de reconstrucción del sentido personal que para cada uno tiene su pasado -«no está el mañana ni el ayer escrito», escribió Antonio Machado-; la elevación del movimiento voluntario a conducta deliberada y proyectiva, y, en fin, la constante y siempre inconclusa invención de nuevas necesidades, motivos y metas: la historia de la humanidad consiste, muy principalmente, en la invención de nuevos fines y aspiraciones, más allá de los imprescindibles para sobrevivir, y en la elaboración -y también en la degradación y pérdida de nuevos recursos para hacerlos efectivamente posibles. Por su inteligencia, la necesidad más típica y exclusiva de la persona humana es tener que inventar nuevas necesidades de conocimiento y conducta para proseguir una vida que merezca la pena, para elegir la palabra apropiada («inteligencia, dame la palabra exacta», pedía Juan Ramón Jiménez) y para intentar desvelar el sentido de la realidad, de la vida y de la muerte.

La tradición psicológica ha usado el término pensamiento para referirse preferentemente a la formación y adquisición de conceptos y categorías, a los procesos de evaluación intelectual y a las diversas formas de razonamiento y solución de problemas. Suele reservar la palabra inteligencia para designar los diversos niveles en los que se elabora la conducta adaptativa más o menos innovadora y para señalar los distintos grados en que estos fenómenos y procesos se manifiestan en los diferentes individuos y grupos, sincrónicamente, en un momento dado, o diacrónicamente, a través de la evolución filogenética de las especies y del desarrollo ontogenético de los individuos. El presente volumen considera algunos aspectos principales de estas cuestiones y trata de aclarar cómo funciona la inteligencia en la conducta humana, a través de los componentes, estructuras y estrategias del pensamiento y, en general, del sistema cognitivo.

Con sólo lo dicho, se comprende que el tema de la inteligencia es sumamente vasto y complejo. Presenta a la indagación una inagotable multilateralidad, solamente abordable mediante enfoques diversos, cuyos resultados, para ser convincentes, deben converger y complementarse. En la medida en que lo hacen, la ciencia avanza. En la medida en que discrepan, se oponen, se contradicen o se ignoran o desconocen entre sí, la ciencia psicológica se confunde, estanca o fragmenta. Está hoy bastante claro que ningún enfoque hasta ahora ensayado ha resultado suficiente y que la investigación psicológica de la inteligencia ha de ser multiparadigmática e interparadigmática, según distintas orientaciones teóricas y tecnológicas, cada una de las cuales ha de tener presentes a las demás, para corregirse y ampliarse, tomar conciencia de las discrepancias y resolverlas o atenuarlas (Yela, 1987a, 1989).

De hecho, esta multiplicidad de enfoques, por lo general dispersos e inconexos, ha sido una constante en la ciencia psicológica de la inteligencia, desde sus comienzos. Ha existido siempre una orientación predominante experimental y de investigación en el laboratorio, al menos desde Külpe y la escuela de Wurzburgo, a principios de nuestro siglo (Aebli, 1980; Berlyne, 1965; de Montpellier, 1949, 1977), y un enfoque psicométrico y correlacional, al menos a partir de Galton, Binet y Spearman, desde los mismos años o un poco antes (Burt, 1941; Spearman, 1927; Stemberg y Detterman, 1979, 1986). Las que Cronbach (1957) llamó las dos disciplinas de la psicología, la experimental y la correlacional, han estado y están presentes en la indagación científica de la inteligencia, a veces enriqueciéndose mutuamente, con más frecuencia cada una por su lado, desconociéndose.

Estas dos grandes corrientes metodológicas se han aplicado al examen de tres grandes cuestiones: la general, la diferencial y la genética. La psicología general de la inteligencia trata de averiguar las regularidades, normas y leyes que rigen su estructura y dinamismo. La diferencial, de descubrir las aptitudes y los componentes que la constituyen y en los que los individuos y los grupos difieren. La genética, de indagar el origen y desarrollo de los componentes, los procesos, las estructuras y las aptitudes. De nuevo, el progreso de la investigación reclama tanto la continuidad y profundización del estudio de la inteligencia en estas tres perspectivas, cada una con el doble enfoque metodológico experimental y correlacional, como el examen de sus convergencias y discrepancias, para que todas puedan, en lo posible, converger y complementarse entre sí (Yela, 1987c).

La complejidad de la inteligencia exige, finalmente, una multiplicidad de orientaciones teóricas, distintas, pero interdependientes. Todas ellas, con muy diversas modulaciones, en las que no hace al caso entrar aquí, pueden, creo, resumirse en tres: la conductista, la cognitiva y la psicología de lo consciente. A mi juicio, todos estos enfoques teóricos y metodológicos -y algunos más que en otros lugares he considerado (1987a, 1989)- son necesarios para indagar las distintas facetas y los diversos niveles que presenta la inteligencia, pero ninguno es suficiente.

Porque el psicólogo es, en alguna medida, inteligente, puede en efecto estudiar la inteligencia. Si no ¿cómo podría hacerlo? Y lo puede hacer, previamente y ante todo, porque, al conducirse, se encuentra con su conducta y puede hacerse, entonces, problema y cuestión de ella. Si se limitase a ejecutar su conducta y no se encontrase con ella como objeto y realidad, no podría indagarla. La conducta del psicólogo es, intrínsecamente, una conducta sobre la conducta, una metaconducta. No es que su comportamiento esté más allá de su conducta, es simplemente que versa sobre la conducta misma. Pero, eso mismo la acontece o puede acontecer, en grados y con matices muy diversos, a toda conducta humana. El hombre -como el psicólogo, que, aunque a veces no lo parezca, no es más que un hombre-, no sólo se conduce, se da o puede darse cuenta de que lo hace y, en la medida en que esto le acontece, puede indagar su conducta, tratar de conocer su procesos y mecanismos, de alguna manera intervenir en ellos y, en algún grado, disponer de ellos, hacerlos propios y personales y modificarlos. Al responder se encuentra, en alguna medida, con su respuesta y tiene que responder de ella. La conducta del hombre, por ser de algún modo metaconducta, es responsiva y responsable. Esa es, a mi juicio, la característica fundamental de la inteligencia humana, considerada desde el punto de vista de la ciencia empírica: permitir y exigir una conducta que sea o pueda ser metaconducta, inaugurar en la evolución de la vida una nueva forma de vivir: la conducta personal y responsable.

La psicología trata de la conducta. Es el único campo en el que todos los enunciados psicológicos pueden ser sometidos a comprobación por el que los formula y por los demás. Fuera de esta posibilidad intersubjetiva de comprobación, confirmativa o refutadora, no hay ciencia, si a este término no se le quiere diluir en conceptos vagos o equívocos. La psicología estudia la inteligencia a través de la conducta inteligente. Es la razón, a mi entender inesquivable, que asiste al conductismo. Prescindir de las orientaciones conductistas o menospreciarlas, desde Watson, Hull y Tolman a Skinner, Berlyne o Staats, es desatender una de las fuentes imprescindibles de conocimientos acerca de la conducta inteligente, sus orígenes, su desarrollo y su modificación y terapia.

Pero la conducta -me limitaré en esta ocasión a la humana, que es la que más directamente se considera en este volumen no se reduce a conexiones externas o encubiertas entre estímulos físicos y movimientos físicamente registrables, como suele postular el conductismo. Sin ellas, ciertamente, no habría conducta, porque ésta es siempre una acción elaborada y ejecutada en el mundo espacio temporal en el que el hombre vive y actúa. Pero sólo con ellas la conducta no sería ni siquiera identificable para el psicólogo que la estudia (Yela, 1963, 1974, 1984). La conducta es una acción significativa, físicamente real: comer o ayunar, trabajar o descansar, gozar o sufrir, hablar o callar, atacar o defenderse, pensar, sentir, desear o proyectar. Se elabora y ejecuta no sólo, aunque también, como reacción somática de tal o tales neuronas y músculos a tal energía física estimulante, sino, fundamentalmente y sobre todo, como acción corpórea del sujeto, significativa para él. La conducta es acción corpórea, externamente observable o internamente registrable, que significa algo para alguien. El algo es la situación estimulante, actual, recordada o proyectada, como objeto y fin de la acción. El alguien es el sujeto que la percibe, recuerda o proyecta. La relación significativa del sujeto al objeto es lo que se llama conciencia. Sin conciencia de la acción, la conducta, no podría ser estudiada. En realidad, sin alguna referencia a la conciencia no habría ni acción, ni conducta. La psicología científica de la inteligencia exige el estudio de la conducta cognitiva consciente. A esa exigencia han respondido y responden múltiples orientaciones de la psicología, desde James, Külpe o Binet a Natsoulas, Paivio o Simon (Pinillos, 1983; Yela, 1974, 1987a). Desatender este enfoque empobrece a la psicología y negarlo equivale a eliminar su posibilidad.

Pero la conciencia lo es de la acción. La conciencia no se manifiesta a la experiencia empírica como una realidad separada y transparente a sí misma, sino como un momento de la acción físicamente real del sujeto. El sujeto es, en alguna manera y medida, consciente. Si no lo fuera, no sería sujeto ni, por lo demás, estaríamos ahora ocupándonos de la inteligencia. El sujeto es consciente, pero no es conciencia. La acción es consciente es acción de un sujeto corpóreo. Soy consciente de que pienso y, en cierto grado, de cómo, por qué y para qué pienso. Pero mi acción de pensar no me es del todo transparente. No soy consciente de toda la actividad que acontece en mi acción de pensar. No lo soy, desde luego y por ejemplo, de mi actividad cerebral, cuyo estudio va revelando al hombre, parcial y laboriosamente, mecanismos y procesos sin los cuales no podría pensar y permitiéndole, justamente, hacerse, de algún modo, consciente de los componentes corpóreos de su acción inteligente. No soy tampoco consciente por entero de los procesos y estructuras mentales por los que pienso, ni de las normas y leyes que los rigen. Todo esto tengo que averiguarlo también poco a poco, indirectamente y con trabajo. Es lo que procura descubrir la llamada psicología cognitiva, hoy predominante, de Bruner, Neisser o Winograd a Sternberg o Simon.

Todos estos enfoques, y otros muchos más, como los psicoanalíticos, los fenomenológicos o los humanistas, son necesarios, al menos como fuente de conceptos, problemas o hipótesis. Ninguno, sin embargo, es suficiente, porque ninguno abarca todas las facetas y niveles de la conducta inteligente. Cada uno debe contrastarse con los demás y corregirse en lo que resulte incoherente con los otros, para, complementándose entre sí, avanzar en el conocimiento de la acción inteligente, corpórea, consciente y mental (Laín, 1989; Yela, 1987a, 1989, en prensa).

La conducta inteligente, como realidad corpórea significativa, es, si bien se mira, el punto de partida o de llegada de lo más saliente de la psicología contemporánea. Skinner afirma que «el yo que controla debe distinguirse del yo controlado, aun cuando ambos queden dentro de la misma piel» (1972, p. 255). Staats incorpora la conciencia, la acción significativa y la personalidad a su conductismo paradigmático (Staat, 1989; Psicothema, 1989). Herbert Simon, nuestro flamante premio Nobel, integra en su metodología cognitiva la introspección controlada del pensamiento en voz alta (Ericsson y Simon, 1984); Rubin (1986) recoge los aspectos autobiográficos del sistema cognitivo de la memoria; el último objetivo de Freud es ayudar al yo consciente a comprender, en lo posible, los mecanismos inconscientes -wo Es war, soll Ich werden: donde era el Ello, debe ser el Yo-; la neuropsicología de Luria (1977), versa sobre una conciencia de raíces biológicas, sociales e históricas, y desde la filosofía de la existencia, de Jaspers a Merleau-Ponty, a la filosofía española, la inteligencia se revela en una realidad corpórea consciente: la vida humana incluye su propia interpretación -Ortega- o la impresión de realidad, de la que toda indagación parte, le es accesible al hombre por su inteligencia sentiente -Zubiri- (vid. Laín, 1989; Marías, 1983).

De esta multiplicidad de enfoques, que he tratado de justificar con más pormenor en otros lugares (1963, 1987a, 1987c, 1989), este volumen examina algunos de los que actualmente versan de manera explícita sobre el pensamiento o la inteligencia y aplican para su estudio una metodología, en último término, empírica o experimental. En el capítulo que sigue voy a exponer uno de ellos, el enfoque diferencial, considerado a través de una metodología concreta, la factorial. Procuraré mostrar, asimismo, sus principales relaciones con los otros enfoques, sus concordancias y discrepancias con ellos, sus ventajas peculiares y sus insuficiencias y limitaciones.

2. Origen, historia y situación actual

El análisis factorial es un conjunto de técnicas de carácter predominantemente matemático que pretende examinar las covariaciones observadas en un determinado campo empírico y descubrir las variables teóricas fundamentales en función de las cuales pueden expresarse esas covariaciones. Su primera elaboración se debe, sobre ideas precursoras de Galton y Pearson, a Spearman (1904, 1927). La cuestión que se formula Spearman es la siguiente: ¿Hay una inteligencia o varias o ninguna? O; dicho con más rigor, ¿los datos empíricos permiten afirmar que la inteligencia es una y la misma aptitud que se expresa en todos los comportamientos inteligentes, o bien que estos comportamientos ponen de manifiesto aptitudes diferentes o, en fin, que no hay ninguna aptitud, sino comportamientos distintos, producto de distintos aprendizajes? Spearman avanza la hipótesis de que las actividades cognitivas son función de un factor general, común a todas ellas, y de un factor específico independiente, exclusivo de cada una.

De esta hipótesis se deducen matemáticamente dos consecuencias comprobables. Primera, que todas las correlaciones, rjk, entre tests cognitivos cualesquiera, «j» y «k», deben ser positivas, pues en todos participa el factor general, pero no perfectas, pues en cada una interviene un factor específico independiente. Segunda, que la tabla de correlaciones entre tests cognitivos debe tener las columnas proporcionales entre sí, o, según la terminología de Spearman, que las tablas de correlaciones, «R», deben formar una jerarquía. Numerosos estudios confirmaron estas predicciones. Spearman examina la actividad que reclaman los distintos tests, según el peso que en cada uno tiene el factor general, y concluye que éste consiste en procesos abstractivos y relacionantes (1946).

En este primer período del análisis factorial de la inteligencia, que podemos llamar unifactorial y que se extiende aproximadamente durante el primer tercio de nuestro siglo, surge otra concepción, la teoría muestral de Thomson (1916, 1939). Según ella, las dos predicciones observables pueden deducirse suponiendo, no la existencia de un factor general y múltiples factores específicos, sino la ausencia de todo factor. La inteligencia estaría constituida por una población de elementos muy numerosos, distintos, equivalentes e independientes. Cada actividad inteligente sería una muestra aleatoria de esa población, fija en el número de elementos que exige, según su complejidad, pero no en los elementos concretos extraídos, que pueden ser cualesquiera. La correlación entre dos tests sería función del número de elementos, que por azar, resultaran comunes a las dos muestras correspondientes. A partir de estos supuestos Thomson demuestra matemáticamente que las correlaciones deben ser positivas y las tablas de correlaciones, jerárquicas. Los elementos serían componentes muy simples del fondo causal de la mente o la conducta, como ideas, imágenes, recuerdos, asociaciones y reflejos.

Como tantas veces en la ciencia, durante este período del análisis unifactorial -un solo factor general o una sola población de elementos- dos teorías distintas son compatibles con los datos observables.

Pronto, sin embargo, se muestra la insuficiencia de ambas teorías (Yela, 1956). A medida que los estudios se hacen más rigurosos, se comprueba que, si bien las correlaciones suelen, en efecto, mantenerse positivas, las tablas de correlaciones, por el contrario, se alejan más y más del orden jerárquico. Las correlaciones positivas indican que hay algo común a todas las actividades cognitivas -el factor general-, pero la ausencia de jerarquía muestra que, cuando se elimina de las correlaciones el influjo de este factor, los residuos no son nulos; queda algo de común a ciertos grupos de pruebas, pero no a todas. Es preciso admitir, además del factor general y los específicos, otros factores de grupo, comunes a ciertos tipos de tests, pero no a todos, como el verbal y el espacial (Brown y Stephenson, 1933; El Koussy, 1935).

Se inicia, así, el análisis factorial múltiple, cuya primera sistematización se debe a Burt (1941), quien asimismo defiende un nuevo concepto de jerarquía: la inteligencia estaría formada por una jerarquía de factores, del general a los específicos, pasando por otros de diversos niveles de amplitud.

El desarrollo de la investigación factorial de la inteligencia en la escuela inglesa sigue esta línea hasta hoy. La inteligencia consiste, según esta escuela, en una jerarquía ortogonal de factores independientes entre sí.

Los argumentos, sin embargo, no son convincentes. Es verdad que, si el factor general existe, las correlaciones tienen que ser positivas, pero el que éstas lo sean no implica necesariamente que exista un factor general. Puede o no existir. Thurstone propone, al comienzo de los años treinta, un modelo general, que es el que en la actualidad, con ciertas modificaciones, predomina (1935, 1947). Cada actividad cognitiva es función de un número de factores comunes a esa actividad y a otras y de un factor único y exclusivo de ella. El número de factores comunes y su carácter general o de grupo es una cuestión que deben decidir los datos empíricos. Estos justifican la admisión de las que Thurstone llamó aptitudes mentales primarias: de razonamiento, verbales, espaciales, numéricas, mnemónicas, perceptivas y psicomotrices (1938). La aplicación, a partir de Thurstone, del álgebra de matrices y del principio de estructura simple, así como, ulteriormente, el uso fácil, automático y creciente del ordenador, hace que proliferen tanto los estudios factoriales como los factores, que pronto superan los varios centenares (Ekstrom et al., 1979; French, 1951; French et al., 1963; Oléron, 1957; Recarte, 1981). La idea original de Spearman era explicar el número ilimitado de tests cognoscitivos distintos mediante una sola noción central, el factor «g»: «G» y después: una escuela para acabar con todas las escuelas, tal fue el título de uno de sus trabajos (1930). El desarrollo del método ha desautorizado esta pretensión. Los factores han resultado ser casi tan abundantes como antes eran los tests. No es extraño que hayan cundido el desaliento y las críticas al sistema.

Sin embargo, el interés por la investigación factorial de las aptitudes ha vuelto a renacer en los últimos años. Hay razones para ello. Primero ¿por qué no admitir un número elevado de aptitudes? Si, como en otro contexto adujo Ortega (1946, p. 287), hay millones de especies vegetales y animales, ¿por qué han de ser menos ricas la flora y la fauna del psiquismo? En segundo lugar, multiplicidad no es lo mismo que caos. Los múltiples factores manifiestan un cierto orden. Por una parte, pueden ser clasificados por las facetas sistemáticas que las actividades cognitivas ofrecen. El modelo de la estructura del intelecto, de Guilford, es el intento más comprensivo de esta índole (Guilford, 1967; Guilford y Hoepfner, 1971).

Las actividades cognitivas pueden diferir según las operaciones mentales que requieren, los contenidos sobre que versan y el producto final que se pretende conseguir. Según este modelo, cabe prever la existencia de 120 factores, muchos de los cuales han recibido confirmación. Por otra parte, los factores no son independientes entre sí. El análisis de sus correlaciones muestra que cada uno comprende varios subfactores y se subordina a otros de orden superior. El conjunto conduce a concebir la inteligencia como una jerarquía oblicua de factores, distintos pero interdependientes. Las últimas investigaciones tanto del análisis factorial exploratorio como del confirmatorio apoyan esta interpretación (Gustafsson, 1984, 1988). La teoría de la inteligencia como un continuo de covariación heterogéneo y jerarquizado resume, a mi juicio, los resultados hasta ahora obtenidos (Yela, 1987c). El continuo de covariación justifica la admisión de un factor general. La heterogeneidad de este continuo fundamenta la admisión de numerosos factores comunes, distribuidos en una jerarquía de diversos órdenes. En esta jerarquía los factores de mayor amplitud son el factor general de inteligencia, equivalente a la llamada inteligencia fluida -procesos relacionantes y abstractivos sobre material no habitual-, y los grandes factores de inteligencia critalizada -los mismos proceso sobre material previamente organizado, especialmente de carácter verbal-, de inteligencia espacial, de fluidez, de rapidez y flexibilidad y de memoria. Todos ellos se subdividen, a su vez, en varios órdenes de amplitud decreciente.

En lo que sigue examinaré brevemente, pero con mayor pormenor, el cuadro general que queda expuesto, así como las indudables limitaciones del enfoque factorial de la inteligencia.

3. Spearman y el factor «g»

Spearman parte de dos nociones elementales: el test y la correlación. Un test suficientemente coherente y fiable y rigurosamente aplicado representa una variable empírica, es decir, una tarea en cuya resolución los sujetos varían. Una correlación entre variables indica que dependen de algo común. El análisis de las correlaciones entre muy diversos tests cognitivos, perceptuales, de memoria, de razonamiento y de solución de problemas, puede permitir ir descubriendo la variable o variables teóricas de que dependen las diferentes y, en principio, innumerables variables empíricas de carácter cognitivo.

Sobre numerosas observaciones previas, entre las que sobresale el hecho reiteradamente comprobado de que las correlaciones entre este tipo de tests tienden a ser positivas, Spearman formula una hipótesis y elabora un procedimiento para someterla a prueba (1927). La hipótesis consiste en suponer que la puntuación de cada sujeto en cada test es función de dos factores, independientes entre sí, uno general, que llama «g», común a todos los tests cognitivos, y otro específico, que se llama «s», exclusivo de cada test. Como primera aproximación, define esa función de forma lineal. En términos matemáticos:

Zji = fjg Zgi + uj Vji ; rgsj = rSjSk = 0 [1] donde, Zji Zgi y Vji, son las puntuaciones del sujeto «i» en el test «j» y en los factores «g» y «sj»; fjg y uj son los coeficientes factoriales de «j» en «g» y en «sj», y rgSj y rSjSk, son las correlaciones, definidas como nulas, entre los factores.

De [1] se sigue que todas las correlaciones entre cada dos tests cognitivos han de ser positivas, pues todos tienen de común el factor «g», y que las columnas de las tablas de correlaciones entre este tipo de tests tienen que ser proporcionales y formar, así, una jerarquía.

En efecto, sean «a», «b», «c», «d»... unos tests cognitivos y tomemos dos columnas «c» y «d» cualesquiera de la tabla de sus correlaciones. La correlación entre dos tests, por ejemplo, «a» y «c», cuando de ella se elimina el influjo de «g» -lo único que tienen de común, según la hipótesis- será nula. Por la fórmula de la correlación parcial:


Lo que implica rac = rag rcg [ 2 ]

Por consiguiente, las dos columnas «c» y «d» serán proporcionales:

ya que, al substituir cada correlación «rac» por su equivalente «rag rcg», resulta:

Spearman y sus seguidores comprueban que numerosas tablas de correlaciones entre tests cognitivos cumplen esas dos condiciones (Yela, 1956). La hipótesis está, pues, confirmada por los datos. Spearman desarrolla procedimientos para someter a prueba estadística las desviaciones de las columnas respecto a la prevista proporcionalidad y para estimar los coeficientes factoriales de cada test en «g» y en «s» y las puntuaciones factoriales de cada sujeto en ambos factores (Spearman, 1927; Yela, 1956).

El examen, predominantemente introspectivo, de los procesos que requieren las contestaciones a los tests indica que, cuanto más altos son sus coeficientes factoriales en «g», tanto más exigen la aprehensión de relaciones y la educción de relaciones y correlatos, especialmente si se efectúan sobre términos abstractos. En sus libros La naturaleza de la inteligencia y los principios de la cognición (1923) y Las aptitudes del hombre (1927), así como en sus investigaciones empíricas (Holzinger, 1934, 1935, 1936), Spearman expone y justifica su interpretación de «g». La ofrece de tres maneras: el hecho estadístico, la descripción psicológica y la teoría general.

Desde el punto de vista estadístico, «g» es la parte común, simple o compleja, de la varianza de todo test que se ajuste a la jerarquía. La importancia teórica y práctica de «g» crecerá en la medida en que se compruebe, como Spearman esperaba y en buena parte se logró, que muestras cada vez más amplias y variadas de tests cognitivos se ajustan a la jerarquía.

Psicológicamente, «g» puede describirse, según queda dicho, como formado por procesos abstractivos y relacionantes. El núcleo central de la inteligencia consistiría en la actividad noegenética -generadora de conocimiento-, mediante la toma de conciencia de la experiencia, la educción de relaciones (por ejemplo, dado «padre» e «hijo», percatarse que están ligados por relaciones como parentesco, paternidad, más viejo que, etc.), y la educción de correlatos (por ejemplo, dado un círculo y la relación «mayor que», idear un círculo menor). Spearman muestra que los coeficientes en «g» varían concomitantemente con la exigencia de ejercitar estas actividades, al menos si, al tiempo, varía el carácter abstracto de los problemas. El factor «g» sería, en resumen, abstracción y noegénesis, y éstas serían las propiedades fundamentales de toda operación cognitiva (Spearman, 1946; Spearman y Jones, 1950). Es lo que he llamado el monismo gnoseológico de Spearman (Yela, 1956): todo conocimiento se constituirá por la actividad abstractiva y relacionante. En otro lugar he mostrado que esta interpretación no viene avalada por los resultados factoriales. Incluso si éstos permiten sostener que «g» consiste en esa actividad, lo que se habría probado sería que tal actividad interviene en toda conducta cognitiva, que es lo único que miden los tests y lo único que se refleja en las correlaciones, pero no necesariamente que forma parte intrínseca de toda operación mental de carácter cognitivo (Yela, 1956).

La teoría general de Spearman consiste en interpretar «g» como la energía mental. Los procedimientos del análisis factorial no permiten confirmar ni refutar esta teoría, pues no hay manera de comprobar la supuesta variación concomitante entre la contidad de energía mental que puedan exigir los tests y sus coeficientes factoriales (Yela, 1956).

Por lo demás, la metodología de Spearman no está exenta de insuficiencias. Sus pruebas estadísticas no están rigurosamente fundamentadas; los errores muestrales y de fiabilidad son cuantiosos, debido sobre todo al número escaso de sujetos y de tests a que le obligó la penuria de medios entonces disponibles. Pero, principalmente, carece de justificación la llamada «purificación de las baterías». Según la hipótesis de Spearman, los tests usados en un experimento deben ser claramente distintos. Si dos o más son juzgados a priori como semejantes, todos menos uno tienen que ser eliminados antes del análisis, porque, según la propia hipótesis, van a perturbar la jerarquía, al tener en común no sólo «g» sino sus factores específicos o parte de ellos. Pero el hecho es que, para obtener una muestra amplia y variada de tests que formaran una jerarquía, era con frecuencia necesario prescindir de los tests que la perturbaban, es decir, eliminar los tests que, por perturbarla, se juzgaban a posteriori como semejantes. Así lo mostró el más cuidadoso trabajo realizado por aquellos años (Brown y Stephenson, 1933; Yela, 1956). La base más firme de «g» es la jerarquía. Pero, en definitiva, la jerarquía entre muestras amplias de tests sólo se obtiene ¡si se eliminan los tests que la perturban! Con lo que no queda demasiado claro que los tests cognitivos sólo tengan de común el factor «g». Lo que sí demostró Spearman, y sigue comprobándose, es la tendencia de los tests cognitivos a formar una jerarquía, aunque ésta diste mucho de ser perfecta.

Entre las funciones capitales de lo que justificadamente puede llamarse inteligencia general figuran las noegenéticas, relacionantes y abstractivas. No está demostrado, sin embargo, que éstas sean las únicas que, aparte los factores específicos, intervengan en todas o en algunas de las conductas inteligentes.

4. Thomson y la teoría muestral de la inteligencia

Thomson (1916, 1939) acepta los dos hechos comprobados por Spearman: el predominio de las correlaciones positivas y el orden jerárquico. Pero propone, para explicarlos, otra teoría: la muestral (sampling theory). Supone, como dije, que la inteligencia es una población de elementos, muy numerosos, distintos, equivalentes e independientes. No están organizados en ninguna estructura formada por factores o aptitudes. Cada actividad consiste en una muestra aleatoria de esos elementos, que constituyen la inmensa riqueza de posibilidades de la mente. Cada tarea, según su complejidad, exige poner en marcha un número determinado de elementos, pero no unos elementos determinados. La correlación entre dos actividades depende del número de elementos que, por azar, resultan comunes a ambas. En estos supuestos, se demuestran las dos conclusiones tantas veces mencionadas.

En efecto, si el número total de elementos es «N» y cada actividad «j» o «k» exige una proporción de terminada de ellos, «Pj» o «Pk», el número de elementos de «j» será «Npj» y el de «k», «Npk». Asimismo, la varianza de cada test dependerá del número de sus elementos:

La correlación entre «j» y «k» viene dada por la fórmula habitual de Pearson:

donde σjk es la covarianza entre «j» y «k» o, según la hipótesis de Thomson, el número de elementos que, por azar, resultan comunes a las dos muestras. No conocemos ese número, pero el más probable, si las muestras son independientes, como supone la teoría, será el producto de sus proporciones:

σjk = Npppk [ 7 ]

De lo que resulta:

y, sustituyendo la correlación entre cada dos tests por su equivalente en [8]:

Es decir, en cada para de columnas de la tabla de correlaciones serán proporcionales, que es lo que se quería demostrar.

Los hechos observados no resultan de la acción del factor «g» y los específicos, como suponía Spearman, sino de la ausencia de todo factor. La inteligencia es un conjunto casi ilimitadamente rico de posibilidades de acción, representado por un número muy abundante de elementos, sobre los que operan las leyes de la probabilidad. Cada acción resulta de un patrón de conexiones (bonds) entre un número determinado de elementos, pero puede formarse con muy distintos conjuntos de ellos. Psicológicamente, los elementos son algo así como componentes muy simples de la mente y el comportamiento, sensaciones, perceptos, imágenes, recuerdos, ideas, movimientos, hábitos, reflejos innatos y adquiridos... Fisiológicamente, la inteligencia está ligada a la actividad de la corteza cerebral. Cada acción inteligente pone en función un número de neuronas o conexiones sinápticas. Pocas, por ejemplo, al hacer una suma; muchas, al idear la teoría de la relatividad. Pero no necesariamente éstas o las otras neuronas o sinapsis, sino cualesquiera, con tal que se pueda establecer el suficiente patrón de conexiones.

La teoría de Thomson es sutil y discutible. Es difícil admitir que los elementos psicológicos que se activan en las conductas inteligentes son equivalentes e independientes. Para resolver un test de silogismos ¿dará igual poner en marcha cualesquiera sensaciones, ideas, reflejos o movimientos musculares? Y, sea de esto lo que fuere, en la acción ¿se ponen en marcha elementos independientes o más bien, como todo parece indicar, configuraciones y patrones de ellos? En resumen, si los elementos son efectivamente equivalentes e independientes, la demostración de Thomson es válida y pertinente. Si no lo son, como no parece sensato suponer que lo sean, esa demostración es un ingenioso artificio matemático, pero carece de sentido psicológico. Al menos, no tiene el sentido literal que parecen implicar con frecuencia, aunque no siempre, las afirmaciones de Thomson. Lo que sí puede ser fecundo en sus ideas es considerar que las actividades mentales no dependen de aptitudes formadas de una vez para siempre, ni de zonas cerebrales o neuronas determinadas e incanjeables, sino que pueden estructurarse de diversas maneras, depender de aptitudes modificables y apoyarse en patrones neurales relativamente flexibles y cambiantes respecto a las neuronas y sinapsis sobre las que se organizan. Las sutiles observaciones de Thomson serán siempre un antídoto contra toda concepción de las aptitudes como «cosas» o «rasgos» fijos e invariables (Yela, 1956).

5. El análisis factorial múltiple. Burt, la escuela inglesa y la jerarquía ortogonal

Las teorías de Spearman y Thomson forman la base de la investigación ulterior. Es lamentable que apenas se tengan en cuenta en los estudios actuales, por el frívolo prurito de estar al día y no citar más que la bibliografía reciente. Mi parecer es que sus ideas fundamentales mantienen su validez y hay que volver a ellas y revisarlas críticamente de continuo. Contienen aciertos capitales: el factor «g», como abstracción noegenética, y la fundamentación de los factores sobre componentes flexibles y modificables. Sin embargo, ninguna de las dos teorías es del todo correcta. La base de ambas es el orden jerárquico de las correlaciones. Ocurre, de hecho, que, a medida que los estudios aumentan en rigor, las muestras de sujetos y de tests son más amplias y la fiabilidad de los tests más elevada, la jerarquía, en lugar de manifestarse con mayor claridad, se perturba más y más. Es preciso admitir, además de un factor general o de una única población de elementos, otros factores comunes, aunque no generales, lo que termina por aceptar Spearman (1933, 1950), o una cierta organización de interdependencia entre los elementos, que se manifiesta en forma de varias subpoblaciones (subpools of the mind), como acaba de admitir Thomson (1939, p. 301), si bien los factores que puedan corresponder a estas subpoblaciones serán, en todo caso, interdependientes.

El primero en sistematizar estas nociones y resultados fue Burt (1941). Su razonamiento fundamental es el siguiente. Las correlaciones entre tests cognitivos son positivas: hay que admitir un factor «g». Pero no son jerárquicas: hay que aceptar factores comunes a ciertos grupos de tests, pero no a todos, y que, por eso, alteran la jerarquía.

Con Burt se establece, por primera vez de forma comprensiva y sistemática el análisis factorial múltiple y el concepto de jerarquía de factores. Las actividades cognitivas son función de un factor general y varios de grupo, además de los específicos. Burt desarrolla una metodología que permite extraer, primero, el factor general y, luego, sucesivamente los diversos factores de grupo, todos estadísticamente independientes. Los resultados que obtiene son coherentes con la hipótesis de una jerarquía ortogonal de factores.

El factor general se caracteriza por las notas de organización e integración; los factores de grupo se distinguen, bien por el contenido: visuales, auditivos, verbales, numéricos, espaciales, etc., bien por la operación, en cuatro niveles ascendentes: organización sensorial; integración perceptiva y psicomotora; asociación, memoria y formación de hábitos, y percepción de relaciones (Burt, 1941, 1947, 1949). La división de los tests y los factores según las diversas facetas de las actividades cognitivas ha sido examinada y proseguida hasta hoy por numerosos investigadores, como Guttman, Guilford y la llamada escuela de Berlin (Gustafsson, 1988; Guttman, 1965).

La interpretación que ofrece Burt de los factores es compleja y no del todo inequívoca. Por una parte, defiende su carácter puramente lógico-matemático, como meras categorías de clasificación, empíricamente fundadas. Los factores no pretenden designar nada nuevo, sino ordenar con objetividad, en un riguroso sistema taxonómico, los rasgos ya conocidos. Condena acremente la propensión a «hipostasiarlos», a considerarlos como entidades o propiedades reales del psiquismo. Por otra parte, defiende reiteradamente el carácter innato del factor general y la naturaleza neurológica de su substrato, lo que no se compadece mucho con lo anterior. Es difícil imaginar un principio de clasificación, sólo existente en la mente del clasificador, que, sin embargo, se transmita en los clasificados por herencia biológica (Yela, 1956).

Las aportaciones fundamentales de Burt son, a mi juicio, su elaboración sistemática de la jerarquía de factores, que persiste hasta hoy, y la justificación de la cautela, que hay que seguir manteniendo, antes de interpretar los factores como agentes causales.

Los factores son, por lo pronto e incontestablemente, categorías de clasificación de los tests y de las actividades que requieren. De ahí que Burt prefiera extraer factores estadísticamente independientes, porque una buena clasificación exige que sus categorías sean, al menos, mutuamente excluyentes. Creo, por mi parte, que se puede ir más allá. Los factores, además de ser categorías taxonómicas, pueden ser propiedades estructurales de la conducta, es decir, dimensiones de covariación, empíricamente comprobadas, de las actividades que en la conducta se integran. Si una hipótesis científica se comprueba, sus nociones se refieren al campo empírico en que se ha comprobado. El triángulo o el número «e», son conceptos matemáticos; la implicación formal es un concepto lógico; la masa o la gravedad, pongo por caso, son conceptos físicos o, si se quiere, físico-matemáticos. Los factores, debidamente comprobados, son «constructos» psicológicos o, si se quiere hilar más fino, psico-matemáticos y sólo tienen sentido referidos al psiquismo y la conducta.

Es cierto que diversas metodologías pueden conducir a la admisión de distintos factores, pero, en cada caso, si están bien asentados en razones teóricas y en resultados empíricos, se refieren a la conducta y al psiquismo y los describen. No son meras nociones lógico-matemáticas. Pueden representar efectivas dimensiones de covariación de las diferencias individuales en la conducta, tal vez diversas, según las diversas perspectivas en que la conducta puede ser considerada. Es lo que muy justificadamente puede ocurrir cuando se describe la Península Ibérica. Geográficamente, cabe considerarla como una meseta central atravesada por una cordillera y rodeada de montañas que la separan del mar y de dos depresiones, la Ibérica y la Bética. La meseta, las montañas y las depresiones son realidades observables. Puede también describirse desde otros puntos de vista, históricos, políticos, administrativos, urbanísticos, como formada por provincias, autonomías, naciones, pueblos y ciudades. Y, de nuevo, todos estos componentes de la estructura de la Península no dejan de ser empíricamente reales. Estrictamente hablando, las discusiones sobre la realidad de los factores, como la de todo constructo científico, son científicamente irrelevantes. Si son confirmados por los datos, los constructos son válidos. Si no, son inválidos. Y nada más. Nada se agrega, dentro de los límites de la ciencia, añadiendo que son reales o que dejan de serlo. La cuestión de la realidad no puede abordarse sino desde una teoría de la realidad misma, que, inevitablemente, ha de tener un carácter filosófico, ya que la realidad, sea lo que fuere, es, desde luego, algo que afecta a todo lo real y, por consiguiente, es de índole trascendental -transciende a cada realidad-. Lo único que, dentro de los límites científicos, importa es hasta qué punto y con qué garantías los factores están confirmados por la investigación empírica y experimental. Lo cual no quiere decir, ni mucho menos, que la cuestión de la realidad carezca de sentido o de importancia. Es sumamente importante, pero no puede abordarse con la metodología científica. Es de carácter filosófico y, sin duda, hay que abordarla, en ese contexto, inexcusablemente, pero no hay que confundirla con las nociones de coherencia lógica y compatibilidad empírica.

La investigación de la jerarquía ortogonal de factores ha proseguido según la línea general de Burt en la llamada escuela inglesa. El representante paradigmático es Vernon (1950). Su conocido esquema jerárquico de factores estadísticamente independientes resume una copiosísima bibliografía sobre la cuestión:

El factor general, que es aconsejable -y siempre posible- extraer, por la abundancia casi universal de correlaciones positivas, interviene con coeficientes apreciables en todos los tests cognitivos. Los de pesos más elevados en él son del tipo de Dominós, Matrices Progresivas y de razonamiento abstracto, simbólico, figural (analogía de figuras), matemático y verbal.

El amplio factor «v: ed» (verbal-educativo o verbal-escolar) es, predominantemente, verbal y numérico y engloba, como subfactores, varios de comprensión verbal, vocabulario, lectura, ortografía y literatura, de fluidez de palabras y de ideas, de razonamiento aritmético, de cálculo numérico y de memoria.

El amplio factor «k:m» («k» viene de Koussy, el primer investigador que descubrió el factor espacial y lo designó con la letra inicial de «Kurtosis»; «m» es la inicial de «mecánico») comprende subfactores técnicos, mecánicos, espaciales, perceptivos y de rapidez y habilidad psicomotriz.

Vernon aporta datos que sugieren que la varianza de muestras amplias de tests cognitivos es atribuible en aproximadamente un 40 por 100 al factor general, en un 20 por 100 a los pocos factores de grupo de nivel superior y en un 40 por 100 a los numerosos factores de pequeña amplitud, a los específicos y al error (1950, 1961). Lo mismo siguen afirmando diversos autores (Carroll, 1982).

6. El análisis factorial múltiple. Thurstone, la escuela americana y la jerarquía oblicua

La admisión de un factor general en la escuela inglesa ulterior a Spearman obedece, sobre todo, a intereses pragmáticos de clasificación y pronóstico. Por ejemplo, las pruebas altamente saturadas en «g» permiten predecir, mejor que ninguna otra, el éxito escolar y, junto con los tests pertinentes, el éxito en muy diversas tareas.

El factor general no viene, sin embargo, exigido por los datos, ni la mera clasificación de los tests, encaminada a pronósticos prácticos, favorece la investigación psicológica de los factores. Ciertamente, si se empieza por admitir «g», se sigue que las correlaciones deben ser positivas, como, en efecto, se comprueba. Pero, según ya adelanté, el que las correlaciones sean positivas no implica necesariamente la existencia de «g». El argumento es fácil de entender mediante una sencilla ilustración.

Supongamos tres pruebas, 1, 2 y 3. Si todas tienen algo de común, es decir, un factor general, representado aquí por el sombrero en los tres monigotes de arriba, todas tendrán coeficientes en «g» y las correlaciones entre ellas serán todas positivas. Pero supongamos que no hay nada en común a todos los tests, como indican los monigotes de abajo. No hay un factor general, sino tres de grupo. Sin embargo, cada par de tests tiene algo en común y, de nuevo, todas las correlaciones entre ellos resultarán positivas.

Este razonamiento es la base del análisis factorial múltiple de Thurstone, cuya metodología, fundada en el álgebra de matri-ces y de espacios vectoriales, es hoy predominante (1947). Supone este autor que las actividades cognitivas dependen de factores comunes y factores únicos, dejando a los datos empíricos que decidan cuántos y cuáles son esos factores comunes:

Zji = fjl Xlj + ... + fjr Xri + uj Vji [ 10 ]

La ecuación define el modelo del análisis factorial múltiple lineal. Es como la ecuación [ 1 ] de Spearman, en la que el factor general «g» se ha sustituido por los «r» factores comunes. Puede escribirse, más abreviadamente, para todos los sujetos y todos los tests:

Z = FX + UV [ 11 ]

donde «Z», «X» y «V» son los vectores aleatorios de las variables empíricas, los factores comunes y los únicos (específicos más error), y «F» y «U» son las matrices de los coeficientes factoriales comunes y únicos. El problema consiste en averiguar cuántos factores comunes son necesarios y suficientes para explicar las puntuaciones empíricas de los sujetos y sus covariaciones y en interpretar esos factores, es decir, en calcular la matriz «F», que expresada la cuantía en que cada test depende de cada factor, y la matriz correspondiente al vector «X», que informa acerca de la puntuación a cada sujeto en cada factor.

Una investigación factorial, tal y como se ha desarrollado hasta el presente, consta de cuatro fases: preparación, factorización, rotación e interpretación. En la preparación se define el problema, de forma exploratoria o confirmativa. En el análisis exploratorio, se delimita al campo empírico que se quiere estudiar y cuya estructura se desconoce. Esta delimitación se hace, tentativamente, mediante una muestra de «n» variables representativas, en principio, del campo que se indaga. El objetivo es descubrir los posibles factores o variables teóricas fundamentales que operan en dicho campo. En el análisis confirmatorio, se formulan hipótesis concretas acerca de los factores que, según los conocimientos previos sobre la cuestión, se espera obtener y se escoge asimismo una muestra de «n» tests hipotéticamente dependientes de esos factores. El objetivo es poner a prueba esas hipótesis y ver si los datos la confirman o refutan. En ambos casos, la preparación termina en una matriz de puntuaciones empíricas y, finalmente, en una matriz de covarianzas o de correlaciones entre ellas. Esta última matriz equivale, geométricamente, a una configuración de «n» vectores, cada uno correspondiente a un test. Los vectores se extienden en un espacio común de «r» dimensiones. La factorización consiste en introducir en ese espacio «r» ejes ortogonales de coordenadas. Cada eje corresponde a un factor. Las coordenadas de los «n» vectores en los «r» ejes forman una matriz «F». Con esta matriz se responde a la cuestión ¿cuántos factores comunes? Queda por resolver otra cuestión capital en la investigación psicológica: ¿qué son esos factores? Es lo que pretende resolver la rotación. Los ejes de la factorización suelen determinarse por criterios puramente matemáticos, de suerte que la matriz «F», posmultiplicada por su transpuesta, «F'», sea igual a la matriz de correlaciones original:

R = F F' [ 12 ]

En efecto, según [11] si utilizamos puntuaciones típicas y ejes ortogonales:

Rzz = E(FX + UV) (FX + UV)' = FF' + U2, y [ 13 ]

R = Rzz - U2 = FF' [ 14 ]

En las ecuaciones [13] y [14], «Rzz» es la matriz de correlaciones con 1 en la diagonal. Expresa las correlaciones entre los tests, en los elementos laterales y, en los diagonales, la varianza total de los tests, que en escala típica es igual a la unidad. Sin embargo, lo que se desea explicar, desde el punto de vista psicológico, es la varianza común de los tests, es decir, la parte de su varianza que se debe a factores comunes, los únicos psicológicamente interpretables. Esta varianza común se denomina comunidad. Es igual, como indica la ecuación [14] a la varianza total unidad menos la varianza única, «u2». La matriz «R», de [14], contiene las comunidades en su diagonal principal. No se conocen al iniciar el análisis, pero se pueden estimar, mediante, por ejemplo, el cuadrado de la correlación múltiple de cada variable con todas las otras, que indica, como es sabido, la varianza común entre cada una y las demás (Guttman, 1956). Una vez calculada la matriz «R», se trata de averiguar una matriz «F» distintas que cumplen esa condición: hay infinitos conjuntos de ejes ortogonales que se pueden introducir en el espacio vectorial común. Y todos son igualmente aceptables desde el punto de vista matemático.

La rotación consiste en girar los ejes hasta una posición que sea la mejor, según algún criterio psicológicamente plausible. El criterio más convincente y usado es el de la estructura simple, de Thurstone. Se basa, en último término, en el supuesto de que en la conducta, incluso si, como es verosímil, todo depende de todo, no todo depende de todo «del todo», sino que ciertas actividades dependen más intensa y característicamente de ciertas operaciones y procesos -los factores- que de otras. Si esto es así y si el campo empírico que se explora o las hipótesis que se someten a prueba están bien representadas por los tests empleados, algunos de esos tests dependerán fuertemente de uno o varios factores y poco o nada de otros, es decir, si los datos implican una estructura simple, los vectores extendidos en un espacio de «r» dimensiones se situarán en hiperplanos de «r-1» dimensiones y fijarán la posición, perpendicular a ellos, a la que habrá que girar los ejes de la factorización. Las matrices resultantes de la rotación nos darán las coordenadas de los vectores en los nuevos ejes -matriz de la estructura de referencia- y los componentes lineales o coeficientes factoriales de los vectores en los ejes factoriales situados en los hiperplanos -matriz de patrón factorial-. Esta última expresa las relaciones entre los tests y los factores buscados. Según estas relaciones, es decir, según la naturaleza de las actividades que exigen los tests con bajos o nulos coeficientes en el mismo, se podrá aventurar una interpretación psicológica del factor, que confirmará o no las hipótesis directrices del análisis en los estudios confirmatorios o servirá de base, en los exploratorios, para preparar otros estudios en los que se corrobore, rechace o modifique la interpretación propuesta. Los factores consistentemente verificados suministrarán a la investigación psicológica hipótesis sobre la estructura del campo empírico estudiado, que habrán de ser examinadas por los restantes métodos y desde las diferentes perspectivas de la ciencia psicológica. Sólo en la medida en que concuerden y se complementen los resultados intra y extrafactoriales, podrán incorporarse los factores al sistema de conocimientos psicológicos y se podrá ir elucidando su alcance y sus limitaciones.

Con la metodología sumariamente descrita, Thurstone halló en muestras muy amplias de tests cognitivos numerosos factores comunes que, inicialmente, consideró como independientes entre sí. Destacan las que denominó aptitudes mentales primarias (1938): «I», razonamiento inductivo (tests representativos: series de letras, de palabras y de números, cuya ley de sucesión tiene que averiguar el sujeto para continuarla); «D», razonamiento deductivo (silogismos); «V» comprensión verbal (vocabulario, analogías verbales); «W», fluidez verbal (rapidez de emisión de respuestas verbales, como palabras que empiezan con una letra dada); «S», factor espacial (rotación de figuras); «N», factor numérico (rapidez en cálculos sencillos); «P» rapidez perceptiva (identificar figuras), y «M», memoria (recordar elementos). En sucesivos estudios Thurstone y su escuela han encontrado otros factores de tipo psicomotor y diversos subfactores en la microestructura de las aptitudes primarias. La novedad fundamental de los primeros estudios de Thurstone es la descripción de las actividades cognitivas en función de diversos factores comunes, con exclusión del factor general, que era, como queda dicho, el factor principal de la escuela inglesa.

Según se multiplican las investigaciones factoriales y se enriquecen con nuevos métodos de factorización, como los de componentes principales, factores principales y de máxima verosimilitud y con programas de ordenador para efectuarlos y para realizar rotaciones de forma analítica y rápida (Mulaik, 1972), se multiplica asimismo el número de factores encontrados, que enseguida sobrepasa el centenar (French, 1951; Oléron, 1957; Recarte, 1981; Vernon, 1950, 1961).

Pronto, sin embargo, la aplicación más rigurosa de la rotación hacia una estructura simple, la comprobación de su significación estadística en estudios exploratorios y confirmatorios (Bargmann, 1955; Yela, 1968) y el desarrollo del análisis confirmatorio más estricto (Gustafsson, 1984, 1988; Jöreskog, 1977, 1978; Jöreskog y Sörbom, 1981), lleva a concluir que los factores comunes son interdependientes. Las covariaciones entre los tests definen ciertos factores comunes; las covariaciones entre estos factores determinan otros de segundo orden, y así sucesivamente, hasta culminar en un factor general, como el de Spearman. Thurstone y sus seguidores lo aceptan pronto (Thurstone y Thurstone, 1941; Thurstone, 1944, 1948). Por ejemplo, el reanálisis de los datos de Alexander, realizado en el laboratorio psicométrico de Thurstone (Yela, 1948, 1949), armonizó las teorías de Spearman y de Thurstone, mostrando la justificación de los factores «primarios» de razonamiento, verbales, espaciales y perceptivos y su covariación conducente a un factor general equivalente al de Spearman.

La multiplicidad de factores ha sido objeto de otras ordenaciones sistemáticas, entre las que destaca el modelo de la estructura del intelecto, de Guilford, elaborado según los criterios, hoy predominantes, del procesamiento de la información. La información que el sujeto recibe se procesa según ciertas operaciones fundamentales de percatación cognitiva, memoria, pensamiento convergente (razonamiento hacia la solución única de un problema), pensamiento divergente (creatividad) y evaluación. Estas operaciones se realizan sobre ciertos contenidos: simbólicos, semánticos, figurativos (gráfico-espaciales) y sociales (comportamentales), con el objeto de conseguir ciertos productos: unidades, relaciones, clases, sistemas, implicaciones y transformaciones. Tales supuestos permiten prever el funcionamiento de 5 por 4 por 6 = 120 factores, muchos de los cuales y, otros no previstos, han sido confirmados por Guilford y sus colaboradores (Guilford, 1967; Guilford y Hoepfner, 1971).

El reanálisis de estos resultados, eliminando la rotación ortogonal, que impone artificialmente la independencia de los factores, y permitiendo que éstos se ajusten a las exigencias empíricas de los datos, ha conducido a la recuperación de una estructura oblicua, que concuerda con la jerarquía de factores interdependientes de diverso orden y nivel y que culmina en un factor general (Eysenck, 1967; Horn y Knapp, 1973, 1974).

Las amplias revisiones de resultados hechas por Royce (1973) y por Ekstrom, French y Harman (1979) confirman esta conclusión.

El análisis de los factores de órdenes superiores ha sido especialmente proseguido por Cattell y Horn (Cattell, 1963; Hom y Cattell, 1966; Horn, 1986). Sus resultados señalan la convergencia de las actividades cognitivas hacia unos pocos factores de carácter muy general, entre los que destacan: «Gf», inteligencia general fluida (abstracción y educción de relaciones; coeficientes altos en factores de inducción, razonamiento general y relaciones figurales, como analogía de figuras; estrechamente ligado a condiciones neurológicas); «Gc», inteligencia general cristalizada (abstracción y educción de relaciones sobre material habitualmente practicado, más ligado a los conocimientos adquiridos y a influjos culturales; coeficientes altos en factores de comprensión verbal, relaciones semánticas e información general); «Gv», visualización e inteligencia general espacial (coeficientes altos en factores de manipulación mental de imágenes, de orientación espacial y de flexibilidad y clausura perceptiva); «Gr», fluidez general (coeficientes altos en factores de fluidez de palabras, de significados y de ideas), y «Gs», rapidez general (coeficientes altos en factores de facilidad en el cálculo numérico y de rapidez perceptiva).

El uso de análisis factorial confirmatorio, mediante sistemas de ecuaciones estructurales, ha corroborado esta jerarquía oblicua (Gustafsson, 1988), con la probable adición de un factor general de memoria, no incluido en los estudios de Gustafsson, pero sugerido por él, y la identificación de un factor general cognitivo, representado fundamentalmente por la inteligencia fluida (Cronbach, 1984; Undheim, 1981; Sánchez Cánovas, 1986, 1987, ofrece una revisión crítica de algunos de estos estudios).

Todo parece converger hacia la interpretación de la estructura diferencial de la inteligencia como una jerarquía oblicua de factores interdependientes, fácilmente transformable, si por motivos prácticos se desea, en la equivalente jerarquía ortogonal de factores estadísticamente independientes (Yela, 1966), con lo que se armonizan y complementan los resultados de los dos enfoques clásicos de la escuela inglesa y la americana.

La teoría del continuo heterogéneo y jerárquico (Yela, 1987c) resume los resultados del análisis factorial de la inteligencia logrados hasta la fecha. Los puntos principales de esta teoría son los siguientes:

1. Las medidas de las conductas cognitivas que reclaman los tests tienden a covariar y formar un continuo empírico de covariación. El continuo de covariación, prácticamente universal, justifica la admisión de un factor general cognitivo. Los datos sugieren que este factor manifiesta la tendencia de la conducta a integrar las diversas actividades en una estructura general, cuyas propiedades varían con el desarrollo ontogenético y que, en parte principal, corresponden a procesos abstractivos y relacionantes, como Spearman propuso.

2. Este continuo de covariación no es homogéneo. Hay grupos de actividades que covarían fuertemente y zonas de covariación menos intensa. Tal heterogeneidad justifica la admisión de factores de grupo, que corresponden a disposiciones de diferente orden de generalidad.

3. Los factores de cualquier orden son distintos, pero interdependientes. El análisis más detallado de cada uno descubre subfactores de orden inferior. La covariación de los factores de un mismo orden señala la presencia de factores de orden superior. El espacio de covariación empírica de las actividades cognitivas está constituido por una jerarquía oblicua de factores que comprende desde el general, común a todas o casi todas las actividades, a los específicos, exclusivos de cada una, pasando por factores comunes de distinto orden.

4. La proporción mayor de la varianza de los tests cognitivos es atribuible al factor general, identificable con lo que hoy suele llamarse inteligencia fluida.

5. La eficacia práctica de esta estructura de factores depende del problema que el psicólogo trate de resolver. Si se intenta establecer pronósticos en campos muy amplios de la conducta, como la capacidad para realizar las tareas escolares y académicas, o de utilizar en algún contexto una medida del nivel mental general, conviene considerar, sobre todo, el factor «g». Si se trata de describir aptitudes o de pronosticar resultados en tareas más específicas, como idear o manejar mecanismos, pilotar aviones, aprender lenguas o ejecutar trabajos de oficina, es preciso recurrir también y principalmente a los factores de orden inferior más pertinentes al caso. El análisis factorial de las aptitudes mentales puede considerarse como un conjunto de mapas de un territorio. Si se desea orientarse para viajar por él, conviene utilizar un mapa a gran escala, que señale las vías de comunicación, las regiones y la localización de las ciudades. Si se quiere visitar una ciudad, es más sensato atenerse al mapa que describa los accesos a la misma y sus calles y monumentos. La jerarquía factorial puede servir, al menos provisionalmente, como un atlas con mapas diversos pero complementarios, de las aptitudes más generales y más particulares.

6. La subdivisión en factores cada vez más numerosos y referidos a campos cada vez más restringidos del comportamiento inteligente es prácticamente continua e ilimitada, como razonablemente cabía esperar de la inagotable riqueza y complejidad del psiquismo. Por ejemplo, en nuestros estudios se ha confirmado reiteradamente la presencia de un factor general verbal, distinto pero correlacionado con otros muy amplios de carácter simbólico, espacial, mnemónico y perceptivo. Si se examinan esas correlaciones, se halla un factor general, equivalente al de Spearman. Si se analizan las covariaciones de muy numerosos y distintos tests verbales, se descubren dos grandes subfactores, de comprensión y de fluidez, también distintos, pero también interdependientes. Si se estudia con mayor pormenor el campo que cubre el factor de comprensión verbal, se descubren tres subfactores principales de comprensión lingüística, semántica o ideativa (Yela, 1987c). Resultados análogos se obtienen al analizar los demás campos cubiertos por los grandes factores comunes, como los de fluidez verbal, de inteligencia espacial o de rapidez y flexibilidad perceptiva (Yela, 1967, 1987c; Yela y Pascual, 1968).

7. Características principales de la estructura diferencial de la inteligencia

Los resultados de la investigación muestran, en resumen, que la inteligencia, al menos en su rendimiento funcional empíricamente comprobable, no es simple, ni fija, ni autónoma, sino compleja, modificable e interdependiente con otros aspectos de la personalidad, en la que se integra.

7.1. La inteligencia no es simple, sino compleja

La inteligencia es una, pero no una aptitud. Su unidad es la de una estructura compleja de múltiples aptitudes covariantes, integradas en una jerarquía dinámica, a lo que parece y desde el punto de vista empírico, ilimitadamente divisible, según expresa la teoría del continuo heterogéneo y jerárquico.

Las covariaciones entre las diferencias individuales del comportamiento inteligente no sólo ponen de manifiesto, en cada grupo de edad o cultura, una unidad de estructura, sino el predominio en ella de un factor general, encontrado en todas las sociedades y culturas estudiadas (Vernon, 1969). Hacia la misma universalidad apunta el desarrollo ontogenético del llamado sujeto epistémico de Piaget. En todas las culturas que se han examinado, se descubre la misma línea de sucesión de estructuras, resultante del equilibrio progresivo de las funciones adaptativas de la inteligencia, de asimilación del medio a los esquemas cognitivos de los sujetos y de acomodación de las acciones del sujeto a las exigencias del medio. La universalidad del desarrollo se modula, sin embargo, en las distintas culturas, con distinta precocidad y ritmo, según las demandas que requiere y los medios que ofrece cada sociedad y, dentro de cada grupo humano, según los parendizajes e interrelaciones personales, familiares, escolares y sociales (Aebli, 1980, 1981; Lautrey, 1980). Asimismo, la escuela de Piaget y, en general, los resultados de la investigación ontogenética de la inteligencia, muestran que, subordinados a este factor general cognitivo, hay dos grandes líneas de desarrollo, según los contenidos sobre los que la inteligencia opera: el espacial-continuo y el verbal-numérico-discreto, que se corresponden con los dos grandes factores de grupo de la jerarquía factorial (Yela, 1982). El examen más minucioso de las covariaciones entre las diversas actividades que demandan las pruebas clásicas de Piaget conduce, finalmente, a una distinción de aptitudes semejante a la defendida por el análisis factorial (Longeot, 1978). Es de subrayar, en fin, que a lo largo del desarrollo se aprecia una tendencia hacia la diferenciación progresiva de aptitudes. En nuestros estudios, por ejemplo, se ha comprobado la presencia de un único factor de fluidez verbal hasta los ocho años y la aparición, primero, hacia los nueve años, de dos subfactores, el lingüístico-semántico y el ideativo-semántico, y la división, después, en tres factores, lingüístico, semántico e ideativo, que permanecen a partir de los trece o los quince años (García Cueto y Yela, 1984; Yela, 1987c; Yela y Rojo, 1990).

7.2. La inteligencia no es fija, sino modificable

Los factores pueden ser rasgos comprobadamente estables, pero no fijos. Su eficacia funcional depende de la interacción entre la dotación genética, el mundo en el que el sujeto vive y la actividad constructiva, consciente e inconsciente, del propio sujeto. Cabe distinguir varias nociones distintas, pero interconexas, de inteligencia. Puede concebirse una inteligencia «A», fundamentalmente ligada a la estructura y funcionamiento cerebrales y, según múltiples indicios, dependiente, al menos de forma inicial, del genotipo. Ha habido varios intentos de definir y evaluar con rigor esta inteligencia potencial predominantemente biológica y heredada, ninguno del todo satisfactorio. Hebb la define como la razón entre las áreas «asociativas» y las sensomotoras del córtex. Similarmente, Jerison ha elaborado un índice de encefalización que, a su juicio, equivale a un índice de inteligencia. Se basa en las relaciones entre el peso del cerebro y el del organismo total y proporciona parámetros consistentemente progresivos a lo largo de la evolución fllogenética, si bien no incluye, como reconoce el autor, aspectos importantes de la organización cerebral (Jerison, 1973, 1982; Yela, 1981a). Existen otros varios intentos de medir la relación de la inteligencia psicométrica, de una parte, y parámetros neurológicos y comportamentales sencillos y presuntamente básicos, como los relativos a potenciales provocados, tiempos de reacción y tiempos de inspección, de los que hablaré más adelante. Hasta ahora, ningún índice de este tipo resulta convincente como medida de la inteligencia. Las medidas más fiables siguen siendo las psicométricas, con las que, en último término y muy reveladoramente, se contrastan los índices anteriormente citados.

Las medidas psicométricas, reflejan la inteligencia «B» o inteligencia funcional, la capacidad compleja que de hecho se comprueba mediante las respuestas a los tests cognitivos.

Existe, finalmente, la inteligencia «C», que puede denominarse inteligencia ecológica y que se manifiesta en la aptitud de los sujetos para resolver los problemas que plantea la vida diaria en su mundo y su cultura. Aunque la investigación de lo que es considerado inteligente dentro de cada cultura y de la aptitud para responder a sus demandas y beneficiarse de sus recursos recibe hoy una atención creciente, no está claro cómo incorporar al conjunto de constructos científicos verificables un índice cuantitativo de esta inteligencia ecológica (Sternberg, ed., 1982; Society, Culture and Society).

Lo que si está claro es que una previa inteligencia potencial puede malograrse por una extrema penuria de medios y una alta inteligencia psicométrica puede ir pareja con una deficiente adaptación ecológica, como es el caso de los paranoicos con un elevado cociente de inteligencia (Cl) que arrastran una vida caótica o dolorosamente desajustada.

La medida de un factor es, cuando más, un buen índice de su estado actual. No explica ni su origen ni su posible modificación. Es como un termómetro, que informa sobre la temperatura, pero no dice a qué se debe, ni cómo corregirla. Ambas cuestiones se discuten en la tradicional, constante y vehemente controversia, no del todo aclarada, acerca del relativo influjo de la herencia y el ambiente. La cuestión de cuál es más importante carece de sentido, porque los dos son imprescindibles. En realidad, no se hereda la inteligencia, ni ningún rasgo fenotípico. Lo único que se hereda son los genes. Estos están programados para sintetizar ciertos productos que llevan a la aparición de determinadas propiedades observables en la personalidad y el comportamiento, como el color de los ojos, la estatura y la inteligencia. Pero siempre en interacción con el ambiente. En lo que concierne a la conducta, los genes y el ambiente son dos abstracciones. Lo único real son los genes con el ambiente. El experimento de Stockard (1931) es nítido: las carpas desarrollan dos ojos laterales en todos los ambientes naturales conocidos; lo que se debe a su programación genética. Pero basta alterar el ambiente de cierta manera determinada, por ejemplo, modificando la tasa de cloruro de magnesio en el agua, para que, sin alterar la dotación genética, se desarrolle en ciertos casos un solo ojo central. El resultado fenotípico es siempre producto de la interacción entre genotipo y ambiente.

Así ocurre con la inteligencia. Está claro, entre otros mil casos que pudieran alegarse, en las anomalías patológicas. La fenilcetonuria, por ejemplo, es una enfermedad producida por la acción de un gen recesivo heredado de ambos progenitores. La consecuencia es un nivel mental muy bajo, claramente debido a la defectuosa programación genética heredada. Sin embargo, como puntualizan Scarr y Carter-Saltzman (1983, p. 813), la relación genotipo-fenotipo no es, ni siquiera en estos casos de origen genético demostrado, de simple causalidad lineal: «aunque los niños no sometidos a tratamiento son, en el promedio, severamente retrasados, los casos individuales varían desde Cl tan bajos que no pueden ser medidos a Cl moderadamente torpes, ¡con una diferencia de 60 a 80 puntos de CI! Y, sin embargo, todos tienen la misma secuencia de ADN que impide la correcta codificación del enzima que metaboliza la fenilalanina. En algún lugar, a nivel celular, a niveles fisiológicos más generales y al nivel de las transacciones entre el organismo y el medio, ocurren variaciones en el desarrollo del fenotipo». Del mismo modo, en los niños tratados con dietas que eliminan prácticamente la fenilalanina e impiden su dismetabolia, se evita o alivia el deterioro mental, pero, incluso si la dieta es la misma para todos y se inicia al mismo tiempo (en el primer mes), los niños varían desde el retraso moderado a la normalidad alta, con diferencias, de nuevo, de 60 puntos de CI. La anomalía se debe claramente a los genes; la «expresión fenotípica» final de la anomalía depende, incluso en este caso cuyo mecanismo genético es bien conocido, de la interacción entre los genes y el ambiente.

Queda todavía por explicar el relativo influjo de ambos en las diferencias individuales. Los sujetos difieren en inteligencia, como difieren en estatura. ¿En qué proporción se deben estas diferencias a la variación genética y en qué proporción a la variación ambiental?

El cociente de heredabilidad -la razón de la varianza genotípica y la fenotípica- es una de los índices que expresan ese relativo influjo. Cuanto más alto, más proporción de la varianza observada es atribuible a la varianza genética. La cuantía de este índice es muy discutida. Va del 0 por 100 (Kamin, 1974) al 80 por 100 (Eysenck, 1973; Eysenck y Kamin, 1986; Jensen, 1969, 1973). Un examen pormenorizado de la cuestión puede verse en Yela, 1981b. El influjo nulo de la herencia genética parece totalmente descartado. Los expertos rechazan con extrema dureza los argumentos de Kamin. Fulker (1975) concluye que la discusión de Kamin «carece de equilibrio y presenta una parodia de las pruebas empíricas». Sandra Scarr (1976) estima que el libro de Kamin «presta un mal servicio tanto a la ciencia como al progreso de la igualdad social». Todo indica, a mi entender, que las diferencias en inteligencia, al menos en las poblaciones occidentales blancas y escolarizadas -las únicas suficientemente estudiadas-, se deben aproximadamente en un 50 por 100 o más a las diferencias genéticas y en un 50 por 100 o menos a las ambientales. Que es también la conclusión a que llegan Thomson y Carroll (Carroll, 1982) y los especialistas en genética del comportamiento, como McClearn y DeFries (1973).

Para entender bien el problema conviene añadir que la heredabilidad no es en rigor una propiedad de la inteligencia misma, sino de su distribución en una determinada población. Si varían las circunstancias de ésta, varía la heredabilidad y, a la inversa, la heredabilidad puede permanecer constante y aumentar o disminuir la inteligencia media de una población. De hecho, en las últimas décadas, la media de los CI va aumentando en la población de Occidente, como va creciendo la estatura media, sin que ningún dato indique que se ha modificado el caudal genético de esta población y, por el contrario, haya muchos datos que muestran el cambio de las circunstancias sanitarias, médicas y educativas (Flynn, 1987; Tuddenham, 1948; Yela, 1981b).

En resumen, los resultados de la investigación indican que la dotación genética determina ciertas características que distinguen entre sí a las especies -del ratón salen ratones y del delfín, delfines- y, dentro de cada especie, y muy particularmente dentro de la humana, señala un límite en el desarrollo de la inteligencia, límite, por lo demás, desconocido, dentro del cual cada individuo alcanza el nivel que su interacción, en parte creadora, con el ambiente permite y estimula. El esclarecimiento del origen y modificación de la inteligencia ha de proseguirse mediante el conocimiento del genoma humano, de los mecanismos de su interacción con el ambiente y de la intervención del hombre en estos mecanismos, a través del consejo eugenético, la estimulación precoz y ordenada, las oportunas medidas sanitarias, dietéticas y farmacológicas y la investigación sobre la influencia que ejercen en el desarrollo las relaciones interhumanas en la familia, desde la primera infancia, y en las situaciones escolares, psicoterapéuticas y de terapia y modificación de conducta. No puede excluirse, para ser realistas, la directa modificación del genoma, hoy lograda en diversos organismos y mañana tal vez posible en el caso del hombre. Es claro que muchas de estas intervenciones implican una grave responsabilidad ética, abren nuevas posibilidades de mejora psicosomática y suponen nuevos riesgos de empeoramiento y manipulación.

Hay que reconocer, asimismo, las múltiples modulaciones personales de la inteligencia, que incluyen casos extremos de conductas finamente sensibles a circunstancias culturales, como el ritmo y la música, o que muestran una profunda comprensión de las relaciones interpersonales y del dolor ajeno -y que son, en estos sentidos, hondamente inteligentes- en individuos que, sin embargo, manifiestan un nivel psicométrico de inteligencia muy bajo, como, por ejemplo, entre otros incontables, los casos descritos por Vallejo Nájera en Concierto para instrumentos desafinados o los estudiados por Sacks y comentados por Luria (Sacks, 1987).

Los resultados factoriales pueden proporcionar una guía para la indagación de las interacciones que en el sujeto activo acontecen entre el genotipo y el ambiente, según las cuales se van formando, desde la concepción, las aptitudes cognitivas.

7.3. La inteligencia no actúa autónomamente, sino integrada en la personalidad

La cosa es clara y, en el fondo, admitida por todos. No hace falta esgrimir muchos argumentos. No es la inteligencia la que piensa, sino la persona. Y sus procesos y estrategias inteligentes dependen de las aptitudes de que potencialmente está dotada y que con su experiencia y reflexión va desarrollando. Pero dependen también de la personalidad en que el sistema cognitivo se integra y de las situaciones que la persona busca o encuentra. Más en concreto, la inteligencia efectivamente funcional depende de la orientación y nivel de las motivaciones. Con todas las reservas y matices que la investigación posterior ha aportado, sigue, en general, válida la vieja ley de Yerkes y Dodson (1908): el rendimiento depende del grado de activación, alerta y motivación del sujeto; crece del sueño, la apatía, el aburrimiento y la indiferencia a la vigilia alerta y al interés, hasta un determinado nivel, más allá del cual la ansiedad, el estrés o el pánico desorganizan la conducta y perturban la eficacia funcional de las aptitudes. Para pensar no basta disponer de aptitudes, hace falta ejercitarla y desarrollarla, es decir, hace falta querer, desear y atreverse a pensar, aprender a pensar, acostumbrarse a pensar, ir organizando un caudal de conocimientos sobre los que pensar y disponer de una cierta riqueza de hábitos, preferencias, actitudes y valores que le proporcionan a uno motivos para pensar.

Repárese en que la inteligencia que miden los tests suele evaluarse en situaciones en que se ha logrado la colaboración del sujeto y se ha procurado que disponga de una motivación momentáneamente elevada. Pero la vida corriente exige mantener esa motivación durante largos períodos y frente a múltiples dificultades. No es extraño que se encuentren discrepancias entre los resultados de los tests -aunque puedan ser, en su contexto, sumamente válidos y orientadores- y los que se logran en la vida cotidiana.

8. La significación de los factores

Los factores de la inteligencia corresponden a distintas direcciones de covariación de los comportamientos cognitivos.

Si están debidamente confirmados, son, por lo pronto, categorías lógico-matemáticas, empíricamente fundadas, de clasificación de las actividades cognitivas. Permiten condensar en unos pocos parámetros los datos innumerables de la observación empírica y realizar evaluaciones y pronósticos de considerable validez teórica y práctica. No existe, por ejemplo, en toda la historia de la psicología, una serie de resultados y pronósticos que hayan ido confirmándose tanto, como los establecidos a principios de siglo por Terman y sus colaboradores, sobre la base exclusiva de los CI obtenidos en su escala de inteligencia general. Hoy, después de setenta años, siguen corroborándose en múltiples aspectos importantes (Goleman, 1980; Sears, 1977).

En la medida en que se reitere la verificación de los factores y de las consecuencias que de su hipotética operación se siguen, tanto en estudios factoriales como de otra índole, los factores van adquiriendo la naturaleza de constructos científicos que señalan las efectivas dimensiones de covariación del comportamiento. Cada uno se define por la intencionalidad parcialmente común a las actividades covariantes y está verificado por la constatación empírica de esa covariación. Son, pues, a mi juicio, no meros principios de clasificación, sino propiedades de la personalidad y la conducta, rasgos disposicionales, relativamente estables, referidos directamente a las acciones psicoorgánicas y, mediatamente, al funcionamiento mental. Pueden ser, por eso, teoréticamente esclarecedores y pragmáticamente útiles, aunque, por supuesto, siempre susceptibles de revisión crítica (Yela, 1956).

9. Limitaciones e insuficiencias

Los factores pueden ser constructos teórica y prácticamente importantes. Son, sin embargo, y desde luego, insuficientes.

Están, para empezar, afectados por el carácter provisional de los conceptos y teorías científicos, aceptables mientras se muestran compatibles con los datos empíricos, buscados, recogidos y analizados según las ideas y técnicas disponibles en cada momento, pero rechazables cuando se descubren incompatibilidades persistentes.

Están, además, afectados por limitaciones e insuficiencias propias. Comentaré brevemente las que parecen más salientes y debatidas.

9.1. La diversidad metodológica

Existe, para empezar, una variedad de técnicas factoriales, que dejan cierta holgura al investigador para proponer distintas interpretaciones de los mismos datos. En la extracción de factores se confunden a veces dos objetivos diferentes, aunque compatibles: la condensación estadística de los datos mediante el análisis de la varianza total de los tests, a través, por ejemplo, del método de los componentes principales, y la investigación propiamente psicológica de los factores, que aconseja analizar la varianza común, mediante el procedimiento de los factores principales o de la máxima verosimilitud. Por lo demás, el número requerido de factores no permite ser abordado, de momento más que por pruebas estadísticas aproximadas. En el análisis factorial exploratorio y en el confirmatorio dirigido por el principio de la estructura simple, la fase de rotación puede efectuarse por diversas técnicas gráficas y analíticas que no conducen siempre a idéntica solución. En el análisis confirmatorio, realizado mediante sistemas de ecuaciones estructurales, suele acontecer que distintas hipótesis resulten compatibles con los mismos datos. Por mi parte, creo que todos los tipos de análisis factorial sirven fundamentalmente, como tantas veces afirmó Thurstone, para originar ideas, que deben, una vez reiteradamente confirmadas, pasar a estudiarse por otras técnicas más rigurosamente experimentales.

En definitiva, los constructos factoriales necesitan cumplir dos requisitos para que puedan ser incorporados al acervo general de conocimientos psicológicos. Primero, atenerse en cada estudio a una comprobación estadística lo más rigurosa posible, mediante, por ejemplo, las pruebas de significación de la estructura simple (Bargmann, 1955; Yela, 1968), y el análisis de covarianzas, en los estudios confirmatorios (Jöreskog y Sörbom, 1981). Segundo, las limitaciones antedichas exigen que los constructos factoriales muestren su consistencia teórica y práctica con el corpus de la ciencia psicológica, tanto en estudios intrafactoriales como en investigaciones extrafactoriales.

9.2. Las diferencias muestrales

El análisis factorial siempre se realiza en una cierta muestra de sujetos, tests y situaciones. Los universos teóricos correspondientes son inabarcables. Los resultados obtenidos están afectados por estas diferencias muestrales. Por ejemplo, todo parece indicar que la estructura diferencial de la inteligencia consiste en una jerarquía oblicua de factores. Pero tal jerarquía sólo puede estudiarse mediante las correlaciones entre los factores de uno o más órdenes. Y estas correlaciones son especialmente sensibles a los efectos de selección de las muestras. Es preciso tener en cuenta estas circunstancias selectivas, que con frecuencia se desatienden. Sólo una base teórica firme y la convergencia de estudios sucesivos puede permitir abarcar muestras cada vez más amplias y representativas de las actividades, personas y contextos.

9.3. Las críticas ajenas

9.3.1. La crítica holista

Fue iniciada por Allport (Allport y Odbert, 1936). La personalidad es unitaria. Las técnicas como el análisis factorial disgregan esa unidad en componentes artificiales. Esta crítica puede afectar a ciertas interpretaciones superficiales de los factores, considerados como entidades independientes, no a su interpretación como componentes distintos e interdependientes de una estructura integrada en la personalidad. Aun admitiendo que en la personalidad humana todo dependa de todo, es posible, sin romper esa pretendida unidad, distinguir aspectos y funciones, y suponer y comprobar que no todos ellos influyen de la misma manera y en el mismo grado en todos los comportamientos. La destreza en las pruebas atléticas de lanzamiento depende, por supuesto, de la estrategia inteligente del sujeto, pero, dentro de ella, depende más directa e intensamente de la «fuerza explosiva de los brazos» que de los procesos de inducción lógica (Yela, 1968-1969). El razonamiento depende más de esos procesos que de la imaginación visual. Por otra parte, se puede medir la estatura de una persona, sin separar su altura del organismo vivo de cuya unidad forma parte. Se puede apreciar el influjo de una aptitud, sin tener que separarla del sistema cognitivo que la incluye.

9.3.2. El reproche de tautología

Un factor, suele decirse despectivamente, es un nombre que se añade a un conjunto de tests que de suyo indican lo mismo que la denominación del factor. El factor verbal, por ejemplo, es simplemente un nombre dado a los tests verbales. Con lo que no se avanza mucho, ni se explica en qué consiste la inteligencia verbal. Bien. La crítica vale para muchos estudios factoriales realizados un poco o un mucho a ciegas. En muchos casos, efectivamente, se dan al ordenador, sin una preparación previa del experimento, los datos empíricos de que por acaso se dispone, y se espera a ver qué sale. Si todos los ítems de un cuestionario que expresan extraversión, saturan en un mismo factor, se concluye que existe un factor de extraversión. Con lo que queda por explicar lo que importa en psicología, a saber, en qué consiste y cómo se origina la extraversión.

Creo que la crítica es certera. Pero sólo contra el abuso, no contra el uso del análisis factorial. El objetivo de éste es originar y perfilar ideas, no meros nombres. Los grades «factoristas» no han caído nunca en tautologías. Lo menos tautológico que cabe imaginar es el factor «g» de Spearman. Lejos de ser una etiqueta nominal para designar a ciertos tests obviamente semejantes, pretende expresar las operaciones psicológicas que son comunes a todas las actividades cognitivas. Por lo demás, constatar que todos los tests de memoria, pongo por caso, covarían, y defender, en consecuencia, un factor de memoria, no es, si bien se mira, nada baladí. Podrían no covariar. El factor señala, cuando menos, un hecho empírico importante: existe una aptitud mnemónica. Si no, los tests en cuestión no serían covariantes. Otra cosa es responder a la pregunta ¿en qué consiste recordar? Es una vacua tautología contestar que recordamos porque tenemos memoria. El que la tengamos y pueda legítimamente concebirse como una aptitud, o una jerarquía compleja de aptitudes, lo atestiguan las covariaciones. El por qué sea así, cómo se origina, de qué depende, en qué procesos se basa y cuáles son sus bases neurológicas, es otra cuestión, por supuesto, ineludible y, sin duda, más importante, pero no incompatible con la anterior.

9.3.3. La ausencia de teoría

Suele criticarse al análisis factorial porque carece de bases teóricas. Es otra crítica válida contra el abuso, no contra el uso. En primer lugar, no toda investigación científica necesita ser dirigida por una teoría explícita. En esto tiene razón el empirismo radical de Skinner o la fenomenología experimental de Michotte o Gibson (Yela, 1979, 1987a). Antes de elaborar una teoría conviene tener abundante noticia de lo que con ella se pretende explicar. Y, precisamente, a suministrar esta información se encaminan los estudios puramente empíricos, que intentan descubrir regularidades y leyes entre los fenómenos. Es verdad, sin embargo, que la ciencia, contra el parecer aparente de Skinner, aspira a más. Por lo pronto, a dar razón de esas regularidades. El análisis factorial exploratorio trata de descubrir esas secuencias. La formulación de hipótesis explicativas de ellas es también necesaria y habrá de hacerse, en parte, como queda dicho, por el análisis confirmatorio y, más decisivamente, por toda la metodología de la ciencia psicológica. Pero, en segundo lugar, la crítica es injusta. En la base del análisis factorial se puede comprobar una profunda reflexión teorética, discutible, sin duda, pero ciertamente abundante. ¿Se les pueden reprochar de ausencia de teoría a libros como The abilities of man o The nature of intelligence and the principles of cognition, de Spearman, The factorial analysis of human ability, de Thomson, The factors of the mind, de Burt, The stimulus-response fallacy (1923) y The nature of intelligence (1927), de Thurstone, o a los recientes intentos de Carroll por armonizar las investigaciones factoriales con las que proceden de la psicología cognitiva del procesamiento de la información (Carroll, 1976)?

9.4. La autocrítica

Admitir las grandes posibilidades que a la investigación abre el análisis factorial no significa, claro está, que la explicación factorial sea suficiente. Ya queda dicho y repetido. Los factores representan dimensiones de covariación o aptitudes, de considerable valor teórico y práctico. Cómo se originan, de qué se componen, de qué modo prever, paliar o eliminar sus anomalías o mejorar su eficacia funcional, son cuestiones que hay que abordar, además de por las técnicas factoriales mismas, por otras metodologías y desde otras perspectivas.

Los factores dependen, naturalmente, no del nombre de los tests covariantes, sino de las efectivas actividades que los sujetos ponen en juego para contestarlos. Puede preverse, y se ha hecho, que las respuestas a un mismo test sean debidas, en diferentes sujetos u ocasiones, a distintos procesos y estrategias. Producirán, entonces, diferentes coeficientes en factores distintos. El test de rotación de cubos, de Thurstone, puede abordarse por razonamiento analítico o por visualización de imágenes, y saturar, según el caso, en un factor de razonamiento o en un factor espacial. La solución de analogías verbales puede conseguirse por rápidos y sencillos procesos semánticos, muy automatizados, en sujetos con alto grado de dominio de la lengua, o por procesos más lentos y complejos de razonamiento lógico-verbal, en sujetos con menor dominio del idioma en que los tests se expresan. Efectivamente, así se comprueba por las saturaciones que se obtienen en los factores previstos (Yela, 1975). Los recientes avances en la metodología del análisis factorial confirmatorio ofrecen nuevas posibilidades para la indagación de los procesos que originan las covariaciones representadas por los factores.

Pero la psicología actual dispone de otros muchos enfoques para avanzar en esta explicación. Se puede resumir en cuatro principales: los sistemas inteligentes, los componentes cognitivos, los correlatos de la inteligencia y los repertorios de conducta. Varias de estas cuestiones se examinan en otros capítulos de este volumen. Aquí me limitaré a examinar brevemente su aportación al esclarecimiento de los factores.

El estudio de los sistemas inteligentes, naturales y artificiales (Simon, 1980, 1981), apoyado en programas de ordenador, indaga los contenidos simbólicos y los principios, reglas, procesos y estrategias cognitivas que intervienen en el comportamiento inteligente, ya sea verificando las implicaciones de las teorías en la conducta de los seres vivos, ya sea en su simulación por medio del ordenador, ya sea, finalmente, mediante ensayos de inteligencia artificial. Los resultados sugieren, a lo que aquí importa, tres conclusiones principales. El comportamiento inteligente se fundamenta en el procesamiento mental de símbolos, que suele implicar un procesador central atenido a reglas. El procesamiento viene condicionado por un substrato material, que impone una limitación de recursos, especialmente de almacenamiento, memoria y de procesamiento simultáneos o paralelos. En la persona humana el procesamiento es parcialmente consciente y esa característica permite tanto la intervención intencional del sujeto en la elaboración y modificación de los procesos, como la posibilidad de indagar los aspectos inconscientes de la computación mental. El uso de las técnicas de simulación de la inteligencia, junto con el estudio de los protocolos verbales de los sujetos (el thinking aloud o procesamiento en voz alta) es similar, aunque mejor controlado (Ericsson y Simon, 1984), a los análisis introspectivos de las actividades que reclaman los tests, tan empleados por Spearman y Thurstone en la interpretación de los factores. El ejecutor central, la variedad de principios y estrategias y las limitaciones impuestas por la memoria, son compatibles, desde otra perspectiva, con la jerarquía factorial de la inteligencia, varios de cuyos aspectos profundizan y aclaran.

Los componentes cognitivos y los metacomponentes que los actualizan y controlan han sido y continúan siendo objeto de copiosa investigación. Intentan descubrir los procesos y estrategias que intervienen en las actividades cognitivas y, precisamente, con frecuencia, en las que exigen la elaboración y ejecución de respuestas a los ítems de los tests clásicos de inteligencia (Martínez Arias, 1987; Sternberg, Advances, 198s, 1985, 1986, 1988, Handbook, 1982; Vega, 1984). Carroll (1976) ha mostrado que el análisis racional de los componentes cognitivos comunes a los tests representativos de algunos de los principales factores, conduce, en efecto, a la recuperación de dichos factores. Un indicio más de que las aptitudes factoriales tienen un fundamento empírico y de que la covariación en que se basan resulta de los componentes cognitivos comunes a varias o a todas las actividades que las respuestas a los tests reclaman.

Otra corriente poderosa de investigación se refiere a los llamados correlatos de la inteligencia. Se trata de averiguar algún componente simple del comportamiento que diferencie a los sujetos por su grado de inteligencia. Los intentos, hasta el presente, han utilizado ciertas medidas de la actividad cerebral, detectables desde el nacimiento, como la amplitud, la frecuencia, o la longitud de determinadas zonas de las ondas electroencefalográficas, y varias combinaciones de ellas, que son provocadas, con diversa latencia, por la recepción de un estímulo. Son los llamados potenciales provocados (evoked potentials). Se han hallado las diferencias en estas medidas, entre muestras de sujetos altos y bajos en los tests, y las correlaciones entre diversos parámetros de los potenciales y las puntuaciones en los tests de inteligencia (Eysenck, (ed.), 1982, 1985, 1987; Paz Caballero y Muñiz, 1987). Con la misma profusión y minuciosidad se han estudiado los correlatos entre la inteligencia psicométrica y los tiempos de inspección - el intervalo temporal mínimo necesario para percibir un estímulo- (Lubin y Muñiz, 1987), y, asimismo, entre la inteligencia y los tiempos de reacción simples y complejos -el tiempo que tarda un sujeto en responder a un estímulo o en discriminarlo de otros(Muñiz, 1987).

Hasta el momento, los resultados de todos estos intentos son intrigantes y sumamente prometedores, pero no inequívocos. Mi conclusión es que muestran la acción necesaria, pero insuficiente, de ciertos mecanismos básicos. Los sujetos en los que estos mecanismos funcionan torpemente o de forma anómala obtienen en los tests de inteligencia puntuaciones bajas o muy bajas, pero aquellos en los que tales mecanismos actúan regularmente, necesitan poner en marcha otros procesos más complejos para alcanzar calificaciones altas en los tests. En efecto, las diferencias en estos parámetros entre deficientes mentales y sujetos normales suelen ser consistentemente significativas, pero no lo son, sino muy variadas, desde altamente negativas a moderadamente positivas, las correlaciones, en la población general, entre los parámetros correspondientes y las medidas de inteligencia.

Finalmente, los enfoques actuales del conductismo cognitivo y social muestran la importancia que tienen los repertorios de conducta aprendidos, en la contestación a los tests de inteligencia y en la constitución y desarrollo de las aptitudes (Staats, 1989; Psicothema, 1989).

En resumen, como concluye Carroll (1982, p. 101), uno de los más eminentes cultivadores del análisis factorial, «ningún factor, sea "general", "primario" o "de grupo", tiene interés teórico, a menos que se pueda explicar por qué están correlacionadas, o en algún sentido covaríen, las diversas actividades saturadas en él».

Es preciso añadir, para terminar, que el conjunto de resultados obtenidos en la investigación de la inteligencia y de las aptitudes exige ciertas ampliaciones y modificaciones en la elaboración y aplicación de los tests. La psicometría clásica interpreta las puntuaciones de los sujetos comparándolas con la distribución de las mismas en diversas poblaciones. Esta tecnología, ampliada con nuevos conceptos, como la validez de constructo, los índices de generalizabilidad y la teoría de la decisión, sigue manteniendo un considerable valor práctico. Pero ha de perfeccionarse con la elaboración, ya en curso, de la psicometría un¡ y multidimensional de variables latentes y la construcción y uso de tests de competencia en los criterios y de técnicas de evaluación del potencial de desarrollo y aprendizaje. La medida del nivel funcional alcanzado por un sujeto es importante, pero lo es más estimar las cotas progresivas o máximas, o regresivas o mínimas, que el sujeto puede alcanzar o a las que puede descender, y lo es más todavía descubrir y aplicar los medios para efectivamente ayudar al sujeto a superar lo conseguido o a evitar su deterioro.

Referencias

Aebli, H. (1980 y 1981). Denken: Das ordnen des Tuns. Stuttgart: Klett-Cotta.

Allport, G.W. y Odbert, U.S. (1936). Trait names. Psychological Monographs, Vol. 47, n°-. 211.

Bargmann, R. (1955). Signifikanzuntersunchungen der Einfachen Struktur in der Faktoren-Analyse, Mitteilungsblatt für Mathematische Statistik, 7, 1-24.

Berlyne, D.S. (1965). Structure and direction in thinking. New York: Wiley.

Brown, W. y Stephenson, W. (1933). A test of the theory of two factors, British Journal of Psychology, 23,352-370.

Burt, C. (1941). The factors of the mind. New York: MacMillan.

Burt, C. (1947). Factor analysis: its aims and chief results, Miscellanea Psychologica. Albert Michotte. Louvain: Université de Louvain.

Burt, C. (1949). The structure of the mind: A review of the results of factor analysis, British Journal of Educational Psychology, 19, 100-111 y 176-199.

Carroll, J.B. (1976). Psychometric tests as cognitive tasks: a new structure of intellect. En L.B. Resnick (ed.) The nature of intelligence. Hillsdale, N.J.: Lawrence Erlbaum.

Carroll, J.B. (1982). The measurement of intelligence. En R.J. Stemberg (ed.) Handbook of human intelligence, 29-120. Cambridge: Cambridge University Press.

Cattel, R.B. (1963). Theory of fluid and crystallized intelligence: a critical experiment, Journal of Educational Psychology, 54, 1-22.

Cronbach, L.J. (1984). The two disciplines of scientific psychology, American Psychologist, 12.

Cronbach, L.J. (1984). Essentials of psychological testing. N.Y.: Harper and Row.

Ekstrom, R.B.; French, J.W. y Harman, H.H. (1979). Cognitive factors: Their identification and replication. Multivariate Behavioral Research Monographs, nº 79-2.

El Koussy, A.A.H. (1935). The visual perception of space, British Journal of Psychology. Monograph, 20.

Ericsson, K.A. y Simon, H.A. (1984). Protocol Analysis. Cambridge, Ma: MIT Press.

Eysenck, H.J. (1973). The inequality of man. London: Temple Smith.

Eysenck, H.J. (ed)(1982). A model for intelligence. N.Y.: Springer.

Eysenck, H.J. (1985). Revolution in the Theory and Measurement of Intelligence. Evaluación Psicológica - Psychological Assessment, 1, 1-2, 99-158.

Eysenck, H.J. (1987). Inteligencia y «energía mental». Las bases biológicas de la aptitud mental, Psicologemas, 1, I, 7-24.

Eysenck, H.H. y Kamin, L. (1986). La configuración sobre la inteligencia: ¿herencia-ambiente?. Madrid: Pirámide.

Flynn, J.R. (1987). Masive IQ gains in 14 nations, Psychological Bulletin,101, 2, 1-21.

French, J.W. (1951). The description of aptitude and achievement tests in terms of rotated factors. Psychometric Monographs, 5.

French, J.W.; Ekstrom, R.B. y Price, L.A. (1963). Kit of reference tests for cognitive factors. Princenton, N.J.: Educational Testing Service.

Fulker, D.W. (1975). Review of Kamin's The Science and politic of IQ, American Journal of Psychology, 88, 505-519.

García-Cueto, E. y Yela, M. (1984). Dimensiones factoriales de la fluidez verbal en grupos de distintas edades, Revista de Psicología General y Aplicada, 39, 5, 843-875.

Goleman, D. (1980). 1.528 little geniuses and how they grew, Psychology today. February, 28-53.

Griffin, D.R. (1986). El pensamiento de los animales. Barcelona: Ariel.

Guilford, J.P. (1967). The nature of human intelligence. New York: McGraw-Hill.

Guilford, J.P. y Hoepfner, R. (1971). The analysis of intelligence. New York: McGraw-Hill.

Gustafsson, J.E. (1984). A unifying model for the structure of intellectual abilities, InteIligence, 179-203.

Gustafsson, J.E. (1988). Hierarchical models of individual differences in cognitive abilities. En R.J. Sternberg (ed.) Advances in the psychology of human intelligence. Vol. 4. Hilldale, N.J.: LEA.

Guttman, L. (1956). «Best possible» systematic estimates of communalities, Psychometrika, 21, 273-285.

Guttman, L. (1965). A faceted definition of intelligence. En R. Eifermann (ed.) Scripta Hyerosolmitana. Jerusalem: Magnes Press.

Holzinger, K.J. Preliminary report on Spearman-Holzinger unitary trait study. Chicago: Department of Education. University of Chicago. nº 1, 1934; nº 2, 1934; nº 3, 1935; nº 4, 1935; nº 5, 1935; nº 6, 1935; nº 7, 1936; nº 8, 1936; nº 9, 1936.

Horn, J.L. (1986). Intellectual ability concepts. En R.J. Sternberg (ed.) Advances in the psychology of human intelligence. Vol. 3, 35-78, Hillsdale, N.J.: LEA.

Horn, J.L. y Cattell, R.B. (1966). Refinement of the theory of fluid and crystallized general intelligences, Journal of Educational Psychology, 57, 253-270.

Horn, J.L. y Knapp, J.R. (1973). On the subjective character of the empirical base of the structure of intellect model, Psychological Bulletin, 80, 33-43.

Horn, J.L. y Knapp, J.R. (1974). Thirty wrongs do not make a right, psychological Bulletin, 81, 502-504.

Jensen, A.R. (1969). Environment, heredity and intelligence, Harvard Review, 2.

Jensen, A.R. (1973). Genetics and education. N.Y.: Harper y Row.

Jerison, H.J. (1973). Evolution of the brain and intelligence. New York: Academic Press.

Jerison, H.J. (1982). The evolution of biológical intelligence. En R.J. Sternberg (ed.) Handbook of Human Intelligence. Cambridge: Cambridge Univ. Press, 723-791.

Jöreskog, K.G. (1977). Structural equation models in the social sciences. Specification, estimation and testing. En P.R. Krishnaiah (ed.) Aplication of statistics. North Holland.

Jöreskog, K.G. (1978). Structural analysis of covariance and correlation matrices, Psychometrika, 43, 443-477.

Jöreskog, K.G. y Sörbom, D. (1981). LISREL V. Analysis of linear structural relationships by maximun likelihood and least squares methods. University of Uppsala. Department of Statistics.

Kamin, L.J. (1974). The science and politics of IQ. Potomac, Md.: Erlbaum.

Laín, P. (1989). El cuerpo humano. Madrid: Espasa.

Lautrey, J. (1980). Classe sociale, milieu familial, intelligence. París: PUF.

Longeot, F. (1978). Les stades operatoires de Piaget et les facteurs de l'intelligence. Grenoble: Press, Univ. de Grenoble.

Lubin, M.P. y Muñiz, J. (1987). Inteligencia psicométrica y tiempo de inspección. En M. Yela (ed.) Estudios sobre inteligencia y lenguaje, 314-327. Madrid: Pirámide.

Luria, A.R. (1977). Introducción evolucionista a la psicología. Barcelona: Fontanella.

Marías, J. (1983). Ortega. Las Trayectorias. Madrid: Alianza Editorial.

McClearn, G.E. y Defries, J.C. (1973). Introduction to behavioral genetics. San Francisco: Freeman.

Martínez Arias, R. (1987). Nuevos enfoques en el análisis de la inteligencia psicométrica. En M. Yela (ed.) Estudios sobre inteligencia y lenguaje, 257-294. Madrid: Pirámide.

Montpellier, G. de (1949). Conduites intelligentes et psychisme chez I'animal et chez l'homme. Louvain: Nauwelaerts. París: Vrin.

Montpellier, G. de (1977). Quest-ce que l'intelligence? Bruxelles: Academic Royale de Belgique.

Mulaik, S.A. (1972). The foundations of factor analysis. N.Y.: McGraw-Hill.

Muñiz, J. (1987). Inteligencia y rapidez para procesar información: los tiempos de reacción. En M. Yela (ed.) Estudios sobre la inteligencia y lenguaje. 295-313. Madrid: Pirámide.

Oleron, P. (1957). Les composantes de l'intelligence d'après les recherches factorielles. París: P.U.F.

Ortega y Gasset, J. (1946). Obras completas. Il. Madrid: Revista de Occidente.

Paz Caballero, M.D. y Muñiz, J. (1987). Potenciales evocados y procesamiento de la información. En M. Yela (ed.) Estudios sobre inteligencia y lenguaje, 328-341. Madrid: Pirámide.

Pinillos, J.L. (1983). Las funciones de la conciencia. Madrid: Real Academia de Ciencias Morales y Politicas.

Psicothema (1989). Varios trabajos sobre la teoría de la inteligencia de Staats, 1-2.

Recarte, M.A. (1981). Dimensiones diferenciales de la conducta verbal. Madrid: Universidad Complutense.

Royce, J.R. (1973). The conceptual framework for a multifactor theory of individuality. En J.R. Royce (ed.) Multivariate analysis and psychological theory. London: Academic Press.

Rubin, D. (ed.)(1986). Autobiographical Memory. N.Y.: Cambridge University Press.

Sacks, O. (1987). El hombre que confundió a su mujer con un sombrero. Barcelona: Muchnik Editores.

Sánchez-Cánovas, J. (1986). El nuevo paradigma de la inteligencia humana. Valencia: Tirant to Blanch.

Sánchez-Cánovas, J. (1987). La inteligencia humana: Investigación y diagnóstico. Valencia: Promolibro.

Scarr-Salapatek, S. (1976). Review of Kamin's The science and politics of IQ. Contemporar y Psychology, 21, 98-99.

Scarr, S. y Carter-Saltzman, L. Genetics and intelligence. En R.L. Sternberg (ed.) Handbook of Human Intelligence, 792-896. Cambridge: Cambridge Univ. Press.

Sears, R. (1977). Sources of life satisfaction of the Terman Gifted Men, American Psychologist, 32, 2, 119-128.

Simon, H.A. (1980). Cognitive Science: The newest science of the artificial, Cognitive Science, 4, 33-46.

Simon, H.A. (1981). Studying human intelligence by creating artificial intelligence, American Scientist, 69, 3, 300-309.

Skinner, B.F. (1972). Más allá de la libertad y de la dignidad. Barcelona: Fontanella.

Spearman, C. (1904). General intelligence objectively determined and measured, American Journal of Psychology, 15, 210-293.

Spearman, C. (1923). The nature of «intelligence» and the principles of cognition. London: MacMillan.

Spearman, C. (1927). The abilities of man. New York: MacMillan.

Spearman, C. (1930). «G» and after: A school to end schools. En C. Murchison (ed.), Psychologies of 1930, 339-366. Worcester, Mass.: Clark University Press.

Spearman, C. (1933). The factor theory and its troubles, Journal of Educational Psychology, 24.

Spearman, C. (1946). Theory of general factor, Brit. J. Psychol., 36, 117-131.

Spearman, C. y Jones, L.W. (1950). Human Ability. London: MacMillan.

Staats, A.W. (1989). Paradigmatic behaviorism's thoery of intelligence. Psicothema, 1, 1-2, 7-24.

Sternberg, R.J. (ed.)(1982). Handbook of human intelligence. Cambridge: Cambridge Univ. Press.

Sternberg, R.J. (1982). Sección II. Society, Culture and Intelligence, 493-719.

Sternberg, R.J. (1982-1988). Advances in the psychology of human intelligence. New Jersey: LEA, Vol. 1, 1982, Vol.2, 1985; Vol. 3, 1986; Vol. 4, 1988.

Sternberg, R.J. y Detterman, D.K. (eds.)(1979). Human Intelligence. Norwood, N.J.: Ablex.

Sternberg, R.J. y Detterman, D.K. (1986). What is intelligence? Contemporary viewpoints on its natures and definition. Norwood, N.J.: Ablex.

Stockard, C.R. (1931). The physical basis of personality. New York: Norton.

Thomson, G.H. (1916). A hierarchy without a general factor, British Journal of Psychology, 8, 271-281.

Thomson, G.H. (1939). The factorial analysis of human ability. London: University of London Press.

Thurstone, L.L. (1923). The stimulus-response fallacy in psychology, Psychological Review, 30, 354-369.

Thurstone, L.L. (1927). The nature of intelligence. New York: Harcourt, Brace.

Thurstone, L.L. (1935). The vectors of mind. Chicago: Chicago University Press.

Thurstone, L.L. (1938). Primary mental abilities. Psychometric Monographs, 1. Chicago: University of Chicago Press.

Thurstone, L.L. (1944). Second order factors, Psychometrika, 9, 71-100.

Thurstone, L.L. (1947). Multiple Factor Analysis. Chicago: University of Chicago Press.

Thurstone, L.L. (1948). Factorial studies of mental abilities of children. Educat. Psychol. Measurements, 1, 105-116.

Thurstone, L.L. y Thurstone, T.G. (1941). Factorial Studies of Intelligence, Psychometric Monographs, 2.

Tuddenham, R.D. (1948). Soldier intelligence in World War I and II, American Psychologist, 3, 54-56.

Undheim, J.O. (1981). On intelligence, I, II , III , IV. Scandinaviam Journal of Psychology, 22, 171-179, 181-187, 243-249 y 251-265.

Vega, M. de (1984). Introducción a la Psicología Cognitiva. Madrid: Alianza Editorial.

Vernon, P.E. (1950, 1961). The structure of human abilities. London: Methuen.

Vernon, P.E. (1969). Intelligence and cultural environment. London, Methuen.

Yela, M. (1948-1949). The application of the principle of simple structure to Alexander's data. Psychometric Laboratory. University of Chicago, 1948; Psychometrika, 1949, 2, 121-135.

Yela, M. (1956). Psicología de aptitudes. Madrid: Gredos.

Yela, M. (1963). Conciencia, cuerpo y conducta. Revista de la Universidad de Madrid, 11, 7-29.

Yela, M. (1966). Jerarquías ortogonales y oblicuas, Revista de Psicología General y Aplicada, 82-83, 405-416.

Yela, M. (1967). El factor espacial en la estructura de la inteligencia técnica, Revista de Psicología General y Aplicada, 88-89, 609-635.

Yela, M. (1968). La significación estadística de la estructura simple en el análisis factorial, Revista de Psicología General y Aplicada, 92, 313-323.

Yela, M. (1968-1969). Les aptitudes sportives, Bulletin de Psychologie, 276, XXII, 9-13, 613-617.

Yela, M. (1974). La estructura de la conducta. Estímulo, situación y conciencia. Madrid: Real Academia de Ciencias Morales y Políticas.

Yela, M. (1975). Comprensión verbal y bilingüismo, Revista de Psicología General y Aplicada, 30, 137, 1039-1046.

Yela, M. (1979). Fenomenología experimental de la percepción, Revista de Psicología General y Aplicada, 34, 840-844.

Yela, M. (1981 a). El progreso de la inteligencia: Evolución biológica y desarrollo cultural, Anales. Madrid: Real Academia de Ciencias Morales y Políticas, 58, 29-60.

Yela, M. (1981b). Ambiente, herencia y conducta. En el libro Psicología y Medio. Madrid: Centro de Estudios de Ordenación del Territorio y Medio Ambiente. Ministerio de Obras Públicas y Urbanismo, 69-104.

Yela, M. (1982). Inteligencia, estructuras ontogenéticas y dimensiones factoriales, Revista de Psicología General y Aplicada, 37, 215-227.

Yela, M. (1983). Adaptación animal y adaptabilidad humana. En I Jornadas Interdisciplinares sobre comportamiento animal. Madrid: Universidad Complutense.

Yela, M. (1984). La estructura de la conducta: el sujeto y la respuesta. En el libro Homenaje a Julián Marías. Madrid: Espasa Calpe, 759-770.

Yela, M. (1986). El hombre, el azar y la necesidad, Cuadernos de Ciencias del Hombre. Madrid: Instituto de Ciencias del Hombre, 7,29-39.

Yela, M. (1987a). Toward a unified psychological science: the meaning of behavior. En A.W. Staats y L.P. Mos Anaals of theoretical Psychology. Vol. 5. New York: Plenum Press, 214-274.

Yela, M. (1987b). Reflexiones de un psicólogo sobre el sentido de la conducta humana. Salamanca: Universidad Pontificia de Salamanca.

Yela, M. (ed.)(1987c). Estudios sobre inteligencia y lenguaje. Madrid: Pirámide.

Yela, M. (1987d). La inteligencia y la acción verbal: aptitudes, procesos y génesis. En M. Yela (ed.) Estudios sobre inteligencia y lenguaje. Madrid: Pirámide, 64-83.

Yela, M. (1989). Unidad y diversidad de la psicología. En J. Mayor y J.L. Pinillos (eds.) Tratado de Psicología General, I, 71-92. Madrid: Alhambra.

Yela, M. (en prensa). Psicología de la Memoria. En Cuadernos de Ciencias del Hombre. Madrid: Instituto de Ciencias del Hombre.

Yela, M. y Pascual, M. (1968). La estructura factorial de la inteligencia técnica. Revista de Psicología General y Aplicada, 94, 705-777.

Yela, M. y Rojo, C. (1990). Estructura factorial de la fluidez verbal escrita en niños de 8 a 11 años, Revista de Psicología General y Aplicada, 43, 1, 53-58.

Yerkes, R.M. y Dodson, J.D. (1908). The relation of stregth of stimulus to rapidity of habit-formation. Journal of Comparative Neurol. Psychol., 18, 459-481.

Zubiri, X. (1964). El origen del hombre, Revista de Occidente, Agosto, 146-173.

Zubiri, X. (1986). Sobre el hombre. Madrid: Alianza Editorial.

Impact Factor JCR SSCI Clarivate 2023 = 3.2 (Q1) / CiteScore SCOPUS 2023 = 6.5 (Q1)