viernes, 4 de abril de 2014

Sobre los tests de inteligencia –por David Arribas Águila

Vicente Ponsoda, durante la entrega del I Premio Nicolás Seisdedos, nos comentaba a algunos de los asistentes una de las muchas anécdotas de Nicolás, el autor de tests en lengua española más prolífico hasta la fecha.

En uno de los primeros congresos de la AEMCCO (Asociación Española de Metodología de las Ciencias del Comportamiento), se invitó a varios profesores de matemáticas como coordinadores de mesa. Durante una de las conferencias impartidas por Nicolás, el coordinador (matemático y acérrimo defensor de las ciencias formales) comenzó a despotricar al ver algunos de los análisis estadísticos que los psicólogos realizábamos por aquella época. Tras semejante escándalo, Nicolás, genio y figura, invitó amablemente al coordinador a abandonar la sala al grito de “Márchese Ud. y déjenos a nosotros con nuestras cosas”.

En el terreno de la medición de la inteligencia, los psicólogos llevamos más de 100 años con “nuestras cosas”.

Es cierto que no acumulamos siglos de historia, como algunas ciencias formales, pero 110 años me parece una cifra considerable. Durante ese periodo hemos tenido que lidiar con multitud de intentos destinados a desacreditar la forma en la que medimos atributos psicológicos como la inteligencia. Y digo desacreditar, no criticar.

La crítica, apoyada en datos empíricos, es uno de los fundamentos de la ciencia, el motor que nos hace avanzar y que nos mueve hacia el conocimiento. La desacreditación que trata de torpedear los cimientos de lo que hemos construido durante tantos años, al margen del fundamento filosófico o base sobre la que se sustente, no produce avance, no genera conocimiento, no aporta nada a nuestra ciencia, más que inmovilismo o suspicacia. Además, este descrédito que sufrimos en ocasiones es infundado o, para ser más preciso, no existen pruebas empíricas que lo sustenten.

Repasemos algunos conceptos básicos y algunos descréditos comunes.

En primer lugar, resulta frecuente oír hablar de la obsolescencia de las medidas psicométricas. Algunos piensan que vivimos en el pasado, que llevamos demasiado tiempo evaluando del mismo modo o que no hemos superado las limitaciones y los postulados métricos de principios del siglo XX. Invito a quienes piensen así a un paseo por los libros que acompañan a los tests más recientes para la medición de la inteligencia. Podemos quedarnos anclados en el tipo de evaluación que se realizaba hace 80 años, y algunos ciertamente así lo hacen, pero la inmensa mayoría aprovechamos las ventajas de los últimos enfoques métricos. Hoy en día resulta casi inconcebible un test de inteligencia que no se base en los análisis psicométricos más vanguardistas o que no sea parametrizado o tipificado con miles o incluso decenas de miles de casos.

Por otro lado, resulta evidente que cualquier instrumento de medida debe estar fundamentado en un acercamiento teórico, el cual puede contar a su vez con mayor o menor apoyo empírico. Tras muchas idas y venidas, e incluso combates dialécticos respecto de su composición o estructura, parece que la teoría CHC de la inteligencia cuenta con un más que amplio grado de aceptación y consenso entre la comunidad científica que se dedica a su estudio (Carroll, 1993; McGrew, 1997; Flanagan et al., 1997; McGrew y Woodcock, 2001; Flanagan et al., 2000; Horn y Cattell, 1966; Horn y Noll, 1997; para una revisión más actualizada e integradora, véase Flanagan y Harrison, 2012). El valor de esta teoría (y de cualquier otra de carácter científico) radica principalmente en su capacidad para dar explicación a los fenómenos observables y para predecir los fenómenos futuros.


Quisiera remarcar las consecuencias que esta teoría ha tenido para el avance de nuestra disciplina como una de sus principales aportaciones. Parece que a finales del siglo XX y principios del siglo XXI nos olvidamos por fin de debates estériles sobre la definición de inteligencia y decidimos ponernos de acuerdo en que, hasta que se demuestre lo contrario, la teoría CHC supone un marco de trabajo útil para continuar avanzando. Por ejemplo, en ninguno de los prometedores estudios correlacionales de neuroimagen que se apoyan en ella se cuestiona en la actualidad su vigencia (p. ej., Colom et al., 2013; Ebisch et al., 2012; Lemos et al., 2013). La teoría CHC sigue su curso, adapta su forma y se nutre de las evidencias empíricas que van apareciendo, pero sobre todo, resulta útil pensar que esta teoría es acertada. Lo contrario, sin una alternativa propuesta, lleva de nuevo al inmovilismo y la suspicacia.

Entremos ahora a valorar otros dos conceptos muy clásicos y recurrentes respecto de la calidad de un instrumento de medida: los conceptos de fiabilidad y validez. Hoy en día, casi cualquier psicólogo con el que se trate el uso de un test usa estas dos palabras, muchas veces, también hay que decirlo, sin saber exactamente lo que subyace a ambos conceptos o su entidad.

En el terreno de la fiabilidad de los tests de inteligencia o de los comúnmente llamados “tests de CI”, pienso que continuamos estando acomplejados, y, además, lo estamos sin motivo alguno. No sé de dónde nos viene esta actitud, me imagino que es una de las consecuencias de la erosión que provoca el descrédito, pero seguimos pensando que nuestros instrumentos de medida no tienen calidad en términos de precisión. Me viene a la cabeza un ejemplo que suelo utilizar habitualmente para ilustrar el alcance de la precisión de las medidas que utilizamos en Psicología, el cual está basado en el didáctico tratamiento que hace del tema Roberto Colom en su aplastante libro “En los límites de la inteligencia” (2002). Ante la pregunta ¿Qué haría Ud. si en un análisis médico rutinario le detectan un nivel alto de colesterol en sangre o hipertensión arterial?”, las respuestas del auditorio suelen ser: “comer más sano”, “no utilizar la sal”, “hacer deporte”... Ahora bien, a día de hoy sigo sin escuchar cualquier respuesta, más habitual de lo deseable en nuestra disciplina, del tipo “ese test no mide bien”, “ese test no es válido” o el famoso “es que yo no creo en ese tipo de tests” (como si fuera una cuestión de fe, añado yo).

Dicen que las comparaciones son odiosas, aunque en este caso son bastante instructivas: la fiabilidad con la que se mide algunos atributos físicos, como la presión sanguínea o el nivel de colesterol, suele estar en torno a 0,50; la fiabilidad de las medidas de inteligencia sobrepasa habitualmente el valor de 0,90. Y no es porque lo diga yo; sirva como ejemplo los datos extraídos de los manuales de algunos de los tests adaptados o desarrollados recientemente para evaluar la inteligencia, como es el caso del BAS-II (Elliott et al., 2011), con una fiabilidad de 0,92 para el CI de los niños entre 2 años y medio y 6 años y de 0,94 para el de los niños más mayores, del Merrill-Palmer-R (Roid y Sampers, 2011), con una fiabilidad para el CI de 0,97, o del BAT-7 (Arribas et al., 2013), con una fiabilidad entre 0,95 y 0,97.

Por otro lado, todos conocemos, en mayor o menor medida, a lo que nos referimos con el concepto de validez de un test, algo que parece bastante intuitivo: en resumen, un test es válido para determinada finalidad si acumula evidencias empíricas que avalen su uso para dicha finalidad. Al margen de las consideraciones teóricas más actuales sobre dicho concepto (puede consultarse una actualizada revisión en el número 1 de Psicothema de 2014: http://www.psicothema.com/tabla.asp?Make=2014&Team=1001), existen evidencias más que sólidas para que de nuevo podamos “sacar pecho” en relación con la validez de los tests de inteligencia.

En este caso trataré de ejemplificarlo aludiendo a dos fuentes de información. En primer lugar, cualquiera con acceso a las bases de datos de publicaciones científicas podrá comprobar cómo algunas de las pruebas más “clásicas” de inteligencia acumulan miles de evidencias científicas sobre las que se apoya su validez, como puede ser el caso del famoso Stanford-Binet, con 3.929 investigaciones hasta la fecha, de las clásicas escalas de Wechsler, con más de 10.000 investigaciones o de las más de 25.000 investigaciones que se han realizado desde el año 2000 en relación con algún instrumento para la evaluación de la inteligencia. No parece, por tanto, un terreno abandonado por los investigadores, ni algo por lo que debamos preocuparnos en exceso.

En segundo lugar, hace algunos años se instauró una política muy interesante a nivel europeo respecto a la necesidad de contar con evaluaciones de expertos de los tests más utilizados en cada país. Esta medida surgió en el Reino Unido de la mano de la British Psychological Society, país que en la actualidad acumula más de 200 tests evaluados con sus correspondientes informes (http://www.psychtesting.org.uk/). En España, la Comisión de Tests del Colegio Oficial de Psicólogos impulsó esta iniciativa, habiendo sido evaluados hasta la fecha un total de 20 tests (http://www.cop.es/index.php?page=evaluacion-tests-editados-en-espana). En la valoración de la validez de estas medidas, expertos de cada materia utilizaron una escala entre 1 y 5, siendo 1 “inadecuada” y 5 “excelente” (Muñiz et al., 2011; Ponsoda y Hontagas, 2013). En la siguiente tabla he extraído la información relacionada con 7 de los 20 tests, precisamente los que versan sobre aspectos intelectuales, y he incluido la valoración en cada una de las clásicas etiquetas que toma este concepto de acuerdo a los criterios de la comisión:


A la luz de los datos, no parece que el descrédito que en ocasiones sufre la validez de los tests para la evaluación de la inteligencia tenga fundamento. Y es que no podía ser de otra manera, porque llevamos mucho tiempo haciéndolo y porque nos funciona realmente bien. De otra forma no se explicaría por ejemplo que en los tres últimos años, del 2011 al 2013, se hayan realizado más de 4 millones y medio de evaluaciones con tests en español comercializados por TEA Ediciones, la realidad que más conozco por mi puesto de trabajo.

Desde mi punto de vista, este último dato, aunque no suela aparecer en comisiones, artículos, manuales o libros de referencia, es el mejor de los termómetros sobre la validez de los tests. Los psicólogos no utilizan herramientas que no funcionan, que no les resultan útiles, con una calidad mediocre o con defectos de validez. Eso puede que funcione para algunos cientos de casos, pero no explica la cultura de tests existente en los países occidentales, ni los millones de evaluaciones que se realizan en el mundo.

Con estos párrafos no me gustaría trasmitir la impresión de que todo el trabajo está hecho o de que no existe margen de mejora. De hecho, una de las líneas de investigación más productivas en la actualidad se centra en el número de factores generales y aptitudes específicas a incluir dentro del modelo CHC (McGrew, 2011; Horn y Blankson, 2005; Carroll, 2005; Alfonso et al., 2005; Keith y Reynolds, 2010), habiéndose incorporado recientemente algunos factores realmente insospechados (como el olfativo, el kinestésico o el táctil).

En esta misma línea, está ganando terreno un novedoso acercamiento que plantea la inclusión de la inteligencia emocional entre los factores generales de la inteligencia, a raíz de un reciente artículo de McCann et al. (2013). Esta perspectiva ha sido tratada desde un interesante punto de vista por Ana R. Delgado en este mismo blog, sugiriendo que dicha inclusión podría hipotéticamente matizar las diferencias por sexo encontradas de forma sistemática en relación con el CI de inteligencia http://robertocolom.blogspot.com.es/2014/03/y-si-los-tests-de-ci-incluyeran-items.html). No cabe duda de que es una línea de investigación prometedora y  con grandes implicaciones para nuestro campo de estudio. El planteamiento de base muy posiblemente provocará en los próximos años una ingente cantidad de literatura al respecto, así como diferentes posiciones, posiblemente también controvertidas o incluso enfrentadas. Y es que resulta difícil no posicionarse, por lo que trataré de apuntar brevemente algunas reflexiones de tipo personal y sensaciones que me ha suscitado la lectura de estos documentos.

En primer lugar, los hallazgos de McCann et al. me han generado extrañeza. Y me han generado extrañeza porque no es la primera vez que se ha tratado de hallar correlatos entre aspectos emocionales y cognitivos, encontrándose de forma sistemática relaciones entre nulas y bajas. De hecho, una vez más Nicolás Seisdedos pasó gran parte de su carrera profesional tratando de hallar algún correlato de los factores emocionales y de la personalidad con la inteligencia, encontrando, en el mejor de los casos, correlaciones en torno a 0,20. Bien es cierto que Nicolás correlacionaba medidas de rendimiento óptimo (acierto/error) con medidas de autoinforme, lo que podría estar detrás de las bajas relaciones observadas. Pero no parece que los estudios anteriores al de McCann y colegas realizados con el MSCEIT (una medida de la inteligencia emocional de “rendimiento óptimo”) y otras medidas cognitivas consolidadas hayan ofrecido resultados más esperanzadores (Bastian et al., 2005; Rode et al., 2008; Rossen y Kranzler, 2009; Lopes, Salovey y Straus, 2003, Roberts et al., 2001, 2006).

En segundo lugar, el procedimiento utilizado por los autores me genera dudas metodológicas. No es este el foro para entrar al detalle en este tipo de cuestiones, pero por apuntar las que más me han llamado la atención indicaré que:

-       La muestra con la que se realizó el estudio estuvo formada por estudiantes universitarios, lo que podría reducir drásticamente la variabilidad de los factores intelectuales e incrementar artificialmente el poder predictivo de los factores emocionales.
-       Tanto la presencia como la ausencia de algunas diferencias por sexo en los tests cognitivos utilizados (p. ej., Clasificación de figuras, vocabulario o analogías verbales) no se ajusta a lo esperable de acuerdo a la literatura. 
-       Las intercorrelaciones entre algunas pruebas del MSCEIT observadas en la muestra de estudiantes son superiores a las de la versión original (Mayer y Salovey, 2002) y a las de la adaptación española (Mayer y Salovey, 2009).
-       Se utiliza el Análisis Factorial Confirmatorio sin una teoría que respalde los modelos propuestos y con fines exploratorios.
-       El MSCEIT es una prueba con una estructura factorial discutible desde el origen, tanto por su ajuste como por el número de factores latentes en comparación con el número de indicadores. Estas dudas estructurales se mantienen en el artículo de McCann, con un modelo desde mi punto de vista forzado, con saturaciones estándar superiores a 1 en relación con el factor de inteligencia emocional (lo que indica una más que posible multicolinealidad) y con tan solo 6 indicadores para explicar 4 variables latentes, tres de primer orden y una de segundo orden. 

Y, en tercer lugar, incluso obviando todo lo anteriormente expuesto y asumiendo que así fuera, que la inteligencia emocional formara parte de la inteligencia, y asumiendo igualmente que existieran diferencias por sexo en lo que a inteligencia emocional se refiere (algo que parece mucho más contrastado, aunque haya cierta carencia de instrumentos de evaluación realmente sólidos que permitan afirmarlo con rotundidad), no parece que la influencia de este factor sobre la inteligencia en comparación con todos los restantes factores cognitivos pueda ser tan elevada o específica como para reducir drásticamente las diferencias por sexo que de forma sistemática se documentan en la literatura científica, controlando múltiples variables y desde muy diversos acercamientos metodológicos (recomiendo a este respecto nuevamente la lectura del libro En los límites de la inteligencia, especialmente el capítulo 10). 

Aun así, considero que se necesita más tiempo para profundizar sobre estos temas (en este campo no contamos con 100 años de bagaje) y para desarrollar una teoría realmente sólida y consensuada sobre la inteligencia emocional. Tenemos tiempo. Afortunadamente nos sigue quedando un largo camino por recorrer en muchos de los campos de nuestra ciencia y afortunadamente también seguirán apareciendo obstáculos durante este recorrido. Pero no cabe duda de que hasta la fecha, al menos en el terreno de la inteligencia, no nos ha ido tan mal: hemos podido avanzar asumiendo algunas cosas como ciertas y, sobre todo, ayudar a quien nos debemos, que no son los números, sino las personas.

Sigamos, pues, con “nuestras cosas”.

REFERENCIAS

Alfonso, V. C., Flanagan, D. P. y Radwan, S. (2005). The impact of the Cattell-Horn-Carroll theory on test development and interpretation of cognitive and academic abilities. En D. P. Flanagan y P. L. Harrison (Eds.), Contemporary intellectual assessment: Theories, tests and issues (2.ª Ed.). Nueva York: Guilford Press.
Arribas, D., Santamaría, P. Sánchez-Sánchez, F. y Fernández-Pinto, I. (2013). BAT-7. Batería para la Evaluación de Aptitudes. Madrid: TEA Ediciones.
Bastian, V. A., Burns, N. R. y Nettelbeck, T. (2005). Emotional intelligence predicts life skills, but not as well as personality and cognitive abilities. Personality and Individual Differences, 39, 1135-1145.
Carroll, J. B. (1993). Human cognitive abilities: A survey of factor-analytic studies. Cambridge, Inglaterra: Cambridge University Press.
Carroll, J. B. (2005). The three-stratum theory of cognitive abilities. En D. P. Flanagan y P. L. Harrison (Eds.), Contemporary intellectual assessment: Theories, tests and issues (2.ª Ed.). Nueva York: Guilford Press.
Colom, R. (2002). En los límites de la inteligencia. ¿Es el ingrediente del éxito en la vida? Madrid: Pirámide.
Colom, R., Burgaleta, M., Román, F. J., Karama, S., Álvarez-Linera, J., Abad, F. J., Martínez, K., Quiroga, M. A. y Haier, R. J. (2013). Neuroanatomic overlap between intelligence and cognitive factors: Morphometry methods provide support for the key role of the frontal lobes. Neuroimage, 72, 143-152.
Ebisch, S. J., Perrucci, M. J., Mercuri, P., Romanelli, R., Mantini, D., Romani, G. L., Colom, R. y Saggino, A. (2012). Common and unique neuro-functional basis of induction, visualization, and spatial relationships as cognitive components of fluid intelligence. Neuroimage, 62, 331-342.
Elliott, C. D., Smith, P. y McCullogh, K. (2011). BAS-II. Escalas de Aptitudes Intelectuales (David Arribas y Sara Corral, adapt.). Madrid: TEA Ediciones. (Obra original publicada en 1996).
Flanagan, D. P. y Harrison, P. L. (2012). Contemporary intellectual assessment: Theories, tests and issues (3.ª edición). Nueva York: Guilford Press.
Flanagan, D. P., Genshaft, J. L. y Harrison, P. L. (1997). Contemporary intellectual assessment: Theories, tests and issues. Nueva York: Guilford Press.
Flanagan, D. P., McGrew, K. S. y Ortiz, S. O. (2000). The Wechsler Intelligence Scales and Gf-Gc theory: A contemporary approach to interpretation. Boston: Allyn & Bacon.
Horn, J. L. y Blankson, N. (2005). Foundations for better understanding of cognitive abilities. En D. P. Flanagan y P. L. Harrison (Eds.), Contemporary intellectual assessment: Theories, tests, and issues (pp.41–68), 2.ª ed. Nueva York: Guilford Press.
Horn, J. L. y Cattell, R. B. (1966). Refinement and test of the theory of fluid and crystallized ability intelligence. Journal of Educational Psychology, 57, 253-270.
Horn, J. L. y Noll, J. C. (1997). Human cognitive capabilities: Gf-Gc theory. En D. P. Flanagan, J. L. Genshaft y P. L. Harrison (Eds.), Contemporary intellectual assessment: Theories, tests, and issues (pp. 53-91). New York: Guilford Press.
Keith, T. Z. y Reynolds, M. R. (2010). Cattell-Horn-Carroll abilities and cognitive tests: What we’ve learned from 20 years of research. Psychology in the Schools, 47 (7), 635-651.
Lemos, G., Abad, F. J., Almeida, L. y Colom, R. (2013). Sex differences on g and non-g intellectual performance reveal potential sources of STEM discrepancies. Intelligence, 41, 11-18.
Lopes, P. N., Salovey, P. y Straus, R. (2003). Emotional intelligence, personality, and the perceived quality of social relationships. Personality and Individual Differences, 35, 641-658.
MacCann, C., Joseph, D. L., Newman, D. A. y Roberts, R. D. (2013). Emotional Intelligence Is a Second-Stratum Factor of Intelligence: Evidence From Hierarchical and Bifactor Models. Emotion. Advance online publication. doi: 10.1037/a0034755
Mayer, J. D., Salovey, P. y Caruso, D. R. (2002). MSCEIT. Mayer-Salovey-Caruso Emotional Intelligence Test, User’s Manual. Toronto: Multi-Health Systems Inc.
Mayer, J. D., Salovey, P. y Caruso, D. R. (2009). MSCEIT. Test de Inteligencia Emocional Mayer-Salovey-Caruso (Natalio Extremera y Pablo Fernández-Berrocal, adapt.). Madrid: TEA Ediciones.
McGrew, K. S. (1997). Analysis of the major intelligence batteries according to a proposed comprehensive Gf-Gc framework. En D. P. Flanagan, J. L. Genshaft y P. L. Harrison (Eds.), Contemporary intellectual assessment: Theories, tests, and issues. Nueva York: Guilford.
McGrew, K. S. y Woodcock, R. W. (2001). WJ-III. Technical manual. Itasca, IL: Riverside Publishing.
Muñiz, J., Fernández-Hermida, J. R., Fonseca-Pedrero, E., Campillo-Álvarez, A. y Peña-Suarez, E. (2011). Evaluación de tests editados en España. Papeles del psicólogo, 32 (2), 113-128.
Ponsoda, V. y Hontagas, P. (2013). Segunda evaluación de tests editados en España. Papeles del psicólogo, 34 (2), 82-90.
McGrew, K. (2011). CHC Theory Extensions. Cattell-Horn-Carroll CHC (Gf-Gc) Theory: Past, Present & Future. Recuperado en marzo de 2014 de http://www.iapsych.com/CHCPP/CHCPP.HTML
Roberts, R. D., Zeidner, M. y Matthews, G. (2001). Does emotional intelligence meet traditional standards for an intelligence? Some new data and conclusions. Emotions, 1, 196-231.
Roberts, R. D., Schulze, R., O’Brien, K., MacCann, C., Reid, J. y Maul, A. (2006). Exploring the validity of the Mayer-Salovey-Caruso Emotional Intelligence Test (MSCEIT) with established emotions measures. Emotion, 6, 663-669.
Rode, J. C., Arthaud-Day, M. L., Mooney, C. H., Near, J. P., Baldwin, T. T., Rubin, R. S. y Bommer, W. H. (2008). An examination of the structural, discriminant, nomological, and incremental predictive validity of the MSCEIT V2.0. Intelligence, 36, 350-366.
Roid, G. H. y Sampers, J. L. (2011). Merrill-Palmer-R. Escalas de desarrollo (Fernando Sánchez-Sánchez, Pablo Santamaría, Irene Fernández-Pinto y David Arribas, adapt.). Madrid: TEA Ediciones. (Obra original publicada en 2004).
Rossen, E. y Kranzler, J. H. (2009). Incremental Validity of the Mayer-Salovey-Caruso Emotional Intelligence Test Version 2.0 (MSCEIT) after controlling for personality and intelligence. Journal of Research in Personality, 43, 60-65.


6 comentarios:

  1. Me reconforta leer este post porque la vida académica en las Facultades de Psicologia, especialmente en relación con este tema de la inteligencia, "tan poco psicológico segun algunos", acaba alienando - aquí en su sentio más etimológico - a cualquiera.

    ResponderEliminar
  2. Lamento leer que esas sensaciones de alienación se generan en las Facultades de Psicología. Quizá convenga saber que, sin embargo, en otras Facultades (como medicina) los avances en el estudio de este rasgo humano tan relevante para comprender la conducta humana resulta muy apreciado. Y, ni que decir tiene, a la sociedad le interesa muchísimo porque sabe que es un rasgo esencial. No hay más que mirar la prensa. La inteligencia fascina. Quizá a los psicólogos que desconocen (por ignorancia) los extraordinarios avances que se hacen regularmente en la investigación sobre la inteligencia, les mosquea tanto interés por parte de los ciudadanos. Qué se le va a hacer. Yo soy optimista. Contribuciones como las de David ponen su granito de arena para cambiar una situación claramente insostenible. Como escribía recientemente Detterman en la revista 'Intelligence': “la inteligencia es la variable más fiable y válida de las ciencias sociales. Ha dado lugar a la industria multimillonaria de los tests. Millones de tests grupales se aplican anualmente en selección de personal, en el campo militar y en las admisiones educativas, por nombrar solo algunos casos. Los tests de inteligencia se usan en todo el planeta como un instrumento clínico fiable y válido. La teoría sobre la inteligencia está más desarrollada y es matemáticamente más sofisticada que la mayor parte de los constructos psicológicos. Se sabe más sobre los procesos cognitivos, genéticos y cerebrales de la inteligencia que sobre cualquier otro constructo psicológico complejo”. Los centros en los que se enseña Psicología no pueden seguir ignorando esto. Saludos, Roberto

    ResponderEliminar
  3. Un post interesante, aunque un poco largo.

    Se te nota la devoción por Roberto, me alegra, yo también le aprecio mucho y su libro de 2002 es una pequeña joya.

    Dicho esto, te veo un poco radical en algunas de las afirmaciones que haces.

    En mi opinión hay que considerar:

    1. Los modelos factoriales, y el modelo CFC con o sin inclusión de IE, lo es, son descriptivos. Describen bien la posible organización de las DDII en capacidades. Pero no son teorías explicativas.
    Los modelos factoriales se han desarrollado, en gran medida, sin una teoría previa. Desde luego este es el caso del modelo CHC.
    Los modelos cognitivos y biológicos sí son explicativos (Deary, 2001). Que en el análisis de la EI se haya procedido de forma exploratoria, no le resta valor, si la taxonomía lograda describe y predice con precisión. Esta es para mí la clave. Los modelos explicativos (con una teoría) deben venir después.

    2. Hay modelos ya clásicos (Santostefano, 1978) que explican las DDII en la influencia de la emoción sobre los procesos cognitivos que están en la base de las DDII en capacidades. En este trabajo y en los posteriores, S. Santostefano no encontró diferencias entre sexos. :-)

    Sin duda, planteas cuestiones interesantes para seguir debatiendo largo rato, espero verte más por el blog.

    Saludos,

    ResponderEliminar
  4. Muchas gracias a los tres, Antonio, Roberto y María Ángeles, por vuestros amables comentarios.

    Antonio y Roberto, efectivamente, este es otro de los terrenos donde nosotros notamos un gran distanciamiento entre el mundo académico y el mundo aplicado. Realmente, la medición de la inteligencia es uno de los pilares básicos para el psicólogo aplicado, lo vemos cada año, es uno de los aspectos más demandados, si no el que más. Cuesta entender que, siendo esto así desde hace tantos años, la evaluación de la inteligencia en Psicología no adquiera el valor que merece.

    María Ángeles, gracias por tu análisis. Creo que puede resultar muy útil como punto de partida para empezar a construir. Trato de contestar a tus comentarios:

    1. Considero que la confluencia del enfoque psicométrico y el neuropsicológico (basado en los procesos subyacentes) sitúa a la teoría CHC más cerca de la explicación que de la descripción, aunque es cierto que no fue así desde el origen como muy bien apuntas. Independientemente de la naturaleza de la teoría, mi crítica iba muy directamente enfocada al uso de un análisis confirmatorio con fines exploratorios (para eso existe el AFE), esto es, a la ausencia de un marco teórico o al menos de una explicación sobre por qué se ponen a prueba esos 8 modelos y no otros.

    2. No conozco los estudios de Santostefano; he realizado una búsqueda y he visto que es un autor que trabajó en múltiples campos, aunque parece que especialmente con niños y adolescentes y en el ámbito terapéutico. Nunca había oído nada específico sobre sus investigaciones en relación con las diferencias de sexo. Quizá sería un buen momento para, como indicaba en mi texto, profundizar sobre estos aspectos tratando de poner a prueba sus hipótesis con las herramientas actuales para la evaluación de las “dos inteligencias”. Sería algo realmente interesante.

    David

    ResponderEliminar
  5. David, en ciencias jóvenes en la que la fundamentación teórica es aún blanda, la postura del profesional y la del investigador no pueden ser idénticas, pues persiguen objetivos distintos (aunque complementarios: este tema es un clásico de nuestra área, como puede verse en Prieto, G. y Delgado, A.R. (2000) Utilidad y representación en la psicometría actual. Metodología de las Ciencias del Comportamiento, 2(2), 111-127). La disonancia cognitiva no dejaría dormir al profesional si tuviera que cuestionarse continuamente la calidad de los instrumentos habituales en su campo. El científico ha de hacerlo si quiere seguir considerándose como tal. Ya sabemos que hay ciencias empíricas mucho más avanzadas que la nuestra, como la Física, pero no basta con imitar sus modos para ganar conocimiento (aunque sí reputación). Si queremos emplear las herramientas procedentes de las ciencias formales, tendremos que seguir ciertas reglas. El premio no viene gratis.

    Mediocre, según la Real Academia Español, es un adjetivo cuyo primer significado es “de calidad media”. Muchas de las medidas psicológicas se acercan a esta descripción. Que haya instrumentos médicos mediocres no mejora los de la Psicología (aunque yo también se lo cuento a mis alumnos para que tengan elementos de comparación y pongan los pies en el suelo).

    Me alegra ver que todos estamos de acuerdo en que los psicólogos tenemos que dedicar tiempo y esfuerzo a mejorar las técnicas de medida. (Y a ver qué pasa entonces con los 4 puntos de CI...)

    Saludos,
    Ana R. Delgado

    ResponderEliminar
  6. El desprecio hacia los test de inteligencia muchas veces tiene poco que ver con una cuestión de validez científica, mas bien suele subyacer una cuestión ideológica. Los test de inteligencia y lo que de ellos se deriva desmonta en cierta medida el mito de la tabula rasa. Tal cosa para muchos es inadmisible.

    Actualmente hasta en las asociaciones de superdotados se está despreciando el sistema de test de inteligencia, para sustituirlos por una suerte de socialismo intelectual derivado de las inteligencias multiples. De esta forma cualquier persona es inteligente, aunque unos lo sean en matemáticas y otros posean inteligencia observacional (¡absurdo!).

    ResponderEliminar