En
anteriores ocasiones tuvimos oportunidad de comentar en
este foro que, en la práctica, quienes hacemos investigación sirviéndonos
de la neuroimagen nos ahogamos en datos.
Existen numerosos proyectos a través de los que se ha recabado una ingente
cantidad de información que somos incapaces de digerir al ritmo deseado.
Probablemente ‘hacemos’ bastante más de
lo que nos permitimos ‘pensar’.
Pensar es importante.
Además
de proyectos a gran escala, como el Human
Connectome Project o ENIGMA,
decenas de pequeños grupos de investigación diseñan modestos estudios en los
que se planifican las condiciones de registro de los datos que permitirán
contrastar, en el mejor de los casos, alguna hipótesis más o menos relevante,
con mayores o menores consecuencias.
Sin
embargo, de un tiempo a esta parte los científicos se han obsesionado con el poder estadístico y se está trabajo en
la creación y sostenimiento de consorcios que permiten registrar enormes cantidades
de datos. Ese volumen de datos debería contribuir a visibilizar los pequeños
efectos de naturaleza biológica que pueden estar detrás de los fenotipos que más
nos interesan a los investigadores.
Desde
esta megalómana perspectiva se publican ahora en la revista ‘NeuroImage’
dos números en los que se exponen, a grandes rasgos, varios proyectos de
investigación que no tienen reparo en compartir sus datos con otros
investigadores a lo largo y ancho del planeta.
Simon
Eickhoff, Thomas E. Nichols, John D Van Horn y Jessica A Tuner presentan la
serie de breves artículos en los que se describe la extraordinaria riqueza de más
de cuarenta generosos proyectos. En el listado se puede encontrar casi de todo,
desde aquellos dirigidos a determinados trastornos, hasta los que exploran los
cambios que se producen durante el desarrollo ‘normal’, durante el ciclo vital.
La
neuroimagen estructural y funcional se ha convertido en el instrumento más
usado para estudiar el cerebro de individuos vivos. En la última década se han
hecho sustanciales avances en
a)
el aumento del nivel de resolución de las imágenes obtenidas en el escáner
b)
el incremento del número de participantes (sample
size) gracias al uso de paradigmas que no dependen de ninguna tarea (resting state)
c)
la práctica, cada vez más frecuente, de compartir datos (data sharing).
Los
volúmenes de los que estamos hablando se centran en el punto c)
“Existen actualmente
decenas de miles de bases de datos, sobre trastornos o sobre el desarrollo, que
provienen de cientos de estudios de neuroimagen, usando distintas modalidades,
disponibles para la comunidad científica, para ser reusados, reanalizados, para
la formación y, en su caso, para hacer nuevos descubrimientos.
Algo enormemente positivo
para la neurociencia cognitiva, la neuropsiquiatría y la neurología, cuya importancia
no debe minimizarse.
Animamos a los
investigadores a sacarle partido a la información de la que se dispone”.
Quienes
presentan esos volúmenes subrayan que esos datos se comparten de distintos
modos y con diferentes formatos: datos brutos, datos agregados o meta-análisis.
Algunos repositorios se basan en una sola modalidad de neuroimagen (p.e. MEG) o
en una sola población (p. e. pacientes con Alzheimer). La heterogeneidad
dificulta la integración de datos y resultados, pero las cosas son como son por
ahora.
Una
de las fuentes de mayor dispersión se asocia a las medidas de los fenotipos
(conductas) de interés:
“Se usan distintos
instrumentos para evaluar factores como el rendimiento cognitivo, la
personalidad o la psicopatología”.
Los
psicólogos somos especialistas en la medida estandarizada de ese tipo de
factores, de esos fenotipos que se valoran regularmente en neuroimagen y
deberíamos asumir, con el debido entusiasmo, nuestro rol protagonista. Pero
mucho me temo que no lo haremos. Nos gusta tanto contemplarnos plácidamente el
ombligo, que dejaremos que otros se coman el pescado.
Otra
causa de los numerosos quebraderos de cabeza es el control de calidad (Quality Control), no solamente de los
datos en sí, sino del uso adecuado de los datos correctamente descargados (no
siempre es el caso, sino que es relativamente frecuente que los usuarios se
descarguen incorrectamente los datos de interés).
Hay
que ser extremadamente cuidadoso en el proceso que supone descargarse datos. El
uso de datos incorrectos puede pasar desapercibido sin que los investigadores
sean conscientes hasta después de haber publicado un informe. La comunidad debe
estar alerta ante estas situaciones probables. Suena estresante, pero no hay
más remedio.
La
presentación finaliza destacando cuatro cosas:
1.-
Hay que trabajar para estandarizar las medidas que se registran de modo que se
facilite la posterior integración de bases de datos.
2.-
Hay que clarificar quiénes son responsables de los controles de calidad.
3.-
Hay que supervisar la presencia de probables errores a distintos niveles, tanto
en la obtención de datos, como en su uso apropiado.
4.-
Una ciencia abierta es deseable, pero se debe cuidar de la protección de datos
sensibles.
En
suma, existe una riqueza de información y necesitamos más cabezas que inviertan
metódicamente sus células grises para mirar lo que ya está ahí y encontrar el
petróleo que no acaba de aflorar. Cuando lo logremos, y no me cabe duda de que
así será, nuestra riqueza aumentará exponencialmente.
No hay comentarios:
Publicar un comentario