viernes, 4 de noviembre de 2016

Repositorios y neuroimagen

En anteriores ocasiones tuvimos oportunidad de comentar en este foro que, en la práctica, quienes hacemos investigación sirviéndonos de la neuroimagen nos ahogamos en datos. Existen numerosos proyectos a través de los que se ha recabado una ingente cantidad de información que somos incapaces de digerir al ritmo deseado.

Probablemente ‘hacemos’ bastante más de lo que nos permitimos ‘pensar’.

Pensar es importante.

Además de proyectos a gran escala, como el Human Connectome Project o ENIGMA, decenas de pequeños grupos de investigación diseñan modestos estudios en los que se planifican las condiciones de registro de los datos que permitirán contrastar, en el mejor de los casos, alguna hipótesis más o menos relevante, con mayores o menores consecuencias.

Sin embargo, de un tiempo a esta parte los científicos se han obsesionado con el poder estadístico y se está trabajo en la creación y sostenimiento de consorcios que permiten registrar enormes cantidades de datos. Ese volumen de datos debería contribuir a visibilizar los pequeños efectos de naturaleza biológica que pueden estar detrás de los fenotipos que más nos interesan a los investigadores.

Desde esta megalómana perspectiva se publican ahora en la revista ‘NeuroImage’ dos números en los que se exponen, a grandes rasgos, varios proyectos de investigación que no tienen reparo en compartir sus datos con otros investigadores a lo largo y ancho del planeta.

Simon Eickhoff, Thomas E. Nichols, John D Van Horn y Jessica A Tuner presentan la serie de breves artículos en los que se describe la extraordinaria riqueza de más de cuarenta generosos proyectos. En el listado se puede encontrar casi de todo, desde aquellos dirigidos a determinados trastornos, hasta los que exploran los cambios que se producen durante el desarrollo ‘normal’, durante el ciclo vital.

La neuroimagen estructural y funcional se ha convertido en el instrumento más usado para estudiar el cerebro de individuos vivos. En la última década se han hecho sustanciales avances en

a) el aumento del nivel de resolución de las imágenes obtenidas en el escáner
b) el incremento del número de participantes (sample size) gracias al uso de paradigmas que no dependen de ninguna tarea (resting state)
c) la práctica, cada vez más frecuente, de compartir datos (data sharing).


Los volúmenes de los que estamos hablando se centran en el punto c)

Existen actualmente decenas de miles de bases de datos, sobre trastornos o sobre el desarrollo, que provienen de cientos de estudios de neuroimagen, usando distintas modalidades, disponibles para la comunidad científica, para ser reusados, reanalizados, para la formación y, en su caso, para hacer nuevos descubrimientos.
Algo enormemente positivo para la neurociencia cognitiva, la neuropsiquiatría y la neurología, cuya importancia no debe minimizarse.
Animamos a los investigadores a sacarle partido a la información de la que se dispone”.

Quienes presentan esos volúmenes subrayan que esos datos se comparten de distintos modos y con diferentes formatos: datos brutos, datos agregados o meta-análisis. Algunos repositorios se basan en una sola modalidad de neuroimagen (p.e. MEG) o en una sola población (p. e. pacientes con Alzheimer). La heterogeneidad dificulta la integración de datos y resultados, pero las cosas son como son por ahora.

Una de las fuentes de mayor dispersión se asocia a las medidas de los fenotipos (conductas) de interés:

Se usan distintos instrumentos para evaluar factores como el rendimiento cognitivo, la personalidad o la psicopatología”.

Los psicólogos somos especialistas en la medida estandarizada de ese tipo de factores, de esos fenotipos que se valoran regularmente en neuroimagen y deberíamos asumir, con el debido entusiasmo, nuestro rol protagonista. Pero mucho me temo que no lo haremos. Nos gusta tanto contemplarnos plácidamente el ombligo, que dejaremos que otros se coman el pescado.

Otra causa de los numerosos quebraderos de cabeza es el control de calidad (Quality Control), no solamente de los datos en sí, sino del uso adecuado de los datos correctamente descargados (no siempre es el caso, sino que es relativamente frecuente que los usuarios se descarguen incorrectamente los datos de interés).

Hay que ser extremadamente cuidadoso en el proceso que supone descargarse datos. El uso de datos incorrectos puede pasar desapercibido sin que los investigadores sean conscientes hasta después de haber publicado un informe. La comunidad debe estar alerta ante estas situaciones probables. Suena estresante, pero no hay más remedio.

La presentación finaliza destacando cuatro cosas:

1.- Hay que trabajar para estandarizar las medidas que se registran de modo que se facilite la posterior integración de bases de datos.
2.- Hay que clarificar quiénes son responsables de los controles de calidad.
3.- Hay que supervisar la presencia de probables errores a distintos niveles, tanto en la obtención de datos, como en su uso apropiado.
4.- Una ciencia abierta es deseable, pero se debe cuidar de la protección de datos sensibles.

En suma, existe una riqueza de información y necesitamos más cabezas que inviertan metódicamente sus células grises para mirar lo que ya está ahí y encontrar el petróleo que no acaba de aflorar. Cuando lo logremos, y no me cabe duda de que así será, nuestra riqueza aumentará exponencialmente.


No hay comentarios:

Publicar un comentario