Incógnitas médicas que se resuelven mediante modelos matemáticos, problemas de neurociencia que ayudan a comprender mejor el funcionamiento del cerebro… Son el día a día de Pedro Larrañaga, catedrático del Departamento de Inteligencia Artificial de la Universidad Politécnica de Madrid (UPM) que acaba de recibir el Premio Nacional de Informática Aritmel 2013, de España. El premio lo recibe con  ilusión -afirma- porque “sirve para mirar atrás y ver a lo que has contribuido”.

Apasionado desde muy joven por las matemáticas, Larrañaga decidió dedicarse a su estudio con la convicción de que su labor investigadora se centraría en  ámbitos que “tuvieran alguna aplicación en la sociedad”. De ahí que, desde el comienzo, sus trabajos estuvieran relacionados con las matemáticas y la computación, pero también con la salud y la medicina, con disciplinas como la bioinformática, la neurociencia o la inteligencia artificial. En la actualidad, desde el grupo de investigación Computational Intelligence Group (CIG) de la UPM, trabaja en el campo de la neurociencia, en el marco de los proyectos Cajal Blue Brain y Human Brain Project.

Pregunta. Las redes bayesianas fueron los inicios de su investigación. ¿En qué consisten estas redes? ¿A qué campos se están aplicando?

Respuesta. Mi trabajo cubre varios aspectos dentro de la inteligencia computacional, una de las ramas de la inteligencia artificial que pone su énfasis en el cómputo. En esa rama, se enmarca la modelización de datos, una disciplina que se ha puesto de moda a raíz de las iniciativas relacionadas con el big data. Constantemente generamos datos no solo a nivel científico, sino también en nuestro día a día. Por ejemplo, cuando pagamos una compra con una tarjeta de crédito o a través de la actividad en redes sociales. Nuestro trabajo consiste en desarrollar métodos que transformen esos datos en modelos matemáticos computacionales con los que después podamos tomar “decisiones racionales”, entendidas como decisiones que están basadas en la evaluación y análisis de muchas variables a la vez. Se ha comprobado que las personas, una vez que se sobrepasan un número determinado de variables, no somos capaces de actuar o tomar decisiones correctas o racionales. Y de ahí la necesidad de aplicar modelos de computación, como las redes bayesianas.

    Las redes bayesianas son formalismos matemáticos que permiten tratar la incertidumbre que subyace en cantidad de actividades humanas, medida en términos de probabilidad. Se aplican a sistemas en los que se van a tener en consideración muchas variables al mismo tiempo, problemas en los que se busca ver qué sucede cuando uno de los parámetros de la investigación sube o baja y queremos predecir que hará el resto. Una opción es que cada parámetro sea totalmente independiente de los demás. Otra, que todos estén relacionados. Las redes bayesianas nos ayudarían a buscar el término medio que es que tcada variable tan solo depende de algunas otras variables, no necesariamente de todas.

“Las personas no somos capaces de resolver problemas
de forma racional si hay muchas variables implicadas”

P. ¿En qué campos se están aplicando estas formas de modelización?

R. Antes de llegar a la UPM, trabajé con redes bayesianas en el campo de la bioinformática y la biomedicina. Una de sus aplicaciones curiosas en este campo se relaciona con la predicción de la supervivencia de un enfermo que había sido sometido a una operación en diferentes condiciones y teniendo en cuenta diferentes factores. También lo aplicamos en estudios relacionados con la viabilidad de los embriones para implantar: las posibilidades de que el embrión se implantase, las opciones de que hubiese embarazos múltiples, etcétera.

    En bioinformática, las redes bayesianas se utilizan en microarrays de ADN, un campo en el que dispongo de varias patentes. En ellos, se toman tejidos de individuos sanos y de individuos enfermos a los que se aplican las técnicas de genómica para evaluar la expresión de miles de genes al unísono y buscar patrones. Una vez que tienes identificados los genes que diferencian un individuo sano de uno enfermo, ayudándonos de las redes bayesianas, podemos crear kits genéticos que sirven para discriminar si el tejido es sano o enfermo evaluando 15 o 20 genes, lo cual supone un importante ahorro de tiempo y esfuerzo a la hora de diagnosticar.

P. En el Computational Intelligence Group (CIG), sus investigacionesen el campo de la neurociencia se relacionan con los proyectos Cajal Blue Brain (nacional) y Human Brain Project (internacional). ¿Cuál es su trabajo dentro de ellos?

R. En ambos proyectos el papel de nuestro grupo de investigación se centra en el campo de la neuroanatomía, en relación muy directa con el Laboratorio de Circuitos Corticales UPM-CSIC. Nuestro papel es estudiar cómo son los diferentes tipos de neuronas que poseemos (piramidales e interneuronas). En un cerebro humano existen alrededor de 86.000 millones de neuronas de las cuales, la mayoría (sobre un 80%) son células piramidales. Dentro de las interneuronas se han visto algunas diferencias y nuestra labor consiste en medir variables de esas neuronas, como por ejemplo cuántos árboles dendríticos tienen, cuál es la forma del soma o cuerpo de la  neurona, etcétera. Con esa información, y a partir de los datos que nos dan los expertos sobre ellas, las etiquetamos y hacemos estudios similares a los que hemos mencionado anteriormente para los tejidos sanos y enfermos. Así se crea un modelo matemático para discriminar entre los diferentes tipos neuronales.

    También estamos estudiando las diferencias existentes entre las protuberancias de las neuronas, denominadas espinas,  y qué pasa con esas protuberancias cuando hay un deterioro cognitivo en el individuo, como puede ser el Alzheimer.

“Las matemáticas y los avances en
salud cada vez están más unidos”

P. Podríamos decir, por lo tanto, que las matemáticas, la informática y los avances en el campo de la salud cada vez están más relacionados. ¿Se puede decir que avanzan en paralelo?

R. Habría que matizar algunos aspectos, pero no puede negarse que toda actividad humana cada vez se está haciendo más cuantificable, algo que en medicina vemos continuamente. Cada vez más, los médicos basan sus avances en instrumentos como los análisis que, en el fondo, lo que nos permiten es ver si “alguna variable” de nuestro organismo está alterada. Tener unos registros adecuados y precisos y métodos de cuantificación y análisis que nos permitan sacar conclusiones (algo que está llegando desde las matemáticas), es fundamental para que la medicina pueda avanzar.

P. Sus trabajos también se relacionan con la inteligencia computacional conocida como inteligencia artificial. Se habla de ella como una ciencia que trata de imitar el comportamiento de una persona, más allá de sus sentimientos, en el ámbito cerebral. ¿Hasta qué punto es eso cierto? ¿Se puede hablar de ese extremo?

R. La comparación del cerebro humano con las grandes máquinas y computadoras es algo que llama mucho la atención. Se ha llegado a comparar este órgano con una red de ordenadores (computadoras) y se ha dicho que es el primer modelo de computación en paralelo. Se habla también del cerebro como la perfecta máquina bayesiana, lo que implica que el funcionamiento cerebral se basa de cara a la toma de decisiones en una serie de “a prioris” o conocimientos y experiencias previas, teniendo siempre en cuenta también el estímulo que le llega. Por ello, cada persona reacciona de una forma diferente ante un mismo estímulo.

    A nivel técnico, no obstante, se pueden establecer muchas diferencias entre este órgano y cualquier máquina computacional. Quizá, la más llamativa, sea la del consumo de energía. Nuestro cerebro consume unos 12 vatios al día, mientras que cualquier supercomputador necesita miles y miles. En esta comparación, claramente, gana el cerebro, mientras que en todo lo que implique calcular, computar o buscar, siempre gana el ordenador (la computadora).

    Cuando se nos pregunta si se le va a poder dotar de sentido común o de sentimientos y emociones, todo eso está, a día de hoy, en el campo de la ciencia-ficción. No obstante, dentro de la investigación del Proyecto Human Brain, hay una rama que se centra en los ordenadores neuromórficos. Se trata de ordenadores que se inspiran en el funcionamiento del cerebro mediante las redes neuronales artificiales, tratando cada neurona como si fuera un ordenador. Es una idea que surgió en los años cuarenta y lo que se pretende  es dar un paso más y seguir el símil acercándose más a cómo está organizado el cerebro para tratar de emularlo. Mi opinión es, sin embargo, que ambos campos se retroalimentan: se trata de emular el cerebro mediante ordenadores, pero también es cierto que buena parte de lo que sabemos y vamos a ir conociendo del cerebro no podría conocerse sin la ayuda del ordenador.

P. Ahora mismo, en el estudio del cerebro y en el campo de la neurociencia en el que se mueve, ¿los retos están a nivel técnico o en la forma de abordar la búsqueda y el posterior tratamiento de la información?

R. Por el momento, los retos a nivel técnico no se han planteado. Vendrán a medida que se vayan desarrollando tecnologías capaces de captar, en vivo, la información de los miles de millones de neuronas que tenemos, pero para ello aún tendrán que pasar algunos años. Hoy uno de los retos está en compartir datos de diferentes laboratorios y poner en común los conocimientos para que la neurociencia siga avanzando.

P. La computación evolutiva, otro de los campos en los que se ha especializado, aplica las teorías de la evolución a la resolución de problemas. ¿En qué consiste la investigación en este campo? ¿Cuáles son los principales retos que se presentan? ¿En qué ámbitos de nuestro día a día está presente?

R. La computación evolutiva es uno de los métodos  que más interés genera porque se aplica a muchos dominios con mucho éxito y prácticamente cualquier estudiante puede desarrollar su propia aplicación basada en ella. El objetivo de la computación evolutiva es simular lo que sucede en la vida real siguiendo el símil de Darwin en la evolución de las especies, de modo que podamos llegar a la solución más óptima y eficaz a cualquier problema o situación. De hecho, se emplea sobre todo en problemas de optimización, como buscar la mejor forma para recorrer diferentes puntos, planificar rutas de metro o de autobús, en el diseño de aviones como el nuevo Boeing o incluso en arquitectura y en pintura.

P. ¿Cómo ve el estado de la investigación actual en España? ¿Hay buenos investigadores aquí? ¿Por qué esa tendencia a irse al extranjero o a pensar que la investigación que se hace fuera siempre es mejor?

R. En España, aunque suene a tópico, hay muy buenos investigadores, el problema está, no obstante, en las trabas administrativas que tenemos. Es como si a un corredor le obligas a correr con 20 o 30 kilos de peso a sus espaldas, enfrentándose a otro atleta que no cuente con ese peso añadido. No se puede comparar. En España tenemos muchísimo talento y capacidad, pero el sistema nos pone mucho peso a la espalda. Parece como si quisieran tenernos entretenidos con el papeleo y con las trabas burocráticas.

    La última traba de este tipo es la de las alegaciones a las justificaciones de gastos en proyectos de investigación que han sido subvencionados, cuestión que nos supone mucho trabajo. Te dan una pequeña cantidad de dinero para un proyecto de investigación, las universidades no te proporcionan prácticamente ninguna ayuda para su gestión. Estas trabas administrativas unidas a la cada vez mayor brecha presupuestaria dedicada a investigación con respecto a países avanzados de nuestro entorno, y a la falta de nuevas plazas en nuestras universidades  y centros de investigación, hace que un buen número de talentosos investigadores estén emigrando hacia otros países que se benefician de su excelente formación. Una vez más,  habría que recordarles a nuestros políticos, la famosa frase de quien fuera rector de la Universidad de Harvard, Derek Bo.: “Si la educación le parece cara, pruebe con la ignorancia”.

Los comentarios están cerrados.