La Inteligencia Artificial en investigación pública: cada vez más democratizada, pero sin potencia de cálculo

La Inteligencia Artificial en investigación pública: cada vez más democratizada, pero sin potencia de cálculo
El investigador astrofísico, Andrés Asensio, en las estancias del IAC | Efe

 Para los investigadores astrofísicos del Instituto de Astrofísica de Canarias (IAC), Marc Huertas y Andrés Asensio, la inteligencia artificial (IA) es un campo “competitivo pero abierto”, lo que supone una “enorme democratización” en un sector investigador público que carece de lo básico: infraestructura para el cálculo.


Las conclusiones se hacen desde la sala de reuniones GTC del IAC, un espacio en el que se reúnen hasta quince investigadores en física solar, estelar, cosmología, galaxias y biomedicina para “polinizarse” y “optimizar” aprendizaje colectivo en IA. 


La ilusión de este grupo de investigadores y doctorandos se corrompe cuando recuerdan aquello de lo que carecen: infraestructuras informáticas que les permitan progresar.


“Necesitamos sitios en los que hacer cálculos”, afirma Andrés Asensio cuando comenta que en la administración hay dificultades para adquirir máquinas, “por parte de generaciones antiguas”, y cuando por fin las consiguen, “ya es demasiado tarde”.

 

 

Inteligencia natural


Este problema no existe para las compañías privadas, como Open AI, la empresa de investigación en inteligencia artificial que creó el reconocido generador de conversaciones Chat GPT. “Modelos de lenguaje como ese no son extraordinarios desde el punto de vista técnico. Cuentan con una potencia de cálculo brutal”, indica Marc Huertas.


La inteligencia artificial, o ‘deep learning’ (aprendizaje profundo), como prefieren llamarla, es “una ciencia de datos” en la que, aseguran, “los científicos siempre estarán por encima de los sistemas”.


El astrofísico Carlos Westendorp, uno de los investigadores del grupo, agrega que “la inteligencia natural es experta en la clasificación de datos”, un proceso vital en el desarrollo de la IA que supone que “los sistemas se guían y aprenden por nosotros”. 

 

Asensio y Westendorp concuerdan en cómo la realidad mediática exageró el valor de una IA que, en su intrahistoria, requiere de “un trabajo humano impresionante, desde el diseño del experimento hasta la introducción y limpieza de datos”. De hecho, “la pescadilla que se muerde la cola” de estos científicos está, precisamente, en una decisión científica: la presencia equilibrada o no de datos en los sistemas de IA.


La consecuencia de la cuestión es un resultado científico sesgado: “Si estudias excepciones que ocurren en el Universo, y nunca has enseñado a estos sistemas un caso excepcional, muy probablemente no lo verá”, ejemplifica Asensio.

 

 El equipo científico no duda en la utilidad de las técnicas de aprendizaje automático en campos como el turismo o el cambio climático, pero existen inconvenientes: no hay datos suficientes y clasificados o están restringidos.


A pesar de las colaboraciones vigentes y futuras, como la que mantienen con el Hospital Universitario de Canarias para la detección precoz del cáncer de colon, el equipo científico ve preferentes las líneas investigación de su propio sector, que también repercuten en la vida cotidiana. 

La Inteligencia Artificial en investigación pública: cada vez más democratizada, pero sin potencia de cálculo

Te puede interesar