Los riesgos de la IA no se mitigan solo con tecnología, urge un debate público y amplio

Los riesgos de la IA no se mitigan solo con tecnología, urge un debate público y amplio

 La vanguardia de la inteligencia artificial (IA) revela muchos beneficios, pero también grandes desafíos. Para garantizar que esta tecnología sea segura es urgente un debate público y un “enfoque sociotécnico”: ningún grupo de expertos debería, de manera individual, decidir sobre los valores de la IA.


Esta es una de las ideas recogidas en un especial sobre inteligencia artificial que publica la revista Science, bajo el título “Un mundo con máquinas inteligentes”, en el que diversos expertos opinan y resumen los últimos avances y riesgos de esta tecnología en campos como la medicina, el comportamiento animal, el arte o los juegos.


Los sistemas de IA deben ser seguros para la democracia, la justicia social y los derechos humanos, cuestión que debe abordarse de manera transparente: ¿Cómo será el mundo del futuro con máquinas inteligentes?


La IA todavía no puede hacerlo todo, no puede oler, no puede trabajar en equipo, no puede sentir emociones, no puede inventar y no puede razonar, pero puede ayudarnos a ir más lejos. La cuestión es cómo podemos garantizar que esta sea segura para que los beneficios superen a los riegos, expone Science en la introducción de este especial.


Los investigadores Seth Lazar, de la Universidad Nacional de Australia, y Alondra Nelson, del Instituto de Estudios Avanzados de la Universidad de Princeton, Estados Unidos, son los encargados de responder a esta pregunta.


Ambos advierten en un editorial de que la agenda técnica predominante para la seguridad de la IA “es inadecuada” para abordar las cuestiones críticas. “Solo un enfoque sociotécnico puede realmente limitar los peligros actuales y potenciales de la IA avanzada”.


“Años de investigación muestran que las tecnologías digitales avanzadas, si no se controlan, se utilizan para obtener poder y ganancias a expensas de los derechos humanos, la justicia social y la democracia”.


La seguridad pasa por comprender y mitigar estos peligros. Un enfoque sociotécnico supone que “ningún grupo de expertos -especialmente solo de tecnólogos- debería unilateralmente decidir qué riesgos cuentan, qué daños importan y con qué valores se debe alinear la IA segura”.


Se requiere por tanto un debate público urgente sobre todas estas cuestiones y sobre si deberíamos intentar construir los llamados sistemas de IA “todopoderosos”, reflexionan los autores.


Lazar y Nelson ponen de manifiesto además que el campo de la seguridad de la IA carece de diversidad ideológica y demográfica, lo que es inadecuado para “la amplitud intelectual y rigor requerido”.


A la hora de proponer soluciones, los investigadores consideran que se está cayendo en un error común, el de recurrir instintivamente a los tecnólogos, “pero los impactos de la IA avanzada no pueden mitigarse solo con medios técnicos”.


“Las soluciones que no incluyan una visión social más amplia solo agravarán los peligros de la IA”.


Además de la introducción y el editorial, el especial reúne nueve artículos. En uno de ellos, Felix Wong, del Instituto Tecnológico de Massachusetts, analiza cómo la IA está potenciando la investigación médica y biotecnológica en la lucha contra las enfermedades infecciosas, avanzando en la comprensión de su biología o en el descubrimiento de moléculas.


En otro de los textos se aborda la IA generativa, que puede producir imágenes, vídeos, audio o textos. Pamela Samuelson, de la Universidad de California Berkeley, se refiere a las objeciones de artistas, escritores o músicos a que sus creaciones se usen para entrenar a estos sistemas.


Menciona varias demandas por derechos de autor ahora en curso en Estados Unidos, que podrían “tener implicaciones sustanciales para el futuro de los sistemas de IA generativas”.


Christian Rutz, de la Universidad de St Andrews, Reino Unido, revisa cómo se utilizan los métodos de aprendizaje automático para decodificar los sistemas de comunicación de los animales.


“Ha llegado el momento de afrontar los retos que plantean la disponibilidad de datos, la validación de modelos y la ética de la investigación, así como de aprovechar las oportunidades para establecer colaboraciones e impulsar beneficios para la conservación”.

Los riesgos de la IA no se mitigan solo con tecnología, urge un debate público y amplio

Te puede interesar