Mi cuenta

Las notificaciones están bloqueadas. ¿Cómo desbloquear?
El Ideal Gallego Fundado en 1917

Mi cuenta

Las notificaciones están bloqueadas. ¿Cómo desbloquear?

Ojo al dato: una visión sobre la IA y sus sesgos

No cabe duda que la IA está transformando el mundo que nos rodea. Más allá de “conversar” un rato con chat GPT, y sin ser una experta en tecnologías – lo digo para no llevar a nadie a engaño- me gusta estar al tanto de las tendencias, máxime si impactan o pueden llegar a impactar sobre nuestro cotidiano. Desde ese ámbito, me gustaría compartir algunas reflexiones sobre el papel de la ética en el desarrollo y aplicación de la IA. Es necesario garantizar que IA se utilice de manera responsable y se eviten sesgos o discriminaciones, tanto en los algoritmos como en los conjuntos de datos utilizados para entrenarlos.  Cuando hablo de sesgos, quiero decir prejuicios, concepciones de la realidad por las cuales tomamos decisiones de forma inconsciente y que, por lo tanto, condicionan las acciones que llevamos a cabo y sus resultados.

¿Te has parado a pensar en esos sesgos de la IA? ¿Dónde y cómo nacen? Se encuentran en los datos y en los algoritmos. Seguro que los primeros que se nos vienen a la cabeza son sexo, edad, raza, pero hay muchos más, todos aquellos aspectos que identifican y clasifican a las personas. Pero no sólo influyen los datos si no cómo se estructuran, cómo se opera con ellos de cara a otorgar una hipoteca, realizar un estudio médico, llevar a cabo un proceso de selección... En esa suerte de “cocina” de la IA, el dato es la materia prima y las personas que trabajan con ellos, chefs que deben tener muy en cuenta de dónde proceden, qué tipo de datos son, la calidad de los mismos… a la vez que deben conocer bajo qué parámetros un algoritmo toma la decisión.

Te invito a realizar una pequeña prueba para que sepas de que estoy hablando. El traductor de Google es un ejemplo del sesgo de género que existe en los datos y que la tecnología replica. Al traducir “él es enfermero, ella es presidente” del español a un idioma neutral en género (como el turco) se traduce en “esta persona es enfermero, esta persona es presidente”. Al revés (del turco al español), el traductor arroja “ella es enfermera, él es presidente”.  Otro ejemplo, relativo a la utilización de imágenes: ImageNet, una de las bases de datos de imágenes etiquetadas más grandes del mundo, posee millones de imágenes clasificadas en miles de categorías. Sin embargo, pese a que es utilizada mundialmente, más de 45% de las imágenes provienen de Estados Unidos y reflejan una realidad localizada en el hemisferio norte y que encarna representaciones propias de la cultura occidental. Los sistemas de IA que se basan en ImageNet asignan las categorías «novia», «vestido», «mujer» o «boda» a la imagen de una novia occidental vestida de blanco, pero identifican como «arte de performance» o «disfraz» la imagen de una novia vestida con sari indio.

Por todo ello es necesario que se representen las necesidades y la diversidad de toda la población ya que de lo contrario, la inteligencia artificial, lejos de facilitarnos la vida, puede perpetuar sesgos que amplifican inequidades sociales. Las personas generan, recolectan y etiquetan los datos para entrenar al algoritmo, por lo que son responsables de identificar y romper los sesgos cuando ocurran, así que “ojo al dato”. Cuanto más diversos sean los equipos que conciben los sistemas de IA en género, edad, raza, cultura, clase social… la visión será más amplía y, por lo tanto, los desarrollos recogerán más puntos de vista. Las verdades no son únicas y la IA se nutre de decisiones, interpretaciones, valores subjetivos vinculados a las personas que la alimentan. Esto implica incorporar las humanidades, la ética a procesos tecnológicos.

En definitiva, incorporar la diversidad y dejar que la IA esté al servicio de las personas y no al revés.