La creciente presencia de la inteligencia artificial inquieta a la ONU
La alta comisionada para los derechos humanos, Michelle Bachelet, pidió hoy una moratoria parcial en su venta y uso
La inteligencia artificial (IA), silenciosamente presente ya en sistemas de seguridad, asignación de empleos o búsquedas en internet, comienza a preocupar en el seno de la ONU, donde la alta comisionada para los derechos humanos, Michelle Bachelet, pidió hoy una moratoria parcial en su venta y uso.
Usan inteligencia artificial para predecir la progresión de la enfermedad de Parkinson
Leer másEsta moratoria se debería aplicar en principio para aquellas tecnologías de IA potencialmente discriminatorias o que amenacen nuestros derechos, señaló Bachelet ante el Consejo de Derechos Humanos de Naciones Unidas, que se reúne estos días en Ginebra.
Bachelet hizo este llamamiento antes de la presentación ante el mismo Consejo de un informe documentando las amenazas que plantea la IA, tecnología que se define como aquélla en la que la máquina puede aprender por si misma.
No podemos seguir reaccionando tardíamente a los efectos de la inteligencia artificial, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos
El informe ha estudiado el comportamiento de la IA en sistemas de elaboración automática de perfiles, toma de decisiones y otros usos, que, según concluye, pueden vulnerar el derecho a la intimidad y otros relativos a la salud, la educación, la libertad de movimiento o a la libre expresión.
BIG DATA Y RECONOCIMIENTO FACIAL
El estudio documenta varios aspectos en los que la inteligencia artificial ya está interfiriendo en los derechos humanos, por ejemplo mediante el gran uso de datos personales, algo que pone en riesgo la privacidad de millones de personas.
Las grandes multinacionales tecnológicas, dueñas de muchas de esas gigantescas bases de datos, están utilizándolas para determinar mediante inteligencia artificial qué contenido filtrar, cuál amplificar o dejar en un segundo plano, algo que cuanto menos plantea retos frente a la libertad de expresión e información.
La OMS quiere adelantarse a las pandemias del futuro con análisis de datos e inteligencia artificial
Leer másUn segundo aspecto es el uso de estos datos de forma discriminatoria, y en este sentido el informe subraya que ya se ha comprobado que algunos sistemas de IA han mostrado sesgos machistas o racistas a la hora de asignar empleos o decidir quién puede o no acceder a determinados servicios sociales.
Además, se han observado tecnologías que usan la IA para influir en el comportamiento de la gente o intentar predecir cuál será en el futuro, señala el informe, que también da la voz de alarma sobre la falta de transparencia en la que se está desarrollando el sector.
No menos preocupante es la utilización de la inteligencia artificial en materia de seguridad, por ejemplo en el control de fronteras o en la identificación de sospechosos, en ocasiones incluso de manera remota, a través de sistemas biométricos como el reconocimiento facial y hasta emocional.