Premium

Columna | Atención con que las grandes tecnológicas manejen la regulación de la IA

Avatar del Columna Internacional

Facebook sabía que sus algoritmos y plataformas promocionaban contenido nocivo...

En octubre 2023, la Comisión Europea adoptó una nueva hoja de ruta para combatir el narcotráfico y el crimen organizado. Los responsables de las políticas de la Unión Europea no invitaron a miembros de los carteles para que los ayuden a diseñar y desarrollar esta estrategia; pedir su opinión habría servido para que a estos les resultara más fácil seguir operando con total impunidad. Pero cuando se trata de regular la transformación digital y la inteligencia artificial, que plantean infinidad de riesgos, los responsables de las políticas están haciendo lo contrario. Están colaborando con Grandes Tecnológicas como Meta (Facebook), Alphabet (Google), Amazon, Apple y Microsoft, aunque sus ejecutivos han demostrado un deseo descarado de crear herramientas peligrosas y perjudicar a los usuarios en nombre de una maximización de ganancias; preparando propuestas para regular la transformación digital y la IA. Algunas iniciativas y conferencias sobre el tema están financiadas por las mismas empresas que pretenden regular. Las amenazas que plantean los sistemas digitales son complejas y de amplio alcance. Las nuevas tecnologías están incrementando drásticamente la desigualdad global y los gigantes tecnológicos se han convertido en consumidores gigantescos de energía, con serias implicancias para el cambio climático y el medio ambiente. Quizá lo más preocupante sean las violaciones casi constantes del derecho a la privacidad por a la falta de seguridad de los datos y de protecciones contra la vigilancia. Es una práctica estándar de la industria recopilar cantidades gigantescas de datos y venderlos al mejor postor. Como resultado, las plataformas digitales parecen conocernos mejor de lo que nos conocemos a nosotros mismos, y la vida online está plagada de manipulación económica y política. Por otra parte, ya se ha visto que la manipulación algorítmica y la desinformación amenazan el correcto funcionamiento de la democracia. El desarrollo acelerado de los grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI ha habilitado nuevas vías de fraude, incluso a través de falsedades profundas en audio y video que pueden destruir reputaciones; y han facilitado la propagación de noticias falsas, lo que se siente más agudamente en las democracias, donde una marea de contenido generado por IA amenaza con ahogar al periodismo de calidad y desestabilizar a países enteros en cuestión de horas. Las mismas estrategias se pueden utilizar para engañar a los consumidores. Además, el uso de redes sociales ha estado asociado a perjuicios considerables a la salud mental de los jóvenes. Y muchos han manifestado preocupación por el impacto disruptivo que podrían tener los ciberataques sustentados en IA y las armas autónomas en la paz y la seguridad internacional, por no mencionar los riesgos existenciales que plantean estas armas. Los gobiernos y la comunidad internacional están permitiendo que estos gigantes dominen el proceso de creación de un nuevo marco regulatorio y mecanismos de supervisión. Confiar en quienes sacan rédito de los problemas fundamentales del sector es un error peligroso. La buena noticia es que existen infinidad de expertos independientes y académicos que pueden proporcionar información valiosa sobre la mejor manera de regular el desarrollo y uso de la IA y otras tecnologías digitales. La innovación tecnológica no debe servir solo a los intereses de unas pocas corporaciones multinacionales. Para garantizar un futuro sustentable en el que todos podamos llevar una vida digna y próspera, los responsables de las políticas no deben permitir que los gigantes tecnológicos manejen la regulación de las plataformas digitales y las aplicaciones de IA que vayan surgiendo.