Premium

Cómo cerrar la brecha de la normativa sobre IA

Avatar del Columna Internacional

El sector digital se convirtió en esencial para el funcionamiento de nuestras economías y sociedades

En marzo el Instituto Future of Life publicó una carta abierta solicitando se suspenda por seis meses el desarrollo de sistemas de inteligencia artificial generativa y mencionaba los potenciales peligros que implican para la humanidad. Numerosas figuras de alto perfil plantearon temores similares (entre ellas, Geoffrey Hinton, el pionero de la IA que renunció hace poco a su puesto en Google para dar la alarma sobre la “amenaza existencial” que implica la tecnología en cuyo desarrollo tuvo un papel fundamental). No debemos desestimar la gravedad de las advertencias. Los pedidos para que el gobierno intervenga rara vez surgen de empresas tecnológicas, que en los últimos años resistieron ferozmente los esfuerzos de los responsables de las políticas estadounidenses y europeas por regular la industria; pero por la promesa económica y estratégica de la IA generativa, no se puede esperar que el desarrollo se detenga o desacelere por sí solo. Los miembros del Parlamento Europeo votaron a favor de una versión más restrictiva de la Ley de IA en un intento por adaptarla a ‘modelos fundacionales’ y sistemas de IA generativa avanzada como el GPT-4 de OpenAI. Como uno de los principales negociadores de las revolucionarias Leyes de Mercados Digitales (LMD) y de Servicios Digitales (LSD) de la UE, reconozco la importancia de crear un mundo digital centrado en los humanos y mitigar los impactos potenciales negativos de las nuevas tecnologías, pero la velocidad a la que la UE está creando medidas restrictivas es preocupante. Los modelos grandes de lenguaje (LLM) como el GPT-4 podrían ampliar significativamente la productividad de los oficinistas cuando los países desarrollados buscan desesperadamente formas de aumentarla. Pero la versión de la ley de IA dictada por el Parlamento Europeo funciona como prohibición de facto al desarrollo de los LLM. La rápida respuesta de la UE podría resultar en la pérdida de otra oportunidad para que EE. UU. y Europa acuerden un marco común para regular la industria tecnológica. Las conversaciones sobre regulación transatlántica se vieron plagadas por malentendidos y ambos lados avanzaron en sus iniciativas sin coordinación adecuada. Europa abrazó una regulación digital más estricta, a veces a costa de su competitividad, y EE. UU. se mostró lento en adoptar nuevas reglas por divisiones partidistas y preocupación por posibles violaciones a la libertad de expresión. Aunque hace falta un marco común para garantizar competencia justa entre empresas, hay pocas señales de que los enfoques estadounidense y europeo para la supervisión del sector converjan pronto. La incapacidad para encontrar puntos en común tuvo como resultado ineficiencias a corto plazo y podría llevar a desconexión en el largo plazo. El poder transformador de los LLM, en especial su potencial para causar disrupción socioeconómica por el desplazamiento de millones de trabajadores, sube la apuesta para que los responsables de las políticas de Europa y EE. UU. establezcan un marco regulatorio compartido, con concesiones de ambas partes: la UE tendría que pausar su legislación y EE. UU. tendría que lograr un consenso bipartidista en el Congreso. Aunque la armonización no será fácil sigue siendo la solución más factible a largo plazo. Europa debe ganar ventaja competitiva y EE. UU. poner freno a la espiral descendente que hay en la esfera de la IA. La regulación de la industria tecnológica es fragmentaria y por ello ineficaz. El actual momento crítico podría ofrecer una oportunidad única para cambiar. Si la aprovechamos podríamos garantizar que EE. UU. y Europa se beneficien del inmenso potencial de las IA generativas y que esa tecnología se desarrolle en un marco ético y responsable.