Europol advierte sobre el uso peligroso de ChatGPT en la delincuencia y el terrorismo
En un informe se detalla como los modelos de lenguaje de IA pueden impulsar el fraude, el ciberdelito y el terrorismo
Europol, la Agencia de la Unión Europea para la Cooperación Policial, ha emitido una advertencia sobre el uso indebido de los modelos lingüísticos como ChatGPT en la delincuencia y el terrorismo. Según un informe publicado por Europol, los cibercriminales pueden utilizar estas tecnologías para extraer información personal de cuentas bancarias, realizar fraudes de identidad y crear páginas web fraudulentas.
¿Cómo acabará el mundo según la inteligencia artificial?
Leer másLa capacidad de ChatGPT para redactar textos muy realistas sin errores gramaticales y ortográficos podría facilitar la ingeniería social, una técnica utilizada para engañar a las personas y obtener información personal. Además, la producción de texto con sonido puede hacer que sea difícil detectar la desinformación y las campañas de comunicación falsas.
Europol destaca que, aunque estas tecnologías son muy valiosas, también presentan riesgos significativos. La organización sugiere que las autoridades desarrollen estrategias de acción para controlar áreas posibles de delincuencia, incluyendo la ingeniería social, la desinformación y la ciberdelincuencia.
Para un delincuente potencial con poco conocimiento técnico, este es un recurso invaluable. Al mismo tiempo, un usuario más avanzado puede explotar estas capacidades mejoradas para refinar aún más o incluso automatizar sofisticados modus operandi ciberdelincuentes.
La advertencia tiene como objetivo generar conciencia sobre el posible uso indebido de los modelos lingüísticos y promover el desarrollo seguro de la inteligencia artificial. Las empresas de IA deben trabajar juntas para garantizar que estas tecnologías se utilicen de manera responsable y ética, protegiendo así la seguridad y privacidad de las personas.