Y... ¿cómo cierras esa puerta?
...los esfuerzos de Facebook para combatir imágenes de desnudos resultaron en censuras que obligaron a retirar fotos de la estatua de La Sirenita, en Copenhague’.
La compañía Apple ha sido considerada siempre el adalid de la privacidad. En 2016, se enfrentó con el cuchillo entre los dientes al gobierno de EE. UU. al negarse a construir una “puerta trasera” (‘backdoor’) para el iPhone a pedido del FBI. En el 2020, la compañía nuevamente se negó a abrir el iPhone de un sospechoso de terrorismo. Hace poco, modificó su sistema operativo para que las aplicaciones que quieran rastrear al usuario deban pedirle permiso expreso. La compañía basa estas políticas (y otras como el cifrado de mensajes de extremo a extremo) en el respeto a la privacidad de sus clientes.
Pero el romance se acabó. Apple implementará pronto en EE. UU. un sistema que revisará automáticamente las fotos subidas a la nube (iCloud) desde iPhones e iPads en busca de contenidos pederastas (CSAM, ‘child sexual abuse material’). Cada vez que una foto tomada desde un dispositivo Apple se suba a la nube, su ‘hash’ (registro de archivos comprimidos) se cotejará automáticamente con el de una lista de contenido preidentificado como pedófilo. El nivel de coincidencia, avisará a la compañía si debe revisar manualmente lo reprochable de los archivos. En caso afirmativo, se suspende la cuenta de Apple del usuario y se avisa a las autoridades.
A la vez, mediante un sistema de ‘machine learning’, o aprendizaje de máquina (inteligencia artificial), Apple vigilará las comunicaciones de menores de edad en su aplicación de mensajes. Si detecta envíos de imágenes con contenidos explícitos notificará a los padres.
Nadie duda ni cuestiona que la explotación sexual de menores es un problema sumamente serio, y Apple no es la primera que altera su política de privacidad para tratar de combatirlo (Google y Facebook ya lo hacen). Pero para muchos -sin dudar de las buenas intenciones de Apple- esa decisión conlleva un alto riesgo para la privacidad de los usuarios.
La clasificación de imágenes a través de aprendizaje de máquina ya ha patinado en identificar elementos sexualmente explícitos: los filtros que usó Tumblr para ese propósito causaron estragos en el 2018, y los esfuerzos de Facebook para combatir imágenes de desnudos resultaron en censuras que obligaron a retirar fotos de la estatua de La Sirenita, en Copenhague. No hay razones para pensar que los filtros de Apple no hagan lo mismo. La ineludible realidad es que al final del día es imposible crear un sistema de rastreo al usuario, que pueda ser usado exclusivamente para detectar imágenes sexualmente explícitas enviadas o recibidas por menores. Puede usarse para todo lo demás.
La línea es muy fina y bastante borrosa, hay argumentos válidos de parte y parte. Lo rastrero y vil de la actitud del abusador de menores merece ejemplar, pronto y brutal castigo, sin duda alguna. Pero creo que va a ser más difícil propinar merecido castigo a las empresas tecnológicas por el eventual abuso que pueda darse por parte de ellas.
Después de todo, una puerta trasera, por más vigilada y acrisolada, no deja de ser una puerta trasera. Ya la historia cuenta que la caída de Constantinopla empieza en 1453 cuando unos 50 turcos penetraron sus hasta entonces infranqueables murallas a través de la Kerkoporta... una pequeña puerta que alguien se había olvidado de cerrar (o que habían dejado deliberadamente abierta).
‘Welcome to the future, have a nice day’.