Estos días ha sido noticia el caso de Rex Schellenberg, una persona sin hogar que ha demandado a la ciudad de Los Ángeles, porque un oficial de policía había estado publicando información sobre él en Facebook, en grupos de usuarios creados para publicar fotos y comentarios sobre personas que rondaban los vecindarios. En estos se ofrecen consejos prácticos para alejar a estos improvisados vecinos, como dispararles, envenenarles, usando productos para el ganado o sprays repelentes, entre otras brillantes sugerencias. No hay mejor resumen de este embrollo que las propias palabras del abogado que defiende a la municipalidad, “no hay expectativa de privacidad por parte de nadie que esté en el proceso de cometer un delito o violar la ley“… Precisamente en una red social que, tras cuatro años después de anunciarlo, ha fracasado en evitar la venta de armas entre sus usuarios.

 

En relación con esto de la prevención tecnológica del delito, el New York Times ha publicado un artículo, “An Algorithm That Grants Freedom, or Takes It Away”, en el que se señala que en Estados Unidos y Europa están proliferando los algoritmos para prevenir delitos y dictar sentencias. Casi todos los estados de EEUU han recurrido a este tipo de programas, y se han identificado al menos 16 en los países europeos. Las autoridades locales utilizan los llamados algoritmos predictivos para planificar patrullas policiales, penas de prisión y reglas de libertad condicional. Una ciudad británica lo usa para clasificar a los adolescentes según su probabilidad de delinquir. En Pensilvania se pretendía utilizar para fijar las penas de los condenados, hasta que un tribunal los ha prohibido. Pero también se están usando contra el fraude, como los Países Bajos para su Seguridad Social. Aunque una reciente sentencia en este país ha dictaminado que estos algoritmos predictivos van contra las leyes europeas de derechos humanos.  En un reciente informe de la ONU, se advertía que los gobiernos están asumiendo riesgos “tropezando como zombis en una distopía de bienestar digital“.

 

También ha sido noticia Glenn “Chip” Hill, que se descargó una app para localizar en el móvil a los miembros de su familia, y que fue usada por la policía para vincularle con un incendio provocado. La policía ya sospechaba de Chip, porque una cámara de vigilancia había detectado su vehículo en las proximidades del incendio, pero recurrió al móvil de su hijo, tras pedirle que contratase la versión Premium de la aplicación, para acceder al historial de sus ubicaciones. Es una práctica de muchas apps, que tienen embebido software de localización del usuario aunque no sea necesaria para su funcionalidad, para un mercado abierto de compraventa de datos, del que también parece participar el Departamento de Interior de los Estados Unidos, que ha estado comprando registros comerciales de ubicaciones de inmigrantes ilegales.

 

En todos estos casos las personas sujetas a los algoritmos, redes sociales o esos sistemas de localización, no eran conscientes de su posible uso para prevenir y/o perseguir delitos, porque sus visitas a funcionarios o a empleados de empresas privadas que servían para nutrir de datos los programas predictivos, las conversaciones públicas entre policías y vecinos en una red social diseñada para otro uso, o esas aplicaciones con funcionalidades injustificadas para su original finalidad, evidencian un “camuflaje” tecnológico que plantea un interesante debate.

 

La ya famosa sentencia Carpenter v. United States del Tribunal Supremo de este país, defendió, en base a la 4ª Enmienda, el derecho de los ciudadanos a no estar sujetos a “búsquedas y capturas no razonables”, porque “cuando el Gobierno rastrea una localización de un teléfono móvil consigue una vigilancia perfecta”, y por tanto es necesaria una decisión judicial previa que actúe como garantía de los derechos individuales. Esta sentencia estableció que los teléfonos móviles eran tan indispensables para la vida en la sociedad moderna, que debía ser objeto de especial protección para garantizar el derecho a la privacidad de sus usuarios, limitando la localización de los ciudadanos sin una probabilidad cierta de hechos que lo justifiquen.

 

Pero este criterio judicial parece chocar, no sólo con todas esas noticias recientes, sino también con otras no menos llamativas de estas últimas semanas. Como el empeño del gobierno norteamericano de exigir a Apple que le habilite una “puerta trasera” en los dispositivos de sus clientes, esa que ahora este denuncia en el caso de Huawei para el espionaje chino. Que Rusia haya promulgado una ley que obliga a la instalación en los smartphone de determinadas aplicaciones para monitorizar a los ciudadanos, la ya famosa “Ley contra Apple”. La decisión de Google de cobrar a las agencias gubernamentales de su país por los datos de sus usuarios, sin su permiso. La propia compañía ha publicado que en el primer semestre de 2019 recibió más de 75.000 solicitudes oficiales para acceder a los datos de 165.000 cuentas en todo el mundo, pero solo una de cada tres procedía de Estados Unidos. O también noticias más cercanas, como que 3.000 cajeros automáticos en España van a difundir fotografías de personas desaparecidas mientras se saca dinero, permitiendo que millones de personas vean esas imágenes sin consentimiento del afectado. Y ya se anuncia, además, una formidable batalla promovida por diversos gobiernos contra la encriptación de la mensajería móvil, para acceder sin restricciones a su contenido.

 

Pero más allá de los componentes jurídicos de estas noticias, o de la novedad y dudosos efectos de esos “camuflajes” tecnológicos que parecen servir de puerta trasera del sistema, sobre todo para beneficio de unas pocas empresas privadas, y dado que estamos en un foro especializado, creo interesante analizarlo desde otra perspectiva. Su carácter problemático para este sector, porque podría deducirse un efecto “sándwich” entre los consumidores de la seguridad y las empresas tecnológicas, en un dudoso juego del que además quieren aprovecharse algunos gobiernos gracias al desgobierno tecnológico que hoy parece reinar en el planeta.

 

Basta con teclear en internet la frase “soluciones de seguridad privada”, y veremos que en 0,50 segundos se ofrecen 34.400.000 resultados, que casi siempre se refieren a asuntos como seguridad preventiva y analítica, inteligencia artificial, sensorizaciones, cámaras inteligentes, apps, o botones de pánico a través de smartphones, entre otras, que se basan en una oferta fundamentalmente tecnológica, pero sin capacidad real para capturar y analizar gigantes volúmenes de datos en procesos transparentes para los usuarios, esos que no “ven” cuando nutren al sistema con su actividad cotidiana. Una posibilidad inalcanzable para las empresas tradicionales de seguridad, que debería provocar el preguntarse por el valor real de su oferta, porque si esta solamente va de máquinas y conectividad existe un problema para el sector, o al menos un complejo reto. Es evidente que asistimos a una “okupación” de este mercado por nuevos actores y herramientas, que parece estar desdibujando la función de las empresas tradicionales del sector de la seguridad privada.

 

Los consumidores ya pueden comprar por su cuenta cámaras, descargar aplicaciones, desplegar sensores o usar dispositivos con capacidad computacional e inteligencia artificial, sin el concurso de las empresas de seguridad, pero nadie parece advertirles de que su seguridad realmente depende de una nueva inteligencia basada en un enfoque holístico con tecnología avanzada, que precisamente les proteja de esos camuflajes tecnológicos, de esos mismos aparatos o aplicaciones cuyo interés real son los datos que se venden al mejor postor, o de esas puertas traseras que contradicen elementos consustanciales a la seguridad en el siglo XXI, como la privacidad o la ausencia de vulnerabilidad, que este sector debería ondear como bandera, por convicción y necesidad.

Gonzalo Suárez