Dado los dramáticos acontecimientos acaecidos estos últimos meses relacionados con tiradores en diferentes países aprovechando la aglomeración de personas en distintos lugares como colegios, mezquitas, centros comerciales, etc., hoy divulgamos en nuestro blog este artículo escrito por Benjamin O. Powers que fue publicado en el magazín Public Securitc. Today el pasado 19 de agosto.

El 19 de marzo de 2019, un extremista anti-islámista se grabó a sí mismo abriendo fuego en la mezquita Al-Noor en Christchurch, Nueva Zelanda y lo retransmitió a través de Facebook Live. Cincuenta personas murieron y otras 50 resultaron heridas. El ataque fue condenado por países de todo el mundo y ha llevado a esfuerzos internacionales para abordar la difusión de contenido violento y discursos de odio a través de las redes sociales.
Ahora, Al-Noor Mosque contará con tecnología de detección de tiradores activada por IA a través de la iniciativa Keep Mosques Safe (KMS), una asociación formada por Athena Security y Al-Ameri International Trading. La tecnología de Athena utiliza un algoritmo de visión computacional que monitorea cámaras y alerta a las fuerzas del orden cuando detecta una. KMS quiere instalar la tecnología de Athena en mezquitas de todo el mundo mediante la financiación de organizaciones benéficas y fundaciones islámicas. Esto podría dar a las mezquitas una mejor oportunidad de alertar más rápidamente a la policía o a la seguridad del propio edificio algo como Christchurch ocurriera nuevamente.
Las empresas de Estados Unidos están adoptando tecnología que identifica proactivamente las armas a través de videos e imágenes en vivo. Virtual eForce lo está utilizando en las escuelas y TrueFace lo está utilizando en las oficinas para detectar armas más rápido a través de imágenes de vigilancia. PatriotOne desarrolló Patscan VRS, que utiliza la visión computacional para analizar automáticamente las secuencias de vídeo.
Pero, ¿cómo funciona realmente la tecnología que subyace en todos estos sistemas? Básicamente, se trata de crear etiquetas para las imágenes y los píxeles que las componen.
La visión computacional es un tipo de inteligencia artificial que entrena a los ordenadores para “ver” el mundo que les rodea. Los programadores comienzan etiquetando y clasificando millones de imágenes, luego enseñando a la máquina a reconocer y clasificar esas imágenes píxel por píxel. Una vez que el ordenador aprende el conjunto de datos inicial, puede comparar nuevas imágenes con dicho conjunto y comenzar a clasificarlas por su cuenta, utilizando modelos de aprendizaje automático que incorporan probabilidad estadística. De esta manera, se puede entrenar a una máquina para diferenciar entre un perro y un gato, un automóvil y un camión, o, en la industria de la seguridad, una pistola larga con el mango de una escoba.
Esta tecnología se incorpora a los sistemas que pueden reconocer objetos dentro de imágenes o videos.
El sistema analiza las imágenes estableciendo primero el perímetro del objeto. Este “cuadro delimitador” acordona una parte de la imagen como área de interés, luego analiza y etiqueta los píxeles dentro de ese cuadro. Una vez que identifica lo que él cree que es un arma se le puede dar retroalimentación sobre si dicho reconocimiento fue preciso o no, y usar esa retroalimentación para perfeccionar sus hallazgos, un proceso conocido como aprendizaje automático. Por ejemplo, si el sistema etiqueta erróneamente un rastrillo, que alguien lleva sobre el hombro, con una pistola se modificaría el algoritmo y lo marcaría como incorrecto y luego usaría otros patrones en los datos para diferenciar entre los dos.
“Eso es lo que distingue a un sistema moderno de visión computacional. Se basa en gran medida en un enfoque de inteligencia artificial y de aprendizaje automático basado en toneladas de datos”, dice George Berg, científico informático de la Facultad de Preparación para Emergencias, Seguridad Nacional y Ciberseguridad de la Universidad. de Albany.
Existen numerosos usos para esta tecnología, desde la identificación de células cancerosas a tasas más rápidas que las de los médicos, hasta el reconocimiento facial (ya sea por seguridad o en las redes sociales) o, como ya se indicó anteriormente, para la detección de armas.
La industria de la seguridad, en particular, tiene casos de uso interconectados que muestran el valor de la visión computacional en múltiples sistemas. Este tipo de visión puede rastrear una marca y modelo de un automóvil sospechoso a través de un campus o una ciudad utilizando una red de cámaras de vigilancia, o navegar a través de cientos de horas de imágenes forenses en busca de un sospechoso utilizando el reconocimiento facial. El Patscan VRS de PatriotOne puede marcar pistolas u otras armas y alertar a los equipos de que algo malo puede suceder.
No debería ser una sorpresa, entonces, que los analistas esperen que el mercado de visión computacional alcance los $ 48 mil millones para 2023.
Wael Abd-Almageed, del Instituto de Ciencias de la Información de la USC, dice que incluso con los avances en la visión computacional, existen todavía desafíos a los que tendría que enfrentarse.
“Según Abd-Almageed, uno de los desafíos para el reconocimiento facial se produce cuando las personas cambian debido al envejecimiento, o que la persona en esa imagen o vídeo estuviera usando una bufanda o dejase crecer la barba, o algo por el estilo”.
Las armas también presentan sus propios desafíos ya sólo por la gran cantidad de ellas que existen. Hay cientos de marcas y modelos. Pensemos por ejemplo en una metralleta, una pistola o un rifle semiautomático.
“La visión computacional puede reconocer tanto un rifle como una pistola,, a pesar de que se ven muy diferentes”, dice Berg. “Los sistemas modernos hacen que el proceso de aprendizaje sea flexible y continuo y pueda dar cuenta de la gran variedad de armas que existen”.
Fuente: Public Securitc. Today