Ryan_Fairclough_facial-recognition

diciembre 2, 2020

Encarando el futuro con Ryan Fairclough

Nos sentamos con Ryan Fairclough, Gerente de Ventas de APAC en Herta, para hablar sobre la ética dentro del sector de la seguridad física.

¿Cómo ves el sector de la seguridad hoy en día?

La industria de la seguridad física es una bestia técnica en rápida evolución, la disponibilidad de nueva tecnología junto con el impulso humano de sentirse seguro en su entorno ha llevado a la industria a ser una de las de más rápido crecimiento en el mundo. Ya se trate de videovigilancia IP, control de acceso o cualquier otra gama de productos, la mayoría de las personas, a sabiendas o sin saberlo, han interactuado con una parte de esta tecnología en algún momento.

¿Cómo espera que evolucione el sector de la seguridad?

Habiendo estado involucrado en esta industria durante varios años, la evolución ha sido a un ritmo constante, pero constante en todas las facetas de la tecnología. Por supuesto, hubo acontecimientos atípicos tempranos, como el acceso biométrico de huellas dactilares, pero realmente carecían de cualquier tipo de adopción generalizada en la industria en general. En su mayor parte, la evolución tecnológica parecía provenir más del lado de la administración del producto. Consideremos por ejemplo la necesidad de un VMS más viable, o [en su momento] la carrera interminable para lanzar una cámara de video IP con más megapíxeles que su competidor, ¡solo para que la implementación en el mundo real sea de 1.3MP de todos modos!

En mi opinión, ninguna parte de la evolución de la tecnología (¡revolución tal vez!) ha sido tan rápida y demandada como el mundo de la Analítica de Video. Parece como de la noche a la mañana que la gente entendía la IA como algo sacado de una película de Arnold Schwarzenegger, y ahora esas mismas personas lo exigen en todos sus requerimientos.

Lo que alguna vez fue una escena famosa en una película de Tom Cruise donde nuestro héroe de acción ambientado en un futuro lejano es identificado, bienvenido y ofrecido productos basándose únicamente en sus ojos; ahora es una especie de realidad. Consideremos el tiempo que tomó ir más allá de un cable y las discusiones sobre líneas TVL para la adopción total de cables Cat5 y direcciones IP dentro de las cámaras. La velocidad de nuestra adopción y demanda de Video Analytics parece casi como Usain Bolt en su velocidad de comercialización.

¿Qué pasa con la ética en este sector?

Obviamente, con este enfoque rápido del mercado ha habido una serie de problemas éticos con el uso y la aplicación de tales tecnologías. El estado geopolítico mundial actual y el ascenso casi paralelo de la inteligencia artificial avanzada traen consigo comparaciones de la magnífica novela distópica de George Orwell «1984». Esto fue incluso antes de que nos adentráramos en al año, ahora histórico, de 2020, donde el mundo entero ha sido puesto al revés por una fuerza invisible que no se parece a nada que nadie haya visto en su propia vida: COVID-19.

Pero, ¿son justas estas comparaciones?

Es como si me preguntaran si el uso de la tecnología analítica, incluida la tecnología de reconocimiento facial, nos va a enviar a toda velocidad hacia un punto en el que las reflexiones antes mencionadas de George Orwell (publicadas por primera vez en 1949) se conviertan en una especie de profecía de Nostradamus.

En mi opinión, «No» y, en última instancia, mi fe en nuestra propia industria y la humanidad en general es el núcleo de mi razonamiento.

Recientemente escuché de algunos casos de muy alto perfil, de presunto uso indebido de la tecnología de seguridad y un país, con razón o sin ella, se ve sometido a presión con regularidad por algunas de sus implementaciones y razonamientos. Si bien no estoy aquí para debatir la realidad real de estas acusaciones, sí prueban el concepto de usos poco éticos de los equipos de vigilancia y, en particular, los productos de inteligencia artificial y reconocimiento facial más inteligentes.

Pero al señalar estas acusaciones y el disgusto de la gente por tales usos, en particular el perfil étnico y la «moneda social», creo que llegamos a la conclusión de que el autocontrol y la preocupación de la industria a largo plazo superarán las aplicaciones poco éticas.

El simple hecho de que estas preguntas se planteen en una fase tan embrionaria del despliegue de la tecnología da crédito a la teoría de que el uso ético de la misma está a la vanguardia de la gran mayoría de nuestra industria.

Sin embargo, creo que nos corresponde a nosotros, como proveedores e integradores de estos productos, asegurarnos de que los estamos implementando en beneficio del futuro.

¿Cómo lidias con esto en Australia?

En Australia tenemos una herramienta de conversación cuantitativa llamada «Prueba del Pub» para resolver desacuerdos básicos. En su forma más simple, transmite una situación en la que, si me encontrara a una persona promedio en un bar promedio y me detuviera a hablar con él, presentara todos los hechos de mi aplicación y caso de uso, ¿estaría esa persona de acuerdo con su uso o no? ¿Se sentirían cómodos siendo parte de un caso de uso de ese tipo?

¿Qué pensaría la persona promedio con poco o ningún conocimiento de nuestra industria que sea correcto en las circunstancias?

Tenemos la obligación de asegurarnos de que estamos aprobando la “Prueba del Pub” y que nuestras aplicaciones de Tecnología de Seguridad y Análisis provienen de un lugar de prosperidad futura para todos en lugar de opresión o propósitos inseguros. Creo que nuestra industria en su conjunto es más que capaz de lograr tal ideología y podemos descartar los excelentes escritos de George Orwell como una obra de pura ficción.

Suscríbase a nuestro boletín de noticias

Más

herta social media-reconocimiento-facial

Síguenos en Twitter

@hertasecurity

Descubra Herta Social Media
herta productos reconocimiento facial

Soluciones

Ofrecemos a nuestros clientes un software de reconocimiento facial escalable, personalizable y fácil de usar

Descubra nuestras soluciones