
La idea suena tentadora si se cuenta deprisa: instalar cámaras inteligentes por todas partes, leer matrículas en tiempo real y convertir cada calle en una especie de “alarma vecinal” automatizada. Eso es, en esencia, lo que vende Flock Safety, una empresa de vigilancia con IA que ha crecido al calor de los presupuestos municipales de seguridad y de un mensaje muy directo de su CEO: la ambición de terminar con el crimen en Estados Unidos durante esta década mediante una red extensa de dispositivos siempre atentos.
Lo interesante es que esa narrativa, que hace unos años encontraba compradores sin demasiadas preguntas, está chocando con un muro cada vez más alto: el rechazo ciudadano y la sospecha de que estos sistemas no solo persiguen delitos, sino que también fabrican riesgos nuevos para la gente corriente. Según ha informado NPR, desde el inicio de 2025 al menos 30 ciudades han cancelado contratos con Flock Safety, un dato que funciona como termómetro de un cambio cultural más amplio: el de la paciencia pública con la tecnología de vigilancia.
Cancelaciones en cadena: cuando el contrato se vuelve políticamente tóxico
En política local hay decisiones que se toman en despachos, pero se deshacen en asambleas vecinales. Las cancelaciones de contratos con Flock no se explican solo por informes técnicos o por auditorías presupuestarias; se explican, sobre todo, por presión comunitaria organizada. NPR apunta a campañas que han logrado sacar a Flock de ciudades como Flagstaff (Arizona), Eugene (Oregón) y Santa Cruz (California). Son nombres que, puestos en fila, dibujan un patrón: no hablamos de un caso aislado, sino de un efecto contagio.
En Flagstaff, la alcaldesa Becky Daggett resumió ante NPR lo que suelen decir los gobiernos locales cuando una herramienta “de seguridad” se convierte en un problema de confianza: la tecnología ya no era bien recibida por la comunidad y, por tanto, no podían seguir utilizándola. En pocas palabras, el coste social empezó a superar el supuesto beneficio operativo.
Para entenderlo con un ejemplo cotidiano: es como cuando una comunidad de vecinos instala un sistema de acceso biométrico porque “es más seguro”, pero al poco tiempo la gente percibe que el administrador tiene demasiado control, que los fallos son frecuentes y que el sistema convierte cualquier discusión en un conflicto permanente. La seguridad no se mide solo en cerraduras; también se mide en convivencia.
Qué son los lectores de matrículas y por qué no son tan “pasivos” como parecen
Los lectores automáticos de matrículas suelen presentarse como algo discreto, casi administrativo: una cámara que “solo” mira placas para detectar coches robados o identificar vehículos implicados en delitos. El problema está en esa palabra, “solo”. En la práctica, leer matrículas a gran escala no es un gesto puntual; es una forma de construir una memoria mecánica de la ciudad.
Si una cámara te ve hoy cerca de un supermercado, mañana junto a una clínica y pasado cerca de casa de un amigo, el sistema puede ensamblar un historial de ubicaciones. Y un historial de ubicaciones no es un dato neutro: es una biografía de hábitos. En el mundo analógico, a nadie se le ocurriría pedir al ayuntamiento que anote cada vez que cruzas una esquina; en el mundo digital, eso se camufla como “telemetría de seguridad”.
DeFlock, un proyecto de activismo digital que funciona como app web de código abierto, lo expresa sin rodeos: estos sistemas pueden derivar en perfilado, errores policiales, sesgos raciales y hasta situaciones de acoso cuando los datos se usan mal o se interpretan con ligereza. El activista Will Freeman, organizador en Colorado y responsable del sitio DeFlock.org, describió a NPR un aumento del impulso: prevé que más ciudades abandonen Flock, señal de que el debate ya no es técnico, sino social y político.
Un mapa de 77.000 cámaras: la normalización de la mirada permanente
Hay un detalle que ayuda a dimensionar el fenómeno: DeFlock mantiene un mapa interactivo con más de 77.000 lectores de matrículas con IA registrados en Estados Unidos. Flock es el actor más grande, pero no el único. Esa cifra no es un simple inventario; es una radiografía de hasta qué punto la infraestructura de vigilancia se ha instalado como un “mobiliario urbano” más, casi con la misma naturalidad con la que se ponen farolas o semáforos.
Cuando una tecnología se vuelve invisible en el paisaje, se vuelve peligrosa en el debate público, porque deja de percibirse como una decisión. Y, sin embargo, lo es: cada cámara es un contrato, cada contrato es una política, cada política define qué tipo de ciudad se quiere habitar.
Cuando la IA se equivoca: del indicio al “caso” en cuestión de clics
El argumento más poderoso contra estos sistemas no es filosófico: es práctico. NPR recoge un caso ilustrativo ocurrido en Denver, en el que una mujer fue acusada de robar un paquete de 25 dólares después de que la policía, utilizando Flock, concluyera que había conducido cerca del lugar el día del robo. La palabra clave aquí es “cerca”. Estar en las proximidades no es lo mismo que participar, pero el salto mental es tentador cuando tienes una interfaz que te entrega coincidencias como si fueran certezas.
El desenlace fue revelador: los datos GPS mostraron que la mujer simplemente pasó por la zona sin detenerse. El software había generado una narrativa plausible, y esa plausibilidad bastó para empujar una acusación. Es el tipo de error que cualquiera entiende si se lo explicas con una metáfora doméstica: imagina que el portero automático registra que estabas “en el edificio” porque pasaste por la acera, y con eso el administrador te acusa de haber entrado a robar una bicicleta del garaje. La tecnología no solo registra; también sugiere. Y si el sistema sugiere con demasiada autoridad, los humanos alrededor tienden a creerle más de lo que deberían.
Este es uno de los puntos que han encendido el rechazo: el riesgo de convertir una herramienta en un atajo cognitivo para decisiones que exigen más contexto, más prudencia y, sobre todo, más pruebas.
La dimensión política: vigilancia municipal en tiempos de inmigración como objetivo
La oposición a Flock se ha intensificado en un contexto político más amplio: el uso de herramientas de vigilancia por parte de agencias federales como el Departamento de Seguridad Nacional y el Servicio de Inmigración y Control de Aduanas, especialmente bajo la administración de Donald Trump, según la lectura que plantea el artículo de Futurism. El temor no es abstracto: es la posibilidad de que una infraestructura instalada con la etiqueta de “seguridad local” termine alimentando estrategias de control migratorio.
En este punto, el debate cambia de escala. Ya no se trata solo de si una ciudad quiere cámaras para investigar robos de coches; se trata de si esa ciudad está creando una autopista de datos que otros actores pueden usar para perseguir a colectivos vulnerables. La vigilancia algorítmica tiene esa cualidad: se construye con una justificación y se reutiliza con otra.
El dilema de fondo: seguridad sin convertir la ciudad en un expediente
Las ciudades que rompen con estos contratos están enviando un mensaje que va más allá de Flock Safety: la seguridad pública no puede basarse en registrar a todo el mundo “por si acaso”. Ese modelo trata a la población como sospechosa potencial y delega en sistemas automatizados la tarea de decidir qué merece atención.
Una alternativa razonable no pasa por negar la tecnología, sino por hacerla gobernable. Si una ciudad considera útil un sistema de lectura de matrículas, el debate debería incluir límites claros: qué se guarda, cuánto tiempo, quién accede, con qué auditorías, con qué consecuencias si hay abuso, qué mecanismos reales existen para impugnar errores. Sin esos frenos, la herramienta se parece demasiado a una libreta infinita que siempre se puede consultar, incluso cuando la razón original ya no existe.
La ola de cancelaciones sugiere que más comunidades han empezado a ver la trampa: una vez instalas una infraestructura de vigilancia, retirarla es difícil, porque siempre habrá una nueva emergencia para justificarla. Por eso, cuando un grupo de vecinos logra que el ayuntamiento corte el contrato, no solo gana una batalla local; marca un precedente emocional y político para otras ciudades que se preguntan si el precio de la seguridad con IA merece la erosión de la privacidad cotidiana.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
