AXIS Object Analytics - User manual

Descripción general de la solución

Acerca de la aplicación

AXIS Object Analytics detecta, clasifica y recuenta objetos en movimiento, concretamente personas o vehículos. Puede configurar escenarios con distintas condiciones de detección, por ejemplo objetos que se muevan o permanezcan más tiempo del establecido dentro de una zona predefinida o que crucen una línea definida. Cuando se detectan o recuentan los objetos, los dispositivos de red de Axis o el software de terceros pueden realizar distintas acciones, como grabar vídeo, reproducir un mensaje de audio o avisar al personal de seguridad.

Consideraciones

Para obtener mejores resultados, la cámara debe montarse correctamente. Hay requisitos en la escena, la imagen y los objetos. Las consideraciones de este capítulo son genéricas. Para obtener información sobre aspectos específicos del producto, consulte el manual del usuario del producto en help.axis.com.

Esta imagen ilustra una cámara montada correctamente.

  1. Altura de montaje
  2. Vertical
  3. Área de detección
  4. Distancia mínima de detección
  5. Distancia máxima de detección

Mounting position (Posición de montaje)

Si monta la cámara mirando desde arriba hacia bajo, dificultará la clasificación de los objetos por parte de la aplicación.

Inclinación

La cámara debe estar suficientemente orientada hacia el suelo para que el centro de la imagen esté por debajo de la línea del horizonte. Monte la cámara de modo que la distancia mínima de detección sea mayor que la mitad de la altura de montaje de la cámara (distancia mínima de detección > altura de montaje de la cámara / 2).

Área de detección

El punto de detección de un objeto debe estar dentro de la área de detección. El punto de detección de una persona está en sus pies y en su centro si se trata de un vehículo.

Distancia máxima de detección

  • La distancia máxima de detección depende de:
  • Tipo y modelo de la cámara

  • Objetivo de la cámara. Un rango focal más alto permite una distancia de detección más larga.

  • Climatología. Por ejemplo, la lluvia o la nieve intensas pueden afectar a la distancia de detección y a la precisión.

  • Luz. La precisión y el alcance de la detección pueden verse afectados por una iluminación insuficiente.

  • Carga de la cámara

Recomendamos que utilice AXIS Site Designer para determinar la distancia de detección máxima para los diferentes modelos de cámara de su instalación.

Roll (Giro)

El ángulo de giro de la cámara debe ser próximo a cero. Esto significa que la imagen debe estar nivelada con el horizonte.

Campo de visión

El campo de visión de la cámara debe ser fijo.

Vibraciones

La aplicación tolera pequeñas vibraciones de la cámara, pero se obtiene un mejor rendimiento cuando la cámara no está sujeta a vibraciones.

Tamaño del objeto

Para que se detecte una persona, la altura mínima debe ser del 4 % de la altura total de la imagen. En el caso de un vehículo, la altura mínima debe ser del 3 % de la altura total de la imagen. No obstante, esto requiere unas condiciones de imagen perfectas y ausencia de obstrucciones a la vista. Para minimizar el riesgo de ausencia de detecciones, recomendamos una altura de al menos un 8 % para humanos y de un 6 % para vehículos.

Visibilidad de objetos

La precisión de la detección puede verse afectada:

  • si los objetos solo son parcialmente visibles parcialmente debido, por ejemplo, al follaje. Es particularmente importante que los elementos característicos, como piernas o ruedas, sean visibles.

  • cuando la escena está llena de objetos que se superponen frecuentemente entre sí. Por ejemplo, cuando hay una congestión de tráfico o en un aparcamiento.

Contrast (Contraste)

  • Debe haber un cierto nivel de contraste entre los objetos y el fondo. El niebla, la luz directa que brilla ante la cámara o una imagen con mucho ruido pueden ocasionar problemas de contraste. Puede aumentar el nivel de iluminación y ajustar los ajustes de imagen para mejorar el nivel de contraste.
  • Si utiliza una cámara día-noche de con iluminación artificial, recomendamos al menos 50 lux en toda el área de detección.

  • Si utiliza la iluminación IR integrada, la distancia de detección máxima depende de la cámara y el entorno.

Movimiento esperado de los objetos de la escena

Es necesario que los objetos que se aproximan a la cámara en línea recta se desplacen durante más tiempo antes de que se les pueda detectar en comparación con los objetos que se desplazan perpendicularmente al campo de visión de la cámara.

Postura humana

Los seres humanos tienen que desplazarse en posición erguida.

Movimiento de objetos

Los objetos deben moverse dentro de la escena durante al menos 2 segundos.

Ajustes de imagen recomendados

Antes de empezar a utilizar la aplicación, le recomendamos que active Forensic WDR y la corrección de la distorsión de barril, si están disponibles para su cámara.

La imagen de la derecha es un ejemplo de distorsión de barril. La distorsión de barril es un efecto del objetivo en el que las líneas rectas se muestran más dobladas hacia los bordes del fotograma.
  • Condiciones en las que las detecciones se pueden retrasar o perder
  • Nota

    Estas condiciones no son relevantes para las cámaras de fusión de vídeo por radar.

  • Niebla

  • Luz directa sobre la cámara

  • Luz insuficiente

  • Imagen con ruido excesivo

  • Situaciones que pueden activar falsas alarmas
  • Personas o vehículos ocultos parcialmente. Por ejemplo, una furgoneta pequeña que aparece detrás de una pared puede parecer una persona, ya que el vehículo es alto y estrecho.

  • Insectos en el objetivo de la cámara. Tenga en cuenta que las cámaras de día y noche con puntos de infrarrojos atraen a insectos y arañas.

  • La combinación de faros de vehículos y lluvia intensa.

  • Animales de tamaño humano.

  • Luz intensa que produce sombras.

Procedimientos iniciales

  1. Inicie sesión como administrador en la interfaz del dispositivo y vaya a Apps > AXIS Object Analytics (Aplicaciones > AXIS Object Analytics).

  2. Inicie la aplicación y haga clic en Open (Abrir).

  3. En la pantalla de bienvenida, haga clic en Step-by-step (Paso a paso) para seguir el procedimiento de configuración recomendado.

  4. En Considerations (Consideraciones), lea la información.

  5. Haga clic en + New scenario (Nuevo escenario.

  6. Seleccione qué desea que haga el escenario:

    • Objeto en el área: Detecte y clasifique objetos que se mueven dentro de un área definida.

    • Cruce de línea: Detecte y clasifique objetos que cruzan una línea definida.

    • Tiempo en el área: Detecte y clasifique objetos que permanecen en un área demasiado tiempo.

    • Recuento de cruce de línea: Cuente y clasifique objetos que cruzan una línea definida.

    • Ocupación en el área: Clasifique y estime el número de objetos dentro de un área definida en un momento dado.

    • Movimiento en el área: Detecte cualquier tipo de objeto que se mueva dentro de un área definida.

    • Cruce de línea de movimiento: Detecte cualquier tipo de objeto que cruce una línea definida.

  7. Para obtener más información sobre los distintos escenarios, consulte Escenarios de área y Escenarios de traspaso de línea.
  8. Seleccione el tipo de objeto que quiere que detecte la aplicación.

    Más información sobre Clasificación de objetos.

  9. En el caso de las cámaras PTZ, puede limitar la detección a una posición predefinida específica. Selecciónela en la lista.

  10. Configure el escenario.

    Para saber cómo ajustar la línea predeterminada o el área de inclusión, consulte Ajustar línea o área virtual.

  11. Verifique los ajustes y haga clic en Finish (Finalizar).

Ya ha creado un escenario. Para cambiarle el nombre o modificarlo, haga clic en Open (Abrir).

Para crear más escenarios, haga clic en + New scenario (Nuevo escenario).

Crear un escenario: objeto en el área
Crear un escenario: tiempo en el área.
Crear un escenario: ocupación en el área.
Crear un escenario: cruce de línea
Crear un escenario: recuento de cruce de línea

Ajustar línea o área virtual

  • Para cambiar la forma de una línea o de un área virtual, haga clic en ella y arrastre uno de los puntos de anclaje.

  • Para mover una línea o un área virtuales, haga clic en ella y arrástrela.

  • Para eliminar una esquina, haga clic con el botón derecho en la esquina.

  • Línea virtual
  • Para cambiar la dirección en la que deben desplazarse los objetos para detectarse, haga clic en Scene > Change trigger direction (Escena > Cambiar dirección de activación). Las flechas rojas junto a la línea muestran la dirección actual. Las acciones se activan cuando los objetos cruzan la línea en la dirección de las flechas.

  • Para restablecer la línea virtual a su tamaño predeterminado, haga clic en Scene > Reset line (Escena > Restablecer línea).

  • Si ha modificado la línea virtual en un escenario existente, puede copiar la forma, la posición y la dirección de activación de la línea en un nuevo escenario. Para copiar una línea virtual, vaya a Copiar línea virtual de un escenario existente y seleccione un escenario en la lista desplegable.

  • Área
  • Para crear un área dentro del área de inclusión en la que no desea que se detecten objetos, haga clic en + Add exclude area (+ Agregar área de exclusión).

  • Si ha modificado el área de inclusión en un escenario existente, puede copiar la forma y la posición del área a un nuevo escenario. Para copiar un área de inclusión, vaya a Copiar área de interés de un escenario existente y seleccione un escenario en la lista desplegable

Configurar la aplicación

Modificar un escenario

Para modificar un escenario, haga clic en Scenarios (Escenarios) y haga clic en Open (Abrir) en la tarjeta del escenario.

  • Para todos los tipos de escenario:
  • Para cambiar el nombre del escenario, haga clic en .

  • Para cambiar el tipo de objetos que detectar, haga clic en Objetos de activación.

  • Para ajustar la línea o el área virtual, haga clic en Scene (Escena).

  • Para el tiempo en escenarios de área:
  • Use el ajuste avanzado Keep the rule active as long as the object is tracked (Mantener la regla activa mientras se siga al objeto) cuando cree una regla en la interfaz web del dispositivo y la regla tenga una acción con la opción "... mientras la regla esté activa". De este modo, la regla permanecerá activa mientras se siga al objeto y dentro del área de inclusión, y no solo durante la duración de la alarma.

    Para ver un ejemplo de cómo configurarlo, consulte Grabar vídeo cuando una persona permanece demasiado tiempo en una zona.

  • Para escenarios de recuento de traspasos de línea:
  • Para restablecer recuentos diariamente, haga clic en Crossline counting (Recuento de cruce de línea) y active Reset counts at midnight (Restablecer recuentos a medianoche).

  • Para restablecer los recuentos una vez, haga clic en Crossline counting (Recuento de cruce de líneas) y haga clic en Reset counts (Restablecer recuentos).

  • Nota

    La aplicación almacena los datos de recuento durante 35 días, independientemente del tipo de almacenamiento.

  • Para enviar eventos con datos de recuento en intervalos de un minuto, active el Intervalo de eventos.

  • Para la ocupación en escenarios de área:
  • Para activar acciones basadas en los niveles de ocupación en el área de interés, configure un Occupancy threshold (Umbral de ocupación).

  • Para activar acciones cuando el umbral de ocupación haya sido válido durante un tiempo establecido, defina el número de segundos en Trigger action after set time (Activar acción después del tiempo establecido).

  • Para enviar eventos con datos de ocupación en intervalos de un minuto, active el Intervalo de eventos. El evento incluye la ocupación mínima, máxima y media durante el intervalo.

  • Para movimiento en áreas y escenarios de cruce de línea de movimiento:
  • Para reducir las falsas alarmas debido a objetos que permanecen poco en la escena, con balanceo o pequeños, use filtros. Para obtener instrucciones y más información, consulte Usar filtros.

Calibre la perspectiva

Nota

No se puede calibrar la perspectiva de todos los tipos de dispositivos, por ejemplo, determinadas cámaras panorámicas.

Si la escena tiene una profundidad importante, debe calibrar la perspectiva para eliminar falsas alarmas provocadas por objetos pequeños. Durante la calibración, la aplicación compara la altura de los objetos que aparecen en la imagen con la altura real de los objetos físicos correspondientes. La aplicación utiliza la perspectiva calibrada para calcular el tamaño del objeto.

Coloque barras verticales en la imagen para calibrar la perspectiva. Las barras representan objetos físicos a diferentes distancias de la cámara.

  1. Vaya a Settings > Advanced > Perspective (Ajustes > Avanzado > Perspectiva) y haga clic en +.

  2. En la visualización en directo, escoja dos objetos con una misma altura conocida que se encuentren en el suelo y a diferentes distancias de la cámara.

    Puede utilizar, por ejemplo, los postes de una valla o una persona.

  3. Coloque las barras junto a los objetos y ajuste la longitud de cada barra a la altura del objeto.

  4. Seleccione los escenarios a los que desee aplicar la perspectiva.

  5. Introduzca la altura de los objetos en Perspective bar height (altura de la barra de perspectiva).

  6. Haga clic en Save (guardar).

Example

Si hay una valla con postes de 2 metros de altura que se extienden desde la cámara hacia el horizonte, posicione las barras en los postes de la valla, ajuste sus alturas e introduzca 200 cm (6 pies con 7 pulgadas) en los campos.

Importante

Asegúrese de que las barras no se superponen en altura entre sí.

Añadir superposiciones de metadatos integradas a las transmisiones de vídeo

Para mostrar el evento que se detectó en la transmisión de vídeo en directo o grabada, active la superposición de metadatos. Al activar la superposición de metadatos, la aplicación muestra:

  • Un rectángulo alrededor de los objetos detectados.

  • El área o línea del escenario en el que se detectó el objeto.

  • Para recuento de traspasos de línea: una tabla con el recuento acumulado por tipo de objeto.

  • Para ocupación en el área: una tabla con el recuento estimado por tipo de objeto en el momento determinado.

Si activa las trayectorias, la aplicación también muestra una línea que delinea la ruta que ha tomado un objeto.

Si se activan varios escenarios al mismo tiempo, se muestran superposiciones para todos ellos en todas las transmisiones con la resolución seleccionada.

Importante

Las superposiciones de metadatos se graban en superposiciones de alarma para la resolución seleccionada de la transmisión de vídeo. No se pueden borrar del vídeo grabado.

Nota

Si utiliza áreas de visión, las superposiciones de metadatos solo aparecen en la primera área de visión. El nombre predeterminado de la primera área de visión es Área de visión 1.

  1. En la página web de la aplicación, vaya a Configuración > Avanzada y, en función de la cámara:

    • active Metadata overlay (Superposición de metadatos).

    • Bajo Metadata overlay (Superposición de metadatos), seleccione en qué resolución deben mostrarse las superposiciones de metadatos integradas. Solo es posible seleccionar una resolución y la configuración se aplicará a todos los escenarios.

  2. Para mostrar la ruta que ha tomado un objeto, seleccioneTrayectorias

Restringir la detección a una posición PTZ predefinida

En el caso de las cámaras PTZ, puede limitar la detección a una posición predefinida específica.

  1. Vaya a Scenarios (Escenarios) y haga clic en Open (Abrir) en una tarjeta de escenario o haga clic en + para crear un nuevo escenario.

  2. Haga clic en Scene (Escena) y seleccione una posición predefinida de la lista.

Nota

Cada vez que la posición predefinida cambia, la aplicación debe volver a calibrar. Recomendamos esperar al menos 15 segundos antes de cambiar las posiciones predefinidas en una ronda de vigilancia.

Usar filtros

Utilice filtros para reducir el riesgo de falsas alarmas en escenarios de movimiento en el área o cruce de línea de movimiento.

  • Objetos que permanecen poco en la escena: Ignora objetos que solo aparecen en la imagen durante un breve periodo de tiempo.

  • Objetos con balanceo: Ignora los objetos que solo recorren una distancia corta.

  • Objetos pequeños: Ignora objetos pequeños.

Recomendaciones sobre filtros

  • Los filtros se aplican a todos los objetos en movimiento detectados por la aplicación y deben configurarse cuidadosamente a fin de asegurarse de que no se ignorará ningún objeto importante.

  • Configure un filtro cada vez y pruébelo antes de activar otro filtro.

  • Cambie la configuración del filtro gradualmente hasta lograr el resultado deseado.

Ignorar los objetos que permanecen poco en la escena

Utilice el filtro de objeto pasajero para evitar la detección de objetos que solo aparecen durante un breve periodo, como los haces de luz de un coche que pasa o sombras que se desplazan rápidamente.

Cuando ha activado el filtro de objetos pasajeros y la aplicación detecta un objeto en movimiento, este objeto no activará una acción hasta que haya transcurrido el período de tiempo establecido. Si la acción es iniciar una grabación, configure el momento de activación previa a fin de que la grabación también incluya el tiempo durante el cual el objeto se mueve en la escena antes de activar la acción.

  1. Haga clic en Scenarios (Escenarios) y haga clic en + para crear un nuevo escenario.

  2. Seleccione Motion in area (Movimiento en el área) o Motion line crossing (Cruce de línea de movimiento).

  3. Active Objetos que permanecen poco en la escena.

  4. Introduzca el número de segundos en el campo. El número de segundos es el tiempo mínimo que debe pasar antes de que el objeto active una acción en el sistema de gestión de eventos del dispositivo. Comience con un número pequeño.

  5. Si el resultado no es satisfactorio, aumente gradualmente el tiempo del filtro.

Ignorar objetos con balanceo

El filtro para objetos con balanceo ignora los objetos que solo se desplazan una distancia corta, por ejemplo, la vegetación o las banderas en movimiento y sus sombras. Si los objetos con balaceo son grandes, por ejemplo, grandes estanques o árboles de gran tamaño, emplee las áreas de exclusión en lugar del filtro. El filtro se aplica a todos los objetos con balanceo detectados y, si el valor es demasiado grande, objetos importantes podrían no activar acciones.

Cuando el filtro para objetos con balanceo está activado y la aplicación detecta un objeto, este no activará una acción hasta que se haya desplazado a una distancia mayor que el tamaño del filtro.

El filtro ignora cualquier objeto en movimiento a una distancia más corta que la que va desde el centro hasta el borde de la elipse.

Nota
  • Es recomendable comenzar con un tamaño de filtro pequeño.
  1. Haga clic en Scenarios (Escenarios) y haga clic en + para crear un nuevo escenario.

  2. Seleccione Motion in area (Movimiento en el área).

  3. Active los Objetos con balanceo.

  4. Introduzca la distancia a la que se pueden desplazar los objetos, como porcentaje de la pantalla, antes de que se active una acción.

Omitir objetos pequeños

El filtro de objetos pequeños reduce el número de falsas alarmas al omitir los objetos pequeños, como animales pequeños.

Nota
  • El filtro se aplica a todos los objetos de la imagen, no solo a los objetos en la misma posición del rectángulo de configuración.
  • La aplicación ignora los objetos que son más pequeños que los valores de altura y de anchura introducidos.
  1. Haga clic en Scenarios (Escenarios) y haga clic en + para crear un nuevo escenario.

  2. Seleccione Motion in area (Movimiento en el área) o Motion line crossing (Cruce de línea de movimiento).

  3. Active Objetos pequeños.

  4. Nota

    Si ha calibrado la perspectiva, introduzca la anchura y la altura de los objetos que deben ignorarse en centímetros en lugar de como porcentaje de la imagen.

  5. Introduzca la anchura y la altura de los objetos que desee ignorar como porcentaje de la imagen.

Configurar reglas para eventos

Para obtener más información, consulte nuestra guía Introducción a las reglas de eventos.

Grabar vídeo cuando se detecta un objeto

Este ejemplo explica cómo configurar el dispositivo de Axis para grabar vídeo en una tarjeta SD cuando la aplicación detecta un objeto.

  1. En la interfaz web del dispositivo, vaya a Aplicaciones y compruebe que la aplicación está ejecutándose.

  2. Para comprobar que la tarjeta SD está instalada, vaya a Sistema > Almacenamiento.

  3. Vaya a Sistema > Eventos y agregue una regla.

  4. Escriba un nombre para la regla.

  5. En la lista de condiciones, en Aplicación, seleccione el escenario de aplicación. Para activar la misma acción en todos los escenarios definidos, seleccione Object Analytics: Cualquier escenario.

  6. En la lista de acciones, en Grabaciones, seleccione Grabar vídeo.

  7. En la lista de opciones de almacenamiento, seleccione SD-DISK.

  8. Seleccione una cámara y un perfil de flujo.

    Para mostrar las superposiciones de metadatos, asegúrese de activarlo en la aplicación para la misma resolución que el perfil de flujo.

  9. Nota

    No recomendamos que utilice un escenario con tiempo en el área para activar grabaciones si el tiempo que un objeto puede permanecer dentro del área de incluir es más de 30 segundos. La razón es que es complicado usar un tiempo de búfer anterior superior a 30 segundos, que es necesario si desea ver qué ocurrió antes de que se detecte el objeto.

  10. Si desea iniciar la grabación antes de que se detecte el objeto, introduzca una hora de búfer anterior.

  11. Haga clic en Save (guardar).

  12. Para probar la regla, vaya a la página web de la aplicación y abra el escenario. Haga clic en Probar alarma. Esto genera un evento, como si el escenario se hubiera activado de verdad. Si ha activado superposiciones de metadatos, se mostrará un rectángulo rojo o azul.

Grabar vídeo cuando una persona permanece demasiado tiempo en una zona

En este ejemplo se explica cómo configurar un dispositivo Axis para grabar vídeo en una tarjeta SD cuando la aplicación detecta una persona que permanece demasiado tiempo en una zona definida.

  1. En la interfaz web del dispositivo:
  2. Vaya a Apps (Aplicaciones) y asegúrese de que la aplicación se ha iniciado.

  3. Para comprobar que la tarjeta SD está instalada, vaya a System > Storage (Sistema > Almacenamiento).

  4. En AXIS Object Analytics:
  5. en Scenarios (Escenarios), haga clic en + New scenario (+ Nuevo escenario).

  6. Seleccione Time in area (Tiempo en el área) y haga clic en Next (Siguiente).

  7. Seleccione Human (Persona) y haga clic en Next (Siguiente).

  8. Ajuste el área de interés según sus necesidades.

  9. En Time in area settings (Ajustes de tiempo en el área), defina el tiempo durante el que la persona puede permanecer en el área.

  10. Haga Clic en Finish (Finalizar).

  11. Abra el escenario que acaba de crear.

  12. Vaya a Triggering objects > Time in area > Advanced (Objetos activadores > Tiempo en el área > Avanzado) y haga clic en Keep the rule active as long as the object is tracked (Mantener la regla activa mientras se siga el objeto.

    De esta forma, es posible mantener activa la regla que cree en la interfaz web del dispositivo mientras se siga al objeto y no solo mientras la alarma se mantenga activa.

  13. En la interfaz web del dispositivo:
  14. Vaya a System > Events (Sistema > Eventos) y agregue una regla.

  15. Escriba un nombre para la regla.

  16. En la lista de condiciones, en Aplicación, seleccione el escenario de aplicación.

  17. En la lista de acciones, en Recordings (Grabaciones), seleccione Record video while the rule is active (Grabar vídeo mientras la regla esté activa).

  18. En la lista de opciones de almacenamiento, seleccione SD-DISK.

  19. Seleccione una cámara y un perfil de flujo.

    Para mostrar las superposiciones de metadatos, asegúrese de activarlo en la aplicación para la misma resolución que el perfil de flujo.

  20. Nota

    No recomendamos que utilice un escenario con tiempo en el área para activar grabaciones si el tiempo que un objeto puede permanecer dentro del área de incluir es más de 30 segundos. La razón es que es complicado usar un tiempo de búfer anterior superior a 30 segundos, que es necesario si desea ver qué ocurrió antes de que se detecte el objeto.

  21. Si desea iniciar la grabación antes de que se detecte el objeto, introduzca una hora de búfer anterior.

  22. Haga clic en Save (guardar).

  23. En AXIS Object Analytics:
  24. Para probar la regla, abra el escenario y haga clic en Test alarm (Probar alarma). Esto genera un evento, como si el escenario se hubiera activado de verdad.

Enviar un correo electrónico si han pasado 100 vehículos

Con la función de recuento de traspasos de línea y el umbral de paso, puede recibir una notificación cada vez que un número de objetos definido por el usuario hayan cruzado la línea.

En este ejemplo se explica cómo configurar una regla para enviar un correo electrónico cada vez que han pasado 100 vehículos.

Antes de empezar

  • Cree un destinatario de correo electrónico en la interfaz del dispositivo.

  1. En AXIS Object Analytics:
  2. en Scenarios (Escenarios), haga clic en + New scenario (+ Nuevo escenario).

  3. Seleccione Crossline counting (Recuento de cruce de líneas) y haga clic en Next (Siguiente).

  4. Borre Human (Persona) de la lista de tipos de objetos y haga clic en Next (Siguiente).

  5. Actualice el nombre del escenario a Contar vehículos.

  6. Ajuste la línea virtual según sus necesidades.

  7. Active Passthrough threshold (Umbral de paso).

  8. En Number of counts between events (Número de recuentos entre eventos), escriba 100.

  9. Haga clic en Finish (Finalizar).

  10. En la interface web del dispositivo:
  11. vaya a System > Events (Sistema > Eventos) y agregue una regla.

  12. Escriba un nombre para la regla.

  13. En la lista de condiciones, en Application (Aplicación), seleccione Object Analytics (Analíticas de objetos): Count vehicles passthrough threshold reached (Se ha alcanzado el umbral de paso de vehículos de recuento).

  14. En la lista de acciones, en Notifications (Notificaciones), seleccione Send notification to email (Enviar notificación a correo electrónico).

  15. Seleccione un destinatario de la lista.

  16. Escriba un asunto y un mensaje para el correo electrónico.

  17. Haga clic en Save (Guardar).

Activar una sirena estroboscópica de 800 metros cuando haya más de 50 objetos en un área definida

Con la ocupación en el área y la función de umbral de paso, puede activar acciones cuando permanezca un número de objetos definido por el usuario en un área.

En este ejemplo se explica cómo conectar una cámara a la Axis D4100-E Network Strobe Siren a través de MQTT. Cuando AXIS Object Analytics detecta que más de 50 personas han permanecido en una zona definida durante un minuto, la cámara activará una acción que activará un perfil en la sirena estroboscópica.

  • Antes de empezar:
  • Cree un perfil en la sirena estroboscópica.

  • Configure un intermediario de MQTT y obtenga la dirección IP, el nombre de usuario y la contraseña del intermediario.

  1. En AXIS Object Analytics:
  2. en Scenarios (Escenarios), haga clic en + New scenario (+ Nuevo escenario).

  3. Seleccione Occupancy in area (Ocupación en el área) y haga clic en Next (Siguiente).

  4. Seleccione Human (Persona) y haga clic en Next (Siguiente).

  5. Actualice el nombre del escenario a Máx. 50.

  6. Ajuste el área de interés según sus necesidades.

  7. Active Occupancy threshold (Umbral de ocupación).

  8. Establezca el Number of objects (Número de objetos) en More than 50 (Más de 50).

  9. Establezca Trigger action after set time (Activar acción después del tiempo establecido) en 60 segundos.

  10. Haga Clic en Finish (Finalizar).

  1. Configure el cliente MQTT en la interface web de la cámara:
  2. Vaya a System > MQTT > MQTT client > Broker (Sistema > MQTT > Cliente MQTT > Intermediario) e introduzca la siguiente información.

    • Host: Dirección IP de intermediario

    • Client ID (ID de cliente): Por ejemplo, cámara 1

    • Protocol (Protocolo): El protocolo con el que se establece el intermediario

    • Port (Puerto): El número de puerto utilizado por el intermediario

    • El Username (Nombre de usuario) y la Password (Contraseña) del intermediario.

  3. Haga clic en Save (Guardar) y Connect (Conectar).

  1. Cree dos reglas para la publicación MQTT en la interface web de la cámara:
  2. Vaya a System > Eventos > Rules (Sistema > Eventos > Reglas) y agregue una regla.

    Esta regla activará la sirena estroboscópica.

  3. Introduzca la siguiente información:

    • Name (Nombre): alarma umbral

    • Condition (Condición): Applications (Aplicaciones): Max 50 threshold alarm changed (Alarma máxima de 50 umbrales cambiada).

    • Action (Acción): MQTT > Send MQTT publish message (MQTT > Enviar mensaje de publicación MQTT)

    • Topic (Tema): Threshold (Umbral)

    • Payload (Carga): On (Encendido)

    • QoS: 0, 1 o 2

  4. Haga clic en Save (guardar).

  5. Agregue otra regla con la siguiente información:

    esta regla desactivará la sirena estroboscópica.

    • Name (Nombre): sin alarma umbral

    • Condition (Condición): Applications (Aplicaciones): Max 50 threshold alarm changed (Alarma máxima de 50 umbrales cambiada)

      • Seleccione Invert this condition (Invertir esta condición).

    • Action (Acción): MQTT > Send MQTT publish message (MQTT > Enviar mensaje de publicación MQTT)

    • Topic (Tema): Umbral

    • Payload (Carga): Apagado

    • QoS: 0, 1 o 2

  6. Haga clic en Save (guardar).

  1. Configure el cliente MQTT en la interface web de la sirena estroboscópica.
  2. Vaya a System > MQTT > MQTT client > Broker (Sistema > MQTT > Cliente MQTT > Intermediario) e introduzca la siguiente información.

    • Host: dirección IP de intermediario

    • Client ID (ID de cliente): sirena 1

    • Protocol (Protocolo): El protocolo con el que se establece el intermediario

    • Port (Puerto): El número de puerto utilizado por el intermediario

    • Username (Nombre de usuario) y Password (Contraseña)

  3. Haga clic en Save (Guardar) y Connect (Conectar).

  4. Vaya a MQTT subscriptions (Suscripciones MQTT) y agregue una suscripción.

    Introduzca la siguiente información:

    • Subscription filter (Filtro de suscripción): Umbral

    • Subscription type (Tipo de suscripción): Con estado

    • QoS: 0, 1 o 2

  5. Haga clic en Save (guardar).

  1. Cree una regla para suscripciones MQTT en la interface web de la sirena estroboscópica:
  2. Vaya a System > Eventos > Rules (Sistema > Eventos > Reglas) y agregue una regla.

  3. Introduzca la siguiente información:

    • Name (Nombre): Movimiento detectado

    • Condition (Condición): MQTT > Stateful (MQTT > Con estado)

    • Subscription filter (Filtro de suscripción): Threshold (Umbral)

    • Payload (Carga): On (Encendido)

    • Action (Acción): Light and siren > Run light and siren profile while the rule is active (Luz y sirena > Ejecutar perfil de luz y sirena mientras la regla está activa)

    • Profile (Perfil): Seleccione el perfil que desea que esté activo.

  4. Haga clic en Save (Guardar).

Descubrir más

Clasificación de objetos

La aplicación puede clasificar dos tipos de objetos: humanos y vehículos. La aplicación muestra un rectángulo alrededor de los objetos clasificados. Los objetos clasificados como humanos reciben un rectángulo rojo y los objetos clasificados como vehículos reciben un rectángulo azul.

En el caso de cámaras con aprendizaje automático, los vehículos pueden clasificarse en camiones, autobuses, coches, motos, etc.

Si utiliza la funcionalidad de tiempo en el área, el rectángulo será amarillo hasta que se cumpla la condición de tiempo. Si el objeto permanece dentro del área de inclusión durante otros 30 segundos, el rectángulo tendrá una línea discontinua.

Cada objeto clasificado tiene un punto de detección que la aplicación utiliza para decidir si un objeto está dentro o fuera de un área de inclusión o cuándo cruza una línea virtual. El punto de detección de una persona está en sus pies y en su centro si se trata de un vehículo. Si los pies de una persona o el centro de un vehículo se obstruyen en la visión de la cámara, la aplicación supone la ubicación del punto de detección.

Nota

Recomendamos tener en cuenta la supuesta ubicación del punto de detección de los objetos al dibujar el área de inclusión o la línea virtual.

Para obtener los mejores resultados posibles:

  • En algún momento, la totalidad del objeto debe ser visible en la escena.

  • El objeto debe estar en movimiento dentro de la escena durante al menos 2 segundos.

  • Para cámaras con aprendizaje automático, los seres humanos deben moverse en una posición principalmente erguida. Para cámaras con aprendizaje automático, esto no constituye un requisito.

  • La parte superior del cuerpo del ser humano debe ser visible

  • Los objetos tienen que destacar sobre el fondo

  • Reduzca el desenfoque debido al movimiento.

Escenarios de área

Cuando se configura un escenario de Objeto en el área, la aplicación detecta los objetos que se mueven dentro de un área definida. El área definida se denomina área de inclusión.

Con el escenario Tiempo en el área, se puede establecer un límite del tiempo en el que se permite que un objeto permanezca dentro del área de inclusión antes de que la aplicación active una acción. El contador de tiempo empieza a contar cuando el objeto entra en el área de inclusión. Si el objeto sale del área de inclusión antes de alcanzar el límite de tiempo establecido, el contador se restablece. Es el punto de detección del objeto el que debe estar dentro del área de inclusión para que el contador siga haciendo el recuento. La función de tiempo en el área es adecuada para áreas en las que se supone que los seres humanos o los vehículos solo deben permanecer un tiempo, como túneles o escuelas fuera del horario laboral.

Cuando se configura un escenario de Ocupación en el área, la aplicación calcula el número de objetos que están dentro del área de inclusión en un momento dado. Un contador de objetos muestra el número estimado de objetos que hay actualmente en el área de inclusión. Cuando un objeto entra o sale del área, se ajusta el contador de objetos. La ocupación en el área es adecuada para áreas en las que desea obtener un recuento estimado de uno o varios tipos de objetos, como plazas de aparcamiento.

Al seleccionar un escenario de Movimiento en el área, la aplicación no clasifica los objetos. En su lugar, detecta cualquier objeto que se mueva en la escena. Estos movimientos, por ejemplo, pueden ser animales, hojas que caen, banderas o sombras. Para ignorar objetos pequeños, objetos con balanceo u objetos que solo aparezcan durante un periodo corto de tiempo, puede utilizar filtros. Para obtener más información, consulte Usar filtros.

Zona de inclusión

La zona de inclusión es la zona en la que la aplicación detecta y cuenta los tipos de objetos seleccionados. La aplicación activa acciones si detecta objetos que tienen el punto de detección en la zona de inclusión. La aplicación ignora los objetos que se encuentran fuera de la zona de inclusión.

Cambie la forma y el tamaño de la zona de manera que cubra solo la parte de la escena en la que deban detectarse y contarse objetos. Si utiliza la funcionalidad ocupación en área o el tiempo en el área, es importante incluir partes de una escena que no estén muy abarrotadas de objetos que con frecuencia se superpongan entre sí. La zona de inclusión predeterminada puede convertirse en un polígono de hasta 10 esquinas.

Recomendación

Si cerca de la zona de inclusión se encuentran una acera o carretera transitadas, delinee la zona de inclusión de manera que los objetos situados fuera de ella no se detecten accidentalmente. Por lo tanto, no debe delimitar la zona de inclusión demasiado cerca de la acera o la carretera transitadas.

Áreas de exclusión

Un zona de exclusión es una parte de la zona de inclusión en la que tipos de objetos determinados no se detectan o cuentan. Utilice las zonas de exclusión si en la zona de inclusión hay partes que activan un exceso de acciones no deseadas. Puede crear hasta 5 zonas de exclusión.

Desplace, modifique la forma y cambie el tamaño de la zona de manera que cubra la parte deseada de la escena. El rectángulo predeterminado puede convertirse en un polígono de hasta 10 esquinas.

Recomendación

Ponga zonas de exclusión dentro de la zona de inclusión. Utilice las zonas de exclusión para cubrir zonas en las que no desea que se detecten objetos.

Escenarios de traspaso de línea

Cuando se configura un escenario de Traspaso de línea, la aplicación detecta objetos que cruzan una línea definida virtualmente.

Con el escenario Recuento de traspaso de línea, la aplicación detecta y cuenta los objetos que cruzan la línea virtual y puede ver el recuento acumulado en una tabla.

Al seleccionar un escenario de Cruce de línea de movimiento, la aplicación no clasifica los objetos. En su lugar, detecta cualquier objeto que cruza la línea virtual. Para ignorar objetos pequeños u objetos que solo aparezcan durante un periodo corto de tiempo, puede utilizar filtros. Para obtener más información, consulte Usar filtros.

La línea virtual es una línea amarilla en la imagen. Se detectan los objetos del tipo seleccionado que cruzan la línea en una determinada dirección. Las flechas rojas sobre la línea muestran la dirección actual. Las acciones se activan cuando los objetos cruzan la línea en la dirección indicada por las flechas.

Para activar una acción, el objeto debe cruzar la línea. Como se muestra en la ilustración, el punto de detección del objeto debe cruzar la línea para que se active la acción. Los objetos que solo toquen la línea no activarán acciones.

  • En la ilustración de la izquierda, el hombre no activa ninguna acción, porque su punto de detección aún no ha cruzado la línea.

  • En la ilustración de la derecha, el hombre activa una acción, porque su punto de detección ha cruzado la línea.

Para obtener información sobre el punto de detección, consulte Clasificación de objetos.

Recomendaciones de línea virtual

  • Ajuste la línea virtual de manera que:
  • los objetos sean poco probables que esperen en la línea.

  • los objetos son claramente visibles en la imagen antes de que crucen la línea.

  • es probable que el punto de detección de un objeto cruce la línea.

Integración

Configurar alarmas en AXIS Camera Station

En este ejemplo se explica cómo configurar una regla en AXIS Camera Station para avisar al operador y grabar vídeo que incluya superposiciones de metadatos cuando AXIS Object Analytics detecte un objeto.

Antes de empezar

  1. Añadir la cámara a AXIS Camera Station
  2. En AXIS Camera Station, añada la cámara. Consulte el manual de usuario de AXIS Camera Station.

  1. Crear un activador de eventos de dispositivo
  2. Haga clic en y vaya a Configuration > Recording and events > Action rules (Configuración > Grabación y eventos > Reglas de acción) y haga clic en New (Nueva).

  3. Haga clic en Add (Añadir) para añadir un activador.

  4. Seleccione Device event (Evento de dispositivo) en la lista de activadores y haga clic en OK (Aceptar).

  5. En la sección Configure device event trigger (Configurar activador de eventos de dispositivo):

    • En Device (Dispositivo), seleccione la cámara.

    • En Event (Evento), seleccione uno de los escenarios para AXIS Object Analytics.

    • En Trigger period (Periodo de activación), defina un intervalo de tiempo entre dos activadores sucesivos. Utilice esta función para reducir el número de grabaciones sucesivas. Si se activa otro activador en ese intervalo, la grabación continuará y el periodo de activación volverá a empezar a partir de ese punto.

  6. En Filters (Filtros), ajuste activo (activo) en Yes (Sí).

  7. Haga clic en Ok (Aceptar).

  1. Crear acciones para generar alarmas y grabar vídeo
  2. Haga clic en Next (Siguiente).

  3. Haga clic en Add (Añadir) para añadir una acción.

  4. Seleccione Raise alarm (Generar alarma) en la lista de acciones y haga clic en OK (Aceptar).

  5. Nota

    El mensaje de alarma es lo que el operador visualiza cuando se genera una alarma.

  6. En la sección Alarm message (Mensaje de alarma), introduzca el título y la descripción de la alarma.

  7. Haga clic en Ok (Aceptar).

  8. Haga clic en Add (Añadir) para añadir otra acción.

  9. Seleccione Record (Grabar) en la lista de acciones y haga clic en OK (Aceptar).

  10. En la lista de cámaras, seleccione la cámara que se va a utilizar para la grabación.

  11. Importante

    Para incluir superposiciones de metadatos en la grabación, asegúrese de seleccionar un perfil con la misma resolución que el seleccionado para las superposiciones de metadatos en la aplicación.

  12. Seleccione un perfil y ajuste la memoria intermedia previa y memoria intermedia posterior.

  13. Haga clic en Ok (Aceptar).

  1. Especificar cuándo la alarma está activa
  2. Haga clic en Next (Siguiente).

  3. Si desea que la alarma solo esté activa durante determinadas horas, seleccione Custom schedule (Programación personalizada).

  4. Seleccione una programación de la lista.

  5. Haga clic en Next (Siguiente).

  6. Introduzca un nombre para la regla.

  7. Haga clic en Finish (Finalizar).

Nota

Para ver las superposiciones de metadatos en la visualización en directo, asegúrese de seleccionar el perfil de flujo que coincida con el que haya establecido en la aplicación.

Integración de datos de recuentos

Los escenarios de recuento de traspasos de línea y ocupación en el área generan metadatos sobre los objetos contados. Para visualizar los datos y analizar las tendencias a lo largo del tiempo, puede configurar una integración con una aplicación de terceros. Con este método, se pueden presentar los datos de una o varias cámaras. Para obtener más información sobre cómo configurar la integración, consulte las directrices de la comunidad de desarrolladores de Axis.

Solución de problemas

Problemas al detectar objetos

... cuando la imagen es inestable

Active la Electronic image stabilization (EIS) (Estabilización electrónica de imagen [EIS]) en la pestaña Image (Imagen) de la interfaz web del dispositivo.

... en los bordes de la imagen, donde la imagen aparece distorsionada

Active la Corrección de distorsión de barril (BDC) en la pestaña Image (Imagen) de la interfaz web del dispositivo.

... inmediatamente

Es necesario que los objetos estén totalmente visibles en la escena antes de que la aplicación los detecte.

... en otras situaciones

Puede deberse a que los objetos se funden con el fondo si son del mismo color o a causa de la poca luz en la escena. Pruebe a mejorar la iluminación.

Problemas con falsas alarmas

... debido a pequeños animales que aparecen grandes en la imagen

Calibre la perspectiva. Consulte Calibre la perspectiva.

... cuando haya configurado un escenario de Movimiento en el área.

La aplicación no clasifica objetos en este escenario. En su lugar, detecta cualquier objeto que se mueva en la escena. Use filtros para ignorar objetos pequeños, con balanceo o que permanecen poco en la escena. Consulte Usar filtros.

... cuando haya configurado un escenario de Cruce de línea de movimiento.

La aplicación no clasifica los objetos. En su lugar, detecta cualquier objeto que cruza la línea virtual. Use filtros para ignorar objetos pequeños o que permanecen poco en la escena. Consulte Usar filtros.

Problemas al contar objetos

...debido a los objetos estáticos que se parecen a personas o vehículos cuando se utiliza la ocupación en el área

Los objetos deben ser totalmente visibles en la escena. La aplicación cuenta los objetos en movimiento y estáticos en escenarios de ocupación en el área, lo que aumenta el riesgo de falsas detecciones. Agregue un área de exclusión para ignorar objetos estáticos que se parezcan a humanos o vehículos.

Problemas con las superposiciones de metadatos

... en un segundo cliente

Las superposiciones de metadatos solo son visibles para un único cliente cada vez.

Problemas con la transmisión de vídeo

... en el navegador Firefox para cámaras con alta resolución

Pruebe el navegador GoogleChrome™ en su lugar.