AXIS Object Analytics

Descripción general de la solución

Acerca de la aplicación

AXIS Object Analytics detecta y clasifica objetos en movimiento, concretamente personas o vehículos. Puede elegir distintas condiciones de detección, por ejemplo objetos que se muevan o permanezcan más tiempo del establecido BETA dentro de una zona predefinida o que crucen una línea definida. Tras la detección, los dispositivos de red de Axis o el software de terceros pueden realizar distintas acciones, como grabar vídeo, reproducir un mensaje de audio o alertar al personal de seguridad.

Consideraciones

Para obtener mejores resultados, la cámara debe montarse correctamente. Hay requisitos en la escena, la imagen y los objetos. Las consideraciones de este capítulo son genéricas. Para obtener información sobre aspectos específicos del producto, consulte el manual del usuario del producto en help.axis.com.

Esta imagen ilustra una cámara montada correctamente.

  1. Altura de montaje
  2. Vertical
  3. Área de detección
  4. Distancia mínima de detección
  5. Distancia máxima de detección

Mounting position (Posición de montaje)

Si monta la cámara mirando desde arriba hacia bajo, dificultará la clasificación de los objetos por parte de la aplicación.

Inclinación

La cámara debe estar suficientemente orientada hacia el suelo para que el centro de la imagen esté por debajo de la línea del horizonte. Monte la cámara de modo que la distancia mínima de detección sea mayor que la mitad de la altura de montaje de la cámara (distancia mínima de detección > altura de montaje de la cámara / 2).

Área de detección

El punto de detección de un objeto debe estar dentro de la área de detección. El punto de detección de una persona está en sus pies y en su centro si se trata de un vehículo.

Distancia máxima de detección

  • La distancia máxima de detección depende de:
  • Tipo y modelo de la cámara

  • Objetivo de la cámara. Un rango focal más alto permite una distancia de detección más larga.

  • Climatología. Por ejemplo, la lluvia o la nieve intensas pueden afectar a la distancia de detección y a la precisión.

  • Luz. La precisión y el alcance de la detección pueden verse afectados por una iluminación insuficiente.

  • Carga de la cámara

Recomendamos que utilice AXIS Site Designer para determinar la distancia de detección máxima para los diferentes modelos de cámara de su instalación.

Roll (Giro)

El ángulo de giro de la cámara debe ser próximo a cero. Esto significa que la imagen debe estar nivelada con el horizonte.

Campo de visión

El campo de visión de la cámara debe ser fijo.

Vibraciones

La aplicación tolera pequeñas vibraciones de la cámara, pero se obtiene un mejor rendimiento cuando la cámara no está sujeta a vibraciones.

Tamaño del objeto

Para que se detecte una persona, la altura mínima debe ser del 4 % de la altura total de la imagen. En el caso de un vehículo, la altura mínima debe ser del 3 % de la altura total de la imagen. No obstante, esto requiere unas condiciones de imagen perfectas y ausencia de obstrucciones a la vista. Para minimizar el riesgo de ausencia de detecciones, recomendamos una altura de al menos un 8 % para humanos y de un 6 % para vehículos.

Visibilidad de objetos

La precisión de la detección puede verse afectada:

  • si los objetos solo son parcialmente visibles parcialmente debido, por ejemplo, al follaje. Es particularmente importante que los elementos característicos, como piernas o ruedas, sean visibles.

  • cuando la escena está llena de objetos que se superponen frecuentemente entre sí. Por ejemplo, cuando hay una congestión de tráfico o en un aparcamiento.

Contrast (Contraste)

  • Debe haber un cierto nivel de contraste entre los objetos y el fondo. El niebla, la luz directa que brilla ante la cámara o una imagen con mucho ruido pueden ocasionar problemas de contraste. Puede aumentar el nivel de iluminación y ajustar los ajustes de imagen para mejorar el nivel de contraste.
  • Si utiliza una cámara día-noche de con iluminación artificial, recomendamos al menos 50 lux en toda el área de detección.

  • Si utiliza la iluminación IR integrada, la distancia de detección máxima depende de la cámara y el entorno.

Movimiento esperado de los objetos de la escena

Es necesario que los objetos que se aproximan a la cámara en línea recta se desplacen durante más tiempo antes de que se les pueda detectar en comparación con los objetos que se desplazan perpendicularmente al campo de visión de la cámara.

Postura humana

Los seres humanos tienen que desplazarse en posición erguida.

Movimiento de objetos

Los objetos deben moverse dentro de la escena durante al menos 2 segundos.

Ajustes de imagen recomendados

Antes de empezar a utilizar la aplicación, le recomendamos que active Forensic WDR y la corrección de la distorsión de barril, si están disponibles para su cámara.

La imagen de la derecha es un ejemplo de distorsión de barril. La distorsión de barril es un efecto del objetivo en el que las líneas rectas se muestran más dobladas hacia los bordes del fotograma.
  • Condiciones en las que las detecciones se pueden retrasar o perder
  • Nota

    Estas condiciones no son relevantes para las cámaras de fusión de vídeo por radar.

  • Niebla

  • Luz directa sobre la cámara

  • Luz insuficiente

  • Imagen con ruido excesivo

  • Situaciones que pueden activar falsas alarmas
  • Personas o vehículos ocultos parcialmente. Por ejemplo, una furgoneta pequeña que aparece detrás de una pared puede parecer una persona, ya que el vehículo es alto y estrecho.

  • Insectos en el objetivo de la cámara. Tenga en cuenta que las cámaras de día y noche con puntos de infrarrojos atraen a insectos y arañas.

  • La combinación de faros de vehículos y lluvia intensa.

  • Animales de tamaño humano.

  • Luz intensa que produce sombras.

Procedimientos iniciales

  1. Inicie sesión como administrador en la interfaz del dispositivo y vaya a Apps > AXIS Object Analytics (Aplicaciones > AXIS Object Analytics).

  2. Inicie la aplicación y haga clic en Open (Abrir).

  3. En la pantalla de bienvenida, haga clic en Step-by-step (Paso a paso) para seguir el procedimiento de configuración recomendado.

  4. En Considerations (Consideraciones), lea la información.

  5. En Triggering objects (objetos activadores), seleccione si desea que la aplicación detecte seres humanos, vehículos o ambos. Leer más acerca de Clasificación de objetos.

  6. En Trigger condition (Condición de activación), seleccione:

    • Object in area (Objeto en área) si desea que la aplicación detecte cuándo se mueven o permanecen objetos durante más de un tiempo establecido dentro de un área definida.

    • Line crossing (Traspaso de línea) si desea que la aplicación detecte cuando los objetos cruzan una línea definida.

    • Crossline counting (Recuento de traspaso de línea)BETA si desea que la aplicación cuente los objetos que cruzan una línea definida.

    • Occupancy in area (Ocupación en el área)BETA si desea que la aplicación calcule cuántos objetos se encuentran dentro de un área definida en un momento dado.

  7. Si desea obtener más información, consulte Objeto en el área y ocupación en el área and Traspaso de línea y recuento de traspaso de líneas.
  8. En el caso de las cámaras PTZ, puede limitar la detección a una posición predefinida específica. Selecciónela en la lista.

  9. En Scene configuration (Configuración de escena), ajuste la línea predeterminada que los objetos deben cruzar o el área en la que deben moverse los objetos.

    Para saber cómo ajustar la línea predeterminada o el área de inclusión, consulte Ajustar línea o área virtual.

  10. Compruebe la configuración.

Ya ha creado un escenario. Para cambiarle el nombre o modificarlo, haga clic en Abrir .

Para crear más escenarios, haga clic en +.

Crear escenario: objeto en el área
Crear escenario: tiempo en el área. Tenga en cuenta que la etiqueta BETA ya ha sido eliminada.
Crear escenario: traspaso de línea
Crear escenario: recuento de traspaso de línea

Ajustar línea o área virtual

  • Para cambiar la forma de una línea o de un área virtual, haga clic en ella y arrastre uno de los puntos de anclaje.

  • Para mover una línea o un área virtuales, haga clic en ella y arrástrela.

  • Para eliminar una esquina, haga clic con el botón derecho en la esquina.

  • Virtual line (Línea virtual)
  • Para restablecer la línea virtual a su tamaño predeterminado, haga clic en Scene > Reset line (Escena > Restablecer línea).

  • Para cambiar la dirección en la que deben desplazarse los objetos para detectarse, haga clic en Escena > Cambiar dirección de activador. Las flechas rojas junto a la línea muestran la dirección actual. Las acciones se activan cuando los objetos cruzan la línea en la dirección de las flechas.

  • Area (Área)
  • Para restablecer el tamaño predeterminado de un área de inclusión, haga clic en Scene (Escena).

  • Para crear un área dentro del área de inclusión en la que no desea que se detecten objetos, haga clic en Escena > Agregar área de exclusión.

Configurar la aplicación

Modificar un escenario

Para modificar un escenario, haga clic en Scenarios (Escenarios) y haga clic en Open (Abrir) en la tarjeta del escenario.

  • Para cambiar el nombre del escenario, haga clic en .

  • Para cambiar el tipo de objetos que detectar, haga clic en Objetos de activación.

  • Nota

    Si selecciona Any motion (Cualquier movimiento), la aplicación no clasificará los objetos. En su lugar, la aplicación detecta cualquier objeto que se mueva en la escena. Estos movimientos, por ejemplo, pueden ser animales, hojas que caen, banderas o sombras. Para ignorar objetos pequeños u objetos que solo aparezcan durante un periodo corto de tiempo, puede utilizar filtros. Para obtener más información, consulte Filtros.

  • En un objeto en un escenario de área: Para permitir que los objetos permanezcan dentro del área de inclusión durante un tiempo determinado antes de que la aplicación active una acción, haga clic en Triggering objects (Objetos de activación) y active Time in area (Tiempo en área). Defina el tiempo permitido.

    • Puede utilizar el ajuste avanzado Keep the rule active as long as the object is tracked (Mantener la regla activa mientras se siga al objeto) cuando cree una regla en la interfaz web del dispositivo y la regla tenga una acción con la opción "... mientras la regla esté activa". De este modo, la regla permanecerá activa mientras se siga al objeto y dentro del área de inclusión, y no solo durante la duración de la alarma. Para ver un ejemplo de cómo configurarlo, consulte Grabar vídeo cuando una persona permanece demasiado tiempo en una zona.

  • Para ajustar la línea o el área virtual, haga clic en Scene (Escena).

  • En un escenario de recuento de traspaso de línea:

    • Para restablecer recuentos diariamente, haga clic en Crossline counting (Recuento de traspaso de línea) y active Reset counts at midnight (Restablecer recuentos a medianoche).

    • Para restablecer los recuentos una vez, haga clic en Crossline counting (Recuento de traspaso de líneas) y haga clic en Reset counts (Restablecer recuentos).

Calibre la perspectiva

Nota

No se puede calibrar la perspectiva de todos los tipos de dispositivos, por ejemplo, determinadas cámaras panorámicas.

Si la escena tiene una profundidad importante, debe calibrar la perspectiva para eliminar falsas alarmas provocadas por objetos pequeños. Durante la calibración, la aplicación compara la altura de los objetos que aparecen en la imagen con la altura real de los objetos físicos correspondientes. La aplicación utiliza la perspectiva calibrada para calcular el tamaño del objeto.

Coloque barras verticales en la imagen para calibrar la perspectiva. Las barras representan objetos físicos a diferentes distancias de la cámara.

  1. Vaya a Settings > Advanced > Perspective (ajustes > avanzado > perspectiva) y haga clic en +.

  2. En la visualización en directo, escoja dos objetos con una misma altura conocida que se encuentren en el suelo y a diferentes distancias de la cámara.

    Puede utilizar, por ejemplo, los postes de una valla o una persona.

  3. Coloque las barras junto a los objetos y ajuste la longitud de cada barra a la altura del objeto.

  4. Seleccione los escenarios a los que desee aplicar la perspectiva.

  5. Introduzca la altura de los objetos en Perspective bar height (altura de la barra de perspectiva).

  6. Haga clic en Save (guardar).

Example

Si hay una valla con postes de 2 metros de altura que se extienden desde la cámara hacia el horizonte, posicione las barras en los postes de la valla, ajuste sus alturas e introduzca 200 cm (6 pies con 7 pulgadas) en los campos.

Importante

Asegúrese de que las barras no se superponen en altura entre sí.

Añadir superposiciones de metadatos integradas a las transmisiones de vídeo

Para mostrar el evento que se detectó en la transmisión de vídeo en directo o grabada, active la superposición de metadatos. Al activar la superposición de metadatos, la aplicación muestra:

  • Un rectángulo alrededor de los objetos detectados.

  • El área o línea del escenario en el que se detectó el objeto.

  • Para recuento de traspaso de líneaBETA: una tabla con el recuento acumulado por tipo de objeto.

  • Para ocupación en el áreaBETA: una tabla con el recuento estimado por tipo de objeto en el momento determinado.

Si activa las trayectorias, la aplicación también muestra una línea que delinea la ruta que ha tomado un objeto.

Si se activan varios escenarios al mismo tiempo, se muestran superposiciones para todos ellos en todas las transmisiones con la resolución seleccionada.

Importante

Las superposiciones de metadatos se graban en superposiciones de alarma para la resolución seleccionada de la transmisión de vídeo. No se pueden borrar del vídeo grabado.

Nota

Si utiliza áreas de visión, las superposiciones de metadatos solo aparecen en la primera área de visión. El nombre predeterminado de la primera área de visión es Área de visión 1.

  1. En la página web de la aplicación, vaya a Configuración > Avanzada y, en función de la cámara:

    • active Metadata overlay (Superposición de metadatos).

    • Bajo Metadata overlay (Superposición de metadatos), seleccione en qué resolución deben mostrarse las superposiciones de metadatos integradas. Solo es posible seleccionar una resolución y la configuración se aplicará a todos los escenarios.

  2. Para mostrar la ruta que ha tomado un objeto, seleccioneTrayectorias

Restringir la detección a una posición PTZ predefinida

En el caso de las cámaras PTZ, puede limitar la detección a una posición predefinida específica.

  1. Vaya a Scenarios (Escenarios) y haga clic en Open (Abrir) en una tarjeta de escenario o haga clic en + para crear un nuevo escenario.

  2. Haga clic en Scene (Escena) y seleccione una posición predefinida de la lista.

Nota

Cada vez que la posición predefinida cambia, la aplicación debe volver a calibrar. Recomendamos esperar al menos 15 segundos antes de cambiar las posiciones predefinidas en una ronda de vigilancia.

Configurar reglas para eventos

Para obtener más información, consulte nuestra guía Introducción a las reglas de eventos.

Grabar vídeo cuando se detecta un objeto

Este ejemplo explica cómo configurar el dispositivo de Axis para grabar vídeo en una tarjeta SD cuando la aplicación detecta un objeto.

  1. En la interfaz web del dispositivo, vaya a Aplicaciones y compruebe que la aplicación está ejecutándose.

  2. Para comprobar que la tarjeta SD está instalada, vaya a Sistema > Almacenamiento.

  3. Vaya a Sistema > Eventos y agregue una regla.

  4. Escriba un nombre para la norma.

  5. En la lista de condiciones, en Aplicación, seleccione el escenario de aplicación. Para activar la misma acción en todos los escenarios definidos, seleccione Object Analytics: Cualquier escenario.

  6. En la lista de acciones, en Grabaciones, seleccione Grabar vídeo.

  7. En la lista de opciones de almacenamiento, seleccione SD-DISK.

  8. Seleccione una cámara y un perfil de flujo.

    Para mostrar las superposiciones de metadatos, asegúrese de activarlo en la aplicación para la misma resolución que el perfil de transmisión.

  9. Nota

    No recomendamos que utilice un escenario con tiempo en el área para activar grabaciones si el tiempo que un objeto puede permanecer dentro del área de incluir es más de 30 segundos. La razón es que es complicado usar un tiempo de búfer anterior superior a 30 segundos, que es necesario si desea ver qué ocurrió antes de que se detecte el objeto.

  10. Si desea iniciar la grabación antes de que se detecte el objeto, introduzca una hora de búfer anterior.

  11. Haga clic en Save (guardar).

  12. Para probar la regla, vaya a la página web de la aplicación y abra el escenario. Haga clic en Probar alarma. Esto genera un evento, como si el escenario se hubiera activado de verdad. Si ha activado superposiciones de metadatos, se mostrará un rectángulo rojo o azul.

Grabar vídeo cuando una persona permanece demasiado tiempo en una zona

En este ejemplo se explica cómo configurar un dispositivo Axis para grabar vídeo en una tarjeta SD cuando la aplicación detecta una persona que permanece demasiado tiempo en una zona definida.

  1. En la interfaz web del dispositivo:
  2. Vaya a Apps (Aplicaciones) y asegúrese de que la aplicación se ha iniciado.

  3. Para comprobar que la tarjeta SD está instalada, vaya a System > Storage (Sistema > Almacenamiento).

  4. En AXIS Object Analytics:
  5. Cree un escenario y seleccione Object in area (Objeto en el área) como condición de activación.

  6. Configure el área de inclusión según sea necesario.

  7. Vaya a Triggering objects (Objetos de activación) y active Humans (Humanos).

  8. Active Time in area (Tiempo en el área) y defina el tiempo permitido.

  9. Haga clic en Keep the rule active as long as the object is tracked (Mantener la regla activa mientras se siga el objeto).

    De esta forma, es posible mantener activa la regla que cree en la interfaz web del dispositivo mientras se siga al objeto y no solo mientras la alarma se mantenga activa.

  10. En la interfaz web del dispositivo:
  11. Vaya a System > Events (Sistema > Eventos) y agregue una regla.

  12. Escriba un nombre para la regla.

  13. En la lista de condiciones, en Aplicación, seleccione el escenario de aplicación.

  14. En la lista de acciones, en Recordings (Grabaciones), seleccione Record video while the rule is active (Grabar vídeo mientras la regla esté activa).

  15. En la lista de opciones de almacenamiento, seleccione SD-DISK.

  16. Seleccione una cámara y un perfil de flujo.

    Para mostrar las superposiciones de metadatos, asegúrese de activarlo en la aplicación para la misma resolución que el perfil de transmisión.

  17. Nota

    No recomendamos que utilice un escenario con tiempo en el área para activar grabaciones si el tiempo que un objeto puede permanecer dentro del área de incluir es más de 30 segundos. La razón es que es complicado usar un tiempo de búfer anterior superior a 30 segundos, que es necesario si desea ver qué ocurrió antes de que se detecte el objeto.

  18. Si desea iniciar la grabación antes de que se detecte el objeto, introduzca una hora de búfer anterior.

  19. Haga clic en Save (guardar).

  20. En AXIS Object Analytics:
  21. Para probar la regla, abra el escenario y haga clic en Test alarm (Probar alarma). Esto genera un evento, como si el escenario se hubiera activado de verdad.

Enviar un correo electrónico si han pasado 100 vehículos

Con la función de recuento de traspasos de líneaBETA y el umbral de paso, puede recibir una notificación cada vez que un número definido por el usuario haya cruzado la línea.

En este ejemplo se explica cómo configurar una regla para enviar un correo electrónico cada vez que han pasado 100 vehículos.

Antes de empezar

Cree un destinatario de correo electrónico en la interfaz del dispositivo.

  1. Cree un escenario de recuento de traspaso de líneaBETA
  2. En Scenarios (Escenarios), haga clic en +.

  3. En Name (Nombre), escriba: Contar vehículos.

  4. En Triggering objects (Objetos activadores), borre Humans (Personas).

  5. En Trigger condition (Condición de activador), seleccione Crossline counting (Recuento de traspaso de líneas).

  6. Haga clic en Save (guardar).

  7. Abra el escenario.

  8. En Crossline counting (Recuento de traspaso de línea), active Passthrough threshold (Umbral de paso).

  9. En Number of counts between events (Número de recuentos entre eventos), escriba 100.

  1. Crear una regla
  2. En la interfaz del dispositivo, vaya a System > Events (Sistema > Eventos) y agregue una regla.

  3. Escriba un nombre para la regla.

  4. En la lista de condiciones, en Aplicación, seleccione Análisis de objetos: Count vehicles passthrough threshold reached (Se ha alcanzado el umbral de paso de vehículos de recuento).

  5. En la lista de acciones, en Notifications (Notificaciones), seleccione Send notification to email (Enviar notificación a correo electrónico).

  6. Seleccione un destinatario de la lista.

  7. Escriba un asunto y un mensaje para el correo electrónico.

  8. Haga clic en Save (Guardar).

Más información

Clasificación de objetos

La aplicación puede clasificar dos tipos de objetos: humanos y vehículos. La aplicación muestra un rectángulo alrededor de los objetos clasificados. Los objetos clasificados como humanos reciben un rectángulo rojo y los objetos clasificados como vehículos reciben un rectángulo azul.

En el caso de cámaras con aprendizaje automático, los vehículos pueden clasificarse en autobuses, automóviles, motocicletas y camiones.

Si utiliza la funcionalidad de tiempo en el área, el rectángulo será amarillo hasta que se cumpla la condición de tiempo. Si el objeto permanece dentro del área de inclusión durante otros 30 segundos, el rectángulo tendrá una línea discontinua.

Cada objeto clasificado tiene un punto de detección que la aplicación utiliza para decidir si un objeto está dentro o fuera de un área de inclusión o cuándo cruza una línea virtual. El punto de detección de una persona está en sus pies y en su centro si se trata de un vehículo. Si los pies de una persona o el centro de un vehículo se obstruyen en la visión de la cámara, la aplicación supone la ubicación del punto de detección.

Nota

Recomendamos tener en cuenta la supuesta ubicación del punto de detección de los objetos al dibujar el área de inclusión o la línea virtual.

Para obtener los mejores resultados posibles:

  • En algún momento, la totalidad del objeto debe ser visible en la escena.

  • El objeto debe estar en movimiento dentro de la escena durante al menos 2 segundos.

  • Para cámaras con aprendizaje automático, los seres humanos deben moverse en una posición principalmente erguida. Para cámaras con aprendizaje automático, esto no constituye un requisito.

  • La parte superior del cuerpo del ser humano debe ser visible

  • Los objetos tienen que destacar sobre el fondo

  • Reduzca el desenfoque debido al movimiento.

Objeto en el área y ocupación en el área

Cuando se utiliza la condición de activación Objeto en el área, la aplicación detecta los objetos que se mueven dentro de un área definida. El área definida se denomina área de inclusión.

Puede activar la hora en el área para establecer un límite de tiempo durante cuánto tiempo se permite que un objeto permanezca dentro del área de inclusión antes de que la aplicación active una acción. El contador de tiempo empieza a contar cuando el objeto entra en el área de inclusión. Si el objeto sale del área de inclusión antes de alcanzar el límite de tiempo establecido, el contador se restablece. Es el punto de detección del objeto el que debe estar dentro del área de inclusión para que el contador siga haciendo el recuento. La función de tiempo en el área es adecuada para áreas en las que se supone que los seres humanos o los vehículos solo deben permanecer un tiempo, como túneles o escuelas fuera del horario laboral.

Cuando utiliza la condición de activación Occupancy in area (Ocupación en el área)BETA, la aplicación calcula el número de objetos que están dentro del área de inclusión en un momento dado. Un contador de objetos muestra el número estimado de objetos que hay actualmente en el área de inclusión. Cuando un objeto entra o sale del área, se ajusta el contador de objetos. La ocupación en el áreaBETA es adecuada para áreas en las que desea obtener un recuento estimado de uno o varios tipos de objetos, como plazas de aparcamiento.

Zona de inclusión

La zona de inclusión es la zona en la que la aplicación detecta los tipos de objetos seleccionados. La aplicación activa acciones si detecta objetos que tienen el punto de detección en la zona de inclusión. La aplicación ignora los objetos que se encuentran fuera de la zona de inclusión.

Cambie la forma y el tamaño de la zona de manera que cubra solo la parte de la escena en la que deban detectarse objetos. Si utiliza la hora de la zona de la función BETA, es importante incluir solo partes de la escena en las que los objetos no se superpongan a menudo. La zona de inclusión predeterminada puede convertirse en un polígono de hasta 10 esquinas.

Recomendación

Si cerca de la zona de inclusión se encuentran una acera o carretera transitadas, delinee la zona de inclusión de manera que los objetos situados fuera de ella no se detecten accidentalmente. Por lo tanto, no debe delimitar la zona de inclusión demasiado cerca de la acera o la carretera transitadas.

Áreas de exclusión

Un zona de exclusión es una parte de la zona de inclusión en la que tipos de objetos determinados no se detectan. Utilice las zonas de exclusión si en la zona de inclusión hay partes que activan un exceso de acciones no deseadas. Puede crear hasta 5 zonas de exclusión.

Desplace, modifique la forma y cambie el tamaño de la zona de manera que cubra la parte deseada de la escena. El rectángulo predeterminado puede convertirse en un polígono de hasta 10 esquinas.

Recomendación

Ponga zonas de exclusión dentro de la zona de inclusión. Utilice las zonas de exclusión para cubrir zonas en las que no desea que se detecten objetos.

Traspaso de línea y recuento de traspaso de líneas

Cuando se utiliza la condición de activación Cruce de línea, la aplicación detecta objetos que cruzan una línea definida virtualmente. Con Crossline counting (Recuento de traspaso de línea)BETA, la aplicación detecta y cuenta los objetos.

La línea virtual es una línea amarilla en la imagen. Se detectan los objetos del tipo seleccionado que cruzan la línea en una determinada dirección. Las flechas rojas sobre la línea muestran la dirección actual. Las acciones se activan cuando los objetos cruzan la línea en la dirección indicada por las flechas.

Para activar una acción, el objeto debe cruzar la línea. Como se muestra en la ilustración, el punto de detección del objeto debe cruzar la línea para que se active la acción. Los objetos que solo toquen la línea no activarán acciones.

  • En la ilustración de la izquierda, el hombre no activa ninguna acción, porque su punto de detección aún no ha cruzado la línea.

  • En la ilustración de la derecha, el hombre activa una acción, porque su punto de detección ha cruzado la línea.

Para obtener información sobre el punto de detección, consulte Clasificación de objetos.

Recomendaciones de línea virtual

  • Ajuste la línea virtual de manera que:
  • los objetos sean poco probables que esperen en la línea.

  • los objetos son claramente visibles en la imagen antes de que crucen la línea.

  • es probable que el punto de detección de un objeto cruce la línea.

Integración

Configurar alarmas en AXIS Camera Station

En este ejemplo se explica cómo configurar una regla en AXIS Camera Station para avisar al operador y grabar vídeo que incluya superposiciones de metadatos cuando AXIS Object Analytics detecte un objeto.

Antes de empezar

  1. Añadir la cámara a AXIS Camera Station
  2. En AXIS Camera Station, añada la cámara. Consulte el manual de usuario de AXIS Camera Station.

  1. Crear un activador de eventos de dispositivo
  2. Haga clic en y vaya a Configuration > Recording and events > Action rules (Configuración > Grabación y eventos > Reglas de acción) y haga clic en New (Nueva).

  3. Haga clic en Add (Añadir) para añadir un activador.

  4. Seleccione Device event (Evento de dispositivo) en la lista de activadores y haga clic en OK (Aceptar).

  5. En la sección Configure device event trigger (Configurar activador de eventos de dispositivo):

    • En Device (Dispositivo), seleccione la cámara.

    • En Event (Evento), seleccione uno de los escenarios para AXIS Object Analytics.

    • En Trigger period (Periodo de activación), defina un intervalo de tiempo entre dos activadores sucesivos. Utilice esta función para reducir el número de grabaciones sucesivas. Si se activa otro activador en ese intervalo, la grabación continuará y el periodo de activación volverá a empezar a partir de ese punto.

  6. En Filters (Filtros), ajuste activo (activo) en Yes (Sí).

  7. Haga clic en Ok (Aceptar).

  1. Crear acciones para generar alarmas y grabar vídeo
  2. Haga clic en Next (Siguiente).

  3. Haga clic en Add (Añadir) para añadir una acción.

  4. Seleccione Raise alarm (Generar alarma) en la lista de acciones y haga clic en OK (Aceptar).

  5. Nota

    El mensaje de alarma es lo que el operador visualiza cuando se genera una alarma.

  6. En la sección Alarm message (Mensaje de alarma), introduzca el título y la descripción de la alarma.

  7. Haga clic en Ok (Aceptar).

  8. Haga clic en Add (Añadir) para añadir otra acción.

  9. Seleccione Record (Grabar) en la lista de acciones y haga clic en OK (Aceptar).

  10. En la lista de cámaras, seleccione la cámara que se va a utilizar para la grabación.

  11. Importante

    Para incluir superposiciones de metadatos en la grabación, asegúrese de seleccionar un perfil con la misma resolución que el seleccionado para las superposiciones de metadatos en la aplicación.

  12. Seleccione un perfil y ajuste la memoria intermedia previa y memoria intermedia posterior.

  13. Haga clic en Ok (Aceptar).

  1. Especificar cuándo la alarma está activa
  2. Haga clic en Next (Siguiente).

  3. Si desea que la alarma solo esté activa durante determinadas horas, seleccione Custom schedule (Programación personalizada).

  4. Seleccione una programación de la lista.

  5. Haga clic en Next (Siguiente).

  6. Introduzca un nombre para la regla.

  7. Haga clic en Finish (Finalizar).

Nota

Para ver las superposiciones de metadatos en la visualización en directo, asegúrese de seleccionar el perfil de transmisión que coincida con el que haya establecido en la aplicación.

Integración de datos de recuentos

Los escenarios de recuento de traspasos de líneaBETA y ocupación en el áreaBETA generan metadatos sobre los objetos contados. Para visualizar los datos y analizar las tendencias a lo largo del tiempo, puede configurar una integración con una aplicación de terceros. Con este método, se pueden presentar los datos de una o varias cámaras. Para obtener más información sobre cómo configurar la integración, consulte las directrices de la comunidad de desarrolladores de Axis.

Solución de problemas

Problemas al detectar objetos

... cuando la imagen es inestable

Active la Electronic image stabilization (EIS) (Estabilización electrónica de imagen [EIS]) en la pestaña Image (Imagen) de la página web del producto.

... en los bordes de la imagen, donde la imagen aparece distorsionada

Active la Barrel distortion correction (BDC) (Corrección de distorsión de barril [BDC]) en la pestaña Image (Imagen) de la página web del producto.

... inmediatamente

Es necesario que los objetos estén totalmente visibles en la escena antes de que la aplicación los detecte.

... en otras situaciones

Puede deberse a que los objetos se funden con el fondo si son del mismo color, o porque hay poca luz en la escena. Pruebe a mejorar la iluminación.

Problemas con falsas alarmas

... debido a pequeños animales que aparecen grandes en la imagen

Calibre la perspectiva. Consulte Calibre la perspectiva.

Problemas al contar objetos

... debido a objetos estacionaros que se parecen a personas o vehículos cuando se utiliza la ocupación en el áreaBETA

Los objetos deben ser totalmente visibles en la escena. La aplicación cuenta los objetos en movimiento y estacionarias en la ocupación en el áreaBETA, lo que aumenta el riesgo de falsas detecciones. Agregue un área de exclusión para ignorar objetos estacionaros que se parezcan a humanos o vehículos.

Problemas con las superposiciones de metadatos

... en un segundo cliente

Las superposiciones de metadatos solo son visibles para un único cliente cada vez.

Problemas con la transmisión de vídeo

... en el navegador Firefox para cámaras con alta resolución

Pruebe el navegador GoogleChrome™ en su lugar.

Filtros

Si ha configurado la aplicación para detectar cualquier movimiento, podrían producirse falsas alarmas. En ese caso puede utilizar filtros.

Objetos que permanecen poco en la escena –
Utilice esta opción para ignorar objetos que solo aparecen en la imagen durante un breve período de tiempo.
Objetos pequeños –
Utilice esta opción para ignorar los objetos pequeños.
Objetos con balanceo –
Utilice esta opción para ignorar los objetos que solo recorren una corta distancia.

Recomendaciones sobre filtros

  • Los filtros se aplican a todos los objetos en movimiento detectados por la aplicación y deben configurarse cuidadosamente a fin de asegurarse de que no se ignorará ningún objeto importante.

  • Configure un filtro cada vez y pruébelo antes de activar otro filtro.

  • Cambie los ajustes del filtro gradualmente hasta lograr el resultado deseado.

El filtro de objetos que permanecen poco en la escena

Utilice el filtro de objeto pasajero para evitar la detección de objetos que solo aparecen durante un breve periodo, como los haces de luz de un coche que pasa o sombras que se desplazan rápidamente.

Cuando ha activado el filtro de objetos pasajeros y la aplicación detecta un objeto en movimiento, este objeto no activará una acción hasta que haya transcurrido el período de tiempo establecido. Si la acción es iniciar una grabación, configure el momento de activación previa a fin de que la grabación también incluya el tiempo durante el cual el objeto se mueve en la escena antes de activar la acción.

Configurar el filtro de objetos que permanecen poco en la escena

  1. Haga clic en Scenarios (Escenarios) y seleccione un escenario existente o haga clic en + para crear uno nuevo.

  2. Haga clic en Triggering objects (Objetos activadores) y asegúrese de que la opción Any motion (Cualquier movimiento) esté seleccionada.

  3. Vaya a Filters > Short-lived objects (Filtros > Objetos que permanecen poco en la escena).

  4. Introduzca el número de segundos en el campo. El número de segundos es el tiempo mínimo que debe transcurrir antes de que el objeto active una acción. Comience con un número pequeño.

  5. Si el resultado no es satisfactorio, aumente gradualmente el tiempo del filtro.

Filtro para objetos con balanceo

El filtro para objetos con balanceo ignora los objetos que solo se desplazan una distancia corta, por ejemplo, la vegetación o las banderas en movimiento y sus sombras. Si los objetos con balaceo son grandes, por ejemplo, grandes estanques o árboles de gran tamaño, emplee las áreas de exclusión en lugar del filtro. El filtro se aplica a todos los objetos con balanceo detectados y, si el valor es demasiado grande, objetos importantes podrían no activar acciones.

Cuando el filtro para objetos con balanceo está activado y la aplicación detecta un objeto, este no activará una acción hasta que se haya desplazado a una distancia mayor que el tamaño del filtro.

Configurar el filtro para objetos con balanceo

El filtro ignora cualquier objeto en movimiento a una distancia más corta que la que va desde el centro hasta el borde de la elipse.

Nota
  • El filtro se aplica a todos los objetos de la imagen, no solo a los objetos en la misma posición de la elipse de configuración.
  • Es recomendable comenzar con un tamaño de filtro pequeño.
  1. Haga clic en Scenarios (Escenarios) y seleccione un escenario existente o haga clic en + para crear uno nuevo.

  2. Haga clic en Triggering objects (Objetos activadores) y asegúrese de que la opción Any motion (Cualquier movimiento) esté seleccionada.

  3. Vaya a Filters > Swaying objects (Filtros > Objetos con balanceo).

  4. Introduzca la distancia a la que se pueden desplazar los objetos, como porcentaje de la pantalla, antes de que se active una acción.

El filtro para objetos pequeños

El filtro de objetos pequeños reduce el número de falsas alarmas al omitir los objetos pequeños, como animales pequeños.

Nota
  • El filtro se aplica a todos los objetos de la imagen, no solo a los objetos en la misma posición del rectángulo de configuración.
  • La aplicación ignora los objetos que son más pequeños que los valores de altura y de anchura introducidos.

Configurar el filtro para objetos pequeños

  1. Haga clic en Scenarios (Escenarios) y seleccione un escenario existente o haga clic en + para crear uno nuevo.

  2. Haga clic en Triggering objects (Objetos activadores) y asegúrese de que la opción Any motion (Cualquier movimiento) esté seleccionada.

  3. Vaya a Filters > Small objects (Filtros > Objetos pequeños).

  4. Nota

    Si ha calibrado la perspectiva, introduzca la anchura y la altura de los objetos que deben ignorarse en centímetros en lugar de como porcentaje de la imagen.

  5. Introduzca la anchura y la altura de los objetos que desee ignorar como porcentaje de la imagen.