AXIS Object Analytics

Présentation de la solution

À propos de l'application

AXIS Object Analytics détecte et classifie les objets en mouvement, en particulier les personnes ou les véhicules. Vous pouvez choisir différentes conditions de détection, telles que les objets qui se déplacent ou restent plus longtemps qu'une heure définieBETA dans une zone prédéfinie ou qui traversent une ligne définie. Lors de la détection, les périphériques réseau ou les logiciels tiers peuvent effectuer différentes actions, telles que l'enregistrement vidéo, la lecture d'un message audio ou l'alerte du personnel de sécurité.

Considérations

Pour obtenir de meilleurs résultats, la caméra doit être correctement montée, et certaines conditions doivent être remplies pour la scène, l'image et les objets.

Cette image illustre une caméra correctement montée.

  1. Hauteur de montage
  2. Inclinaison
  3. Zone de détection
  4. Distance de détection minimale
  5. Distance de détection maximale

Les considérations suivantes s'appliquent au montage de tous les types de caméras :

Position de montage

Si vous montez la caméra afin qu'elle offre une vue plongeante, il est difficile pour l'application de classer les objets.

Inclinaison

La caméra doit être orientée suffisamment vers le sol de sorte que le centre de l'image se trouve sous l'horizon. Installez la caméra de sorte que la distance de détection minimale soit supérieure à la moitié de la hauteur d'installation de la caméra (distance de détection minimale > hauteur d'installation de la caméra / 2).

Zone de détection

Le point de détection d'un objet doit se trouver à l'intérieur de la zone de détection. Le point de détection d'un être humain se situe au niveau de ses pieds, tandis que celui d'un véhicule se situe en son centre.

Distance de détection maximale

  • La distance de détection maximale dépend des éléments suivants :
  • Type et modèle de la caméra

  • Objectif de la caméra. Une distance focale plus élevée permet une distance de détection supérieure.

  • Météo. Par exemple, une forte pluie ou de la neige peuvent affecter la distance et la précision de la détection.

  • Luminosité. La précision et la portée de la détection peuvent être affectées par un éclairage insuffisant.

  • Charge de caméra

Nous vous recommandons d'utiliser AXIS Site Designer pour déterminer la distance de détection maximale pour les différents modèles de caméra sur votre site.

Roulement

L'angle de roulis de la caméra doit être pratiquement égal à zéro. Cela signifie que l'image doit être au même niveau que l'horizon.

Champ de vision

Le champ de vision de la caméra doit être fixe.

Vibrations

L'application tolère les légères vibrations de la caméra. Toutefois, la caméra est plus performante en l'absence de vibrations.

Taille d'objet

Pour un être humain à détecter, la hauteur minimale est de 4 % de la hauteur totale de l'image. Pour un véhicule, la hauteur minimale est de 3 % de la hauteur totale de l'image. Cependant, cela implique des conditions d'image parfaites et aucune obstruction dans le champ de vue. Pour minimiser le risque de détections manquées, nous recommandons une hauteur d'au moins 8 % pour les êtres humains et de 6 % pour les véhicules.

Visibilité de l'objet

La précision de la détection peut être affectée :

  • si les objets ne sont que partiellement visibles en raison, par exemple, d'un feuillage. Il est particulièrement important que les éléments caractéristiques, tels que les jambes ou les roues, soient visibles.

  • lorsque la scène est remplie d'objets. Par exemple en cas de bouchon.

  • lorsque vous utilisez la fonctionnalité de temps dans la zoneBÊTA : si les objets se superposent fréquemment.

Contrast (Contraste)

  • Il doit exister un certain niveau de contraste entre les objets et l'arrière-plan. Le brouillard, la lumière directe qui brille sur la caméra ou une image trop bruyante peuvent entraîner des problèmes de contraste. Vous pouvez augmenter le niveau d'éclairage et ajuster les paramètres de l'image pour améliorer le niveau de contraste.
  • Lorsque vous utilisez une caméra jour/nuit avec un éclairage artificiel, nous vous recommandons de définir au moins 50 lux dans l'intégralité de la zone de détection.

  • Lorsque vous utilisez un éclairage infrarouge intégré, la distance de détection maximale dépend de la caméra et de l'environnement.

Mouvement attendu des objets dans la scène

Les objets qui se rapprochent de la caméra en ligne droite doivent se déplacer plus longtemps avant d'être détectés par rapport aux objets qui se déplacent perpendiculairement au champ de vision de la caméra.

Pose humaine

Les êtres humains doivent se déplacer en position debout.

Mouvement d'objet

Les objets doivent se déplacer dans la scène pendant au moins 2 secondes.

Paramètres d'image recommandés

Avant de commencer à utiliser l'application, nous vous conseillons d'activer Forensic WDR et la correction de la distorsion en barillet, si ces fonctions sont disponibles sur votre caméra.

L'image à droite est un exemple de distorsion en barillet. La distorsion en barillet est un effet d'objectif dans lequel les lignes droites apparaissent plus courbées près des bords de l'image.
  • Conditions susceptibles de retarder ou de faire manquer des détections
  • Brouillard

  • Éclairage direct sur la caméra

  • Éclairage inapproprié

  • Image trop bruyante

  • Situations susceptibles de déclencher de fausses alarmes
  • Personnes ou véhicules partiellement cachés. Par exemple, une petite fourgonnette qui apparaît derrière un mur peut ressembler à une personne, car le véhicule est haut et étroit.

  • Insectes sur l'objectif de la caméra. Notez que les caméras jour et nuit avec spots infrarouges attirent les insectes et les araignées.

  • Phares de voiture dans des conditions de forte pluie.

  • Animaux de taille humaine.

  • Éclairage intense produisant des ombres.

Premiers pas

  1. Connectez-vous à la page Web du produit en tant qu'administrateur et accédez à Settings > Apps > AXIS Object Analytics (Paramètres > Applications > AXIS Object Analytics).

  2. Sélectionnez l'application.

  3. Lancez l'application et cliquez sur Open (Ouvrir).

  4. Dans l'écran d'accueil, cliquez sur Step-by-step (Pas à pas) pour suivre la procédure de configuration recommandée.

  5. À l'étape 1, lisez attentivement les considérations.

  6. À l'étape 2, sélectionnez si vous souhaitez que l'application détecte des humains, des véhicules ou les deux. En savoir plus sur Classification des objets.

  7. Indiquez si vous voulez que l'application détecte le moment où des objets se déplacent ou restent plus longtemps qu'une durée définieBêta à l'intérieur d'une zone définie ou lorsqu'ils traversent une ligne définie. Pour en savoir plus, consultez Objet dans la zone et Franchissement de ligne

  8. Sur les caméras PTZ, vous pouvez choisir de restreindre la détection à une position préréglée spécifique. Sélectionnez-la dans la liste.

  9. Ajustez la ligne par défaut que les objets doivent traverser ou la zone où les objets doivent se déplacer.

    Pour savoir comment ajuster la ligne ou la zone à inclure par défaut, consultez Régler la zone ou la ligne virtuelle.

  10. À l'étape 3, vérifiez vos paramètres.

Vous venez de créer un scénario. Pour le renommer ou le modifier, cliquez sur Ouvrir.

Pour créer plus de scénarios, cliquez sur + (+).

Créer un scénario : objet dans la zone
Créer un scénario : temps dans la zone
Créer un scénario : franchissement de ligne

Régler la zone ou la ligne virtuelle

  • Pour redéfinir une zone ou une ligne virtuelle, cliquez et faites glisser l'un des points d'ancrage.

  • Pour déplacer une zone ou une ligne virtuelle, cliquez dessus et faites-la glisser.

  • Pour supprimer un angle, cliquez avec le bouton droit de la souris sur l'angle.

  • Ligne virtuelle
  • Pour réinitialiser la ligne virtuelle à sa taille par défaut, cliquez sur Scene > Reset line (Scène > Réinitialiser la ligne).

  • Pour modifier la direction dans laquelle les objets doivent se déplacer pour être détectés, cliquez sur Scène > Changer la direction de déclenchement. Les flèches rouges à côté de la ligne indiquent la direction actuelle. Les actions se déclenchent lorsque des objets franchissent la ligne dans la direction des flèches.

  • Zone
  • Pour réinitialiser la zone d'inclusion à sa taille par défaut, cliquez sur Scene > (Scène >).

  • Pour créer une zone à l'intérieur de la zone d'inclusion dans laquelle vous ne voulez pas que des objets soient détectés, cliquez sur Scene > Add exclude area (Scène > Ajouter une zone à exclure).

Configurer l'application

Modifier un scénario

Pour modifier un scénario, cliquez sur Scenarios (Scénarios) et cliquez sur Open (Ouvrir) dans la carte du scénario.

  • Pour renommer le scénario, cliquez sur .

  • Pour changer le type d'objets à détecter, cliquez sur Triggering objects (Objets déclencheurs).

  • Remarque

    Si vous sélectionnez Any motion (Tous les mouvements), l'application ne classe pas les objets. Au lieu de cela, l'application détecte tout objet qui se déplace dans la scène. Cela peut être, par exemple, des animaux, des feuillages, des drapeaux ou des ombres. Pour ignorer les petits objets ou objets qui n'apparaissent que très peu, vous pouvez utiliser des filtres. Pour en savoir plus, consultez Filtres.

  • Dans un scénario Objet dans la zone : Pour autoriser les objets à rester à l'intérieur de la zone d'inclusion pendant un certain temps avant que l'application ne déclenche une action, cliquez sur Triggering objects (Objets déclencheurs) et activez Time in area (Temps dans la zone)BÊTA. Définissez le temps autorisé.

  • Pour ajuster la zone ou la ligne virtuelle, cliquez sur Scene (Scène).

Calibrer la perspective

Remarque

Il n'est pas possible de calibrer la perspective sur tous les types de périphériques, par exemple certaines caméras panoramiques.

Si la scène a une profondeur importante, vous devez calibrer la perspective pour éliminer les fausses alarmes dues aux petits objets. Pendant le calibrage, l'application compare la hauteur des objets lorsqu'ils apparaissent dans l'image avec la hauteur réelle des objets physiques correspondants. L'application utilise la perspective calibrée pour calculer la taille de l'objet.

Disposez des barres verticales sur l'image pour calibrer la perspective. Les barres représentent les objets physiques situés à différentes distances de la caméra.

  1. Accédez à Settings > Advanced > Perspective (Paramètres > Avancés > Perspective) et cliquez sur + (+).

  2. Dans la vidéo en direct, choisissez deux objets d'une même hauteur connue, par exemple un être humain ou des poteaux de clôture, qui se trouvent sur le terrain et à des distances différentes de la caméra.

    Vous pouvez utiliser, par exemple, des poteaux de clôture ou un être humain.

  3. Placez les barres sur chaque objet et ajustez la longueur de chaque barre en fonction de la hauteur de l'objet.

  4. Sélectionnez les scénarios auxquels vous voulez appliquer la perspective.

  5. Saisissez la hauteur des objets par hauteur de barre Perspective.

  6. Cliquez sur Save (Sauvegarder).

Example

Si une barrière avec des poteaux hauts de 2 mètres part de la caméra et continue au loin, placez les barres sur les poteaux de clôture, ajustez leur longueur, puis saisissez dans les champs 200 cm (6 pi 7 po).

Important

Assurez-vous que les barres ne se superposent pas en hauteur.

Ajouter des incrustations de métadonnées gravées aux flux vidéo

Pour afficher l'événement qui a été détecté dans le flux vidéo en direct et enregistré, activez l'incrustation de métadonnées. Lorsque vous activez l'incrustation de métadonnées, l'application indique :

  • Un rectangle autour des objets détectés.

  • La zone ou la ligne du scénario où l'objet a été détecté.

Si vous activez les trajectoires, l'application affiche également une ligne qui indique le chemin pris par un objet.

Si plusieurs scénarios se déclenchent en même temps, les incrustations correspondantes sont toutes affichées dans tous les flux avec la résolution sélectionnée.

Important

Les incrustations de métadonnées sont des incrustations d'alarme gravées à la résolution sélectionnée du flux vidéo. Vous ne pouvez pas les supprimer de la vidéo enregistrée.

Remarque

Si vous utilisez des zones de visualisation, les incrustations de métadonnées apparaissent seulement dans la première zone de visualisation. Le nom par défaut de la première zone de visualisation est Zone de visualisation 1.

  1. Sur la page Web de l'application, accédez à Settings > Advanced (Paramètres > Avancé) et, en fonction de votre caméra :

    • Activez Metadata overlay (Incrustation de métadonnées).

    • Sous Metadata overlay (Incrustation de métadonnées), sélectionnez la résolution dans laquelle les incrustations de métadonnées gravées doivent apparaître. Vous ne pouvez sélectionner qu'une résolution et le paramètre s'applique à tous les scénarios.

  2. Pour afficher le chemin pris par un objet, sélectionnez Trajectories (Trajectoires).

Restreindre la détection à une position préréglée PTZ

Sur les caméras PTZ, vous pouvez restreindre la détection à une position préréglée spécifique.

  1. Accédez à Scenarios (Scénarios) et cliquez sur Open (Ouvrir) dans une carte de scénario ou cliquez sur + pour créer un nouveau scénario.

  2. Cliquez sur Scene (Scène) et sélectionnez une position préréglée dans la liste.

Remarque

Chaque fois que la position PTZ préréglée change, l'application doit recommencer le calibrage. Nous vous conseillons d'attendre au moins 15 secondes avant de changer des positions préréglées dans une ronde de contrôle.

En savoir plus

Classification des objets

L'application peut classer deux types d'objets : êtres humains et véhicules. L'application affiche un rectangle autour des objets classés. Les objets classés en tant qu'êtres humains sont indiqués par un rectangle rouge et les objets classés en tant que véhicules sont indiqués par un rectangle bleu.

Pour les caméras avec deep learning, les véhicules peuvent être encore classés comme tombereaux, bus, voitures et vélos.

Si vous utilisez la durée dans la fonctionnalité BÊTA de zone, le rectangle est jaune jusqu'à ce que la condition de durée soit remplie. Si l'objet reste ensuite à l'intérieur de la zone d'inclusion pendant encore 30 secondes, le rectangle comporte un pointillé.

Chaque objet classé dispose d'un point de détection que l'application utilise pour décider si un objet se trouve à l'intérieur ou à l'extérieur d'une zone d'inclusion ou s'il traverse une ligne virtuelle. Pour un humain, le point de détection se situe au niveau de ses pieds, tandis que celui d'un véhicule se situe en son centre. Si les pieds d'un humain ou le centre d'un véhicule est obstrué dans la vue de la caméra, l'application suppose l'emplacement du point de détection.

Remarque

Nous vous recommandons de prendre en compte l'emplacement supposé du point de détection des objets lorsque vous tracez la zone d'inclusion ou la ligne virtuelle.

Pour les meilleurs résultats possibles :

  • À un certain moment, l'objet entier doit être visible dans la scène.

  • L'objet doit être en mouvement dans la scène pendant au moins 2 secondes.

  • Sur les caméras avec machine learning, les êtres humains doivent se déplacer en position debout. Pour les caméras avec deep learning, ce n'est pas une obligation.

  • La partie supérieure du corps d'un être humain doit être visible

  • Les objets doivent se détacher de l'arrière-plan

  • Réduisez le flou de mouvement.

Objet dans la zone

Lorsque vous utilisez la condition de déclenchement Objet dans la zone, l'application détecte les objets qui se déplacent à l'intérieur d'une zone définie. Cette zone est appelée zone d'inclusion.

Vous pouvez activer la durée dans la zoneBÊTA pour définir une limite de temps pendant laquelle un objet est autorisé à rester dans la zone d'inclusion avant que l'application ne déclenche une action. Lorsqu'un objet pénètre dans la zone d'inclusion, le compteur démarre. Si l'objet se déplace hors de la zone d'inclusion avant que la limite de temps définie ne soit atteinte, le compteur se réinitialise. C'est le point de détection de l'objet qui doit se trouver à l'intérieur de la zone d'inclusion pour que le compteur poursuive le décompte. La fonctionnalité de la zoneBÊTA convient aux zones où les humains ou les véhicules ne sont censés rester que très peu de temps, comme les tunnels ou les cours d'écoles après les heures d'ouverture.

Zone d'inclusion

La zone d'inclusion est la zone où l'application détecte les types d'objets sélectionnés. L'application déclenche des actions pour les objets si son point de détection se trouve dans la zone d'inclusion. L'application ignore les objets situés en dehors de la zone d'inclusion.

Redéfinissez et redimensionnez la zone afin qu'elle ne couvre que la partie de la scène où vous souhaitez détecter des objets. Si vous utilisez le temps dans la fonctionnalité BETA, il est important d'inclure uniquement des parties de la scène où les objets ne se superposent pas fréquemment. Le rectangle de la zone d'inclusion par défaut peut être remplacé par un polygone comptant jusqu'à 10 angles.

Recommandation

S'il existe une route ou un trottoir très passants à proximité de la zone d'inclusion, dessinez la zone d'inclusion de sorte que les objets en dehors de la zone d'inclusion ne sont pas détectés accidentellement. Cela signifie que vous devez éviter de dessiner la zone d'inclusion trop près de la route ou du trottoir passants.

Zones d'exclusion

Une zone à exclure est une zone à l'intérieur de la zone à inclure dans laquelle certains types d'objets ne sont pas détectés. Utilisez des zones d'exclusion s'il existe des zones à l'intérieur de la zone d'inclusion qui déclenchent un grand nombre d'actions indésirables. Vous pouvez créer jusqu'à 5 zones à exclure.

Déplacez, redéfinissez et redimensionnez la zone afin qu'elle couvre la partie souhaitée de la scène. Le rectangle par défaut peut être remplacé par un polygone comptant jusqu'à 10 angles.

Recommandation

Placez les zones à exclure à l'intérieur de la zone à inclure. Utilisez les zone à exclure pour couvrir les zones où vous ne voulez pas détecter d'objets.

Franchissement de ligne

Lorsque vous utilisez la condition de déclenchement Franchissement de ligne, l'application détecte les objets qui franchissent une ligne définie virtuellement.

La ligne virtuelle est une ligne jaune dans l'image. Les objets du type sélectionné qui franchissent la ligne dans une certaine direction sont détectés. Les flèches rouges sur la ligne indiquent la direction actuelle. Les actions se déclenchent lorsque des objets franchissent la ligne dans la direction indiquée par les flèches.

Pour déclencher une action, l'objet doit franchir la ligne. Comme illustré, le point de détection de l'objet doit traverser la ligne pour que l'action se déclenche. Les objets qui touchent seulement la ligne ne déclenchent pas d'action.

  • Dans l'illustration à gauche, l'homme ne déclenche pas d'action, car son point de détection n'a pas encore franchi la ligne.

  • Dans l'illustration à droite, l'homme déclenche une action, car son point de détection a traversé la ligne.

Pour plus d'informations sur le point de détection, consultez Classification des objets.

Recommandations pour la ligne virtuelle

  • Ajustez la ligne virtuelle de sorte que :
  • les objets soient clairement visibles à l'image avant qu'ils ne traversent la ligne.

  • le point de détection d'un objet soit susceptible de traverser la ligne.

  • les objets ne puissent pas entrer dans la zone protégée sans passer la ligne.

Intégration

Configurer les alarmes dans AXIS Camera Station

Cet exemple explique comment configurer une règle dans AXIS Camera Station pour alerter l'opérateur et enregistrer une vidéo comportant des incrustations de métadonnées lorsque AXIS Object Analytics détecte un objet.

Avant de commencer

  1. Ajouter la caméra à AXIS Camera Station
  2. Dans AXIS Camera Station, ajoutez la caméra. Reportez-vous au manuel utilisateur AXIS Camera Station.

  1. Créer un déclencheur d'événement de périphérique
  2. Cliquez sur pour accéder à Configuration > Recording and events > Action rules (Configuration > Enregistrements et événements > Règles d'action) et cliquez sur New (Nouveau).

  3. Cliquez sur Add (Ajouter) pour ajouter un déclencheur.

  4. Sélectionnez Device event (Événement de périphérique) dans la liste des déclencheurs et cliquez sur OK.

  5. Dans la section Configure device event trigger (Configurer le déclencheur d'événement de périphérique) :

    • Dans Device (Périphérique), sélectionnez la caméra.

    • Dans Event (Événement), sélectionnez l'un des scénarios pour AXIS Object Analytics.

    • Dans Trigger period (Période de déclenchement), définissez un intervalle de temps entre deux déclenchements successifs. Utilisez cette fonction pour réduire le nombre d'enregistrements successifs. En cas de nouveau déclenchement pendant cet intervalle, l'enregistrement se poursuit et la période de déclenchement reprend à partir de ce moment.

  6. Dans Filters (Filtres), réglez l'option active (active) sur Yes (Oui).

  7. Cliquez sur OK (OK).

  1. Créer des actions pour déclencher des alarmes et enregistrer la vidéo
  2. Cliquez sur Next (Suivant).

  3. Cliquez sur Add (Ajouter) pour ajouter une action.

  4. Sélectionnez Raise alarm (Déclencher une alarme) dans la liste des actions et cliquez sur OK (OK).

  5. Remarque

    Le message d'alarme correspond à ce que voit l'opérateur lorsqu'une alarme est déclenchée.

  6. Dans la section Alarm message (Message d'alarme), saisissez le titre et la description de l'alarme.

  7. Cliquez sur OK.

  8. Cliquez sur Add (Ajouter) pour ajouter une autre action.

  9. Sélectionnez Record (Enregistrer) dans la liste des actions et cliquez sur OK.

  10. Dans la liste des caméras, sélectionnez la caméra à utiliser pour l'enregistrement.

  11. Important

    Pour inclure des incrustations de métadonnées dans l'enregistrement, assurez-vous de sélectionner un profil avec la même résolution que celle sélectionnée pour les incrustations de métadonnées dans l'application.

  12. Sélectionnez un profil et configurez le pré-tampon et le post-tampon.

  13. Cliquez sur OK (OK).

  1. Spécifier quand l'alarme est active
  2. Cliquez sur Next (Suivant).

  3. Si vous souhaitez uniquement que l'alarme soit active pendant certaines heures, sélectionnez Custom schedule (Programmation personnalisée).

  4. Sélectionnez un calendrier de la liste.

  5. Cliquez sur Next (Suivant).

  6. Nommez la règle.

  7. Cliquez sur Finish (Terminer).

Remarque

Pour voir les incrustations de métadonnées dans la vidéo en direct, assurez-vous de sélectionner le profil de diffusion correspondant à celui que vous avez défini dans l'application.

Enregistrer une vidéo lorsqu'un objet est détecté

Cet exemple explique comment configurer le périphérique Axis pour un enregistrement vidéo sur une carte SD lorsque l'application détecte un objet.

  1. Dans l'interface Web du périphérique, accédez à Apps (Applications) et assurez-vous que l'application est démarrée.

  2. Pour vérifier que la carte SD est montée, accédez à System > Storage (Stockage système).

  3. Accédez à System > Events (Système > Événements) et ajoutez une règle.

  4. Saisissez le nom de la règle.

  5. Dans la liste des conditions, sous Application, sélectionnez le scénario de l'application. Pour déclencher la même action pour tous les scénarios, sélectionnez Object Analytics : Any Scenario (Tous les scénarios).

  6. Dans la liste des actions, sous Recordings (Enregistrements), sélectionnez Record video (Enregistrer la vidéo).

  7. Dans la liste des options de stockage, sélectionnez SD-DISK.

  8. Sélectionnez une Caméra et un profil de flux.

    Pour afficher les incrustations de métadonnées, assurez-vous de les avoir activées dans l'application avec la même résolution que dans le profil de flux.

  9. Remarque

    Il est déconseillé d'utiliser un scénario avec une durée dans la zoneBÊTA pour déclencher des enregistrements si la durée pendant laquelle un objet est autorisé à rester à l'intérieur de la zone d'inclusion est supérieure à 30 secondes. La raison à cela est qu'il est difficile d'utiliser une durée pré-buffer supérieure à 30 secondes, ce qui est nécessaire si vous souhaitez voir ce qui s'est passé avant la détection de l'objet.

  10. Si vous souhaitez démarrer l'enregistrement avant la détection de l'objet, saisissez une durée de pré-buffer.

  11. Cliquez sur Save (Sauvegarder).

  12. Pour tester la règle, accédez à la page Web de l'application et ouvrez le scénario. Cliquez sur Test alarm (Alarme test). Cela génère un événement, comme si le scénario avait réellement causé un déclenchement. Si vous avez activé les incrustations de métadonnées, un rectangle rouge ou bleu s'affiche.

Dépannage

Problèmes de détection d'objets

… lorsque l'image est instable

Activez Electronic image stabilization (EIS) (Stabilisation d'image électronique (EIS)) dans l'onglet Image de la page Web du produit.

… sur les bords de l'image, où l'image apparaît déformée

Activez Barrel distortion correction (BDC) (Correction de la distorsion en barillet (BDC)) dans l'onglet Image de la page Web du produit.

... immédiatement

Les objets doivent être complètement visibles dans la scène avant de pouvoir être détectés par l'application.

… dans d'autres situations

Cela peut être dû au fait que les objets se fondent dans l'arrière-plan s'ils sont de la même couleur, ou que la luminosité de la scène n'est pas appropriée. Essayez d'améliorer la luminosité.

Problèmes de fausses alarmes

… en raison de petits animaux qui apparaissent grands dans l'image

Calibrez la perspective. Voir Calibrer la perspective.

Problèmes d'incrustations de métadonnées

… sur un deuxième client

Les incrustations de métadonnées ne sont visibles que sur un seul client à la fois.

Problèmes avec le flux vidéo

... dans le navigateur Firefox pour les caméras avec des résolutions élevées

Essayez plutôt le navigateur Google Chrome™ .

Filtres

Si vous avez installé l'application pour détecter tout mouvement, de fausses alarmes peuvent se déclencher. Vous pouvez alors utiliser des filtres.

Objets passagers –
Ce filtre permet d'ignorer les objets qui n'apparaissent dans l'image que pendant une courte période de temps.
Petits objets –
Ce filtre permet d'ignorer les petits objets.
Objets ondulants –
Utilisez ce filtre pour ignorer les objets qui se déplacent uniquement sur une courte distance.

Recommandations de filtres

  • Les filtres s'appliquent à tous les objets en mouvement identifiés par l'application et doivent être configurés avec soin pour s'assurer qu'aucun objet important n'est ignoré.

  • Configurez un filtre à la fois et testez-le avant d'activer un autre filtre.

  • Modifier les paramètres du filtre soigneusement jusqu'à obtention du résultat souhaité.

Le filtre Objets passagers

Utilisez le filtre Objets passagers pour éviter de détecter des objets qui n'apparaissent que très brièvement, comme les faisceaux des phares d'une voiture ou des ombres qui se déplacent rapidement.

Lorsque vous activez le filtre Objets passagers et que l'application détecte un objet en mouvement, l'objet ne déclenche pas d'action avant écoulement de la durée définie. Si l'action doit démarrer un enregistrement, configurez l'heure de pré-déclenchement de sorte que l'enregistrement intègre également l'heure à laquelle l'objet s'est déplacé dans la scène avant de déclencher l'action.

Configurer le filtre Objets passagers

  1. Cliquez sur Scenarios (Scénarios) et sélectionnez un scénario existant ou cliquez sur + (+) pour créer un nouveau scénario.

  2. Cliquez sur Triggering objects (Objets déclencheurs) et assurez-vous que Any motion (Tous les mouvements) est sélectionné.

  3. Accédez à Filters > Short-lived objects (Filtres > Objets passagers).

  4. Saisissez le nombre de secondes dans le champ. Le nombre de secondes correspond à la durée minimale qui doit s'écouler avant qu'un objet ne déclenche une action. Commencez par une courte durée.

  5. Si le résultat n'est pas satisfaisant, augmentez progressivement la durée du filtre.

Le filtre Objets ondulants

Le filtre Objets ondulants ignore les objets qui ne se déplacent que sur une courte distance, par exemple, un feuillage qui ondule, des drapeaux et leur ombre. Si les objets ondulants sont volumineux, par exemple de grands étangs ou de grands arbres, utilisez les zones d'exclusion plutôt que le filtre. Le filtre est appliqué à tous les objets ondulants détectés et, si la valeur est trop grande, les objets importants peuvent ne pas déclencher d'actions.

Lorsque le filtre Objet ondulant est activé et que l'application détecte un objet, l'objet ne déclenche pas d'action jusqu'à ce qu'il se soit déplacé sur une plus grande distance que la taille du filtre.

Configurer le filtre des objets ondulants

Le filtre ignore tout objet en mouvement sur une distance plus courte que celle allant du centre à la périphérie de l'ellipse.

Remarque
  • Le filtre s'applique à tous les objets dans l'image, pas uniquement les objets dans la même position que l'ellipse de configuration.
  • Nous vous recommandons de commencer par une taille Petit filtre.
  1. Cliquez sur Scenarios (Scénarios) et sélectionnez un scénario existant ou cliquez sur + pour créer un nouveau scénario.

  2. Cliquez sur Triggering objects (Objets déclencheurs) et assurez-vous que Any motion (Tous les mouvements) est sélectionné.

  3. Accédez à Filters > Swaying objects (Filtres > Objets ondulants).

  4. Saisissez la distance à laquelle les objets sont autorisés à de déplacer, ainsi qu'un pourcentage de l'écran, avant qu'une action se déclenche.

Le filtre Petits objets

Le filtre Petits objets réduit le nombre de fausses alarmes en ignorant les objets de petite taille, par exemple les petits animaux.

Remarque
  • Le filtre s'applique à tous les objets dans l'image, pas uniquement les objets dans la même position que le rectangle de configuration.
  • L'application ignore les objets qui sont plus petits à la fois en largeur et en hauteur saisies.

Configurer le filtre Petits objets

  1. Cliquez sur Scenarios (Scénarios) et sélectionnez un scénario existant ou cliquez sur + (+) pour créer un nouveau scénario.

  2. Cliquez sur Triggering objects (Objets déclencheurs) et assurez-vous que Any motion (Tous les mouvements) est sélectionné.

  3. Accédez à Filters > Small objects (Filtres > Petits objets).

  4. Remarque

    Si vous avez calibré la perspective, saisissez la largeur et la hauteur des objets à ignorer en centimètres (pouces) plutôt qu'en pourcentage de l'image.

  5. Saisissez la largeur et la hauteur des objets à ignorer en pourcentage de l'image.