Présentation de la solution
À propos de l’application
AXIS Object Analytics détecte, classifie et compte lesBETA objets en mouvement, en particulier les personnes ou les véhicules. Vous pouvez choisir différentes conditions de détection, telles que les objets qui se déplacent ou restent plus longtemps qu’une heure définieBETA dans une zone prédéfinie ou qui traversent une ligne définie. Lorsque des objets sont détectés ou comptés, les périphériques réseau Axis ou les logiciels tiers peuvent effectuer différentes actions, telles que l’enregistrement vidéo, la lecture d’un message audio ou l’alerte du personnel de sécurité.
Considérations
Pour obtenir de meilleurs résultats, la caméra doit être correctement montée, et certaines conditions doivent être remplies pour la scène, l’image et les objets.
Cette image illustre une caméra correctement montée.
- Hauteur de montage
- Inclinaison
- Zone de détection
- Distance de détection minimale
- Distance de détection maximale
Les considérations suivantes s’appliquent au montage de tous les types de caméras :
Position de montage
Si vous montez la caméra afin qu’elle offre une vue plongeante, il est difficile pour l’application de classer les objets.
Inclinaison
La caméra doit être orientée suffisamment vers le sol de sorte que le centre de l’image se trouve sous l’horizon. Installez la caméra de sorte que la distance de détection minimale soit supérieure à la moitié de la hauteur d’installation de la caméra (distance de détection minimale > hauteur d’installation de la caméra / 2).
Zone de détection
Le point de détection d’un objet doit se trouver à l’intérieur de la zone de détection. Le point de détection d’un être humain se situe au niveau de ses pieds, tandis que celui d’un véhicule se situe en son centre.
Distance de détection maximale
- La distance de détection maximale dépend des éléments suivants :
Type et modèle de la caméra
Objectif de la caméra. Une distance focale plus élevée permet une distance de détection supérieure.
Météo. Par exemple, une forte pluie ou de la neige peuvent affecter la distance et la précision de la détection.
Luminosité. La précision et la portée de la détection peuvent être affectées par un éclairage insuffisant.
Charge de caméra
Nous vous recommandons d’utiliser AXIS Site Designer pour déterminer la distance de détection maximale pour les différents modèles de caméra sur votre site.
Roulement
L’angle de roulis de la caméra doit être pratiquement égal à zéro. Cela signifie que l’image doit être au même niveau que l’horizon.
Champ de vision
Le champ de vision de la caméra doit être fixe.
Vibrations
L’application tolère les légères vibrations de la caméra. Toutefois, la caméra est plus performante en l’absence de vibrations.
Taille d’objet
Pour un être humain à détecter, la hauteur minimale est de 4 % de la hauteur totale de l’image. Pour un véhicule, la hauteur minimale est de 3 % de la hauteur totale de l’image. Cependant, cela implique des conditions d’image parfaites et aucune obstruction dans le champ de vue. Pour minimiser le risque de détections manquées, nous recommandons une hauteur d’au moins 8 % pour les êtres humains et de 6 % pour les véhicules.
Visibilité de l’objet
La précision de la détection peut être affectée :
si les objets ne sont que partiellement visibles en raison, par exemple, d’un feuillage. Il est particulièrement important que les éléments caractéristiques, tels que les jambes ou les roues, soient visibles.
lorsque la scène est remplie d’objets. Par exemple en cas de bouchon.
lorsque vous utilisez la fonctionnalité de temps dans la zoneBÊTA : si les objets se superposent fréquemment.
Contrast (Contraste)
- Il doit exister un certain niveau de contraste entre les objets et l’arrière-plan. Le brouillard, la lumière directe qui brille sur la caméra ou une image trop bruyante peuvent entraîner des problèmes de contraste. Vous pouvez augmenter le niveau d’éclairage et ajuster les paramètres de l’image pour améliorer le niveau de contraste.
Lorsque vous utilisez une caméra jour/nuit avec un éclairage artificiel, nous vous recommandons de définir au moins 50 lux dans l’intégralité de la zone de détection.
Lorsque vous utilisez un éclairage infrarouge intégré, la distance de détection maximale dépend de la caméra et de l’environnement.
Mouvement attendu des objets dans la scène
Les objets qui se rapprochent de la caméra en ligne droite doivent se déplacer plus longtemps avant d’être détectés par rapport aux objets qui se déplacent perpendiculairement au champ de vision de la caméra.
Pose humaine
Les êtres humains doivent se déplacer en position debout.
Mouvement d’objet
Les objets doivent se déplacer dans la scène pendant au moins 2 secondes.
Paramètres d’image recommandés
Avant de commencer à utiliser l’application, nous vous conseillons d’activer Forensic WDR et la correction de la distorsion en barillet, si ces fonctions sont disponibles sur votre caméra.
- Conditions susceptibles de retarder ou de faire manquer des détections
- Remarque
Ces conditions ne sont pas pertinentes pour les caméras de fusion radar-vidéo.
Brouillard
Éclairage direct sur la caméra
Éclairage inapproprié
Image trop bruyante
- Situations susceptibles de déclencher de fausses alarmes
Personnes ou véhicules partiellement cachés. Par exemple, une petite fourgonnette qui apparaît derrière un mur peut ressembler à une personne, car le véhicule est haut et étroit.
Insectes sur l’objectif de la caméra. Notez que les caméras jour et nuit avec spots infrarouges attirent les insectes et les araignées.
Phares de voiture dans des conditions de forte pluie.
Animaux de taille humaine.
Éclairage intense produisant des ombres.
Premiers pas
Connectez-vous à l’interface du périphérique en tant qu’administrateur et accédez à Paramètres > Applications > AXIS Object Analytics.
Sélectionnez l’application.
Lancez l’application et cliquez sur Open (Ouvrir).
Dans l’écran d’accueil, cliquez sur Step-by-step (Pas à pas) pour suivre la procédure de configuration recommandée.
À l’étape 1, lisez attentivement les considérations.
À l’étape 2, sélectionnez si vous souhaitez que l’application détecte des personnes, des véhicules ou les deux. En savoir plus sur Classification des objets.
Sélectionnez une condition de déclenchement :
Objet dans la zone si vous souhaitez que l’application détecte le moment où des objets se déplacent ou restent plus longtemps qu’une duréeBÊTA définie à l’intérieur d’une zone définie.
Franchissement de ligne si vous souhaitez que l’application détecte le moment où des objets traversent une ligne définie.
Comptage de passagesBÊTA si vous souhaitez que l’application compte les objets traversant une ligne définie.
- Pour en savoir plus, consultez Objet dans la zone et Franchissement de ligne et comptage de passages.
Sur les caméras PTZ, vous pouvez choisir de restreindre la détection à une position préréglée spécifique. Sélectionnez-la dans la liste.
Ajustez la ligne par défaut que les objets doivent traverser ou la zone où les objets doivent se déplacer.
Pour savoir comment ajuster la ligne ou la zone à inclure par défaut, consultez Régler la zone ou la ligne virtuelle.
À l’étape 3, vérifiez vos paramètres.
Vous venez de créer un scénario. Pour le renommer ou le modifier, cliquez sur Ouvrir.
Pour créer plus de scénarios, cliquez sur + (+).
Régler la zone ou la ligne virtuelle
Pour redéfinir une zone ou une ligne virtuelle, cliquez et faites glisser l’un des points d’ancrage.
Pour déplacer une zone ou une ligne virtuelle, cliquez dessus et faites-la glisser.
Pour supprimer un angle, cliquez avec le bouton droit de la souris sur l’angle.
- Ligne virtuelle
Pour réinitialiser la ligne virtuelle à sa taille par défaut, cliquez sur Scene > Reset line (Scène > Réinitialiser la ligne).
Pour modifier la direction dans laquelle les objets doivent se déplacer pour être détectés, cliquez sur Scène > Changer la direction de déclenchement. Les flèches rouges à côté de la ligne indiquent la direction actuelle. Les actions se déclenchent lorsque des objets franchissent la ligne dans la direction des flèches.
- Zone
Pour réinitialiser la zone d’inclusion à sa taille par défaut, cliquez sur Scene > (Scène >).
Pour créer une zone à l’intérieur de la zone d’inclusion dans laquelle vous ne voulez pas que des objets soient détectés, cliquez sur Scene > Add exclude area (Scène > Ajouter une zone à exclure).
Configurer l’application
Modifier un scénario
Pour modifier un scénario, cliquez sur Scenarios (Scénarios) et cliquez sur Open (Ouvrir) dans la carte du scénario.
Pour renommer le scénario, cliquez sur .
Pour changer le type d’objets à détecter, cliquez sur Triggering objects (Objets déclencheurs).
- Remarque
Si vous sélectionnez Any motion (Tous les mouvements), l’application ne classe pas les objets. Au lieu de cela, l’application détecte tout objet qui se déplace dans la scène. Cela peut être, par exemple, des animaux, des feuillages, des drapeaux ou des ombres. Pour ignorer les petits objets ou objets qui n’apparaissent que très peu, vous pouvez utiliser des filtres. Pour en savoir plus, consultez Filtres.
Dans un scénario Objet dans la zone : Pour autoriser les objets à rester à l’intérieur de la zone d’inclusion pendant un certain temps avant que l’application ne déclenche une action, cliquez sur Triggering objects (Objets déclencheurs) et activez Time in area (Temps dans la zone)BÊTA. Définissez le temps autorisé.
Pour ajuster la zone ou la ligne virtuelle, cliquez sur Scène.
Dans un scénario de comptage de passages :
Pour réinitialiser quotidiennement les comptages, cliquez sur Comptage de passages et activez Réinitialiser le compteur à minuit.
Pour réinitialiser les comptages ponctuellement, cliquez sur Comptage de passages et cliquez sur Réinitialiser les comptages.
Calibrer la perspective
Il n’est pas possible de calibrer la perspective sur tous les types de périphériques, par exemple certaines caméras panoramiques.
Si la scène a une profondeur importante, vous devez calibrer la perspective pour éliminer les fausses alarmes dues aux petits objets. Pendant le calibrage, l’application compare la hauteur des objets lorsqu’ils apparaissent dans l’image avec la hauteur réelle des objets physiques correspondants. L’application utilise la perspective calibrée pour calculer la taille de l’objet.
Disposez des barres verticales sur l’image pour calibrer la perspective. Les barres représentent les objets physiques situés à différentes distances de la caméra.
Accédez à Settings > Advanced > Perspective (Paramètres > Avancés > Perspective) et cliquez sur + (+).
Dans la vidéo en direct, choisissez deux objets d’une même hauteur connue, par exemple un être humain ou des poteaux de clôture, qui se trouvent sur le terrain et à des distances différentes de la caméra.
Vous pouvez utiliser, par exemple, des poteaux de clôture ou un être humain.
Placez les barres sur chaque objet et ajustez la longueur de chaque barre en fonction de la hauteur de l’objet.
Sélectionnez les scénarios auxquels vous voulez appliquer la perspective.
Saisissez la hauteur des objets par hauteur de barre Perspective.
Cliquez sur Enregistrer.
Example
Si une barrière avec des poteaux hauts de 2 mètres part de la caméra et continue au loin, placez les barres sur les poteaux de clôture, ajustez leur longueur, puis saisissez dans les champs 200 cm (6 pi 7 po).
Assurez-vous que les barres ne se superposent pas en hauteur.
Ajouter des incrustations de métadonnées gravées aux flux vidéo
Pour afficher l’événement qui a été détecté dans le flux vidéo en direct et enregistré, activez l’incrustation de métadonnées. Lorsque vous activez l’incrustation de métadonnées, l’application indique :
Un rectangle autour des objets détectés.
La zone ou la ligne du scénario où l'objet a été détecté.
Pour le comptage de passagesBÊTA : un tableau présentant les comptages cumulés par type d'objet.
Si vous activez les trajectoires, l'application affiche également une ligne qui indique le chemin pris par un objet.
Si plusieurs scénarios se déclenchent en même temps, les incrustations correspondantes sont toutes affichées dans tous les flux avec la résolution sélectionnée.
Les incrustations de métadonnées sont des incrustations d’alarme gravées à la résolution sélectionnée du flux vidéo. Vous ne pouvez pas les supprimer de la vidéo enregistrée.
Si vous utilisez des zones de visualisation, les incrustations de métadonnées apparaissent seulement dans la première zone de visualisation. Le nom par défaut de la première zone de visualisation est Zone de visualisation 1.
Sur la page Web de l’application, accédez à Settings > Advanced (Paramètres > Avancé) et, en fonction de votre caméra :
Activez Metadata overlay (Incrustation de métadonnées).
Sous Metadata overlay (Incrustation de métadonnées), sélectionnez la résolution dans laquelle les incrustations de métadonnées gravées doivent apparaître. Vous ne pouvez sélectionner qu’une résolution et le paramètre s’applique à tous les scénarios.
Pour afficher le chemin pris par un objet, sélectionnez Trajectories (Trajectoires).
Restreindre la détection à une position préréglée PTZ
Sur les caméras PTZ, vous pouvez restreindre la détection à une position préréglée spécifique.
Accédez à Scenarios (Scénarios) et cliquez sur Open (Ouvrir) dans une carte de scénario ou cliquez sur + pour créer un nouveau scénario.
Cliquez sur Scene (Scène) et sélectionnez une position préréglée dans la liste.
Chaque fois que la position PTZ préréglée change, l’application doit recommencer le calibrage. Nous vous conseillons d’attendre au moins 15 secondes avant de changer des positions préréglées dans une ronde de contrôle.
Définir des règles pour les événements
Pour plus d’informations, consultez notre guide Premiers pas avec les règles pour les événements.
Enregistrer une vidéo lorsqu’un objet est détecté
Cet exemple explique comment configurer le périphérique Axis pour un enregistrement vidéo sur une carte SD lorsque l’application détecte un objet.
Dans l’interface Web du périphérique, accédez à Apps (Applications) et assurez-vous que l’application est démarrée.
Pour vérifier que la carte SD est montée, accédez à System > Storage (Stockage système).
Accédez à System > Events (Système > Événements) et ajoutez une règle.
Saisissez le nom de la règle.
Dans la liste des conditions, sous Application, sélectionnez le scénario de l’application. Pour déclencher la même action pour tous les scénarios, sélectionnez Object Analytics : Any Scenario (Tous les scénarios).
Dans la liste des actions, sous Recordings (Enregistrements), sélectionnez Record video (Enregistrer la vidéo).
Dans la liste des options de stockage, sélectionnez SD-DISK.
Sélectionnez une Caméra et un profil de flux.
Pour afficher les incrustations de métadonnées, assurez-vous de les avoir activées dans l’application avec la même résolution que dans le profil de flux.
- Remarque
Il est déconseillé d’utiliser un scénario avec une durée dans la zoneBÊTA pour déclencher des enregistrements si la durée pendant laquelle un objet est autorisé à rester à l’intérieur de la zone d’inclusion est supérieure à 30 secondes. La raison à cela est qu’il est difficile d’utiliser une durée pré-buffer supérieure à 30 secondes, ce qui est nécessaire si vous souhaitez voir ce qui s’est passé avant la détection de l’objet.
Si vous souhaitez démarrer l’enregistrement avant la détection de l’objet, saisissez une durée de pré-buffer.
Cliquez sur Enregistrer.
Pour tester la règle, accédez à la page Web de l’application et ouvrez le scénario. Cliquez sur Test alarm (Alarme test). Cela génère un événement, comme si le scénario avait réellement causé un déclenchement. Si vous avez activé les incrustations de métadonnées, un rectangle rouge ou bleu s’affiche.
Envoyer un e-mail lorsque 100 véhicules sont passés
Le comptage de passagesBÊTA et la fonctionnalité de seuil de passage vous permettent d'être notifié chaque fois qu'un nombre d'objets définis par l'utilisateur a franchi la ligne.
Cet exemple explique comment configurer une règle d'envoi d'e-mail à chaque passage de 100 véhicules.
Avant de commencer
Créez un destinataire d'e-mail dans l'interface du périphérique.
- Créer un scénario de comptage de passagesBÊTA
Dans Scénarios, cliquez sur +.
Dans le champ Nom, entrez Compter les véhicules.
Sous Objets déclencheurs, supprimez Individus.
Sous Condition de déclenchement, sélectionnez Comptage de passages.
Cliquez sur Enregistrer.
Ouvrez le scénario.
Sous Comptage de passages, activez le Seuil de passage.
Dans Nombre de comptages entre les événements, saisissez 100.
- Créer une règle
Dans l'interface du périphérique, accédez à Système > Événements et ajoutez une règle.
Saisissez le nom de la règle.
Dans la liste des conditions, sous Application, sélectionnez Object Analytics : Compter les véhicules qui ont atteint le seuil de passage.
Dans la liste des actions, sous Notifications, sélectionnez Envoyer la notification vers la messagerie électronique.
Sélectionnez un destinataire de la liste.
Saisissez un objet et un message pour l’e-mail.
Cliquez sur Enregistrer.
En savoir plus
Classification des objets
L’application peut classer deux types d’objets : êtres humains et véhicules. L’application affiche un rectangle autour des objets classés. Les objets classés en tant qu’êtres humains sont indiqués par un rectangle rouge et les objets classés en tant que véhicules sont indiqués par un rectangle bleu.
Pour les caméras avec deep learning, les véhicules peuvent être encore classés comme tombereaux, bus, voitures et vélos.
Si vous utilisez la durée dans la fonctionnalité BÊTA de zone, le rectangle est jaune jusqu’à ce que la condition de durée soit remplie. Si l’objet reste ensuite à l’intérieur de la zone d’inclusion pendant encore 30 secondes, le rectangle comporte un pointillé.
Chaque objet classé dispose d’un point de détection que l’application utilise pour décider si un objet se trouve à l’intérieur ou à l’extérieur d’une zone d’inclusion ou s’il traverse une ligne virtuelle. Pour un humain, le point de détection se situe au niveau de ses pieds, tandis que celui d’un véhicule se situe en son centre. Si les pieds d’un humain ou le centre d’un véhicule est obstrué dans la vue de la caméra, l’application suppose l’emplacement du point de détection.
Nous vous recommandons de prendre en compte l’emplacement supposé du point de détection des objets lorsque vous tracez la zone d’inclusion ou la ligne virtuelle.
Pour les meilleurs résultats possibles :
À un certain moment, l’objet entier doit être visible dans la scène.
L’objet doit être en mouvement dans la scène pendant au moins 2 secondes.
Sur les caméras avec machine learning, les êtres humains doivent se déplacer en position debout. Pour les caméras avec deep learning, ce n’est pas une obligation.
La partie supérieure du corps d’un être humain doit être visible
Les objets doivent se détacher de l’arrière-plan
Réduisez le flou de mouvement.
Objet dans la zone
Lorsque vous utilisez la condition de déclenchement Objet dans la zone, l’application détecte les objets qui se déplacent à l’intérieur d’une zone définie. Cette zone est appelée zone d’inclusion.
Vous pouvez activer la durée dans la zoneBÊTA pour définir une limite de temps pendant laquelle un objet est autorisé à rester dans la zone d’inclusion avant que l’application ne déclenche une action. Lorsqu’un objet pénètre dans la zone d’inclusion, le compteur démarre. Si l’objet se déplace hors de la zone d’inclusion avant que la limite de temps définie ne soit atteinte, le compteur se réinitialise. C’est le point de détection de l’objet qui doit se trouver à l’intérieur de la zone d’inclusion pour que le compteur poursuive le décompte. La fonctionnalité de la zoneBÊTA convient aux zones où les humains ou les véhicules ne sont censés rester que très peu de temps, comme les tunnels ou les cours d’écoles après les heures d’ouverture.
Zone d’inclusion
La zone d’inclusion est la zone où l’application détecte les types d’objets sélectionnés. L’application déclenche des actions pour les objets si son point de détection se trouve dans la zone d’inclusion. L’application ignore les objets situés en dehors de la zone d’inclusion.
Redéfinissez et redimensionnez la zone afin qu’elle ne couvre que la partie de la scène où vous souhaitez détecter des objets. Si vous utilisez le temps dans la fonctionnalité BETA, il est important d’inclure uniquement des parties de la scène où les objets ne se superposent pas fréquemment. Le rectangle de la zone d’inclusion par défaut peut être remplacé par un polygone comptant jusqu’à 10 angles.
Recommandation
S’il existe une route ou un trottoir très passants à proximité de la zone d’inclusion, dessinez la zone d’inclusion de sorte que les objets en dehors de la zone d’inclusion ne sont pas détectés accidentellement. Cela signifie que vous devez éviter de dessiner la zone d’inclusion trop près de la route ou du trottoir passants.
Zones d’exclusion
Une zone à exclure est une zone à l’intérieur de la zone à inclure dans laquelle certains types d’objets ne sont pas détectés. Utilisez des zones d’exclusion s’il existe des zones à l’intérieur de la zone d’inclusion qui déclenchent un grand nombre d’actions indésirables. Vous pouvez créer jusqu’à 5 zones à exclure.
Déplacez, redéfinissez et redimensionnez la zone afin qu’elle couvre la partie souhaitée de la scène. Le rectangle par défaut peut être remplacé par un polygone comptant jusqu’à 10 angles.
Recommandation
Placez les zones à exclure à l’intérieur de la zone à inclure. Utilisez les zone à exclure pour couvrir les zones où vous ne voulez pas détecter d’objets.
Franchissement de ligne et comptage de passages
Lorsque vous utilisez la condition de déclenchement Franchissement de ligne, l’application détecte les objets qui franchissent une ligne définie virtuellement. Grâce au comptage de passagesBÊTA, l’application détecte et compte les objets.
La ligne virtuelle est une ligne jaune dans l’image. Les objets du type sélectionné qui franchissent la ligne dans une certaine direction sont détectés. Les flèches rouges sur la ligne indiquent la direction actuelle. Les actions se déclenchent lorsque des objets franchissent la ligne dans la direction indiquée par les flèches.
Pour déclencher une action, l’objet doit franchir la ligne. Comme illustré, le point de détection de l’objet doit traverser la ligne pour que l’action se déclenche. Les objets qui touchent seulement la ligne ne déclenchent pas d’action.
Dans l’illustration à gauche, l’homme ne déclenche pas d’action, car son point de détection n’a pas encore franchi la ligne.
Dans l’illustration à droite, l’homme déclenche une action, car son point de détection a traversé la ligne.
Pour plus d’informations sur le point de détection, consultez Classification des objets.
Recommandations pour la ligne virtuelle
- Ajustez la ligne virtuelle de sorte que :
les objets ne soient pas susceptibles d'attendre à la ligne.
les objets soient clairement visibles à l'image avant qu'ils ne traversent la ligne.
le point de détection d'un objet soit susceptible de traverser la ligne.
Intégration
Configurer les alarmes dans AXIS Camera Station
Cet exemple explique comment configurer une règle dans AXIS Camera Station pour alerter l’opérateur et enregistrer une vidéo comportant des incrustations de métadonnées lorsque AXIS Object Analytics détecte un objet.
Avant de commencer
- Il vous faut :
une caméra réseau Axis avec l’application AXIS Object Analytics configurée et en cours de fonctionnement, voir Premiers pas.
incrustations de métadonnées activées dans l’application, voir Ajouter des incrustations de métadonnées gravées aux flux vidéo.
Un ordinateur sur lequel l’application AXIS Camera Station est installée.
- Ajouter la caméra à AXIS Camera Station
Dans AXIS Camera Station, ajoutez la caméra. Reportez-vous au manuel utilisateur AXIS Camera Station.
- Créer un déclencheur d’événement de périphérique
Cliquez sur
pour accéder à Configuration > Recording and events > Action rules (Configuration > Enregistrements et événements > Règles d’action) et cliquez sur New (Nouveau).
Cliquez sur Add (Ajouter) pour ajouter un déclencheur.
Sélectionnez Device event (Événement de périphérique) dans la liste des déclencheurs et cliquez sur OK.
Dans la section Configure device event trigger (Configurer le déclencheur d’événement de périphérique) :
Dans Device (Périphérique), sélectionnez la caméra.
Dans Event (Événement), sélectionnez l’un des scénarios pour AXIS Object Analytics.
Dans Trigger period (Période de déclenchement), définissez un intervalle de temps entre deux déclenchements successifs. Utilisez cette fonction pour réduire le nombre d’enregistrements successifs. En cas de nouveau déclenchement pendant cet intervalle, l’enregistrement se poursuit et la période de déclenchement reprend à partir de ce moment.
Dans Filters (Filtres), réglez l’option active (active) sur Yes (Oui).
Cliquez sur OK (OK).
- Créer des actions pour déclencher des alarmes et enregistrer la vidéo
Cliquez sur Next (Suivant).
Cliquez sur Add (Ajouter) pour ajouter une action.
Sélectionnez Raise alarm (Déclencher une alarme) dans la liste des actions et cliquez sur OK (OK).
- Remarque
Le message d’alarme correspond à ce que voit l’opérateur lorsqu’une alarme est déclenchée.
Dans la section Alarm message (Message d’alarme), saisissez le titre et la description de l’alarme.
Cliquez sur OK.
Cliquez sur Add (Ajouter) pour ajouter une autre action.
Sélectionnez Record (Enregistrer) dans la liste des actions et cliquez sur OK.
Dans la liste des caméras, sélectionnez la caméra à utiliser pour l’enregistrement.
- Important
Pour inclure des incrustations de métadonnées dans l’enregistrement, assurez-vous de sélectionner un profil avec la même résolution que celle sélectionnée pour les incrustations de métadonnées dans l’application.
Sélectionnez un profil et configurez le pré-tampon et le post-tampon.
Cliquez sur OK (OK).
- Spécifier quand l’alarme est active
Cliquez sur Next (Suivant).
Si vous souhaitez uniquement que l’alarme soit active pendant certaines heures, sélectionnez Custom schedule (Programmation personnalisée).
Sélectionnez un calendrier de la liste.
Cliquez sur Next (Suivant).
Nommez la règle.
Cliquez sur Finish (Terminer).
Pour voir les incrustations de métadonnées dans la vidéo en direct, assurez-vous de sélectionner le profil de diffusion correspondant à celui que vous avez défini dans l’application.
Intégration des données de comptage
Le scénario de comptage des passagesBÊTA génère des métadonnées sur les objets comptés. Pour visualiser les données et analyser les tendances au fil du temps, il est possible de configurer une intégration à une application tierce. Cette méthode permet de présenter des données provenant d'une ou de plusieurs caméras. Pour en savoir plus sur la configuration de l'intégration, consultez les directives de la communauté des développeurs Axis.
Dépannage
Problèmes de détection d’objets | |
… lorsque l’image est instable | Activez Electronic image stabilization (EIS) (Stabilisation d’image électronique (EIS)) dans l’onglet Image de la page Web du produit. |
… sur les bords de l’image, où l’image apparaît déformée | Activez Barrel distortion correction (BDC) (Correction de la distorsion en barillet (BDC)) dans l’onglet Image de la page Web du produit. |
... immédiatement | Les objets doivent être complètement visibles dans la scène avant de pouvoir être détectés par l’application. |
… dans d’autres situations | Cela peut être dû au fait que les objets se fondent dans l’arrière-plan s’ils sont de la même couleur, ou que la luminosité de la scène n’est pas appropriée. Essayez d’améliorer la luminosité. |
Problèmes de fausses alarmes | |
… en raison de petits animaux qui apparaissent grands dans l’image | Calibrez la perspective. Voir Calibrer la perspective. |
Problèmes de comptage d’objets | |
... lorsqu’un même objet traverse la ligne plusieurs fois | Un objet n’est compté qu’une seule fois dans un délai de 5 secondes, sauf s’il a quitté la zone de détection. |
Problèmes d’incrustations de métadonnées | |
… sur un deuxième client | Les incrustations de métadonnées ne sont visibles que sur un seul client à la fois. |
Problèmes avec le flux vidéo | |
... dans le navigateur Firefox pour les caméras avec des résolutions élevées | Essayez plutôt le navigateur Google Chrome™ . |
Filtres
Si vous avez configuré l’application pour détecter tout mouvement, de fausses alarmes peuvent se déclencher. Vous pouvez alors utiliser des filtres.
- Objets passagers –
- Ce filtre permet d’ignorer les objets qui n’apparaissent dans l’image que pendant une courte période de temps.
- Petits objets –
- Ce filtre permet d’ignorer les petits objets.
- Objets ondulants –
- Utilisez ce filtre pour ignorer les objets qui se déplacent uniquement sur une courte distance.
Recommandations de filtres
Les filtres s’appliquent à tous les objets en mouvement identifiés par l’application et doivent être configurés avec soin pour s’assurer qu’aucun objet important n’est ignoré.
Configurez un filtre à la fois et testez-le avant d’activer un autre filtre.
Modifier les paramètres du filtre soigneusement jusqu’à obtention du résultat souhaité.
Le filtre Objets passagers
Utilisez le filtre Objets passagers pour éviter de détecter des objets qui n’apparaissent que très brièvement, comme les faisceaux des phares d’une voiture ou des ombres qui se déplacent rapidement.
Lorsque vous activez le filtre Objets passagers et que l’application détecte un objet en mouvement, l’objet ne déclenche pas d’action avant écoulement de la durée définie. Si l’action doit démarrer un enregistrement, configurez l’heure de pré-déclenchement de sorte que l’enregistrement intègre également l’heure à laquelle l’objet s’est déplacé dans la scène avant de déclencher l’action.
Configurer le filtre Objets passagers
Cliquez sur Scenarios (Scénarios) et sélectionnez un scénario existant ou cliquez sur + (+) pour créer un nouveau scénario.
Cliquez sur Triggering objects (Objets déclencheurs) et assurez-vous que Any motion (Tous les mouvements) est sélectionné.
Accédez à Filters > Short-lived objects (Filtres > Objets passagers).
Saisissez le nombre de secondes dans le champ. Le nombre de secondes correspond à la durée minimale qui doit s’écouler avant qu’un objet ne déclenche une action. Commencez par une courte durée.
Si le résultat n’est pas satisfaisant, augmentez progressivement la durée du filtre.
Le filtre Objets ondulants
Le filtre Objets ondulants ignore les objets qui ne se déplacent que sur une courte distance, par exemple, un feuillage qui ondule, des drapeaux et leur ombre. Si les objets ondulants sont volumineux, par exemple de grands étangs ou de grands arbres, utilisez les zones d’exclusion plutôt que le filtre. Le filtre est appliqué à tous les objets ondulants détectés et, si la valeur est trop grande, les objets importants peuvent ne pas déclencher d’actions.
Lorsque le filtre Objet ondulant est activé et que l’application détecte un objet, l’objet ne déclenche pas d’action jusqu’à ce qu’il se soit déplacé sur une plus grande distance que la taille du filtre.
Configurer le filtre des objets ondulants
Le filtre ignore tout objet en mouvement sur une distance plus courte que celle allant du centre à la périphérie de l’ellipse.
- Le filtre s’applique à tous les objets dans l’image, pas uniquement les objets dans la même position que l’ellipse de configuration.
- Nous vous recommandons de commencer par une taille Petit filtre.
Cliquez sur Scenarios (Scénarios) et sélectionnez un scénario existant ou cliquez sur + pour créer un nouveau scénario.
Cliquez sur Triggering objects (Objets déclencheurs) et assurez-vous que Any motion (Tous les mouvements) est sélectionné.
Accédez à Filters > Swaying objects (Filtres > Objets ondulants).
Saisissez la distance à laquelle les objets sont autorisés à de déplacer, ainsi qu’un pourcentage de l’écran, avant qu’une action se déclenche.
Le filtre Petits objets
Le filtre Petits objets réduit le nombre de fausses alarmes en ignorant les objets de petite taille, par exemple les petits animaux.
- Le filtre s’applique à tous les objets dans l’image, pas uniquement les objets dans la même position que le rectangle de configuration.
- L’application ignore les objets qui sont plus petits à la fois en largeur et en hauteur saisies.
Configurer le filtre Petits objets
Cliquez sur Scenarios (Scénarios) et sélectionnez un scénario existant ou cliquez sur + (+) pour créer un nouveau scénario.
Cliquez sur Triggering objects (Objets déclencheurs) et assurez-vous que Any motion (Tous les mouvements) est sélectionné.
Accédez à Filters > Small objects (Filtres > Petits objets).
- Remarque
Si vous avez calibré la perspective, saisissez la largeur et la hauteur des objets à ignorer en centimètres (pouces) plutôt qu’en pourcentage de l’image.
Saisissez la largeur et la hauteur des objets à ignorer en pourcentage de l’image.