Visão geral
Sobre o aplicativo
O AXIS Object Analytics detecta, classifica e contaBETA objetos móveis, especificamente pessoas ou veículos. Você pode escolher diferentes condições para a detecção, como objetos que se movem ou permanecem por um tempoBETA superior ao definido dentro de uma área predefinida ou que cruzam uma linha definida. Quando os objetos são detectados ou contados, os dispositivos de rede Axis ou software de terceiros podem executar ações diferentes, como gravar vídeo, reproduzir uma mensagem de áudio ou alertar a equipe de segurança.
Considerações
Para proporcionar os melhores resultados, a câmera deve ser montada apropriadamente e há requisitos para cena, imagem e objetos.
Esta imagem ilustra uma câmera montada apropriadamente.
- Altura da montagem
- Inclinada
- Área de detecção
- Distância mínima de detecção
- Distância máxima de detecção
As seguintes considerações se aplicam à montagem de todos os tipos de câmeras:
Posição de montagem
Se você montar a câmera de modo que sua visão seja orientada de cima para baixo, será difícil para o aplicativo classificar objetos.
Inclinação
A câmera deve estar suficientemente orientada para o chão para que o centro da imagem esteja abaixo do horizonte. Monte a câmera para que a distância de detecção mínima seja mais longa que a altura de montagem da câmera (distância de detecção mínima > altura de montagem da câmera / 2).
Área de detecção
O ponto de detecção de um objeto deve estar dentro da área de detecção. O ponto de detecção de uma pessoa são os pés e o de um veículo é seu centro.
Distância máxima de detecção
- A distância máxima de detecção depende:
Tipo de modelo da câmera
Lente da câmera. Um alcance focal mais alto permite uma distância de detecção mais longa.
Clima. Por exemplo, chuva forte ou nevasca podem afetar a distância de detecção e precisão.
Iluminação. A precisão e o alcance de detecção podem ser afetados por iluminação insuficiente.
Carga da câmera
Recomendamos usar o AXIS Site Designer para determinar a distância de detecção máxima para diferentes modelos de câmeras em seu site.
Rolagem
O ângulo de rolagem da câmera deve ser quase igual a zero. Isso significa que a imagem deveria estar nivelada com o horizonte.
Campo de visão
O campo de visão da câmera deve ser fixo.
Vibrações
O aplicativo tolera pequenas vibrações da câmera, mas você obtém o melhor desempenho quando a câmera não está sujeita a vibrações.
Tamanho do objeto
Para que uma pessoa seja detectada, a altura mínima deverá ser 4% da altura total da imagem. Para um veículo, a altura mínima deverá ser 3% da altura total da imagem. No entanto, isso requer condições de imagem perfeitas e ausência de obstruções na exibição. Para minimizar o risco de detecções perdidas, recomenda-se uma altura de pelo menos 8% para seres humanos e 6% para veículos.
Visibilidade do objeto
A precisão da detecção poderá ser afetada:
Se os objetos estiverem somente parcialmente visíveis, por exemplo, folhagem. É particularmente importante que recursos característicos, como pernas ou rodas, estejam visíveis.
quando a cena estiver cheia de objetos. Por exemplo, quando há um congestionamento de tráfego.
Ao usar o recurso de tempo na áreaBETA: se os objetos se sobrepõem com frequência.
Contraste
- É necessário haver um certo nível de contraste entre objetos e o fundo. Névoa, reflexões causadas por luz direta na câmera ou uma imagem excessivamente ruidosa podem causar problemas de contraste. Você pode aumentar o nível de iluminação e ajustar as configurações da imagem para melhorar o nível de contraste.
Quando você usa uma câmera de dia e noite com iluminação artificial, recomendamos pelo menos 50 lux em toda a área de detecção.
Quando você usa iluminação IR embutida, a distância máxima de detecção depende da câmera e do ambiente.
Movimento esperado de objetos na cena
Objetos que abordam a câmera em uma linha reta precisam se mover por um tempo maior antes de serem detectados comparados a objetos que se movem perpendicularmente ao campo de visão da câmera.
Pose humana
As pessoas precisam se mover em uma posição relativamente vertical.
Movimento do objeto
Os objetos precisam se mover na cena por pelo menos 2 segundos.
Configurações recomendadas da imagem
Antes de começar a usar o aplicativo, recomendamos ativar o Forensic WDR e a correção de distorção em barril, se estiverem disponíveis para a sua câmera.
- Condições em que as detecções podem ser atrasadas ou perdidas
- Observação
Estas condições não são relevantes para câmeras de fusão radar-vídeo.
Nevoeiro
Luz direta na câmera
Luz inadequada
Imagem excessivamente ruidosa
- Situações que podem acionar alarmes falsos
Pessoas ou veículos parcialmente escondidos. Por exemplo, uma pequena van exibida atrás de uma parede pode parecer uma pessoa, pois o veículo é alto e estreito.
Insetos na lente da câmera. Observe que as câmeras diurnas e noturnas com manchas infravermelhas atraem insetos e aranhas.
Uma combinação de faróis de carro e chuva pesada.
Animais de tamanho humano.
Luz forte causando sombras.
Introdução
Faça login na interface do dispositivo como administrador e vá para Settings > Apps > AXIS Object Analytics (Configurações > Apps > AXIS Object Analytics).
Selecione o aplicativo.
Inicie o aplicativo e clique em Open (Abrir).
Na tela de boas-vindas, clique em Step-by-step (Passo a passo) para seguir o procedimento de configuração recomendado.
Na etapa 1, leia as considerações.
Na etapa 2, selecione se deseja que o aplicativo detecte seres humanos, veículos ou ambos. Saiba mais sobre Classificação de objetos.
Selecione uma condição de acionamento:
Object in area (Objeto na área) se você deseja que o aplicativo detecte quando os objetos se movem ou permanecem por mais tempo do que um período estabelecidoBETA em uma área definida ou quando cruzam uma linha definida.
Line crossing (Cruzamento de linhas) se você deseja que o aplicativo detecte quando os objetos cruzam uma linha definida.
Crossline counting (Contagem de cruzamentos de linhas)BETA se desejar que o aplicativo conte objetos que cruzam uma linha definida.
- Para saber mais, consulte Objeto na área: e Cruzamento de linhas e contagem de cruzamentos de linhas.
Para câmeras PTZ, você pode optar por restringir a detecção a uma posição predefinida específica. Selecione-a na lista.
Ajuste a linha padrão que os objetos precisam atravessar ou a área onde os objetos precisam se mover.
Para saber como ajustar a linha padrão ou a área de inclusão, consulte Ajuste a linha ou área virtual.
Na etapa 3, verifique suas configurações.
Você criou um cenário. Para renomeá-lo ou modificá-lo, clique em Open (Abrir).
Para criar mais cenários, clique em +.
Ajuste a linha ou área virtual
Para remodelar uma linha ou área virtual, clique e arraste um dos pontos de âncora.
Para mover uma linha ou área virtual, clique e arraste-a.
Para remover um canto, clique com botão direito no canto.
- Linha virtual
Para redefinir a linha virtual para o seu tamanho padrão, clique em Scene > Reset line (Cena > Redefinir linha).
Para alterar a direção na qual os objetos devem se mover para serem detectados, clique em Scene > Change trigger direction (Cena > Alterar direção do acionador). As setas vermelhas próximo à linha mostram a direção atual. As ações são acionadas quando os objetos cruzam a linha na direção das setas.
- Área
Para redefinir a área de inclusão para seu tamanho padrão, clique em Scene (Cena) >.
Para criar uma área dentro da área de inclusão onde você não deseja que objetos sejam detectados, clique Scene > Add exclude area (Cena > Adicionar área de exclusão).
Configure o aplicativo.
Modificar um cenário
Para modificar um cenário, clique em Scenarios (Cenários) e clique em Open (Abrir) no cartão do cenário.
Para renomear o cenário, clique em .
Para alterar que tipos de objetos que serão detectados, clique em Triggering objects (Objetos acionadores).
- Observação
Se você selecionar Any motion (Qualquer movimento), o aplicativo não classificará objetos. Em vez disso, o aplicativo detectará qualquer objeto em movimento na cena. Por exemplo, animais, folhas balançando, bandeiras ou sombras. Para ignorar objetos pequenos ou objetos que só aparecem por um curto período, é possível usar filtros. Para obter mais informações, consulte Filtros.
Em um cenário de objeto na área: para permitir que objetos permaneçam dentro da área de inclusão por um determinado tempo antes que o aplicativo acione uma ação, clique em Triggering objects (Objetos acionadores) e ative a opção Time in area (Tempo na área)BETA. Defina o tempo permitido.
Para ajustar a linha ou área virtual, clique em Scene (Cena).
Em um cenário de contagem de cruzamentos de linhas:
Para redefinir as contagens diariamente, clique em Crossline counting (Contagem de cruzamentos de linhas) e ative Reset counts at midnight (Redefinir contagens à meia-noite).
Para redefinir contagens uma vez, clique em Crossline counting (Contagem de cruzamentos de linhas) e clique em Reset counts (Redefinir contagens).
Calibre a perspectiva.
Não é possível calibrar a perspectiva em todos os tipos de dispositivos, por exemplo, em determinadas câmeras panorâmicas.
Se a cena possui profundidade significativa, é necessário calibrar a perspectiva para remover os alarmes falsos causados por objetos pequenos. Durante a calibração, o aplicativo compara a altura dos objetos conforme são exibidos na imagem com as alturas reais dos objetos físicos correspondentes. O aplicativo usa a perspectiva calibrada para calcular o tamanho do objeto.
Coloque barras verticais na imagem para calibrar a perspectiva. As barras representam objetos físicos em distâncias diferentes a partir da câmera.
Vá para Settings > Advanced > Perspective (Configurações > Avançado > Perspectiva) e clique em +.
Na visualização ao vivo, escolha dois objetos de altura igual e conhecida, localizados no chão e a distâncias diferentes da câmera.
Você pode usar, por exemplo, estacas de cerca ou uma pessoa.
Coloque as barras perto dos objetos e ajuste o comprimento de cada barra na altura do objeto.
Selecione os cenários aos quais deseja aplicar a perspectiva.
Insira a altura dos objetos em Perspective bar height (Altura da barra de perspectiva).
Clique em Save (Salvar).
Example
Se houver uma cerca com estacas de 2 metros de altura se estendendo da câmera em direção ao horizonte, posicione as barras nas estacas da cerca, ajuste seus comprimentos e insira 200 cm (6 pés e 7 pol.) nos campos.
Certifique-se de que as barras não se sobreponham na altura.
Adição de sobreposições de metadados permanentes a streams de vídeo
Para mostrar o evento que foi detectado no stream de vídeo ao vivo e gravado, ative a sobreposição de metadados. Quando você ativa a sobreposição de metadados, o aplicativo mostra:
Um retângulo em volta dos objetos detectados.
A área ou a linha do cenário em que o objeto foi detectado.
Para contagem de cruzamentos de linhasBETA: uma tabela com a contagem acumulada por tipo de objeto.
Se você ativar as trajetórias, o aplicativo também mostrará uma linha que mostra o caminho que um objeto percorreu.
Se vários cenários forem acionados ao mesmo tempo, as sobreposições serão mostradas para todos eles em todos os streams com essa resolução selecionada.
As sobreposições de metadados são gravadas nas sobreposições de alarme na resolução selecionada do stream de vídeo. Não é possível removê-las do vídeo gravado.
Se você usa áreas de exibição, as sobreposições de metadados só aparecem na primeira área de exibição. O nome padrão da primeira área de exibição é View area 1 (Área de exibição 1).
Na página da Web do aplicativo, vá para Settings > Advanced (Configurações > Avançado) e, dependendo da câmera:
Ative a Metadata overlay (Sobreposição de metadados).
Em Metadata overlay (Sobreposição de metadados), selecione a resolução na qual as sobreposições de metadados adicionadas permanentemente serão exibidas. Você só pode selecionar uma resolução, e a configuração aplica-se a todos os cenários.
Para mostrar o caminho que um objeto percorreu, selecione Trajectories (Trajetórias).
Restringir a detecção a uma posição predefinida de PTZ
Para câmeras PTZ, você pode restringir a detecção a uma posição predefinida específica.
Vá para Scenarios (Cenários) e clique em Open (Abrir) em um cartão de cenário ou clique em + para criar um novo cenário.
Clique em Scene (Cena) e selecione uma posição predefinida na lista.
Cada vez que a posição predefinida de PTZ for alterada, o aplicativo precisará recalibrar. Recomendamos aguardar pelo menos 15 segundos antes de alternar entre as posições predefinidas em um guard tour.
Configuração de regras de eventos
Para saber mais, consulte nosso guia Introdução a regras de eventos.
Gravar vídeo quando um objeto é detectado
Este exemplo a seguir explica como configurar o dispositivo Axis para gravar vídeo em um cartão SD quando o aplicativo detecta um objeto.
Na interface da Web do dispositivo, acesse Apps (Aplicativos) e certifique-se de que o aplicativo esteja sendo executado.
Para verificar se o cartão SD está montado, vá para System > Storage (Sistema > Armazenamento).
Vá para System > Events (Sistema > Eventos) e adicione uma regra:
Digite um nome para a regra.
Na lista de condições, em Application (Aplicação), selecione o cenário de aplicação. Para acionar a mesma ação para todos os cenários definidos, selecione Object Analytics: Any Scenario (Análise de objetos: Qualquer cenário).
Na lista de ações, em Recordings (Gravações), selecione Record video (Gravar vídeo).
Na lista de opções de armazenamento, selecione SD-DISK.
Selecione uma Camera (Câmera) e um Stream profile (Perfil de stream).
Para mostrar sobreposições de metadados, certifique-se de ativá-la no aplicativo para a mesma resolução usada no perfil de stream.
- Observação
Não recomendamos o uso de um cenário com tempo na áreaBETA para acionar as gravações se o tempo em que um objeto pode permanecer dentro da área de inclusão for superior 30 segundos. O motivo é que é difícil usar um tempo de pré-buffer superior a 30 segundos, o que é necessário se você deseja ver o que aconteceu antes do objeto ser detectado.
Se deseja iniciar a gravação antes de o objeto ser detectado, insira um tempo de Prebuffer (Pré-buffer).
Clique em Save (Salvar).
Para testar a regra, vá para a página da Web do aplicativo e abra o cenário. Clique em Test alarm (Testar alarme). Isso gera um evento, como se o cenário o tivesse acionado de verdade. Se você ativou sobreposições de metadados, um retângulo vermelho ou azul será exibido.
Envie um email quando 100 veículos passaram
Com a contagem de cruzamentos de linhasBETA e a funcionalidade de limiar de passagem, você poderá receber notificações sempre que um número de objetos definido pelo usuário cruzar a linha.
Este exemplo explica como configurar uma regra para enviar um email sempre que 100 veículos passarem.
Antes de começar
Crie um destinatário de email na interface do dispositivo.
- Criar um cenário de contagem de cruzamentos de linhasBETA
Em Scenarios (Cenários), clique em +.
Em Name (Nome), digite Contagem de veículos.
Em Triggering objects (Objetos de acionamento), desmarque Humans (Pessoas).
Em Trigger condition (Condição de acionamento), selecione Crossline counting (Contagem de cruzamentos de linhas).
Clique em Save (Salvar).
Abra o cenário.
Em Crossline counting (Contagem de cruzamentos de linhas), ative Passthrough threshold (Limiar de passagens).
Em Number of counts between events (Número de contagens entre eventos), digite 100.
- Criar uma regra
Na interface do dispositivo, vá para System > Events (Sistema > Eventos) e adicione uma regra.
Digite um nome para a regra.
Na lista de condições, em Application (Aplicativo), selecione Object Analytics: Count vehicles passthrough threshold reached (Análise de objetos: limiar de passagem da contagem de veículos atingido).
Na lista de ações, em Notifications (Notificações), selecione Send notification to email (Enviar notificação para email).
Selecione um destinatário na lista.
Digite um assunto e uma mensagem para o email.
Clique em Save (Salvar).
Saiba mais
Classificação de objetos
O aplicativo pode classificar dois tipos de objetos: pessoas e veículos. O aplicativo mostra um retângulo em torno de objetos classificados. Objetos classificados como pessoas recebem um retângulo vermelho e objetos classificados como veículos recebem um retângulo azul.
Para câmeras com recurso de aprendizado profundo, os veículos podem ser categorizados em caminhões, ônibus, carros e bicicletas.
Se você usar a funcionalidade de tempo na área BETA, o retângulo permanecerá amarelo até que a condição de tempo seja satisfeita. Se o objeto permanecer dentro da área de inclusão por mais 30 segundos, o retângulo se tornará tracejado.
Cada objeto classificado tem um ponto de detecção que o aplicativo usa para decidir se um objeto está dentro ou fora de uma área de inclusão ou quando ele cruza uma linha virtual. Para uma pessoa, o ponto de detecção está nos pés. Para um veículo, é seu centro. Se o pé de uma pessoa ou um centro de veículos for obstruído na visão da câmera, o aplicativo fará uma suposição do local do ponto de detecção.
Recomendamos levar em consideração a localização presumida do ponto de detecção do objeto ao desenhar a área de inclusão ou a linha virtual.
Para obter os melhores resultados possíveis:
Em algum momento, todo o objeto precisa ser visível na cena.
O objeto precisa estar em movimento dentro da cena por pelo menos 2 segundos.
Para câmeras com aprendizado de máquina, os humanos precisam se mover numa posição relativamente ereta. Para câmeras com recurso de aprendizado profundo, isso não é um requisito.
A parte superior do corpo de um humano precisa estar visível
Os objetos precisam se destacar do fundo
Reduza o desfoque por movimento.
Objeto na área:
Quando você usa a condição de acionamento Object in area (Objeto na área), o aplicativo detecta objetos que se movem dentro de uma área definida. Essa área é chamada de área de inclusão.
Você pode ativar o tempo na áreaBETA para definir um limite de tempo para a permanência do objeto dentro da área de inclusão antes do aplicativo acionar uma ação. Quando um objeto entra na área de inclusão, o contador é iniciado. Se o objeto sair da área de inclusão antes do limite de tempo ser atingido, o contador será reiniciado. É o ponto de detecção do objeto que deve estar dentro da área de inclusão para que o contador mantenha a contagem. A funcionalidade de tempo na áreaBETA é adequada para áreas em que pessoas ou veículos devem permanecer por pouco tempo, como túneis ou pátios escolares após o expediente.
Área de inclusão
A área de inclusão é a área na qual o aplicativo detecta tipos de objeto selecionados. O aplicativo inicia ações para objetos se o ponto de detecção estiver dentro da área de inclusão. O aplicativo ignora objetos fora da área de inclusão.
Reformate e redimensione a área de modo que ela cubra somente a parte da cena na qual você deseja detectar objetos. Se você usar a funcionalidadeBETA de tempo em uma área, é importante incluir somente partes da cena em que os objetos não se sobrepõem uns aos outros. O retângulo padrão da área de inclusão pode ser alterado para um polígono com até 10 cantos.
Recomendação
Se houver uma rua ou calçada movimentada próximo à área de inclusão, desenhe a área de inclusão de forma que os objetos fora da área de inclusão não sejam detectados acidentalmente. Isso significa que você deve evitar desenhar a área de inclusão perto demais da rua ou calçada movimentada.
Áreas de exclusão
Uma área de exclusão é uma área dentro de uma área de inclusão na qual tipos de objetos selecionados não são detectados. Use áreas de exclusão se houver áreas dentro da área de inclusão que disparam uma grande quantidade de ações indesejadas. É possível criar até 5 áreas de exclusão.
Mova, reformate e redimensione a área de modo que ela abranja a parte desejada da cena. O retângulo padrão pode ser alterado para um polígono com até 10 cantos.
Recomendação
Coloque áreas de exclusão dentro da área de inclusão. Use áreas de exclusão para cobrir áreas em que você não deseja detectar objetos.
Cruzamento de linhas e contagem de cruzamentos de linhas
Quando você usa a condição de acionamento Line crossing (Cruzamento de linha), o aplicativo detecta objetos que cruzam uma linha definida virtualmente. Com a Contagem de cruzamentos de linhasBETA, o aplicativo detecta e conta os objetos.
A linha virtual é uma linha amarela na imagem. Objetos do tipo selecionado que cruzam a linha em uma determinada direção são detectados. As setas vermelhas na linha mostram a direção atual. As ações são acionadas quando os objetos cruzam a linha na direção indicada pelas setas.
Para acionar uma ação, o objeto deve cruzar a linha. Conforme mostrado na ilustração, o ponto de detecção do objeto deve cruzar a linha para que a ação seja acionada. Objetos que só tocam na linha não iniciam ações.
Na ilustração à esquerda, o homem não inicia uma ação, pois seu ponto de detecção ainda não ultrapassou a linha.
Na ilustração à direita, o homem inicia uma ação, pois seu ponto de detecção cruza a linha.
Para obter informações sobre o ponto de detecção, consulte Classificação de objetos.
Recomendações para a linha virtual
- Ajuste a linha virtual de modo que:
seja improvável que haja objetos esperando na linha.
os objetos sejam claramente visíveis na imagem antes de atravessarem a linha.
seja provável que o ponto de detecção de um objeto cruze a linha.
Integração
Configuração de alarmes no AXIS Camera Station
Este exemplo explica como configurar uma regra no AXIS Camera Station para alertar o operador e gravar vídeo que inclui sobreposições de metadados quando o AXIS Object Analytics detecta um objeto.
Antes de começar
- Você precisa de:
uma câmera de rede Axis com AXIS Object Analytics configurado e em execução, consulte Introdução.
sobreposições de metadados ativadas no aplicativo, consulte Adição de sobreposições de metadados permanentes a streams de vídeo.
um computador com o AXIS Camera Station instalado
- Adição da câmera ao AXIS Camera Station
No AXIS Camera Station, adicione a câmera. Consulte o manual do usuário do AXIS Camera Station.
- Criação de um acionador de eventos
Clique em
e vá para Configuration > Recording and events > Action rules (Configuração > Gravação e eventos > Regras de ação) e clique em New (Nova).
Clique em Add (Adicionar) para adicionar um acionador.
Selecione Device event (Evento de dispositivo) na lista de acionadores e clique em OK.
Na seção Configure device event trigger (Configurar acionador de evento de dispositivo):
Em Device (Dispositivo), selecione a câmera.
Em Event (Evento), selecione um dos cenários para o AXIS Object Analytics.
Em Trigger period (Período de acionamento), defina um intervalo de tempo entre dois acionadores sucessivos. Use essa função para reduzir o número de gravações sucessivas. Se um acionador adicional ocorrer dentro desse intervalo, a gravação continuará e o período do acionador recomeçará desse ponto.
Em Filters (Filtros), defina active (ativo) como Yes (Sim).
Clique em OK.
- Criação de ações para gerar alarmes e gravar vídeo
Clique em Next (Avançar).
Clique em Add (Adicionar) para adicionar uma ação.
Selecione Raise alarm (Acionar alarme) na lista de ações e clique em OK.
- Observação
A mensagem de alarme é o que o operador vê quando um alarme é acionado.
Na seção Alarm message (Mensagem de alarme), insira um título e uma descrição para o alarme.
Clique em OK.
Clique em Add (Adicionar) para adicionar outra ação.
Selecione Record (Gravar) na lista de ações e clique em OK.
Na lista de câmeras, selecione a câmera que será usada para gravação.
- Importante
Para incluir sobreposições de metadados na gravação, certifique-se de selecionar um perfil com a mesma resolução que foi selecionada para sobreposições de metadados no aplicativo.
Selecione um perfil e defina o pré-buffer e o pós-buffer.
Clique em OK.
- Especificação de quando o alarme está ativo
Clique em Next (Avançar).
Se desejar que o alarme permaneça ativo em determinados horários, selecione Custom schedule (Agendamento personalizado).
Selecione um agendamento na lista.
Clique em Next (Avançar).
Insira um nome para a regra.
Clique em Finish (Concluir).
Para ver as sobreposições de metadados na visualização ao vivo, certifique-se de selecionar o perfil de streaming compatível com aquele que você definiu no aplicativo.
Integração de dados de contagem
O cenário de contagem de cruzamentos de linhas BETA produz metadados sobre os objetos contados. Para visualizar os dados e analisar as tendências ao longo do tempo, é possível configurar uma integração a um aplicativo de terceiros. Com esse método, é possível apresentar dados de uma ou várias câmeras. Para saber mais sobre como configurar a integração, consulte as diretrizes na AXIS Developer Community.
Solução de problemas
Problemas na detecção de objetos | |
...quando a imagem é instável | Ative a Electronic image stabilization (EIS) (Estabilização eletrônica de imagem (EIS)) na guia Image (Imagem) da página da Web do produto. |
...nas bordas da imagem, onde a imagem parece distorcida | Ative a Barrel distortion correction (BDC) (Correção de distorção cilíndrica) na guia Image (Imagem) da página da Web do produto. |
...imediatamente | Os objetos precisam estar totalmente visíveis na cena antes de serem detectados pelo aplicativo. |
...em outras situações | Isso pode ocorrer ser porque os objetos se mesclam ao fundo quando são da mesma cor, ou porque há iluminação inadequada na cena. Tente melhorar a iluminação. |
Problemas com alarmes falsos | |
...devido a pequenos animais que parecem grandes na imagem | Calibre a perspectiva. Consulte Calibre a perspectiva.. |
Problemas na contagem de objetos | |
... quando o mesmo objeto cruza a linha várias vezes | Um objeto só é contado uma vez a cada 5 segundos, a menos que ele tenha deixado a área de detecção. |
Problemas com sobreposições de metadados | |
...em um segundo cliente | As sobreposições de metadados só são visíveis para um cliente por vez. |
Problemas com o stream de vídeo | |
...no navegador Firefox para câmeras de alta resolução | Experimente usar o navegador Google Chrome™. |
Filtros
Se você tiver configurado o aplicativo para detectar qualquer movimento, poderá enfrentar alarmes falsos. Para evitar que isso ocorra, você pode usar filtros.
- Objetos de curta duração –
- Use esta opção para ignorar objetos que só aparecem na imagem por um curto período de tempo.
- Objetos pequenos –
- Use esta opção para ignorar objetos pequenos.
- Objetos oscilantes –
- Use esta opção para ignorar objetos que se movem apenas por uma curta distância.
Recomendações do filtro
Os filtros são aplicados a todos os objetos móveis encontrados pelo aplicativo, e devem ser configurados com cuidado para garantir que nenhum objeto importante seja ignorado.
Configure um filtro de cada vez e teste-o antes de ativar outro filtro.
Altere as configurações do filtro cuidadosamente até atingir o resultado desejado.
O filtro de objetos de curta duração
Use o filtro de objetos de curta duração para evitar a detecção de objetos que só aparecem por um curto período, como faróis de carros em movimento ou sombras de deslocamento rápido.
Quando você ativar o filtro de objetos de curta duração e o aplicativo encontrar um objeto em movimento, o objeto não iniciará uma ação até que o tempo definido transcorra. Se a ação for usada para iniciar uma gravação, configure a hora do pré-acionador para que a gravação também inclua o momento em que o objeto se moveu na cena antes de acionar a ação.
Configuração do filtro de objetos de curta duração
Clique em Scenarios (Cenários) e selecione um cenário existente ou clique em + para criar um novo cenário.
Clique em Triggering objects (Objetos acionadores) e certifique-se de que a opção Any motion (Qualquer movimento) esteja selecionada.
Vá para Filters > Short-lived objects (Filtros > Objetos de curta duração).
Insira o número de segundos no campo. O número de segundos é o tempo mínimo a ser decorrido antes que o objeto acione uma ação. Comece com um número pequeno.
Se o resultado não for satisfatório, aumente o tempo do filtro em pequenas etapas.
O filtro de objetos oscilantes
O filtro de objetos oscilantes ignora objetos que só se movem por distâncias curtas, por exemplo, folhagens ou bandeiras oscilantes e suas sombras. Se os objetos oscilantes forem grandes, por exemplo, grandes lagos ou árvores, use áreas de exclusão em vez de usar o filtro. O filtro é aplicado a todos os objetos oscilantes detectados e, se o valor for muito grande, objetos importantes podem não iniciar ações.
Quando o filtro de objetos oscilantes estiver ativado e o aplicativo detectar um objeto, o objeto não acionará uma ação até que ele tenha se movido por uma distância maior do que o tamanho do filtro.
Configuração do filtro de objetos oscilantes
O filtro ignora qualquer objeto se movendo por uma distância mais curta do que entre o centro e a borda da elipse.
- O filtro se aplica a todos os objetos na imagem, não apenas aos objetos na mesma posição que a elipse de configuração.
- Recomendamos que você comece com um tamanho pequeno de filtro.
Clique em Scenarios (Cenários) e selecione um cenário existente ou clique em + para criar um novo cenário.
Clique em Triggering objects (Objetos acionadores) e certifique-se de que a opção Any motion (Qualquer movimento) esteja selecionada.
Vá para Filters > Swaying objects (Filtros > Objetos oscilantes).
Digite até onde os objetos podem se mover, como uma porcentagem da tela, antes que uma ação seja acionada.
O filtro de objetos pequenos
O filtro de objetos pequenos reduz alarmes falsos ignorando objetos que são pequenos, como, por exemplo, pequenos animais.
- O filtro aplica-se a todos os objetos na imagem, não apenas aos objetos na mesma posição que o retângulo de configuração.
- O aplicativo ignora objetos que são menores que ambos os valores de largura e altura fornecidos.
Configuração do filtro de objetos pequenos
Clique em Scenarios (Cenários) e selecione um cenário existente ou clique em + para criar um novo cenário.
Clique em Triggering objects (Objetos acionadores) e certifique-se de que a opção Any motion (Qualquer movimento) esteja selecionada.
Vá para Filters > Small objects (Filtros > Objetos pequenos).
- Observação
Se você calibrou a perspectiva, insira a largura e a altura dos objetos a serem ignorados em centímetros (pol.), em vez de como um percentual da imagem.
Insira a largura e a altura dos objetos a serem ignorados como percentuais da imagem.