AXIS Object Analytics

Visão geral

Sobre o aplicativo

O AXIS Object Analytics detecta e classifica objetos móveis, especificamente pessoas ou veículos. Você pode escolher diferentes condições para a detecção, como objetos que se movem ou permanecem por um tempoBETA superior ao definido dentro de uma área predefinida ou que cruzam uma linha definida. Após a detecção, os dispositivos de rede Axis ou software de terceiros podem executar ações diferentes, como gravar vídeo, reproduzir uma mensagem de áudio ou alertar a equipe de segurança.

Considerações

Para proporcionar os melhores resultados, a câmera deve ser montada apropriadamente e há requisitos para cena, imagem e objetos.

Esta imagem ilustra uma câmera montada apropriadamente.

  1. Altura da montagem
  2. Inclinada
  3. Área de detecção
  4. Distância mínima de detecção
  5. Distância máxima de detecção

As seguintes considerações se aplicam à montagem de todos os tipos de câmeras:

Posição de montagem

Se você montar a câmera de modo que sua visão seja orientada de cima para baixo, será difícil para o aplicativo classificar objetos.

Inclinação

A câmera deve estar suficientemente orientada para o chão para que o centro da imagem esteja abaixo do horizonte. Monte a câmera para que a distância de detecção mínima seja mais longa que a altura de montagem da câmera (distância de detecção mínima > altura de montagem da câmera / 2).

Área de detecção

O ponto de detecção de um objeto deve estar dentro da área de detecção. O ponto de detecção de uma pessoa são os pés e o de um veículo é seu centro.

Distância máxima de detecção

  • A distância máxima de detecção depende:
  • Tipo de modelo da câmera

  • Lente da câmera. Um alcance focal mais alto permite uma distância de detecção mais longa.

  • Clima. Por exemplo, chuva forte ou nevasca podem afetar a distância de detecção e precisão.

  • Iluminação. A precisão e o alcance de detecção podem ser afetados por iluminação insuficiente.

  • Carga da câmera

Recomendamos usar o AXIS Site Designer para determinar a distância de detecção máxima para diferentes modelos de câmeras em seu site.

Rolagem

O ângulo de rolagem da câmera deve ser quase igual a zero. Isso significa que a imagem deveria estar nivelada com o horizonte.

Campo de visão

O campo de visão da câmera deve ser fixo.

Vibrações

O aplicativo tolera pequenas vibrações da câmera, mas você obtém o melhor desempenho quando a câmera não está sujeita a vibrações.

Tamanho do objeto

Para que uma pessoa seja detectada, a altura mínima deverá ser 4% da altura total da imagem. Para um veículo, a altura mínima deverá ser 3% da altura total da imagem. No entanto, isso requer condições de imagem perfeitas e ausência de obstruções na exibição. Para minimizar o risco de detecções perdidas, recomenda-se uma altura de pelo menos 8% para seres humanos e 6% para veículos.

Visibilidade do objeto

A precisão da detecção poderá ser afetada:

  • Se os objetos estiverem somente parcialmente visíveis, por exemplo, folhagem. É particularmente importante que recursos característicos, como pernas ou rodas, estejam visíveis.

  • quando a cena estiver cheia de objetos. Por exemplo, quando há um congestionamento de tráfego.

  • Ao usar o recurso de tempo na áreaBETA: se os objetos se sobrepõem com frequência.

Contraste

  • É necessário haver um certo nível de contraste entre objetos e o fundo. Névoa, reflexões causadas por luz direta na câmera ou uma imagem excessivamente ruidosa podem causar problemas de contraste. Você pode aumentar o nível de iluminação e ajustar as configurações da imagem para melhorar o nível de contraste.
  • Quando você usa uma câmera de dia e noite com iluminação artificial, recomendamos pelo menos 50 lux em toda a área de detecção.

  • Quando você usa iluminação IR embutida, a distância máxima de detecção depende da câmera e do ambiente.

Movimento esperado de objetos na cena

Objetos que abordam a câmera em uma linha reta precisam se mover por um tempo maior antes de serem detectados comparados a objetos que se movem perpendicularmente ao campo de visão da câmera.

Pose humana

As pessoas precisam se mover em uma posição relativamente vertical.

Movimento do objeto

Os objetos precisam se mover na cena por pelo menos 2 segundos.

Configurações recomendadas da imagem

Antes de começar a usar o aplicativo, recomendamos ativar o Forensic WDR e a correção de distorção em barril, se estiverem disponíveis para a sua câmera.

A imagem à direita é um exemplo de distorção de barril. A distorção em barril é um efeito de lente em que linhas retas parecem se curvar cada vez mais ao se aproximarem das bordas do quadro.
  • Condições em que as detecções podem ser atrasadas ou perdidas
  • Nevoeiro

  • Luz direta que brilha na câmera

  • Luz inadequada

  • Imagem excessivamente ruidosa

  • Situações que podem acionar alarmes falsos
  • Pessoas ou veículos parcialmente escondidos. Por exemplo, uma pequena van exibida atrás de uma parede pode parecer uma pessoa, pois o veículo é alto e estreito.

  • Insetos na lente da câmera. Observe que as câmeras diurnas e noturnas com manchas infravermelhas atraem insetos e aranhas.

  • Uma combinação de faróis de carro e chuva pesada.

  • Animais de tamanho humano.

  • Luz forte causando sombras.

Introdução

  1. Faça login na página Web do produto como administrador e vá para Settings > Apps > AXIS Object Analytics (Configurações > Apps > AXIS Object Analytics).

  2. Selecione o aplicativo.

  3. Inicie o aplicativo e clique em Open (Abrir).

  4. Na tela de boas-vindas, clique em Step-by-step (Passo a passo) para seguir o procedimento de configuração recomendado.

  5. Na etapa 1, leia as considerações.

  6. Na etapa 2, selecione se deseja que o aplicativo detecte seres humanos, veículos ou ambos. Saiba mais sobre Classificação de objetos.

  7. Selecione se você deseja que o aplicativo detecte quando os objetos se movem ou permanecem por mais tempo do que um período estabelecidobeta em uma área definida ou quando cruzam uma linha definida. Se desejar saber mais, consulte Objeto na área:e Cruzamento de linhas

  8. Para câmeras PTZ, você pode optar por restringir a detecção a uma posição predefinida específica. Selecione-a na lista.

  9. Ajuste a linha padrão que os objetos precisam atravessar ou a área onde os objetos precisam se mover.

    Para saber como ajustar a linha padrão ou a área de inclusão, consulte Ajuste a linha ou área virtual.

  10. Na etapa 3, verifique suas configurações.

Você criou um cenário. Para renomeá-lo ou modificá-lo, clique em Open (Abrir).

Para criar mais cenários, clique em +.

Criar cenário: objeto na área:
Criar cenário: tempo na área
Criar cenário: cruzamento de linhas

Ajuste a linha ou área virtual

  • Para remodelar uma linha ou área virtual, clique e arraste um dos pontos de âncora.

  • Para mover uma linha ou área virtual, clique e arraste-a.

  • Para remover um canto, clique com botão direito no canto.

  • Linha virtual
  • Para redefinir a linha virtual para o seu tamanho padrão, clique em Scene > Reset line (Cena > Redefinir linha).

  • Para alterar a direção na qual os objetos devem se mover para serem detectados, clique em Scene > Change trigger direction (Cena > Alterar direção do acionador). As setas vermelhas próximo à linha mostram a direção atual. As ações são acionadas quando os objetos cruzam a linha na direção das setas.

  • Área
  • Para redefinir a área de inclusão para seu tamanho padrão, clique em Scene (Cena) >.

  • Para criar uma área dentro da área de inclusão onde você não deseja que objetos sejam detectados, clique Scene > Add exclude area (Cena > Adicionar área de exclusão).

Configure o aplicativo.

Modificar um cenário

Para modificar um cenário, clique em Scenarios (Cenários) e clique em Open (Abrir) no cartão do cenário.

  • Para renomear o cenário, clique em .

  • Para alterar que tipos de objetos que serão detectados, clique em Triggering objects (Objetos acionadores).

  • Observação

    Se você selecionar Any motion (Qualquer movimento), o aplicativo não classificará objetos. Em vez disso, o aplicativo detectará qualquer objeto em movimento na cena. Por exemplo, animais, folhas balançando, bandeiras ou sombras. Para ignorar objetos pequenos ou objetos que só aparecem por um curto período, é possível usar filtros. Para obter mais informações, consulte Filtros.

  • Em um cenário de objeto na área: para permitir que objetos permaneçam dentro da área de inclusão por um determinado tempo antes que o aplicativo acione uma ação, clique em Triggering objects (Objetos acionadores) e ative a opção Time in area (Tempo na área)BETA. Defina o tempo permitido.

  • Para ajustar a linha ou área virtual, clique em Scene (Cena).

Calibre a perspectiva.

Observação

Não é possível calibrar a perspectiva em todos os tipos de dispositivos, por exemplo, em determinadas câmeras panorâmicas.

Se a cena possui profundidade significativa, é necessário calibrar a perspectiva para remover os alarmes falsos causados por objetos pequenos. Durante a calibração, o aplicativo compara a altura dos objetos conforme são exibidos na imagem com as alturas reais dos objetos físicos correspondentes. O aplicativo usa a perspectiva calibrada para calcular o tamanho do objeto.

Coloque barras verticais na imagem para calibrar a perspectiva. As barras representam objetos físicos em distâncias diferentes a partir da câmera.

  1. Vá para Settings > Advanced > Perspective (Configurações > Avançado > Perspectiva) e clique em +.

  2. Na visualização ao vivo, escolha dois objetos de altura igual e conhecida, localizados no chão e a distâncias diferentes da câmera.

    Você pode usar, por exemplo, estacas de cerca ou uma pessoa.

  3. Coloque as barras perto dos objetos e ajuste o comprimento de cada barra na altura do objeto.

  4. Selecione os cenários aos quais deseja aplicar a perspectiva.

  5. Insira a altura dos objetos em Perspective bar height (Altura da barra de perspectiva).

  6. Clique em Save (Salvar).

Example

Se houver uma cerca com estacas de 2 metros de altura se estendendo da câmera em direção ao horizonte, posicione as barras nas estacas da cerca, ajuste seus comprimentos e insira 200 cm (6 pés e 7 pol.) nos campos.

Importante

Certifique-se de que as barras não se sobreponham na altura.

Adição de sobreposições de metadados permanentes a streams de vídeo

Para mostrar o evento que foi detectado no stream de vídeo ao vivo e gravado, ative a sobreposição de metadados. Quando você ativa a sobreposição de metadados, o aplicativo mostra:

  • Um retângulo em volta dos objetos detectados.

  • A área ou a linha do cenário em que o objeto foi detectado.

Se você ativar as trajetórias, o aplicativo também mostrará uma linha que mostra o caminho que um objeto percorreu.

Se vários cenários forem acionados ao mesmo tempo, as sobreposições serão mostradas para todos eles em todos os streams com essa resolução selecionada.

Importante

As sobreposições de metadados são gravadas nas sobreposições de alarme na resolução selecionada do stream de vídeo. Não é possível removê-las do vídeo gravado.

Observação

Se você usa áreas de exibição, as sobreposições de metadados só aparecem na primeira área de exibição. O nome padrão da primeira área de exibição é View area 1 (Área de exibição 1).

  1. Na página da Web do aplicativo, vá para Settings > Advanced (Configurações > Avançado) e, dependendo da câmera:

    • Ative a Metadata overlay (Sobreposição de metadados).

    • Em Metadata overlay (Sobreposição de metadados), selecione a resolução na qual as sobreposições de metadados adicionadas permanentemente serão exibidas. Você só pode selecionar uma resolução, e a configuração aplica-se a todos os cenários.

  2. Para mostrar o caminho que um objeto percorreu, selecione Trajectories (Trajetórias).

Restringir a detecção a uma posição predefinida de PTZ

Para câmeras PTZ, você pode restringir a detecção a uma posição predefinida específica.

  1. Vá para Scenarios (Cenários) e clique em Open (Abrir) em um cartão de cenário ou clique em + para criar um novo cenário.

  2. Clique em Scene (Cena) e selecione uma posição predefinida na lista.

Observação

Cada vez que a posição predefinida de PTZ for alterada, o aplicativo precisará recalibrar. Recomendamos aguardar pelo menos 15 segundos antes de alternar entre as posições predefinidas em um guard tour.

Saiba mais

Classificação de objetos

O aplicativo pode classificar dois tipos de objetos: pessoas e veículos. O aplicativo mostra um retângulo em torno de objetos classificados. Objetos classificados como pessoas recebem um retângulo vermelho e objetos classificados como veículos recebem um retângulo azul.

Para câmeras com recurso de aprendizado profundo, os veículos podem ser categorizados em caminhões, ônibus, carros e bicicletas.

Se você usar a funcionalidade de tempo na área BETA, o retângulo permanecerá amarelo até que a condição de tempo seja satisfeita. Se o objeto permanecer dentro da área de inclusão por mais 30 segundos, o retângulo se tornará tracejado.

Cada objeto classificado tem um ponto de detecção que o aplicativo usa para decidir se um objeto está dentro ou fora de uma área de inclusão ou quando ele cruza uma linha virtual. Para uma pessoa, o ponto de detecção está nos pés. Para um veículo, é seu centro. Se o pé de uma pessoa ou um centro de veículos for obstruído na visão da câmera, o aplicativo fará uma suposição do local do ponto de detecção.

Observação

Recomendamos levar em consideração a localização presumida do ponto de detecção do objeto ao desenhar a área de inclusão ou a linha virtual.

Para obter os melhores resultados possíveis:

  • Em algum momento, todo o objeto precisa ser visível na cena.

  • O objeto precisa estar em movimento dentro da cena por pelo menos 2 segundos.

  • Para câmeras com aprendizado de máquina, os humanos precisam se mover numa posição relativamente ereta. Para câmeras com recurso de aprendizado profundo, isso não é um requisito.

  • A parte superior do corpo de um humano precisa estar visível

  • Os objetos precisam se destacar do fundo

  • Reduza o desfoque por movimento.

Objeto na área:

Quando você usa a condição de acionamento Object in area (Objeto na área), o aplicativo detecta objetos que se movem dentro de uma área definida. Essa área é chamada de área de inclusão.

Você pode ativar o tempo na áreaBETA para definir um limite de tempo para a permanência do objeto dentro da área de inclusão antes do aplicativo acionar uma ação. Quando um objeto entra na área de inclusão, o contador é iniciado. Se o objeto sair da área de inclusão antes do limite de tempo ser atingido, o contador será reiniciado. É o ponto de detecção do objeto que deve estar dentro da área de inclusão para que o contador mantenha a contagem. A funcionalidade de tempo na áreaBETA é adequada para áreas em que pessoas ou veículos devem permanecer por pouco tempo, como túneis ou pátios escolares após o expediente.

Área de inclusão

A área de inclusão é a área na qual o aplicativo detecta tipos de objeto selecionados. O aplicativo inicia ações para objetos se o ponto de detecção estiver dentro da área de inclusão. O aplicativo ignora objetos fora da área de inclusão.

Reformate e redimensione a área de modo que ela cubra somente a parte da cena na qual você deseja detectar objetos. Se você usar a funcionalidadeBETA de tempo em uma área, é importante incluir somente partes da cena em que os objetos não se sobrepõem uns aos outros. O retângulo padrão da área de inclusão pode ser alterado para um polígono com até 10 cantos.

Recomendação

Se houver uma rua ou calçada movimentada próximo à área de inclusão, desenhe a área de inclusão de forma que os objetos fora da área de inclusão não sejam detectados acidentalmente. Isso significa que você deve evitar desenhar a área de inclusão perto demais da rua ou calçada movimentada.

Áreas de exclusão

Uma área de exclusão é uma área dentro de uma área de inclusão na qual tipos de objetos selecionados não são detectados. Use áreas de exclusão se houver áreas dentro da área de inclusão que disparam uma grande quantidade de ações indesejadas. É possível criar até 5 áreas de exclusão.

Mova, reformate e redimensione a área de modo que ela abranja a parte desejada da cena. O retângulo padrão pode ser alterado para um polígono com até 10 cantos.

Recomendação

Coloque áreas de exclusão dentro da área de inclusão. Use áreas de exclusão para cobrir áreas em que você não deseja detectar objetos.

Cruzamento de linhas

Quando você usa a condição de acionamento Line crossing (Cruzamento de linha), o aplicativo detecta objetos que cruzam uma linha definida virtualmente.

A linha virtual é uma linha amarela na imagem. Objetos do tipo selecionado que cruzam a linha em uma determinada direção são detectados. As setas vermelhas na linha mostram a direção atual. As ações são acionadas quando os objetos cruzam a linha na direção indicada pelas setas.

Para acionar uma ação, o objeto deve cruzar a linha. Conforme mostrado na ilustração, o ponto de detecção do objeto deve cruzar a linha para que a ação seja acionada. Objetos que só tocam na linha não iniciam ações.

  • Na ilustração à esquerda, o homem não inicia uma ação, pois seu ponto de detecção ainda não ultrapassou a linha.

  • Na ilustração à direita, o homem inicia uma ação, pois seu ponto de detecção cruza a linha.

Para obter informações sobre o ponto de detecção, consulte Classificação de objetos.

Recomendações para a linha virtual

  • Ajuste a linha virtual de modo que:
  • os objetos sejam claramente visíveis na imagem antes de atravessarem a linha.

  • seja provável que o ponto de detecção de um objeto cruze a linha.

  • os objetos não possam entrar na área protegida sem passar na linha.

Integração

Configuração de alarmes no AXIS Camera Station

Este exemplo explica como configurar uma regra no AXIS Camera Station para alertar o operador e gravar vídeo que inclui sobreposições de metadados quando o AXIS Object Analytics detecta um objeto.

Antes de começar

  1. Adição da câmera ao AXIS Camera Station
  2. No AXIS Camera Station, adicione a câmera. Consulte o manual do usuário do AXIS Camera Station.

  1. Criação de um acionador de eventos
  2. Clique em e vá para Configuration > Recording and events > Action rules (Configuração > Gravação e eventos > Regras de ação) e clique em New (Nova).

  3. Clique em Add (Adicionar) para adicionar um acionador.

  4. Selecione Device event (Evento de dispositivo) na lista de acionadores e clique em OK.

  5. Na seção Configure device event trigger (Configurar acionador de evento de dispositivo):

    • Em Device (Dispositivo), selecione a câmera.

    • Em Event (Evento), selecione um dos cenários para o AXIS Object Analytics.

    • Em Trigger period (Período de acionamento), defina um intervalo de tempo entre dois acionadores sucessivos. Use essa função para reduzir o número de gravações sucessivas. Se um acionador adicional ocorrer dentro desse intervalo, a gravação continuará e o período do acionador recomeçará desse ponto.

  6. Em Filters (Filtros), defina active (ativo) como Yes (Sim).

  7. Clique em OK.

  1. Criação de ações para gerar alarmes e gravar vídeo
  2. Clique em Next (Avançar).

  3. Clique em Add (Adicionar) para adicionar uma ação.

  4. Selecione Raise alarm (Acionar alarme) na lista de ações e clique em OK.

  5. Observação

    A mensagem de alarme é o que o operador vê quando um alarme é acionado.

  6. Na seção Alarm message (Mensagem de alarme), insira um título e uma descrição para o alarme.

  7. Clique em OK.

  8. Clique em Add (Adicionar) para adicionar outra ação.

  9. Selecione Record (Gravar) na lista de ações e clique em OK.

  10. Na lista de câmeras, selecione a câmera que será usada para gravação.

  11. Importante

    Para incluir sobreposições de metadados na gravação, certifique-se de selecionar um perfil com a mesma resolução que foi selecionada para sobreposições de metadados no aplicativo.

  12. Selecione um perfil e defina o pré-buffer e o pós-buffer.

  13. Clique em OK.

  1. Especificação de quando o alarme está ativo
  2. Clique em Next (Avançar).

  3. Se desejar que o alarme permaneça ativo em determinados horários, selecione Custom schedule (Agendamento personalizado).

  4. Selecione um agendamento na lista.

  5. Clique em Next (Avançar).

  6. Insira um nome para a regra.

  7. Clique em Finish (Concluir).

Observação

Para ver as sobreposições de metadados na visualização ao vivo, certifique-se de selecionar o perfil de streaming compatível com aquele que você definiu no aplicativo.

Gravar vídeo quando um objeto é detectado

Este exemplo a seguir explica como configurar o dispositivo Axis para gravar vídeo em um cartão SD quando o aplicativo detecta um objeto.

  1. Na interface da Web do dispositivo, acesse Apps (Aplicativos) e certifique-se de que o aplicativo esteja sendo executado.

  2. Para verificar se o cartão SD está montado, vá para System > Storage (Sistema > Armazenamento).

  3. Vá para System > Events (Sistema > Eventos) e adicione uma regra:

  4. Digite um nome para a regra.

  5. Na lista de condições, em Application (Aplicação), selecione o cenário de aplicação. Para acionar a mesma ação para todos os cenários definidos, selecione Object Analytics: Any Scenario (Análise de objetos: Qualquer cenário).

  6. Na lista de ações, em Recordings (Gravações), selecione Record video (Gravar vídeo).

  7. Na lista de opções de armazenamento, selecione SD-DISK.

  8. Selecione uma Camera (Câmera) e um Stream profile (Perfil de stream).

    Para mostrar sobreposições de metadados, certifique-se de ativá-la no aplicativo para a mesma resolução usada no perfil de stream.

  9. Observação

    Não recomendamos o uso de um cenário com tempo na áreaBETA para acionar as gravações se o tempo em que um objeto pode permanecer dentro da área de inclusão for superior 30 segundos. O motivo é que é difícil usar um tempo de pré-buffer superior a 30 segundos, o que é necessário se você deseja ver o que aconteceu antes do objeto ser detectado.

  10. Se deseja iniciar a gravação antes de o objeto ser detectado, insira um tempo de Prebuffer (Pré-buffer).

  11. Clique em Save (Salvar).

  12. Para testar a regra, vá para a página da Web do aplicativo e abra o cenário. Clique em Test alarm (Testar alarme). Isso gera um evento, como se o cenário o tivesse acionado de verdade. Se você ativou sobreposições de metadados, um retângulo vermelho ou azul será exibido.

Solução de problemas

Problemas na detecção de objetos

...quando a imagem é instável

Ative a Electronic image stabilization (EIS) (Estabilização eletrônica de imagem (EIS)) na guia Image (Imagem) da página da Web do produto.

...nas bordas da imagem, onde a imagem parece distorcida

Ative a Barrel distortion correction (BDC) (Correção de distorção cilíndrica) na guia Image (Imagem) da página da Web do produto.

...imediatamente

Os objetos precisam estar totalmente visíveis na cena antes de serem detectados pelo aplicativo.

...em outras situações

Isso pode ocorrer ser porque os objetos se mesclam ao fundo quando são da mesma cor, ou porque há iluminação inadequada na cena. Tente melhorar a iluminação.

Problemas com alarmes falsos

...devido a pequenos animais que parecem grandes na imagem

Calibre a perspectiva. Consulte Calibre a perspectiva..

Problemas com sobreposições de metadados

...em um segundo cliente

As sobreposições de metadados só são visíveis para um cliente por vez.

Problemas com o stream de vídeo

...no navegador Firefox para câmeras de alta resolução

Experimente usar o navegador Google Chrome™.

Filtros

Se você tiver configurado o aplicativo para detectar qualquer movimento, poderá enfrentar alarmes falsos. Para evitar que isso ocorra, você pode usar filtros.

Objetos de curta duração –
Use esta opção para ignorar objetos que só aparecem na imagem por um curto período de tempo.
Objetos pequenos –
Use esta opção para ignorar objetos pequenos.
Objetos oscilantes –
Use esta opção para ignorar objetos que se movem apenas por uma curta distância.

Recomendações do filtro

  • Os filtros são aplicados a todos os objetos móveis encontrados pelo aplicativo, e devem ser configurados com cuidado para garantir que nenhum objeto importante seja ignorado.

  • Configure um filtro de cada vez e teste-o antes de ativar outro filtro.

  • Altere as configurações do filtro cuidadosamente até atingir o resultado desejado.

O filtro de objetos de curta duração

Use o filtro de objetos de curta duração para evitar a detecção de objetos que só aparecem por um curto período, como faróis de carros em movimento ou sombras de deslocamento rápido.

Quando você ativar o filtro de objetos de curta duração e o aplicativo encontrar um objeto em movimento, o objeto não iniciará uma ação até que o tempo definido transcorra. Se a ação for usada para iniciar uma gravação, configure a hora do pré-acionador para que a gravação também inclua o momento em que o objeto se moveu na cena antes de acionar a ação.

Configuração do filtro de objetos de curta duração

  1. Clique em Scenarios (Cenários) e selecione um cenário existente ou clique em + para criar um novo cenário.

  2. Clique em Triggering objects (Objetos acionadores) e certifique-se de que a opção Any motion (Qualquer movimento) esteja selecionada.

  3. Vá para Filters > Short-lived objects (Filtros > Objetos de curta duração).

  4. Insira o número de segundos no campo. O número de segundos é o tempo mínimo a ser decorrido antes que o objeto acione uma ação. Comece com um número pequeno.

  5. Se o resultado não for satisfatório, aumente o tempo do filtro em pequenas etapas.

O filtro de objetos oscilantes

O filtro de objetos oscilantes ignora objetos que só se movem por distâncias curtas, por exemplo, folhagens ou bandeiras oscilantes e suas sombras. Se os objetos oscilantes forem grandes, por exemplo, grandes lagos ou árvores, use áreas de exclusão em vez de usar o filtro. O filtro é aplicado a todos os objetos oscilantes detectados e, se o valor for muito grande, objetos importantes podem não iniciar ações.

Quando o filtro de objetos oscilantes estiver ativado e o aplicativo detectar um objeto, o objeto não acionará uma ação até que ele tenha se movido por uma distância maior do que o tamanho do filtro.

Configuração do filtro de objetos oscilantes

O filtro ignora qualquer objeto se movendo por uma distância mais curta do que entre o centro e a borda da elipse.

Observação
  • O filtro se aplica a todos os objetos na imagem, não apenas aos objetos na mesma posição que a elipse de configuração.
  • Recomendamos que você comece com um tamanho pequeno de filtro.
  1. Clique em Scenarios (Cenários) e selecione um cenário existente ou clique em + para criar um novo cenário.

  2. Clique em Triggering objects (Objetos acionadores) e certifique-se de que a opção Any motion (Qualquer movimento) esteja selecionada.

  3. Vá para Filters > Swaying objects (Filtros > Objetos oscilantes).

  4. Digite até onde os objetos podem se mover, como uma porcentagem da tela, antes que uma ação seja acionada.

O filtro de objetos pequenos

O filtro de objetos pequenos reduz alarmes falsos ignorando objetos que são pequenos, como, por exemplo, pequenos animais.

Observação
  • O filtro aplica-se a todos os objetos na imagem, não apenas aos objetos na mesma posição que o retângulo de configuração.
  • O aplicativo ignora objetos que são menores que ambos os valores de largura e altura fornecidos.

Configuração do filtro de objetos pequenos

  1. Clique em Scenarios (Cenários) e selecione um cenário existente ou clique em + para criar um novo cenário.

  2. Clique em Triggering objects (Objetos acionadores) e certifique-se de que a opção Any motion (Qualquer movimento) esteja selecionada.

  3. Vá para Filters > Small objects (Filtros > Objetos pequenos).

  4. Observação

    Se você calibrou a perspectiva, insira a largura e a altura dos objetos a serem ignorados em centímetros (pol.), em vez de como um percentual da imagem.

  5. Insira a largura e a altura dos objetos a serem ignorados como percentuais da imagem.