AXIS Object Analytics

Visão geral

Sobre o aplicativo

O AXIS Object Analytics detecta, classifica e conta objetos móveis, especificamente pessoas ou veículos. Você pode configurar cenários com diferentes condições para a detecção, como objetos que se movem ou permanecem por um tempo superior ao definido dentro de uma área predefinida ou que cruzam uma linha definida. Quando os objetos são detectados ou contados, os dispositivos de rede Axis ou software de terceiros podem executar ações diferentes, como gravar vídeo, reproduzir uma mensagem de áudio ou alertar a equipe de segurança.

Considerações

Para proporcionar os melhores resultados, a câmera deve ser montada corretamente. Há requisitos para a cena, a imagem e os objetos. As considerações neste capítulo são genéricas. Para obter as considerações específicas do produto, consulte o manual do usuário de seu produto em help.axis.com.

Esta imagem ilustra uma câmera montada corretamente.

  1. Altura de montagem
  2. Inclinação
  3. Área de detecção
  4. Distância mínima de detecção
  5. Distância máxima de detecção

Posição de montagem

Se você montar a câmera de modo que sua visão seja orientada de cima para baixo, será difícil para o aplicativo classificar objetos.

Inclinação

A câmera deve estar suficientemente orientada para o chão para que o centro da imagem esteja abaixo do horizonte. Monte a câmera para que a distância de detecção mínima seja mais longa que a altura de montagem da câmera (distância de detecção mínima > altura de montagem da câmera / 2).

Área de detecção

O ponto de detecção de um objeto deve estar dentro da área de detecção. O ponto de detecção de uma pessoa são os pés e o de um veículo é seu centro.

Distância máxima de detecção

  • A distância máxima de detecção depende:
  • Tipo de modelo da câmera

  • Lente da câmera. Um alcance focal mais alto permite uma distância de detecção mais longa.

  • Clima. Por exemplo, chuva forte ou nevasca podem afetar a distância de detecção e precisão.

  • Iluminação. A precisão e o alcance de detecção podem ser afetados por iluminação insuficiente.

  • Carga da câmera

Recomendamos usar o AXIS Site Designer para determinar a distância de detecção máxima para diferentes modelos de câmeras em seu site.

Rolagem

O ângulo de rolagem da câmera deve ser quase igual a zero. Isso significa que a imagem deveria estar nivelada com o horizonte.

Campo de visão

O campo de visão da câmera deve ser fixo.

Vibrações

O aplicativo tolera pequenas vibrações da câmera, mas você obtém o melhor desempenho quando a câmera não está sujeita a vibrações.

Tamanho do objeto

Para que uma pessoa seja detectada, a altura mínima deverá ser 4% da altura total da imagem. Para um veículo, a altura mínima deverá ser 3% da altura total da imagem. No entanto, isso requer condições de imagem perfeitas e ausência de obstruções na exibição. Para minimizar o risco de detecções perdidas, recomenda-se uma altura de pelo menos 8% para seres humanos e 6% para veículos.

Visibilidade do objeto

A precisão da detecção poderá ser afetada:

  • Se os objetos estiverem somente parcialmente visíveis, por exemplo, folhagem. É particularmente importante que recursos característicos, como pernas ou rodas, estejam visíveis.

  • Quando a cena está cheia de objetos que frequentemente se sobrepõem uns aos outros. Por exemplo, quando há um congestionamento de tráfego, ou em um estacionamento.

Contrast (Contraste)

  • É necessário haver um certo nível de contraste entre objetos e o fundo. Névoa, reflexões causadas por luz direta na câmera ou uma imagem excessivamente ruidosa podem causar problemas de contraste. Você pode aumentar o nível de iluminação e ajustar as configurações da imagem para melhorar o nível de contraste.
  • Quando você usa uma câmera de dia e noite com iluminação artificial, recomendamos pelo menos 50 lux em toda a área de detecção.

  • Quando você usa iluminação IR embutida, a distância máxima de detecção depende da câmera e do ambiente.

Movimento esperado de objetos na cena

Objetos que abordam a câmera em uma linha reta precisam se mover por um tempo maior antes de serem detectados comparados a objetos que se movem perpendicularmente ao campo de visão da câmera.

Pose humana

As pessoas precisam se mover em uma posição relativamente vertical.

Movimento do objeto

Os objetos precisam se mover na cena por pelo menos 2 segundos.

Configurações recomendadas da imagem

Antes de começar a usar o aplicativo, recomendamos ativar o Forensic WDR e a correção de distorção em barril, se estiverem disponíveis para a sua câmera.

A imagem à direita é um exemplo de distorção de barril. A distorção em barril é um efeito de lente em que linhas retas parecem se curvar cada vez mais ao se aproximarem das bordas do quadro.
  • Condições em que as detecções podem ser atrasadas ou perdidas
  • Observação

    Estas condições não são relevantes para câmeras de fusão radar-vídeo.

  • Nevoeiro

  • Luz direta na câmera

  • Luz inadequada

  • Imagem excessivamente ruidosa

  • Situações que podem acionar alarmes falsos
  • Pessoas ou veículos parcialmente escondidos. Por exemplo, uma pequena van exibida atrás de uma parede pode parecer uma pessoa, pois o veículo é alto e estreito.

  • Insetos na lente da câmera. Observe que as câmeras diurnas e noturnas com manchas infravermelhas atraem insetos e aranhas.

  • Uma combinação de faróis de carro e chuva pesada.

  • Animais de tamanho humano.

  • Luz forte causando sombras.

Introdução

  1. Faça login na interface do dispositivo como administrador e vá para Apps > AXIS Object Analytics (Aplicativos > AXIS Object Analytics).

  2. Inicie o aplicativo e clique em Open (Abrir).

  3. Na tela de boas-vindas, clique em Step-by-step (Passo a passo) para seguir o procedimento de configuração recomendado.

  4. Em Considerations (Considerações), leia as informações.

  5. Clique em + New scenario (+ Novo cenário).

  6. Selecione o que você deseja que o cenário faça:

    • Object in area (Objeto na área): Detecta objetos que se movem dentro de uma área definida.

    • Line crossing (Cruzamento de linhas): Detecta objetos que cruzam uma linha definida.

    • Time in area (Tempo na área): Detecta objetos que permanecem em uma área por muito tempo.

    • Contagem de cruzamentos de linhas: Conta objetos que cruzam uma linha definida.

    • Ocupação na área: Estima o número de objetos dentro de uma área definida a qualquer momento.

  7. Para saber mais sobre os diferentes cenários, consulte Cenários de área e Cenários de cruzamento de linhas.
  8. Selecione o tipo de objeto que deseja que o aplicativo detecte.

    Saiba mais sobre Classificação de objetos.

  9. Para câmeras PTZ, você pode optar por restringir a detecção a uma posição predefinida específica. Selecione-a na lista.

  10. Configure seu cenário.

    Para saber como ajustar a linha padrão ou a área de inclusão, consulte Ajuste a linha ou área virtual.

  11. Verifique as configurações e clique em Finish (Concluir).

Você criou um cenário. Para renomeá-lo ou modificá-lo, clique em Open (Abrir).

Para criar mais cenários, clique em + New scenario (+ Novo cenário).

Criar um cenário: objeto na área.
Criar um cenário: tempo na área.
Criar um cenário: ocupação na área.
Criar um cenário: cruzamento de linhas
Criar um cenário: contagem de cruzamentos de linhas

Ajuste a linha ou área virtual

  • Para remodelar uma linha ou área virtual, clique e arraste um dos pontos de âncora.

  • Para mover uma linha ou área virtual, clique e arraste-a.

  • Para remover um canto, clique com botão direito no canto.

  • Linha virtual
  • Para redefinir a linha virtual para o seu tamanho padrão, clique em Scene > Reset line (Cena > Redefinir linha).

  • Para alterar a direção na qual os objetos devem se mover para serem detectados, clique em Scene > Change trigger direction (Cena > Alterar direção do acionador). As setas vermelhas próximo à linha mostram a direção atual. As ações são acionadas quando os objetos cruzam a linha na direção das setas.

  • Área
  • Para redefinir a área de inclusão para seu tamanho padrão, clique em Scene (Cena) >.

  • Para criar uma área dentro da área de inclusão onde você não deseja que objetos sejam detectados, clique Scene > Add exclude area (Cena > Adicionar área de exclusão).

Configure o aplicativo.

Modificar um cenário

Para modificar um cenário, clique em Scenarios (Cenários) e clique em Open (Abrir) no cartão do cenário.

  • Para renomear o cenário, clique em .

  • Para alterar que tipos de objetos que serão detectados, clique em Triggering objects (Objetos acionadores).

  • Observação

    Se você selecionar Any motion (Qualquer movimento), o aplicativo não classificará objetos. Em vez disso, o aplicativo detectará qualquer objeto em movimento na cena. Por exemplo, animais, folhas balançando, bandeiras ou sombras. Para ignorar objetos pequenos ou objetos que só aparecem por um curto período, é possível usar filtros. Para obter mais informações, consulte Filtros.

  • Em um objeto no cenário da área: para que objetos permaneçam n a área de inclusão por um determinado tempo antes que o aplicativo envie um evento, clique em Triggering objects (Objetos acionadores) e ative a opção Time in area (Tempo na área). Defina o tempo permitido.

    • Você poderá usar a opção avançada Keep the rule active as long as the object is tracked (Manter a regra ativa enquanto o objeto for monitorado) ao criar uma regra na interface da Web do dispositivo e a regra tiver uma ação com a opção "... enquanto a regra está ativa ". Isso fará com que a regra permaneça ativa, contanto que o objeto seja acompanhado e esteja dentro da área de inclusão, e não apenas pela duração do alarme. Para obter um exemplo de como configurar esse ajuste, consulte Gravar vídeo quando uma pessoa permanecer muito tempo em uma área.

  • Para ajustar a linha ou área virtual, clique em Scene (Cena).

  • Em um cenário de contagem de cruzamentos de linhas:

    • Para redefinir as contagens diariamente, clique em Crossline counting (Contagem de cruzamentos de linhas) e ative Reset counts at midnight (Redefinir contagens à meia-noite).

    • Para redefinir contagens uma vez, clique em Crossline counting (Contagem de cruzamentos de linhas) e clique em Reset counts (Redefinir contagens).

    • Observação

      O aplicativo armazena os dados de contagem por 35 dias, independentemente do seu tipo de armazenamento.

  • Em uma ocupação no cenário de área:

    • Para disparar ações com base nos níveis de ocupação na área de interesse, configure um Occupancy threshold (Limite de ocupação).

    • Para disparar ações quando o limite de ocupação tiver sido válido por um tempo definido, defina o número de segundos em Trigger action after set time (Acionar a ação após o tempo definido).

Calibre a perspectiva.

Observação

Não é possível calibrar a perspectiva em todos os tipos de dispositivos, por exemplo, em determinadas câmeras panorâmicas.

Se a cena possui profundidade significativa, é necessário calibrar a perspectiva para remover os alarmes falsos causados por objetos pequenos. Durante a calibração, o aplicativo compara a altura dos objetos conforme são exibidos na imagem com as alturas reais dos objetos físicos correspondentes. O aplicativo usa a perspectiva calibrada para calcular o tamanho do objeto.

Coloque barras verticais na imagem para calibrar a perspectiva. As barras representam objetos físicos em distâncias diferentes a partir da câmera.

  1. Vá para Settings > Advanced > Perspective (Configurações > Avançado > Perspectiva) e clique em +.

  2. Na visualização ao vivo, escolha dois objetos de altura igual e conhecida, localizados no chão e a distâncias diferentes da câmera.

    Você pode usar, por exemplo, estacas de cerca ou uma pessoa.

  3. Coloque as barras perto dos objetos e ajuste o comprimento de cada barra na altura do objeto.

  4. Selecione os cenários aos quais deseja aplicar a perspectiva.

  5. Insira a altura dos objetos em Perspective bar height (Altura da barra de perspectiva).

  6. Clique em Save (Salvar).

Example

Se houver uma cerca com estacas de 2 metros de altura se estendendo da câmera em direção ao horizonte, posicione as barras nas estacas da cerca, ajuste seus comprimentos e insira 200 cm (6 pés e 7 pol.) nos campos.

Importante

Certifique-se de que as barras não se sobreponham na altura.

Adição de sobreposições de metadados permanentes a streams de vídeo

Para mostrar o evento que foi detectado no stream de vídeo ao vivo e gravado, ative a sobreposição de metadados. Quando você ativa a sobreposição de metadados, o aplicativo mostra:

  • Um retângulo em volta dos objetos detectados.

  • A área ou a linha do cenário em que o objeto foi detectado.

  • Para contagem de cruzamentos de linhas: uma tabela com a contagem acumulada por tipo de objeto.

  • Para ocupação na área: uma tabela com o número estimado de acordo com o tipo de objeto no momento determinado.

Se você ativar as trajetórias, o aplicativo também mostrará uma linha que mostra o caminho que um objeto percorreu.

Se vários cenários forem acionados ao mesmo tempo, as sobreposições serão mostradas para todos eles em todos os streams com essa resolução selecionada.

Importante

As sobreposições de metadados são gravadas nas sobreposições de alarme na resolução selecionada do stream de vídeo. Não é possível removê-las do vídeo gravado.

Observação

Se você usa áreas de exibição, as sobreposições de metadados só aparecem na primeira área de exibição. O nome padrão da primeira área de exibição é View area 1 (Área de exibição 1).

  1. Na página da Web do aplicativo, vá para Settings > Advanced (Configurações > Avançado) e, dependendo da câmera:

    • Ative a Metadata overlay (Sobreposição de metadados).

    • Em Metadata overlay (Sobreposição de metadados), selecione a resolução na qual as sobreposições de metadados adicionadas permanentemente serão exibidas. Você só pode selecionar uma resolução, e a configuração aplica-se a todos os cenários.

  2. Para mostrar o caminho que um objeto percorreu, selecione Trajectories (Trajetórias).

Restringir a detecção a uma posição predefinida de PTZ

Para câmeras PTZ, você pode restringir a detecção a uma posição predefinida específica.

  1. Vá para Scenarios (Cenários) e clique em Open (Abrir) em um cartão de cenário ou clique em + para criar um novo cenário.

  2. Clique em Scene (Cena) e selecione uma posição predefinida na lista.

Observação

Cada vez que a posição predefinida de PTZ for alterada, o aplicativo precisará recalibrar. Recomendamos aguardar pelo menos 15 segundos antes de alternar entre as posições predefinidas em um guard tour.

Configuração de regras de eventos

Para saber mais, consulte nosso guia Introdução a regras de eventos.

Gravar vídeo quando um objeto é detectado

Este exemplo a seguir explica como configurar o dispositivo Axis para gravar vídeo em um cartão SD quando o aplicativo detecta um objeto.

  1. Na interface da Web do dispositivo, acesse Apps (Aplicativos) e certifique-se de que o aplicativo esteja sendo executado.

  2. Para verificar se o cartão SD está montado, vá para System > Storage (Sistema > Armazenamento).

  3. Vá para System > Events (Sistema > Eventos) e adicione uma regra:

  4. Digite um nome para a regra.

  5. Na lista de condições, em Application (Aplicação), selecione o cenário de aplicação. Para acionar a mesma ação para todos os cenários definidos, selecione Object Analytics: Any Scenario (Análise de objetos: Qualquer cenário).

  6. Na lista de ações, em Recordings (Gravações), selecione Record video (Gravar vídeo).

  7. Na lista de opções de armazenamento, selecione SD-DISK.

  8. Selecione uma Camera (Câmera) e um Stream profile (Perfil de stream).

    Para mostrar sobreposições de metadados, certifique-se de ativá-la no aplicativo para a mesma resolução usada no perfil de stream.

  9. Observação

    Não recomendamos o uso de um cenário com tempo na área para acionar as gravações se o tempo em que um objeto pode permanecer dentro da área de inclusão for superior 30 segundos. O motivo é que é difícil usar um tempo de pré-buffer superior a 30 segundos, o que é necessário se você deseja ver o que aconteceu antes do objeto ser detectado.

  10. Se deseja iniciar a gravação antes de o objeto ser detectado, insira um tempo de Prebuffer (Pré-buffer).

  11. Clique em Save (Salvar).

  12. Para testar a regra, vá para a página da Web do aplicativo e abra o cenário. Clique em Test alarm (Testar alarme). Isso gera um evento, como se o cenário o tivesse acionado de verdade. Se você ativou sobreposições de metadados, um retângulo vermelho ou azul será exibido.

Gravar vídeo quando uma pessoa permanecer muito tempo em uma área

Este exemplo explica como configurar um dispositivo Axis para gravar vídeo em um cartão SD quando o aplicativo detecta uma pessoa que permanece muito tempo em uma área definida.

  1. Na interface Web do dispositivo:
  2. Vá para Apps (Aplicativos) e certifique-se de que o aplicativo seja iniciado.

  3. Vá para System > Storage (Sistema > Armazenamento) e verifique se o cartão SD está montado.

  4. No AXIS Object Analytics:
  5. Em Scenarios (Cenários), clique em + New scenario (+ Novo cenário).

  6. Selecione Time in area (Tempo na área) e clique em Next (Avançar).

  7. Selecione Human (Pessoa) e clique em Next (Avançar).

  8. Ajuste a área de interesse de acordo com suas necessidades.

  9. Em Time in area settings (Configurações de tempo na área), defina o tempo durante a qual o humano pode permanecer na área.

  10. Clique em Finish (Concluir).

  11. Abra o cenário que acabou de criar.

  12. Vá para Triggering objects > Time in area > Advanced (Objetos acionadores > Tempo na área > Avançado) e clique em Keep the rule active as long as the object is tracked (Manter a regra ativa enquanto o objeto for monitorado).

    Isso permite manter a regra criada na interface Web do dispositivo ativa, desde que o objeto seja rastreado, e não apenas pela duração do alarme.

  13. Na interface Web do dispositivo:
  14. Vá para System > Events (Sistema > Eventos) e adicione uma regra:

  15. Digite um nome para a regra.

  16. Na lista de condições, em Application (Aplicação), selecione o cenário de aplicação.

  17. Na lista de ações, em Recordings (Gravações), selecione Record video while the rule is active (Gravar vídeo enquanto a regra estiver ativa).

  18. Na lista de opções de armazenamento, selecione SD-DISK.

  19. Selecione uma Camera (Câmera) e um Stream profile (Perfil de stream).

    Para mostrar sobreposições de metadados, certifique-se de ativá-la no aplicativo para a mesma resolução usada no perfil de stream.

  20. Observação

    Não recomendamos o uso de um cenário com tempo na área para acionar as gravações se o tempo em que um objeto pode permanecer dentro da área de inclusão for superior 30 segundos. O motivo é que é difícil usar um tempo de pré-buffer superior a 30 segundos, o que é necessário se você deseja ver o que aconteceu antes do objeto ser detectado.

  21. Se deseja iniciar a gravação antes de o objeto ser detectado, insira um tempo de Prebuffer (Pré-buffer).

  22. Clique em Save (Salvar).

  23. No AXIS Object Analytics:
  24. Para testar a regra, abra o cenário e clique em Test alarm (Testar alarme). Isso gera um evento, como se o cenário o tivesse acionado de verdade.

Envie um email quando 100 veículos passaram

Com a contagem de cruzamentos de linhas e a funcionalidade de limiar de passagem, você poderá receber notificações sempre que um número de objetos definido pelo usuário cruzar a linha.

Este exemplo explica como configurar uma regra para enviar um email sempre que 100 veículos passarem.

Antes de começar

  • Crie um destinatário de email na interface do dispositivo.

  1. No AXIS Object Analytics:
  2. Em Scenarios (Cenários), clique em + New scenario (+ Novo cenário).

  3. Selecione Crossline counting (Contegem de cruzamento de linhas) e clique em Next (Avançar).

  4. Limpe Human (Pessoas) dos tipos de objetos listados e clique em Next (Avançar).

  5. Atualize o nome do cenário para Contagem de veículos.

  6. Ajuste a linha virtual de acordo com suas necessidades.

  7. Ative o Passthrough threshold (Limite de passthrough).

  8. Em Number of counts between events (Número de contagens entre eventos), digite 100.

  9. Clique em Finish (Concluir).

  10. Na interface Web do dispositivo:
  11. Vá para System > Events (Sistema > Eventos) e adicione uma regra:

  12. Digite um nome para a regra.

  13. Na lista de condições, em Application (Aplicativo), selecione Object Analytics: Count vehicles passthrough threshold reached (Análise de objetos: limiar de passagem da contagem de veículos atingido).

  14. Na lista de ações, em Notifications (Notificações), selecione Send notification to email (Enviar notificação para email).

  15. Selecione um destinatário na lista.

  16. Digite um assunto e uma mensagem para o email.

  17. Clique em Save (Salvar).

Ativar uma sirene estroboscópica quando mais de 50 objetos estiverem em uma área definida

Com o recurso de ocupação na área a funcionalidade de limite de passthrough, você pode acionar ações quando um número definido pelo usuário de objetos permanece em uma área.

Este exemplo explica como conectar uma câmera à AXIS D4100-E Network Strobe Siren via MQTT. Quando o AXIS Object Analytics detecta que mais de 50 humanos permaneceram em uma área definida por um minuto, a câmera acionará uma ação que ativa um perfil na sirene de estroboscópica.

  • Antes de começar:
  • Crie um perfil na sirene estroboscópica.

  • Configure um broker de MQTT e obtenha o endereço IP, nome de usuário e senha do agente.

  1. No AXIS Object Analytics:
  2. Em Scenarios (Cenários), clique em + New scenario (+ Novo cenário).

  3. Selecione Occupancy in area (Ocupaão na área) e clique em Next (Avançar).

  4. Selecione Human (Pessoa) e clique em Next (Avançar).

  5. Atualize o nome do cenário para Max 50 (Máx. 50).

  6. Ajuste a área de interesse de acordo com suas necessidades.

  7. Ative a opção Occupancy threshold (Limite de ocupação).

  8. Defina Number of objects para Mais de 50.

  9. Defina Trigger action after set time (Acionar a ação após o tempo definido) como 60 segundos.

  10. Clique em Finish (Concluir).

  1. Configure o cliente MQTT na interface Web da câmera:
  2. Vá para System > MQTT > MQTT client > Broker (Sistema > MQTT > Cliente MQTT > Broker) e insira as seguintes informações:

    • Host: endereço IP do broker

    • Client ID (ID do cliente): por exemplo, Câmera 1

    • Protocol (Protocolo): o protocolo para o qual o broker está definido

    • Port (Porta): o número da porta usada pelo broker

    • O Username (Nome de usuário) e a Password (Senha) do broker

  3. Clique em Save (Salvar) e em Connect (Conectar).

  1. Crie duas regras para a publicação de MQTT na interface Web da câmera:
  2. Vá para System > Events > Rules (Sistema > Eventos > Regras) e adicione uma regra:

    Esta regra ativará a sirene estroboscópica.

  3. Insira as seguintes informações:

    • Name (Nome): Alarme de limite

    • Condition (Condição): Applications: Max 50 threshold alarm changed (Aplicativos: Alarme de limite máximo de 50 alterado).

    • Action (Ação): MQTT > Send MQTT publish message (Enviar mensagem de publicação de MQTT)

    • Topic (Tópico): Limite

    • Payload (Carga): ativada

    • QoS: 0, 1 ou 2.

  4. Clique em Save (Salvar).

  5. Adicione outra regra com as seguintes informações:

    Esta regra desativará a sirene estroboscópica.

    • Name (Nome): Sem alarme de limite

    • Condition (Condição): Applications: Max 50 threshold alarm changed (Aplicativos: Alarme de limite máximo de 50 alterado)

      • Selecione Invert this condition (Inverter esta condição).

    • Action (Ação): MQTT > Send MQTT publish message (Enviar mensagem de publicação de MQTT)

    • Topic (Tópico): Limite

    • Payload (Carga): Desativada.

    • QoS: 0, 1 ou 2.

  6. Clique em Save (Salvar).

  1. Configure o cliente MQTT na interface da Web da sirene estroboscópica:
  2. Vá para System > MQTT > MQTT client > Broker (Sistema > MQTT > Cliente MQTT > Broker) e insira as seguintes informações:

    • Host: endereço IP do broker

    • Client ID (ID do cliente): Sirene 1

    • Protocol (Protocolo): o protocolo para o qual o broker está definido

    • Port (Porta): o número da porta usada pelo broker

    • Username (Nome de usuário) e Password (Senha)

  3. Clique em Save (Salvar) e em Connect (Conectar).

  4. Vá para MQTT subscriptions (Assinaturas MQTT) e adicione uma assinatura.

    Insira as seguintes informações:

    • Subscription filter (Filtro de assinatura): Limite

    • Subscription type (Tipo de assinatura): Stateful

    • QoS: 0, 1 ou 2.

  5. Clique em Save (Salvar).

  1. Crie uma regra para assinaturas MQTT na interface Web da sirene estroboscópica:
  2. Vá para System > Events > Rules (Sistema > Eventos > Regras) e adicione uma regra:

  3. Insira as seguintes informações:

    • Name (Nome): movimento detectado

    • Condition (Condição): MQTT > Stateful

    • Subscription filter (Filtro de assinatura): Threshold (Limite)

    • Payload (Carga): ativada

    • Action (Ação): Light and siren > Run light and siren profile while the rule is active (Luz e sirene > Executar perfil de luz e sirene quando a regra está ativa)

    • Profile (Perfil): Selecione o perfil que deseja ativar.

  4. Clique em Save (Salvar).

Saiba mais

Classificação de objetos

O aplicativo pode classificar dois tipos de objetos: pessoas e veículos. O aplicativo mostra um retângulo em torno de objetos classificados. Objetos classificados como pessoas recebem um retângulo vermelho e objetos classificados como veículos recebem um retângulo azul.

Para câmeras com recurso de aprendizado profundo, os veículos podem ser categorizados em caminhões, ônibus, carros e bicicletas.

Se você usar a funcionalidade de tempo na área, o retângulo permanecerá amarelo até que a condição de tempo seja satisfeita. Se o objeto permanecer dentro da área de inclusão por mais 30 segundos, o retângulo se tornará tracejado.

Cada objeto classificado tem um ponto de detecção que o aplicativo usa para decidir se um objeto está dentro ou fora de uma área de inclusão ou quando ele cruza uma linha virtual. Para uma pessoa, o ponto de detecção está nos pés. Para um veículo, é seu centro. Se o pé de uma pessoa ou um centro de veículos for obstruído na visão da câmera, o aplicativo fará uma suposição do local do ponto de detecção.

Observação

Recomendamos levar em consideração a localização presumida do ponto de detecção do objeto ao desenhar a área de inclusão ou a linha virtual.

Para obter os melhores resultados possíveis:

  • Em algum momento, todo o objeto precisa ser visível na cena.

  • O objeto precisa estar em movimento dentro da cena por pelo menos 2 segundos.

  • Para câmeras com aprendizado de máquina, os humanos precisam se mover numa posição relativamente ereta. Para câmeras com recurso de aprendizado profundo, isso não é um requisito.

  • A parte superior do corpo de um humano precisa estar visível

  • Os objetos precisam se destacar do fundo

  • Reduza o desfoque por movimento.

Cenários de área

Quando você configuração um cenário de Object in area (Objeto na área), o aplicativo detecta objetos que se movem dentro de uma área definida. A área definida é chamada de área de inclusão.

Com o cenário Time in area (Tempo na área), você pode definir um limite de tempo para a permanência do objeto dentro da área de inclusão antes do aplicativo acionar uma ação. Quando um objeto entra na área de inclusão, o contador de tempo é iniciado. Se o objeto sair da área de inclusão antes do limite de tempo ser atingido, o contador será reiniciado. É o ponto de detecção do objeto que deve estar dentro da área de inclusão para que o contador mantenha a contagem. O recurso de tempo na área é adequada para áreas em que pessoas ou veículos devem permanecer por pouco tempo, como túneis ou pátios escolares após o expediente.

Quando você configura um cenário Ocupação na área, o aplicativo estima quantos objetos estão dentro da área de inclusão em um momento determinado qualquer. Um contador de objetos exibe o número estimado de objetos na área de inclusão no momento. Quando um objeto entra ou sai da área, o contador de objetos se ajusta. A Ocupação na área é adequada para áreas em que você deseja obter uma contagem estimada de um ou vários tipos de objetos, como estacionamentos.

Área de inclusão

A área de inclusão é a área na qual o aplicativo detecta e conta tipos de objeto selecionados. O aplicativo inicia ações para objetos se o ponto de detecção estiver dentro da área de inclusão. O aplicativo ignora objetos fora da área de inclusão.

Reformate e redimensione a área de modo que ela cubra somente a parte da cena na qual você deseja detectar e contar objetos. Se você usar a funcionalidade de ocupação na área ou de tempo na área, é importante incluir partes de uma cena que não esteja lotada com objetos que se sobrepõem frequentemente uns aos outros. O retângulo padrão da área de inclusão pode ser alterado para um polígono com até 10 cantos.

Recomendação

Se houver uma rua ou calçada movimentada próximo à área de inclusão, desenhe a área de inclusão de forma que os objetos fora da área de inclusão não sejam detectados acidentalmente. Isso significa que você deve evitar desenhar a área de inclusão perto demais da rua ou calçada movimentada.

Áreas de exclusão

Uma área de exclusão é uma área dentro de uma área de inclusão na qual tipos de objetos selecionados não são detectados ou contados. Use áreas de exclusão se houver áreas dentro da área de inclusão que disparam uma grande quantidade de ações indesejadas. É possível criar até 5 áreas de exclusão.

Mova, reformate e redimensione a área de modo que ela abranja a parte desejada da cena. O retângulo padrão pode ser alterado para um polígono com até 10 cantos.

Recomendação

Coloque áreas de exclusão dentro da área de inclusão. Use áreas de exclusão para cobrir áreas em que você não deseja detectar objetos.

Cenários de cruzamento de linhas

Quando você configura uma cenário de Line crossing (Cruzamento de linha), o aplicativo detecta objetos que cruzam uma linha definida virtualmente. Com a Crossline counting (Contagem de cruzamento de linha), o aplicativo detecta e conta os objetos que cruzam a linha virtual.

A linha virtual é uma linha amarela na imagem. Objetos do tipo selecionado que cruzam a linha em uma determinada direção são detectados. As setas vermelhas na linha mostram a direção atual. As ações são acionadas quando os objetos cruzam a linha na direção indicada pelas setas.

Para acionar uma ação, o objeto deve cruzar a linha. Conforme mostrado na ilustração, o ponto de detecção do objeto deve cruzar a linha para que a ação seja acionada. Objetos que só tocam na linha não iniciam ações.

  • Na ilustração à esquerda, o homem não inicia uma ação, pois seu ponto de detecção ainda não ultrapassou a linha.

  • Na ilustração à direita, o homem inicia uma ação, pois seu ponto de detecção cruza a linha.

Para obter informações sobre o ponto de detecção, consulte Classificação de objetos.

Recomendações para a linha virtual

  • Ajuste a linha virtual de modo que:
  • seja improvável que haja objetos esperando na linha.

  • os objetos sejam claramente visíveis na imagem antes de atravessarem a linha.

  • seja provável que o ponto de detecção de um objeto cruze a linha.

Integração

Configuração de alarmes no AXIS Camera Station

Este exemplo explica como configurar uma regra no AXIS Camera Station para alertar o operador e gravar vídeo que inclui sobreposições de metadados quando o AXIS Object Analytics detecta um objeto.

Antes de começar

  1. Adição da câmera ao AXIS Camera Station
  2. No AXIS Camera Station, adicione a câmera. Consulte o manual do usuário do AXIS Camera Station.

  1. Criação de um acionador de eventos
  2. Clique em e vá para Configuration > Recording and events > Action rules (Configuração > Gravação e eventos > Regras de ação) e clique em New (Nova).

  3. Clique em Add (Adicionar) para adicionar um acionador.

  4. Selecione Device event (Evento de dispositivo) na lista de acionadores e clique em OK.

  5. Na seção Configure device event trigger (Configurar acionador de evento de dispositivo):

    • Em Device (Dispositivo), selecione a câmera.

    • Em Event (Evento), selecione um dos cenários para o AXIS Object Analytics.

    • Em Trigger period (Período de acionamento), defina um intervalo de tempo entre dois acionadores sucessivos. Use essa função para reduzir o número de gravações sucessivas. Se um acionador adicional ocorrer dentro desse intervalo, a gravação continuará e o período do acionador recomeçará desse ponto.

  6. Em Filters (Filtros), defina active (ativo) como Yes (Sim).

  7. Clique em OK.

  1. Criação de ações para gerar alarmes e gravar vídeo
  2. Clique em Next (Avançar).

  3. Clique em Add (Adicionar) para adicionar uma ação.

  4. Selecione Raise alarm (Acionar alarme) na lista de ações e clique em OK.

  5. Observação

    A mensagem de alarme é o que o operador vê quando um alarme é acionado.

  6. Na seção Alarm message (Mensagem de alarme), insira um título e uma descrição para o alarme.

  7. Clique em OK.

  8. Clique em Add (Adicionar) para adicionar outra ação.

  9. Selecione Record (Gravar) na lista de ações e clique em OK.

  10. Na lista de câmeras, selecione a câmera que será usada para gravação.

  11. Importante

    Para incluir sobreposições de metadados na gravação, certifique-se de selecionar um perfil com a mesma resolução que foi selecionada para sobreposições de metadados no aplicativo.

  12. Selecione um perfil e defina o pré-buffer e o pós-buffer.

  13. Clique em OK.

  1. Especificação de quando o alarme está ativo
  2. Clique em Next (Avançar).

  3. Se desejar que o alarme permaneça ativo em determinados horários, selecione Custom schedule (Agendamento personalizado).

  4. Selecione um agendamento na lista.

  5. Clique em Next (Avançar).

  6. Insira um nome para a regra.

  7. Clique em Finish (Concluir).

Observação

Para ver as sobreposições de metadados na visualização ao vivo, certifique-se de selecionar o perfil de streaming compatível com aquele que você definiu no aplicativo.

Integração de dados de contagem

Os cenários de contagem de cruzamento de linhas e ocupação na área produzem metadados sobre objetos contados. Para visualizar os dados e analisar as tendências ao longo do tempo, é possível configurar uma integração a um aplicativo de terceiros. Com esse método, é possível apresentar dados de uma ou várias câmeras. Para saber mais sobre como configurar a integração, consulte as diretrizes na AXIS Developer Community.

Solução de problemas

Problemas na detecção de objetos

...quando a imagem é instável

Ative a Electronic image stabilization (EIS) (Estabilização eletrônica de imagem (EIS)) na guia Image (Imagem) da página da Web do produto.

...nas bordas da imagem, onde a imagem parece distorcida

Ative a Barrel distortion correction (BDC) (Correção de distorção cilíndrica) na guia Image (Imagem) da página da Web do produto.

...imediatamente

Os objetos precisam estar totalmente visíveis na cena antes de serem detectados pelo aplicativo.

...em outras situações

Isso pode ocorrer ser porque os objetos se mesclam ao fundo quando são da mesma cor, ou porque há iluminação inadequada na cena. Tente melhorar a iluminação.

Problemas com alarmes falsos

...devido a pequenos animais que parecem grandes na imagem

Calibre a perspectiva. Consulte Calibre a perspectiva..

Problemas na contagem de objetos

...devido a objetos fixos que parecem seres humanos ou veículos ao usar a ocupação na área

Os objetos precisam estar totalmente visíveis na cena. O aplicativo conta objetos móveis e fixos que ocupam os cenários de área, o que aumenta o risco de detecções falsas. Adicione uma área de exclusão para ignorar objetos fixos semelhantes a pessoas ou veículos.

Problemas com sobreposições de metadados

...em um segundo cliente

As sobreposições de metadados só são visíveis para um cliente por vez.

Problemas com o stream de vídeo

...no navegador Firefox para câmeras de alta resolução

Experimente usar o navegador Google Chrome™.

Filtros

Se você tiver configurado o aplicativo para detectar qualquer movimento, poderá enfrentar alarmes falsos. Para evitar que isso ocorra, você pode usar filtros.

Objetos de curta duração –
Use esta opção para ignorar objetos que só aparecem na imagem por um curto período de tempo.
Objetos pequenos –
Use esta opção para ignorar objetos pequenos.
Objetos oscilantes –
Use esta opção para ignorar objetos que se movem apenas por uma curta distância.

Recomendações do filtro

  • Os filtros são aplicados a todos os objetos móveis encontrados pelo aplicativo, e devem ser configurados com cuidado para garantir que nenhum objeto importante seja ignorado.

  • Configure um filtro de cada vez e teste-o antes de ativar outro filtro.

  • Altere as configurações do filtro cuidadosamente até atingir o resultado desejado.

O filtro de objetos de curta duração

Use o filtro de objetos de curta duração para evitar a detecção de objetos que só aparecem por um curto período, como faróis de carros em movimento ou sombras de deslocamento rápido.

Quando você ativar o filtro de objetos de curta duração e o aplicativo encontrar um objeto em movimento, o objeto não iniciará uma ação até que o tempo definido transcorra. Se a ação for usada para iniciar uma gravação, configure a hora do pré-acionador para que a gravação também inclua o momento em que o objeto se moveu na cena antes de acionar a ação.

Configuração do filtro de objetos de curta duração

  1. Clique em Scenarios (Cenários) e selecione um cenário existente ou clique em + para criar um novo cenário.

  2. Clique em Triggering objects (Objetos acionadores) e certifique-se de que a opção Any motion (Qualquer movimento) esteja selecionada.

  3. Vá para Filters > Short-lived objects (Filtros > Objetos de curta duração).

  4. Insira o número de segundos no campo. O número de segundos é o tempo mínimo a ser decorrido antes que o objeto acione uma ação. Comece com um número pequeno.

  5. Se o resultado não for satisfatório, aumente o tempo do filtro em pequenas etapas.

O filtro de objetos oscilantes

O filtro de objetos oscilantes ignora objetos que só se movem por distâncias curtas, por exemplo, folhagens ou bandeiras oscilantes e suas sombras. Se os objetos oscilantes forem grandes, por exemplo, grandes lagos ou árvores, use áreas de exclusão em vez de usar o filtro. O filtro é aplicado a todos os objetos oscilantes detectados e, se o valor for muito grande, objetos importantes podem não iniciar ações.

Quando o filtro de objetos oscilantes estiver ativado e o aplicativo detectar um objeto, o objeto não acionará uma ação até que ele tenha se movido por uma distância maior do que o tamanho do filtro.

Configuração do filtro de objetos oscilantes

O filtro ignora qualquer objeto se movendo por uma distância mais curta do que entre o centro e a borda da elipse.

Observação
  • O filtro se aplica a todos os objetos na imagem, não apenas aos objetos na mesma posição que a elipse de configuração.
  • Recomendamos que você comece com um tamanho pequeno de filtro.
  1. Clique em Scenarios (Cenários) e selecione um cenário existente ou clique em + para criar um novo cenário.

  2. Clique em Triggering objects (Objetos acionadores) e certifique-se de que a opção Any motion (Qualquer movimento) esteja selecionada.

  3. Vá para Filters > Swaying objects (Filtros > Objetos oscilantes).

  4. Digite até onde os objetos podem se mover, como uma porcentagem da tela, antes que uma ação seja acionada.

O filtro de objetos pequenos

O filtro de objetos pequenos reduz alarmes falsos ignorando objetos que são pequenos, como, por exemplo, pequenos animais.

Observação
  • O filtro aplica-se a todos os objetos na imagem, não apenas aos objetos na mesma posição que o retângulo de configuração.
  • O aplicativo ignora objetos que são menores que ambos os valores de largura e altura fornecidos.

Configuração do filtro de objetos pequenos

  1. Clique em Scenarios (Cenários) e selecione um cenário existente ou clique em + para criar um novo cenário.

  2. Clique em Triggering objects (Objetos acionadores) e certifique-se de que a opção Any motion (Qualquer movimento) esteja selecionada.

  3. Vá para Filters > Small objects (Filtros > Objetos pequenos).

  4. Observação

    Se você calibrou a perspectiva, insira a largura e a altura dos objetos a serem ignorados em centímetros (pol.), em vez de como um percentual da imagem.

  5. Insira a largura e a altura dos objetos a serem ignorados como percentuais da imagem.