Visão geral da solução
Sobre o aplicativo
O AXIS Object Analytics detecta, classifica e conta objetos móveis, especificamente pessoas ou veículos. Você pode configurar cenários com diferentes condições para a detecção, como objetos que se movem ou permanecem por um tempo superior ao definido dentro de uma área predefinida ou que cruzam uma linha definida. Quando os objetos são detectados ou contados, os dispositivos de rede Axis ou software de terceiros podem executar ações diferentes, como gravar vídeo, reproduzir uma mensagem de áudio ou alertar a equipe de segurança.
Considerações
Para proporcionar os melhores resultados, a câmera deve ser montada corretamente. Há requisitos para a cena, a imagem e os objetos. As considerações neste capítulo são genéricas. Para obter as considerações específicas do produto, consulte o manual do usuário de seu produto em help.axis.com.
Esta imagem ilustra uma câmera montada corretamente.
Posição de montagem
Se você montar a câmera de modo que sua visão seja orientada de cima para baixo, será difícil para o aplicativo classificar objetos.
Tilt
A câmera deve estar suficientemente orientada para o chão para que o centro da imagem esteja abaixo do horizonte. Monte a câmera para que a distância de detecção mínima seja mais longa que a altura de montagem da câmera (distância de detecção mínima > altura de montagem da câmera / 2).
Área de detecção
O ponto de detecção de um objeto deve estar dentro da área de detecção. O ponto de detecção de uma pessoa são os pés e o de um veículo é seu centro.
Distância máxima de detecção
- A distância máxima de detecção depende dos seguintes fatores:
Tipo e modelo da câmera
Da lente da câmera. Uma faixa focal maior permite uma distância mais longa de detecção.
Condições climáticas. Por exemplo, chuva forte ou nevascas podem afetar a distância de detecção e precisão.
Iluminação. A precisão e o alcance de detecção podem ser afetados por iluminação insuficiente.
Carga da câmera
Recomendamos usar o AXIS Site Designer para determinar a distância de detecção máxima para diferentes modelos de câmeras em seu site.
Rolar
O ângulo de rolagem da câmera deve ser quase igual a zero. Isso significa que a imagem deveria estar nivelada com o horizonte.
Campo de visão
O campo de visão da câmera deve ser fixo.
Vibrações
O aplicativo tolera pequenas vibrações da câmera, mas você obtém o melhor desempenho quando a câmera não está sujeita a vibrações.
Tamanho do objeto
Para que uma pessoa seja detectada, a altura mínima deverá ser 4% da altura total da imagem. Para um veículo, a altura mínima deverá ser 3% da altura total da imagem. No entanto, isso requer condições de imagem perfeitas e ausência de obstruções na exibição. Para minimizar o risco de detecções perdidas, recomenda-se uma altura de pelo menos 8% para seres humanos e 6% para veículos.
Visibilidade do objeto
A precisão da detecção poderá ser afetada:
Se os objetos estiverem somente parcialmente visíveis, por exemplo, folhagem. É particularmente importante que recursos característicos, como pernas ou rodas, estejam visíveis.
Quando a cena está cheia de objetos que frequentemente se sobrepõem uns aos outros. Por exemplo, quando há um congestionamento de tráfego, ou em um estacionamento.
Contraste
- É necessário haver um certo nível de contraste entre objetos e o fundo. Névoa, reflexões causadas por luz direta na câmera ou uma imagem excessivamente ruidosa podem causar problemas de contraste. Você pode aumentar o nível de iluminação e ajustar as configurações da imagem para melhorar o nível de contraste.
Quando você usa uma câmera de dia e noite com iluminação artificial, recomendamos pelo menos 50 lux em toda a área de detecção.
Ao usar iluminação IR interna, a distância de detecção máxima depende da câmera e do ambiente.
Movimento esperado de objetos na cena
Objetos que abordam a câmera em uma linha reta precisam se mover por um tempo maior antes de serem detectados comparados a objetos que se movem perpendicularmente ao campo de visão da câmera.
Pose humana
As pessoas precisam se mover em uma posição um pouco vertical.
Movimento do objeto
Os objetos precisam se mover na cena por pelo menos 2 segundos.
Configurações recomendadas da imagem
Antes de você começar a usar o aplicativo, recomendamos que você ative o Forensic WDR e a correção de distorção de barril se estiverem disponíveis para a sua câmera.
- Condições em que as detecções podem ser atrasadas ou perdidas
- Observação
Estas condições não são relevantes para câmeras de fusão radar-vídeo.
Nevoeiro
Luz direta que brilha na câmera
Luz inadequada
Imagem excessivamente barulhenta
- Situações que podem acionar alarmes falsos
Pessoas ou veículos parcialmente escondidos. Por exemplo, uma pequena van exibida atrás de uma parede pode parecer uma pessoa, pois o veículo é alto e estreito.
Insetos na lente da câmera. Observe que as câmeras diurnas e noturnas com manchas infravermelhas atraem insetos e aranhas.
Uma combinação de faróis de carro e chuva pesada.
Animais de tamanho humano.
Luz forte causando sombras.
Início
Faça login na interface do dispositivo como administrador e vá para Apps > AXIS Object Analytics (Aplicativos > AXIS Object Analytics).
Inicie o aplicativo e clique em Open (Abrir).
Na tela de boas-vindas, clique em Step-by-step (Passo a passo) para seguir o procedimento de configuração recomendado.
Em Considerations (Considerações), leia as informações.
Clique em + New scenario (+ Novo cenário).
Selecione o que você deseja que o cenário faça:
Object in area (Objeto na área): detecta e classifica objetos que se movem dentro de uma área definida.
Cruzamento de linhas: detecta e classifica objetos que cruzam uma linha definida.
Time in area (Tempo na área): detecta e classifica objetos que permanecem muito tempo em uma área.
Contagem de cruzamentos de linhas: conta e classifica objetos que cruzam uma linha definida.
Ocupação na área: classifica e estima o número de objetos dentro de uma área definida a qualquer momento.
Motion in area (Movimento na área): detecta qualquer tipo de objeto que se mova dentro de uma área definida.
Motion line crossing (Cruzamento de linha de movimento): detecta qualquer tipo de objeto que cruze uma linha definida.
- Para saber mais sobre os diferentes cenários, consulte Cenários de área e Cenários de cruzamento de linhas.
Selecione o tipo de objeto que deseja que o aplicativo detecte.
Leia mais sobre a Classificação de objetos.
Para câmeras PTZ, você pode optar por restringir a detecção a uma posição predefinida específica. Selecione-a na lista.
Configure seu cenário.
Para saber como ajustar a linha padrão ou a área de inclusão, consulte Ajuste a linha ou área virtual.
Verifique as configurações e clique em Finish (Concluir).
Você criou um cenário. Para renomeá-lo ou modificá-lo, clique em Open (Abrir).
Para criar mais cenários, clique em + New scenario (+ Novo cenário).
Ajuste a linha ou área virtual
Para remodelar uma linha ou área virtual, clique e arraste um dos pontos de âncora.
Para mover uma linha ou área virtual, clique e arraste-a.
Para remover um canto, clique com botão direito no canto.
- Linha virtual
Para alterar a direção na qual os objetos devem se mover para serem detectados, clique em Scene > Change trigger direction (Cena > Alterar direção do acionador). As setas vermelhas próximo à linha mostram a direção atual. As ações são acionadas quando os objetos cruzam a linha na direção das setas.
Para redefinir a linha virtual para o seu tamanho padrão, clique em Scene > Reset line (Cena > Redefinir linha).
Se você modificou a linha virtual em um cenário existente, poderá copiar a forma, a posição e a direção do acionador da linha para um novo cenário. Para copiar uma linha virtual, vá para Copy virtual line from an existing scenario (Copiar linha virtual de um cenário existente) e selecione um cenário na lista suspensa.
- de exclusão
Para criar uma área dentro da área de inclusão na qual você não deseja que objetos sejam detectados, clique em + Add exclude area (+ Adicionar área de exclusão).
Se você modificou a área de inclusão em um cenário existente, poderá copiar a forma e a posição da área para um novo cenário. Para copiar uma área de inclusão, vá para Copy area of interest from an existing scenario (Copiar área de interesse de um cenário existente) e selecione um cenário na lista suspensa
Configure o aplicativo.
Modificar um cenário
Para modificar um cenário, clique em Scenarios (Cenários) e clique em Open (Abrir) no cartão do cenário.
- Para todos os tipos de cenários:
Para renomear o cenário, clique em .
Para alterar que tipos de objetos que serão detectados, clique em Triggering objects (Objetos acionadores).
Para ajustar a linha ou área virtual, clique em Scene (Cena).
- Para tempo em cenários de área:
Use a configuração avançada Keep the rule active as long as the object is tracked (Manter a regra ativa enquanto o objeto for monitorado) se, ao criar uma regra na interface Web do dispositivo, a regra tiver uma ação com a opção “…enquanto a regra está ativa“. Isso fará com que a regra permaneça ativa, contanto que o objeto seja acompanhado e esteja dentro da área de inclusão, e não apenas pela duração do alarme.
Para obter um exemplo de como configurar esse ajuste, consulte Gravar vídeo quando uma pessoa permanecer muito tempo em uma área.
- Em cenários de contagem de cruzamentos de linhas:
Para redefinir as contagens diariamente, clique em Crossline counting (Contagem de cruzamentos de linhas) e ative Reset counts at midnight (Redefinir contagens à meia-noite).
Para redefinir contagens uma vez, clique em Crossline counting (Contagem de cruzamentos de linhas) e clique em Reset counts (Redefinir contagens).
- Observação
O aplicativo armazena os dados de contagem por 35 dias, independentemente do seu tipo de armazenamento.
Para enviar eventos com dados de contagem em intervalos de um minuto, ative Event interval (Intervalo de eventos).
- Para ocupação em cenários de área:
Para disparar ações com base nos níveis de ocupação na área de interesse, configure um Occupancy threshold (Limite de ocupação).
Para disparar ações quando o limite de ocupação tiver sido válido por um tempo definido, defina o número de segundos em Trigger action after set time (Acionar a ação após o tempo definido).
Para enviar eventos com dados de ocupação em intervalos de um minuto, ative Event interval (Intervalo de eventos). O evento inclui a ocupação mínima, máxima e média durante o intervalo.
- Para cenários de movimento na área e cruzamento de linha de movimento:
Use filtros para reduzir o número de alarmes falsos por conta de objetos pequenos, oscilantes ou de curta duração. Para obter instruções e mais informações, consulte Usar filtros.
Calibre a perspectiva.
Não é possível calibrar a perspectiva em todos os tipos de dispositivos, por exemplo, em determinadas câmeras panorâmicas.
Se a cena possui profundidade significativa, é necessário calibrar a perspectiva para remover os alarmes falsos causados por objetos pequenos. Durante a calibração, o aplicativo compara a altura dos objetos conforme são exibidos na imagem com as alturas reais dos objetos físicos correspondentes. O aplicativo usa a perspectiva calibrada para calcular o tamanho do objeto.
Coloque barras verticais na imagem para calibrar a perspectiva. As barras representam objetos físicos em distâncias diferentes a partir da câmera.
Vá para Settings > Advanced > Perspective (Configurações > Avançado > Perspectiva) e clique em +.
Na visualização ao vivo, escolha dois objetos de altura igual e conhecida, localizados no chão e a distâncias diferentes da câmera.
Você pode usar, por exemplo, estacas de cerca ou uma pessoa.
Coloque as barras perto dos objetos e ajuste o comprimento de cada barra na altura do objeto.
Selecione os cenários aos quais deseja aplicar a perspectiva.
Insira a altura dos objetos em Perspective bar height (Altura da barra de perspectiva).
Clique em Salvar.
Exemplo
Se houver uma cerca com estacas de 2 metros de altura se estendendo da câmera em direção ao horizonte, posicione as barras nas estacas da cerca, ajuste seus comprimentos e insira 200 cm (6 pés e 7 pol.) nos campos.
Certifique-se de que as barras não se sobreponham na altura.
Adição de sobreposições de metadados permanentes a streams de vídeo
Para mostrar o evento que foi detectado no stream de vídeo ao vivo e gravado, ative a sobreposição de metadados. Quando você ativa a sobreposição de metadados, o aplicativo mostra:
Um retângulo em volta dos objetos detectados.
A área ou a linha do cenário em que o objeto foi detectado.
Para contagem de cruzamento de linha: uma tabela com a contagem acumulada por tipo de objeto.
Para permanência em área: uma tabela com o número estimado de acordo com o tipo de objeto no momento determinado.
Se você ativar as trajetórias, o aplicativo também mostrará uma linha que mostra o caminho que um objeto percorreu.
Se vários cenários forem acionados ao mesmo tempo, as sobreposições serão mostradas para todos eles em todos os streams com essa resolução selecionada.
As sobreposições de metadados são gravadas nas sobreposições de alarme na resolução selecionada do stream de vídeo. Não é possível removê-las do vídeo gravado.
Se você usa áreas de exibição, as sobreposições de metadados só aparecem na primeira área de exibição. O nome padrão da primeira área de exibição é View area 1 (Área de exibição 1).
Na página da Web do aplicativo, vá para Settings > Advanced (Configurações > Avançado) e, dependendo da câmera:
Ative a Metadata overlay (Sobreposição de metadados).
Em Metadata overlay (Sobreposição de metadados), selecione a resolução na qual as sobreposições de metadados adicionadas permanentemente serão exibidas. Você só pode selecionar uma resolução, e a configuração aplica-se a todos os cenários.
Para mostrar o caminho que um objeto percorreu, selecione Trajectories (Trajetórias).
Restringir a detecção a uma posição predefinida de PTZ
Para câmeras PTZ, você pode restringir a detecção a uma posição predefinida específica.
Vá para Scenarios (Cenários) e clique em Open (Abrir) em um cartão de cenário ou clique em + para criar um novo cenário.
Clique em Scene (Cena) e selecione uma posição predefinida na lista.
Cada vez que a posição predefinida de PTZ for alterada, o aplicativo precisará recalibrar. Recomendamos aguardar pelo menos 15 segundos antes de alternar entre as posições predefinidas em um guard tour.
Usar filtros
Use filtros para reduzir o risco de alarmes falsos em cenários de movimento na área ou cruzamento da linha de movimento.
Short-lived objects (Objetos de curta duração): ignora objetos que só aparecem na imagem por um curto período.
Swaying objects (Objetos oscilantes): ignora objetos que se movem apenas por uma distância curta.
Small objects (Objetos pequenos): ignora objetos pequenos.
Recomendações do filtro
Os filtros são aplicados a todos os objetos móveis encontrados pelo aplicativo, e devem ser configurados com cuidado para garantir que nenhum objeto importante seja ignorado.
Configure um filtro de cada vez e teste-o antes de ativar outro filtro.
Altere as configurações do filtro cuidadosamente até atingir o resultado desejado.
Ignorar objetos de curta duração
Use o filtro de objetos de curta duração para evitar a detecção de objetos que só aparecem por um curto período, como faróis de carros em movimento ou sombras de deslocamento rápido.
Quando você ativar o filtro de objetos de curta duração e o aplicativo encontrar um objeto em movimento, o objeto não iniciará uma ação até que o tempo definido transcorra. Se a ação for usada para iniciar uma gravação, configure a hora do pré-acionador para que a gravação também inclua o momento em que o objeto se moveu na cena antes de acionar a ação.
Clique em Scenarios (Cenários) e depois em + para criar um novo cenário.
Selecione Motion in area (Movimento na área) ou Motion line crossing (Cruzamento de linha de movimento).
Ative Short-lived objects (Objetos de curta duração.
Insira o número de segundos no campo: O número de segundos é o tempo mínimo que deve decorrer antes que o objeto acione uma ação no sistema de gerenciamento de eventos do dispositivo. Comece com um número pequeno.
Se o resultado não for satisfatório, aumente o tempo do filtro em pequenas etapas.
Ignorar objetos balançando
O filtro de objetos oscilantes ignora objetos que só se movem por distâncias curtas folhagens ou bandeiras oscilantes e suas sombras. Se os objetos oscilantes forem grandes, por exemplo, grandes lagos ou árvores, use áreas de exclusão em vez de usar o filtro. O filtro é aplicado a todos os objetos oscilantes detectados e, se o valor for muito grande, objetos importantes podem não iniciar ações.
Quando o filtro de objetos oscilantes estiver ativado e o aplicativo detectar um objeto, o objeto não acionará uma ação até que ele tenha se movido por uma distância maior do que o tamanho do filtro.
O filtro ignora qualquer objeto se movendo por uma distância mais curta do que entre o centro e a borda da elipse.
- Recomendamos que você comece com um tamanho pequeno de filtro.
Clique em Scenarios (Cenários) e depois em + para criar um novo cenário.
Selecione Motion in area (Movimento na área).
Ative Swaying objects (Objetos oscilantes).
Digite até onde os objetos podem se mover, como uma porcentagem da tela, antes que uma ação seja acionada.
Ignorar objetos pequenos
O filtro de objetos pequenos reduz alarmes falsos ignorando objetos que são pequenos, como pequenos animais.
- O filtro aplica-se a todos os objetos na imagem, não apenas aos objetos na mesma posição que o retângulo de configuração.
- O aplicativo ignora objetos que são menores que ambos os valores de largura e altura fornecidos.
Clique em Scenarios (Cenários) e depois em + para criar um novo cenário.
Selecione Motion in area (Movimento na área) ou Motion line crossing (Cruzamento de linha de movimento).
Ative Small objects (Objetos pequenos).
- Observação
Se você calibrou a perspectiva, insira a largura e a altura dos objetos a serem ignorados em centímetros (pol.), em vez de como um percentual da imagem.
Insira a largura e a altura dos objetos a serem ignorados como percentuais da imagem.
Configuração de regras de eventos
Para saber mais, consulte nosso guia Introdução a regras de eventos.
Gravar vídeo quando um objeto é detectado
Este exemplo a seguir explica como configurar o dispositivo Axis para gravar vídeo em um cartão SD quando o aplicativo detecta um objeto.
Na interface da Web do dispositivo, acesse Apps (Aplicativos) e certifique-se de que o aplicativo esteja sendo executado.
Para verificar se o cartão SD está montado, vá para System > Storage (Sistema > Armazenamento).
vá para System > Events (Sistema > Eventos) e adicione uma regra.
Digite um nome para a regra.
Na lista de condições, em Application (Aplicação), selecione o cenário de aplicação. Para acionar a mesma ação para todos os cenários definidos, selecione Object Analytics: Any Scenario (Análise de objetos: Qualquer cenário).
Na lista de ações, em Recordings (Gravações), selecione Record video (Gravar vídeo).
Na lista de opções de armazenamento, selecione SD-DISK.
Selecione uma Camera (Câmera) e um Stream profile (Perfil de stream).
Para mostrar sobreposições de metadados, certifique-se de ativá-la no aplicativo para a mesma resolução usada no perfil de stream.
- Observação
Não recomendamos o uso de um cenário com tempo na área para acionar as gravações se o tempo em que um objeto pode permanecer dentro da área de inclusão for superior 30 segundos. O motivo é que é difícil usar um tempo de pré-buffer superior a 30 segundos, o que é necessário se você deseja ver o que aconteceu antes do objeto ser detectado.
Se deseja iniciar a gravação antes de o objeto ser detectado, insira um tempo de Prebuffer (Pré-buffer).
Clique em Salvar.
Para testar a regra, vá para a página da Web do aplicativo e abra o cenário. Clique em Test alarm (Testar alarme). Isso gera um evento, como se o cenário o tivesse acionado de fato. Se tiver ativado sobreposições de metadados, um retângulo vermelho ou azul será exibido.
Gravar vídeo quando uma pessoa permanecer muito tempo em uma área
Este exemplo explica como configurar um dispositivo Axis para gravar vídeo em um cartão SD quando o aplicativo detecta uma pessoa que permanece muito tempo em uma área definida.
- Na interface Web do dispositivo:
Vá para Apps (Aplicativos) e certifique-se de que o aplicativo seja iniciado.
Vá para System > Storage (Sistema > Armazenamento) e verifique se o cartão SD está montado.
- No AXIS Object Analytics:
Em Scenarios (Cenários), clique em + New scenario (+ Novo cenário).
Selecione Time in area (Tempo na área) e clique em Next (Avançar).
Selecione Human (Pessoa) e clique em Next (Avançar).
Ajuste a área de interesse de acordo com suas necessidades.
Em Time in area settings (Configurações de tempo na área), defina o tempo durante a qual o humano pode permanecer na área.
Clique em Finish (Concluir).
Abra o cenário que acabou de criar.
Vá para Triggering objects > Time in area > Advanced (Objetos acionadores > Tempo na área > Avançado) e clique em Keep the rule active as long as the object is tracked (Manter a regra ativa enquanto o objeto for monitorado).
Isso permite manter a regra criada na interface Web do dispositivo ativa, desde que o objeto seja rastreado, e não apenas pela duração do alarme.
- Na interface Web do dispositivo:
vá para System > Events (Sistema > Eventos) e adicione uma regra.
Digite um nome para a regra.
Na lista de condições, em Application (Aplicação), selecione o cenário de aplicação.
Na lista de ações, em Recordings (Gravações), selecione Record video while the rule is active (Gravar vídeo enquanto a regra estiver ativa).
Na lista de opções de armazenamento, selecione SD-DISK.
Selecione uma Camera (Câmera) e um Stream profile (Perfil de stream).
Para mostrar sobreposições de metadados, certifique-se de ativá-la no aplicativo para a mesma resolução usada no perfil de stream.
- Observação
Não recomendamos o uso de um cenário com tempo na área para acionar as gravações se o tempo em que um objeto pode permanecer dentro da área de inclusão for superior 30 segundos. O motivo é que é difícil usar um tempo de pré-buffer superior a 30 segundos, o que é necessário se você deseja ver o que aconteceu antes do objeto ser detectado.
Se deseja iniciar a gravação antes de o objeto ser detectado, insira um tempo de Prebuffer (Pré-buffer).
Clique em Salvar.
- No AXIS Object Analytics:
Para testar a regra, abra o cenário e clique em Test alarm (Testar alarme). Isso gera um evento, como se o cenário o tivesse acionado de fato.
Envie um email quando 100 veículos passaram
Com a contagem de cruzamentos de linhas e a funcionalidade de limiar de passagem, você poderá receber notificações sempre que um número de objetos definido pelo usuário cruzar a linha.
Este exemplo explica como configurar uma regra para enviar um email sempre que 100 veículos passarem.
Antes de começar
Crie um destinatário de email na interface do dispositivo.
- No AXIS Object Analytics:
Em Scenarios (Cenários), clique em + New scenario (+ Novo cenário).
Selecione Crossline counting (Contegem de cruzamento de linhas) e clique em Next (Avançar).
Limpe Human (Pessoas) dos tipos de objetos listados e clique em Next (Avançar).
Atualize o nome do cenário para
Count vehicles (Contar veículos)
.Ajuste a linha virtual de acordo com suas necessidades.
Ative o Passthrough threshold (Limite de passthrough).
Em Number of counts between events (Número de contagens entre eventos), digite
100
.Clique em Finish (Concluir).
- Na interface Web do dispositivo:
vá para System > Events (Sistema > Eventos) e adicione uma regra.
Digite um nome para a regra.
Na lista de condições, em Application (Aplicativo), selecione Object Analytics: Count vehicles passthrough threshold reached (Análise de objetos: limiar de passagem da contagem de veículos atingido).
Na lista de ações, em Notifications (Notificações), selecione Send notification to email (Enviar notificação para email).
Selecione um destinatário na lista.
Digite um assunto e uma mensagem para o email.
Clique em Salvar.
Ativar uma sirene estroboscópica quando mais de 50 objetos estiverem em uma área definida
Com o recurso de ocupação na área a funcionalidade de limite de passthrough, você pode acionar ações quando um número definido pelo usuário de objetos permanece em uma área.
Este exemplo explica como conectar uma câmera à AXIS D4100-E Network Strobe Siren via MQTT. Quando o AXIS Object Analytics detecta que mais de 50 humanos permaneceram em uma área definida por um minuto, a câmera acionará uma ação que ativa um perfil na sirene de estroboscópica.
- Antes de começar:
Crie um perfil na sirene estroboscópica.
Configure um broker de MQTT e obtenha endereço IP, nome de usuário e senha do agente.
- No AXIS Object Analytics:
Em Scenarios (Cenários), clique em + New scenario (+ Novo cenário).
Selecione Occupancy in area (Ocupaão na área) e clique em Next (Avançar).
Selecione Human (Pessoa) e clique em Next (Avançar).
Atualize o nome do cenário para Max 50 (Máx. 50).
Ajuste a área de interesse de acordo com suas necessidades.
Ative a opção Occupancy threshold (Limite de ocupação).
Defina Number of objects para Mais de 50.
Defina Trigger action after set time (Acionar a ação após o tempo definido) como
60
segundos.Clique em Finish (Concluir).
- Configure o cliente MQTT na interface Web da câmera:
Vá para System > MQTT > MQTT client > Broker (Sistema > MQTT > Cliente MQTT > Broker) e insira as seguintes informações:
Host: endereço IP do broker
Client ID (ID do cliente): por exemplo, Câmera 1
Protocol (Protocolo): o protocolo para o qual o broker está definido
Porta: o número da porta usada pelo broker
O Username (Nome de usuário) e a Password (Senha) do broker
Clique em Save (Salvar) e em Connect (Conectar).
- Crie duas regras para a publicação de MQTT na interface Web da câmera:
Acesse System > Events > Rules (Sistema > Eventos > Regras) e adicione uma regra:
Esta regra ativará a sirene estroboscópica.
Insira as seguintes informações:
Nome: Alarme de limite
Condition (Condição): Applications: Max 50 threshold alarm changed (Aplicativos: Alarme de limite máximo de 50 alterado).
Action (Ação): MQTT > Send MQTT publish message (Enviar mensagem de publicação de MQTT)
Topic (Tópico): Limiar
Payload (Carga): Ativado
QoS: 0, 1 ou 2.
Clique em Salvar.
Adicione outra regra com as seguintes informações:
Esta regra desativará a sirene estroboscópica.
Nome: Sem alarme de limite
Condition (Condição): Aplicativos: Max 50 threshold alarm changed (Aplicativos: Alarme de limite máximo de 50 alterado)
Selecione Invert this condition (Inverter esta condição).
Action (Ação): MQTT > Send MQTT publish message (Enviar mensagem de publicação de MQTT)
Topic (Tópico): Limiar
Payload (Carga): Desativado
QoS: 0, 1 ou 2.
Clique em Salvar.
- Configure o cliente MQTT na interface da Web da sirene estroboscópica:
Vá para System > MQTT > MQTT client > Broker (Sistema > MQTT > Cliente MQTT > Broker) e insira as seguintes informações:
Host: endereço IP do broker
Client ID (ID do cliente): Sirene 1
Protocol (Protocolo): o protocolo para o qual o broker está definido
Porta: o número da porta usada pelo broker
Username (Nome de usuário) e Password (Senha)
Clique em Save (Salvar) e em Connect (Conectar).
Vá para MQTT subscriptions (Assinaturas MQTT) e adicione uma assinatura.
Insira as seguintes informações:
Subscription filter (Filtro de assinatura): Limiar
Subscription type (Tipo de assinatura): Stateful
QoS: 0, 1 ou 2.
Clique em Salvar.
- Crie uma regra para assinaturas MQTT na interface Web da sirene estroboscópica:
Acesse System > Events > Rules (Sistema > Eventos > Regras) e adicione uma regra:
Insira as seguintes informações:
Nome: Movimento detectado
Condition (Condição): MQTT > Stateful
Subscription filter (Filtro de assinatura): Limiar
Payload (Carga): Ativado
Action (Ação): Light and siren > Run light and siren profile while the rule is active (Luz e sirene > Executar perfil de luz e sirene quando a regra está ativa)
Profile (Perfil): Selecione o perfil que deseja ativar.
Clique em Salvar.
Saiba mais
Classificação de objetos
O aplicativo pode classificar dois tipos de objetos: humanos e veículos. O aplicativo mostra um retângulo em torno de objetos classificados. Objetos classificados como pessoas recebem um retângulo vermelho e objetos classificados como veículos recebem um retângulo azul.
Para câmeras com recurso de aprendizado profundo, os veículos podem ser categorizados em caminhões, ônibus, carros, bicicletas e outros.
Se você usar a funcionalidade de tempo na área, o retângulo permanecerá amarelo até que a condição de tempo seja satisfeita. Se o objeto permanecer dentro da área de inclusão por mais 30 segundos, o retângulo se tornará tracejado.
Cada objeto classificado tem um ponto de detecção que o aplicativo usa para decidir se um objeto está dentro ou fora de uma área de inclusão ou quando ele cruza uma linha virtual. Para uma pessoa, o ponto de detecção está nos pés. Para um veículo, é seu centro. Se o pé de uma pessoa ou um centro de veículos for obstruído na visão da câmera, o aplicativo fará uma suposição do local do ponto de detecção.
Recomendamos levar em consideração a localização presumida do ponto de detecção do objeto ao desenhar a área de inclusão ou a linha virtual.
Para obter os melhores resultados possíveis:
Em algum momento, todo o objeto precisa ser visível na cena.
O objeto precisa estar em movimento dentro da cena por pelo menos 2 segundos.
Para câmeras com aprendizado de máquina, os humanos precisam se mover numa posição relativamente ereta. Para câmeras com recurso de aprendizado profundo, isso não é um requisito.
A parte superior do corpo de um humano precisa estar visível
Os objetos precisam se destacar do fundo
Reduza o desfoque por movimento.
Cenários de área
Quando você configuração um cenário de Object in area (Objeto na área), o aplicativo detecta objetos que se movem dentro de uma área definida. A área definida é chamada de área de inclusão.
Com o cenário Time in area (Tempo na área), você pode definir um limite de tempo para a permanência do objeto dentro da área de inclusão antes do aplicativo acionar uma ação. Quando um objeto entra na área de inclusão, o contador de tempo é iniciado. Se o objeto sair da área de inclusão antes do limite de tempo ser atingido, o contador será reiniciado. É o ponto de detecção do objeto que deve estar dentro da área de inclusão para que o contador mantenha a contagem. O recurso de tempo na área é adequada para áreas em que pessoas ou veículos devem permanecer por pouco tempo, como túneis ou pátios escolares após o expediente.
Quando você configura um cenário Ocupação na área, o aplicativo estima quantos objetos estão dentro da área de inclusão em um momento determinado qualquer. Um contador de objetos exibe o número estimado de objetos na área de inclusão no momento. Quando um objeto entra ou sai da área, o contador de objetos se ajusta. A Ocupação na área é adequada para áreas em que você deseja obter uma contagem estimada de um ou vários tipos de objetos, como estacionamentos.
Ao selecionar um cenário de Motion in area (Movimento na área), o aplicativo não classifica os objetos. Em vez disso, ele detectará qualquer objeto em movimento na cena. Por exemplo, animais, folhas balançando, bandeiras ou sombras. Você pode usar filtros para ignorar objetos pequenos, objetos oscilantes ou objetos que só aparecem por um curto período. Para obter mais informações, consulte Usar filtros.
Área de inclusão
A área de inclusão é a área na qual o aplicativo detecta e conta tipos de objeto selecionados. O aplicativo inicia ações para objetos se o ponto de detecção estiver dentro da área de inclusão. O aplicativo ignora objetos fora da área de inclusão.
Reformate e redimensione a área de modo que ela cubra somente a parte da cena na qual você deseja detectar e contar objetos. Se você usar a funcionalidade de ocupação na área ou de tempo na área, é importante incluir partes de uma cena que não esteja lotada com objetos que se sobrepõem frequentemente uns aos outros. O retângulo padrão da área de inclusão pode ser alterado para um polígono com até 10 cantos.
Recomendação
Se houver uma rua ou calçada movimentada próximo à área de inclusão, desenhe a área de inclusão de forma que os objetos fora da área de inclusão não sejam detectados acidentalmente. Isso significa que você deve evitar desenhar a área de inclusão perto demais da rua ou calçada movimentada.
Áreas de exclusão
Uma área de exclusão é uma área dentro de uma área de inclusão na qual tipos de objetos selecionados não são detectados ou contados. Use áreas de exclusão se houver áreas dentro da área de inclusão que disparam uma grande quantidade de ações indesejadas. É possível criar até 5 áreas de exclusão.
Mova, reformate e redimensione a área de modo que ela abranja a parte desejada da cena. O retângulo padrão pode ser alterado para um polígono com até 10 cantos.
Recomendação
Coloque as áreas de exclusão dentro da área de inclusão. Use áreas de exclusão para cobrir áreas em que você não deseja detectar objetos.
Cenários de cruzamento de linhas
Quando você configura uma cenário de Line crossing (Cruzamento de linha), o aplicativo detecta objetos que cruzam uma linha definida virtualmente.
Com o cenário Crossline counting (Contagem de cruzamentos de linhas), o aplicativo detecta e conta os objetos que cruzam a linha virtual e exibe a contagem acumulada em uma tabela.
Quando você seleciona um cenário de Motion line crossing (Cruzamento de linha de movimento), o aplicativo não classifica os objetos. Em vez disso, ele detecta qualquer objeto que cruze a linha virtual. Para ignorar objetos pequenos ou objetos que só aparecem por um curto período, é possível usar filtros. Para obter mais informações, consulte Usar filtros.
A linha virtual é uma linha amarela na imagem. Objetos do tipo selecionado que cruzam a linha em uma determinada direção são detectados. As setas vermelhas na linha mostram a direção atual. As ações são acionadas quando os objetos cruzam a linha na direção indicada pelas setas.
Para acionar uma ação, o objeto deve cruzar a linha. Conforme mostrado na ilustração, o ponto de detecção do objeto deve cruzar a linha para que a ação seja acionada. Objetos que só tocam na linha não iniciam ações.
Na ilustração à esquerda, o homem não inicia uma ação, pois seu ponto de detecção ainda não ultrapassou a linha.
Na ilustração à direita, o homem inicia uma ação, pois seu ponto de detecção cruza a linha.
Para obter informações sobre o ponto de detecção, consulte Classificação de objetos.
Recomendações para a linha virtual
- Ajuste a linha virtual de modo que:
seja improvável que haja objetos esperando na linha.
os objetos sejam claramente visíveis na imagem antes de atravessarem a linha.
seja provável que o ponto de detecção de um objeto cruze a linha.
Integração
Configuração de alarmes no AXIS Camera Station
Este exemplo explica como configurar uma regra no AXIS Camera Station para alertar o operador e gravar vídeo que inclui sobreposições de metadados quando o AXIS Object Analytics detecta um objeto.
Antes de começar
- Você precisa do:
uma câmera em rede Axis com AXIS Object Analytics configurado e em execução, consulte Início.
sobreposições de metadados ativadas no aplicativo, consulte Adição de sobreposições de metadados permanentes a streams de vídeo.
um computador com o AXIS Camera Station instalado
- Adição da câmera ao AXIS Camera Station
No AXIS Camera Station, adicione a câmera. Consulte o manual do usuário do AXIS Camera Station.
- Crie um dispositivo acionador de evento
Clique em e vá para Configuration > Recording and events > Action rules (Configuração > Gravação e eventos > Regras de ação) e clique em New (Nova).
Clique em Add (Adicionar) para adicionar um acionador.
Selecione Device event (Evento de dispositivo) na lista de acionadores e clique em OK.
Na seção Configure device event trigger (Configurar acionador de evento de dispositivo):
Em Device (Dispositivo), selecione a câmera.
Em Event (Evento), selecione um dos cenários para o AXIS Object Analytics.
Em Trigger period (Período de acionamento), defina um intervalo de tempo entre dois acionadores sucessivos. Use essa função para reduzir o número de gravações sucessivas. Se um acionador adicional ocorrer dentro desse intervalo, a gravação continuará e o período do acionador recomeçará desse ponto.
Em Filters (Filtros), defina active (ativo) como Yes (Sim).
Clique em OK.
- Criação de ações para gerar alarmes e gravar vídeo
Clique em Next (Próximo).
Clique em Add (Adicionar) para adicionar uma ação.
Selecione Raise alarm (Acionar alarme) na lista de ações e clique em OK.
- Observação
A mensagem de alarme é o que o operador vê quando um alarme é acionado.
Na seção Alarm message (Mensagem de alarme), insira um título e uma descrição para o alarme.
Clique em OK.
Clique em Add (Adicionar) para adicionar outra ação.
Selecione Record (Gravar) na lista de ações e clique em OK.
Na lista de câmeras, selecione a câmera que será usada para gravação.
- Importante
Para incluir sobreposições de metadados na gravação, certifique-se de selecionar um perfil com a mesma resolução que foi selecionada para sobreposições de metadados no aplicativo.
Selecione um perfil e defina o pré-buffer e o pós-buffer.
Clique em OK.
- Especifique quando o alarme estará ativo
Clique em Next (Próximo).
Se desejar que o alarme permaneça ativo em determinados horários, selecione Custom schedule (Cronograma personalizado).
Selecione uma programação da lista.
Clique em Next (Próximo).
Insira um nome para a regra.
Clique em Finish (Concluir).
Para ver as sobreposições de metadados na visualização ao vivo, certifique-se de selecionar o perfil de streaming compatível com aquele que você definiu no aplicativo.
Integração de dados de contagem
Os cenários de contagem de cruzamento de linhas e ocupação na área produzem metadados sobre objetos contados. Para visualizar os dados e analisar as tendências ao longo do tempo, é possível configurar uma integração a um aplicativo de terceiros. Com esse método, é possível apresentar dados de uma ou várias câmeras. Para saber mais sobre como configurar a integração, consulte as diretrizes na AXIS Developer Community.
Solução de problemas
Problemas na detecção de objetos | |
...quando a imagem é instável | Ative o EIS (Electronic image stabilization, estabilização eletrônica de imagem) na guia Image (Imagem) na interface Web do dispositivo. |
…nas bordas da imagem, onde a imagem parece distorcida | Ative a BDC (Barrel distortion correction, Correção de distorção de barril) na guia Image (Imagem) na interface Web do dispositivo. |
…imediatamente | Os objetos precisam estar totalmente visíveis na cena antes de serem detectados pelo aplicativo. |
...em outras situações | Isso pode ocorrer ser porque os objetos se mesclam ao fundo quando são da mesma cor ou devido a iluminação inadequada na cena. Tente melhorar a iluminação. |
Problemas com alarmes falsos | |||||||||
…devido a pequenos animais que parecem grandes na imagem | Calibre a perspectiva. Consulte Calibre a perspectiva.. | ||||||||
…quando você tiver configurado um cenário de Motion in area (Movimento na área). | O aplicativo não classifica objetos neste cenário. Em vez disso, ele detectará qualquer objeto em movimento na cena. Use filtros para ignorar objetos pequenos, oscilantes ou objetos de curta duração. Consulte Usar filtros. | ||||||||
…quando você tiver configurado um cenário de Motion line crossing (Cruzamento de linha de movimento). | O aplicativo não classifica os objetos. Em vez disso, ele detecta qualquer objeto que cruza a linha virtual. Use filtros para ignorar objetos pequenos ou objetos de curta duração. Consulte Usar filtros. |
Problemas na contagem de objetos | ||||||||||||||||
...devido a objetos fixos que parecem seres humanos ou veículos ao usar a ocupação na área | Os objetos precisam estar totalmente visíveis na cena. O aplicativo conta objetos móveis e fixos que ocupam os cenários de área, o que aumenta o risco de detecções falsas. Adicione uma área de exclusão para ignorar objetos fixos semelhantes a pessoas ou veículos. |
Problemas com sobreposições de metadados | |||||||||||||||||||
...em um segundo cliente | As sobreposições de metadados só são visíveis para um cliente por vez. |
Problemas com o stream de vídeo | ||||||||||||||||||||||
...no navegador Firefox para câmeras de alta resolução | Experimente usar o navegador Google Chrome™. |