AXIS Object Analytics

솔루션 개요

애플리케이션에 대한 정보

AXIS Object Analytics는 움직이는 물체, 특히 사람이나 차량을 감지하고 분류하고 카운트BETA합니다. 미리 정의된 영역 내에서 설정된 시간보다 오래 움직이거나 머무르는,BETA 또는 정의된 선을 넘는 물체와 같은 다양한 감지 조건을 선택할 수 있습니다. 물체를 감지하거나 셀 때 Axis 네트워크 장치 또는 타사 소프트웨어는 비디오 녹화 또는 오디오 메시지 재생을 하거나 보안 직원에게 경고하는 것과 같은 다양한 액션을 수행할 수 있습니다.

고려 사항

최상의 결과를 얻으려면 카메라를 적절하게 장착해야 하며 장면, 이미지 및 객체에 대한 요구 사항이 있습니다.

이 이미지는 적절하게 장착된 카메라를 보여 줍니다.

  1. 마운팅 높이
  2. 틸트
  3. 감지 영역
  4. 최소 감지 거리
  5. 최대 감지 거리

다음 고려 사항은 모든 카메라 유형의 장착에 적용됩니다.

마운트 위치

위에서 내려다 보도록 카메라를 장착하면 응용 프로그램에서 객체를 분류하기 어렵습니다.

Tilt(틸트)

이미지의 중심이 지평선 아래에 있도록 카메라가 지면을 향하게 방향을 충분히 조정해야 합니다. 최소 감지 거리가 카메라 마운팅 높이의 1/2보다 길도록 카메라를 마운트합니다(최소 감지 거리 > 카메라 마운팅 높이/2).

감지 영역

객체의 감지 지점은 감지 영역 안에 있어야 합니다. 사람의 감지 포인트는 발에 있으며 차량은 중앙에 있습니다.

최대 감지 거리

  • 최대 감지 거리는 다음에 따라 다릅니다.
  • 카메라 유형 및 모델

  • 카메라 렌즈. 초점 범위가 높을수록 감지 거리가 길어집니다.

  • 날씨. 예를 들어 폭우나 눈이 감지 거리와 정확도에 영향을 미칠 수 있습니다.

  • 밝게. 조명이 충분하지 않으면 감지 정확도와 범위가 영향을 받을 수 있습니다.

  • 카메라 로드

AXIS Site Designer를 사용하여 귀하의 사이트에서 다양한 카메라 모델에 대한 최대 감지 거리를 결정하는 것을 추천합니다.

Roll(롤)

카메라의 롤 각도는 0에 가까워야 합니다. 이는 이미지가 수평선과 평행을 이루어야 함을 의미합니다.

시야각

카메라의 화각을 고정해야 합니다.

진동

이 애플리케이션은 작은 카메라 진동을 용인하기는 하지만, 카메라가 진동에 영향을 받지 않을 때 최상의 성능을 얻을 수 있습니다.

객체 크기

사람을 감지하기 위한 최소 높이는 전체 이미지 높이의 4%입니다. 차량의 경우 최소 높이는 전체 이미지 높이의 3%입니다. 그러나 이를 위해서는 완벽한 이미지 조건이 필요하고 시야에 방해가 되지 않습니다. 감지를 놓칠 위험을 최소화하려면 사람의 경우 최소 8%, 차량의 경우 6% 이상을 권장합니다.

객체 가시성

감지 정확도가 영향을 받을 수 있습니다.

  • 예를 들어 나뭇잎으로 인해 객체가 부분적으로만 보이는 경우. 다리나 바퀴와 같은 뚜렷한 특징이 보이는 것이 특히 중요합니다.

  • 장면이 객체로 가득 차 있을 때. 예를 들어 교통 체증이 있을 때.

  • 영역 기능 BETA에서 시간을 사용하는 경우: 객체가 자주 서로 겹치는 경우.

Contrast(대비)

  • 물체와 배경 사이에 일정한 수준의 대비가 있어야 합니다. 안개, 카메라에 비치는 직사광선 또는 지나치게 노이즈가 많은 이미지는 대비 문제를 일으킬 수 있습니다. 조명 수준을 높이고 이미지 설정을 조정하여 대비 수준을 향상시킬 수 있습니다.
  • 인공 조명이 있는 주야간 카메라를 사용하는 경우 전체 감지 영역에서 최소 50lux를 권장합니다.

  • 내장 IR 조명을 사용하는 경우 최대 감지 거리는 카메라와 환경에 따라 달라집니다.

장면에서 예상되는 객체의 움직임

카메라에 직선으로 접근하는 물체는 카메라의 화각에 수직으로 움직이는 물체에 비해 감지되기 전에 더 오랜 시간 동안 이동해야 합니다.

사람 포즈

사람은 약간 똑바로 선 자세로 움직여야 합니다.

객체 움직임

객체는 2초 이상 장면 내에서 움직여야 합니다.

권장 이미지 설정

애플리케이션 사용을 시작하기 전에 카메라에서 사용할 수 있는 경우 Forensic WDR 및 술통형 왜곡 보정을 켜는 것이 좋습니다.

오른쪽 이미지는 술통형 왜곡의 예입니다. 술통형 왜곡은 직선이 프레임의 가장자리에 가까워질수록 나타나는 렌즈 효과입니다.
  • 감지가 지연되거나 누락될 수 있는 조건
  • 참고

    이러한 조건은 레이더-영상 융합 카메라와 관련이 없습니다.

  • 안개

  • 카메라에 비치는 직사광선

  • 불충분한 조명

  • 노이즈가 너무 많은 이미지

  • 거짓 알람이 트리거될 수 있는 상황
  • 부분적으로 숨겨진 사람이나 차량. 예를 들어, 작은 밴이 벽 뒤에 가려져 보이는 경우 차량이 높고 좁기 때문에 사람처럼 보일 수 있습니다.

  • 카메라 렌즈에 붙은 곤충. 주야간 카메라의 적외선 포인트로 인해 곤충과 거미가 유인될 수 있습니다.

  • 자동차 헤드라이트와 폭우의 조합

  • 인간 크기의 동물.

  • 강한 빛으로 인한 그림자

시작하기

  1. 장치 인터페이스에 관리자로 로그인하여 Settings > Apps > AXIS Object Analytics(설정 > 앱 > AXIS Object Analytics)로 이동합니다.

  2. 애플리케이션을 선택합니다.

  3. 애플리케이션을 시작하고 Open(열기)을 클릭합니다.

  4. 시작 화면에서 Step-by-step(단계별)을 클릭하여 권장 설정 절차를 따르십시오.

  5. 1단계에서 고려 사항을 확인하십시오.

  6. 2단계에서 애플리케이션이 사람, 차량 또는 둘 다를 감지하도록 할지 선택합니다. 객체 분류에 대해 읽어 보십시오.

  7. 트리거 영역을 선택합니다.

    • Object in area(영역 내 객체) 객체가 정의된 영역 내에서 설정된 시간 BETA 이상 이동하거나 머무를 때 애플리케이션이 감지하도록 하려면 선택합니다.

    • Line crossing(횡단보도) 객체가 정의된 선을 넘어갈 때 애플리케이션이 이를 감지하도록 하려면.

    • Crossline counting(크로스라인 카운팅)BETA 애플리케이션이 정의된 선을 넘는 객체를 계산하도록 하려면.

  8. 자세한 내용은 영역 내 객체라인 횡단 및 크로스라인 카운팅의 내용을 참조하십시오.
  9. PTZ 카메라의 경우 감지를 특정 프리셋 포지션으로 제한하도록 선택할 수 있습니다. 목록에서 선택하십시오.

  10. 객체가 교차해야 하는 기본 선 또는 객체가 이동해야 하는 영역을 조정합니다.

    기본 라인 또는 포함 영역을 조정하는 방법은 가상 라인 또는 영역 조정 항목을 참조하십시오.

  11. 3단계에서 설정을 확인하십시오.

이제 하나의 시나리오를 작성했습니다. 이름을 바꾸거나 수정하려면 Open(열기)를 클릭합니다.

더 많은 시나리오를 만들려면 +를 클릭하십시오.

시나리오 생성: 영역 내 객체
시나리오 생성: 영역 시간
시나리오 생성: 라인 횡단
시나리오 생성: 크로스라인 카운팅

가상 라인 또는 영역 조정

  • 가상 라인 또는 영역의 모양을 변경하려면 앵커 포인트 중 하나를 클릭하고 드래그합니다.

  • 가상 라인이나 영역을 이동하려면 클릭하여 드래그합니다.

  • 모서리를 제거하려면 모서리를 마우스 오른쪽 버튼으로 클릭합니다.

  • 가상 라인
  • 가상 라인을 기본 크기로 재설정하려면 Scene > Reset line(장면> 라인 재설정)을 클릭합니다.

  • 감지하기 위해 객체가 이동해야 하는 방향을 변경하려면 Scene > Change trigger direction(장면 > 트리거 방향 변경)을 클릭합니다. 라인 옆의 빨간색 화살표는 현재 방향을 나타냅니다. 화살표 방향으로 객체가 라인을 통과하면 액션이 트리거됩니다.

  • 영역
  • 포함 영역을 기본 크기로 재설정하려면 Scene(장면) > 순서로 클릭합니다.

  • 포함 영역 내에 객체를 감지하지 않으려는 영역을 만들려면 Scene > Add exclude area(장면> 제외 영역 추가) 순서로 클릭합니다.

애플리케이션을 구성합니다

시나리오 수정

시나리오를 수정하려면 Scenarios(시나리오)를 클릭한 후 시나리오 카드의 Open(열기)을 클릭합니다.

  • 시나리오의 이름을 바꾸려면 를 클릭합니다.

  • 알람을 트리거하는 객체 유형을 변경하려면 Triggering objects(트리거링 객체)를 클릭합니다.

  • 참고

    Any motion(모든 움직임)을 선택하면, 애플리케이션이 객체를 분류하지 않습니다. 대신 애플리케이션은 장면에서 움직이는 모든 객체를 감지합니다. 동물, 흔들리는 나뭇잎, 깃발, 그림자 등을 예로 들 수 있습니다. 작은 객체나 짧은 시간 동안만 나타나는 객체를 무시하려면 필터를 사용할 수 있습니다. 자세한 내용은 필터 항목을 참조하십시오.

  • 영역 내 객체 시나리오에서: 애플리케이션이 작업을 트리거하기 전에 객체가 특정 시간 동안 포함 영역 안에 있도록 하려면Triggering objects(객체 트리거링)을 클릭하고Time in area(영역 내 시간)BETA를 켭니다. 허용 시간을 설정합니다.

  • 가상 라인 또는 영역을 조정하려면 Scene(장면)을 클릭합니다.

  • 크로스라인 카운팅 시나리오에서:

    • 매일 카운트를 재설정하려면 Crossline counting(크로스라인 카운팅)을 클릭하고 Reset counts at midnight(자정에 카운트 재설정)을 켭니다.

    • 카운트를 한 번 재설정하려면 Crossline counting(크로스라인 카운팅)Reset counts(카운트 재설정)를 클릭합니다.

원근 보정

참고

모든 유형의 장치(예: 특정 파노라마 카메라)에서 원근감을 보정하는 것은 불가능합니다.

장면의 깊이가 심하면, 작은 물체로 인한 허위 경보를 제거하기 위해 원근을 보정해야 합니다. 보정하는 동안 애플리케이션은 이미지에 나타나는 객체 높이를 해당 물리적 객체의 실제 높이와 비교합니다. 애플리케이션은 보정된 원근을 사용하여 객체 크기를 계산합니다.

이미지에 수직 막대를 배치하여 원근을 보정합니다. 막대는 카메라와 서로 다른 거리에 있는 물리적 객체를 나타냅니다.

  1. Settings > Advanced > Perspective(설정 > 고급 > 원근)로 이동하고 +를 클릭합니다.

  2. 실시간 보기에서 지면에 있고 카메라로부터 서로 다른 거리에 있으며 높이를 아는 동일한 객체를 두 개 선택합니다.

    예를 들어 펜스 기둥이나 사람을 이용할 수 있습니다.

  3. 막대를 객체 옆에 놓고 각 막대의 길이를 객체의 높이에 맞게 조정합니다.

  4. 원근감을 적용할 시나리오를 선택합니다.

  5. Perspective bar height(원근 막대 높이)에 객체의 높이를 입력합니다.

  6. Save(저장)를 클릭합니다.

Example

카메라에서 수평선 방향으로 기둥 높이가 2미터인 펜스가 있는 경우 펜스 기둥에 막대를 배치하고 길이를 조정한 다음 필드에 200cm(6피트 7인치)를 입력합니다.

중요 사항

막대의 높이가 서로 겹치지 않는지 확인하십시오.

비디오 스트림에 번트-인 메타데이터 오버레이 추가

라이브 및 녹화된 비디오 스트림에서 감지된 이벤트를 표시하려면 메타데이터 오버레이를 켭니다. 메타데이터 오버레이를 켜면 애플리케이션에 다음이 표시됩니다.

  • 감지된 객체 주변의 직사각형입니다.

  • 객체가 감지된 시나리오의 영역 또는 라인입니다.

  • 크로스라인 카운팅BETA용: 객체 유형별 누적 카운트가 있는 표.

궤적을 켜면 애플리케이션에 객체가 이동한 경로를 나타내는 선도 표시됩니다.

여러 시나리오가 동시에 트리거되는 경우 선택한 해상도의 모든 스트림에 모든 시나리오에 대한 오버레이가 표시됩니다.

중요 사항

메타데이터 오버레이는 선택한 비디오 스트림 해상도로 알람 오버레이에 포함됩니다. 녹화된 비디오에서 제거할 수 없습니다.

참고

보기 영역을 사용하는 경우, 첫 번째 보기 영역에만 메타데이터 오버레이가 나타납니다. 첫 번째 보기 영역의 기본 이름은 보기 영역 1입니다.

  1. 애플리케이션의 웹 페이지에서Settings > Advanced(설정 > 고급)으로 이동하고 카메라에 따라 다음을 수행합니다.

    • Metadata overlay(메타데이터 오버레이)를 켭니다.

    • Metadata overlay(메타데이터 오버레이)에서 번트-인 메타데이터 오버레이를 표시할 해상도를 선택하십시오. 하나의 해상도만 선택할 수 있으며 설정은 모든 시나리오에 적용됩니다.

  2. 객체가 이동한 경로를 표시하려면 Trajectories(궤적)을 선택합니다.

감지를 PTZ 프리셋 포지션으로 제한

PTZ 카메라의 경우 감지를 특정 프리셋 포지션으로 제한할 수 있습니다.

  1. Scenarios(시나리오)로 이동한 후 시나리오 카드의 Open(열기)를 클릭하거나 + 기호를 클릭해 새 시나리오를 만듭니다.

  2. Scene(장면)을 클릭하고 목록에서 프리셋 포지션을 선택합니다.

참고

프리셋 포지션이 변경될 때마다 애플리케이션을 재보정해야 합니다. 가드 투어에서 프리셋 포지션을 변경하기 전에 15초 이상 기다리는 것이 좋습니다.

이벤트의 룰 설정

자세히 알아보려면 이벤트 룰 시작하기 가이드를 확인하세요.

객체가 감지되면 비디오를 녹화

이 예제는 애플리케이션이 객체를 감지할 때 비디오를 SD 카드에 기록하도록 Axis 장치를 설정하는 방법을 설명합니다.

  1. 장치의 웹 인터페이스에서 Settings > Apps(설정 > 앱)로 이동하여 애플리케이션이 시작되는지 확인합니다.

  2. SD 카드가 마운트되어 있는지 확인하려면 System > Storage(시스템 > 스토리지)로 이동합니다.

  3. System > Events(시스템 > 이벤트)로 이동하고 룰을 추가합니다.

  4. 룰에 대한 이름을 입력합니다.

  5. 조건 목록의 Application(애플리케이션)에서 애플리케이션 시나리오를 선택합니다. 모든 시나리오에 대해 동일한 작업을 트리거하려면 Object Analytics:(객체 분석): 모든 시나리오를 선택합니다.

  6. 액션 목록의 Recordings(녹화)에서 Record video(비디오 녹화)를 선택합니다.

  7. 스토리지 옵션 목록에서 SD-DISK를 선택합니다.

  8. Camera(카메라)Stream profile(스트림 프로파일)을 선택합니다.

    메타데이터 오버레이를 표시하려면 스트림 프로필에 있는 것과 동일한 해상도로 애플리케이션에서 오버레이를 설정해야 합니다.

  9. 참고

    객체가 포함 영역 내부에 머무를 수 있는 시간이 30초를 초과하는 경우 녹화를 트리거하기 위해 BETA 영역의 시간이 있는 시나리오를 사용하지 않는 것이 좋습니다. 그 이유는 30초보다 긴 사전 버퍼 시간을 사용하는 것이 어렵기 때문에 객체가 감지되기 전에 어떤 일이 발생했는지 확인하려는 경우 필요합니다.

  10. 객체가 감지되기 전에 기록을 시작하려면 Prebuffer(사전 버퍼) 시간을 입력합니다.

  11. Save(저장)를 클릭합니다.

  12. 룰을 테스트하려면 애플리케이션의 웹 페이지로 이동하여 시나리오를 엽니다. Test alarm(테스트 알람)을 클릭합니다. 시나리오가 실제에 대해 트리거된 것처럼 이벤트가 생성됩니다. 메타데이터 오버레이를 설정한 경우 빨간색 또는 파란색 사각형이 표시됩니다.

100대의 차량이 통과하면 이메일 보내기

크로스라인 카운팅BETA 통과 임계값 기능을 사용하면 사용자 정의된 객체 수가 라인을 넘을 때마다 알림을 받을 수 있습니다.

이 예에서는 100대의 차량이 지나갈 때마다 이메일을 보내도록 규칙을 설정하는 방법을 설명합니다.

시작하기 전

장치 인터페이스에서 이메일 수신자를 생성합니다.

  1. 크로스라인 카운팅 생성BETA 시나리오
  2. Scenarios(시나리오)에서, +를 클릭합니다.

  3. Name(이름)에서, 차량 수를 입력합니다..

  4. Triggering objects(객체 트리거)에서, Humans(인간)을 지웁니다.

  5. Trigger condition(트리거 조건)에서, Crossline counting(크로스라인 카운팅)을 선택합니다.

  6. Save(저장)를 클릭합니다.

  7. 시나리오를 엽니다.

  8. Crossline counting(크로스라인 카운팅)에서, Passthrough threshold(통과 임계값)를 켭니다.

  9. Number of counts between events(이벤트 간 카운트 수)에서, 100을 입력합니다.

  1. 룰 생성
  2. 카메라의 장치 인터페이스에서 System > Events(시스템 > 이벤트)로 이동하고 룰을 추가합니다.

  3. 룰에 대한 이름을 입력합니다.

  4. 조건 목록의 Application(애플리케이션)에서, Object Analytics: Count vehicles passthrough threshold reached(객체 분석: 통과 차량 수 임계값 도달)를 선택합니다.

  5. 액션 목록의 Notifications(알림)에서 Send notification to email(이메일로 알림 전송)을 선택합니다.

  6. 목록에서 수신자를 선택합니다.

  7. 이메일 제목과 메시지를 입력합니다.

  8. Save(저장)를 클릭합니다.

상세 정보

객체 분류

애플리케이션이 분류할 수 있는 객체 유형은 사람과 차량입니다. 애플리케이션은 분류된 객체 주위에 사각형을 표시합니다. 인간으로 분류된 물체는 빨간색 직사각형을, 차량으로 분류된 물체는 파란색 직사각형을 얻습니다.

딥 러닝 기능이 있는 카메라의 경우 차량을 트럭, 버스, 자동차 및 자전거로 더 분류할 수 있습니다.

시간 영역 BETA 기능을 사용하는 경우 사각형은 시간 조건이 충족될 때까지 노란색입니다. 그런 다음 객체가 30초 동안 포함 영역 안에 있으면 사각형이 점선으로 바뀝니다.

분류된 각 객체에는 애플리케이션에서 객체가 포함 영역 내부 또는 외부에 있는지 또는 가상 선을 넘을 때 결정하는 데 사용하는 감지 지점이 있습니다. 사람의 경우 감지 지점은 발에 있고 차량의 경우 중앙에 있습니다. 사람의 발이나 차량의 중심이 카메라의 시야에서 가려지면 애플리케이션은 감지 지점의 위치를 가정합니다.

참고

포함 영역이나 가상선을 그릴 때 객체의 감지 지점의 가정 위치를 고려하는 것이 좋습니다.

최상의 결과를 얻으려면 다음 조건을 충족해야 합니다.

  • 어떤 시점에서 전체 객체가 장면에 표시되어야 합니다.

  • 객체는 2초 이상 장면 내에서 움직여야 합니다.

  • 기계 학습 기능이 있는 카메라의 경우 사람은 똑바로 서 있어야 합니다. 딥 러닝 기능이 있는 카메라의 경우 이것이 요구 사항이 아닙니다.

  • 인간의 상체가 보여야 합니다.

  • 객체는 배경에서 두드러져야 합니다.

  • 모션 블러를 줄입니다.

영역 내 객체

영역 내 객체 트리거 조건을 사용하는 경우, 객체가 정의된 영역 내부로 이동할 때 애플리케이션이 객체를 감지합니다. 이 영역을 포함 영역이라고 합니다.

베타영역의 시간을 켜서 애플리케이션이 작업을 트리거하기 전에 객체가 포함 영역 내부에 머무를 수 있는 시간 제한을 설정할 수 있습니다. 객체가 포함 영역에 들어가면 카운터가 시작됩니다. 설정된 시간 제한에 도달하기 전에 객체가 포함 영역을 벗어나면 카운터가 재설정됩니다. 카운터가 계속 계산하려면 포함 영역 내부에 있어야 하는 객체의 감지 지점입니다. 지역 시간 BETA 기능은 터널이나 학교 운동장과 같이 사람이나 차량이 잠시만 있어야 하는 지역에 적합합니다.

포함 영역

포함 영역은 애플리케이션이 선택한 객체 유형을 감지하는 영역입니다. 감지 지점이 포함 영역 내에 있는 경우 애플리케이션은 객체에 대한 액션을 트리거합니다. 애플리케이션은 포함 영역 외부의 객체를 무시합니다.

객체를 감지하려는 장면의 일부만 포함하도록 영역의 모양을 변경하고 크기를 조정합니다. 베타 기능 영역에서 시간을 사용하는 경우 객체가 서로 자주 중첩되지 않는 장면의 일부만 포함시켜야 합니다. 기본 포함 영역 직사각형은 최대 10개의 모서리가 있는 다각형으로 변경할 수 있습니다.

권장 사항

포함 영역 근처에 붐비는 도로 또는 보도가 있는 경우 외부의 객체가 실수로 감지되지 않도록 포함 영역을 그립니다. 즉, 붐비는 도로 또는 보도에 너무 가깝게 포함 영역을 그리지 않아야 합니다.

제외 영역

제외 영역은 포함 영역 내에서 선택한 객체 유형이 감지되지 않는 영역입니다. 포함 영역 내에 원하지 않는 액션을 많이 트리거하는 영역이 있는 경우 제외 영역을 사용하십시오. 최대 5개의 제외 영역을 만들 수 있습니다.

장면의 원하는 부분을 포함할 수 있도록 영역을 이동하고, 모양을 변경하고 크기를 조정합니다. 기본 직사각형은 최대 10개의 모서리가 있는 다각형으로 변경할 수 있습니다.

권장 사항

포함 영역 안에 제외 영역을 넣으십시오. 제외 영역을 사용하여 객체를 감지하지 않으려는 영역을 커버하십시오.

라인 횡단 및 크로스라인 카운팅

라인 횡단 트리거 조건을 사용하는 경우 객체가 가상으로 정의된 라인을 횡단할 때 애플리케이션이 객체를 감지합니다. 크로스라인 카운팅BETA으로 애플리케이션은 객체를 감지하고 계산합니다.

가상 라인은 이미지에 있는 노란 선입니다. 특정 방향으로 선을 가로지르는 선택된 유형의 객체가 감지됩니다. 선의 빨간색 화살표는 현재 방향을 나타냅니다. 화살표가 가리키는 방향으로 객체가 선을 통과하면 액션이 트리거됩니다.

액션을 트리거하려면 객체가 선을 통과해야 합니다. 그림과 같이 객체의 감지 지점이 선을 넘어야 액션이 트리거됩니다. 객체가 선에 닿기만 한 경우 액션이 트리거되지 않습니다.

  • 왼쪽 그림에서 남자는 감지 지점이 아직 선을 넘지 않았기 때문에 액션을 트리거하지 않습니다.

  • 오른쪽 그림에서 남자는 감지 지점이 선을 넘었기 때문에 액션을 트리거합니다.

감지 지점에 대한 정보는 객체 분류 항목을 참조하십시오.

가상 라인 권장 사항

  • 다음과 같이 가상 라인을 조정합니다.
  • 객체가 라인에서 기다리고 있을 가능성이 없습니다.

  • 객체가 라인을 넘기 전에 이미지에서 명확하게 보입니다.

  • 객체의 감지 지점이 라인을 넘을 가능성이 있습니다.

통합

AXIS Camera Station에서 알람 설정

이 예제에서는 AXIS Camera Station에서 AXIS Object Analytics가 객체를 감지할 때 운영자에게 알리고 메타데이터 오버레이가 포함된 비디오를 녹화하도록 룰을 설정하는 방법을 설명합니다.

시작하기 전

  1. 카메라를 AXIS Camera Station에 추가
  2. AXIS Camera Station에서 카메라를 추가합니다. AXIS Camera Station의 사용자 설명서를 참조하십시오.

  1. 장치 이벤트 트리거 생성
  2. 을 클릭하고 Configuration > Recording and events > Action rules(구성 > 녹화 및 이벤트 > 액션 룰)로 이동하여 New(새로 만들기)를 클릭합니다.

  3. Add(추가)를 클릭하여 트리거를 추가합니다.

  4. 트리거 목록에서 Device event(장치 이벤트)를 선택하고 Ok(확인)를 클릭합니다.

  5. Configure device event trigger(장치 이벤트 트리거 구성) 섹션에서:

    • Device(장치)에서 카메라를 선택합니다.

    • Event(이벤트)에서 AXIS Object Analytics에 대한 시나리오 중 하나를 선택합니다.

    • Trigger period(트리거 기간)에서 두 개의 연속적인 트리거 사이의 간격 시간을 설정합니다. 연속된 녹화물의 수를 줄이려면 이 기능을 사용합니다. 이 간격 내에 추가 트리거가 발생하면 녹화가 계속되고 해당 시점부터 트리거 기간이 다시 시작됩니다.

  6. Filters(필터)에서 active(활성)Yes(예)로 설정합니다.

  7. Ok(확인)를 클릭합니다.

  1. 알람을 발생하고 비디오를 녹화하는 액션 생성
  2. Next(다음)를 클릭합니다.

  3. Add(추가)를 클릭하여 액션을 추가합니다.

  4. 액션 목록에서 Raise alarm(알람 발생)을 선택하고 Ok(확인)를 클릭합니다.

  5. 참고

    알람 메시지는 알람이 발생할 때 운영자에게 표시되는 것입니다.

  6. Alarm message(알람 메시지) 섹션에서 알람 제목과 설명을 입력합니다.

  7. Ok(확인)를 클릭합니다.

  8. Add(추가)를 클릭하여 다른 액션을 추가합니다.

  9. 액션 목록에서 Record(녹화)를 선택하고 Ok(확인)를 클릭합니다.

  10. 카메라 목록에서 녹화에 사용할 카메라를 선택합니다.

  11. 중요 사항

    녹화에 메타데이터 오버레이를 포함시키려면 애플리케이션에서 메타데이터 오버레이에 대해 선택된 것과 동일한 해상도로 프로파일을 선택해야 합니다.

  12. 프로파일을 선택하고 사전 버퍼와 사후 버퍼를 설정합니다.

  13. Ok(확인)를 클릭합니다.

  1. 알람이 활성화되는 시기 지정
  2. Next(다음)를 클릭합니다.

  3. 특정 시간 동안에만 알람을 활성화하려면 Custom schedule(사용자 정의 스케줄)을 선택합니다.

  4. 목록에서 스케줄을 선택합니다.

  5. Next(다음)를 클릭합니다.

  6. 룰에 대한 이름을 입력합니다.

  7. Finish(마침)를 클릭합니다.

참고

실시간 보기에서 메타데이터 오버레이를 보려면 애플리케이션에서 설정한 것과 일치하는 스트리밍 프로파일을 선택해야 합니다.

계수 데이터 통합

크로스라인 카운팅BETA 시나리오는 계산된 객체에 대한 메타데이터를 생성합니다. 데이터를 시각화하고 시간 경과에 따른 추세를 분석하기 위해 타사 애플리케이션에 대한 통합을 설정할 수 있습니다. 이 방법을 사용하면 하나 또는 여러 카메라의 데이터를 표시할 수 있습니다. 통합 설정 방법에 대한 자세한 내용은 Axis 개발자 커뮤니티의 지침을 참조하십시오.

장애 처리

객체 감지 문제

... 이미지가 불안정할 때

제품 웹 페이지의 Image(이미지) 탭에 있는 Electronic image stabilization(흔들림 보정)(EIS)를 켭니다.

... 이미지 가장자리에서 이미지가 왜곡되어 보일 때

제품 웹 페이지의 Image(이미지) 탭에 있는 Barrel distortion correction(술통형 왜곡 보정)(BDC)을 켭니다.

... 즉시

애플리케이션에서 감지하기 전에 객체가 장면에서 완전히 보여야 합니다.

... 다른 상황의 경우

객체가 배경과 같은 색상이어서 배경에 묻히거나 장면에 좋지 않은 조명이 있기 때문일 수 있습니다. 조명을 개선해 보십시오.

거짓 알람 문제

... 이미지에서 크게 보이는 작은 동물이 원인이 경우

원근을 보정합니다. 원근 보정 항목을 참조하십시오.

객체 카운팅 문제

... 같은 객체가 선을 여러 번 넘은 경우

객체는 감지 영역을 벗어나지 않는 한 5초에 한 번만 계산됩니다.

메타데이터 오버레이 문제

... 두 번째 클라이언트에서

메타데이터 오버레이는 한 번에 한 클라이언트에만 표시됩니다.

비디오 스트림 문제

... 고해상도 카메라용 Firefox 브라우저에서

대신 Google Chrome™ 브라우저를 사용해보십시오.

필터

애플리케이션이 모션을 감지하도록 설정한 경우, 허위 알람이 발생할 수 있습니다. 그런 다음 필터를 사용할 수 있습니다.

빠른 객체 –
이 옵션을 사용하면 짧은 시간 동안만 이미지에 나타나는 객체를 무시할 수 있습니다.
작은 객체 –
이 필터를 사용하면 작은 객체를 무시할 수 있습니다.
흔들리는 객체 –
짧은 거리를 움직이는 객체를 무시하려면 이 필터를 사용합니다.

필터 권장사항

  • 필터는 애플리케이션에서 찾은 모든 움직이는 객체에 적용되며 중요한 객체가 무시되지 않도록 주의하여 설정해야 합니다.

  • 한 번에 하나의 필터를 설정하고 다른 필터를 켜기 전에 테스트하십시오.

  • 원하는 결과에 도달할 때까지 필터 설정을 신중하게 변경하십시오.

Short-lived objects filter(빠른 객체 필터):

빠른 객체 필터를 사용하면 지나가는 차량의 조명 빔이나 빠르게 움직이는 그림자와 같이 잠시만 나타나는 객체가 감지되는 것을 방지할 수 있습니다.

빠른 객체 필터를 켜면 애플리케이션에서 움직이는 객체를 찾은 경우 설정된 시간이 경과할 때까지 객체가 액션을 트리거하지 않습니다. 액션이 녹화를 시작하는 경우 녹화 시 액션이 트리거되기 전에 객체가 장면에서 이동한 시간도 포함되도록 사전 트리거 시간을 구성합니다.

빠른 객체 필터 설정

  1. Scenarios(시나리오)를 클릭하고 기존 시나리오를 선택하거나 +를 클릭하여 새 시나리오를 만듭니다.

  2. Triggering objects(트리거링 객체)를 클릭하고 Any motion(모든 움직임)을 선택했는지 확인합니다.

  3. Filters > Short-lived objects(필터 > 빠른 객체)로 이동합니다.

  4. 필드에 시간(초)을 입력합니다. 시간(초)은 객체가 액션을 트리거하기 전까지 지나야 하는 최소 시간입니다. 적은 숫자로 시작합니다.

  5. 결과가 만족스럽지 않으면 필터 시간을 조금씩 늘리십시오.

흔들리는 객체 필터

흔들리는 객체 필터는 흔들리는 나뭇잎, 깃발 그리고 이러한 객체의 그림자 등 짧은 거리만을 움직이는 객체를 무시합니다. 흔들리는 객체가 큰 경우(예: 큰 연못이나 큰 나무) 필터 대신 제외 영역을 사용합니다. 필터는 감지된 모든 흔들리는 객체에 적용되며 값이 너무 크면 중요한 객체가 액션을 트리거하지 않을 수 있습니다.

흔들리는 객체 필터가 켜지고 애플리케이션이 객체를 감지하면 객체는 필터 크기보다 큰 거리를 이동할 때까지 액션을 트리거하지 않습니다.

흔들리는 객체 필터 설정

이 필터는 타원의 중심에서 가장자리까지의 거리보다 짧은 거리를 이동하는 모든 객체를 무시합니다.

참고
  • 이 필터는 설정 타원과 같은 위치에 있는 객체뿐만 아니라 이미지의 모든 객체에 적용됩니다.
  • 작은 필터 크기로 시작할 것을 권장합니다.
  1. Scenarios(시나리오)를 클릭하고 기존 시나리오를 선택하거나 +를 클릭하여 새 시나리오를 만듭니다.

  2. Triggering objects(트리거링 객체)를 클릭하고 Any motion(모든 움직임)을 선택했는지 확인합니다.

  3. Filters > Swaying objects(필터 > 흔들리는 객체)로 이동합니다.

  4. 액션이 트리거되기 전에 객체가 화면의 백분율로 얼마나 멀리 이동할 수 있는지 입력합니다.

작은 객체 필터

작은 객체 필터는 작은 동물 같은 작은 객체를 무시함으로써 거짓 알람을 줄입니다.

참고
  • 필터는 설정된 사각형과 같은 위치에 있는 객체뿐만 아니라 이미지의 모든 객체에 적용됩니다.
  • 애플리케이션은 입력된 높이와 너비보다 작은 모든 객체를 무시합니다.

작은 객체 필터 설정

  1. Scenarios(시나리오)를 클릭하고 기존 시나리오를 선택하거나 +를 클릭하여 새 시나리오를 만듭니다.

  2. Triggering objects(트리거링 객체)를 클릭하고 Any motion(모든 움직임)을 선택했는지 확인합니다.

  3. Filters > Small objects(필터 > 작은 객체)로 이동합니다.

  4. 참고

    원근을 보정 한 경우, 무시할 객체의 너비와 높이를 이미지의 백분율 대신 센티미터(인치) 단위로 입력합니다.

  5. 무시할 객체의 너비와 높이를 이미지의 백분율로 입력합니다.