다음을 통해 공유


Stream Analytics 코드리스 편집기를 사용하여 Azure Data Explorer로 필터링 및 수집

이 문서에서는 코드리스 편집기를 사용하여 Stream Analytics 작업을 쉽게 만드는 방법을 설명합니다. Event Hubs에서 지속적으로 읽고, 들어오는 데이터를 필터링한 다음, 결과를 Azure Data Explorer에 지속적으로 씁니다.

필수 조건

  • Azure Event Hubs 및 Azure Data Explorer 리소스는 공개적으로 액세스할 수 있어야 하며 방화벽 뒤에 있거나 Azure Virtual Network에서 보호될 수 없습니다.
  • Event Hubs의 데이터는 JSON, CSV 또는 Avro 형식으로 직렬화되어야 합니다.

실시간 데이터를 필터링하고 수집하는 Stream Analytics 작업 개발

  1. Azure Portal에서 Azure Event Hubs 인스턴스를 찾고 선택합니다.

  2. 기능>데이터 처리를 선택한 다음, Azure Data Explorer에 데이터 저장 카드에서 시작을 선택합니다.

    시작을 선택한 Azure Data Lake Storage Gen2 카드에 대한 필터 및 수집을 보여 주는 스크린샷.

  3. Stream Analytics 작업의 이름을 입력한 다음, 만들기를 선택합니다.

    작업 이름을 입력할 위치를 보여 주는 스크린샷

  4. Event Hubs 창에서 데이터의 Serialization 형식 및 작업이 Event Hubs에 연결하는 데 사용할 인증 방법을 지정합니다. 그런 다음 연결을 선택합니다.
    Event Hubs 연결 구성을 보여주는 스크린샷.

  5. 연결이 성공적으로 설정되고 Event Hubs 인스턴스로 이동하는 데이터 스트림이 있는 경우 다음 두 항목이 즉시 표시됩니다.

    • 입력 데이터에 나타나는 필드입니다. 필드 추가를 선택하거나 필드 옆에 있는 세 개의 점 기호를 선택하여 해당 형식을 제거, 이름 바꾸기 또는 변경할 수 있습니다.
      필드 형식을 제거, 이름 바꾸기 또는 변경할 수 있는 Event Hubs 필드 목록을 보여 주는 스크린샷
    • 다이어그램 뷰 아래 데이터 미리 보기 테이블에 있는 들어오는 데이터의 라이브 샘플. 주기적으로 자동으로 새로 고쳐집니다. 스트리밍 미리 보기 일시 중지를 선택하여 샘플 입력 데이터의 정적 뷰를 볼 수 있습니다.
      데이터 미리 보기 아래의 샘플 데이터를 보여 주는 스크린샷.
  6. 필터 타일을 선택하여 데이터를 집계합니다. 필터 영역에서 필드를 선택하여 조건을 통해 들어오는 데이터를 필터링합니다.

    필터 연산자 구성을 보여 주는 스크린샷

  7. 관리 타일을 선택합니다. 필드 관리 구성 패널에서 이벤트 허브에 출력할 필드를 선택합니다. 모든 필드를 추가하려면 모든 필드 추가를 선택합니다.

    필드 관리 연산자 구성을 보여 주는 스크린샷

  8. Azure Data Explorer 타일을 선택합니다. 구성 패널에서 필요한 매개 변수를 입력하고 연결합니다.

    참고 항목

    테이블은 선택한 데이터베이스에 있어야 하며 테이블 스키마는 데이터 미리 보기에서 생성하는 필드 수 및 해당 형식과 정확히 일치해야 합니다.

    Kusto 출력 구성을 보여 주는 스크린샷

  9. 필요에 따라 정적 미리 보기 가져오기/정적 미리 보기 새로 고침을 선택하여 이벤트 허브에서 수집할 데이터 미리 보기를 확인합니다.
    정적 미리 보기 가져오기/정적 미리 보기 새로 고침 옵션을 보여 주는 스크린샷

  10. 저장을 선택한 다음, Stream Analytics 작업 시작을 선택합니다.
    저장 및 시작 옵션을 보여 주는 스크린샷

  11. 작업을 시작하려면 다음을 지정합니다.

    • 작업 실행에 사용되는 SU(스트리밍 단위) 수. SU는 작업에 할당된 컴퓨팅 및 메모리의 양을 나타냅니다. 세 개로 시작한 다음, 필요에 따라 조정하는 것이 좋습니다.
    • 출력 데이터 오류 처리 – 데이터 오류로 인해 대상에 대한 작업 출력이 실패할 때 원하는 동작을 지정할 수 있습니다. 기본적으로 작업은 쓰기 작업이 성공할 때까지 다시 시도합니다. 해당 출력 이벤트를 삭제하도록 선택할 수도 있습니다.
      출력 시간을 변경하고, 스트리밍 단위 수를 설정하고, 출력 데이터 오류 처리 옵션을 선택할 수 있는 Stream Analytics 작업 시작 옵션을 보여 주는 스크린샷
  12. 시작을 선택하면 작업이 2분 이내에 실행되고 메트릭이 아래의 탭 섹션에서 열립니다.

    작업 메트릭 데이터가 시작된 후를 보여 주는 스크린샷

    Stream Analytics 작업 탭의 데이터 처리 섹션 아래에서 작업을 볼 수 있습니다. 메트릭 열기를 선택하여 필요에 따라 모니터링하거나 메트릭을 중지했다 다시 시작합니다.

    실행 중인 작업 상태를 볼 수 있는 Stream Analytics 작업 탭의 스크린샷

Event Hubs 지역 복제 기능을 사용할 때 고려 사항

Azure Event Hubs는 최근 공개 미리 보기에서 지역에서 복제 기능을 시작했습니다. 이 기능은 Azure Event Hubs의 지역 재해 복구 기능과 다릅니다.

장애 조치(failover) 유형이 강제 이고 복제 일관성이 비동기인 경우 Stream Analytics 작업은 Azure Event Hubs 출력에 대한 출력을 정확히 한 번 보장하지 않습니다.

Azure Stream Analytics는 이벤트 허브의 출력을 사용하는 생산자로서 기본 및 보조 간의 복제 지연이 구성된 최대 지연 시간에 도달할 경우 장애 조치(failover) 기간 동안 및 Event Hubs에 의해 제한되는 동안 작업에 워터마크 지연을 관찰할 수 있습니다.

Azure Stream Analytics는 Event Hubs를 입력으로 사용하는 소비자로서 장애 조치 기간 동안 작업의 워터마크 지연을 관찰할 수 있으며 장애 조치(failover)가 완료된 후 데이터를 건너뛰거나 중복 데이터를 찾을 수 있습니다.

이러한 주의 사항으로 인해 Event Hubs 장애 조치(failover)가 완료된 직후 적절한 시작 시간으로 Stream Analytics 작업을 다시 시작하는 것이 좋습니다. 또한 Event Hubs 지역 복제 기능은 공개 미리 보기 상태이므로 이 시점에서 프로덕션 Stream Analytics 작업에 이 패턴을 사용하지 않는 것이 좋습니다. Event Hubs 지역 복제 기능을 일반적으로 사용할 수 있고 Stream Analytics 프로덕션 작업에서 사용할 수 있기 전에 현재 Stream Analytics 동작이 개선됩니다.

다음 단계

Azure Stream Analytics 및 직접 만든 작업을 모니터링하는 방법에 대해 자세히 알아봅니다.