입력 및 출력 구성
모든 Azure Stream Analytics 작업에는 하나 이상의 입력 및 출력이 포함됩니다. 대부분의 경우 입력은 스트리밍 데이터의 원본을 참조합니다(정적 참조 데이터에 대한 입력을 정의하여 스트리밍된 이벤트 데이터를 보강할 수도 있음). 출력은 스트림 처리 쿼리의 결과를 보낼 위치를 결정합니다. Azure Synapse Analytics로 데이터를 수집할 경우 출력은 보통 전용 SQL 풀 데이터베이스의 Azure Data Lake Storage Gen2 컨테이너 또는 테이블을 참조합니다.
스트리밍 데이터 입력
Azure Stream Analytics에서 사용하는 스트리밍 데이터에 대한 입력에는 다음이 포함될 수 있습니다.
- Azure Event Hubs
- Azure IoT Hubs
- Azure Blob 또는 Data Lake Gen 2 Storage
특정 입력 형식에 따라 스트리밍된 각 이벤트의 데이터에는 이벤트의 데이터 필드와 입력별 메타데이터 필드가 포함됩니다. 예를 들어 Azure Event Hubs 입력에서 사용된 데이터에는 이벤트 허브에 이벤트가 수신된 시간을 나타내는 EventEnqueuedUtcTime 필드가 포함됩니다.
참고
스트리밍 입력에 관한 자세한 내용은 Azure Stream Analytics 설명서에서 Stream Analytics에 입력으로 데이터 스트리밍을 참조하세요.
Azure Synapse Analytics 출력
스트림 처리 결과를 전용 SQL 풀의 테이블에 로드해야 하는 경우 Azure Synapse Analytics 출력을 사용합니다. 출력 구성에는 Azure Synapse Analytics 작업 영역의 전용 SQL 풀 ID, Azure Stream Analytics 작업이 인증된 연결을 설정하는 방법 및 데이터를 로드해야 하는 기존 테이블이 포함됩니다.
Azure Synapse Analytics에 대한 인증은 일반적으로 사용자 이름과 암호가 필요한 SQL Server 인증을 통해 수행됩니다. 아니면 관리형 ID를 사용하여 인증할 수도 있습니다. Azure Synapse Analytics 출력을 사용하는 경우 Azure Stream Analytics 작업 구성에는 작업에 대한 인증 메타데이터가 안전하게 저장된 Azure Storage 계정이 포함되어야 합니다.
참고
Azure Synapse Analytics 출력을 사용하는 방법에 대한 자세한 내용은 Azure Stream Analytics 설명서에서 Azure Stream Analytics의 Azure Synapse Analytics 출력을 참조하세요.
Azure Data Lake Storage Gen2 출력
Azure Synapse Analytics 작업 영역에서 데이터 레이크를 호스팅하는 Azure Data Lake Storage Gen2 컨테이너에 스트림 처리 결과를 작성해야 하는 경우 Blob Storage/ADLS Gen2 출력을 사용합니다. 출력 구성에는 컨테이너가 정의된 스토리지 계정의 세부 정보, 컨테이너에 연결할 인증 설정 및 만들 파일의 세부 정보가 포함됩니다. CSV, JSON, Parquet, Delta 등의 파일 형식을 지정할 수 있습니다. 사용자 지정 패턴을 지정하여 파일이 저장되는 폴더 계층을 정의할 수도 있습니다(예: YYYY/MM/DD 같은 패턴을 사용하여 현재 연도, 월 및 일 기준 폴더 계층 생성).
각 일괄 처리에 대한 최소 및 최대 행 수를 지정할 수 있으며, 이에 따라 생성된 출력 파일 수가 결정됩니다(배치마다 새 파일이 생성됨). 데이터가 도착하면 각 행을 추가하거나 모든 행을 한 번에 작성하여 “정확히 한 번에” 전송되도록 하는 등 시간 기간에 맞춰 데이터가 기록되는 시기를 제어하도록 쓰기 모드를 구성할 수도 있습니다.
참고
Blob Storage/ADLS Gen2 출력 사용에 대한 자세한 내용은 Azure Stream Analytics 설명서에서 Azure Stream Analytics에서 Blob Storage 및 Azure Data Lake Gen2 출력을 참조하세요.