Azure Data Factory 또는 Synapse Analytics를 사용하여 Amazon Redshift에서 데이터 복사
적용 대상: Azure Data Factory Azure Synapse Analytics
팁
기업용 올인원 분석 솔루션인 Microsoft Fabric의 Data Factory를 사용해 보세요. Microsoft Fabric은 데이터 이동부터 데이터 과학, 실시간 분석, 비즈니스 인텔리전스 및 보고에 이르기까지 모든 것을 다룹니다. 무료로 새 평가판을 시작하는 방법을 알아봅니다!
이 문서에서는 Azure Data Factory 및 Synapse Analytics 파이프라인에서 복사 작업을 사용하여 Amazon Redshift에서 데이터를 복사하는 방법을 간략하게 설명합니다. 이 문서는 복사 작업에 대한 일반적인 개요를 제공하는 복사 작업 개요 문서를 기반으로 합니다.
지원되는 기능
이 Amazon Redshift 커넥터는 다음과 같은 기능에 지원됩니다.
지원되는 기능 | IR |
---|---|
복사 작업(원본/-) | (1) (2) |
조회 작업 | (1) (2) |
① Azure 통합 런타임 ② 자체 호스팅 통합 런타임
복사 작업의 원본 또는 싱크로 지원되는 데이터 저장소 목록은 지원되는 데이터 저장소 표를 참조하세요.
특히, 이 Amazon Redshift 커넥터는 쿼리 또는 기본 제공 Redshift UNLOAD 지원을 사용하여 Redshift에서 데이터 검색을 지원합니다.
커넥터는 이 문서의 Windows 버전을 지원합니다.
팁
Redshift에서 많은 양의 데이터를 복사할 때 최상의 성능을 위해 Amazon S3을 통해 기본 제공 Redshift UNLOAD를 사용하는 것이 좋습니다. 자세한 내용은 UNLOAD를 사용하여 Amazon Redshift에서 데이터 복사를 참조하세요.
필수 조건
- 자체 호스팅 통합 런타임을 사용하여 데이터를 온-프레미스 데이터 저장소로 복사하는 경우 통합 런타임에(컴퓨터의 IP 주소 사용) Amazon Redshift 클러스터에 대한 액세스 권한을 부여합니다. 자세한 내용은 클러스터에 대한 액세스 권한 부여 를 참조하세요.
- Azure 데이터 저장소에 데이터를 복사하는 경우, Azure 데이터 센터에서 사용하는 IP 주소 및 SQL 범위를 계산하기 위해 Azure 데이터 센터 IP 범위를 참조하세요.
시작하기
파이프라인에 복사 작업을 수행하려면 다음 도구 또는 SDK 중 하나를 사용하면 됩니다.
UI를 사용하여 Amazon Redshift에 연결된 서비스 만들기
다음 단계를 사용하여 Azure Portal UI에서 Amazon Redshift에 연결된 서비스를 만듭니다.
Azure Data Factory 또는 Synapse 작업 영역에서 관리 탭으로 이동하여 연결된 서비스를 선택하고 새로 만들기를 클릭합니다.
Amazon을 검색하고 Amazon Redshift 커넥터를 선택합니다.
서비스 세부 정보를 구성하고, 연결을 테스트하고, 새로운 연결된 서비스를 만듭니다.
커넥터 구성 세부 정보
다음 섹션에서는 Amazon Redshift 커넥터에 한정된 Data Factory 엔터티를 정의하는 데 사용되는 속성에 대해 자세히 설명합니다.
연결된 서비스 속성
Amazon Redshift 연결된 서비스에 다음 속성이 지원됩니다.
속성 | 설명 | 필수 |
---|---|---|
type | 형식 속성은 AmazonRedshift로 설정되어야 합니다. | 예 |
server | Amazon Redshift 서버의 IP 주소 또는 호스트 이름입니다. | 예 |
port | Amazon Redshift 서버가 클라이언트 연결을 수신하는 데 사용하는 TCP 포트 수입니다. | 아니요(기본값: 5439) |
database | Amazon Redshift 데이터베이스의 이름입니다. | 예 |
사용자 이름 | 데이터베이스에 대한 액세스 권한이 있는 사용자의 이름입니다. | 예 |
password | 사용자 계정의 password입니다. 이 필드를 SecureString으로 표시하여 안전하게 저장하거나, Azure Key Vault에 저장된 비밀을 참조합니다. | 예 |
connectVia | 데이터 저장소에 연결하는 데 사용할 Integration Runtime입니다. Azure Integration Runtime 또는 자체 호스팅 Integration Runtime을 사용할 수 있습니다(데이터 저장소가 프라이빗 네트워크에 있는 경우). 지정하지 않으면 기본 Azure Integration Runtime을 사용합니다. | 아니요 |
예제:
{
"name": "AmazonRedshiftLinkedService",
"properties":
{
"type": "AmazonRedshift",
"typeProperties":
{
"server": "<server name>",
"database": "<database name>",
"username": "<username>",
"password": {
"type": "SecureString",
"value": "<password>"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
데이터 세트 속성
데이터 세트 정의에 사용할 수 있는 섹션 및 속성의 전체 목록은 데이터 세트 문서를 참조하세요. 이 섹션에서는 Amazon Redshift 데이터 세트에서 지원하는 속성의 목록을 제공합니다.
Amazon Redshift에서 데이터를 복사하려는 경우 다음과 같은 속성이 지원됩니다.
속성 | 설명 | 필수 |
---|---|---|
type | 데이터 세트의 type 속성을 AmazonRedshiftTable로 설정해야 합니다. | 예 |
schema(스키마) | 스키마의 이름입니다. | 아니요(작업 원본에서 "query"가 지정된 경우) |
table | 테이블 이름입니다. | 아니요(작업 원본에서 "query"가 지정된 경우) |
tableName | 스키마가 있는 테이블의 이름입니다. 이 속성은 이전 버전과의 호환성을 위해 지원됩니다. 새 워크로드의 경우 schema 및 table 를 사용합니다. |
아니요(작업 원본에서 "query"가 지정된 경우) |
예제
{
"name": "AmazonRedshiftDataset",
"properties":
{
"type": "AmazonRedshiftTable",
"typeProperties": {},
"schema": [],
"linkedServiceName": {
"referenceName": "<Amazon Redshift linked service name>",
"type": "LinkedServiceReference"
}
}
}
RelationalTable
형식의 데이터 세트를 사용하고 있는 경우 현재까지 지원되지만 앞으로는 새 형식을 사용하는 것이 좋습니다.
복사 작업 속성
작업 정의에 사용할 수 있는 섹션 및 속성의 전체 목록은 파이프라인 문서를 참조하세요. 이 섹션에서는 Amazon Redshift 원본에서 지원하는 속성의 목록을 제공합니다.
원본으로 Amazon Redshift
Amazon Redshift에서 데이터를 복사하려면 복사 작업의 원본 형식을 AmazonRedshiftSource로 설정합니다. 복사 작업 source 섹션에서 다음 속성이 지원됩니다.
속성 | 설명 | 필수 |
---|---|---|
type | 복사 작업 원본의 type 속성을 AmazonRedshiftSource로 설정해야 합니다. | 예 |
query | 사용자 지정 쿼리를 사용하여 데이터를 읽습니다. 예: select * from MyTable. | 아니요(데이터 세트의 "tableName"이 지정된 경우) |
redshiftUnloadSettings | Amazon Redshift UNLOAD를 사용하는 경우 속성 그룹입니다. | 아니요 |
s3LinkedServiceName | “AmazonS3” 형식의 연결된 서비스 이름을 지정하여 중간 저장소로 사용하려는 Amazon S3을 참조합니다. | 예(UNLOAD를 사용하는 경우) |
bucketName | 중간 데이터를 저장할 S3 버킷을 지정합니다. 제공하지 않으면 서비스에서 자동으로 생성합니다. | 예(UNLOAD를 사용하는 경우) |
예제: UNLOAD를 사용하여 복사 작업에서 Amazon Redshift 원본
"source": {
"type": "AmazonRedshiftSource",
"query": "<SQL query>",
"redshiftUnloadSettings": {
"s3LinkedServiceName": {
"referenceName": "<Amazon S3 linked service>",
"type": "LinkedServiceReference"
},
"bucketName": "bucketForUnload"
}
}
다음 섹션에서 UNLOAD를 사용하여 Amazon Redshift에서 효율적으로 데이터를 복사하는 방법에 대해 알아봅니다.
UNLOAD를 사용하여 Amazon Redshift에서 데이터 복사
UNLOAD는 쿼리의 결과를 Amazon S3(Amazon Simple Storage Service)의 하나 이상의 파일에 언로드할 수 있는 Amazon Redshift에서 제공하는 메커니즘입니다. Redshift에서 큰 데이터 집합을 복사하기 위해 Amazon에서 권장하는 방법입니다.
예: UNLOAD, 단계적 복사 및 PolyBase를 사용하여 Amazon Redshift에서 Azure Synapse Analytics로 데이터 복사
이 샘플 사용 사례의 경우 복사 작업은 "redshiftUnloadSettings"에 구성된 대로 Amazon Redshift에서 Amazon S3으로 데이터를 언로드한 다음 "stagingSettings"에 지정된 대로 Amazon S3에서 Azure Blob으로 데이터를 복사하고, 마지막으로 PolyBase를 사용하여 Azure Synapse Analytics로 데이터를 로드합니다. 모든 중간 형식은 복사 작업에서 제대로 처리됩니다.
"activities":[
{
"name": "CopyFromAmazonRedshiftToSQLDW",
"type": "Copy",
"inputs": [
{
"referenceName": "AmazonRedshiftDataset",
"type": "DatasetReference"
}
],
"outputs": [
{
"referenceName": "AzureSQLDWDataset",
"type": "DatasetReference"
}
],
"typeProperties": {
"source": {
"type": "AmazonRedshiftSource",
"query": "select * from MyTable",
"redshiftUnloadSettings": {
"s3LinkedServiceName": {
"referenceName": "AmazonS3LinkedService",
"type": "LinkedServiceReference"
},
"bucketName": "bucketForUnload"
}
},
"sink": {
"type": "SqlDWSink",
"allowPolyBase": true
},
"enableStaging": true,
"stagingSettings": {
"linkedServiceName": "AzureStorageLinkedService",
"path": "adfstagingcopydata"
},
"dataIntegrationUnits": 32
}
}
]
Amazon Redshift에 대한 데이터 형식 매핑
Amazon Redshift에서 데이터를 복사할 때 Amazon Redshift 데이터 형식에서부터 서비스에서 내부적으로 사용되는 중간 데이터 형식으로 다음 매핑이 사용됩니다. 복사 작업에서 원본 스키마 및 데이터 형식을 싱크에 매핑하는 방법에 대한 자세한 내용은 스키마 및 데이터 형식 매핑을 참조하세요.
Amazon Redshift 데이터 형식 | 중간 서비스 데이터 형식 |
---|---|
BIGINT | Int64 |
BOOLEAN | 문자열 |
CHAR | 문자열 |
DATE | DateTime |
DECIMAL | Decimal |
DOUBLE PRECISION | 두 배 |
INTEGER | Int32 |
REAL | Single |
SMALLINT | Int16 |
TEXT | 문자열 |
TIMESTAMP | DateTime |
VARCHAR | 문자열 |
조회 작업 속성
속성에 대한 자세한 내용을 보려면 조회 작업을 확인하세요.
관련 콘텐츠
복사 작업에서 원본 및 싱크로 지원되는 데이터 저장소 목록은 지원되는 데이터 저장소를 참조하세요.