다음을 통해 공유


Amazon Redshift에서 페더레이션 쿼리 실행

이 문서에서는 Azure Databricks에서 관리되지 않는 Amazon Redshift 데이터의 실행 쿼리에서 페더레이션된 쿼리를 실행하도록 Lakehouse Federation을 설정하는 방법을 설명합니다. Lakehouse Federation에 대한 자세한 내용은 Lakehouse Federation이란?을 참조하세요.

Lakehouse Federation을 사용하여 Amazon Redshift 데이터베이스에서 실행 쿼리에 연결하려면 Azure Databricks Unity 카탈로그 메타스토어에서 다음을 만들어야 합니다.

  • Amazon Redshift 데이터베이스에서 실행 쿼리에 대한 연결입니다.
  • Unity 카탈로그 쿼리 구문 및 데이터 거버넌스 도구를 사용하여 데이터베이스에 대한 Azure Databricks 사용자 액세스를 관리할 수 있도록 Unity 카탈로그의 Amazon Redshift 데이터베이스에서 실행 쿼리를 미러링하는 외국 카탈로그입니다.

시작하기 전에

작업 영역 요구 사항

  • Unity 카탈로그에 사용하도록 설정된 작업 영역.

컴퓨팅 요구 사항:

  • Databricks 런타임 클러스터 또는 SQL 웨어하우스에서 대상 데이터베이스 시스템으로의 네트워크 연결. Lakehouse Federation에 대한 네트워킹 권장 사항을 참조하세요.
  • Azure Databricks 클러스터는 Databricks Runtime 13.3 LTS 이상 및 공유 또는 단일 사용자 액세스 모드를 사용해야 합니다.
  • SQL 웨어하우스는 Pro 또는 Serverless여야 하며 2023.40 이상을 사용해야 합니다.

권한 필요:

  • 연결을 생성하려면 메타스토어 관리자 또는 작업 영역에 연결된 Unity 카탈로그 메타스토어에 대한 CREATE CONNECTION 권한이 있는 사용자여야 합니다.
  • 외래 카탈로그를 만들려면 메타스토어에 대한 CREATE CATALOG 권한이 있고 연결의 소유자이거나 연결에 대한 CREATE FOREIGN CATALOG 권한이 있어야 합니다.

추가 권한 요구 사항은 다음 각 태스크 기반 섹션에 지정됩니다.

연결 만들기

연결은 외부 데이터베이스 시스템에 액세스하기 위한 경로와 자격 증명을 지정합니다. 연결을 만들기 위해 Azure Databricks Notebook 또는 Databricks SQL 쿼리 편집기에서 카탈로그 탐색기 또는 CREATE CONNECTION SQL 명령을 사용할 수 있습니다.

참고 항목

Databricks REST API 또는 Databricks CLI를 사용하여 연결을 만들 수도 있습니다. POST /api/2.1/unity-catalog/connectionsUnity 카탈로그 명령을 참조하세요.

필요한 권한: 메타스토어 관리자 또는 CREATE CONNECTION 권한이 있는 사용자.

카탈로그 탐색기

  1. Azure Databricks 작업 영역에서 카탈로그 아이콘 카탈로그를 클릭합니다.

  2. 카탈로그 창 위쪽에서 추가 또는 더하기 아이콘 추가 아이콘을 클릭하고 메뉴에서 연결 추가를 선택합니다.

    또는 빠른 액세스 페이지에서 외부 데이터 > 단추를 클릭하고 연결 탭으로 이동한 다음, 연결 만들기를 클릭합니다.

  3. 사용자에게 친숙한 연결 이름을 입력합니다.

  4. Redshift연결 유형을 선택합니다.

  5. Redshift 인스턴스에 대해 다음 연결 속성을 입력합니다.

    • 호스트: 예를 들면 다음과 같습니다. redshift-demo.us-west-2.redshift.amazonaws.com
    • 포트: 예를 들면 다음과 같습니다. 5439
    • 사용자: 예를 들면 다음과 같습니다. redshift_user
    • 암호: 예를 들면 다음과 같습니다.password123
  6. (선택 사항) 연결 테스트를 클릭하여 작동하는지 확인합니다.

  7. (선택 사항) 주석을 입력합니다.

  8. 만들기를 클릭합니다.

SQL

Notebook 또는 Databricks SQL 쿼리 편집기에서 다음 명령을 실행합니다.

CREATE CONNECTION <connection-name> TYPE redshift
OPTIONS (
  host '<hostname>',
  port '<port>',
  user '<user>',
  password '<password>'
);

자격 증명과 같은 중요한 값에 일반 텍스트 문자열 대신 Azure Databricks 비밀을 사용하는 것이 좋습니다. 예시:

CREATE CONNECTION <connection-name> TYPE redshift
OPTIONS (
  host '<hostname>',
  port '<port>',
  user secret ('<secret-scope>','<secret-key-user>'),
  password secret ('<secret-scope>','<secret-key-password>')
)

비밀 설정에 대한 자세한 내용은 비밀 관리를 참조하세요.

외래 카탈로그 만들기

외부 카탈로그는 외부 데이터 시스템의 데이터베이스를 미러링하므로 Azure Databricks 및 Unity 카탈로그를 사용하여 해당 데이터베이스의 데이터에 대한 액세스를 쿼리하고 관리할 수 있습니다. 외부 카탈로그를 만들려면 이미 정의된 데이터 원본에 대한 연결을 사용합니다.

외부 카탈로그를 만들려면 Azure Databricks Notebook 또는 SQL 쿼리 편집기에서 카탈로그 탐색기 또는 CREATE FOREIGN CATALOG SQL 명령을 사용할 수 있습니다.

참고 항목

Databricks REST API 또는 Databricks CLI를 사용하여 카탈로그를 만들 수도 있습니다. POST /api/2.1/unity-catalog/catalogsUnity Catalog 명령을 참조하세요.

필요한 권한: 메타스토어에 대한 CREATE CATALOG 권한과 연결에 대한 소유권 또는 연결에 대한 CREATE FOREIGN CATALOG 권한이 필요합니다.

카탈로그 탐색기

  1. Azure Databricks 작업 영역에서 카탈로그 아이콘 카탈로그를 클릭하여 카탈로그 탐색기를 엽니다.

  2. 카탈로그 창 위쪽에서 추가 또는 더하기 아이콘 추가 아이콘을 클릭하고 메뉴에서 카탈로그 추가를 선택합니다.

    또는 빠른 액세스 페이지에서 카탈로그 단추를 클릭한 다음, 카탈로그 만들기 단추를 클릭합니다.

  3. 카탈로그 만들기에서 외래 카탈로그를 만들기 위한 지침을 따릅니다.

SQL

Notebook 또는 SQL 쿼리 편집기에서 다음 SQL 명령을 실행합니다. 괄호 안의 항목은 선택 사항입니다. 자리 표시자 값을 바꿉니다.

  • <catalog-name>: Azure Databricks의 카탈로그 이름입니다.
  • <connection-name>: 데이터 원본, 경로 및 액세스 자격 증명을 지정하는 연결 개체입니다.
  • <database-name>: Azure Databricks에서 카탈로그로 미러링하려는 데이터베이스의 이름입니다.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');

지원되는 푸시다운

지원되는 푸시다운은 다음과 같습니다.

  • 필터
  • 프로젝션
  • 제한
  • 조인
  • 집계(Average, Count, Max, Min, StddevPop, StddevSamp, Sum, VarianceSamp)
  • 함수(문자열 함수 및 별칭, 캐스트, SortOrder와 같은 기타 함수)
  • 정렬

다음 푸시다운은 지원되지 않습니다.

  • Windows 함수

데이터 형식 매핑

Redshift에서 Spark로 읽을 때 데이터 형식은 다음과 같이 매핑됩니다.

Redshift 형식 Spark 형식
numeric 데시말타입
int2, int4 인터저타입
int8, oid, xid 롱타입
float4 플롯타입
배정밀도, float8, money 더블타입
bpchar, char, character varying, name, super, text, tid, varchar StringType
bytea, geometry, varbyte BinaryType
bit, bool BooleanType
date DateType
tabstime, time, time with time with time zone, timetz, time without time zone, timestamp with timetamp with timetamp, timestamp, timestamptz, timestamp without time zone* TimestampType/TimestampNTZType

*Redshift에서 읽으면 Redshift Timestamp 가 Spark TimestampType infer_timestamp_ntz_type = false 에 매핑됩니다(기본값). Redshift Timestamp 는 ifinfer_timestamp_ntz_type = trueTimestampNTZType 매핑됩니다.