다음을 통해 공유


Azure Synapse Analytics 공유 메타데이터 테이블

Azure Synapse Analytics를 사용하면 다른 작업 영역 계산 엔진에서 Apache Spark 풀과 서버리스 SQL 풀 간에 데이터베이스와 테이블을 공유할 수 있습니다.

Spark 작업에서 데이터베이스가 만들어지면 Parquet, Delta 또는 CSV를 저장 형식으로 사용하는 Spark를 사용하여 테이블을 이 데이터베이스에 만들 수 있습니다. 테이블 이름은 소문자로 변환되며 소문자 이름을 사용하여 쿼리해야 합니다. 이러한 테이블은 모든 Azure Synapse 작업 영역 Spark 풀에서 쿼리하는 데 즉시 사용할 수 있게 됩니다. 권한이 있는 모든 Spark 작업에서도 사용할 수 있습니다.

또한 Spark에서 만든 관리형 및 외부 테이블은 서버리스 SQL 풀의 해당 동기화된 데이터베이스에서 동일한 이름의 외부 테이블로 사용할 수 있습니다. SQL에서 Spark 테이블을 공개하면 테이블 동기화에 대한 자세한 정보가 제공됩니다.

테이블은 서버리스 SQL 풀에 비동기적으로 동기화되므로 표시될 때까지 약간 지연됩니다.

Spark에서 만든 테이블 관리

Spark를 사용하여 Spark에서 만든 데이터베이스를 관리합니다. 예를 들어 서버리스 Apache Spark 풀 작업을 통해 삭제하고 Spark에서 테이블을 만듭니다.

동기화된 데이터베이스의 개체는 서버리스 SQL 풀에서 수정할 수 없습니다.

SQL에서 Spark 테이블 공개

공유 Spark 테이블

Spark는 Azure Synapse를 통해 SQL에서 자동으로 공개되는 두 가지 유형의 테이블을 제공합니다.

  • 관리형 테이블

    Spark는 TEXT, CSV, JSON, JDBC, PARQUET, ORC, HIVE, DELTA 및 LIBSVM과 같은 관리형 테이블에 데이터를 저장하는 방법에 대한 다양한 옵션을 제공합니다. 이러한 파일은 일반적으로 관리형 테이블 데이터가 저장된 warehouse 디렉터리에 저장됩니다.

  • 외부 테이블

    Spark는 LOCATION 옵션을 제공하거나 Hive 형식을 사용하여 기존 데이터에 대한 외부 테이블을 만드는 방법도 제공합니다. 이러한 외부 테이블은 Parquet를 포함하여 다양한 데이터 형식일 수 있습니다.

Azure Synapse는 현재 데이터를 Parquet, DELTA 또는 CSV 형식으로 저장하는 관리형 테이블 및 외부 Spark 테이블만 SQL 엔진과 공유합니다. 다른 형식으로 지원되는 테이블은 자동으로 동기화되지 않습니다. SQL 엔진이 테이블의 기본 형식을 지원하는 경우 이러한 테이블을 사용자 고유의 SQL 데이터베이스에서 외부 테이블로 명시적으로 동기화할 수 있습니다.

참고 항목

현재 서버리스 SQL 풀에서는 Parquet 및 CSV 형식만 완전히 지원됩니다. Spark Delta 테이블도 서버리스 SQL 풀에서 사용할 수 있지만 이 기능은 공개 미리 보기에 있습니다. Spark에서 만든 외부 테이블은 전용 SQL 풀 데이터베이스에서 사용할 수 없습니다.

Spark 테이블 공유

공유 가능한 관리형 및 외부 Spark 테이블은 SQL 엔진에서 다음과 같은 속성이 있는 외부 테이블로 공개됩니다.

  • SQL 외부 테이블의 데이터 원본은 Spark 테이블의 위치 폴더를 나타내는 데이터 원본입니다.
  • SQL 외부 테이블의 파일 형식은 Parquet, Delta 또는 CSV입니다.
  • SQL 외부 테이블의 액세스 자격 증명은 통과입니다.

모든 Spark 테이블 이름은 유효한 SQL 테이블 이름이고 모든 Spark 열 이름은 유효한 SQL 열 이름이므로 Spark 테이블 및 열 이름은 SQL 외부 테이블에 사용됩니다.

Spark 테이블은 Synapse SQL 엔진과 다른 데이터 형식을 제공합니다. 다음 표에서는 Spark 테이블 데이터 형식을 SQL 형식에 매핑하고 있습니다.

Spark 데이터 형식 SQL 데이터 형식 설명
LongType, , longbigint bigint Spark: LongType은 8바이트 부호 있는 정수를 나타냅니다.
SQL: int, bigint, smallint 및 tinyint를 참조하세요.
BooleanType, boolean bit(Parquet), varchar(6)(CSV) Spark: 부울.
SQL: [/sql/t-sql/data-types/bit-transact-sql)을 참조하세요.
DecimalType, decimal, decnumeric decimal Spark: DecimalType은 임의 전체 자릿수의 부호 있는 10진수를 나타냅니다. java.math.BigDecimal에 의해 내부적으로 지원됩니다. BigDecimal은 소수 자릿수가 아닌 임의 전체 자릿수의 정수 값과 32비트 정수 소수 자릿수로 구성됩니다.
SQL: 고정 전체 자릿수 및 소수 자릿수의 숫자입니다. 최대 전체 자릿수를 사용하는 경우 유효한 값은 - 10^38 + 1부터 10^38 - 1까지입니다. 국제 표준화 기구에서 정한 10진수의 동의어는 dec 및 dec(p, s)니다. numeric은 decimal과 기능적으로 동일합니다. decimal 및 numeric을 참조하세요.
IntegerType, , Integerint int Spark IntegerType 은 부호 있는 4 바이트 정수 번호를 나타냅니다.
SQL: int, bigint, smallint 및 tinyint를 참조하세요.
ByteType, , Bytetinyint smallint Spark: ByteType 은 부호 있는 1 바이트 정수 [-128 ~127]를 나타내고 ShortType은 부호 있는 2 바이트 정수 [-32768 ~ 32767]를 나타냅니다.
SQL: Tinyint는 부호 있는 1 바이트 정수 [0, 255]를 나타내고 smallint는 부호 있는 2 바이트 정수 [-32768, 32767]를 나타냅니다. int, bigint, smallint 및 tinyint를 참조하세요.
ShortType, , Shortsmallint smallint 위와 동일합니다.
DoubleType, Double float Spark: DoubleType은 8바이트 배정밀도 부동 소수점 숫자를 나타냅니다. SQL: float 및 real을 참조하세요.
FloatType, , floatreal real Spark: FloatType은 4바이트 배정밀도 부동 소수점 숫자를 나타냅니다. SQL: float 및 real을 참조하세요.
DateType, date date Spark: DateType 은 표준 시간대가 없는 필드 연도, 월 및 일의 값으로 구성된 값을 나타냅니다.
SQL: date를 참조하세요.
TimestampType, timestamp datetime2 Spark: TimestampType은 세션 현지 표준 시간대가 있는 연도, 월, 일, 시간, 분 및 초 필드의 값으로 구성된 값을 나타냅니다. 타임스탬프 값은 절대 시점을 나타냅니다.
SQL: datetime2를 참조하세요.
char char
StringType, , Stringvarchar Varchar(n) Spark: StringType은 문자열 값을 나타냅니다. VarcharType(n)은 길이 제한이 있는 StringType의 변형입니다. 입력 문자열이 길이 제한을 초과하면 데이터 쓰기가 실패합니다. 이 형식은 함수/연산자가 아닌 테이블 스키마에서만 사용할 수 있습니다.
CharType(n)은 고정 길이인 VarcharType(n)의 변형입니다. CharType(n) 형식의 열을 읽으면 항상 길이가 n인 문자열 값이 반환됩니다. CharType(n) 열 비교는 짧은 열을 더 긴 길이로 채웁니다.
SQL: Spark에서 제공된 길이가 있는 경우 varchar(n)의 n이 해당 길이로 설정됩니다. 분할된 열인 경우 n은 최대 2048일 수 있습니다. 그렇지 않으면 varchar(max)가 됩니다. char 및 varchar를 참조하세요.
Latin1_General_100_BIN2_UTF8 데이터 정렬과 함께 사용합니다.
BinaryType, binary varbinary(n) SQL: Spark에서 제공된 길이가 있는 경우 Varbinary(n)n이 해당 길이로 설정됩니다. 분할된 열인 경우 n은 최대 2048일 수 있습니다. 그렇지 않으면 Varbinary(max)가 됩니다. binary 및 varbinary를 참조하세요.
array, , mapstruct varchar(max) SQL: Latin1_General_100_BIN2_UTF8 데이터 정렬을 사용하여 JSON으로 직렬화합니다. JSON 데이터를 참조하세요.

참고 항목

데이터베이스 수준 데이터 정렬은 Latin1_General_100_CI_AS_SC_UTF8입니다.

보안 모델

Spark 데이터베이스 및 테이블 및 SQL 엔진의 동기화된 표현은 기본 스토리지 수준에서 보호됩니다. 현재 개체 자체에 대한 사용 권한이 없으므로 개체 탐색기에서 개체를 볼 수 있습니다.

관리형 테이블을 만드는 보안 주체는 해당 테이블의 소유자로 간주되며 기본 폴더 및 파일 외에도 테이블에 대한 모든 권한을 갖습니다. 또한 데이터베이스 소유자는 자동으로 테이블의 공동 소유자가 됩니다.

인증 통과를 사용하여 Spark 또는 SQL 외부 테이블을 만드는 경우 데이터는 폴더 및 파일 수준에서만 보호됩니다. 다른 사용자가 이 유형의 외부 테이블을 쿼리하면 쿼리 제출자의 보안 ID가 파일 시스템으로 전달되어 액세스 권한이 확인됩니다.

폴더 및 파일에 대한 권한을 설정하는 방법에 대한 자세한 내용은 Synapse Analytics 공유 데이터베이스를 참조하세요.

예제

Spark에서 관리형 테이블 만들기 및 서버리스 SQL 풀에서 쿼리

이 시나리오에는 mytestdb라는 Spark 데이터베이스가 있습니다. 서버리스 SQL 풀을 사용하여 Spark 데이터베이스 만들기 및 연결을 참조하세요.

다음 명령을 실행하여 SparkSQL을 통해 관리형 Spark 테이블을 만듭니다.

    CREATE TABLE mytestdb.myparquettable(id int, name string, birthdate date) USING Parquet

이 명령은 mytestdb 데이터베이스에 myparquettable 테이블을 만듭니다. 테이블 이름은 소문자로 변환됩니다. 잠시 후 서버리스 SQL 풀에서 테이블을 볼 수 있습니다. 예를 들어 서버리스 SQL 풀에서 다음 명령문을 실행합니다.

    USE mytestdb;
    SELECT * FROM sys.tables;

결과에 myparquettable이 포함되어 있는지 확인합니다.

참고 항목

Delta, Parquet 또는 CSV를 해당 저장 형식으로 사용하지 않는 테이블은 동기화되지 않습니다.

다음으로, 몇 가지 값을 Spark의 테이블에 삽입합니다(예: C# Notebook에서 다음 C# Spark 문 사용).

using Microsoft.Spark.Sql.Types;

var data = new List<GenericRow>();

data.Add(new GenericRow(new object[] { 1, "Alice", new Date(2010, 1, 1)}));
data.Add(new GenericRow(new object[] { 2, "Bob", new Date(1990, 1, 1)}));

var schema = new StructType
    (new List<StructField>()
        {
            new StructField("id", new IntegerType()),
            new StructField("name", new StringType()),
            new StructField("birthdate", new DateType())
        }
    );

var df = spark.CreateDataFrame(data, schema);
df.Write().Mode(SaveMode.Append).InsertInto("mytestdb.myparquettable");

이제 다음과 같이 서버리스 SQL 풀에서 데이터를 읽을 수 있습니다.

SELECT * FROM mytestdb.myparquettable WHERE name = 'Alice';

다음 행을 결과로 가져옵니다.

id | name | birthdate
---+-------+-----------
1 | Alice | 2010-01-01

Spark에서 외부 테이블 만들기 및 서버리스 SQL 풀에서 쿼리

이 예제에서는 관리되는 테이블에 대한 이전 예제에서 만든 Parquet 데이터 파일을 통해 외부 Spark 테이블을 만듭니다.

예를 들어 SparkSQL을 사용하여 다음을 실행합니다.

CREATE TABLE mytestdb.myexternalparquettable
    USING Parquet
    LOCATION "abfss://<storage-name>.dfs.core.windows.net/<fs>/synapse/workspaces/<synapse_ws>/warehouse/mytestdb.db/myparquettable/"

자리 표시자를 <storage-name> 사용 중인 ADLS Gen2 스토리지 계정 이름으로 바꾸고, <fs> 사용 중인 파일 시스템 이름과 자리 표시자를 <synapse_ws> 이 예제를 실행하는 데 사용하는 Azure Synapse 작업 영역의 이름으로 바꿉니다.

이전 예제에서는 myextneralparquettable 테이블을 mytestdb 데이터베이스에 만듭니다. 잠시 후 서버리스 SQL 풀에서 테이블을 볼 수 있습니다. 예를 들어 서버리스 SQL 풀에서 다음 명령문을 실행합니다.

USE mytestdb;
SELECT * FROM sys.tables;

결과에 myexternalparquettable이 포함되어 있는지 확인합니다.

이제 다음과 같이 서버리스 SQL 풀에서 데이터를 읽을 수 있습니다.

SELECT * FROM mytestdb.dbo.myexternalparquettable WHERE name = 'Alice';

다음 행을 결과로 가져옵니다.

id | name | birthdate
---+-------+-----------
1 | Alice | 2010-01-01

다음 단계