Tabela de colmeia (legado)
Importante
Esta documentação foi desativada e pode não ser atualizada.
Este artigo mostra como importar uma tabela do Hive do armazenamento em nuvem para o Azure Databricks usando uma tabela externa.
O Databricks não recomenda o uso de tabelas do Hive para armazenar ou organizar dados. Esta documentação é fornecida para ajudá-lo a configurar uma conexão com uma tabela Hive existente para migrar ou ingerir dados de um sistema externo.
Passo 1: Mostrar a CREATE TABLE
instrução
Emita um SHOW CREATE TABLE <tablename>
comando na linha de comando do Hive para ver a instrução que criou a tabela.
hive> SHOW CREATE TABLE wikicc;
OK
CREATE TABLE `wikicc`(
`country` string,
`count` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'<path-to-table>'
TBLPROPERTIES (
'totalSize'='2335',
'numRows'='240',
'rawDataSize'='2095',
'COLUMN_STATS_ACCURATE'='true',
'numFiles'='1',
'transient_lastDdlTime'='1418173653')
Passo 2: Emitir uma CREATE EXTERNAL TABLE
declaração
Se a instrução retornada usar um CREATE TABLE
comando, copie a instrução e substitua CREATE TABLE
por CREATE EXTERNAL TABLE
.
EXTERNAL
garante que o Spark SQL não exclua seus dados se você soltar a tabela.- Você pode omitir o
TBLPROPERTIES
campo.
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
`country` string,
`count` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'<path-to-table>'
Etapa 3: Emitir comandos SQL em seus dados
SELECT * FROM wikicc