Tabella Hive (legacy)

Importante

Questa documentazione è stata ritirata e potrebbe non essere aggiornata.

Questo articolo illustra come importare una tabella Hive dall'archiviazione cloud in Azure Databricks usando una tabella esterna.

Databricks non consiglia l'uso di tabelle Hive per l'archiviazione o l'organizzazione dei dati. Questa documentazione viene fornita per configurare una connessione a una tabella Hive esistente per eseguire la migrazione o l'inserimento di dati da un sistema esterno.

Passaggio 1: Visualizzare l'istruzione CREATE TABLE

Eseguire un SHOW CREATE TABLE <tablename> comando nella riga di comando di Hive per visualizzare l'istruzione che ha creato la tabella.

hive> SHOW CREATE TABLE wikicc;
OK
CREATE  TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'
TBLPROPERTIES (
  'totalSize'='2335',
  'numRows'='240',
  'rawDataSize'='2095',
  'COLUMN_STATS_ACCURATE'='true',
  'numFiles'='1',
  'transient_lastDdlTime'='1418173653')

Passaggio 2: Eseguire un'istruzione CREATE EXTERNAL TABLE

Se l'istruzione restituita usa un CREATE TABLE comando , copiare l'istruzione e sostituire CREATE TABLE con CREATE EXTERNAL TABLE.

  • EXTERNAL garantisce che Spark SQL non elimini i dati se si elimina la tabella.
  • È possibile omettere il TBLPROPERTIES campo.
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'

Passaggio 3: Eseguire comandi SQL sui dati

SELECT * FROM wikicc