Copiar e transformar dados do Hive usando o Azure Data Factory
APLICA-SE A: Azure Data Factory Azure Synapse Analytics
Dica
Experimente o Data Factory no Microsoft Fabric, uma solução de análise tudo-em-um para empresas. O Microsoft Fabric abrange desde movimentação de dados até ciência de dados, análise em tempo real, business intelligence e relatórios. Saiba como iniciar uma avaliação gratuita!
Este artigo descreve como usar a atividade de cópia nos pipelines do Azure Data Factory ou do Azure Synapse Analytics para copiar dados de uma tabela do Hive. Ele amplia o artigo Visão geral da atividade de cópia que apresenta uma visão geral da atividade de cópia.
Funcionalidades com suporte
Há suporte a este conector do Hive para as seguintes funcionalidades:
Funcionalidades com suporte | IR |
---|---|
Atividade de cópia (origem/-) | ① ② |
Fluxo de dados de mapeamento (origem/-) | ① |
Atividade de pesquisa | ① ② |
① Runtime de integração do Azure ② Runtime de integração auto-hospedada
Para obter uma lista de armazenamentos de dados com suporte como origens/coletores da atividade de cópia, confira a tabela Armazenamentos de dados com suporte.
O serviço fornece um driver interno para habilitar a conectividade, portanto, não é necessário instalar manualmente qualquer driver usando esse conector.
O conector dá suporte às versões do Windows incluídas nesse artigo.
Pré-requisitos
Se o armazenamento de dados estiver localizado dentro de uma rede local, em uma rede virtual do Azure ou na Amazon Virtual Private Cloud, você precisará configurar um runtime de integração auto-hospedada para se conectar a ele.
Se o armazenamento de dados for um serviço de dados de nuvem gerenciado, você poderá usar o Azure Integration Runtime. Se o acesso for restrito aos IPs que estão aprovados nas regras de firewall, você poderá adicionar IPs do Azure Integration Runtime à lista de permissões.
Você também pode usar o recurso de runtime de integração da rede virtual gerenciada no Azure Data Factory para acessar a rede local sem instalar e configurar um runtime de integração auto-hospedada.
Para obter mais informações sobre os mecanismos de segurança de rede e as opções compatíveis com o Data Factory, consulte Estratégias de acesso a dados.
Introdução
Para executar a atividade de Cópia com um pipeline, será possível usar as ferramentas ou os SDKs abaixo:
- A ferramenta Copiar Dados
- O portal do Azure
- O SDK do .NET
- O SDK do Python
- PowerShell do Azure
- A API REST
- O modelo do Azure Resource Manager
Criar um serviço vinculado para o Hive usando a interface do usuário
Use as etapas a seguir para criar um serviço vinculado para o Hive na interface do usuário do portal do Azure.
Navegue até a guia Gerenciar no workspace do Azure Data Factory ou do Synapse, selecione Serviços Vinculados e clique em Novo:
Procure Hive e selecione o conector do Hive.
Configure os detalhes do serviço, teste a conexão e crie o novo serviço vinculado.
Detalhes da configuração do conector
As seções a seguir fornecem detalhes sobre as propriedades usadas para definir entidades do Data Factory específicas ao conector de Hive.
Propriedades do serviço vinculado
As propriedades a seguir têm suporte para o serviço vinculado de Hive:
Propriedade | Descrição | Obrigatório |
---|---|---|
type | A propriedade type deve ser definida como: Hive | Sim |
host | Endereço IP ou nome de host do servidor Hive, separado por ';' para vários hosts (somente quando serviceDiscoveryMode estiver habilitado). | Sim |
porta | A porta TCP usada pelo servidor Hive para ouvir conexões de cliente. Se você se conectar ao Azure HDInsight, especifique a porta como 443. | Sim |
serverType | O tipo do servidor Hive. Os valores permitidos são: HiveServer1, HiveServer2, HiveThriftServer |
Não |
thriftTransportProtocol | O protocolo de transporte a ser usado na camada de Thrift. Os valores permitidos são: Binário, SASL, HTTP |
Não |
authenticationType | O método de autenticação usado para acessar o servidor do Hive. Valores permitidos são: Anônimo, Username, UsernameAndPassword, WindowsAzureHDInsightService. Não há suporte para a autenticação baseada em Kerberos agora. |
Sim |
serviceDiscoveryMode | verdadeiro para indicar o uso do serviço ZooKeeper, falso não. | Não |
zooKeeperNameSpace | O namespace no ZooKeeper no qual os2 nós do Hive Server são adicionados. | Não |
useNativeQuery | Especifica se o driver usa consultas HiveQL nativas ou as converte em uma forma equivalente no HiveQL. | Não |
Nome de Usuário | O nome de usuário que você usa para acessar o servidor do Hive. | Não |
password | A senha correspondente ao usuário. Marque este campo como um SecureString para armazená-lo com segurança ou referencie um segredo armazenado no Azure Key Vault. | Não |
httpPath | A URL parcial correspondente ao servidor do Hive. | Não |
enableSsl | Especifica se as conexões com o servidor são criptografadas via TLS. O valor padrão é false. | Não |
trustedCertPath | O caminho completo do arquivo .pem que contém certificados de AC confiáveis para verificar o servidor ao se conectar via TLS. Essa propriedade só pode ser definida ao usar o TLS em IR auto-hospedado. O valor padrão é o arquivo de cacerts.pem instalado com o IR. | Não |
useSystemTrustStore | Especifica se deve usar um certificado de autoridade de certificação do repositório de confiança de sistema ou de um arquivo PEM especificado. O valor padrão é false. | Não |
allowHostNameCNMismatch | Especifica se é necessário o nome do certificado TLS/SSL emitido pela AC para corresponder ao nome de host do servidor ao se conectar via TLS. O valor padrão é false. | Não |
allowSelfSignedServerCert | Especifica se deve permitir os certificados autoassinados do servidor. O valor padrão é false. | Não |
connectVia | O Integration Runtime a ser usado para se conectar ao armazenamento de dados. Saiba mais na seção Pré-requisitos. Se não for especificado, ele usa o Integration Runtime padrão do Azure. | Não |
storageReference | Uma referência ao serviço vinculado da conta de armazenamento usada para preparar dados no fluxo de dados de mapeamento. Isso é necessário somente ao usar o serviço vinculado do Hive no fluxo de dados de mapeamento | Não |
Exemplo:
{
"name": "HiveLinkedService",
"properties": {
"type": "Hive",
"typeProperties": {
"host" : "<cluster>.azurehdinsight.net",
"port" : "<port>",
"authenticationType" : "WindowsAzureHDInsightService",
"username" : "<username>",
"password": {
"type": "SecureString",
"value": "<password>"
}
}
}
}
Propriedades do conjunto de dados
Para obter uma lista completa das seções e propriedades disponíveis para definir os conjuntos de dados, confira o artigo sobre conjuntos de dados. Esta seção fornece uma lista das propriedades com suporte pelo conjunto de dados de HTTP.
Para copiar dados de Hive, defina a propriedade type do conjunto de dados como HiveObject. Há suporte para as seguintes propriedades:
Propriedade | Descrição | Obrigatório |
---|---|---|
type | A propriedade type do conjunto de dados precisa ser definida como: HiveObject | Sim |
esquema | Nome do esquema. | Não (se "query" na fonte da atividade for especificada) |
tabela | Nome da tabela. | Não (se "query" na fonte da atividade for especificada) |
tableName | O nome da tabela, incluindo a parte do esquema. Essa propriedade é compatível com versões anteriores. Para uma nova carga de trabalho, use schema e table . |
Não (se "query" na fonte da atividade for especificada) |
Exemplo
{
"name": "HiveDataset",
"properties": {
"type": "HiveObject",
"typeProperties": {},
"schema": [],
"linkedServiceName": {
"referenceName": "<Hive linked service name>",
"type": "LinkedServiceReference"
}
}
}
Propriedades da atividade de cópia
Para obter uma lista completa das seções e propriedades disponíveis para definir atividades, confia o artigo Pipelines. Esta seção fornece uma lista das propriedades com suporte pela fonte Hive.
HiveSource como fonte
Para copiar dados de Hive, defina o tipo de fonte na atividade de cópia como HiveSource. As propriedades a seguir têm suporte na seção source da atividade de cópia:
Propriedade | Descrição | Obrigatório |
---|---|---|
type | A propriedade type da fonte da atividade de cópia deve ser definida como: HiveSource | Sim |
Consulta | Utiliza a consulta SQL personalizada para ler os dados. Por exemplo: "SELECT * FROM MyTable" . |
Não (se "tableName" no conjunto de dados for especificado) |
Exemplo:
"activities":[
{
"name": "CopyFromHive",
"type": "Copy",
"inputs": [
{
"referenceName": "<Hive input dataset name>",
"type": "DatasetReference"
}
],
"outputs": [
{
"referenceName": "<output dataset name>",
"type": "DatasetReference"
}
],
"typeProperties": {
"source": {
"type": "HiveSource",
"query": "SELECT * FROM MyTable"
},
"sink": {
"type": "<sink type>"
}
}
}
]
Propriedades do fluxo de dados de mapeamento
Há suporte para o conector do hive como uma fonte de conjunto de dados embutida no fluxo de dados de mapeamento. Leia usando uma consulta ou diretamente de uma tabela Hive no HDInsight. Os dados do Hive são preparados em uma conta de armazenamento como arquivos parquet antes de serem transformados como parte de um fluxo de dados.
Propriedades da Origem
A tabela abaixo lista as propriedades com suporte por uma fonte hive. Você pode editar essas propriedades na guia Opções de origem.
Nome | Descrição | Obrigatório | Valores permitidos | Propriedade do script do Fluxo de Dados |
---|---|---|---|---|
Repositório | O repositório deve ser hive |
sim | hive |
store |
Formatar | Se você está lendo de uma tabela ou consulta | sim | table ou query |
format |
Nome do esquema | Se estiver lendo de uma tabela, o esquema da tabela de origem | Sim, se o formato for table |
Cadeia de caracteres | schemaName |
Nome da tabela | Se estiver lendo de uma tabela, o nome da tabela | Sim, se o formato for table |
Cadeia de caracteres | tableName |
Consulta | Se o formato for query , a consulta de origem no serviço vinculado do Hive |
sim, se o formato for query |
Cadeia de caracteres | Consulta |
Em fases. | A tabela do Hive sempre será preparada. | sim | true |
em fases |
Contêiner de armazenamento | Contêiner de armazenamento usado para preparar dados antes de ler do hive ou gravar no Hive. O cluster do hive deve ter acesso a esse contêiner. | sim | Cadeia de caracteres | storageContainer |
Banco de Dados de Preparação: | O esquema/banco de dados ao qual a conta de usuário especificada no serviço vinculado tem acesso. Ela é usada para criar tabelas externas durante o preparo e descartadas posteriormente | não | true ou false |
stagingDatabaseName |
Scripts anteriores do SQL | Código SQL a ser executado na tabela Hive antes de ler os dados | não | String | preSQLs |
Exemplo de fonte
Veja abaixo um exemplo de uma configuração de origem do Hive:
Essas configurações se traduzem no seguinte script de fluxo de dados:
source(
allowSchemaDrift: true,
validateSchema: false,
ignoreNoFilesFound: false,
format: 'table',
store: 'hive',
schemaName: 'default',
tableName: 'hivesampletable',
staged: true,
storageContainer: 'khive',
storageFolderPath: '',
stagingDatabaseName: 'default') ~> hivesource
Limitações conhecidas
- Tipos complexos, como matrizes, mapas, structs e uniões, não têm suporte para leitura.
- O conector do Hive dá suporte apenas a tabelas hive Azure HDInsight versão 4.0 ou superior (Apache Hive 3.1.0)
- Por padrão, o driver do Hive fornece "tableName.columnName" no coletor. Se você não quiser ver o nome da tabela no nome da coluna, há duas maneiras de corrigir isso. a. Verifique a configuração "hive.resultset.use.unique.column.names" no lado do servidor Hive e defina-a como false. b. Use o mapeamento de coluna para renomear o nome da coluna.
Pesquisar propriedades de atividade
Para saber detalhes sobre as propriedades, verifique Pesquisar atividade.
Conteúdo relacionado
Para obter uma lista de armazenamentos de dados com suporte como coletores e fontes da atividade de cópia, confira os armazenamentos de dados com suporte.