Copiar dados do Google Cloud Storage usando o Azure Data Factory ou o Synapse Analytics
APLICA-SE A: Azure Data Factory Azure Synapse Analytics
Dica
Experimente o Data Factory no Microsoft Fabric, uma solução de análise tudo-em-um para empresas. O Microsoft Fabric abrange desde movimentação de dados até ciência de dados, análise em tempo real, business intelligence e relatórios. Saiba como iniciar uma avaliação gratuita!
Este artigo descreve como copiar dados a partir do Google Cloud Storage (GCS). Para saber mais, leia o artigo introdutório do Azure Data Factory e do Synapse Analytics.
Funcionalidades com suporte
Há suporte para este conector do Google Cloud Storage para as seguintes funcionalidades:
Funcionalidades com suporte | IR |
---|---|
Atividade de cópia (origem/-) | ① ② |
Fluxo de dados de mapeamento (origem/-) | ① |
Atividade de pesquisa | ① ② |
Atividade GetMetadata | ① ② |
Excluir atividade | ① ② |
① Runtime de integração do Azure ② Runtime de integração auto-hospedada
Especificamente, este conector do Google Cloud Storage dá suporte à cópia de arquivos no estado em que se encontram ou à análise de arquivos com os formatos de arquivo e codecs de compactação compatíveis. Ele aproveita a interoperabilidade compatível com S3 do GCS.
Pré-requisitos
A seguinte configuração é necessária na sua conta do Google Cloud Storage:
- Permitir a interoperabilidade para sua conta do Google Cloud Storage
- Defina o projeto padrão que contém os dados que você deseja copiar do bucket de destino do GCS.
- Crie uma conta de serviço e defina os níveis de permissões certos usando o IAM de Nuvem no GCP.
- Gere as chaves de acesso para essa conta de serviço.
Permissões necessárias
Para copiar dados do Google Cloud Storage, verifique se você recebeu as seguintes permissões para as operações de objeto: storage.objects.get
e storage.objects.list
.
Se você usar a interface do usuário para a criação, será necessária a permissão storage.buckets.list
adicional para operações como teste da conexão com o serviço vinculado e procura começando na raiz. Caso não deseje conceder essa permissão, escolha as opções "Testar a conexão com o caminho do arquivo" ou "Procurar começando no caminho especificado" na interface do usuário.
Para obter a lista completa de funções do Google Cloud Storage e as permissões associadas, confira Funções do IAM do Google Cloud Storage no site do Google Cloud.
Introdução
Para executar a atividade de Cópia com um pipeline, será possível usar as ferramentas ou os SDKs abaixo:
- A ferramenta Copiar Dados
- O portal do Azure
- O SDK do .NET
- O SDK do Python
- PowerShell do Azure
- A API REST
- O modelo do Azure Resource Manager
Criar um serviço vinculado ao Google Cloud Storage usando a interface do usuário
Use as etapas a seguir para criar um serviço vinculado ao Google Cloud Storage na interface do usuário do portal do Azure.
Navegue até a guia Gerenciar em seu espaço de trabalho do Azure Data Factory ou do Synapse, selecione Serviços Vinculados e clique em Novo:
Pesquise por Google e selecione o conector do Google Cloud Storage (API S3).
Configure os detalhes do serviço, teste a conexão e crie o novo serviço vinculado.
Detalhes da configuração do conector
As seções a seguir fornecem detalhes sobre as propriedades que são usadas para definir entidades do Data Factory específicas ao conector do Google Cloud Storage.
Propriedades do serviço vinculado
Há suporte para as seguintes propriedades nos serviços vinculados do Google Cloud Storage:
Propriedade | Descrição | Obrigatório |
---|---|---|
type | A propriedade type precisa ser definida como GoogleCloudStorage. | Sim |
accessKeyId | ID da chave de acesso secreta. Para ver a chave de acesso e o segredo, confira Prerrequisitos. | Sim |
secretAccessKey | A chave de acesso do secreta em si. Marque este campo como um SecureString para armazená-lo com segurança ou referencie um segredo armazenado no Azure Key Vault. | Sim |
serviceUrl | Especifique o ponto de extremidade GCS personalizado como https://storage.googleapis.com . |
Sim |
connectVia | O runtime de integração a ser usado para se conectar ao armazenamento de dados. Use o runtime de integração do Azure ou o runtime de integração auto-hospedada (se o seu armazenamento de dados estiver em uma rede privada). Se essa propriedade não for especificada, o serviço usará o runtime de integração do Azure padrão. | Não |
Veja um exemplo:
{
"name": "GoogleCloudStorageLinkedService",
"properties": {
"type": "GoogleCloudStorage",
"typeProperties": {
"accessKeyId": "<access key id>",
"secretAccessKey": {
"type": "SecureString",
"value": "<secret access key>"
},
"serviceUrl": "https://storage.googleapis.com"
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Propriedades do conjunto de dados
O Azure Data Factory é compatível com os formatos de arquivo a seguir. Confira cada artigo para obter configurações baseadas em formato.
- Formato Avro
- Formato binário
- Formato de texto delimitado
- Formato do Excel
- Formato JSON
- Formato ORC
- Formato Parquet
- Formato XML
Há suporte para as seguintes propriedades no Google Cloud Storage nas configurações de location
em um conjunto de dados baseado no formato:
Propriedade | Descrição | Obrigatório |
---|---|---|
type | A propriedade type em location no conjunto de dados precisa ser definida como GoogleCloudStorageLocation. |
Sim |
bucketName | O nome do bucket GCS. | Sim |
folderPath | O caminho para a pasta sob o bucket fornecido. Caso deseje usar um curinga para filtrar a pasta, ignore essa configuração e especifique isso nas configurações de origem da atividade. | Não |
fileName | O nome do arquivo no bucket e no caminho da pasta fornecidos. Caso deseje usar um curinga para filtrar os arquivos, ignore essa configuração e especifique isso nas configurações de origem da atividade. | Não |
Exemplo:
{
"name": "DelimitedTextDataset",
"properties": {
"type": "DelimitedText",
"linkedServiceName": {
"referenceName": "<Google Cloud Storage linked service name>",
"type": "LinkedServiceReference"
},
"schema": [ < physical schema, optional, auto retrieved during authoring > ],
"typeProperties": {
"location": {
"type": "GoogleCloudStorageLocation",
"bucketName": "bucketname",
"folderPath": "folder/subfolder"
},
"columnDelimiter": ",",
"quoteChar": "\"",
"firstRowAsHeader": true,
"compressionCodec": "gzip"
}
}
}
Propriedades da atividade de cópia
Para obter uma lista completa das seções e propriedades disponíveis para definir atividades, confia o artigo Pipelines. Esta seção apresenta uma lista das propriedades para as quais a fonte do Google Cloud Storage dá suporte.
Google Cloud Storage como um tipo de origem
O Azure Data Factory é compatível com os formatos de arquivo a seguir. Confira cada artigo para obter configurações baseadas em formato.
- Formato Avro
- Formato binário
- Formato de texto delimitado
- Formato do Excel
- Formato JSON
- Formato ORC
- Formato Parquet
- Formato XML
Há suporte para as seguintes propriedades no Google Cloud Storage nas configurações de storeSettings
em uma origem de cópia baseada no formato:
Propriedade | Descrição | Obrigatório |
---|---|---|
type | A propriedade type em storeSettings precisa ser definida como GoogleCloudStorageReadSettings. |
Sim |
Localize os arquivos a serem copiados: | ||
OPÇÃO 1: caminho estático |
Copiar do caminho do bucket ou de pasta/arquivo especificado no conjunto de dados. Caso deseje copiar todos os arquivos de um bucket ou uma pasta, especifique também wildcardFileName como * . |
|
OPÇÃO DOIS: Prefixo GCS – prefix |
Prefixo para o nome da chave do GCS no bucket especificado configurado no conjunto de dados para filtrar os arquivos do GCS de origem. As chaves do GCS cujos nomes começam com bucket_in_dataset/this_prefix serão selecionadas. Ele utiliza o filtro do lado do serviço do GCS, que fornece melhor desempenho do que o filtro curinga. |
Não |
OPÇÃO 3: curinga - wildcardFolderPath |
O caminho da pasta com caracteres curinga sob o bucket fornecido configurado no conjunto de dados para filtrar as pastas de origem. Os curingas permitidos são: * (corresponde a zero ou mais caracteres) e ? (corresponde a zero ou caractere único). Use ^ como escape se o nome real da pasta tiver curingas ou esse caractere de escape. Veja mais exemplos em Exemplos de filtro de pastas e arquivos. |
Não |
OPÇÃO 3: curinga - wildcardFileName |
O nome do arquivo com caracteres curinga sob o bucket e caminho da pasta fornecidos (ou o caminho da pasta curinga) para filtrar os arquivos de origem. Os curingas permitidos são: * (corresponde a zero ou mais caracteres) e ? (corresponde a zero ou caractere único). Use ^ como escape se o nome do arquivo contiver um curinga ou esse caractere de escape. Veja mais exemplos em Exemplos de filtro de pastas e arquivos. |
Sim |
OPÇÃO 3: uma lista de arquivos - fileListPath |
Indica a cópia de um determinado conjunto de arquivos. Aponte para um arquivo de texto que inclui a lista de arquivos que você deseja copiar com um arquivo por linha, que é o caminho relativo para o caminho configurado no conjunto de dados. Quando usar essa opção, não especifique o nome de arquivo no conjunto de dados. Veja mais exemplos em Exemplos de lista de arquivos. |
Não |
Configurações adicionais: | ||
recursiva | Indica se os dados são lidos recursivamente das subpastas ou somente da pasta especificada. Observe que quando recursiva é definida como true e o coletor é um repositório baseado em arquivo, uma pasta vazia ou uma subpasta não é copiada nem criada no coletor. Os valores permitidos são true (padrão) e false. Essa propriedade não se aplica quando você configura fileListPath . |
Não |
deleteFilesAfterCompletion | Indica se os arquivos binários serão excluídos do repositório de origem após a movimentação com êxito para o repositório de destino. A exclusão do arquivo é feita por arquivo, portanto, quando a atividade de cópia falhar, você verá que alguns arquivos já foram copiados para o destino e excluídos da origem, enquanto outros ainda permanecem no repositório de origem. Essa propriedade só é válida no cenário de cópia de arquivos binários. O valor padrão é false. |
Não |
modifiedDatetimeStart | Os arquivos são filtrados com base no atributo última modificação. Os arquivos serão selecionados se a hora da última modificação for maior ou igual a modifiedDatetimeStart e menor que modifiedDatetimeEnd . A hora é aplicada ao fuso horário de UTC no formato "2018-12-01T05:00:00Z". As propriedades podem ser NULL, o que significa que nenhum filtro de atributo de arquivo será aplicado ao conjunto de dados. Quando modifiedDatetimeStart tiver um valor de datetime, mas modifiedDatetimeEnd for NULL, serão selecionados os arquivos cujo último atributo modificado for maior ou igual ao valor de datetime. Quando modifiedDatetimeEnd tem um valor datetime, mas modifiedDatetimeStart é NULL, serão selecionados os arquivos cujo último atributo modificado for menor que o valor do datetime.Essa propriedade não se aplica quando você configura fileListPath . |
Não |
modifiedDatetimeEnd | Mesmo que acima. | Não |
enablePartitionDiscovery | Para arquivos que são particionados, especifique se deseja analisar as partições do caminho do arquivo e adicioná-las como colunas de origem adicionais. Os valores permitidos são false (padrão) e true. |
No |
partitionRootPath | Quando a descoberta de partição estiver habilitada, especifique o caminho raiz absoluto para ler as pastas particionadas como colunas de dados. Se ele não for especificado, por padrão ocorrerá o seguinte: – Quando você usa o caminho do arquivo no conjunto de dados ou na lista de arquivos na origem, o caminho raiz da partição é o caminho configurado no conjunto de dados. – Quando você usa o filtro de pasta curinga, o caminho raiz da partição é o subcaminho antes do primeiro curinga. Por exemplo, supondo que você configure o caminho no conjunto de dados como "root/folder/year=2020/month=08/day=27": – Se você especifica o caminho raiz da partição como "root/folder/year=2020", a atividade de cópia gera mais duas colunas month e day com o valor "08" e "27", respectivamente, além das colunas dentro dos arquivos.– Se o caminho raiz da partição não for especificado, nenhuma coluna extra será gerada. |
Não |
maxConcurrentConnections | O limite superior de conexões simultâneas estabelecidas com o armazenamento de dados durante a execução da atividade. Especifique um valor somente quando desejar limitar as conexões simultâneas. | Não |
Exemplo:
"activities":[
{
"name": "CopyFromGoogleCloudStorage",
"type": "Copy",
"inputs": [
{
"referenceName": "<Delimited text input dataset name>",
"type": "DatasetReference"
}
],
"outputs": [
{
"referenceName": "<output dataset name>",
"type": "DatasetReference"
}
],
"typeProperties": {
"source": {
"type": "DelimitedTextSource",
"formatSettings":{
"type": "DelimitedTextReadSettings",
"skipLineCount": 10
},
"storeSettings":{
"type": "GoogleCloudStorageReadSettings",
"recursive": true,
"wildcardFolderPath": "myfolder*A",
"wildcardFileName": "*.csv"
}
},
"sink": {
"type": "<sink type>"
}
}
}
]
Exemplos de filtro de pasta e arquivo
Esta seção descreve o comportamento resultante do caminho da pasta e do nome de arquivo com filtros curinga.
bucket | chave | recursiva | Estrutura da pasta de origem e resultado do filtro (os arquivos em negrito são recuperados) |
---|---|---|---|
bucket | Folder*/* |
false | bucket FolderA Arquivo1.csv File2.json Subpasta1 File3.csv File4.json File5.csv OutraPastaB Arquivo6.csv |
bucket | Folder*/* |
true | bucket FolderA Arquivo1.csv File2.json Subpasta1 File3.csv File4.json File5.csv OutraPastaB Arquivo6.csv |
bucket | Folder*/*.csv |
false | bucket FolderA Arquivo1.csv Arquivo2.json Subpasta1 File3.csv File4.json File5.csv OutraPastaB Arquivo6.csv |
bucket | Folder*/*.csv |
true | bucket FolderA Arquivo1.csv Arquivo2.json Subpasta1 File3.csv File4.json File5.csv OutraPastaB Arquivo6.csv |
Exemplos de lista de arquivos
Esta seção descreve o comportamento resultante do uso de um caminho de lista de arquivos na origem da atividade Copy.
Suponha que você tenha a seguinte estrutura de pasta de origem e queira copiar os arquivos em negrito:
Exemplo de estrutura de origem | Conteúdo em FileListToCopy.txt | Configuração |
---|---|---|
bucket FolderA Arquivo1.csv Arquivo2.json Subpasta1 File3.csv File4.json File5.csv Metadados FileListToCopy.txt |
File1.csv Subfolder1/File3.csv Subfolder1/File5.csv |
No conjunto de dados: – Bucket: bucket - Caminho da pasta: FolderA Na origem da atividade de cópia: - Caminho da lista de arquivos: bucket/Metadata/FileListToCopy.txt O caminho da lista de arquivos aponta para um arquivo de texto no mesmo armazenamento de dados que inclui a lista de arquivos que você deseja copiar, um arquivo por linha, com o caminho relativo do caminho configurado no conjunto de dados. |
Propriedades do fluxo de dados de mapeamento
Quando estiver transformando dados em fluxos de dados de mapeamento, você poderá ler arquivos do Armazenamento em Nuvem do Google nos seguintes formatos:
As configurações de formato específico estão localizadas na documentação para esse formato. Para saber mais, confira Transformação de origem no fluxo de dados de mapeamento.
Transformação de origem
Na transformação de origem, você pode ler de um contêiner, pasta ou arquivo individual no Armazenamento de Nuvem do Google. Use a guia Opções de origem para gerenciar como os arquivos são lidos.
Caminhos curinga: o uso de um padrão curinga instruirá o serviço a executar um loop em cada pasta e arquivo correspondentes em uma única transformação de origem. Esse é um modo eficaz de processar vários arquivos dentro de um único fluxo. Adicione vários padrões de correspondência de curinga com o sinal de adição que aparece ao passar o mouse sobre o padrão de curinga existente.
Em seu contêiner de origem, escolha uma série de arquivos que correspondem a um padrão. Somente o contêiner pode ser especificado no conjunto de dados. O caminho curinga, portanto, também precisa incluir o caminho da pasta raiz.
Exemplos de caracteres curinga:
*
Representa qualquer conjunto de caracteres.**
Representa o aninhamento de diretório recursivo.?
Substitui um caractere.[]
Corresponde a um ou mais caracteres entre colchetes./data/sales/**/*.csv
Obtém todos os arquivos CSV em /data/sales./data/sales/20??/**/
Obtém todos os arquivos no século XX./data/sales/*/*/*.csv
Obtém arquivos CSV dois níveis em /data/sales./data/sales/2004/*/12/[XY]1?.csv
Obtém todos os arquivos CSV de dezembro de 2004 que começam com X ou Y prefixado por um número de dois dígitos.
Caminho raiz da partição: se você tiver pastas particionadas em sua fonte de arquivo com um formato key=value
(por exemplo, year=2019
), poderá atribuir o nível superior da árvore de pastas dessa partição a um nome de coluna no fluxo de dados.
Primeiro, defina um curinga para incluir todos os caminhos que são as pastas particionadas mais os arquivos folha que você deseja ler.
Use a configuração do caminho raiz da partição para definir qual é o nível superior da estrutura de pastas. Ao exibir o conteúdo de seus dados por meio de uma pré-visualização de dados, você verá que o serviço adicionará as partições resolvidas encontradas em cada um dos níveis de pasta.
Lista de arquivos: é um conjunto de arquivos. Crie um arquivo de texto que inclui uma lista de arquivos do caminho relativo a serem processados. Aponte para este arquivo de texto.
Coluna para armazenar o nome do arquivo: armazene o nome do arquivo de origem em uma coluna em seus dados. Insira um novo nome de coluna para armazenar a cadeia de caracteres de nome de arquivo.
Após a conclusão: Opte por não fazer nada com o arquivo de origem após a execução de fluxo de dados, excluir o arquivo de origem ou mover o arquivo de origem. Os caminhos para movimentação são relativos.
Para mover os arquivos de origem para outro local após o processamento, primeiro selecione "Mover" para a operação de arquivo. Em seguida, defina o diretório "de". Se você não estiver usando curingas para o caminho, a configuração "de" será a mesma pasta que a de origem.
Se você tiver um caminho de origem com curinga, sua sintaxe terá a seguinte aparência:
/data/sales/20??/**/*.csv
Você pode especificar "de" como:
/data/sales
E você pode especificar "para" como:
/backup/priorSales
Nesse caso, todos os arquivos que foram originados em /data/sales
são movidos para /backup/priorSales
.
Observação
As operações do arquivo são executadas somente quando você inicia o fluxo de dados de uma execução de pipeline (depuração de pipeline ou realização da execução) que usa a atividade Executar Fluxo de Dados em um pipeline. As operações de arquivo não são executadas no modo de depuração do Fluxo de Dados.
Filtrar por última modificação: você pode filtrar quais arquivos são processados especificando um intervalo de datas de quando eles foram modificados pela última vez. Todos os datetimes estão em UTC.
Pesquisar propriedades de atividade
Para saber detalhes sobre as propriedades, verifique Atividade de pesquisa.
Propriedades de atividade GetMetadata
Para saber detalhes sobre as propriedades, confira Atividade GetMetadata.
Excluir propriedades da atividade
Para saber mais detalhes sobre as propriedades, confira Atividade Delete.
Modelos herdados
Se você estava usando um conector do Amazon S3 para copiar dados do Google Cloud Storage, ainda há suporte para compatibilidade com versões anteriores. Sugerimos que você use o novo modelo mencionado anteriormente. A criação da interface do usuário do Data Factory mudou para gerar o novo modelo.
Conteúdo relacionado
Para obter uma lista de armazenamentos de dados que a atividade Copy suporta, como fontes e coletores, consulte Armazenamentos de dados compatíveis.