Partilhar via


New-AzureHDInsightSqoopJobDefinition

Define um novo trabalho Sqoop.

Nota

Os cmdlets mencionados nesta documentação são para gerenciar recursos herdados do Azure que usam APIs do Azure Service Manager (ASM). Este módulo do PowerShell herdado não é recomendado ao criar novos recursos, uma vez que o ASM está agendado para desativação. Para obter mais informações, consulte Aposentadoria do Azure Service Manager.

O módulo Az PowerShell é o módulo PowerShell recomendado para gerenciar recursos do Azure Resource Manager (ARM) com o PowerShell.

Sintaxe

New-AzureHDInsightSqoopJobDefinition
   [-Command <String>]
   [-File <String>]
   [-Files <String[]>]
   [-StatusFolder <String>]
   [-Profile <AzureSMProfile>]
   [<CommonParameters>]

Description

Esta versão do Azure PowerShell HDInsight foi preterida. Esses cmdlets serão removidos até 1º de janeiro de 2017. Use a versão mais recente do Azure PowerShell HDInsight.

Para obter informações sobre como usar o novo HDInsight para criar um cluster, consulte Criar clusters baseados em Linux no HDInsight usando o Azure PowerShell (https://azure.microsoft.com/en-us/documentation/articles/hdinsight-hadoop-create-linux-clusters-azure-powershell/). Para obter informações sobre como enviar trabalhos usando o Azure PowerShell e outras abordagens, consulte Enviar trabalhos Hadoop no HDInsight (https://azure.microsoft.com/en-us/documentation/articles/hdinsight-submit-hadoop-jobs-programmatically/). Para obter informações de referência sobre o Azure PowerShell HDInsight, consulte Cmdlets do Azure HDInsight.

O cmdlet New-AzureHDInsightSqoopJobDefinition cria um trabalho Sqoop para ser executado em um cluster do Azure HDInsight.

O Sqoop é uma ferramenta para transferir dados entre clusters Hadoop e bancos de dados relacionais. Você pode usar o Sqoop para importar dados de um banco de dados do SQL Server para um HDFS (Hadoop Distributed File System), transformar os dados com o Hadoop MapReduce e exportar os dados do HDFS de volta para o banco de dados do SQL Server.

Exemplos

Exemplo 1: Importar dados

PS C:\>$SqoopJobDef = New-AzureHDInsightSqoopJobDefinition -Command "import --connect jdbc:sqlserver://<SQLDatabaseServerName>.database.windows.net:1433;username=<SQLDatabasUsername>@<SQLDatabaseServerName>; password=<SQLDatabasePassword>; database=<SQLDatabaseDatabaseName> --table <TableName> --target-dir wasb://<ContainerName>@<WindowsAzureStorageAccountName>.blob.core.windows.net/<Path>"

Este comando define um trabalho Sqoop que importa todas as linhas de uma tabela de um banco de dados do AzureSQL Server para um cluster HDInsight e, em seguida, armazena a definição de trabalho na variável $SqoopJobDef.

Parâmetros

-Command

Especifica um comando Sqoop e seus argumentos.

Tipo:String
Position:Named
Default value:None
Necessário:False
Aceitar entrada de pipeline:False
Aceitar carateres universais:False

-File

Especifica o caminho para um arquivo de script que contém os comandos a serem executados. O arquivo de script deve estar localizado no WASB.

Tipo:String
Aliases:QueryFile
Position:Named
Default value:None
Necessário:False
Aceitar entrada de pipeline:False
Aceitar carateres universais:False

-Files

Especifica a coleção de arquivos WASB necessários para um trabalho.

Tipo:String[]
Position:Named
Default value:None
Necessário:False
Aceitar entrada de pipeline:False
Aceitar carateres universais:False

-Profile

Especifica o perfil do Azure a partir do qual este cmdlet é lido. Se você não especificar um perfil, esse cmdlet será lido a partir do perfil padrão local.

Tipo:AzureSMProfile
Position:Named
Default value:None
Necessário:False
Aceitar entrada de pipeline:False
Aceitar carateres universais:False

-StatusFolder

Especifica o local da pasta que contém saídas padrão e saídas de erro para um trabalho, incluindo seu código de saída e logs de tarefas.

Tipo:String
Position:Named
Default value:None
Necessário:False
Aceitar entrada de pipeline:False
Aceitar carateres universais:False