Carregar modelo treinado
Importante
O suporte para o Machine Learning Studio (clássico) terminará em 31 de agosto de 2024. É recomendável fazer a transição para o Azure Machine Learning até essa data.
A partir de 1º de dezembro de 2021, você não poderá criar recursos do Machine Learning Studio (clássico). Até 31 de agosto de 2024, você pode continuar usando os recursos existentes do Machine Learning Studio (clássico).
- Confira informações sobre como mover projetos de machine learning do ML Studio (clássico) para o Azure Machine Learning.
- Saiba mais sobre o Azure Machine Learning.
A documentação do ML Studio (clássico) está sendo desativada e pode não ser atualizada no futuro.
Carregar um modelo treinado hospedado na Web
Categoria: entrada e saída de dados
Observação
aplica-se a: somente Machine Learning Studio (clássico)
Módulos semelhantes do tipo "arrastar e soltar" estão disponíveis no designer do Azure Machine Learning.
Visão geral do módulo
este artigo descreve como usar o módulo modelo treinado para carregar no Machine Learning Studio (clássico), para carregar um modelo já treinado para uso em um experimento.
Este módulo requer um modelo treinado existente. Normalmente, você cria e, em seguida, treina o modelo em um experimento diferente e, em seguida, salva o modelo em seu espaço de trabalho ou em uma das opções de armazenamento em nuvem com suporte.
Em seguida, use o módulo modelo treinado para carregar para obter o modelo treinado e executá-lo em um novo experimento.
Como usar o modelo treinado para carregar
Para usar um modelo existente para fazer previsões para novos dados:
- O modelo deve ter sido treinado anteriormente e, em seguida, salvo no formato iLearner.
- O modelo deve ser acessível por URL ou no armazenamento de BLOBs do Azure.
Esta seção descreve como salvar um modelo, obter um modelo salvo e aplicar um modelo salvo.
Salvar um modelo treinado
Você pode salvar modelos usando a interface do Studio (clássico) ou usando um experimento que é executado como um serviço Web.
Salvar um modelo usando um serviço Web
- Criar um experimento que faça o treinamento ou retreinamento do modelo como um serviço Web
- Publique esse experimento como um serviço Web.
- Quando você chama o ponto de extremidade BES do serviço Web de treinamento, o serviço Web salva um modelo treinado usando a interface iLearner e salva o arquivo na conta de armazenamento de BLOBs do Azure que você especificar.
Para obter informações detalhadas sobre como criar um serviço Web de treinamento, consulte estes artigos:
- readaptação de modelos de Machine Learning programaticamente
- Salvando um experimento como um serviço Web
Salvar um modelo no estúdio (clássico)
- Execute o experimento que cria e treina o modelo.
- Quando o treinamento estiver concluído, clique com o botão direito do mouse no módulo que foi usado para treinamento, selecione modelo treinadoe clique em salvar como modelo treinado.
- Por padrão, os modelos são salvos no seu espaço de trabalho do estúdio (clássico). Você pode exibi-los usando a interface do usuário do Studio (clássico).
Os seguintes módulos podem criar um modelo salvo que usa a interface iLearner necessária:
- Treinar Modelo
- Treinar Modelo de Clustering
- Treinar um Modelo de Detecção de Anomalias
- Ajustar os Hiperparâmetros de Modelo
- Clustering de varredura
Observação
Não há suporte para modelos arbitrários; o modelo deve ter sido salvo no formato binário padrão usado para persistir Machine Learning modelos.
Carregar o modelo em um novo experimento
Adicione o módulo modelo treinado de carga ao seu experimento no estúdio (clássico).
Para fonte de dados, indique o local do modelo treinado, usando uma das seguintes opções:
URL da Web via http: forneça uma URL que aponte para o experimento e o arquivo que representa o modelo treinado. em Machine Learning, modelos treinados são, por padrão, salvos no formato ILearner .
Armazenamento de Blobs do Azure: selecione esta opção somente se você exportou o modelo treinado para o armazenamento do Azure. Em seguida, você deve fornecer o nome da conta e a chave de conta e o caminho para o contêiner, diretório ou BLOB.
Se você pretende criar um serviço Web Request-Response com base no experimento atual, selecione a opção permitir usar em RRs. Caso contrário, a pontuação é executada usando a opção BES (serviço de execução em lote), que é recomendada. Consulte a seção observações técnicas para obter detalhes.
Selecione a opção usar resultados em cache se desejar carregar o modelo treinado do cache, quando o cache estiver disponível e populado. Essa opção é ignorada depois que o experimento é implantado como uma API de serviço Web.
Exemplos
para obter exemplos de como usar esse módulo, consulte a Cortana Intelligence Gallery.
carregar um modelo de Learning profunda treinado: o exemplo cria uma rede neural personalizada para detecção de imagem. Usando o módulo modelo treinado para carregar , você pode facilmente reutilizar esse modelo sem precisar treiná-lo, o que pode ser demorado.
Essa coleção inclui um teste de treinamento, para criar o modelo e um experimento de previsão, no qual o modelo é carregado como um serviço Web e usado para previsões.
Observações técnicas
Esta seção contém detalhes de implementação, dicas e respostas para perguntas frequentes.
Perguntas comuns
Por que os RRS usam não habilitados por padrão
Geralmente, espera-se que os RRS chamem os resultados em um curto período de tempo. No entanto, como o módulo deve carregar o modelo treinado na forma de um blob de uma conta de armazenamento do Azure ou um arquivo hospedado em um ponto de extremidade HTTP público, as operações de arquivo podem apresentar atrasos imprevisíveis.
Portanto, geralmente aconselhamos que o serviço Web seja executado no BES (modo de execução em lote). Se você selecionar a opção para. execução usando RRS, lembre-se do potencial de atraso. para obter informações gerais sobre tempos de execução, consulte o Machine Learning SLA.
O modelo treinado é carregado mais rapidamente se eu usar a opção de resultados em cache
sim, mas somente quando o experimento é executado no Machine Learning Studio (clássico) e somente após o cache ter sido preenchido pela primeira execução. Depois que o experimento é implantado como serviço Web, esse sinalizador é ignorado pela execução do serviço Web.
Há uma maneira de automatizar o processo
Você pode usar o PowerShell para simplificar ou automatizar muitas tarefas no Machine Learning. Por exemplo, você pode baixar o conteúdo de um experimento inteiro ou um módulo específico, exportar a definição do serviço Web ou invocar a API de execução do serviço Web. Para obter mais informações, consulte módulo do PowerShell para Microsoft Machine Learning.
Parâmetros do módulo
Nome | Intervalo | Type | Padrão | Descrição |
---|---|---|---|---|
Permitir o uso em RRS | Verdadeiro/Falso | Boolean | false | Permitir que este módulo seja executado no serviço Web de solicitação-resposta, o que pode incorrer em atrasos imprevisíveis |
Fonte de dados | URL da Web via HTTP ou Armazenamento de Blobs do Azure | T_DataSourceOrSink | Armazenamento do Blobs do Azure | A fonte de dados pode ser HTTP ou um arquivo no armazenamento de BLOBs do Azure (obrigatório) |
Para URL da Web via http: | ||||
URL da fonte de dados | any | String | URL para HTTP | |
por Armazenamento de Blobs do Azure: | ||||
Nome da Conta | any | Cadeia de caracteres | Nome da conta | |
Chave de conta | any | SecureString | Chave associada à conta de armazenamento do Windows Azure | |
Caminho para o contêiner ou diretório ou BLOB | any | String | Caminho para o blob ou o nome da tabela |
Saídas
Nome | Tipo | Descrição |
---|---|---|
Modelo treinado | Interface ILearner | Modelo treinado |
Exceções
Exceção | Descrição |
---|---|
Erro 0003 | Ocorrerá uma exceção se uma ou mais das entradas for nula ou estiver vazia. |
para obter uma lista de erros específicos para módulos do Studio (clássicos), consulte Machine Learning códigos de erro.
para obter uma lista de exceções de api, consulte Machine Learning códigos de erro da api REST.