Partilhar via


Referência da API do AutoML Python

Este artigo descreve a API Python do AutoML, que fornece métodos para iniciar a classificação, regressão e previsão de execuções do AutoML. Cada chamada de método treina um conjunto de modelos e gera um bloco de anotações de avaliação para cada modelo.

Para obter mais informações sobre AutoML, incluindo uma opção de interface de utilizador de baixo código, consulte O que é AutoML?.

Classificar

O databricks.automl.classify método configura uma execução AutoML para treinar um modelo de classificação.

Nota

O max_trials parâmetro foi preterido no Databricks Runtime 10.4 ML e não é suportado no Databricks Runtime 11.0 ML e superior. Use timeout_minutes para controlar a duração de uma execução do AutoML.

databricks.automl.classify(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  primary_metric: str = "f1",
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_cols: Optional[List[str]] = None,                         # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  pos_label: Optional[Union[int, bool, str]] = None,                 # <DBR> 11.1 ML and above
  time_col: Optional[str] = None,
  split_col: Optional[str] = None,                                  # <DBR> 15.3 ML and above
  sample_weight_col: Optional[str] = None                           # <DBR> 15.4 ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Classificar parâmetros

Nome do parâmetro Tipo Descrição
dataset str, pandas.DataFrame, pyspark.DataFrame, pyspark.sql.DataFrame Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato "<database_name>.<table_name>" ou "<schema_name>.<table_name>" para tabelas que não sejam do Catálogo Unity.
target_col str Nome da coluna do rótulo de destino.
primary_metric str Métrica usada para avaliar e classificar o desempenho do modelo.
Métricas suportadas para regressão: "r2" (padrão), "mae", "rmse", "mse"
Métricas suportadas para classificação: "f1" (padrão), "log_loss", "precisão", "accuracy", "roc_auc"
data_dir str de formato dbfs:/<folder-name> Opcional. DBFS caminho usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para os nós de driver e de trabalhador.
O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato MLflow.
Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento AutoML.
experiment_dir str Opcional. Caminho para o diretório no espaço de trabalho para salvar os notebooks e experimentos gerados. Se você estiver usando um recurso de computação atribuído a um grupo, defina-o como uma pasta na qual o grupo tenha permissão para gravar.
Predefinição: /Users/<username>/databricks_automl/
experiment_name str Opcional. Nome para o experimento MLflow que o AutoML cria.
Padrão: o nome é gerado automaticamente.
exclude_cols List[str] Opcional. Lista de colunas a serem ignoradas durante os cálculos do AutoML.
Padrão: []
exclude_frameworks List[str] Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar ao desenvolver modelos. Valores possíveis: lista vazia, ou um ou mais de "sklearn", "lightgbm", "xgboost".
Padrão: [] (todas as estruturas são consideradas)
feature_store_lookups List[Dict] Opcional. Lista de dicionários que representam funcionalidades do Feature Store para enriquecimento de dados. As chaves válidas em cada dicionário são:
  • table_name (str): Obrigatório. Nome da tabela de características.
  • lookup_key (lista ou texto): Obrigatório. Nome(s) da(s) coluna(s) a serem usados como chave ao unir a tabela de características com os dados passados no parâmetro dataset. A ordem dos nomes das colunas deve corresponder à ordem das chaves primárias da tabela de recursos.
  • timestamp_lookup_key (str): Obrigatório, se a tabela especificada for uma tabela de recursos de série temporal . O nome da coluna a ser usado ao executar a pesquisa de ponto no tempo na tabela de características com os dados fornecidos no parâmetro dataset.

Padrão: []
imputers Dict[str, Union[str, Dict[str, Any]]] Opcional. Dicionário onde cada chave é um nome de coluna e cada valor é uma cadeia de caracteres ou dicionário que descreve a estratégia de imputação. Se especificado como uma cadeia de caracteres, o valor deve ser um de "média", "mediana" ou "most_frequent". Para imputar com um valor conhecido, especifique o valor como um dicionário {"strategy": "constant", "fill_value": <desired value>}. Você também pode especificar opções de cadeia de caracteres como dicionários, por exemplo {"strategy": "mean"}.
Se nenhuma estratégia de imputação for fornecida para uma coluna, o AutoML selecionará uma estratégia padrão com base no tipo e no conteúdo da coluna. Se você especificar um método de imputação não padrão, o AutoML não executará a deteção de tipo semântico.
Predefinição: {}
pos_label Union[int, bool, str] (Apenas classificação) A classe positiva. Isso é útil para calcular métricas como precisão e recordação. Só deve ser especificado para problemas de classificação binária.
time_col str Disponível em Databricks Runtime 10.1 ML e superior.
Opcional. Nome de uma coluna de tempo.
Se fornecido, o AutoML tenta dividir o conjunto de dados em conjuntos de treinamento, validação e teste cronologicamente, usando os primeiros pontos como dados de treinamento e os pontos mais recentes como um conjunto de testes.
Os tipos de coluna aceites são timestamp e inteiro. Com o Databricks Runtime 10.2 ML e superior, as colunas de cadeia de caracteres também são suportadas.
Se o tipo de coluna for string, o AutoML tentará convertê-la em uma marca temporal usando a detecção semântica. Se a conversão falhar, a execução do AutoML falhará.
split_col str Opcional. Nome para uma coluna dividida. Disponível apenas no Databricks Runtime 15.3 ML e superior para fluxos de trabalho de API. Se fornecido, o AutoML tenta dividir os conjuntos de treino/validação/teste por valores especificados pelo usuário, e essa coluna é excluída automaticamente dos recursos de treinamento.
O tipo de coluna aceito é string. O valor de cada entrada nesta coluna deve ser um dos seguintes: "treino", "validar" ou "teste".
sample_weight_col str Disponível no Databricks Runtime 15.4 ML e superior para fluxos de trabalho de API de classificação.
Opcional. Nome da coluna no conjunto de dados que contém os pesos de amostra para cada linha. A classificação suporta pesos amostrais específicos por classe. Estes pesos ajustam a importância de cada aula durante o treino do modelo. Cada amostra dentro de uma classe deve ter o mesmo peso de amostra e os pesos devem ser valores decimais ou inteiros não negativos, variando de 0 a 10.000. Aulas com maiores pesos amostrais são consideradas mais importantes e têm maior influência no algoritmo de aprendizagem. Se esta coluna não for especificada, presume-se que todas as classes têm o mesmo peso.
max_trials int Opcional. Número máximo de ensaios a realizar. Este parâmetro está disponível no Databricks Runtime 10.5 ML e inferior, mas foi preterido a partir do Databricks Runtime 10.3 ML. No Databricks Runtime 11.0 ML e superior, este parâmetro não é suportado.
Padrão: 20
Caso timeout_minutes seja None, o AutoML executa o número máximo de tentativas.
timeout_minutes int Opcional. Tempo máximo de espera pela conclusão das versões experimentais do AutoML. Tempos limite mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão.
Padrão: 120 minutos
Valor mínimo: 5 minutos
Um erro é relatado se o tempo limite for muito curto para permitir que pelo menos uma tentativa seja concluída.

Regressão

O databricks.automl.regress método configura uma execução AutoML para treinar um modelo de regressão. Esse método retorna um AutoMLSummary.

Nota

O max_trials parâmetro foi preterido no Databricks Runtime 10.4 ML e não é suportado no Databricks Runtime 11.0 ML e superior. Use timeout_minutes para controlar a duração de uma execução do AutoML.

databricks.automl.regress(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  primary_metric: str = "r2",
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_cols: Optional[List[str]] = None,                         # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  time_col: Optional[str] = None,
  split_col: Optional[str] = None,                                  # <DBR> 15.3 ML and above
  sample_weight_col: Optional[str] = None,                          # <DBR> 15.3 ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Parâmetros de regressão

Nome do parâmetro Tipo Descrição
dataset str, pandas.DataFrame, pyspark.DataFrame, pyspark.sql.DataFrame Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato "<database_name>.<table_name>" ou "<schema_name>.<table_name>" para tabelas que não sejam do Catálogo Unity.
target_col str Nome da coluna para o rótulo de destino.
primary_metric str Métrica usada para avaliar e classificar o desempenho do modelo.
Métricas suportadas para regressão: "r2" (padrão), "mae", "rmse", "mse"
Métricas suportadas para classificação: "f1" (padrão), "log_loss", "precisão", "exactidão", "roc_auc"
data_dir str de formato dbfs:/<folder-name> Opcional. DBFS caminho usado para armazenar o conjunto de dados de treinamento. Este caminho é visível para ambos os nós de condução e de trabalho.
O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato MLflow.
Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento AutoML.
experiment_dir str Opcional. Caminho para o diretório no espaço de trabalho para salvar os notebooks e experimentos gerados.
Predefinição: /Users/<username>/databricks_automl/
experiment_name str Opcional. Nome para o experimento MLflow que o AutoML cria.
Padrão: o nome é gerado automaticamente.
exclude_cols List[str] Opcional. Lista de colunas a serem ignoradas durante os cálculos do AutoML.
Padrão: []
exclude_frameworks List[str] Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar ao desenvolver modelos. Valores possíveis: lista vazia, ou um ou mais de "sklearn", "lightgbm", "xgboost".
Padrão: [] (todas as estruturas são consideradas)
feature_store_lookups List[Dict] Opcional. Lista de dicionários que representam recursos do "Feature Store" para enriquecimento de dados. As chaves válidas em cada dicionário são:
  • table_name (str): Obrigatório. Nome da tabela de características.
  • lookup_key (list ou str): Obrigatório. Nome(s) da(s) coluna(s) a serem usados como chave ao unir a tabela de características com os dados passados no parâmetro dataset. A ordem dos nomes das colunas deve corresponder à ordem das chaves primárias da tabela de recursos.
  • timestamp_lookup_key (str): Obrigatório se a tabela especificada for uma tabela de funções de série temporal . O nome da coluna a ser usado ao executar a pesquisa de ponto no tempo na tabela de características com os dados fornecidos no parâmetro dataset.

Padrão: []
imputers Dict[str, Union[str, Dict[str, Any]]] Opcional. Dicionário onde cada chave é um nome de coluna e cada valor é uma cadeia de caracteres ou dicionário que descreve a estratégia de imputação. Se especificado como uma cadeia de caracteres, o valor deve ser um de "média", "mediana" ou "most_frequent". Para imputar com um valor conhecido, especifique o valor como um dicionário {"strategy": "constant", "fill_value": <desired value>}. Você também pode especificar opções de cadeia de caracteres como dicionários, por exemplo {"strategy": "mean"}.
Se nenhuma estratégia de imputação for fornecida para uma coluna, o AutoML selecionará uma estratégia padrão com base no tipo e no conteúdo da coluna. Se você especificar um método de imputação não padrão, o AutoML não executará a deteção de tipo semântico.
Predefinição: {}
time_col str Disponível em Databricks Runtime 10.1 ML e superior.
Opcional. Nome de uma coluna de tempo.
Se fornecido, o AutoML tenta dividir o conjunto de dados em conjuntos de treinamento, validação e teste cronologicamente, usando os primeiros pontos como dados de treinamento e os pontos mais recentes como um conjunto de testes.
Os tipos de coluna aceitáveis são timestamp e inteiro. Com o Databricks Runtime 10.2 ML e superior, as colunas de cadeia de caracteres também são suportadas.
Se o tipo de coluna for string, o AutoML tentará convertê-la em uma marca temporal usando a detecção semântica. Se a conversão falhar, a execução do AutoML falhará.
split_col str Opcional. Nome da coluna para uma coluna dividida. Disponível apenas no Databricks Runtime 15.3 ML e superior para fluxos de trabalho de API. Se fornecido, o AutoML tenta dividir os conjuntos de treino/validação/teste por valores especificados pelo usuário, e essa coluna é excluída automaticamente dos recursos de treinamento.
O tipo de coluna aceito é string. O valor de cada entrada nesta coluna deve ser um dos seguintes: "treino", "validar" ou "teste".
sample_weight_col str Disponível no Databricks Runtime 15.3 ML e superior para fluxos de trabalho de API de regressão.
Opcional. Nome da coluna no conjunto de dados que contém os pesos de amostra para cada linha. Estes pesos ajustam a importância de cada linha durante o treino de modelo. Os pesos devem ser valores decimais ou inteiros não negativos, variando de 0 a 10.000. Linhas com maiores pesos amostrais são consideradas mais importantes e têm maior influência no algoritmo de aprendizagem. Se esta coluna não for especificada, presume-se que todas as linhas têm o mesmo peso.
max_trials int Opcional. Número máximo de ensaios a realizar. Este parâmetro está disponível no Databricks Runtime 10.5 ML e inferior, mas foi preterido a partir do Databricks Runtime 10.3 ML. No Databricks Runtime 11.0 ML e superior, este parâmetro não é suportado.
Padrão: 20
Se timeout_minutes=Nenhum, o AutoML executa o número máximo de avaliações.
timeout_minutes int Opcional. Tempo máximo de espera pela conclusão das versões experimentais do AutoML. Tempos limite mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão.
Padrão: 120 minutos
Valor mínimo: 5 minutos
Um erro é reportado se o tempo de espera for muito curto para permitir que pelo menos uma tentativa seja concluída.

Previsão

O databricks.automl.forecast método configura uma execução AutoML para treinar um modelo de previsão. Esse método retorna um AutoMLSummary. Para usar o Auto-ARIMA, a série temporal deve ter uma frequência regular (ou seja, o intervalo entre quaisquer dois pontos deve ser o mesmo em toda a série temporal). A frequência deve corresponder à unidade de frequência especificada na chamada API. O AutoML lida com as etapas de tempo ausentes preenchendo esses valores com o valor anterior.

databricks.automl.forecast(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  time_col: str,
  primary_metric: str = "smape",
  country_code: str = "US",                                         # <DBR> 12.0 ML and above
  frequency: str = "D",
  horizon: int = 1,
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_frameworks: Optional[List[str]] = None,
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 12.2 LTS ML and above
  identity_col: Optional[Union[str, List[str]]] = None,
  sample_weight_col: Optional[str] = None,                          # <DBR> 16.0 ML and above
  output_database: Optional[str] = None,                            # <DBR> 10.5 ML and above
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Parâmetros de previsão

Nome do parâmetro Tipo Descrição
dataset str, pandas.DataFrame, pyspark.DataFrame, pyspark.sql.DataFrame Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino.
O nome da tabela pode estar no formato ".." ou "." para tabelas que não sejam do Catálogo Unity
target_col str Nome da coluna para o rótulo de destino.
time_col str Nome da coluna de tempo para previsão.
primary_metric str Métrica usada para avaliar e classificar o desempenho do modelo.
Métricas suportadas: "smape" (padrão), "mse", "rmse", "mae" ou "mdape".
country_code str Disponível em Databricks Runtime 12.0 ML e superior. Apenas suportado pelo modelo de previsão Prophet.
Opcional. Código de país de duas letras que indica os feriados do país que o modelo de previsão deve usar. Para ignorar feriados, defina esse parâmetro como uma cadeia de caracteres vazia ("").
Países suportados.
Padrão: EUA (feriados dos Estados Unidos).
frequency str Frequência das séries cronológicas para a previsão. Este é o período com o qual se espera que os eventos ocorram. A configuração padrão é "D" ou dados diários. Certifique-se de alterar a configuração se seus dados tiverem uma frequência diferente.
Valores possíveis:
"W" (semanas)
"D" / "dias" / "dia"
"horas" / "hora" / "hr" / "h"
"m" / "minuto" / "min" / "minutos" / "T"
"S" / "segundos" / "seg" / "segundo"
Os seguintes itens só estão disponíveis com o Databricks Runtime 12.0 ML e superior:
"M" / "mês" / "meses"
"Q" / "trimestre" / "trimestres"
"Y" / "ano" / "anos"
Padrão: "D"
horizon int Número de períodos futuros para os quais as previsões devem ser fornecidas.
As unidades são a frequência das séries temporais.
Padrão: 1
data_dir str de formato dbfs:/<folder-name> Opcional. DBFS caminho usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para os nós de condutor e de trabalho.
O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato MLflow.
Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento AutoML.
experiment_dir str Opcional. Caminho para o diretório no espaço de trabalho para salvar os notebooks e experimentos gerados.
Predefinição: /Users/<username>/databricks_automl/
experiment_name str Opcional. Nome para o experimento MLflow que o AutoML cria.
Padrão: o nome é gerado automaticamente.
exclude_frameworks List[str] Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar ao desenvolver modelos. Valores possíveis: lista vazia, ou um ou mais de "profeta", "arima".
Padrão: [] (todas as estruturas são consideradas)
feature_store_lookups List[Dict] Opcional. Lista de dicionários que contêm recursos do Feature Store para ampliação de dados covariados . As chaves válidas em cada dicionário são:
  • table_name (str): Obrigatório. Nome da tabela de características.
  • lookup_key (list ou str): Obrigatório. Nome(s) da(s) coluna(s) a serem usados como chave ao unir a tabela de características com os dados passados no parâmetro dataset. A ordem dos nomes das colunas deve corresponder à ordem das chaves primárias da tabela de recursos.
  • timestamp_lookup_key (str): Obrigatório se a tabela especificada for uma tabela de características de séries temporais . O nome da coluna a ser usado ao realizar a consulta temporal na tabela de funcionalidades com os dados fornecidos no parâmetro dataset.

Padrão: []
identity_col Union[str, list] Opcional. Coluna(s) que identificam as séries cronológicas para a previsão de várias séries. O AutoML agrupa por as seguintes coluna(s) e a coluna de tempo para fins de previsão.
sample_weight_col str Disponível em Databricks Runtime 16.0 ML e superior. Apenas para fluxos de trabalho de várias séries temporais.
Opcional. Especifica a coluna que contém os pesos das amostras no conjunto de dados. Esses pesos indicam a importância relativa de cada série temporal durante o treinamento e a avaliação do modelo.
As séries temporais com pesos mais elevados têm maior influência no modelo. Se não forem fornecidas, todas as séries cronológicas são tratadas com o mesmo peso.
Todas as linhas pertencentes à mesma série temporal devem ter o mesmo peso.
Os pesos devem ser valores não negativos, decimais ou inteiros, e estar entre 0 e 10.000.
output_database str Opcional. Se fornecido, o AutoML salva as previsões do melhor modelo em uma nova tabela no banco de dados especificado.
Por padrão, as previsões não são salvas.
timeout_minutes int Opcional. Tempo máximo de espera pela conclusão das versões experimentais do AutoML. Tempos limite mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão.
Padrão: 120 minutos
Valor mínimo: 5 minutos
Um erro é relatado se o tempo limite for muito curto para permitir que pelo menos um teste seja concluído.

Importar notebook

O databricks.automl.import_notebook método importa um notebook que foi armazenado como um artefato do MLflow. Esse método retorna um ImportNotebookResult.

databricks.automl.import_notebook(
  artifact_uri: str,
  path: str,
  overwrite: bool = False
) -> ImportNotebookResult:
Parâmetros Tipo Descrição
artifact_uri str O URI do artefato MLflow que contém o bloco de anotações de teste.
path str O caminho no espaço de trabalho do Databricks onde o notebook deve ser importado. Este deve ser um caminho absoluto. O diretório será criado se não existir.
overwrite bool Se o bloco de anotações deve ser substituído se ele já existir. É False por defeito.

Exemplo de importação de bloco de notas

summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)

AutoMLSummary

Objeto de resumo para uma execução de AutoML que descreve as métricas, parâmetros e outros detalhes para cada uma das avaliações. Você também usa esse objeto para carregar o modelo treinado por um teste específico.

Propriedade Tipo Descrição
experiment mlflow.entities.Experiment O experimento MLflow usado para registrar os ensaios.
trials List[TrialInfo] Uma lista de objetos TrialInfo que contém informações sobre todos os ensaios que foram realizados.
best_trial TrialInfo Um objeto TrialInfo contendo informações sobre a avaliação que resultou na melhor pontuação ponderada para a métrica primária.
metric_distribution str A distribuição das pontuações ponderadas para a métrica primária em todos os ensaios.
output_table_name str Usado com previsão apenas e somente se output_database for fornecido.
Nome da tabela em output_database que contém as previsões do modelo.

TrialInfo

Objeto de resumo para cada ensaio individual.

Propriedade Tipo Descrição
notebook_path Optional[str] O caminho para o caderno gerado para esta avaliação no ambiente de trabalho.
Para classificação e regressão, esse valor é definido apenas para o melhor ensaio, enquanto todos os outros ensaios têm o valor definido como None.
Para a previsão, este valor está presente para todos os ensaios.
notebook_url Optional[str] O URL do bloco de notas gerado para esta versão experimental.
Para classificação e regressão, esse valor é definido apenas para o melhor ensaio, enquanto todos os outros ensaios têm o valor definido como None.
Para a previsão, este valor está presente para todos os ensaios.
artifact_uri Optional[str] O URI do artefacto MLflow para o notebook gerado.
mlflow_run_id str O ID de execução MLflow associado a esta execução de teste.
metrics Dict[str, float] As métricas registradas no MLflow para esta avaliação.
params Dict[str, str] Os parâmetros registrados no MLflow que foram usados para este teste.
model_path str A URL do artefato MLflow do modelo treinado neste teste.
model_description str Breve descrição do modelo e dos hiperparâmetros utilizados para treinar este modelo.
duration str Duração do treino em minutos.
preprocessors str Descrição dos pré-processadores executados antes de treinar o modelo.
evaluation_metric_score float Pontuação da métrica primária, avaliada para o conjunto de dados de validação.

TrialInfo tem um método para carregar o modelo gerado para a avaliação.

Método Descrição
load_model() Carregue o modelo gerado neste teste, registrado como um artefato do MLflow.

ImportNotebookResult

Propriedade Tipo Descrição
path str O caminho no espaço de trabalho do Databricks onde o notebook deve ser importado. Este deve ser um caminho absoluto. O diretório será criado se não existir.
url str A URI do artefato MLflow que contém o notebook de teste.