Partilhar via


Referência da API do AutoML Python

Este artigo descreve a API Python do AutoML, que fornece métodos para iniciar a classificação, regressão e previsão de execuções do AutoML. Cada chamada de método treina um conjunto de modelos e gera um bloco de anotações de avaliação para cada modelo.

Para obter mais informações sobre AutoML, incluindo uma opção de interface do usuário low-code, consulte O que é AutoML?.

Classificar

O databricks.automl.classify método configura uma execução AutoML para treinar um modelo de classificação.

Nota

O max_trials parâmetro foi preterido no Databricks Runtime 10.4 ML e não é suportado no Databricks Runtime 11.0 ML e superior. Use timeout_minutes para controlar a duração de uma execução do AutoML.

databricks.automl.classify(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  primary_metric: str = "f1",
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_cols: Optional[List[str]] = None,                         # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  pos_label: Optional[Union[int, bool, str]] = None,                 # <DBR> 11.1 ML and above
  time_col: Optional[str] = None,
  split_col: Optional[str] = None,                                  # <DBR> 15.3 ML and above
  sample_weight_col: Optional[str] = None                           # <DBR> 15.4 ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Classificar parâmetros

Nome do parâmetro Tipo Description
dataset str, pandas.DataFrame, pyspark.DataFrame, pyspark.sql.DataFrame Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato "<database_name>.<table_name>" ou "<schema_name>.<table_name>" para tabelas que não sejam do Catálogo Unity.
target_col str Nome da coluna para o rótulo de destino.
primary_metric str Métrica usada para avaliar e classificar o desempenho do modelo.

Métricas suportadas para regressão: "r2" (padrão), "mae", "rmse", "mse"

Métricas suportadas para classificação: "f1" (padrão), "log_loss", "precisão", "precisão", "roc_auc"
data_dir str de formato dbfs:/<folder-name> Opcional. DBFS caminho usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para os nós de driver e de trabalho.

O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato MLflow.

Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento AutoML.
experiment_dir str Opcional. Caminho para o diretório no espaço de trabalho para salvar os blocos de anotações e experimentos gerados.

Predefinição: /Users/<username>/databricks_automl/
experiment_name str Opcional. Nome para o experimento MLflow que o AutoML cria.

Padrão: o nome é gerado automaticamente.
exclude_cols List[str] Opcional. Lista de colunas a serem ignoradas durante os cálculos do AutoML.

Padrão: []
exclude_frameworks List[str] Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar ao desenvolver modelos. Valores possíveis: lista vazia, ou um ou mais de "sklearn", "lightgbm", "xgboost".

Padrão: [] (todas as estruturas são consideradas)
feature_store_lookups List[Dict] Opcional. Lista de dicionários que representam recursos do Feature Store para aumento de dados. As chaves válidas em cada dicionário são:

- table_name (str): Obrigatório. Nome da tabela de recursos.
- lookup_key (list ou str): Obrigatório. Nome(s) da coluna a ser usado como chave ao unir a tabela de recursos com os dados passados dataset no parâmetro. A ordem dos nomes das colunas deve corresponder à ordem das chaves primárias da tabela de recursos.
- timestamp_lookup_key(str): Obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa point-in-time na tabela de recursos com os dados passados dataset no parâmetro.

Padrão: []
imputers Dict[str, Union[str, Dict[str, Any]]] Opcional. Dicionário onde cada chave é um nome de coluna e cada valor é uma cadeia de caracteres ou dicionário que descreve a estratégia de imputação. Se especificado como uma cadeia de caracteres, o valor deve ser um de "média", "mediana" ou "most_frequent". Para imputar com um valor conhecido, especifique o valor como um dicionário {"strategy": "constant", "fill_value": <desired value>}. Você também pode especificar opções de cadeia de caracteres como dicionários, por exemplo {"strategy": "mean"}.

Se nenhuma estratégia de imputação for fornecida para uma coluna, o AutoML selecionará uma estratégia padrão com base no tipo e no conteúdo da coluna. Se você especificar um método de imputação não padrão, o AutoML não executará a deteção de tipo semântico.

Predefinição: {}
pos_label Union[int, bool, str] (Apenas classificação) A classe positiva. Isso é útil para calcular métricas como precisão e recordação. Só deve ser especificado para problemas de classificação binária.
time_col str Disponível em Databricks Runtime 10.1 ML e superior.

Opcional. Nome da coluna para uma coluna de tempo.

Se fornecido, o AutoML tenta dividir o conjunto de dados em conjuntos de treinamento, validação e teste cronologicamente, usando os primeiros pontos como dados de treinamento e os pontos mais recentes como um conjunto de testes.

Os tipos de coluna aceitos são carimbo de data/hora e inteiro. Com o Databricks Runtime 10.2 ML e superior, as colunas de cadeia de caracteres também são suportadas.

Se o tipo de coluna for string, o AutoML tentará convertê-lo em carimbo de data/hora usando a deteção semântica. Se a conversão falhar, a execução do AutoML falhará.
split_col str Opcional. Nome da coluna para uma coluna dividida. Disponível apenas no Databricks Runtime 15.3 ML e superior para fluxos de trabalho de API. Se fornecido, o AutoML tenta dividir os conjuntos de treino/validação/teste por valores especificados pelo usuário, e essa coluna é excluída automaticamente dos recursos de treinamento.

O tipo de coluna aceito é string. O valor de cada entrada nesta coluna deve ser um dos seguintes: "comboio", "validar" ou "ensaio".
sample_weight_col str Disponível no Databricks Runtime 15.4 ML e superior para fluxos de trabalho de API de classificação.

Opcional. Nome da coluna no conjunto de dados que contém os pesos de amostra para cada linha. A classificação suporta pesos amostrais por classe. Estes pesos ajustam a importância de cada aula durante o treino do modelo. Cada amostra dentro de uma classe deve ter o mesmo peso de amostra e os pesos devem ser valores decimais ou inteiros não negativos, variando de 0 a 10.000. Aulas com maiores pesos amostrais são consideradas mais importantes e têm maior influência no algoritmo de aprendizagem. Se esta coluna não for especificada, presume-se que todas as classes têm o mesmo peso.
max_trials int Opcional. Número máximo de ensaios a realizar. Este parâmetro está disponível no Databricks Runtime 10.5 ML e inferior, mas foi preterido a partir do Databricks Runtime 10.3 ML. No Databricks Runtime 11.0 ML e superior, este parâmetro não é suportado.

Padrão: 20

Se timeout_minutes=Nenhum, o AutoML executa o número máximo de avaliações.
timeout_minutes int Opcional. Tempo máximo de espera pela conclusão das versões experimentais do AutoML. Tempos limite mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão.

Padrão: 120 minutos

Valor mínimo: 5 minutos

Um erro é relatado se o tempo limite for muito curto para permitir que pelo menos uma avaliação seja concluída.

Regressão

O databricks.automl.regress método configura uma execução AutoML para treinar um modelo de regressão. Esse método retorna um AutoMLSummary.

Nota

O max_trials parâmetro foi preterido no Databricks Runtime 10.4 ML e não é suportado no Databricks Runtime 11.0 ML e superior. Use timeout_minutes para controlar a duração de uma execução do AutoML.

databricks.automl.regress(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  primary_metric: str = "r2",
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_cols: Optional[List[str]] = None,                         # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  time_col: Optional[str] = None,
  split_col: Optional[str] = None,                                  # <DBR> 15.3 ML and above
  sample_weight_col: Optional[str] = None,                          # <DBR> 15.3 ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Parâmetros de regressão

Nome do parâmetro Tipo Description
dataset str, pandas.DataFrame, pyspark.DataFrame, pyspark.sql.DataFrame Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato "<database_name>.<table_name>" ou "<schema_name>.<table_name>" para tabelas que não sejam do Catálogo Unity.
target_col str Nome da coluna para o rótulo de destino.
primary_metric str Métrica usada para avaliar e classificar o desempenho do modelo.

Métricas suportadas para regressão: "r2" (padrão), "mae", "rmse", "mse"

Métricas suportadas para classificação: "f1" (padrão), "log_loss", "precisão", "precisão", "roc_auc"
data_dir str de formato dbfs:/<folder-name> Opcional. DBFS caminho usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para os nós de driver e de trabalho.

O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato MLflow.

Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento AutoML.
experiment_dir str Opcional. Caminho para o diretório no espaço de trabalho para salvar os blocos de anotações e experimentos gerados.

Predefinição: /Users/<username>/databricks_automl/
experiment_name str Opcional. Nome para o experimento MLflow que o AutoML cria.

Padrão: o nome é gerado automaticamente.
exclude_cols List[str] Opcional. Lista de colunas a serem ignoradas durante os cálculos do AutoML.

Padrão: []
exclude_frameworks List[str] Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar ao desenvolver modelos. Valores possíveis: lista vazia, ou um ou mais de "sklearn", "lightgbm", "xgboost".

Padrão: [] (todas as estruturas são consideradas)
feature_store_lookups List[Dict] Opcional. Lista de dicionários que representam recursos do Feature Store para aumento de dados. As chaves válidas em cada dicionário são:

- table_name (str): Obrigatório. Nome da tabela de recursos.
- lookup_key (list ou str): Obrigatório. Nome(s) da coluna a ser usado como chave ao unir a tabela de recursos com os dados passados dataset no parâmetro. A ordem dos nomes das colunas deve corresponder à ordem das chaves primárias da tabela de recursos.
- timestamp_lookup_key(str): Obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa point-in-time na tabela de recursos com os dados passados dataset no parâmetro.

Padrão: []
imputers Dict[str, Union[str, Dict[str, Any]]] Opcional. Dicionário onde cada chave é um nome de coluna e cada valor é uma cadeia de caracteres ou dicionário que descreve a estratégia de imputação. Se especificado como uma cadeia de caracteres, o valor deve ser um de "média", "mediana" ou "most_frequent". Para imputar com um valor conhecido, especifique o valor como um dicionário {"strategy": "constant", "fill_value": <desired value>}. Você também pode especificar opções de cadeia de caracteres como dicionários, por exemplo {"strategy": "mean"}.

Se nenhuma estratégia de imputação for fornecida para uma coluna, o AutoML selecionará uma estratégia padrão com base no tipo e no conteúdo da coluna. Se você especificar um método de imputação não padrão, o AutoML não executará a deteção de tipo semântico.

Predefinição: {}
time_col str Disponível em Databricks Runtime 10.1 ML e superior.

Opcional. Nome da coluna para uma coluna de tempo.

Se fornecido, o AutoML tenta dividir o conjunto de dados em conjuntos de treinamento, validação e teste cronologicamente, usando os primeiros pontos como dados de treinamento e os pontos mais recentes como um conjunto de testes.

Os tipos de coluna aceitos são carimbo de data/hora e inteiro. Com o Databricks Runtime 10.2 ML e superior, as colunas de cadeia de caracteres também são suportadas.

Se o tipo de coluna for string, o AutoML tentará convertê-lo em carimbo de data/hora usando a deteção semântica. Se a conversão falhar, a execução do AutoML falhará.
split_col str Opcional. Nome da coluna para uma coluna dividida. Disponível apenas no Databricks Runtime 15.3 ML e superior para fluxos de trabalho de API. Se fornecido, o AutoML tenta dividir os conjuntos de treino/validação/teste por valores especificados pelo usuário, e essa coluna é excluída automaticamente dos recursos de treinamento.

O tipo de coluna aceito é string. O valor de cada entrada nesta coluna deve ser um dos seguintes: "comboio", "validar" ou "ensaio".
sample_weight_col str Disponível no Databricks Runtime 15.3 ML e superior para fluxos de trabalho de API de regressão.

Opcional. Nome da coluna no conjunto de dados que contém os pesos de amostra para cada linha. Estes pesos ajustam a importância de cada linha durante o treino do modelo. Os pesos devem ser valores decimais ou inteiros não negativos, variando de 0 a 10.000. Linhas com maiores pesos amostrais são consideradas mais importantes e têm maior influência no algoritmo de aprendizagem. Se esta coluna não for especificada, presume-se que todas as linhas têm o mesmo peso.
max_trials int Opcional. Número máximo de ensaios a realizar. Este parâmetro está disponível no Databricks Runtime 10.5 ML e inferior, mas foi preterido a partir do Databricks Runtime 10.3 ML. No Databricks Runtime 11.0 ML e superior, este parâmetro não é suportado.

Padrão: 20

Se timeout_minutes=Nenhum, o AutoML executa o número máximo de avaliações.
timeout_minutes int Opcional. Tempo máximo de espera pela conclusão das versões experimentais do AutoML. Tempos limite mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão.

Padrão: 120 minutos

Valor mínimo: 5 minutos

Um erro é relatado se o tempo limite for muito curto para permitir que pelo menos uma avaliação seja concluída.

Previsão

O databricks.automl.forecast método configura uma execução AutoML para treinar um modelo de previsão. Esse método retorna um AutoMLSummary. Para usar o Auto-ARIMA, a série temporal deve ter uma frequência regular (ou seja, o intervalo entre quaisquer dois pontos deve ser o mesmo em toda a série temporal). A frequência deve corresponder à unidade de frequência especificada na chamada API. O AutoML lida com as etapas de tempo ausentes preenchendo esses valores com o valor anterior.

databricks.automl.forecast(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  time_col: str,
  primary_metric: str = "smape",
  country_code: str = "US",                                         # <DBR> 12.0 ML and above
  frequency: str = "D",
  horizon: int = 1,
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_frameworks: Optional[List[str]] = None,
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 12.2 LTS ML and above
  identity_col: Optional[Union[str, List[str]]] = None,
  sample_weight_col: Optional[str] = None,                          # <DBR> 16.0 ML and above
  output_database: Optional[str] = None,                            # <DBR> 10.5 ML and above
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Parâmetros de previsão

Nome do parâmetro Tipo Description
dataset str, pandas.DataFrame, pyspark.DataFrame, pyspark.sql.DataFrame Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino.

O nome da tabela pode estar no formato ".." ou "." para tabelas que não sejam do Catálogo Unity
target_col str Nome da coluna para o rótulo de destino.
time_col str Nome da coluna de tempo para previsão.
primary_metric str Métrica usada para avaliar e classificar o desempenho do modelo.

Métricas suportadas: "smape" (padrão), "mse", "rmse", "mae" ou "mdape".
country_code str Disponível em Databricks Runtime 12.0 ML e superior. Apenas suportado pelo modelo de previsão do Profeta.

Opcional. Código de país de duas letras que indica os feriados do país que o modelo de previsão deve usar. Para ignorar feriados, defina esse parâmetro como uma cadeia de caracteres vazia ("").

Países suportados.

Padrão: EUA (feriados dos Estados Unidos).
frequency str Frequência das séries cronológicas para a previsão. Este é o período com o qual se espera que os eventos ocorram. A configuração padrão é "D" ou dados diários. Certifique-se de alterar a configuração se seus dados tiverem uma frequência diferente.

Valores possíveis:

"W" (semanas)

"D" / "dias" / "dia"

"horas" / "hora" / "hr" / "h"

"m" / "minuto" / "min" / "minutos" / "T"

"S" / "segundos" / "seg" / "segundo"

Os seguintes itens só estão disponíveis com o Databricks Runtime 12.0 ML e superior:

"M" / "mês" / "meses"

"Q" / "trimestre" / "trimestres"

"Y" / "ano" / "anos"

Padrão: "D"
horizon int Número de períodos futuros para os quais as previsões devem ser devolvidas.

As unidades são a frequência das séries temporais.

Padrão: 1
data_dir str de formato dbfs:/<folder-name> Opcional. DBFS caminho usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para os nós de driver e de trabalho.

O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato MLflow.

Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento AutoML.
experiment_dir str Opcional. Caminho para o diretório no espaço de trabalho para salvar os blocos de anotações e experimentos gerados.

Predefinição: /Users/<username>/databricks_automl/
experiment_name str Opcional. Nome para o experimento MLflow que o AutoML cria.

Padrão: o nome é gerado automaticamente.
exclude_frameworks List[str] Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar ao desenvolver modelos. Valores possíveis: lista vazia, ou um ou mais de "profeta", "arima".

Padrão: [] (todas as estruturas são consideradas)
feature_store_lookups List[Dict] Opcional. Lista de dicionários que representam recursos do Feature Store para aumento de dados covariáveis. As chaves válidas em cada dicionário são:

- table_name (str): Obrigatório. Nome da tabela de recursos.
- lookup_key (list ou str): Obrigatório. Nome(s) da coluna a ser usado como chave ao unir a tabela de recursos com os dados passados dataset no parâmetro. A ordem dos nomes das colunas deve corresponder à ordem das chaves primárias da tabela de recursos.
- timestamp_lookup_key(str): Obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa point-in-time na tabela de recursos com os dados passados dataset no parâmetro.

Padrão: []
identity_col Union[str, list] Opcional. Coluna(s) que identificam as séries cronológicas para a previsão de várias séries. O AutoML agrupa por esta(s) coluna(s) e a coluna de tempo para previsão.
sample_weight_col str Disponível em Databricks Runtime 16.0 ML e superior. Apenas para fluxos de trabalho de várias séries temporais.

Opcional. Especifica a coluna no conjunto de dados que contém pesos de amostra. Esses pesos indicam a importância relativa de cada série temporal durante o treinamento e a avaliação do modelo.

As séries temporais com pesos mais elevados têm maior influência no modelo. Se não forem fornecidas, todas as séries cronológicas são tratadas com o mesmo peso.

Todas as linhas pertencentes à mesma série temporal devem ter o mesmo peso.

Os pesos devem ser valores não negativos, decimais ou inteiros, e estar entre 0 e 10.000.
output_database str Opcional. Se fornecido, o AutoML salva as previsões do melhor modelo em uma nova tabela no banco de dados especificado.

Padrão: as previsões não são salvas.
timeout_minutes int Opcional. Tempo máximo de espera pela conclusão das versões experimentais do AutoML. Tempos limite mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão.

Padrão: 120 minutos

Valor mínimo: 5 minutos

Um erro é relatado se o tempo limite for muito curto para permitir que pelo menos uma avaliação seja concluída.

Importar bloco de notas

O databricks.automl.import_notebook método importa um bloco de anotações que foi salvo como um artefato MLflow. Esse método retorna um ImportNotebookResult.

databricks.automl.import_notebook(
  artifact_uri: str,
  path: str,
  overwrite: bool = False
) -> ImportNotebookResult:
Parâmetros Tipo Description
artifact_uri str O URI do artefato MLflow que contém o bloco de anotações de avaliação.
path str O caminho no espaço de trabalho Databricks onde o bloco de anotações deve ser importado. Este deve ser um caminho absoluto. O diretório será criado se não existir.
overwrite bool Se o bloco de anotações deve ser substituído se ele já existir. É False por defeito.

Exemplo de Importar bloco de notas

summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)

AutoMLSummary

Objeto de resumo para uma execução de AutoML que descreve as métricas, parâmetros e outros detalhes para cada uma das avaliações. Você também usa esse objeto para carregar o modelo treinado por uma avaliação específica.

Propriedade Type Description
experiment mlflow.entities.Experiment O experimento MLflow usado para registrar os ensaios.
trials List[TrialInfo] Uma lista de objetos TrialInfo contendo informações sobre todas as avaliações que foram executadas.
best_trial TrialInfo Um objeto TrialInfo contendo informações sobre a avaliação que resultou na melhor pontuação ponderada para a métrica primária.
metric_distribution str A distribuição das pontuações ponderadas para a métrica primária em todos os ensaios.
output_table_name str Usado com previsão apenas e somente se output_database for fornecido.

Nome da tabela em output_database que contém as previsões do modelo.

TrialInfo

Objeto de resumo para cada ensaio individual.

Propriedade Type Description
notebook_path Optional[str] O caminho para o bloco de anotações gerado para esta avaliação no espaço de trabalho.

Para classificação e regressão, esse valor é definido apenas para a melhor tentativa, enquanto todas as outras tentativas têm o valor definido como None.

Para a previsão, este valor está presente para todos os ensaios.
notebook_url Optional[str] O URL do bloco de notas gerado para esta versão experimental.

Para classificação e regressão, esse valor é definido apenas para a melhor tentativa, enquanto todas as outras tentativas têm o valor definido como None.

Para a previsão, este valor está presente para todos os ensaios.
artifact_uri Optional[str] O URI do artefato MLflow para o bloco de anotações gerado.
mlflow_run_id str O ID de execução MLflow associado a esta execução de avaliação.
metrics Dict[str, float] As métricas registradas no MLflow para esta avaliação.
params Dict[str, str] Os parâmetros registrados no MLflow que foram usados para este teste.
model_path str A URL do artefato MLflow do modelo treinado nesta avaliação.
model_description str Breve descrição do modelo e dos hiperparâmetros utilizados para treinar este modelo.
duration str Duração do treino em minutos.
preprocessors str Descrição dos pré-processadores executados antes de treinar o modelo.
evaluation_metric_score float Pontuação da métrica primária, avaliada para o conjunto de dados de validação.

TrialInfo tem um método para carregar o modelo gerado para a avaliação.

Método Description
load_model() Carregue o modelo gerado nesta versão de avaliação, registrado como um artefato MLflow.

ImportNotebookResult

Propriedade Type Description
path str O caminho no espaço de trabalho Databricks onde o bloco de anotações deve ser importado. Este deve ser um caminho absoluto. O diretório será criado se não existir.
url str O URI do artefato MLflow que contém o bloco de anotações de avaliação.