Referência da API do AutoML Python
Este artigo descreve a API Python do AutoML, que fornece métodos para iniciar a classificação, regressão e previsão de execuções do AutoML. Cada chamada de método treina um conjunto de modelos e gera um bloco de anotações de avaliação para cada modelo.
Para obter mais informações sobre AutoML, incluindo uma opção de interface do usuário low-code, consulte O que é AutoML?.
Classificar
O databricks.automl.classify
método configura uma execução AutoML para treinar um modelo de classificação.
Nota
O max_trials
parâmetro foi preterido no Databricks Runtime 10.4 ML e não é suportado no Databricks Runtime 11.0 ML e superior. Use timeout_minutes
para controlar a duração de uma execução do AutoML.
databricks.automl.classify(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
primary_metric: str = "f1",
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
pos_label: Optional[Union[int, bool, str]] = None, # <DBR> 11.1 ML and above
time_col: Optional[str] = None,
split_col: Optional[str] = None, # <DBR> 15.3 ML and above
sample_weight_col: Optional[str] = None # <DBR> 15.4 ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Classificar parâmetros
Nome do parâmetro | Tipo | Description |
---|---|---|
dataset |
str , pandas.DataFrame , pyspark.DataFrame , pyspark.sql.DataFrame |
Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato "<database_name>.<table_name>" ou "<schema_name>.<table_name>" para tabelas que não sejam do Catálogo Unity. |
target_col |
str |
Nome da coluna para o rótulo de destino. |
primary_metric |
str |
Métrica usada para avaliar e classificar o desempenho do modelo. Métricas suportadas para regressão: "r2" (padrão), "mae", "rmse", "mse" Métricas suportadas para classificação: "f1" (padrão), "log_loss", "precisão", "precisão", "roc_auc" |
data_dir |
str de formato dbfs:/<folder-name> |
Opcional. DBFS caminho usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para os nós de driver e de trabalho. O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato MLflow. Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento AutoML. |
experiment_dir |
str |
Opcional. Caminho para o diretório no espaço de trabalho para salvar os blocos de anotações e experimentos gerados. Predefinição: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Opcional. Nome para o experimento MLflow que o AutoML cria. Padrão: o nome é gerado automaticamente. |
exclude_cols |
List[str] |
Opcional. Lista de colunas a serem ignoradas durante os cálculos do AutoML. Padrão: [] |
exclude_frameworks |
List[str] |
Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar ao desenvolver modelos. Valores possíveis: lista vazia, ou um ou mais de "sklearn", "lightgbm", "xgboost". Padrão: [] (todas as estruturas são consideradas) |
feature_store_lookups |
List[Dict] |
Opcional. Lista de dicionários que representam recursos do Feature Store para aumento de dados. As chaves válidas em cada dicionário são: - table_name (str): Obrigatório. Nome da tabela de recursos.- lookup_key (list ou str): Obrigatório. Nome(s) da coluna a ser usado como chave ao unir a tabela de recursos com os dados passados dataset no parâmetro. A ordem dos nomes das colunas deve corresponder à ordem das chaves primárias da tabela de recursos.- timestamp_lookup_key (str): Obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa point-in-time na tabela de recursos com os dados passados dataset no parâmetro.Padrão: [] |
imputers |
Dict[str, Union[str, Dict[str, Any]]] |
Opcional. Dicionário onde cada chave é um nome de coluna e cada valor é uma cadeia de caracteres ou dicionário que descreve a estratégia de imputação. Se especificado como uma cadeia de caracteres, o valor deve ser um de "média", "mediana" ou "most_frequent". Para imputar com um valor conhecido, especifique o valor como um dicionário {"strategy": "constant", "fill_value": <desired value>} . Você também pode especificar opções de cadeia de caracteres como dicionários, por exemplo {"strategy": "mean"} .Se nenhuma estratégia de imputação for fornecida para uma coluna, o AutoML selecionará uma estratégia padrão com base no tipo e no conteúdo da coluna. Se você especificar um método de imputação não padrão, o AutoML não executará a deteção de tipo semântico. Predefinição: {} |
pos_label |
Union[int, bool, str] |
(Apenas classificação) A classe positiva. Isso é útil para calcular métricas como precisão e recordação. Só deve ser especificado para problemas de classificação binária. |
time_col |
str |
Disponível em Databricks Runtime 10.1 ML e superior. Opcional. Nome da coluna para uma coluna de tempo. Se fornecido, o AutoML tenta dividir o conjunto de dados em conjuntos de treinamento, validação e teste cronologicamente, usando os primeiros pontos como dados de treinamento e os pontos mais recentes como um conjunto de testes. Os tipos de coluna aceitos são carimbo de data/hora e inteiro. Com o Databricks Runtime 10.2 ML e superior, as colunas de cadeia de caracteres também são suportadas. Se o tipo de coluna for string, o AutoML tentará convertê-lo em carimbo de data/hora usando a deteção semântica. Se a conversão falhar, a execução do AutoML falhará. |
split_col |
str |
Opcional. Nome da coluna para uma coluna dividida. Disponível apenas no Databricks Runtime 15.3 ML e superior para fluxos de trabalho de API. Se fornecido, o AutoML tenta dividir os conjuntos de treino/validação/teste por valores especificados pelo usuário, e essa coluna é excluída automaticamente dos recursos de treinamento. O tipo de coluna aceito é string. O valor de cada entrada nesta coluna deve ser um dos seguintes: "comboio", "validar" ou "ensaio". |
sample_weight_col |
str |
Disponível no Databricks Runtime 15.4 ML e superior para fluxos de trabalho de API de classificação. Opcional. Nome da coluna no conjunto de dados que contém os pesos de amostra para cada linha. A classificação suporta pesos amostrais por classe. Estes pesos ajustam a importância de cada aula durante o treino do modelo. Cada amostra dentro de uma classe deve ter o mesmo peso de amostra e os pesos devem ser valores decimais ou inteiros não negativos, variando de 0 a 10.000. Aulas com maiores pesos amostrais são consideradas mais importantes e têm maior influência no algoritmo de aprendizagem. Se esta coluna não for especificada, presume-se que todas as classes têm o mesmo peso. |
max_trials |
int |
Opcional. Número máximo de ensaios a realizar. Este parâmetro está disponível no Databricks Runtime 10.5 ML e inferior, mas foi preterido a partir do Databricks Runtime 10.3 ML. No Databricks Runtime 11.0 ML e superior, este parâmetro não é suportado. Padrão: 20 Se timeout_minutes=Nenhum, o AutoML executa o número máximo de avaliações. |
timeout_minutes |
int |
Opcional. Tempo máximo de espera pela conclusão das versões experimentais do AutoML. Tempos limite mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão. Padrão: 120 minutos Valor mínimo: 5 minutos Um erro é relatado se o tempo limite for muito curto para permitir que pelo menos uma avaliação seja concluída. |
Regressão
O databricks.automl.regress
método configura uma execução AutoML para treinar um modelo de regressão. Esse método retorna um AutoMLSummary.
Nota
O max_trials
parâmetro foi preterido no Databricks Runtime 10.4 ML e não é suportado no Databricks Runtime 11.0 ML e superior. Use timeout_minutes
para controlar a duração de uma execução do AutoML.
databricks.automl.regress(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
primary_metric: str = "r2",
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
time_col: Optional[str] = None,
split_col: Optional[str] = None, # <DBR> 15.3 ML and above
sample_weight_col: Optional[str] = None, # <DBR> 15.3 ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Parâmetros de regressão
Nome do parâmetro | Tipo | Description |
---|---|---|
dataset |
str , pandas.DataFrame , pyspark.DataFrame , pyspark.sql.DataFrame |
Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato "<database_name>.<table_name>" ou "<schema_name>.<table_name>" para tabelas que não sejam do Catálogo Unity. |
target_col |
str |
Nome da coluna para o rótulo de destino. |
primary_metric |
str |
Métrica usada para avaliar e classificar o desempenho do modelo. Métricas suportadas para regressão: "r2" (padrão), "mae", "rmse", "mse" Métricas suportadas para classificação: "f1" (padrão), "log_loss", "precisão", "precisão", "roc_auc" |
data_dir |
str de formato dbfs:/<folder-name> |
Opcional. DBFS caminho usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para os nós de driver e de trabalho. O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato MLflow. Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento AutoML. |
experiment_dir |
str |
Opcional. Caminho para o diretório no espaço de trabalho para salvar os blocos de anotações e experimentos gerados. Predefinição: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Opcional. Nome para o experimento MLflow que o AutoML cria. Padrão: o nome é gerado automaticamente. |
exclude_cols |
List[str] |
Opcional. Lista de colunas a serem ignoradas durante os cálculos do AutoML. Padrão: [] |
exclude_frameworks |
List[str] |
Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar ao desenvolver modelos. Valores possíveis: lista vazia, ou um ou mais de "sklearn", "lightgbm", "xgboost". Padrão: [] (todas as estruturas são consideradas) |
feature_store_lookups |
List[Dict] |
Opcional. Lista de dicionários que representam recursos do Feature Store para aumento de dados. As chaves válidas em cada dicionário são: - table_name (str): Obrigatório. Nome da tabela de recursos.- lookup_key (list ou str): Obrigatório. Nome(s) da coluna a ser usado como chave ao unir a tabela de recursos com os dados passados dataset no parâmetro. A ordem dos nomes das colunas deve corresponder à ordem das chaves primárias da tabela de recursos.- timestamp_lookup_key (str): Obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa point-in-time na tabela de recursos com os dados passados dataset no parâmetro.Padrão: [] |
imputers |
Dict[str, Union[str, Dict[str, Any]]] |
Opcional. Dicionário onde cada chave é um nome de coluna e cada valor é uma cadeia de caracteres ou dicionário que descreve a estratégia de imputação. Se especificado como uma cadeia de caracteres, o valor deve ser um de "média", "mediana" ou "most_frequent". Para imputar com um valor conhecido, especifique o valor como um dicionário {"strategy": "constant", "fill_value": <desired value>} . Você também pode especificar opções de cadeia de caracteres como dicionários, por exemplo {"strategy": "mean"} .Se nenhuma estratégia de imputação for fornecida para uma coluna, o AutoML selecionará uma estratégia padrão com base no tipo e no conteúdo da coluna. Se você especificar um método de imputação não padrão, o AutoML não executará a deteção de tipo semântico. Predefinição: {} |
time_col |
str |
Disponível em Databricks Runtime 10.1 ML e superior. Opcional. Nome da coluna para uma coluna de tempo. Se fornecido, o AutoML tenta dividir o conjunto de dados em conjuntos de treinamento, validação e teste cronologicamente, usando os primeiros pontos como dados de treinamento e os pontos mais recentes como um conjunto de testes. Os tipos de coluna aceitos são carimbo de data/hora e inteiro. Com o Databricks Runtime 10.2 ML e superior, as colunas de cadeia de caracteres também são suportadas. Se o tipo de coluna for string, o AutoML tentará convertê-lo em carimbo de data/hora usando a deteção semântica. Se a conversão falhar, a execução do AutoML falhará. |
split_col |
str |
Opcional. Nome da coluna para uma coluna dividida. Disponível apenas no Databricks Runtime 15.3 ML e superior para fluxos de trabalho de API. Se fornecido, o AutoML tenta dividir os conjuntos de treino/validação/teste por valores especificados pelo usuário, e essa coluna é excluída automaticamente dos recursos de treinamento. O tipo de coluna aceito é string. O valor de cada entrada nesta coluna deve ser um dos seguintes: "comboio", "validar" ou "ensaio". |
sample_weight_col |
str |
Disponível no Databricks Runtime 15.3 ML e superior para fluxos de trabalho de API de regressão. Opcional. Nome da coluna no conjunto de dados que contém os pesos de amostra para cada linha. Estes pesos ajustam a importância de cada linha durante o treino do modelo. Os pesos devem ser valores decimais ou inteiros não negativos, variando de 0 a 10.000. Linhas com maiores pesos amostrais são consideradas mais importantes e têm maior influência no algoritmo de aprendizagem. Se esta coluna não for especificada, presume-se que todas as linhas têm o mesmo peso. |
max_trials |
int |
Opcional. Número máximo de ensaios a realizar. Este parâmetro está disponível no Databricks Runtime 10.5 ML e inferior, mas foi preterido a partir do Databricks Runtime 10.3 ML. No Databricks Runtime 11.0 ML e superior, este parâmetro não é suportado. Padrão: 20 Se timeout_minutes=Nenhum, o AutoML executa o número máximo de avaliações. |
timeout_minutes |
int |
Opcional. Tempo máximo de espera pela conclusão das versões experimentais do AutoML. Tempos limite mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão. Padrão: 120 minutos Valor mínimo: 5 minutos Um erro é relatado se o tempo limite for muito curto para permitir que pelo menos uma avaliação seja concluída. |
Previsão
O databricks.automl.forecast
método configura uma execução AutoML para treinar um modelo de previsão. Esse método retorna um AutoMLSummary.
Para usar o Auto-ARIMA, a série temporal deve ter uma frequência regular (ou seja, o intervalo entre quaisquer dois pontos deve ser o mesmo em toda a série temporal). A frequência deve corresponder à unidade de frequência especificada na chamada API. O AutoML lida com as etapas de tempo ausentes preenchendo esses valores com o valor anterior.
databricks.automl.forecast(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
time_col: str,
primary_metric: str = "smape",
country_code: str = "US", # <DBR> 12.0 ML and above
frequency: str = "D",
horizon: int = 1,
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None,
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_frameworks: Optional[List[str]] = None,
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 12.2 LTS ML and above
identity_col: Optional[Union[str, List[str]]] = None,
sample_weight_col: Optional[str] = None, # <DBR> 16.0 ML and above
output_database: Optional[str] = None, # <DBR> 10.5 ML and above
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Parâmetros de previsão
Nome do parâmetro | Tipo | Description |
---|---|---|
dataset |
str , pandas.DataFrame , pyspark.DataFrame , pyspark.sql.DataFrame |
Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato ".." ou "." para tabelas que não sejam do Catálogo Unity |
target_col |
str |
Nome da coluna para o rótulo de destino. |
time_col |
str |
Nome da coluna de tempo para previsão. |
primary_metric |
str |
Métrica usada para avaliar e classificar o desempenho do modelo. Métricas suportadas: "smape" (padrão), "mse", "rmse", "mae" ou "mdape". |
country_code |
str |
Disponível em Databricks Runtime 12.0 ML e superior. Apenas suportado pelo modelo de previsão do Profeta. Opcional. Código de país de duas letras que indica os feriados do país que o modelo de previsão deve usar. Para ignorar feriados, defina esse parâmetro como uma cadeia de caracteres vazia (""). Países suportados. Padrão: EUA (feriados dos Estados Unidos). |
frequency |
str |
Frequência das séries cronológicas para a previsão. Este é o período com o qual se espera que os eventos ocorram. A configuração padrão é "D" ou dados diários. Certifique-se de alterar a configuração se seus dados tiverem uma frequência diferente. Valores possíveis: "W" (semanas) "D" / "dias" / "dia" "horas" / "hora" / "hr" / "h" "m" / "minuto" / "min" / "minutos" / "T" "S" / "segundos" / "seg" / "segundo" Os seguintes itens só estão disponíveis com o Databricks Runtime 12.0 ML e superior: "M" / "mês" / "meses" "Q" / "trimestre" / "trimestres" "Y" / "ano" / "anos" Padrão: "D" |
horizon |
int |
Número de períodos futuros para os quais as previsões devem ser devolvidas. As unidades são a frequência das séries temporais. Padrão: 1 |
data_dir |
str de formato dbfs:/<folder-name> |
Opcional. DBFS caminho usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para os nós de driver e de trabalho. O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato MLflow. Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento AutoML. |
experiment_dir |
str |
Opcional. Caminho para o diretório no espaço de trabalho para salvar os blocos de anotações e experimentos gerados. Predefinição: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Opcional. Nome para o experimento MLflow que o AutoML cria. Padrão: o nome é gerado automaticamente. |
exclude_frameworks |
List[str] |
Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar ao desenvolver modelos. Valores possíveis: lista vazia, ou um ou mais de "profeta", "arima". Padrão: [] (todas as estruturas são consideradas) |
feature_store_lookups |
List[Dict] |
Opcional. Lista de dicionários que representam recursos do Feature Store para aumento de dados covariáveis. As chaves válidas em cada dicionário são: - table_name (str): Obrigatório. Nome da tabela de recursos.- lookup_key (list ou str): Obrigatório. Nome(s) da coluna a ser usado como chave ao unir a tabela de recursos com os dados passados dataset no parâmetro. A ordem dos nomes das colunas deve corresponder à ordem das chaves primárias da tabela de recursos.- timestamp_lookup_key (str): Obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa point-in-time na tabela de recursos com os dados passados dataset no parâmetro.Padrão: [] |
identity_col |
Union[str, list] |
Opcional. Coluna(s) que identificam as séries cronológicas para a previsão de várias séries. O AutoML agrupa por esta(s) coluna(s) e a coluna de tempo para previsão. |
sample_weight_col |
str |
Disponível em Databricks Runtime 16.0 ML e superior. Apenas para fluxos de trabalho de várias séries temporais. Opcional. Especifica a coluna no conjunto de dados que contém pesos de amostra. Esses pesos indicam a importância relativa de cada série temporal durante o treinamento e a avaliação do modelo. As séries temporais com pesos mais elevados têm maior influência no modelo. Se não forem fornecidas, todas as séries cronológicas são tratadas com o mesmo peso. Todas as linhas pertencentes à mesma série temporal devem ter o mesmo peso. Os pesos devem ser valores não negativos, decimais ou inteiros, e estar entre 0 e 10.000. |
output_database |
str |
Opcional. Se fornecido, o AutoML salva as previsões do melhor modelo em uma nova tabela no banco de dados especificado. Padrão: as previsões não são salvas. |
timeout_minutes |
int |
Opcional. Tempo máximo de espera pela conclusão das versões experimentais do AutoML. Tempos limite mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão. Padrão: 120 minutos Valor mínimo: 5 minutos Um erro é relatado se o tempo limite for muito curto para permitir que pelo menos uma avaliação seja concluída. |
Importar bloco de notas
O databricks.automl.import_notebook
método importa um bloco de anotações que foi salvo como um artefato MLflow. Esse método retorna um ImportNotebookResult.
databricks.automl.import_notebook(
artifact_uri: str,
path: str,
overwrite: bool = False
) -> ImportNotebookResult:
Parâmetros | Tipo | Description |
---|---|---|
artifact_uri |
str |
O URI do artefato MLflow que contém o bloco de anotações de avaliação. |
path |
str |
O caminho no espaço de trabalho Databricks onde o bloco de anotações deve ser importado. Este deve ser um caminho absoluto. O diretório será criado se não existir. |
overwrite |
bool |
Se o bloco de anotações deve ser substituído se ele já existir. É False por defeito. |
Exemplo de Importar bloco de notas
summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)
AutoMLSummary
Objeto de resumo para uma execução de AutoML que descreve as métricas, parâmetros e outros detalhes para cada uma das avaliações. Você também usa esse objeto para carregar o modelo treinado por uma avaliação específica.
Propriedade | Type | Description |
---|---|---|
experiment |
mlflow.entities.Experiment |
O experimento MLflow usado para registrar os ensaios. |
trials |
List[TrialInfo] |
Uma lista de objetos TrialInfo contendo informações sobre todas as avaliações que foram executadas. |
best_trial |
TrialInfo |
Um objeto TrialInfo contendo informações sobre a avaliação que resultou na melhor pontuação ponderada para a métrica primária. |
metric_distribution |
str |
A distribuição das pontuações ponderadas para a métrica primária em todos os ensaios. |
output_table_name |
str |
Usado com previsão apenas e somente se output_database for fornecido. Nome da tabela em output_database que contém as previsões do modelo. |
TrialInfo
Objeto de resumo para cada ensaio individual.
Propriedade | Type | Description |
---|---|---|
notebook_path |
Optional[str] |
O caminho para o bloco de anotações gerado para esta avaliação no espaço de trabalho. Para classificação e regressão, esse valor é definido apenas para a melhor tentativa, enquanto todas as outras tentativas têm o valor definido como None .Para a previsão, este valor está presente para todos os ensaios. |
notebook_url |
Optional[str] |
O URL do bloco de notas gerado para esta versão experimental. Para classificação e regressão, esse valor é definido apenas para a melhor tentativa, enquanto todas as outras tentativas têm o valor definido como None .Para a previsão, este valor está presente para todos os ensaios. |
artifact_uri |
Optional[str] |
O URI do artefato MLflow para o bloco de anotações gerado. |
mlflow_run_id |
str |
O ID de execução MLflow associado a esta execução de avaliação. |
metrics |
Dict[str, float] |
As métricas registradas no MLflow para esta avaliação. |
params |
Dict[str, str] |
Os parâmetros registrados no MLflow que foram usados para este teste. |
model_path |
str |
A URL do artefato MLflow do modelo treinado nesta avaliação. |
model_description |
str |
Breve descrição do modelo e dos hiperparâmetros utilizados para treinar este modelo. |
duration |
str |
Duração do treino em minutos. |
preprocessors |
str |
Descrição dos pré-processadores executados antes de treinar o modelo. |
evaluation_metric_score |
float |
Pontuação da métrica primária, avaliada para o conjunto de dados de validação. |
TrialInfo
tem um método para carregar o modelo gerado para a avaliação.
Método | Description |
---|---|
load_model() |
Carregue o modelo gerado nesta versão de avaliação, registrado como um artefato MLflow. |
ImportNotebookResult
Propriedade | Type | Description |
---|---|---|
path |
str |
O caminho no espaço de trabalho Databricks onde o bloco de anotações deve ser importado. Este deve ser um caminho absoluto. O diretório será criado se não existir. |
url |
str |
O URI do artefato MLflow que contém o bloco de anotações de avaliação. |