Compartilhar via


ClassificationModels type

Define valores para ClassificationModels.
KnownClassificationModels pode ser usado de forma intercambiável com ClassificationModels, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

LogisticRegression: a regressão logística é uma técnica de classificação fundamental. Ele pertence ao grupo de classificadores lineares e é um pouco semelhante à regressão polinomial e linear. A regressão logística é rápida e relativamente descomplicada e é conveniente interpretar os resultados. Embora seja essencialmente um método para classificação binária, ele também pode ser aplicado a problemas de várias classes.
SGD: SGD: descendente de gradiente estocástico é um algoritmo de otimização geralmente usado em aplicativos de aprendizado de máquina para localizar os parâmetros de modelo que correspondem ao melhor ajuste entre saídas previstas e reais.
MultinomialNaiveBayes: o classificador naive bayes multinomial é adequado para classificação com recursos discretos (por exemplo, contagens de palavras para classificação de texto). A distribuição multinomial normalmente requer contagens de recursos inteiros. No entanto, na prática, contagens fracionárias, como tf-idf, também podem funcionar.
BernoulliNaiveBayes: classificador Naive Bayes para modelos bernoulli multivariados.
SVM: um SVM (computador vetor de suporte) é um modelo de machine learning supervisionado que usa algoritmos de classificação para problemas de classificação de dois grupos. Depois de fornecer a um modelo SVM conjuntos de dados de treinamento rotulados para cada categoria, eles são capazes de categorizar o novo texto.
LinearSVM: um SVM (computador vetor de suporte) é um modelo de machine learning supervisionado que usa algoritmos de classificação para problemas de classificação de dois grupos. Depois de fornecer a um modelo SVM conjuntos de dados de treinamento rotulados para cada categoria, eles são capazes de categorizar o novo texto. A SVM linear tem o melhor desempenho quando os dados de entrada são lineares, ou seja, os dados podem ser classificados facilmente desenhando a linha reta entre valores classificados em um grafo plotado.
KNN: o algoritmo KNN (K-nearest neighbors) usa "similaridade de recursos" para prever os valores de novos pontos de dados, o que significa ainda que o novo ponto de dados receberá um valor com base na proximidade com que ele corresponde aos pontos no conjunto de treinamento.
DecisionTree: árvores de decisão são um método de aprendizado supervisionado não paramétrico usado para tarefas de classificação e regressão. O objetivo é criar um modelo que preveja o valor de uma variável de destino aprendendo regras de decisão simples inferidas dos recursos de dados.
RandomForest: a floresta aleatória é um algoritmo de aprendizado supervisionado. A "floresta" que ela constrói é um conjunto de árvores de decisão, geralmente treinadas com o método "bagging". A ideia geral do método de ensacar é que uma combinação de modelos de aprendizado aumenta o resultado geral.
ExtremeRandomTrees: Extreme Trees é um algoritmo de aprendizado de máquina de conjunto que combina as previsões de muitas árvores de decisão. Ele está relacionado ao algoritmo de floresta aleatória amplamente usado.
LightGBM: LightGBM é uma estrutura de aumento de gradiente que usa algoritmos de aprendizado baseados em árvore.
GradientBoosting: a técnica de transitar alunos da semana para um aluno forte é chamada de Boosting. O processo de algoritmo de aumento de gradiente funciona nessa teoria da execução.
XGBoostClassifier: XGBoost: Algoritmo de Aumento de Gradiente Extremo. Esse algoritmo é usado para dados estruturados em que os valores de coluna de destino podem ser divididos em valores de classe distintos.

type ClassificationModels = string