Samouczek: analizowanie danych za pomocą funkcji glm
Dowiedz się, jak wykonywać regresję liniową i logistyczną przy użyciu uogólnionego modelu liniowego (GLM, generalized linear model) w usłudze Azure Databricks. glm
pasuje do uogólnionego modelu liniowego, podobnie jak w przypadku języka glm()
R.
Składnia: glm(formula, data, family...)
Parametry:
formula
: Symboliczny opis modelu, który ma być dopasowany, na przykład:ResponseVariable ~ Predictor1 + Predictor2
. Obsługiwane operatory:~
,+
,-
i.
data
: Dowolna ramka SparkDataFramefamily
: ciąg,"gaussian"
w przypadku regresji liniowej lub"binomial"
regresji logistycznejlambda
: Parametr liczbowy, regularyzacjialpha
: Parametr mieszania liczbowy, elastyczny-net
Dane wyjściowe: MLlib PipelineModel
W tym samouczku przedstawiono sposób wykonywania regresji liniowej i logistycznej w zestawie danych diamentów.
Ładowanie danych dotyczących diamentów i dzielenie ich na zestaw danych treningowych oraz zestaw danych testowych
require(SparkR)
# Read diamonds.csv dataset as SparkDataFrame
diamonds <- read.df("/databricks-datasets/Rdatasets/data-001/csv/ggplot2/diamonds.csv",
source = "com.databricks.spark.csv", header="true", inferSchema = "true")
diamonds <- withColumnRenamed(diamonds, "", "rowID")
# Split data into Training set and Test set
trainingData <- sample(diamonds, FALSE, 0.7)
testData <- except(diamonds, trainingData)
# Exclude rowIDs
trainingData <- trainingData[, -1]
testData <- testData[, -1]
print(count(diamonds))
print(count(trainingData))
print(count(testData))
head(trainingData)
Trenowanie modelu regresji liniowej przy użyciu glm()
W tej sekcji pokazano, jak przewidzieć cenę diamentu na podstawie jego funkcji, szkoląc model regresji liniowej przy użyciu danych treningowych.
Istnieje mieszanka cech kategorii (cut - Ideal, Premium, Very Good...) i funkcji ciągłych (głębokość, karat). Usługa SparkR automatycznie koduje te funkcje, aby nie trzeba było kodować tych funkcji ręcznie.
# Family = "gaussian" to train a linear regression model
lrModel <- glm(price ~ ., data = trainingData, family = "gaussian")
# Print a summary of the trained model
summary(lrModel)
Użyj predict()
danych testowych, aby zobaczyć, jak dobrze działa model na nowych danych.
Składnia: predict(model, newData)
Parametry:
model
: model MLlibnewData
: SparkDataFrame, zazwyczaj zestaw testów
Wyjście: SparkDataFrame
# Generate predictions using the trained model
predictions <- predict(lrModel, newData = testData)
# View predictions against mpg column
display(select(predictions, "price", "prediction"))
Oceń model.
errors <- select(predictions, predictions$price, predictions$prediction, alias(predictions$price - predictions$prediction, "error"))
display(errors)
# Calculate RMSE
head(select(errors, alias(sqrt(sum(errors$error^2 , na.rm = TRUE) / nrow(errors)), "RMSE")))
Trenowanie modelu regresji logistycznej przy użyciu glm()
W tej sekcji pokazano, jak utworzyć regresję logistyczną na tym samym zestawie danych, aby przewidzieć cięcie diamentu na podstawie niektórych jego funkcji.
Regresja logistyczna w MLlib obsługuje klasyfikację binarną. Aby przetestować algorytm w tym przykładzie, podzbiór danych do pracy z dwiema etykietami.
# Subset data to include rows where diamond cut = "Premium" or diamond cut = "Very Good"
trainingDataSub <- subset(trainingData, trainingData$cut %in% c("Premium", "Very Good"))
testDataSub <- subset(testData, testData$cut %in% c("Premium", "Very Good"))
# Family = "binomial" to train a logistic regression model
logrModel <- glm(cut ~ price + color + clarity + depth, data = trainingDataSub, family = "binomial")
# Print summary of the trained model
summary(logrModel)
# Generate predictions using the trained model
predictionsLogR <- predict(logrModel, newData = testDataSub)
# View predictions against label column
display(select(predictionsLogR, "label", "prediction"))
Oceń model.
errorsLogR <- select(predictionsLogR, predictionsLogR$label, predictionsLogR$prediction, alias(abs(predictionsLogR$label - predictionsLogR$prediction), "error"))
display(errorsLogR)