extractPixels: trasformazione estrazione di dati pixel di Machine Learning
Estrae i valori pixel da un'immagine.
Utilizzo
extractPixels(vars, useAlpha = FALSE, useRed = TRUE, useGreen = TRUE,
useBlue = TRUE, interleaveARGB = FALSE, convert = TRUE, offset = NULL,
scale = NULL)
Arguments
vars
Elenco denominato di vettori di caratteri di nomi di variabili di input e nome della variabile di output. Si noti che le variabili di input devono essere dello stesso tipo. Per i mapping uno-a-uno tra le variabili di input e di output, è possibile usare un vettore di caratteri denominato.
useAlpha
Specifica se usare il canale alfa. Il valore predefinito è FALSE
.
useRed
Specifica se usare il canale rosso. Il valore predefinito è TRUE
.
useGreen
Specifica se usare il canale verde. Il valore predefinito è TRUE
.
useBlue
Specifica se usare il canale blu. Il valore predefinito è TRUE
.
interleaveARGB
Indica se separare ogni canale o eseguire l'interleave nell'ordine ARGB. Questo potrebbe essere importante, ad esempio, se si esegue il training di una rete neurale convoluzionale, poiché ciò influisce sulla forma del kernel, stride e così via.
convert
Indica se convertire in virgola mobile. Il valore predefinito è FALSE
.
offset
Specifica l'offset (pre-scalabilità). Richiede convert = TRUE
. Il valore predefinito è NULL
.
scale
Specifica il fattore di scala. Richiede convert = TRUE
. Il valore predefinito è NULL
.
Dettagli
extractPixels
estrae i valori pixel da un'immagine. Le variabili di input sono immagini delle stesse dimensioni, in genere l'output di una trasformazione resizeImage
. L'output è costituito da dati pixel in forma vettoriale che vengono in genere usati come funzionalità per uno strumento di apprendimento.
Valore
Oggetto maml
che definisce la trasformazione.
Autore/i
Microsoft Corporation Microsoft Technical Support
Esempi
train <- data.frame(Path = c(system.file("help/figures/RevolutionAnalyticslogo.png", package = "MicrosoftML")), Label = c(TRUE), stringsAsFactors = FALSE)
# Loads the images from variable Path, resizes the images to 1x1 pixels and trains a neural net.
model <- rxNeuralNet(
Label ~ Features,
data = train,
mlTransforms = list(
loadImage(vars = list(Features = "Path")),
resizeImage(vars = "Features", width = 1, height = 1, resizing = "Aniso"),
extractPixels(vars = "Features")
),
mlTransformVars = "Path",
numHiddenNodes = 1,
numIterations = 1)
# Featurizes the images from variable Path using the default model, and trains a linear model on the result.
model <- rxFastLinear(
Label ~ Features,
data = train,
mlTransforms = list(
loadImage(vars = list(Features = "Path")),
resizeImage(vars = "Features", width = 224, height = 224), # If dnnModel == "AlexNet", the image has to be resized to 227x227.
extractPixels(vars = "Features"),
featurizeImage(var = "Features")
),
mlTransformVars = "Path")