neuralNet: neuralNet
Cria uma lista que contém o nome e os argumentos da função para treinar um modelo NeuralNet com rxEnsemble.
Uso
neuralNet(numHiddenNodes = 100, numIterations = 100, optimizer = sgd(),
netDefinition = NULL, initWtsDiameter = 0.1, maxNorm = 0,
acceleration = c("sse", "gpu"), miniBatchSize = 1, ...)
Argumentos
numHiddenNodes
O número padrão de nós ocultos na rede neural. O valor padrão é 100.
numIterations
O número de iterações no conjunto de treinamento completo. O valor padrão é 100.
optimizer
Uma lista que especifica o algoritmo de otimização sgd
ou adaptive
. Essa lista pode ser criada usando sgd ou adaDeltaSgd. O valor padrão é sgd
.
netDefinition
A definição de Net# da estrutura da rede neural. Para saber mais sobre a linguagem Net#, confira Reference Guide
initWtsDiameter
Define o diâmetro de pesos iniciais que especifica o intervalo do qual os valores dos pesos iniciais de aprendizado são extraídos. Os pesos são inicializados aleatoriamente de dentro desse intervalo. O valor padrão é 0,1.
maxNorm
Especifica um limite superior para restringir a norma do vetor de peso de entrada em cada unidade oculta. Esse argumento pode ser importante em redes neurais de nível máximo e nos casos em que o treinamento gera pesos ilimitados.
acceleration
Especifica o tipo de aceleração de hardware a ser usado. Os valores possíveis são "sse" e "gpu". Para aceleração de GPU, é recomendado usar um miniBatchSize maior que um. Se você quer usar a aceleração de GPU, são necessárias mais algumas etapas de configuração manual:
- Baixe e instale o NVidia CUDA Toolkit 6.5 (
CUDA Toolkit
). - Baixe e instale a biblioteca NVidia cuDNN v2 (
cudnn Library
). - Localize o diretório libs do pacote MicrosoftRML chamando
system.file("mxLibs/x64", package = "MicrosoftML")
. - Copie cublas64_65.dll, cudart64_65.dll e cusparse64_65.dll do CUDA Toolkit 6.5 para o diretório libs do pacote MicrosoftML.
- Copie cudnn64_65.dll da biblioteca cuDNN v2 para o diretório libs do pacote MicrosoftML.
miniBatchSize
Define o tamanho do minilote. Os valores recomendados estão entre 1 e 256. Esse parâmetro só é usado quando a aceleração é de GPU. A definição desse parâmetro como um valor mais alto aprimora a velocidade do treinamento, mas pode prejudicar a precisão. O valor padrão é 1.
...
Argumentos adicionais.