Título: Funciones de transferencia en el perceptrón
multicapa: efecto de su combinación en entrenamiento local
y distribuido
Title: Transfer functions in the multilayer perceptron:
effects of its combination on local and distributed training
Autores:
MsC. Yuleidys Mejías César1, Dr. Ramón
Carrasco Velar2, Ing. Isbel Ochoa Izquierdo3,
Ing. Edel Moreno Lemus3
1Máster en Bioinformática. Profesor Asistente.
Universidad de las Ciencias Informáticas. Dirección:
Carretera a San Antonio de los Baños, Km 2½. Boyeros,
Ciudad de La Habana, Cuba.
E-mail: ymejias@uci.cu
2Doctor en Ciencias Químicas. Universidad de
las Ciencias Informáticas. Profesor Auxiliar. Investigador
Titular.
E-mail: rcarrasco@uci.cu
3Ingeniero. Profesor Instructor. Universidad de las
Ciencias Informáticas.
Resumen
El perceptrón multicapa (PMC) figura dentro de los tipos
de redes neuronales artificiales (RNA) con resultados útiles
en los estudios de relación estructura-actividad. Dado que
los volúmenes de datos en proyectos de Bioinformática
son eventualmente grandes, se propuso evaluar algoritmos para acortar
el tiempo de entrenamiento de la red sin afectar su eficiencia.
Se desarrolló un algoritmo para el entrenamiento local y
distribuido del PMC con la posibilidad de variar las funciones de
transferencias para lo cual se utilizaron el Weka y la Plataforma
de Tareas Distribuidas Tarenal para distribuir el entrenamiento
del perceptrón multicapa. Se demostró que en dependencia
de la muestra de entrenamiento, la variación de las funciones
de transferencia pueden reportar resultados mucho más eficientes
que los obtenidos con la clásica función Sigmoidal,
con incremento de la g-media entre el 4.5 y el 17 %. Se encontró
además que en los entrenamientos distribuidos es posible
alcanzar eventualmente mejores resultados que los logrados en ambiente
local.
Palabras clave: Funciones de transferencia,
Perceptrón multicapa, Redes neuronales.
Abstract
The multilayer perceptron (PMC) ranks among the types of artificial
neural networks (ANN), which has provided better results in studies
of structure-activity relationship. As the data volumes in Bioinformatics’
projects are eventually big, it was proposed to evaluate algorithms
to shorten the training time of the network without affecting its
efficiency. There were evaluated different tools that work with
ANN and were selected Weka algorithm for extracting the network
and the Platform for Distributed Task Tarenal to distribute the
training of multilayer perceptron. Finally, it was developed a training
algorithm for local and distributed the MLP with the possibility
of varying transfer functions. It was shown that depending on the
training sample, the change of transfer functions can yield results
much more efficient than those obtained with the classic sigmoid
function with increased g-media between 4.5 and 17 %. Moreover,
it was found that with distributed training can be achieved eventually,
better results than those achieved in the local environment.
Key words: Transfer functions, Multi-layer
perceptron, Neural networks.
|