Título:
Funciones de transferencia en el perceptrón multicapa: efecto de su combinación en entrenamiento local y distribuido


Title: Transfer functions in the multilayer perceptron: effects of its combination on local and distributed training

 

 

Autores:

MsC. Yuleidys Mejías César1, Dr. Ramón Carrasco Velar2, Ing. Isbel Ochoa Izquierdo3, Ing. Edel Moreno Lemus3

1Máster en Bioinformática. Profesor Asistente. Universidad de las Ciencias Informáticas. Dirección: Carretera a San Antonio de los Baños, Km 2½. Boyeros, Ciudad de La Habana, Cuba.
E-mail: ymejias@uci.cu

2Doctor en Ciencias Químicas. Universidad de las Ciencias Informáticas. Profesor Auxiliar. Investigador Titular.
E-mail: rcarrasco@uci.cu

3Ingeniero. Profesor Instructor. Universidad de las Ciencias Informáticas.

 

 


Resumen

El perceptrón multicapa (PMC) figura dentro de los tipos de redes neuronales artificiales (RNA) con resultados útiles en los estudios de relación estructura-actividad. Dado que los volúmenes de datos en proyectos de Bioinformática son eventualmente grandes, se propuso evaluar algoritmos para acortar el tiempo de entrenamiento de la red sin afectar su eficiencia. Se desarrolló un algoritmo para el entrenamiento local y distribuido del PMC con la posibilidad de variar las funciones de transferencias para lo cual se utilizaron el Weka y la Plataforma de Tareas Distribuidas Tarenal para distribuir el entrenamiento del perceptrón multicapa. Se demostró que en dependencia de la muestra de entrenamiento, la variación de las funciones de transferencia pueden reportar resultados mucho más eficientes que los obtenidos con la clásica función Sigmoidal, con incremento de la g-media entre el 4.5 y el 17 %. Se encontró además que en los entrenamientos distribuidos es posible alcanzar eventualmente mejores resultados que los logrados en ambiente local.

Palabras clave: Funciones de transferencia, Perceptrón multicapa, Redes neuronales.

 

Abstract

The multilayer perceptron (PMC) ranks among the types of artificial neural networks (ANN), which has provided better results in studies of structure-activity relationship. As the data volumes in Bioinformatics’ projects are eventually big, it was proposed to evaluate algorithms to shorten the training time of the network without affecting its efficiency. There were evaluated different tools that work with ANN and were selected Weka algorithm for extracting the network and the Platform for Distributed Task Tarenal to distribute the training of multilayer perceptron. Finally, it was developed a training algorithm for local and distributed the MLP with the possibility of varying transfer functions. It was shown that depending on the training sample, the change of transfer functions can yield results much more efficient than those obtained with the classic sigmoid function with increased g-media between 4.5 and 17 %. Moreover, it was found that with distributed training can be achieved eventually, better results than those achieved in the local environment.

Key words: Transfer functions, Multi-layer perceptron, Neural networks.

 


Arriba

 

WWW:CECAM.SLD.CU