Training Optimization for Artificial Neural Networks

Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases...

Full description

Saved in:
Bibliographic Details
Main Authors: Primitivo Toribio Luna, Roberto Alejo Eleuterio, Rosa María Valdovinos Rosas, Benjamín Gonzalo Rodríguez Méndez
Format: Article
Language:English
Published: Universidad Autonoma del Estado de Mexico 2010-01-01
Series:Ciencia Ergo Sum
Subjects:
Online Access:http://www.redalyc.org/articulo.oa?id=10415212010
Tags: Add Tag
No Tags, Be the first to tag this record!
Description
Summary:Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases de datos son utilizados, es su principal desventaja. Con la intención de disminuir el costo computacional e incrementar la convergencia de la nn, el presente trabajo analiza la conveniencia de realizar pre-procesamiento a los conjuntos de datos. De forma específica, se evalúan los métodos de grafo de vecindad relativa (rng), grafo de Gabriel (gg) y el método basado en los vecinos envolventes k-ncn. Los resultados experimentales muestran la factibilidad y las múltiples ventajas de esas metodologías para solventar los problemas descritos previamente.
ISSN:1405-0269
2395-8782