Training Optimization for Artificial Neural Networks

Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases...

Full description

Saved in:
Bibliographic Details
Main Authors: Primitivo Toribio Luna, Roberto Alejo Eleuterio, Rosa María Valdovinos Rosas, Benjamín Gonzalo Rodríguez Méndez
Format: Article
Language:English
Published: Universidad Autonoma del Estado de Mexico 2010-01-01
Series:Ciencia Ergo Sum
Subjects:
Online Access:http://www.redalyc.org/articulo.oa?id=10415212010
Tags: Add Tag
No Tags, Be the first to tag this record!
_version_ 1832086293560950784
author Primitivo Toribio Luna
Roberto Alejo Eleuterio
Rosa María Valdovinos Rosas
Benjamín Gonzalo Rodríguez Méndez
author_facet Primitivo Toribio Luna
Roberto Alejo Eleuterio
Rosa María Valdovinos Rosas
Benjamín Gonzalo Rodríguez Méndez
author_sort Primitivo Toribio Luna
collection DOAJ
description Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases de datos son utilizados, es su principal desventaja. Con la intención de disminuir el costo computacional e incrementar la convergencia de la nn, el presente trabajo analiza la conveniencia de realizar pre-procesamiento a los conjuntos de datos. De forma específica, se evalúan los métodos de grafo de vecindad relativa (rng), grafo de Gabriel (gg) y el método basado en los vecinos envolventes k-ncn. Los resultados experimentales muestran la factibilidad y las múltiples ventajas de esas metodologías para solventar los problemas descritos previamente.
format Article
id doaj-art-4943b7b0f57a44559a0bba34f29895d0
institution Kabale University
issn 1405-0269
2395-8782
language English
publishDate 2010-01-01
publisher Universidad Autonoma del Estado de Mexico
record_format Article
series Ciencia Ergo Sum
spelling doaj-art-4943b7b0f57a44559a0bba34f29895d02025-02-06T16:00:30ZengUniversidad Autonoma del Estado de MexicoCiencia Ergo Sum1405-02692395-87822010-01-01173313317Training Optimization for Artificial Neural NetworksPrimitivo Toribio LunaRoberto Alejo EleuterioRosa María Valdovinos RosasBenjamín Gonzalo Rodríguez MéndezDebido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases de datos son utilizados, es su principal desventaja. Con la intención de disminuir el costo computacional e incrementar la convergencia de la nn, el presente trabajo analiza la conveniencia de realizar pre-procesamiento a los conjuntos de datos. De forma específica, se evalúan los métodos de grafo de vecindad relativa (rng), grafo de Gabriel (gg) y el método basado en los vecinos envolventes k-ncn. Los resultados experimentales muestran la factibilidad y las múltiples ventajas de esas metodologías para solventar los problemas descritos previamente.http://www.redalyc.org/articulo.oa?id=10415212010redes neuronales artificialesperceptrón multicaparedes de función de base radialmáquinas de vectores soportepreprocesado de datos
spellingShingle Primitivo Toribio Luna
Roberto Alejo Eleuterio
Rosa María Valdovinos Rosas
Benjamín Gonzalo Rodríguez Méndez
Training Optimization for Artificial Neural Networks
Ciencia Ergo Sum
redes neuronales artificiales
perceptrón multicapa
redes de función de base radial
máquinas de vectores soporte
preprocesado de datos
title Training Optimization for Artificial Neural Networks
title_full Training Optimization for Artificial Neural Networks
title_fullStr Training Optimization for Artificial Neural Networks
title_full_unstemmed Training Optimization for Artificial Neural Networks
title_short Training Optimization for Artificial Neural Networks
title_sort training optimization for artificial neural networks
topic redes neuronales artificiales
perceptrón multicapa
redes de función de base radial
máquinas de vectores soporte
preprocesado de datos
url http://www.redalyc.org/articulo.oa?id=10415212010
work_keys_str_mv AT primitivotoribioluna trainingoptimizationforartificialneuralnetworks
AT robertoalejoeleuterio trainingoptimizationforartificialneuralnetworks
AT rosamariavaldovinosrosas trainingoptimizationforartificialneuralnetworks
AT benjamingonzalorodriguezmendez trainingoptimizationforartificialneuralnetworks