Training Optimization for Artificial Neural Networks
Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases...
Saved in:
Main Authors: | , , , |
---|---|
Format: | Article |
Language: | English |
Published: |
Universidad Autonoma del Estado de Mexico
2010-01-01
|
Series: | Ciencia Ergo Sum |
Subjects: | |
Online Access: | http://www.redalyc.org/articulo.oa?id=10415212010 |
Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
_version_ | 1832086293560950784 |
---|---|
author | Primitivo Toribio Luna Roberto Alejo Eleuterio Rosa María Valdovinos Rosas Benjamín Gonzalo Rodríguez Méndez |
author_facet | Primitivo Toribio Luna Roberto Alejo Eleuterio Rosa María Valdovinos Rosas Benjamín Gonzalo Rodríguez Méndez |
author_sort | Primitivo Toribio Luna |
collection | DOAJ |
description | Debido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases de datos son utilizados, es su principal desventaja. Con la intención de disminuir el costo computacional e incrementar la convergencia de la nn, el presente trabajo analiza la conveniencia de realizar pre-procesamiento a los conjuntos de datos. De forma específica, se evalúan los métodos de grafo de vecindad relativa (rng), grafo de Gabriel (gg) y el método basado en los vecinos envolventes k-ncn. Los resultados experimentales muestran la factibilidad y las múltiples ventajas de esas metodologías para solventar los problemas descritos previamente. |
format | Article |
id | doaj-art-4943b7b0f57a44559a0bba34f29895d0 |
institution | Kabale University |
issn | 1405-0269 2395-8782 |
language | English |
publishDate | 2010-01-01 |
publisher | Universidad Autonoma del Estado de Mexico |
record_format | Article |
series | Ciencia Ergo Sum |
spelling | doaj-art-4943b7b0f57a44559a0bba34f29895d02025-02-06T16:00:30ZengUniversidad Autonoma del Estado de MexicoCiencia Ergo Sum1405-02692395-87822010-01-01173313317Training Optimization for Artificial Neural NetworksPrimitivo Toribio LunaRoberto Alejo EleuterioRosa María Valdovinos RosasBenjamín Gonzalo Rodríguez MéndezDebido a la habilidad para modelar problemas complejos, actualmente las Redes Neuronales Artificiales (nn) son muy populares en Reconocimiento de Patrones, Minería de Datos y Aprendizaje Automático. No obstante, el elevado costo computacional asociado a la fase en entrenamiento, cuando grandes bases de datos son utilizados, es su principal desventaja. Con la intención de disminuir el costo computacional e incrementar la convergencia de la nn, el presente trabajo analiza la conveniencia de realizar pre-procesamiento a los conjuntos de datos. De forma específica, se evalúan los métodos de grafo de vecindad relativa (rng), grafo de Gabriel (gg) y el método basado en los vecinos envolventes k-ncn. Los resultados experimentales muestran la factibilidad y las múltiples ventajas de esas metodologías para solventar los problemas descritos previamente.http://www.redalyc.org/articulo.oa?id=10415212010redes neuronales artificialesperceptrón multicaparedes de función de base radialmáquinas de vectores soportepreprocesado de datos |
spellingShingle | Primitivo Toribio Luna Roberto Alejo Eleuterio Rosa María Valdovinos Rosas Benjamín Gonzalo Rodríguez Méndez Training Optimization for Artificial Neural Networks Ciencia Ergo Sum redes neuronales artificiales perceptrón multicapa redes de función de base radial máquinas de vectores soporte preprocesado de datos |
title | Training Optimization for Artificial Neural Networks |
title_full | Training Optimization for Artificial Neural Networks |
title_fullStr | Training Optimization for Artificial Neural Networks |
title_full_unstemmed | Training Optimization for Artificial Neural Networks |
title_short | Training Optimization for Artificial Neural Networks |
title_sort | training optimization for artificial neural networks |
topic | redes neuronales artificiales perceptrón multicapa redes de función de base radial máquinas de vectores soporte preprocesado de datos |
url | http://www.redalyc.org/articulo.oa?id=10415212010 |
work_keys_str_mv | AT primitivotoribioluna trainingoptimizationforartificialneuralnetworks AT robertoalejoeleuterio trainingoptimizationforartificialneuralnetworks AT rosamariavaldovinosrosas trainingoptimizationforartificialneuralnetworks AT benjamingonzalorodriguezmendez trainingoptimizationforartificialneuralnetworks |