Show simple item record

dc.contributor.authorGuzmán Hernández, Eduardo
dc.creatorGUZMAN HERNANDEZ, EDUARDO; 589635
dc.date.accessioned2019-06-17T18:07:33Z
dc.date.available2019-06-17T18:07:33Z
dc.date.issued2016
dc.identifier.urihttp://hdl.handle.net/10521/3447
dc.descriptionTesis (Maestría en Ciencias, especialista en Cómputo Aplicado).- Colegio de Postgraduados, 2016.es_MX
dc.description.abstractUna Red Neuronal Artificial (RNA) es un paradigma de aprendizaje y procesamiento automático inspirado en el comportamiento biológico de las neuronas y en la estructura del cerebro. El cerebro es un sistema altamente complejo; su unidad básica de procesamien¬to son las neuronas, las cuales se encuentra distribuidas de forma masiva compartiendo múltiples conexiones entre ellas. Las RNAs intentan emular ciertas características propias de los humanos, pueden ser vistas como un sistema inteligente que lleva a cabo tareas de manera distinta a como lo hacen las computadoras actuales. Las RNAs pueden emplearse para realizar actividades complejas, por ejemplo: reconocimiento y clasificación de patro¬nes, predicción del clima, predicción de valores gen éticos, etc. Los algoritmos utilizados para entrenar las redes, son en general complejos, por lo cual surge la necesidad de contar con alternativas que permitan reducir de manera significativa el tiempo necesario para entrenar una red. En este trabajo se presenta una propuesta de algoritmos basados en la estrategia “divide y conquista” que permiten entrenar las RNAs de una sola capa oculta. Parte de los sub problemas del algoritmo general de entrenamiento se resuelven utilizan¬do técnicas de computo paralelo, lo que permite mejorar el desempeño de la aplicación resultante. El algoritmo propuesto fue implementado utilizando el lenguaje de programación C++, así como las librerías Open MPI y ScaLAPACK. Se presentan algunos ejemplos de aplicación y se evalúa el desempeño del programa resultante. Los resultados obtenidos muestran que es posible reducir de manera significativa los tiempos necesarios para ejecutar el programa que implementa el algoritmo para el ajuste de la RNA. _______________ ARTIFICIAL NEURONAL NETWORKS; A BAYESIAN APPROACH USING PARALELL COMPUTING. ABSTRACT: An Artificial Neural Network (ANN) is a learning paradigm and automatic processing inpired in the biological behaviour of neurons and the brain structure. The brain is a complex system; its basic processing unit are the neurons, which are distributed massi¬vely in the brain sharing multiple connections between them. The ANNs try to emulate some characteristics of humans, and can be thought as intelligent systems that perform some tasks in a different way that actual computer does. The ANNs can be used to perform complex activities, for example: pattern recognition and classification, weather prediction, genetic values prediction, etc. The algorithms used to train the ANN, are in general complex, so therefore there is a need to have alternatives which lead to a significant reduction of times employed to train an ANN. In this work we present an algorithm based in the strategy “divide and conquer” which allows to train an ANN with a single hidden layer. Part of the sub problems of the general algorithm used for training are solved by using parallel computing techniques, which allows to improve the perfor¬mance of the resulting application. The proposed algorithm was implemented using the programming language C++, and the libraries Open MPI and ScaLAPACK. We present some application examples and we asses the application performance. The results shown that it is possible to reduce significantly the time necessary to execute the program that implements the algorithm to train the ANN.es_MX
dc.description.sponsorshipConsejo Nacional de Ciencia y Tecnología (CONACyT).es_MX
dc.formatpdfes_MX
dc.language.isospaes_MX
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0es_MX
dc.subjectOpen MPIes_MX
dc.subjectC++es_MX
dc.subjectScaLAPACKes_MX
dc.subjectComputo paraleloes_MX
dc.subjectParallel computinges_MX
dc.subjectCómputo Aplicadoes_MX
dc.subjectMaestríaes_MX
dc.subject.classificationCIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA::MATEMÁTICAS::CIENCIA DE LOS ORDENADORES::LENGUAJES ALGORÍTMICOSes_MX
dc.titleRedes neuronales regularizadas; un enfoque Bayesiano con cómputo paralelo.es_MX
dc.typeTesises_MX
Tesis.contributor.advisorPérez Rodríguez, Paulino
Tesis.contributor.advisorVázquez Peña, Mario Alberto
Tesis.contributor.advisorValle Paniagua, David Hebert del
Tesis.contributor.advisorPEREZ RODRIGUEZ, PAULINO; 161952
Tesis.date.submitted2016
Tesis.date.accesioned2016
Tesis.date.available2016
Tesis.typeTesises_MX
Tesis.format.mimetypepdfes_MX
Tesis.format.extent2,959 KBes_MX
Tesis.subject.nalRedes neuronaleses_MX
Tesis.subject.nalNeural networkses_MX
Tesis.subject.nalAlgoritmoses_MX
Tesis.subject.nalAlgorithmses_MX
Tesis.rightsAcceso abiertoes_MX
Articulos.subject.classificationRedes neurales (computadores)es_MX
dc.type.conacytmasterThesises_MX
dc.identificator1||12||1203||120302es_MX
dc.audiencegeneralPublices_MX


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record

http://creativecommons.org/licenses/by-nc-nd/4.0
Except where otherwise noted, this item's license is described as http://creativecommons.org/licenses/by-nc-nd/4.0