dc.contributor.author | Guzmán Hernández, Eduardo | |
dc.creator | GUZMAN HERNANDEZ, EDUARDO; 589635 | |
dc.date.accessioned | 2019-06-17T18:07:33Z | |
dc.date.available | 2019-06-17T18:07:33Z | |
dc.date.issued | 2016 | |
dc.identifier.uri | http://hdl.handle.net/10521/3447 | |
dc.description | Tesis (Maestría en Ciencias, especialista en Cómputo Aplicado).- Colegio de Postgraduados, 2016. | es_MX |
dc.description.abstract | Una Red Neuronal Artificial (RNA) es un paradigma de aprendizaje y procesamiento automático inspirado en el comportamiento biológico de las neuronas y en la estructura del cerebro. El cerebro es un sistema altamente complejo; su unidad básica de procesamien¬to son las neuronas, las cuales se encuentra distribuidas de forma masiva compartiendo múltiples conexiones entre ellas. Las RNAs intentan emular ciertas características propias de los humanos, pueden ser vistas como un sistema inteligente que lleva a cabo tareas de manera distinta a como lo hacen las computadoras actuales. Las RNAs pueden emplearse para realizar actividades complejas, por ejemplo: reconocimiento y clasificación de patro¬nes, predicción del clima, predicción de valores gen éticos, etc. Los algoritmos utilizados para entrenar las redes, son en general complejos, por lo cual surge la necesidad de contar con alternativas que permitan reducir de manera significativa el tiempo necesario para entrenar una red. En este trabajo se presenta una propuesta de algoritmos basados en la estrategia “divide y conquista” que permiten entrenar las RNAs de una sola capa oculta. Parte de los sub problemas del algoritmo general de entrenamiento se resuelven utilizan¬do técnicas de computo paralelo, lo que permite mejorar el desempeño de la aplicación resultante. El algoritmo propuesto fue implementado utilizando el lenguaje de programación C++, así como las librerías Open MPI y ScaLAPACK. Se presentan algunos ejemplos de aplicación y se evalúa el desempeño del programa resultante. Los resultados obtenidos muestran que es posible reducir de manera significativa los tiempos necesarios para ejecutar el programa que implementa el algoritmo para el ajuste de la RNA. _______________ ARTIFICIAL NEURONAL NETWORKS; A BAYESIAN APPROACH USING PARALELL COMPUTING. ABSTRACT: An Artificial Neural Network (ANN) is a learning paradigm and automatic processing inpired in the biological behaviour of neurons and the brain structure. The brain is a complex system; its basic processing unit are the neurons, which are distributed massi¬vely in the brain sharing multiple connections between them. The ANNs try to emulate some characteristics of humans, and can be thought as intelligent systems that perform some tasks in a different way that actual computer does. The ANNs can be used to perform complex activities, for example: pattern recognition and classification, weather prediction, genetic values prediction, etc. The algorithms used to train the ANN, are in general complex, so therefore there is a need to have alternatives which lead to a significant reduction of times employed to train an ANN. In this work we present an algorithm based in the strategy “divide and conquer” which allows to train an ANN with a single hidden layer. Part of the sub problems of the general algorithm used for training are solved by using parallel computing techniques, which allows to improve the perfor¬mance of the resulting application. The proposed algorithm was implemented using the programming language C++, and the libraries Open MPI and ScaLAPACK. We present some application examples and we asses the application performance. The results shown that it is possible to reduce significantly the time necessary to execute the program that implements the algorithm to train the ANN. | es_MX |
dc.description.sponsorship | Consejo Nacional de Ciencia y Tecnología (CONACyT). | es_MX |
dc.format | pdf | es_MX |
dc.language.iso | spa | es_MX |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0 | es_MX |
dc.subject | Open MPI | es_MX |
dc.subject | C++ | es_MX |
dc.subject | ScaLAPACK | es_MX |
dc.subject | Computo paralelo | es_MX |
dc.subject | Parallel computing | es_MX |
dc.subject | Cómputo Aplicado | es_MX |
dc.subject | Maestría | es_MX |
dc.subject.classification | CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA::MATEMÁTICAS::CIENCIA DE LOS ORDENADORES::LENGUAJES ALGORÍTMICOS | es_MX |
dc.title | Redes neuronales regularizadas; un enfoque Bayesiano con cómputo paralelo. | es_MX |
dc.type | Tesis | es_MX |
Tesis.contributor.advisor | Pérez Rodríguez, Paulino | |
Tesis.contributor.advisor | Vázquez Peña, Mario Alberto | |
Tesis.contributor.advisor | Valle Paniagua, David Hebert del | |
Tesis.contributor.advisor | PEREZ RODRIGUEZ, PAULINO; 161952 | |
Tesis.date.submitted | 2016 | |
Tesis.date.accesioned | 2016 | |
Tesis.date.available | 2016 | |
Tesis.type | Tesis | es_MX |
Tesis.format.mimetype | pdf | es_MX |
Tesis.format.extent | 2,959 KB | es_MX |
Tesis.subject.nal | Redes neuronales | es_MX |
Tesis.subject.nal | Neural networks | es_MX |
Tesis.subject.nal | Algoritmos | es_MX |
Tesis.subject.nal | Algorithms | es_MX |
Tesis.rights | Acceso abierto | es_MX |
Articulos.subject.classification | Redes neurales (computadores) | es_MX |
dc.type.conacyt | masterThesis | es_MX |
dc.identificator | 1||12||1203||120302 | es_MX |
dc.audience | generalPublic | es_MX |