Aprendizaje profundo: una introducción para matemáticos

dc.contributor.affiliationUniversidade de Santiago de Compostela. Facultade de Matemáticasgl
dc.contributor.authorFernández Martínez, Luis
dc.contributor.tutorRodríguez García, Jerónimo
dc.date.accessioned2022-06-13T17:31:19Z
dc.date.available2022-06-13T17:31:19Z
dc.date.issued2021-07
dc.descriptionTraballo Fin de Grao en Matemáticas. Curso 2020-2021gl
dc.description.abstract[ES] En los últimos años el aprendizaje profundo ha supuesto un cambio notable en el reconocimiento de patrones en una (sonido), dos (imágenes) y tres (vídeo) dimensiones. Además de las aplicaciones derivadas del uso de redes neuronales artificiales, resulta de interés académico y práctico conocer las ideas y formalismo matemático que se esconden detrás de ellas. Cálculo Numérico, Teoría de la Aproximación, Optimización y Álgebra Lineal son necesarios para desarrollar adecuadamente esta teoría. En este trabajo vamos a presentar dos de las redes actuales, el Perceptrón Multicapa, que llamaremos de forma genérica Red Neuronal Artificial y la Red Neuronal Convolucional. En ambos casos se pretende mostrar qué son formalmente y cómo se entrenan. Para ello haremos uso de ejemplos que faciliten la comprensión del desarrollo teórico. Presentaremos los métodos del gradiente estocástico y mini-batch y el algoritmo de la propagación inversa. Para ilustrar las ideas expuestas elaboraremos varios programas con los que generar ambos tipos de redes para clasificar imágenes de menor a mayor complejidad. Con ello concluiremos que si bien las redes neuronales son una buena herramienta para la tarea de clasificación, todavía quedan múltiples cuestiones sin resolver en lo que se refiere a su estructura, aprendizaje y aplicabilidad en otros campos.gl
dc.description.abstract[EN] During the last years, deep learning has brought about a notable change in pattern recognition in one (sound), two (images) and three (video) dimensions. In addition to the applications derived from the use of artificial neural networks, it is of academic and practical interest to know the ideas and mathematical formalism that lie behind them. Numerical Calculus, Approximation Theory, Optimization and Linear Algebra are necessary to adequately develop this theory. In this work we are going to present two of the current networks, the Multilayer Perceptron, which we will generically call Artificial Neural Network and the Convolutional Neural Network. In both cases it is intended to show what they are formally and how they are trained. With this purpose in mind, we will use examples that help the understanding of the theoretical development. We will present the stochastic and mini-batch gradient methods and the backpropagation algorithm. To illustrate the ideas presented, we will develop several programs with which we will generate both types of networks to classify images from less to greater complexity. We will conclude that although neural networks are a good tool for the classification task, there are still many unresolved questions regarding their structure, learning and applicability in other fields.gl
dc.identifier.urihttp://hdl.handle.net/10347/28812
dc.language.isospagl
dc.rightsAtribución-NoComercial-CompartirIgual 4.0 Internacional
dc.rights.accessRightsopen accessgl
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/
dc.titleAprendizaje profundo: una introducción para matemáticosgl
dc.typebachelor thesisgl
dspace.entity.typePublication
relation.isAdvisorOfPublication315ba170-9e8d-4ad4-add3-41bb1da70ed3
relation.isTutorOfPublication315ba170-9e8d-4ad4-add3-41bb1da70ed3
relation.isTutorOfPublication.latestForDiscovery315ba170-9e8d-4ad4-add3-41bb1da70ed3

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Fernández_Martínez_Luis.pdf
Size:
2.61 MB
Format:
Adobe Portable Document Format
Description: