RT Generic T1 Aprendizaje profundo: una introducción para matemáticos A1 Fernández Martínez, Luis AB [ES] En los últimos años el aprendizaje profundo ha supuesto un cambio notable en elreconocimiento de patrones en una (sonido), dos (imágenes) y tres (vídeo) dimensiones.Además de las aplicaciones derivadas del uso de redes neuronales artificiales, resulta deinterés académico y práctico conocer las ideas y formalismo matemático que se escondendetrás de ellas. Cálculo Numérico, Teoría de la Aproximación, Optimización y ÁlgebraLineal son necesarios para desarrollar adecuadamente esta teoría. En este trabajo vamosa presentar dos de las redes actuales, el Perceptrón Multicapa, que llamaremos de formagenérica Red Neuronal Artificial y la Red Neuronal Convolucional. En ambos casos sepretende mostrar qué son formalmente y cómo se entrenan. Para ello haremos uso deejemplos que faciliten la comprensión del desarrollo teórico. Presentaremos los métodos delgradiente estocástico y mini-batch y el algoritmo de la propagación inversa. Para ilustrarlas ideas expuestas elaboraremos varios programas con los que generar ambos tipos deredes para clasificar imágenes de menor a mayor complejidad. Con ello concluiremos que sibien las redes neuronales son una buena herramienta para la tarea de clasificación, todavíaquedan múltiples cuestiones sin resolver en lo que se refiere a su estructura, aprendizaje yaplicabilidad en otros campos. AB [EN] During the last years, deep learning has brought about a notable change in patternrecognition in one (sound), two (images) and three (video) dimensions. In addition tothe applications derived from the use of artificial neural networks, it is of academic andpractical interest to know the ideas and mathematical formalism that lie behind them.Numerical Calculus, Approximation Theory, Optimization and Linear Algebra are necessaryto adequately develop this theory. In this work we are going to present two of thecurrent networks, the Multilayer Perceptron, which we will generically call Artificial Neural Network and the Convolutional Neural Network. In both cases it is intended to showwhat they are formally and how they are trained. With this purpose in mind, we will useexamples that help the understanding of the theoretical development. We will present thestochastic and mini-batch gradient methods and the backpropagation algorithm. To illustratethe ideas presented, we will develop several programs with which we will generateboth types of networks to classify images from less to greater complexity. We will concludethat although neural networks are a good tool for the classification task, there are stillmany unresolved questions regarding their structure, learning and applicability in otherfields. YR 2021 FD 2021-07 LK http://hdl.handle.net/10347/28812 UL http://hdl.handle.net/10347/28812 LA spa NO Traballo Fin de Grao en Matemáticas. Curso 2020-2021 DS Minerva RD 22 abr 2026