Máster en Computación de Altas Prestacións

Permanent URI for this collectionhttps://hdl.handle.net/10347/11573

Browse

Recent Submissions

Now showing 1 - 9 of 9
  • Item type: Item ,
    Convoluciones 3D en paralelo
    (2024-05-26) Fernández López, Alberto; Universidade de Santiago de Compostela. Departamento de Electrónica e Computación; Cabaleiro Domínguez, José Carlos; Esmorís Pena, Alberto Manuel
    En este Trabajo de Fin de Máster se construye y optimiza un algoritmo de convolución 3D que se encarga de procesar nubes de puntos LiDAR aéreo que permita identificar objetos similares según el patrón de entrada dado. Concretamente, se utiliza un conjunto de datos correspondiente a zonas residenciales y, para evaluar el funcionamiento del algoritmo, se marca como objetivo la identificación de edificaciones. Tras la construcción del algoritmo de convolución y el ensayo con diferentes estructuras de representación de la nube de puntos, se aplican optimizaciones de paralelización en memoria compartida tratando de mantener un consumo de memoria reducido. Tras aplicar las técnicas consideradas, se consigue reducir el tiempo de ejecución de la convolución en un 98%, utilizando para ello 64 núcleos en 2 procesadores con OpenMP.
  • Item type: Item ,
    Implementación paralela del algoritmo HSI-MSER para el registro de imágenes hiperespectrales
    (2023-06) Castillo de la Rosa, Daniel del; Universidade de Santiago de Compostela. Departamento de Electrónica e Computación; Ordóñez Iglesias, Álvaro; Blanco Heras, Dora; Argüello Pedreira, Francisco
    El registro de imágenes es una tarea destinada a alinear imágenes como un paso anterior a otros tipos de procesado como son la detección de cambios o el seguimiento de objetos. En el caso de imágenes de teledetección hiperespectrales tenemos una gran cantidad de información tanto espacial como espectral para cada imagen. Esto ha propiciado la aparición de métodos de registro específicos para este tipo de imágenes que no solo usan las bandas RGB, como sucede en los algoritmos más clásicos, sino que además aprovechan la información espectral contenida en todas las bandas, que pueden llegar a ser del orden de un centenar. No obstante, para algunos de estos algoritmos, especialmente los basados en detecci ón de características como líneas, puntos o regiones, el tiempo de ejecución sigue siendo una barrera para su uso en aplicaciones que requieren un procesado especialmente rápido. Uno de estos algoritmos es Hyperspectral Image-Maximally Stable Extremal Regions (HSI-MSER), que trata de encontrar regiones comunes en las imágenes explotando la información disponible en las bandas espectrales para conseguir un mejor registro. En este artículo se presenta una versión paralela del algoritmo HSI-MSER sobre una arquitectura heterogénea de bajo coste. Ha sido diseñada para explotar eficientemente las arquitecturas de la CPU y GPU usando OpenMP y CUDA, respectivamente. Como resultado, para imágenes hiperespectrales de teledetección disponibles en la bibliografía estado del arte se consiguen aceleraciones de hasta 7× respecto a la versión secuencial de HSI-MSER.
  • Item type: Item ,
    Super-resolution in astronomical images: enhancing object detection
    (2022) Pintos Castro, Irene; Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría; Fernández Delgado, Manuel; del Pino, Andrés
    Using paired images of JAST/T80 Telescope in OAJ and of Hubble Space Telescope we aim at increasing the resolution of JAST/T80 images with the objective of enhancing object detection. Higher resolution versions of JAST/T80 images in crowded areas of the sky will significantly increase the number of stars and/or galaxies detected, enabling a better measurement of their photometry. We pre-processed both low-resolution and high-resolution images to build a dataset of paired crops, which is used to train the Real-ESRGAN neural network. We are able to get super-resolved images with a 4× scale and a FSIM=0.8903, showing an improvement in the source detection in crowded areas. However, visual inspection of bright stars and nearby galaxies reveals that there is room for learning a better model that can reproduce the PSF and the details of the extended objects.
  • Item type: Item ,
    Viability analysis of infrastructure managers for the automated deployment of virtual HPC clusters on Cloud environments
    (2022-07-26) Rosales Rodríguez, Mariadalit; Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría; Pardo Martínez, Xoán Carlos
    Due to the increase of hybrid environments and the rise of Cloud resources in the IT sector, we have also seen an increase in the complexity of the administration we face today. Today, more than ever, automation tools are needed to facilitate not only the creation but also the management of these new environments. The lack of standardization, especially for HPC systems, forces us to present a proposal to evaluate the different tools that claim to facilitate the automation of this type of systems in Cloud environments and a subsequent analysis of them. In this Master's Thesis we will discover the importance of Cloud environments in HPC systems, the challenges that this presents and an analysis methodology that will serve as a reference for administrators and IT professionals who need to manage such complex and dynamic environments as HPC clusters in Cloud environments.
  • Item type: Item ,
    Clasificación de imágenes de teledetección con técnicas de aprendizaje profundo en situaciones de escasez de datos
    (2022-06) Goldar Dieste, Álvaro; Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría; Argüello Pedreira, Francisco; Blanco Heras, Dora
    Dentro del problema de clasificar imágenes multi e hiperespectrales, las técnicas basadas en aprendizaje profundo son las opciones más empleadas. El motivo es que son capaces de alcanzar mayores precisiones de clasificación que los métodos de aprendizaje automático tradicionales empleados anteriormente. Concretamente, las Redes Neuronales Convolucionales (CNN) han resultado ser la arquitectura más popular en la actualidad para resolver estos problemas de clasificación multiclase. No obstante, aunque las arquitecturas neuronales son herramientas muy efectivas, también requieren una gran cantidad de datos de aprendizaje para extraer todo su potencial. Además, los conjuntos de datos que se emplean en teledetección tienden a presentar dos grandes problemas: la escasez de datos anotados y el desbalance entre clases, de modo que ciertas clases de elementos tienen muchas más muestras que otras. Esta problemática limita la capacidad de los métodos de aprendizaje automático, y lo hace especialmente en las arquitecturas neuronales. Considerando lo común que es el proceso de clasificación en teledetección, resulta de gran interés encontrar vías para minimizar el impacto de las limitaciones de los conjuntos de datos y evitar perjudicar así el desempeño de los clasificadores basados en aprendizaje profundo que se emplean en la actualidad en este dominio. En este trabajo se propone un esquema de clasificación de imágenes de teledetección fundamentado en aprendizaje profundo, cuyo diseño ha sido guiado por el objetivo de minimizar el impacto de la escasez de muestras y desbalance de clases en los conjuntos de datos, para maximizar así la calidad de las clasificaciones realizadas. Para ello, se adopta como clasificador del esquema una arquitectura convolucional profunda –CNN residual–, al ser la base de los mejores clasificadores de la actualidad. El entrenamiento de esta red se apoya con técnicas de aumentado de datos. Por una parte, se aplican técnicas de aumentado tradicionales a las muestras de entrenamiento reales. Por otra parte, se integra la CNN residual en un esquema Generative Adversarial Networks (GAN), dentro del cual existe una red neuronal auxiliar que genere nuevas muestras sintéticas realistas que suministrar al clasificador durante el entrenamiento. Para mejorar la calidad de la información de entrenamiento, se aplica una etapa de segmentación en superpíxeles a la imagen como preprocesamiento, extrayéndose a posteriori una muestra real por cada segmento. Para maximizar la calidad de las clasificaciones generadas, se evalúa el comportamiento de las arquitecturas neuronales bajo una multitud de configuraciones diferentes, para identificar y preservar los criterios de diseño que les permiten alcanzar un mejor desempeño. También se aplican diversas optimizaciones computacionales para reducir todo lo posible el tiempo de entrenamiento del esquema desarrollado. Desde el punto de vista investigador, el interés de este trabajo radica en la combinación de diferentes técnicas que se habitúan emplear por separado en la literatura, ahora bajo un único esquema de clasificación. Además, se adoptará un diseño de GAN todavía no evaluado en el campo de la teledetección, que presenta mejoras en su estructura para alcanzar mejores desempeños en problemas que trabajen con conjuntos de datos limitados.
  • Item type: Item ,
    Detección de bordes por umbralización basada en entropía sobre imágenes multidimensionales en GPU
    (2016-06) Quintana Díaz, Mahy; Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría; Blanco Heras, Dora; Argüello Pedreira, Francisco
    En este trabajo, se presenta la extensión de un algoritmo de detección de bordes basado en entropía para imágenes en escala de grises a imágenes hiperespectrales, así como su proyección eficiente sobre GPUs basadas en CUDA. El algoritmo detector de bordes del que se parte no utiliza las derivadas primera y segunda de la imagen para detectar bordes, a diferencia de la mayoría de los algoritmos, que emplean operadores de convolución (aproximaciones a las derivadas para valores discretos) para detectar las zonas de variación de la luminancia que indiquen la presencia de bordes, este algoritmo se basa en la umbralización de la imagen, haciendo uso de la entropía, para luego proceder a la detección de bordes mediante el cálculo de probabilidades. Para evaluar el algoritmo detector de bordes basado en entropía, sobre imágenes en escala de grises, se hace una comparativa en calidad de detección de bordes con algoritmos como Canny y LoG que son comunes en la literatura. Además para comprobar la robustez del mismo se realizan varias pruebas frente a diferentes condiciones de ruido y contraste en las imágenes de entrada. En cuanto a la extensión del algoritmo a imágenes hiperespectrales, se han desarrollado una serie de técnicas que permiten a este algoritmo, inicialmente pensado para imágenes bidimensionales en escala de grises, trabajar con imágenes de una mayor dimensionalidad. Los algoritmos obtenidos han sido evaluados en cuanto a la eficiencia en la detección de bordes comparándolos con otros algoritmos en la bibliografía. Los resultados mostrarán cómo el algoritmo basado en entropía es especialmente eficiente sobre imágenes hiperespectrales con un número elevado de bandas. En lo que respecta a la implementación en GPU, se exponen diferentes estrategias de paralelización empleadas que permiten al algoritmo sacar mayor provecho de la arquitectura disponible. Con el fin de evaluar el algoritmo y su implementación, este, se ha aplicado sobre imágenes hiperespectrales reales de sensado remoto y se han analizado los resultados. Concretamente, se analiza el tiempo de ejecución en CPU y se compara con el tiempo obtenido en GPU de modo que en GPU se consigue hasta 54x de mejora respecto a la versión secuencial en CPU para una imagen de tamaño 715x1096 y 102 bandas.
  • Item type: Item ,
    Climateprediction.net: A cloudy approach
    (2014) Pérez Montes, Diego; Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría; Fernández Pena, Anselmo Tomás; Añel Cabanelas, Juán Antonio
    Desde los inicios de la Computación de Altas Prestaciones (High Performance Computing), la simulación de modelos climáticos ha sido una de sus principales aplicaciones. Por este motivo, tradicionalmente, los modelos climáticos han sido ejecutados sobre supercomputadores por sus requerimientos y costes. Reducir este coste fue el motivo principal del desarrollo del proyecto climateprediction.net (también llamado CPDN) [1], una iniciativa de computación distribuida cuyo propósito es ejecutar diferentes (miles) de simulaciones de modelos climáticos para investigar las incógnitas sobre determinados parámetros. Este estudio es fundamental para poder comprender cómo pequeños cambios o variaciones en los valores pueden afectar a los modelos, por ejemplo, en investigaciones sobre cambio climático. El proyecto es actualmente propiedad de la Universidad de Oxford, que usa voluntarios a través del framework BOINC (Berkeley Open Infrastructure for Network Computing) [2] (http://www.climateprediction. net).
  • Item type: Item ,
    Desarrollo sobre GPU de técnicas para la detección de objetivos en imágenes hiperespectrales mediante la utilización de redes neuronales
    (2011) López Gómez, Juan; Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría; Blanco Heras, Dora; Argüello Pedreira, Francisco
    En este trabajo se presentan dos algoritmos de detección de objetivos en imágenes hiperespectrales específicamente desarrollados para su implementación sobre GPU, ambos basados en la aplicación de ANNs (Artificial Neural Networks). El primer algoritmo, denominado algoritmo de detección de objetivos a nivel de píxel, basa su búsqueda en la exploración píxel a píxel de la imagen hiperespectral, detectando si en cada uno de ellos se encuentra el objetivo buscado, o una parte del mismo. El segundo algoritmo, denominado algoritmo de detección de objetivos multi-resolución, basa su búsqueda en la exploración jerárquica de áreas de tamaño decreciente de imagen (volúmenes hiperespectrales), detectando y acotando el objetivo independientemente de la escala a la que este se encuentre. En la implementación sobre GPU de las ANNs utilizadas en ambos algoritmos se analizan dos aproximaciones diferentes de paralelización: paralelismo a nivel neuronal, y paralelismo a nivel de enlace sináptico. Además, se tienen en cuenta un gran número de estrategias de optimización específicas para GPU, con el fín de explotar adecuadamente la enorme capacidad de cómputo de las tarjetas, y de ocultar la latencia en los accesos a memoria. En la fase de resultados los algoritmos son testeados mediante la búsqueda de objetivos sobre dos tipos diferentes de imágenes hiperespectrales, una aplicada al reconocimiento de materiales, y otra aplicada a funciones de búsqueda y rescate. Los tiempos de ejecución obtenidos muestran la efectividad de los algoritmos de detección desarrollados, así como la conveniencia de su implementación sobre GPU.
  • Item type: Item ,
    Despregue de servizos HPC en contornos cloud multipropósito
    (2012) Rodríguez Penas, David; Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría; Costas Lago, Natalia; López Cabido, Ignacio; Fernández Pena, Anselmo Tomás
    En el presente proyecto de fin de máster se ha analizado la problemática del despliegue de aplicaciones HPC (High Performance Computing) en una infraestructura cloud multipropósito (no exclusivamente dedicadas a aplicaciones de esta índole). Esta iniciativa viene motivada por el elevado coste en el mantenimiento y adquisición de una infraestructura HPC dedicada a computación de altas prestaciones, así como a la posibilidad de aprovechamiento de recursos disponibles en entornos cloud de propósito general cuya existencia es cada vez más habitual en las empresas e instituciones. La implantación de un servicio HPC sobre una plataforma cloud genérica y multipropósito, ofrece reducción en costes de infraestructura. Pero no es una tarea sencilla: la competencia de los diferentes tráficos por los recursos de la arquitectura que componen el cloud degradará la calidad de servicio de las diferentes tareas HPC