En este apartado se irán publicando tanto propuestas concretas como ideas preliminares de TFT que los profesores vayan realizando, incluyendo las que se desarrollarán en colaboración con empresas. Para incluir una nueva propuesta, deberán enviar un correo a sri.eii@ulpgc.es con el título provisional y, opcionalmente, un breve párrafo descriptivo.
Los estudiantes interesados deben ponerse en contacto con el proponente con vistas a la posible asignación del trabajo, que necesariamente tendrán que enviar a la correspondiente comisión de TFG para su aprobación.
IMPORTANTE: se muestra la oferta disponible para el curso actual, actualizándose de forma periódica.
El objetivo de este trabajo es utilizar redes neuronales convolucionales y/o Vision Transformers para clasificar y segmentar distintos tipos de enfermedades a partir de imágenes de resonancia magnética (MRI).
Uno de los cuellos de botella en la gestión de las empresas es la inserción de datos en sus sistemas de información, que se suele realizar de forma manual. Esto produce errores de transcripción y falta de uniformidad en los datos. El objetivo de este TFG es utilizar redes neuronales recientes con el fin de extraer, automáticamente, información detallada de documentos estructurados, tales como facturas, recibos, albaranes, etc. Los documentos pueden estar en formato PDF o imagen, y la salida se debe organizar en formato JSON para poder importar los datos en cualquier ERP.
Desarrollar una aplicación que permita jugar al bridge contra el ordenador, tanto en modo libre como guiado, para poder servir de herramienta de aprendizaje.
Este Trabajo de Fin de Título (TFT) consistirá en la realización de un estudio comparativo del desempeño de la red neuronal modular profunda Binomial Gate LSTM (BigLSTM), como arquitectura de cómputo tolerante a los datos faltantes y al muestreo irregular de las observaciones, frente a otras arquitecturas neuronales profundas y no profundas.
Para ejecutar lo anterior se trabajará con dos conjuntos de datos tabulados y públicos:
· Predicción espaciotemporal del pH de 36 fuentes de aguas del estado de Georgia, USA (https://www.kaggle.com/datasets/shrutisaxena/water-quality-prediction-data-set/),
· Predicción de la mortalidad por afecciones cardiacas en los pacientes de UCI (https://physionet.org/content/challenge-2012/1.0.0/).
Utilizaremos dichos conjuntos de datos en tareas de predicción y aplicaremos diversas técnicas convencionales de imputación de datos como, por ejemplo, basadas en estadísticos; así como técnicas menos convencionales, como pueden ser los algoritmos de cálculos de datos faltantes, o del ámbito de las Redes Neuronales tolerantes a datos faltantes.
Lo anterior se realizará con el propósito de comparar dichas técnicas con los resultados de predicción obtenidos con la red neuronal BigLSTM.
Desde la perspectiva tecnológica, este TFT plantea la realización de trabajos de desarrollo en los que utilizaremos el lenguaje de programación Python (https://www.python.org/downloads/), y librerías asociadas: TensorFlow (https://www.tensorflow.org/), Scikit-Learn (https://scikit-learn.org/stable/), Matplotlib (https://matplotlib.org/), etc.
Este TFT se encuentra enmarcado en al ámbito del Aprendizaje Automático (Machine Learning), así como como en el uso de técnicas de Aprendizaje Profundo (Deep Learning).
Este Trabajo de Fin de Título (TFT), enmarcado en el ámbito de la Ingeniería del Software, consistirá en el Diseño y Desarrollo de un Sistema de Visualización y Tratamiento Inteligente de Datos Clínicos.
Para realizar lo anterior se plantea un Sistema modular que mediante parametrización realice las fases de Extracción, Tratamiento/Proceso (limpieza, filtrado, ranqueado, etc.), Carga y Almacenamiento de los datos procedentes de los Sistemas Clínicos Asistenciales.
Así como el desarrollo de una API que permita acceder a los datos para realizar operaciones de Visualización de la Información (Query&Reporting), Procesado Analítico (Data Mining), Predicción y Lógica Computacional de Ayuda al Diagnóstico Clínico mediante técnicas de computación inteligente, como computación neuronal, deep learning, etc.
En definitiva, se persigue un Sistema Software preparado y organizado funcionalmente, para poder ser utilizado en estudios paramétricos sobre cualquier conjunto de datos de los almacena y gestiona.
Desde la perspectiva tecnológica, este TFT plantea un desarrollo que implemente las anteriores funcionalidades mediante la utilización de un stack tecnológico basado en Python (https://www.python.org/downloads/), Django (https://www.djangoproject.com/) y MongoDB (https://www.mongodb.com/).
El proyecto pretende el análisis de movimientos a través de esqueletos o siluetas (2 proyectos, uno con esqueletos, otro con siluetas).
Se requieren habilidades en algún framework de deep learning (Keras o Pytorch).
Los “eddies” oceánicos son grandes masas de agua en rotación, de entre decenas y centenares de kilómetros de diámetro, que juegan un papel vital en distintos procesos físicos, químicos y biológicos de los océanos de todo el mundo. El origen y la evolución temporal de un “eddy” es muy difícil de predecir debido a las complejas interacciones atmósfera-océano que intervienen, por lo que cualquier aportación en este sentido sería de gran interés para la investigación oceanográfica.
Para la realización de este TFT se dispone de una base de datos con millones de ejemplos de “eddies” detectados por satélite cuya trayectoria se ha ido siguiendo a lo largo de diversos días y para los que se dispone de muchos datos como la latitud, la longitud, el diámetro, etc. A partir de las múltiples variables contenidas en estas series temporales, el objetivo de este TFT es aplicar métodos de aprendizaje profundo (LSTM, GRU…) para obtener un modelo capaz de predecir la evolución de los “eddies” en el futuro.
ABAKO es un código computacional desarrollado en el Departamento de Física de la ULPGC usado ampliamente en trabajos de investigación en el área de la física atómica de plasmas, incluyendo aplicaciones para el desarrollo de la fusión nuclear por confinamiento inercial. Sin embargo, por razones históricas, ABAKO está escrito mayoritariamente en el lenguaje de programación Fortran77 y usa algoritmos contenidos en librerías propietarias que carecen de mantenimiento y de las que ya no se publican actualizaciones. El objetivo del presente trabajo fin de grado es, por tanto, el análisis y actualización del código y su traducción de Fortran77 al estándar de Fortran 90/95 y Fortran 2003 (o lenguajes alternativos), usando técnicas de programación modular, programación orientada a objetos y programación genérica, garantizando la portabilidad y compatibilidad del código bajo diferentes compiladores, plataformas y sistemas operativos
Resumen: Se trata de poner en marcha una cadena de tratamiento de las imágenes obtenidas durante la campaña Bathypelagic que permita corregir el desenfoque inducido por el movimiento del barco/roseta y - en general - mejorar el contraste de las imágenes.
Este TFG consiste en clasificar escritura de niños en tres grupos de edad: niños pequeños, niños medianos y niños grandes. La clasificación se hará a partir de letras separadas escritas en una tableta y a partir de conjuntos de letras. Se podrán usar técnicas de clasificación automáticas (machine learning/deep learning).
Para la elaboración de este TFG se usarán técnicas de Deep Learning para crear un clasificador de los diferentes tipos de plancton que se encuentran presentes en las muestras de microscopio. Se hará énfasis en ser capaz de detectar el plancton y de clasificarlo en el tipo concreto. Este trabajo se realizará en colaboración con investigadores de ciencias del mar de la ULPGC que aportarán las bases de datos de plancton.
En este proyecto se realizarán varios clasificador basados en machine learning que sean capaces de predecir la probabilidad de que un paciente sufra una enfermedad (Infarto, Cirrosis, Hepatitis). A su vez se estudiarán diversas técnicas de Transfer Learning para ser capaces de mejorar las estimaciones entre diversos datasets y verificar si mejoran las predicciones originales.
VPL para Moodle es un módulo integrable en la plataforma de enseñanza Moodle que permite la gestión de actividades de programación. Entre las distintas funcionalidades el entorno permite la edición en un navegador de código fuente en el lenguaje de programación Java. El proyecto pretende ofrecer ayuda al desarrollo de código fuente en Java suministrando ayuda a la sintaxis del lenguaje y autocompletado con documentación de clases y métodos de las librerías estándares. El proyecto consistirá en desarrollar un servidor de documentación que será el encargado de responder a las consultas de ayuda recibidas desde del editor.
Desarrollo de infraestructura software para la anotación del banco de imágenes recopilado por el sistema de adquisición de imágenes desarrollado para el Proyecto de Investigación Bathypelagic. El objetivo de es el facilitar el procesamiento posterior de este banco de imágenes (tratamiento de imágenes estéreo, identificación de organismos u partículas, aprendizaje profundo, etc.).
Desarrollo de algoritmos de detección de obstáculos en imágenes adquiridas durante la navegación de un barco de vela autónomo utilizando un sistema de vídeo embarcado.
En este trabajo se analizará la capacidad de detectar y seguir de manera fiable torres eléctricas desde una cámara montada sobre un helicóptero. Para abordar este problema se usarán métodos de Machine Learning y Deep Learning específicos.
Desarrollo de aplicaciones VR o AR, tanto para dispositivos móviles como para otros dispositivos virtuales a los que tengamos acceso (gafas Meta Quest, guantes, trajes, etc.)
Desarrollo de aplicaciones de visualización 3D utilizando diferentes tecnologías (Opengl, Vulcan, WebGPU, Unity)
Virtual Programming Lab (VPL) es un módulo para Moodle que permite la gestión de tareas de programación en un entorno educativo. Entre las características que contiene está la de búsqueda de similitud entre ficheros de código fuente. Los analizadores léxicos que utiliza actualmente VPL están basados en autómatas específicos. El proyecto se encargaría de adaptar un motor genérico de interpretación de gramáticas (por ejemplo, el de TestMate) que permita crear analizadores para cada lenguaje de programación de forma más sencilla y fiable. Además de adaptar las definiciones ya existentes de los lenguajes más populares al nuevo sistema de análisis.
Escuela de Ingeniería Informática