En este apartado se irán publicando tanto propuestas concretas como ideas preliminares de TFT que los profesores vayan realizando, incluyendo las que se desarrollarán en colaboración con empresas. Para incluir una nueva propuesta, deberán enviar un correo a sri.eii@ulpgc.es con el título provisional y, opcionalmente, un breve párrafo descriptivo.
Los estudiantes interesados deben ponerse en contacto con el proponente con vistas a la posible asignación del trabajo.
IMPORTANTE: se muestra la oferta disponible para el curso actual, la correspondiente al curso 23/24 está en fase de elaboración y se publicará entre julio y septiembre.
El trabajo consiste en extraer todas las expresiones y locuciones del Diccionario de la Lengua Española de la Real Academia Española, clasificarlas adecuadamente en una base de datos de tal forma que se contemple la formas flexivas de cada una, si las hubiere, y posibles distancias entre las palabras que las componen. Habría que realizar dos aplicaciones, una de escritorio para extraer y clasificar todas las expresiones y locuciones y un servicio web que pasándole una oración o un texto nos devuelva las expresiones y/o locuciones encontradas. Este trabajo puede ser remunerado.
La idea es crear grupos de palabras relacionadas semánticamente en niveles de cercanía semántica a partir de diferentes diccionarios y recursos lingüísticos de los que ya dispone la División de Lingüística Computacional y Procesamiento del Lenguaje Natural del IATEXT. Esto grupos permitirán hacer búsquedas semánticas en Buscadores-IL diseñados con tecnología InteLiText (https://iatext.ulpgc.es/sites/default/files/InteLiText.pdf). Este trabajo puede ser remunerado.
A partir de diferentes diccionarios conocidos y de otras fuentes con información lingüística de las que dispone la División de Lingüística Computacional y Procesamiento del Lenguaje Natural del IATEXT, se trata de crear una aplicación web que muestre toda la información lingüística relacionada con una palabra de entrada. Dado que se trata de mucha información, el principal reto es diseñar una web en capas o menús de forma que el usuario pueda moverse con facilidad a través de toda la información lingüística relacionada con la palabra de entrada. Se necesitan habilidades en el diseño de páginas web.
Disponemos de una gran cantidad de palabras segmentadas en sílabas, con las que entrenar una red neuronal local para comprobar su potencialidad y eficacia en la respuesta ante nuevas entradas.
La aplicación web usa una base de datos que ya está diseñada y contiene numerosas oraciones analizadas sintácticamente. La aplicación debe permitir seleccionar oraciones en base a diferentes criterios y permitir al usuario analizarla manualmente y la aplicación le marcará los errores encontrados si los hubiera. Los errores se detectan comparando con el análisis almacenado en la base de datos. También se debe permitir seleccionar oraciones según diferentes criterios para mostrar el análisis de cada una de ellas. Este trabajo se puede remunerar.
Se debe desarrollar una aplicación web que muestre en un grafo las relaciones que existen entre las palabras de una oración. Dichas relaciones están almacenadas en una base de datos. Este trabajo se puede remunerar.
Implementar un módulo de Inteligencia Artificial usando cualquiera de las APIs disponibles que dialogue con el usuario para permitir búsquedas en la aplicación DiseCan (https://dise.iatext.ulpgc.es/canarias/). La idea es poder hacer peticiones a este buscador textual en lenguaje natural en lugar de tener que escribir con la codificación que se muestra en los ejemplos de búsqueda. Este trabajo se puede remunerar.
El objetivo de este proyecto es evaluar la posibilidad de usar la señal obtenida de un sensor EEG, para discriminar entre al menos dos dibujos (circulo y cuadrado) realizados sobre una tableta digital utilizando técnicas de aprendizaje automático y técnicas utilizadas en la evaluación del movimiento.
Requisitos: Aprendizaje automático, Matlab o Python
El objetivo de este proyecto es evaluar la posibilidad de usar la señal obtenida de un sensor EEG, para discriminar entre dos movimientos realizados con el brazo utilizando técnicas de aprendizaje automático y técnicas utilizadas en la evaluación del movimiento.
Requisitos: Aprendizaje automático, Matlab o Python
Nuestro proyecto se basa en un algoritmo innovador en Matlab que recupera trazados de escritura a partir del esqueleto del manuscrito https://github.com/gioelecrispo/wor. El objetivo es introducir una velocidad humanoide basada en el principio de la lognormalidad. Una vez incorporada esta velocidad, realizaremos pruebas de reconocimiento biométrico, comparando los resultados obtenidos con los datos reales y los datos recuperados. Buscamos estudiantes con habilidades de programación en Matlab para unirse a este proyecto.
A través del análisis de datos inerciales de vacas lecheras, tanto sanas como afectadas por cojeras, investigamos diferencias significativas en parámetros cinemáticos. Utiliza nuestro software académico basado en Matlab, desarrollado en la ULPGC, para la extracción de datos https://idelog4all.ulpgc.es/. ¿Posees habilidades en programación y estadística? Únete a nuestro equipo de investigación.
El proyecto pretende eliminar el ruido introducido por el movimiento de una cámara en un entorno deportivo, preservando el movimiento de los atletas en la escena y analizando la trayectoria de los mismos.
Se requieren habilidades en algún framework de deep learning (Keras o Pytorch).
Desarrollo de aplicativo de alto rendimiento, que descargue de manera masiva textos, partiendo de un tópico de búsqueda, y produzca una visualización en tiempo real de sentimiento, haciendo uso de computación paralela y big data.
Desarrollo de metodologías nuevas para el análisis automático de sentimiento utilizando modelos probabilísticos de tipo bayesiano. Se trata de definir, desarrollar y evaluar una metodología nueva de análisis de textos, de tipo probabilístico (bayesiano).
Se espera publicar un artículo de revista indexada en parte como resultado de este TFG, incluyendo como autor al/la alumno/a.
Se trata de crear un dataset de textos equivalentes generados por IA generativa o por humanos y aplicar técnicas avanzadas de aprendizaje automático para clasificar los textos según su origen humano o artificial.
Dos de los elementos básicos para el diseño de sistemas de visión autónomos tienen que ver con el conocimiento de la estructura tridimensional del entorno y del desplazamiento de los objetos en la escena. Dada una secuencia de imágenes, o un vídeo de una escena real, el objetivo de este TFT es aplicar técnicas de visión por ordenador para obtener un modelo 3D de la escena y estimar el movimiento de los objetos. Se emplearán técnicas de visión y redes neuronales.
El objetivo de este trabajo es utilizar redes neuronales convolucionales y/o Vision Transformers para clasificar y segmentar distintos tipos de enfermedades a partir de imágenes de resonancia magnética (MRI).
Uno de los cuellos de botella en la gestión de las empresas es la inserción de datos en sus sistemas de información, que se suele realizar de forma manual. Esto produce errores de transcripción y falta de uniformidad en los datos. El objetivo de este TFG es utilizar redes neuronales recientes con el fin de extraer, automáticamente, información detallada de documentos estructurados, tales como facturas, recibos, albaranes, etc. Los documentos pueden estar en formato PDF o imagen, y la salida se debe organizar en formato JSON para poder importar los datos en cualquier ERP.
Desarrollar una aplicación que permita jugar al bridge contra el ordenador, tanto en modo libre como guiado, para poder servir de herramienta de aprendizaje.
El objetivo de este TFT es desarrollar un sistema basado en edge computing y deep learning que simule el control de acceso a una instalación mediante reconocimiento facial y su conexión con un cuadro de mandos para su monitorización.
Este Trabajo de Fin de Título (TFT) consistirá en la realización de un estudio comparativo del desempeño de la red neuronal modular profunda Binomial Gate LSTM (BigLSTM), como arquitectura de cómputo tolerante a los datos faltantes y al muestreo irregular de las observaciones, frente a otras arquitecturas neuronales profundas y no profundas.
Para ejecutar lo anterior se trabajará con dos conjuntos de datos tabulados y públicos:
· Predicción espaciotemporal del pH de 36 fuentes de aguas del estado de Georgia, USA (https://www.kaggle.com/datasets/shrutisaxena/water-quality-prediction-data-set/),
· Predicción de la mortalidad por afecciones cardiacas en los pacientes de UCI (https://physionet.org/content/challenge-2012/1.0.0/).
Utilizaremos dichos conjuntos de datos en tareas de predicción y aplicaremos diversas técnicas convencionales de imputación de datos como, por ejemplo, basadas en estadísticos; así como técnicas menos convencionales, como pueden ser los algoritmos de cálculos de datos faltantes, o del ámbito de las Redes Neuronales tolerantes a datos faltantes.
Lo anterior se realizará con el propósito de comparar dichas técnicas con los resultados de predicción obtenidos con la red neuronal BigLSTM.
Desde la perspectiva tecnológica, este TFT plantea la realización de trabajos de desarrollo en los que utilizaremos el lenguaje de programación Python (https://www.python.org/downloads/), y librerías asociadas: TensorFlow (https://www.tensorflow.org/), Scikit-Learn (https://scikit-learn.org/stable/), Matplotlib (https://matplotlib.org/), etc.
Este TFT se encuentra enmarcado en al ámbito del Aprendizaje Automático (Machine Learning), así como como en el uso de técnicas de Aprendizaje Profundo (Deep Learning).
Este Trabajo de Fin de Título (TFT), enmarcado en el ámbito de la Ingeniería del Software, consistirá en el Diseño y Desarrollo de un Sistema de Visualización y Tratamiento Inteligente de Datos Clínicos.
Para realizar lo anterior se plantea un Sistema modular que mediante parametrización realice las fases de Extracción, Tratamiento/Proceso (limpieza, filtrado, ranqueado, etc.), Carga y Almacenamiento de los datos procedentes de los Sistemas Clínicos Asistenciales.
Así como el desarrollo de una API que permita acceder a los datos para realizar operaciones de Visualización de la Información (Query&Reporting), Procesado Analítico (Data Mining), Predicción y Lógica Computacional de Ayuda al Diagnóstico Clínico mediante técnicas de computación inteligente, como computación neuronal, deep learning, etc.
En definitiva, se persigue un Sistema Software preparado y organizado funcionalmente, para poder ser utilizado en estudios paramétricos sobre cualquier conjunto de datos de los almacena y gestiona.
Desde la perspectiva tecnológica, este TFT plantea un desarrollo que implemente las anteriores funcionalidades mediante la utilización de un stack tecnológico basado en Python (https://www.python.org/downloads/), Django (https://www.djangoproject.com/) y MongoDB (https://www.mongodb.com/).
Esta propuesta de TFT se enmarca en la línea de investigación interdisciplinar que desarrollan conjuntamente el área de Audiología y Equilibrio del Complejo Hospitalario Universitario Insular Materno-Infantil y el instituto universitario de investigación SIANI.
El equipo médico dispone de registros electrofisiológicos del nervio coclear (eCAPs) y de la función vestibular (VEMPs) en el oído interno.
Estos registros electrofisiológicos necesitan ser etiquetados para identificar las distintas partes que los componen. Actualmente, esta operación se realiza de forma manual.
En este TFT se propone implementar mediante técnicas de Inteligencia Artificial la marcación automática de los registros eCAP y VEMP.
El proyecto pretende el análisis de movimientos a través de esqueletos o siluetas (2 proyectos, uno con esqueletos, otro con siluetas).
Se requieren habilidades en algún framework de deep learning (Keras o Pytorch).
Escuela de Ingeniería Informática