Estudo de mellora dunha planta de produción de sulfato de aluminio
Autoría
N.A.L.
Máster Universitario en Enxeñaría Química e Bioprocesos
N.A.L.
Máster Universitario en Enxeñaría Química e Bioprocesos
Data da defensa
19.02.2026 12:45
19.02.2026 12:45
Resumo
O obxectivo principal deste estudo é a avaliación tecnoeconómica dunha modificación no proceso de fabricación dunha solución de sulfato de aluminio. A análise céntrase na substitución da principal materia prima reactiva como estratexia para mellorar o rendemento operativo, optimizar o uso dos recursos e garantir a sustentabilidade do proceso, mantendo ao mesmo tempo a calidade do produto final e o cumprimento de todos os requisitos de seguridade industrial. Baseándose nunha revisión do sistema convencional baseado en bauxita, identifícanse oportunidades de mellora relacionadas coa complexidade do tratamento de materias primas impuras e a xestión de residuos sólidos. Neste contexto, proponse e analízase en detalle o uso de hidróxido de aluminio de alta pureza como alternativa. Para apoiar a proposta, este informe desenvolve unha descrición detallada do proceso modificado, incluíndo balances de masa e enerxía para diferentes escenarios de produción, planificación operativa mediante diagramas de Gantt e unha avaliación económica preliminar que compara os custos das materias primas, o tratamento de residuos e a amortización dos equipos para ambas as rutas.
O obxectivo principal deste estudo é a avaliación tecnoeconómica dunha modificación no proceso de fabricación dunha solución de sulfato de aluminio. A análise céntrase na substitución da principal materia prima reactiva como estratexia para mellorar o rendemento operativo, optimizar o uso dos recursos e garantir a sustentabilidade do proceso, mantendo ao mesmo tempo a calidade do produto final e o cumprimento de todos os requisitos de seguridade industrial. Baseándose nunha revisión do sistema convencional baseado en bauxita, identifícanse oportunidades de mellora relacionadas coa complexidade do tratamento de materias primas impuras e a xestión de residuos sólidos. Neste contexto, proponse e analízase en detalle o uso de hidróxido de aluminio de alta pureza como alternativa. Para apoiar a proposta, este informe desenvolve unha descrición detallada do proceso modificado, incluíndo balances de masa e enerxía para diferentes escenarios de produción, planificación operativa mediante diagramas de Gantt e unha avaliación económica preliminar que compara os custos das materias primas, o tratamento de residuos e a amortización dos equipos para ambas as rutas.
Dirección
GARRIDO FERNANDEZ, JUAN MANUEL (Titoría)
GARRIDO FERNANDEZ, JUAN MANUEL (Titoría)
Tribunal
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vogal)
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vogal)
Valorización de macroalgas para a recuperación de compostos bioactivos mediante o cultivo de bacterias fototróficas púrpura (PPB)
Autoría
M.A.G.
Máster Universitario en Enxeñaría Química e Bioprocesos
M.A.G.
Máster Universitario en Enxeñaría Química e Bioprocesos
Data da defensa
19.02.2026 11:15
19.02.2026 11:15
Resumo
A acumulación de macroalgas nas costas de Galicia, provocadas polas arribazóns, xeraron preocupación polos seus impactos económicos e ambientais. Este Traballo Fin de Mestrado avalía dous procesos en paralelo, co obxectivo de valorizar este residuo natural e recuperar produtos de alto valor engadido, como os carotenoides. Tras unha moenda, a alga nunha concentración de 5 gramos por DQO por litro someteuse primeiro a unha prefermentación empregando lodo dun dixestor anaerobio e outra con bacterias fototróficas púrpuras, PPB, en escuridade. O reactor con lodo consumiu o 31 por cento da DQO e acumulou 1,38 gramos de DQO por litro de ácidos graxos volátiles (AGV), con predominio de ácido acético e butírico. O reactor con PPB acadou 1,68 gramos de DQO por litro de AGV, onde o ácido propiónico foi o maioritario. En paralelo, operouse un reactor PPB con 0,5 gramos de DQO por litro de alga baixo luz infravermella para avaliar a súa potencial transformación directa. O proceso viuse limitado pola hidrólise da alga e pola interferencia da biomasa na cuantificación dos carotenoides ao quedar gran cantidade de alga como sólido durante todo o ensaio. Os sobrenadantes dos dous reactores da prefermentación pasáronse a unha segunda etapa fototrófica con PPB, na que se obtiveron rendementos de 0,664 e 1,164 miligramos de betacaroteno por gramo de alga seca consumida. Deste xeito, demostrase a versatilidade metabólica das PPB e se presenta unha opción circular para a xestión das arribazóns. Sen embargo, precisase máis investigación para optimizar os rendementos.
A acumulación de macroalgas nas costas de Galicia, provocadas polas arribazóns, xeraron preocupación polos seus impactos económicos e ambientais. Este Traballo Fin de Mestrado avalía dous procesos en paralelo, co obxectivo de valorizar este residuo natural e recuperar produtos de alto valor engadido, como os carotenoides. Tras unha moenda, a alga nunha concentración de 5 gramos por DQO por litro someteuse primeiro a unha prefermentación empregando lodo dun dixestor anaerobio e outra con bacterias fototróficas púrpuras, PPB, en escuridade. O reactor con lodo consumiu o 31 por cento da DQO e acumulou 1,38 gramos de DQO por litro de ácidos graxos volátiles (AGV), con predominio de ácido acético e butírico. O reactor con PPB acadou 1,68 gramos de DQO por litro de AGV, onde o ácido propiónico foi o maioritario. En paralelo, operouse un reactor PPB con 0,5 gramos de DQO por litro de alga baixo luz infravermella para avaliar a súa potencial transformación directa. O proceso viuse limitado pola hidrólise da alga e pola interferencia da biomasa na cuantificación dos carotenoides ao quedar gran cantidade de alga como sólido durante todo o ensaio. Os sobrenadantes dos dous reactores da prefermentación pasáronse a unha segunda etapa fototrófica con PPB, na que se obtiveron rendementos de 0,664 e 1,164 miligramos de betacaroteno por gramo de alga seca consumida. Deste xeito, demostrase a versatilidade metabólica das PPB e se presenta unha opción circular para a xestión das arribazóns. Sen embargo, precisase máis investigación para optimizar os rendementos.
Dirección
Pedrouso Fuentes, Alba (Titoría)
MOSQUERA CORRAL, ANUSKA Cotitoría
Pedrouso Fuentes, Alba (Titoría)
MOSQUERA CORRAL, ANUSKA Cotitoría
Tribunal
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vogal)
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vogal)
Condicionamento explícito de thing/stuff para unha segmentación panóptica de vocabulario aberto robusta
Autoría
A.B.R.
Máster Universitario en Intelixencia Artificial
A.B.R.
Máster Universitario en Intelixencia Artificial
Data da defensa
03.02.2026 13:30
03.02.2026 13:30
Resumo
A segmentación panóptica de vocabulario aberto procura segmentar e clasificar categorías arbitrarias no momento da inferencia empregando priors lingüísticos, pero os métodos actuais aínda teñen dificultades ante o cambio de vocabulario, especialmente cando a distinción thing/stuff é ambigua: as categorías non vistas poden tratarse incorrectamente como stuff en vez de thing, facendo que as máscaras de instancia se fusionen por erro, o que prexudica a calidade panóptica. Propomos TS-CLIP, un modelo lixeiro que fai explícito o comportamento desexado ao condicionar os embeddings de texto de CLIP co tipo panóptico desexado (thing/stuff) e co contexto global da imaxe, e ao engadir query-to-text attention para que a semántica das categorías poida influír na formación das máscaras. Un aumento de datos de fusión/división de máscaras durante o adestramento evita, ademais, que o modelo memorice convencións de agrupamento específicas do dataset e permite unha converxencia de adestramento máis rápida. Con axustes adicionais no decodificador, TS-CLIP mellora a FC-CLIP no dataset ADE20K (PQ de 26.8 a 27.6), especialmente en thing (PQ de 25.1 a 26.5) e en categorías non vistas (PQ de 18.0 a 19.1), á vez que require menos iteracións de adestramento.
A segmentación panóptica de vocabulario aberto procura segmentar e clasificar categorías arbitrarias no momento da inferencia empregando priors lingüísticos, pero os métodos actuais aínda teñen dificultades ante o cambio de vocabulario, especialmente cando a distinción thing/stuff é ambigua: as categorías non vistas poden tratarse incorrectamente como stuff en vez de thing, facendo que as máscaras de instancia se fusionen por erro, o que prexudica a calidade panóptica. Propomos TS-CLIP, un modelo lixeiro que fai explícito o comportamento desexado ao condicionar os embeddings de texto de CLIP co tipo panóptico desexado (thing/stuff) e co contexto global da imaxe, e ao engadir query-to-text attention para que a semántica das categorías poida influír na formación das máscaras. Un aumento de datos de fusión/división de máscaras durante o adestramento evita, ademais, que o modelo memorice convencións de agrupamento específicas do dataset e permite unha converxencia de adestramento máis rápida. Con axustes adicionais no decodificador, TS-CLIP mellora a FC-CLIP no dataset ADE20K (PQ de 26.8 a 27.6), especialmente en thing (PQ de 25.1 a 26.5) e en categorías non vistas (PQ de 18.0 a 19.1), á vez que require menos iteracións de adestramento.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
CORES COSTA, DANIEL Cotitoría
MUCIENTES MOLINA, MANUEL FELIPE (Titoría)
CORES COSTA, DANIEL Cotitoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vogal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vogal)
Disolventes eutécticos baseados en ácidos graxos para a mellora do proceso de obtención de xelatina a partir de pel de peixe.
Autoría
M.D.A.
Máster Universitario en Enxeñaría Química e Bioprocesos (2ª ed)
M.D.A.
Máster Universitario en Enxeñaría Química e Bioprocesos (2ª ed)
Data da defensa
19.02.2026 11:45
19.02.2026 11:45
Resumo
A industria de transformación de produtos pesqueiros, de gran relevancia no tecido económico galego, xera volumes significativos de residuos que, a pesar da súa escasa explotación actual, posúen un alto potencial de valorización. Entre eles, destaca a pel de peixe polo seu elevado contido de coláxeno, que pode dar lugar, na súa versión desnaturalizada, á produción de xelatina, con múltiples aplicacións en diversos sectores. Os procesos convencionais de extracción de xelatina empregan pretratamentos con ácidos e bases fortes, con condicións agresivas (altas concentracións e tempos prolongados), o que, ademais de comprometer as credenciais de sostibilidade do proceso, induce unha hidrólise descontrolada que reduce substancialmente a calidade do produto final. Ademais, estas metodoloxías requiren etapas intensivas de neutralización e conducen a riscos ambientais asociados á xestión e ao vertido dos efluentes corrosivos xerados. Neste contexto, resulta de interese investigar métodos alternativos máis sostibles. Recentemente, foi proposta a obtención de xelatina a partir de pel de peixe mediante a extracción con auga morna tras unha etapa de pretratamento por maceración con disolventes eutécticos. Nesta liña, este traballo investiga a aplicación de disolventes eutécticos baseados en sales de amonio cuaternario e ácidos graxos para dito fin. En primeira instancia, analizouse o equilibrio sólido-líquido de oito sistemas binarios constituídos por un sal de amonio (cloruro de tetraetilamonio ou cloruro de tetrapropilamonio) e un ácido graxo saturado (octanoico, decanoico, dodecanoico ou octadecanoico) mediante calorimetría diferencial de barrido. A partir deste cribado e determinado o comportamento eutéctico dos citados sistemas, seleccionáronse os dous disolventes eutécticos contendo ácido octanoico xa que posúen as temperaturas eutécticas máis baixas (inferior a 0 Celsius). A continuación, avaliouse o proceso de extracción, considerando a presenza ou ausencia dunha etapa de lavado intermedia con auga fría entre o pretratamento con disolvente eutéctico e a extracción final con auga. As xelatinas obtidas caracterizáronse mediante análises de estabilidade térmica, distribución de pesos moleculares e comportamento reolóxico. Os resultados indicaron rendementos de extracción do 6-10%, así como propiedades que suxiren a obtención dun produto de alta calidade: temperaturas de xelificación e fusión nos rangos 24-27 Celsius e 27-29 Celsius respectivamente; temperaturas de descomposición superiores a 225 Celsius; e clara predominancia de fraccións de alto peso molecular. Entre as opcións avaliadas, os resultados máis prometedores obtivéronse co disolvente formado por cloruro de tetrapropilamonio e ácido octanoico para a maceración, empregando un lavado intermedio. En conclusión, este traballo demostra a viabilidade técnica de empregar disolventes eutécticos baseados en cloruros de amonio cuaternario e ácidos graxos para obter xelatina de pel de peixe de alta calidade e con boas perspectivas de aplicación.
A industria de transformación de produtos pesqueiros, de gran relevancia no tecido económico galego, xera volumes significativos de residuos que, a pesar da súa escasa explotación actual, posúen un alto potencial de valorización. Entre eles, destaca a pel de peixe polo seu elevado contido de coláxeno, que pode dar lugar, na súa versión desnaturalizada, á produción de xelatina, con múltiples aplicacións en diversos sectores. Os procesos convencionais de extracción de xelatina empregan pretratamentos con ácidos e bases fortes, con condicións agresivas (altas concentracións e tempos prolongados), o que, ademais de comprometer as credenciais de sostibilidade do proceso, induce unha hidrólise descontrolada que reduce substancialmente a calidade do produto final. Ademais, estas metodoloxías requiren etapas intensivas de neutralización e conducen a riscos ambientais asociados á xestión e ao vertido dos efluentes corrosivos xerados. Neste contexto, resulta de interese investigar métodos alternativos máis sostibles. Recentemente, foi proposta a obtención de xelatina a partir de pel de peixe mediante a extracción con auga morna tras unha etapa de pretratamento por maceración con disolventes eutécticos. Nesta liña, este traballo investiga a aplicación de disolventes eutécticos baseados en sales de amonio cuaternario e ácidos graxos para dito fin. En primeira instancia, analizouse o equilibrio sólido-líquido de oito sistemas binarios constituídos por un sal de amonio (cloruro de tetraetilamonio ou cloruro de tetrapropilamonio) e un ácido graxo saturado (octanoico, decanoico, dodecanoico ou octadecanoico) mediante calorimetría diferencial de barrido. A partir deste cribado e determinado o comportamento eutéctico dos citados sistemas, seleccionáronse os dous disolventes eutécticos contendo ácido octanoico xa que posúen as temperaturas eutécticas máis baixas (inferior a 0 Celsius). A continuación, avaliouse o proceso de extracción, considerando a presenza ou ausencia dunha etapa de lavado intermedia con auga fría entre o pretratamento con disolvente eutéctico e a extracción final con auga. As xelatinas obtidas caracterizáronse mediante análises de estabilidade térmica, distribución de pesos moleculares e comportamento reolóxico. Os resultados indicaron rendementos de extracción do 6-10%, así como propiedades que suxiren a obtención dun produto de alta calidade: temperaturas de xelificación e fusión nos rangos 24-27 Celsius e 27-29 Celsius respectivamente; temperaturas de descomposición superiores a 225 Celsius; e clara predominancia de fraccións de alto peso molecular. Entre as opcións avaliadas, os resultados máis prometedores obtivéronse co disolvente formado por cloruro de tetrapropilamonio e ácido octanoico para a maceración, empregando un lavado intermedio. En conclusión, este traballo demostra a viabilidade técnica de empregar disolventes eutécticos baseados en cloruros de amonio cuaternario e ácidos graxos para obter xelatina de pel de peixe de alta calidade e con boas perspectivas de aplicación.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Titoría)
MENDES VILAS BOAS, SERGIO ANTONIO Cotitoría
RODRIGUEZ MARTINEZ, HECTOR (Titoría)
MENDES VILAS BOAS, SERGIO ANTONIO Cotitoría
Tribunal
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vogal)
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vogal)
Deseño e avaliación comparativa de nodos de salvagarda avanzados para IA conversacional
Autoría
A.E.C.
Máster Universitario en Intelixencia Artificial
A.E.C.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.02.2026 16:30
18.02.2026 16:30
Resumo
Este traballo presenta o deseño e a avaliación dun 'Nodo de Salvagarda' (Safeguard Node) eficiente para protexer sistemas de Intelixencia Artificial (IA) conversacional en contornas de produción. O autor propón unha arquitectura unificada de múltiples cabezais (Multi-Head) baseada en codificadores de Representacións de Codificador Bidireccional de Transformadores (BERT), con variantes de aproximadamente 4, 40 e 110 millóns de parámetros, que predí simultaneamente a categoría semántica, a intención do usuario e o nivel de risco. O estudio aborda o problema dos altos custos computacionais e a latencia dos modelos de seguridade actuais, como Llama Guard. Para iso, desenvolveuse un conxunto de datos trilingüe (inglés, español e galego) que abrangue nove categorías semánticas, dúas clases de intención e dúas de risco. Os resultados demostran que estes modelos especializados de menor escala poden igualar ou superar o rendemento de Modelos de Linguaxe de Gran Tamaño (LLM) moito máis complexos (de 600 ou 4.000 millóns de parámetros) en tarefas específicas de moderación, reducindo drasticamente a latencia, os requisitos de hardware e os custos derivados de Interfaces de Programación de Aplicacións (API) externas.
Este traballo presenta o deseño e a avaliación dun 'Nodo de Salvagarda' (Safeguard Node) eficiente para protexer sistemas de Intelixencia Artificial (IA) conversacional en contornas de produción. O autor propón unha arquitectura unificada de múltiples cabezais (Multi-Head) baseada en codificadores de Representacións de Codificador Bidireccional de Transformadores (BERT), con variantes de aproximadamente 4, 40 e 110 millóns de parámetros, que predí simultaneamente a categoría semántica, a intención do usuario e o nivel de risco. O estudio aborda o problema dos altos custos computacionais e a latencia dos modelos de seguridade actuais, como Llama Guard. Para iso, desenvolveuse un conxunto de datos trilingüe (inglés, español e galego) que abrangue nove categorías semánticas, dúas clases de intención e dúas de risco. Os resultados demostran que estes modelos especializados de menor escala poden igualar ou superar o rendemento de Modelos de Linguaxe de Gran Tamaño (LLM) moito máis complexos (de 600 ou 4.000 millóns de parámetros) en tarefas específicas de moderación, reducindo drasticamente a latencia, os requisitos de hardware e os custos derivados de Interfaces de Programación de Aplicacións (API) externas.
Dirección
CATALA BOLOS, ALEJANDRO (Titoría)
Piñeiro Martín, Andrés Cotitoría
CATALA BOLOS, ALEJANDRO (Titoría)
Piñeiro Martín, Andrés Cotitoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vogal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vogal)
Un estudo con humano no bucle sobre a optimización de prompts e a comparación de modelos para a clasificación de requisitos non funcionais.
Autoría
R.U.F.
Máster Universitario en Intelixencia Artificial
R.U.F.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.02.2026 18:00
18.02.2026 18:00
Resumo
Os requisitos non funcionais (NFRs) son factores críticos na Enxeñaría de Requisitos, xa que descoidalos provoca problemas significativos. Para abordalos axeitadamente, a clasificación automática dos NFRs en subclases é unha área de investigación activa na actualidade. Tradicionalmente, empregábanse modelos de aprendizaxe automática supervisada para esta tarefa. Porén, existe unha grave escaseza de datos etiquetados en linguas distintas do inglés, o que resulta necesario para un adestramento efectivo. Este traballo compara modelos transformer só codificadores con modelos xerativos de gran tamaño (LLMs) nunha tarefa de clasificación multiclase de NFRs. En concreto, investígase se a optimización de prompts con humano no bucle pode acadar resultados competitivos fronte aos modelos transformer axustados (fine-tuned). Para obter estas conclusións, utilízase o conxunto de datos traducido PROMISE para adestrar o modelo e optimizar o prompt nun esquema de validación cruzada estratificada en tres pregas, e o conxunto de datos ReSpaN para avaliar a xeneralización entre conxuntos de datos. O rendemento mídese mediante a puntuación F1 macro, para xestionar coidadosamente os desbalances entre clases. Os resultados deste estudo demostran que os LLMs xerativos de tamaño razoable (7B+ parámetros) superan aos modelos transformer axustados neste escenario con poucos datos. A optimización do prompt parece sobreaxustarse inicialmente aos datos de adestramento, pero amosa capacidade de xeneralización cando se avalía co conxunto de datos ReSpaN. Ademais, o rendemento dos LLMs xerativos de maior tamaño mantense estable tanto en inglés como en español. En conclusión, os LLMs xerativos ofrecen unha solución robusta para a clasificación de NFRs, xa que non dependen de grandes conxuntos de datos etiquetados e poden razoar a través de barreiras lingüísticas. Ao reducir a dependencia dos datos, este enfoque simplifica a automatización da Enxeñaría de Requisitos en linguas distintas do inglés.
Os requisitos non funcionais (NFRs) son factores críticos na Enxeñaría de Requisitos, xa que descoidalos provoca problemas significativos. Para abordalos axeitadamente, a clasificación automática dos NFRs en subclases é unha área de investigación activa na actualidade. Tradicionalmente, empregábanse modelos de aprendizaxe automática supervisada para esta tarefa. Porén, existe unha grave escaseza de datos etiquetados en linguas distintas do inglés, o que resulta necesario para un adestramento efectivo. Este traballo compara modelos transformer só codificadores con modelos xerativos de gran tamaño (LLMs) nunha tarefa de clasificación multiclase de NFRs. En concreto, investígase se a optimización de prompts con humano no bucle pode acadar resultados competitivos fronte aos modelos transformer axustados (fine-tuned). Para obter estas conclusións, utilízase o conxunto de datos traducido PROMISE para adestrar o modelo e optimizar o prompt nun esquema de validación cruzada estratificada en tres pregas, e o conxunto de datos ReSpaN para avaliar a xeneralización entre conxuntos de datos. O rendemento mídese mediante a puntuación F1 macro, para xestionar coidadosamente os desbalances entre clases. Os resultados deste estudo demostran que os LLMs xerativos de tamaño razoable (7B+ parámetros) superan aos modelos transformer axustados neste escenario con poucos datos. A optimización do prompt parece sobreaxustarse inicialmente aos datos de adestramento, pero amosa capacidade de xeneralización cando se avalía co conxunto de datos ReSpaN. Ademais, o rendemento dos LLMs xerativos de maior tamaño mantense estable tanto en inglés como en español. En conclusión, os LLMs xerativos ofrecen unha solución robusta para a clasificación de NFRs, xa que non dependen de grandes conxuntos de datos etiquetados e poden razoar a través de barreiras lingüísticas. Ao reducir a dependencia dos datos, este enfoque simplifica a automatización da Enxeñaría de Requisitos en linguas distintas do inglés.
Dirección
CONDORI FERNANDEZ, OLINDA NELLY (Titoría)
CATALA BOLOS, ALEJANDRO Cotitoría
CONDORI FERNANDEZ, OLINDA NELLY (Titoría)
CATALA BOLOS, ALEJANDRO Cotitoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vogal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vogal)
Ancoraxe de nanopartículas catalíticas a fibras de fluoruro de polivinilideno cun material de cambio de fase encapsulado para termoregulación
Autoría
A.F.M.
Máster Universitario en Enxeñaría Química e Bioprocesos (2ª ed)
A.F.M.
Máster Universitario en Enxeñaría Química e Bioprocesos (2ª ed)
Data da defensa
19.02.2026 12:15
19.02.2026 12:15
Resumo
Este Traballo Fin de Máster presenta unha proba de concepto da integración de fibras poliméricas baseadas en PVDF con materiais de cambio de fase (PCM) encapsulados e nanopartículas catalíticas, co obxectivo de desenvolver un sistema catalítico térmicamente autorregulable. As fibras fabricáronse mediante un proceso coaxial microfluídico de inversión de fases inducida por non disolvente (NIPS), permitindo a encapsulación controlada de parafina RT25HC con distintos contidos de PCM. A funcionalización superficial realizouse mediante spray coating de nanopartículas de óxido de ferro (Fe3O4), seleccionadas tras un estudo preliminar de estabilidade coloidal, avaliándose a súa adhesión, estabilidade e compatibilidade co comportamento térmico das fibras.
Este Traballo Fin de Máster presenta unha proba de concepto da integración de fibras poliméricas baseadas en PVDF con materiais de cambio de fase (PCM) encapsulados e nanopartículas catalíticas, co obxectivo de desenvolver un sistema catalítico térmicamente autorregulable. As fibras fabricáronse mediante un proceso coaxial microfluídico de inversión de fases inducida por non disolvente (NIPS), permitindo a encapsulación controlada de parafina RT25HC con distintos contidos de PCM. A funcionalización superficial realizouse mediante spray coating de nanopartículas de óxido de ferro (Fe3O4), seleccionadas tras un estudo preliminar de estabilidade coloidal, avaliándose a súa adhesión, estabilidade e compatibilidade co comportamento térmico das fibras.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Titoría)
Durán López, Mikel Cotitoría
RODRIGUEZ MARTINEZ, HECTOR (Titoría)
Durán López, Mikel Cotitoría
Tribunal
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vogal)
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vogal)
Un sistema multimodal de recoñecemento de emocións no fala en tempo real e interlingüístico
Autoría
S.A.F.V.
Máster Universitario en Intelixencia Artificial
S.A.F.V.
Máster Universitario en Intelixencia Artificial
Data da defensa
03.02.2026 14:00
03.02.2026 14:00
Resumo
O Recoñecemento de Emocións na Voz en Tempo Real (SER) en contornos multilingües segue a ser un reto significativo debido á fenda semántica entre as pistas acústicas e lingüísticas e ao custo computacional dos modelos modernos de aprendizaxe profunda. Este artigo presenta un sistema SER multimodal e interlingüístico deseñado para equilibrar o rendemento predictivo coa eficiencia ambiental en escenarios en tempo real. Propuxemos unha arquitectura híbrida que integra características acústicas (MFCCs) e embeddings semánticas (DistilUse) a través de diversas estratexias de fusión, que van desde a concatenación ata mecanismos de atención cruzada. Para abordar a dimensión ambiental da IA ética, integramos unha capa de monitorización de IA Verde usando CodeCarbon para cuantificar o consumo de enerxía durante o adestramento e a inferencia. A validación experimental realizouse no conxunto de datos multilingüe EmoFilm (inglés, español, italiano). Os resultados indican que un enfoque de Fusión Tardía (alfa igual a 0,5) supera as arquitecturas complexas de Fusión Intermedia, acadando unha precisión do 70,19 por ceto, probablemente debido ao tamaño limitado do conxunto de datos. Ademais, unha análise interlingüística revela un posible efecto do doblaxe (é dicir, un mellor rendemento do recoñecemento en audio dobrado profesionalmente, onde a prosodia esaxerada pode amplificar as pistas emocionais), no que o modelo rende significativamente mellor en audio dobrado (español, 77,3 por ceto) en comparación coas pistas orixinais (inglés, 65,0 por ceto), debido á prosodia acentuada na interpretación de voz. Os experimentos en tempo real demostran que a arquitectura asincrónica de dobre taxa proposta opera moi por debaixo das limitacións de tempo real (RTF menor que 1), mantendo un rendemento de recoñecemento significativo en condicións de streaming. A análise da pegada de carbono destaca que as representacións acústicas lixeiras combinadas co procesamento semántico ofrecen un equilibrio favorable entre precisión e eficiencia. En xeral, os resultados indican que un SER multimodal eficaz en contornos multilingües en tempo real non require modelos complexos, senón arquitecturas de sistema deseñadas coidadosamente e conscientes da eficiencia.
O Recoñecemento de Emocións na Voz en Tempo Real (SER) en contornos multilingües segue a ser un reto significativo debido á fenda semántica entre as pistas acústicas e lingüísticas e ao custo computacional dos modelos modernos de aprendizaxe profunda. Este artigo presenta un sistema SER multimodal e interlingüístico deseñado para equilibrar o rendemento predictivo coa eficiencia ambiental en escenarios en tempo real. Propuxemos unha arquitectura híbrida que integra características acústicas (MFCCs) e embeddings semánticas (DistilUse) a través de diversas estratexias de fusión, que van desde a concatenación ata mecanismos de atención cruzada. Para abordar a dimensión ambiental da IA ética, integramos unha capa de monitorización de IA Verde usando CodeCarbon para cuantificar o consumo de enerxía durante o adestramento e a inferencia. A validación experimental realizouse no conxunto de datos multilingüe EmoFilm (inglés, español, italiano). Os resultados indican que un enfoque de Fusión Tardía (alfa igual a 0,5) supera as arquitecturas complexas de Fusión Intermedia, acadando unha precisión do 70,19 por ceto, probablemente debido ao tamaño limitado do conxunto de datos. Ademais, unha análise interlingüística revela un posible efecto do doblaxe (é dicir, un mellor rendemento do recoñecemento en audio dobrado profesionalmente, onde a prosodia esaxerada pode amplificar as pistas emocionais), no que o modelo rende significativamente mellor en audio dobrado (español, 77,3 por ceto) en comparación coas pistas orixinais (inglés, 65,0 por ceto), debido á prosodia acentuada na interpretación de voz. Os experimentos en tempo real demostran que a arquitectura asincrónica de dobre taxa proposta opera moi por debaixo das limitacións de tempo real (RTF menor que 1), mantendo un rendemento de recoñecemento significativo en condicións de streaming. A análise da pegada de carbono destaca que as representacións acústicas lixeiras combinadas co procesamento semántico ofrecen un equilibrio favorable entre precisión e eficiencia. En xeral, os resultados indican que un SER multimodal eficaz en contornos multilingües en tempo real non require modelos complexos, senón arquitecturas de sistema deseñadas coidadosamente e conscientes da eficiencia.
Dirección
CONDORI FERNANDEZ, OLINDA NELLY (Titoría)
CATALA BOLOS, ALEJANDRO Cotitoría
CONDORI FERNANDEZ, OLINDA NELLY (Titoría)
CATALA BOLOS, ALEJANDRO Cotitoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vogal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vogal)
Sistema web interactivo para a análise de datos médicos poboacionais
Autoría
S.G.
Máster Universitario en Visión por Computador
S.G.
Máster Universitario en Visión por Computador
Data da defensa
04.02.2026 10:30
04.02.2026 10:30
Resumo
Este traballo presenta unha plataforma web para a visualización, análise e segmentación de imaxes médicas e datos clínicos estruturados. O sistema integra múltiples módulos, incluíndo análise estatística, visualización interactiva de imaxes, xestión de imaxes e segmentación automatizada, co obxectivo de apoiar fluxos de traballo de investigación exploratoria. Os resultados experimentais confirman o correcto funcionamento de todos os módulos e demostran a capacidade da plataforma para manexar datos médicos heteroxéneos dun xeito interactivo e doado de usar. O deseño xeral é modular e flexible, o que permite que o sistema poida ampliarse e adaptarse para futuras investigacións e un posible uso clínico.
Este traballo presenta unha plataforma web para a visualización, análise e segmentación de imaxes médicas e datos clínicos estruturados. O sistema integra múltiples módulos, incluíndo análise estatística, visualización interactiva de imaxes, xestión de imaxes e segmentación automatizada, co obxectivo de apoiar fluxos de traballo de investigación exploratoria. Os resultados experimentais confirman o correcto funcionamento de todos os módulos e demostran a capacidade da plataforma para manexar datos médicos heteroxéneos dun xeito interactivo e doado de usar. O deseño xeral é modular e flexible, o que permite que o sistema poida ampliarse e adaptarse para futuras investigacións e un posible uso clínico.
Dirección
NUÑEZ GARCIA, MARTA (Titoría)
NUÑEZ GARCIA, MARTA (Titoría)
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vogal)
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vogal)
Segmentación Few-Shot para Imaxe Médica Empregando Modelos Fundacionais
Autoría
J.M.G.D.
Máster Universitario en Visión por Computador
J.M.G.D.
Máster Universitario en Visión por Computador
Data da defensa
04.02.2026 10:10
04.02.2026 10:10
Resumo
A segmentación de imaxes médicas é un prerrequisito crítico para o diagnóstico e a planificación do tratamento. Aínda que os modelos de aprendizaxe profunda supervisada estableceron o estado da arte en canto a rendemento, sofren dunha forte dependencia de conxuntos de datos a gran escala anotados a nivel de píxel. Esta dependencia supón un colo de botella significativo na imaxe médica debido á escaseza de anotacións de expertos e á heteroxeneidade das modalidades de imaxe. Esta tese propón un novo marco de Segmentación Few-Shot (FSS) deseñado para abordar estes desafíos aproveitando Modelos Fundacionais (FMs). O método proposto combina a robusta extracción de características do DINOv3 autosupervisado co refinamento final de límites do Segment Anything Model 3 (SAM 3). Avaliamos este marco en cinco conxuntos de datos de imaxe médica distintos. Os resultados experimentais demostran que o noso enfoque non só xeneraliza mellor a clases non vistas en réximes de poucos datos, senón que tamén supera á U-Net supervisada estándar en termos de Coeficiente de Similitude de Dice (DSC) e Distancia de Hausdorff en casos específicos, marcando un paso adiante significativo na análise de imaxes médicas eficiente en canto á etiquetaxe.
A segmentación de imaxes médicas é un prerrequisito crítico para o diagnóstico e a planificación do tratamento. Aínda que os modelos de aprendizaxe profunda supervisada estableceron o estado da arte en canto a rendemento, sofren dunha forte dependencia de conxuntos de datos a gran escala anotados a nivel de píxel. Esta dependencia supón un colo de botella significativo na imaxe médica debido á escaseza de anotacións de expertos e á heteroxeneidade das modalidades de imaxe. Esta tese propón un novo marco de Segmentación Few-Shot (FSS) deseñado para abordar estes desafíos aproveitando Modelos Fundacionais (FMs). O método proposto combina a robusta extracción de características do DINOv3 autosupervisado co refinamento final de límites do Segment Anything Model 3 (SAM 3). Avaliamos este marco en cinco conxuntos de datos de imaxe médica distintos. Os resultados experimentais demostran que o noso enfoque non só xeneraliza mellor a clases non vistas en réximes de poucos datos, senón que tamén supera á U-Net supervisada estándar en termos de Coeficiente de Similitude de Dice (DSC) e Distancia de Hausdorff en casos específicos, marcando un paso adiante significativo na análise de imaxes médicas eficiente en canto á etiquetaxe.
Dirección
VILA BLANCO, NICOLAS (Titoría)
CORES COSTA, DANIEL Cotitoría
VILA BLANCO, NICOLAS (Titoría)
CORES COSTA, DANIEL Cotitoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vogal)
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vogal)
Adaptación da StyleGAN3 para o procesamento de imaxes de teledetección multidimensionais
Autoría
A.G.L.
Máster Universitario en Intelixencia Artificial
A.G.L.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.02.2026 17:00
18.02.2026 17:00
Resumo
Na clasificación de imaxes de teledetección de alta resolución mediante aprendizaxe profunda, é frecuente atopar desafíos derivados da escaseza de datos e do forte desequilibrio entre clases. Para abordar estas limitacións, este traballo propón unha adaptación unificada da arquitectura StyleGAN3 deseñada para sintetizar e clasificar imaxes multiespectrais. O método integra un módulo de clasificación denso no discriminador, dotándoo dunha dobre funcionalidade, e implementa unha estratexia de adestramento adversaria equilibrada na que se condiciona ao xerador para producir mostras seguindo unha distribución uniforme de clases. A avaliación do sistema lévase a cabo mediante unha metodoloxía específica para este dominio que analiza o FID, a Precisión e a Recuperación (Recall) empregando un modelo avaliador multiespectral feito a medida. Os resultados experimentais sobre oito conxuntos de datos de concas fluviais demostran que o método proposto acada unha Exactitude Media (AA) do 90,4%, superando notablemente ás referencias habituais (ResNet, ViT) e a outros sistemas previos baseados en GAN (ResBaGAN, EffBaGAN) en escenarios con poucos datos.
Na clasificación de imaxes de teledetección de alta resolución mediante aprendizaxe profunda, é frecuente atopar desafíos derivados da escaseza de datos e do forte desequilibrio entre clases. Para abordar estas limitacións, este traballo propón unha adaptación unificada da arquitectura StyleGAN3 deseñada para sintetizar e clasificar imaxes multiespectrais. O método integra un módulo de clasificación denso no discriminador, dotándoo dunha dobre funcionalidade, e implementa unha estratexia de adestramento adversaria equilibrada na que se condiciona ao xerador para producir mostras seguindo unha distribución uniforme de clases. A avaliación do sistema lévase a cabo mediante unha metodoloxía específica para este dominio que analiza o FID, a Precisión e a Recuperación (Recall) empregando un modelo avaliador multiespectral feito a medida. Os resultados experimentais sobre oito conxuntos de datos de concas fluviais demostran que o método proposto acada unha Exactitude Media (AA) do 90,4%, superando notablemente ás referencias habituais (ResNet, ViT) e a outros sistemas previos baseados en GAN (ResBaGAN, EffBaGAN) en escenarios con poucos datos.
Dirección
Argüello Pedreira, Francisco Santiago (Titoría)
Blanco Heras, Dora Cotitoría
Argüello Pedreira, Francisco Santiago (Titoría)
Blanco Heras, Dora Cotitoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vogal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vogal)
Deseño e implementación dun módulo de agregación de alertas en contornos de ciberseguridade empregando aprendizaxe automática
Autoría
R.G.B.
Máster Universitario en Intelixencia Artificial
R.G.B.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.02.2026 10:00
18.02.2026 10:00
Resumo
Os Centros de Operacións de Seguridade (SOCs) enfróntanse a unha crecente fatiga por alertas debido ao alto volume de alertas xeradas polos sistemas de seguridade modernos e á prevalencia de falsos positivos, o que impacta negativamente na eficiencia dos analistas e na resposta a incidentes. Esta Tese de Mestrado aborda este desafío propoñendo e avaliando un módulo xenérico e configurable de agregación de alertas desenvolvido no marco do proxecto SafeNet UEBA, co obxectivo de reducir o volume de alertas mantendo a súa estrutura e interpretabilidade. O módulo integra múltiples estratexias de agregación, incluíndo Mapas Autoorganizados (SOM) e agrupamento HDBSCAN, combinados opcionalmente con UMAP para a redución de dimensionalidade e a visualización. Admite tanto modos de agregación simples como híbridos e segue o paradigma de Arquitectura Limpa, garantindo modularidade, extensibilidade e aplicabilidade máis alá do contexto de SafeNet UEBA. Os resultados experimentais en diversos conxuntos de datos de ciberseguridade amosan que o enfoque proposto acada altas taxas de redución de alertas mantendo unha forte calidade de agrupamento. Ademais do rendemento cuantitativo, o sistema fornece saídas orientadas aos analistas, como visualizacións, resumos de explicabilidade e métricas, apoiando a obtención de coñecemento accionable en contornos SOC onde non se dispoñen de datos etiquetados.
Os Centros de Operacións de Seguridade (SOCs) enfróntanse a unha crecente fatiga por alertas debido ao alto volume de alertas xeradas polos sistemas de seguridade modernos e á prevalencia de falsos positivos, o que impacta negativamente na eficiencia dos analistas e na resposta a incidentes. Esta Tese de Mestrado aborda este desafío propoñendo e avaliando un módulo xenérico e configurable de agregación de alertas desenvolvido no marco do proxecto SafeNet UEBA, co obxectivo de reducir o volume de alertas mantendo a súa estrutura e interpretabilidade. O módulo integra múltiples estratexias de agregación, incluíndo Mapas Autoorganizados (SOM) e agrupamento HDBSCAN, combinados opcionalmente con UMAP para a redución de dimensionalidade e a visualización. Admite tanto modos de agregación simples como híbridos e segue o paradigma de Arquitectura Limpa, garantindo modularidade, extensibilidade e aplicabilidade máis alá do contexto de SafeNet UEBA. Os resultados experimentais en diversos conxuntos de datos de ciberseguridade amosan que o enfoque proposto acada altas taxas de redución de alertas mantendo unha forte calidade de agrupamento. Ademais do rendemento cuantitativo, o sistema fornece saídas orientadas aos analistas, como visualizacións, resumos de explicabilidade e métricas, apoiando a obtención de coñecemento accionable en contornos SOC onde non se dispoñen de datos etiquetados.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Titoría)
Piñón Blanco, Camilo Cotitoría
CARIÑENA AMIGO, MARIA PURIFICACION (Titoría)
Piñón Blanco, Camilo Cotitoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vogal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vogal)
Fluxo de traballo automatizado para a exploración de predictores de fibrilación auricular baseados en TC
Autoría
M.I.Z.
Máster Universitario en Intelixencia Artificial
M.I.Z.
Máster Universitario en Intelixencia Artificial
Data da defensa
19.02.2026 11:15
19.02.2026 11:15
Resumo
A fibrilación auricular (FA) é a arritmia cardíaca máis prevalecente, con todo, a súa detección temperá segue sendo un desafío clínico significativo debido á súa natureza frecuentemente asintomática. Unha vez diagnosticada, a ablación con catéter considérase un tratamento fundamental. Con todo, as taxas de recorrencia seguen sendo altas, debido a unha remodelación complexa e específica do paciente que dificulta enormemente a súa predición. Aínda que existen diversos marcadores prognósticos, o consenso clínico limítase en gran medida ao volume auricular esquerdo global. Ademais, a extracción de marcadores avanzados da tomografía computarizada (TC) de alta resolución require moito traballo e é propensa á variabilidade interobservador. Este traballo aborda estas limitacións ao propoñer un proceso computacional integral e totalmente automatizado para cuantificar os marcadores anatómicos que, segundo a literatura, son os máis significativos para caracterizar o substrato da FA a partir de tomografías computarizadas. Empregamos un marco de aprendizaxe profunda autoconfigurable, adestrado no conxunto de datos público ImageCAS, para segmentar a aurícula dereita (AD), a aurícula esquerda (AI), a orejuela auricular esquerda (OAI) e as veas pulmonares (VP). Un módulo de posprocesamento xeométrico automatiza a extracción dun panel predictor, volumetría global (volumes de AI, AD e OAI), estimación de forma (esfericidade de AI), índices de remodelación rexional (volume posterior de AI, relación de volume posteroanterior (RPVA)) e topoloxía de VP (perímetros ostiales individuais e distancias interostiales). O proceso probouse nunha cohorte local de 30 pacientes con FA do Hospital Clinico Universitario de Santiago (CHUS), obtendo unha puntuación Dice de media móbil exponencial de segmentación de 0.9592 no conxunto de validación de ImageCAS. A análise automatizada capturou perfís de remodelación avanzados, incluíndo un volume medio de AI de 117.29 mL, un volume medio de AD de 139.31 mL e un volume medio de OAI de 10.49 mL. A análise de forma identificou unha mediana de LASP do 85.08 por cento, unha mediana de volume posterior da aurícula esquerda de 36.31 ml e unha mediana de PAVR do 38.81 por cento, e identificou variantes anatómicas como troncos comúns esquerdos no 33 por cento dos casos. Este marco simplifica la transición entre os datos de imaxe brutos e a estratificación cuantitativa dos pacientes, ofreciendo unha solución escalable que pode estenderse a cohortes moito máis grandes para aplicar métodos de análise estatística máis avanzados.
A fibrilación auricular (FA) é a arritmia cardíaca máis prevalecente, con todo, a súa detección temperá segue sendo un desafío clínico significativo debido á súa natureza frecuentemente asintomática. Unha vez diagnosticada, a ablación con catéter considérase un tratamento fundamental. Con todo, as taxas de recorrencia seguen sendo altas, debido a unha remodelación complexa e específica do paciente que dificulta enormemente a súa predición. Aínda que existen diversos marcadores prognósticos, o consenso clínico limítase en gran medida ao volume auricular esquerdo global. Ademais, a extracción de marcadores avanzados da tomografía computarizada (TC) de alta resolución require moito traballo e é propensa á variabilidade interobservador. Este traballo aborda estas limitacións ao propoñer un proceso computacional integral e totalmente automatizado para cuantificar os marcadores anatómicos que, segundo a literatura, son os máis significativos para caracterizar o substrato da FA a partir de tomografías computarizadas. Empregamos un marco de aprendizaxe profunda autoconfigurable, adestrado no conxunto de datos público ImageCAS, para segmentar a aurícula dereita (AD), a aurícula esquerda (AI), a orejuela auricular esquerda (OAI) e as veas pulmonares (VP). Un módulo de posprocesamento xeométrico automatiza a extracción dun panel predictor, volumetría global (volumes de AI, AD e OAI), estimación de forma (esfericidade de AI), índices de remodelación rexional (volume posterior de AI, relación de volume posteroanterior (RPVA)) e topoloxía de VP (perímetros ostiales individuais e distancias interostiales). O proceso probouse nunha cohorte local de 30 pacientes con FA do Hospital Clinico Universitario de Santiago (CHUS), obtendo unha puntuación Dice de media móbil exponencial de segmentación de 0.9592 no conxunto de validación de ImageCAS. A análise automatizada capturou perfís de remodelación avanzados, incluíndo un volume medio de AI de 117.29 mL, un volume medio de AD de 139.31 mL e un volume medio de OAI de 10.49 mL. A análise de forma identificou unha mediana de LASP do 85.08 por cento, unha mediana de volume posterior da aurícula esquerda de 36.31 ml e unha mediana de PAVR do 38.81 por cento, e identificou variantes anatómicas como troncos comúns esquerdos no 33 por cento dos casos. Este marco simplifica la transición entre os datos de imaxe brutos e a estratificación cuantitativa dos pacientes, ofreciendo unha solución escalable que pode estenderse a cohortes moito máis grandes para aplicar métodos de análise estatística máis avanzados.
Dirección
NUÑEZ GARCIA, MARTA (Titoría)
Rodríguez Mañero, Moises Cotitoría
NUÑEZ GARCIA, MARTA (Titoría)
Rodríguez Mañero, Moises Cotitoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vogal)
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vogal)
Unha análise comparativa das estratexias de integración de LLM e grafos de coñecemento no ámbito médico
Autoría
A.L.C.
Máster Universitario en Intelixencia Artificial
A.L.C.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.02.2026 10:30
18.02.2026 10:30
Resumo
Os Grandes Modelos de Linguaxe (LLM) demostraron capacidades notables na comprensión da linguaxe natural, pero a súa aplicación en dominios de alto risco como a medicina clínica vese dificultada polas alucinacións e a falta de coñecemento actualizado específico do dominio. Os Grafos de Coñecemento (KG) ofrecen feitos estruturados e verificables que poden fundamentar estes modelos, pero a arquitectura óptima para esta integración segue sendo unha pregunta de investigación aberta. Este traballo presenta unha análise comparativa exhaustiva de tres estratexias de integración distintas: (1) Xeración Aumentada de Recuperación (RAG) que avalía tanto a busca léxica como a semántica, (2) Axuste Fino Eficiente en Parámetros (LoRA) nas definicións de ontoloxías e (3) Un novo Marco de Razoamento Multietapa. Centrados especificamente no dominio cardiovascular, estes enfoques avaliáronse utilizando a Ontoloxía de Enfermidades Cardiovasculares (CVDO) e un subconxunto especificamente seleccionado do conxunto de datos MedMCQA, filtrado por Recoñecemento de Entidades Nomeadas (GLINER) para garantir a relevancia do dominio co contexto da ontoloxía. Os resultados indicaron resultados mixtos dependendo da capacidade do modelo, onde a estratexia proposta de CoT aumentada con recuperación (RA-CoT) alcanzou unha precisión máxima global (93,23%) nun modelo de última xeración. Isto suxire que permitir pasos de razoamento intermedios nos modelos é fundamental e que a combinación do razoamento en varias etapas coa base de coñecemento externo pode producir o mellor rendemento no noso contexto para preguntas de opción múltiple complexas ao estilo dun exame clínico.
Os Grandes Modelos de Linguaxe (LLM) demostraron capacidades notables na comprensión da linguaxe natural, pero a súa aplicación en dominios de alto risco como a medicina clínica vese dificultada polas alucinacións e a falta de coñecemento actualizado específico do dominio. Os Grafos de Coñecemento (KG) ofrecen feitos estruturados e verificables que poden fundamentar estes modelos, pero a arquitectura óptima para esta integración segue sendo unha pregunta de investigación aberta. Este traballo presenta unha análise comparativa exhaustiva de tres estratexias de integración distintas: (1) Xeración Aumentada de Recuperación (RAG) que avalía tanto a busca léxica como a semántica, (2) Axuste Fino Eficiente en Parámetros (LoRA) nas definicións de ontoloxías e (3) Un novo Marco de Razoamento Multietapa. Centrados especificamente no dominio cardiovascular, estes enfoques avaliáronse utilizando a Ontoloxía de Enfermidades Cardiovasculares (CVDO) e un subconxunto especificamente seleccionado do conxunto de datos MedMCQA, filtrado por Recoñecemento de Entidades Nomeadas (GLINER) para garantir a relevancia do dominio co contexto da ontoloxía. Os resultados indicaron resultados mixtos dependendo da capacidade do modelo, onde a estratexia proposta de CoT aumentada con recuperación (RA-CoT) alcanzou unha precisión máxima global (93,23%) nun modelo de última xeración. Isto suxire que permitir pasos de razoamento intermedios nos modelos é fundamental e que a combinación do razoamento en varias etapas coa base de coñecemento externo pode producir o mellor rendemento no noso contexto para preguntas de opción múltiple complexas ao estilo dun exame clínico.
Dirección
CHAVES FRAGA, DAVID (Titoría)
BUGARIN DIZ, ALBERTO JOSE Cotitoría
LAMA PENIN, MANUEL Cotitoría
CHAVES FRAGA, DAVID (Titoría)
BUGARIN DIZ, ALBERTO JOSE Cotitoría
LAMA PENIN, MANUEL Cotitoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vogal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vogal)
hEArT: Un marco baseado na aprendizaxe profunda para a cuantificación automatizada do Tecido Adiposo Epicárdico en escáneres de TC multimodais e multiescala.
Autoría
O.N.M.J.
Máster Universitario en Intelixencia Artificial
O.N.M.J.
Máster Universitario en Intelixencia Artificial
Data da defensa
19.02.2026 11:45
19.02.2026 11:45
Resumo
O Tecido Adiposo Epicárdico (TAE) é cada vez máis recoñecido como un factor significativo na fisiopatoloxía de diversas enfermidades cardiovasculares, o que suxire que a súa cuantificación precisa podería ter un alto valor clínico. Non obstante, a dependencia actual da segmentación manual a partir de escáneres de Tomografía Computadorizada (TC) presenta desafíos en canto a eficiencia e reprodutibilidade, o que limita potencialmente a súa ampla aplicación en contornas de investigación e clínicas. Esta tese presenta o marco hEArT (heart Epicardial Adipose Tissue), un novidoso fluxo de traballo de aprendizaxe profunda totalmente automatizado, destinado a abordar as complexidades da cuantificación do TAE en escáneres de TC multimodais e multiescala. Propoñemos un enfoque arquitectónico de xeneralista a especialista para a segmentación do pericardio, deseñado para delinear os límites anatómicos necesarios para illar o TAE. Este proceso implica a utilización dun modelo fundacional a gran escala para estimar o límite do pericardio e mitigar os problemas relacionados co desprazamento de dominio, seguido da aplicación dun modelo corrector especializado deseñado para mellorar a precisión anatómica no resultado final. Ademais, a diferenza da segmentación convencional de TAE que utiliza a limiarización de imaxes con valores fixos de Unidades Hounsfield, o noso método estima limiares específicos para cada imaxe baseados en Modelos de Mestura Gaussiana. A análise comparativa suxire que este método personalizado pode ofrecer vantaxes sobre o estado da arte actual. O noso marco foi avaliado utilizando un conxunto heteroxéneo de datos clínicos do mundo real para valorar a súa consistencia e precisión en relación con estándares de referencia semiautomatizados. Cabe destacar que, ademais de ser totalmente automatizado, o sistema hEArt calculou volumes de TAE que mostraron correlacións máis fortes cun panel de marcadores biolóxicos relacionados coa graxa que os obtidos mediante métodos estándar. Estes achados suxiren que o marco proposto podería servir como unha ferramenta escalable e obxectiva, facilitando potencialmente unha investigación clínica máis extensa sobre a relevancia biolóxica do TAE.
O Tecido Adiposo Epicárdico (TAE) é cada vez máis recoñecido como un factor significativo na fisiopatoloxía de diversas enfermidades cardiovasculares, o que suxire que a súa cuantificación precisa podería ter un alto valor clínico. Non obstante, a dependencia actual da segmentación manual a partir de escáneres de Tomografía Computadorizada (TC) presenta desafíos en canto a eficiencia e reprodutibilidade, o que limita potencialmente a súa ampla aplicación en contornas de investigación e clínicas. Esta tese presenta o marco hEArT (heart Epicardial Adipose Tissue), un novidoso fluxo de traballo de aprendizaxe profunda totalmente automatizado, destinado a abordar as complexidades da cuantificación do TAE en escáneres de TC multimodais e multiescala. Propoñemos un enfoque arquitectónico de xeneralista a especialista para a segmentación do pericardio, deseñado para delinear os límites anatómicos necesarios para illar o TAE. Este proceso implica a utilización dun modelo fundacional a gran escala para estimar o límite do pericardio e mitigar os problemas relacionados co desprazamento de dominio, seguido da aplicación dun modelo corrector especializado deseñado para mellorar a precisión anatómica no resultado final. Ademais, a diferenza da segmentación convencional de TAE que utiliza a limiarización de imaxes con valores fixos de Unidades Hounsfield, o noso método estima limiares específicos para cada imaxe baseados en Modelos de Mestura Gaussiana. A análise comparativa suxire que este método personalizado pode ofrecer vantaxes sobre o estado da arte actual. O noso marco foi avaliado utilizando un conxunto heteroxéneo de datos clínicos do mundo real para valorar a súa consistencia e precisión en relación con estándares de referencia semiautomatizados. Cabe destacar que, ademais de ser totalmente automatizado, o sistema hEArt calculou volumes de TAE que mostraron correlacións máis fortes cun panel de marcadores biolóxicos relacionados coa graxa que os obtidos mediante métodos estándar. Estes achados suxiren que o marco proposto podería servir como unha ferramenta escalable e obxectiva, facilitando potencialmente unha investigación clínica máis extensa sobre a relevancia biolóxica do TAE.
Dirección
NUÑEZ GARCIA, MARTA (Titoría)
Eiras Penas, Sonia Cotitoría
NUÑEZ GARCIA, MARTA (Titoría)
Eiras Penas, Sonia Cotitoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vogal)
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vogal)
Avaliación ambiental da produción de biolípidos a partir de lodos de depuradora con Yarrowia lipolytica aplicando a metodoloxía de Análise de Ciclo de Vida no contexto da economía circular
Autoría
M.M.F.
Máster Universitario en Enxeñaría Química e Bioprocesos (2ª ed)
M.M.F.
Máster Universitario en Enxeñaría Química e Bioprocesos (2ª ed)
Data da defensa
19.02.2026 11:30
19.02.2026 11:30
Resumo
A análise integrada dos impactos ambientais e económicos adquire un papel fundamental na definición de estratexias aliñadas cos principios da economía circular, especialmente no que se refire á procura de procesos de biorefinería orientados á xeración de produtos de base biolóxica que permitan reducir o uso de recursos fósiles e favorecer a transición cara a sistemas produtivos máis sostibles. Neste marco, o presente traballo avalía de forma integral a viabilidade técnica, económica e ambiental dun proceso de valorización de lodos de depuradora orientado á obtención de biolípidos mediante o cultivo da léveda oleaxinosa Yarrowia lipolytica, enmarcado nun enfoque de biorefinería. O proceso foi escalado a partir de datos experimentais de laboratorio ata un escenario de escala industrial mediante a súa modelaxe no software SuperPro Designer, permitindo a simulación das distintas operacións unitarias e a estimación dos principais fluxos de materia e enerxía. A partir do modelo desenvolvido, levouse a cabo unha análise tecno-económica preliminar baseada en indicadores clásicos, como o valor actual neto e o período de retorno do investimento, co obxectivo de avaliar a viabilidade económica do proceso baixo os supostos considerados. De maneira complementaria, aplicouse un Análise do Ciclo de Vida de tipo cradle-to-gate, desenvolvido conforme ás normas ISO 14040 e ISO 14044 mediante o software SimaPro, orientada á cuantificación dos impactos ambientais asociados ao proceso global, así como ao produto principal e ao subproduto xerado, e á identificación dos principais puntos críticos do sistema. Adicionalmente, realizouse unha análise de sensibilidade centrada na avaliación de escenarios alternativos orientados a mellorar o desempeño ambiental do proceso. O estudo complétase co cálculo de indicadores ambientais, de circularidade e de valorización de residuos, que permiten contextualizar o desempeño do biolípido e do subproduto fronte ás súas respectivas alternativas convencionais. Os resultados obtidos evidencian o potencial do proceso analizado, tanto desde o punto de vista tecnoeconómico como ambiental, amosando un comportamento comparable ao das alternativas convencionais consideradas e situándose como unha estratexia coherente cos principios da economía circular
A análise integrada dos impactos ambientais e económicos adquire un papel fundamental na definición de estratexias aliñadas cos principios da economía circular, especialmente no que se refire á procura de procesos de biorefinería orientados á xeración de produtos de base biolóxica que permitan reducir o uso de recursos fósiles e favorecer a transición cara a sistemas produtivos máis sostibles. Neste marco, o presente traballo avalía de forma integral a viabilidade técnica, económica e ambiental dun proceso de valorización de lodos de depuradora orientado á obtención de biolípidos mediante o cultivo da léveda oleaxinosa Yarrowia lipolytica, enmarcado nun enfoque de biorefinería. O proceso foi escalado a partir de datos experimentais de laboratorio ata un escenario de escala industrial mediante a súa modelaxe no software SuperPro Designer, permitindo a simulación das distintas operacións unitarias e a estimación dos principais fluxos de materia e enerxía. A partir do modelo desenvolvido, levouse a cabo unha análise tecno-económica preliminar baseada en indicadores clásicos, como o valor actual neto e o período de retorno do investimento, co obxectivo de avaliar a viabilidade económica do proceso baixo os supostos considerados. De maneira complementaria, aplicouse un Análise do Ciclo de Vida de tipo cradle-to-gate, desenvolvido conforme ás normas ISO 14040 e ISO 14044 mediante o software SimaPro, orientada á cuantificación dos impactos ambientais asociados ao proceso global, así como ao produto principal e ao subproduto xerado, e á identificación dos principais puntos críticos do sistema. Adicionalmente, realizouse unha análise de sensibilidade centrada na avaliación de escenarios alternativos orientados a mellorar o desempeño ambiental do proceso. O estudo complétase co cálculo de indicadores ambientais, de circularidade e de valorización de residuos, que permiten contextualizar o desempeño do biolípido e do subproduto fronte ás súas respectivas alternativas convencionais. Os resultados obtidos evidencian o potencial do proceso analizado, tanto desde o punto de vista tecnoeconómico como ambiental, amosando un comportamento comparable ao das alternativas convencionais consideradas e situándose como unha estratexia coherente cos principios da economía circular
Dirección
MOREIRA VILAR, MARIA TERESA (Titoría)
MOREIRA VILAR, MARIA TERESA (Titoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vogal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vogal)
Predeseño dun sistema de recuperación de calor dos fornos de produción de carbón vexetal e comparación con sistemas de quecemento con biomasa ou gas natural
Autoría
J.M.R.
Máster Universitario en Enxeñaría Química e Bioprocesos (2ª ed)
J.M.R.
Máster Universitario en Enxeñaría Química e Bioprocesos (2ª ed)
Data da defensa
19.02.2026 12:00
19.02.2026 12:00
Resumo
A produción de carbón vexetal constitúe hoxe en día unha alternativa estratéxica no contexto da descarbonización e da transición cara a materias primas renovables. Este recurso, empregado como axente reductor na fabricación de ferroaleacións como o ferrosilicio, presenta unha menor pegada ambiental respecto ao carbón mineral. Porén, o proceso produtivo do carbón vexetal inclúe etapas cun elevado consumo enerxético, entre as que destaca o secado previo da madeira. Esta fase resulta esencial para garantir un bo rendemento na pirólise, mais supón unha importante demanda térmica que adoita cubrirse mediante caldeiras de biomasa ou gas natural, solucións convencionais cun impacto económico e ambiental significativo. Ao mesmo tempo, os fornos de pirólise xeran gases de combustión a alta temperatura cun notable contido enerxético que, en configuracións tradicionais, se liberan directamente á atmosfera sen ningún tipo de aproveitamento. Esta situación abre unha oportunidade clara para integrar un sistema de recuperación de calor que permita reducir o consumo de combustibles auxiliares e mellorar a eficiencia global da planta. Este Traballo Fin de Mestrado analiza diversas alternativas para o quentamento da auga empregada no secado da madeira, comparando tres opcións: caldeira de biomasa, caldeira de gas natural e recuperación de calor dos fornos. Para iso, realízanse balances enerxéticos, estimacións de custos, análise ambiental e un predeseño da solución seleccionada, incluíndo dimensionamento preliminar e elección de materiais. O estudo conclúe cunha avaliación técnica, económica e ambiental das alternativas, identificando a opción máis viable para a súa integración na futura planta de produción de carbón vexetal.
A produción de carbón vexetal constitúe hoxe en día unha alternativa estratéxica no contexto da descarbonización e da transición cara a materias primas renovables. Este recurso, empregado como axente reductor na fabricación de ferroaleacións como o ferrosilicio, presenta unha menor pegada ambiental respecto ao carbón mineral. Porén, o proceso produtivo do carbón vexetal inclúe etapas cun elevado consumo enerxético, entre as que destaca o secado previo da madeira. Esta fase resulta esencial para garantir un bo rendemento na pirólise, mais supón unha importante demanda térmica que adoita cubrirse mediante caldeiras de biomasa ou gas natural, solucións convencionais cun impacto económico e ambiental significativo. Ao mesmo tempo, os fornos de pirólise xeran gases de combustión a alta temperatura cun notable contido enerxético que, en configuracións tradicionais, se liberan directamente á atmosfera sen ningún tipo de aproveitamento. Esta situación abre unha oportunidade clara para integrar un sistema de recuperación de calor que permita reducir o consumo de combustibles auxiliares e mellorar a eficiencia global da planta. Este Traballo Fin de Mestrado analiza diversas alternativas para o quentamento da auga empregada no secado da madeira, comparando tres opcións: caldeira de biomasa, caldeira de gas natural e recuperación de calor dos fornos. Para iso, realízanse balances enerxéticos, estimacións de custos, análise ambiental e un predeseño da solución seleccionada, incluíndo dimensionamento preliminar e elección de materiais. O estudo conclúe cunha avaliación técnica, económica e ambiental das alternativas, identificando a opción máis viable para a súa integración na futura planta de produción de carbón vexetal.
Dirección
RODIL RODRIGUEZ, EVA (Titoría)
Vázquez Varela, Alfonso Cotitoría
RODIL RODRIGUEZ, EVA (Titoría)
Vázquez Varela, Alfonso Cotitoría
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vogal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vogal)
VISTA (Intelixencia Visual para o Adestramento e a Avaliación Baseados en Escenas)
Autoría
M.O.N.
Máster Universitario en Intelixencia Artificial
M.O.N.
Máster Universitario en Intelixencia Artificial
Data da defensa
19.02.2026 12:15
19.02.2026 12:15
Resumo
A medida que a poboación mundial envellece, a demanda de intervencións non farmacolóxicas e escalables para o devalar cognitivo intensificouse. Esta Traballo de Fin de Mestrado presenta VISTA VISTA (Intelixencia Visual para o Adestramento e a Avaliación Baseados en Escenas), un marco novidoso que integra o razoamento visual neuro-simbólico co Aprendizaxe por Reforzo (RL) para ofrecer un adestramento cognitivo adaptativo. Esta Tese de Mestrado propón unha arquitectura de dobre motor: un motor de percepción que utiliza unha rede modificada de Aliñamento de Consistencia Multimodal Consciente do Contexto para xerar exercicios baseados en feitos a partir de escenas visuais, e un motor de titoría impulsado por unha Rede Q Profunda (DQN) que axusta dinamicamente a dificultade do currículo. A avaliación cuantitativa nun conxunto de datos personalizado baseado en CLEVR revela que o mecanismo de atención por similitude de cosenos acada unha precisión do 95.15%, superando significativamente as liñas de base estándar en tarefas de razoamento lóxico complexo. Ademais, o axente de titoría de RL demostra unha adaptabilidade robusta, personalizando eficazmente as traxectorias de aprendizaxe para perfís de usuarios con dificultades, estándar e talentosos sen programación explícita baseada en regras. A experimentación e validación do sistema levouse a cabo nunha contorna simulada, o que permite a reproducibilidade dos resultados obtidos.
A medida que a poboación mundial envellece, a demanda de intervencións non farmacolóxicas e escalables para o devalar cognitivo intensificouse. Esta Traballo de Fin de Mestrado presenta VISTA VISTA (Intelixencia Visual para o Adestramento e a Avaliación Baseados en Escenas), un marco novidoso que integra o razoamento visual neuro-simbólico co Aprendizaxe por Reforzo (RL) para ofrecer un adestramento cognitivo adaptativo. Esta Tese de Mestrado propón unha arquitectura de dobre motor: un motor de percepción que utiliza unha rede modificada de Aliñamento de Consistencia Multimodal Consciente do Contexto para xerar exercicios baseados en feitos a partir de escenas visuais, e un motor de titoría impulsado por unha Rede Q Profunda (DQN) que axusta dinamicamente a dificultade do currículo. A avaliación cuantitativa nun conxunto de datos personalizado baseado en CLEVR revela que o mecanismo de atención por similitude de cosenos acada unha precisión do 95.15%, superando significativamente as liñas de base estándar en tarefas de razoamento lóxico complexo. Ademais, o axente de titoría de RL demostra unha adaptabilidade robusta, personalizando eficazmente as traxectorias de aprendizaxe para perfís de usuarios con dificultades, estándar e talentosos sen programación explícita baseada en regras. A experimentación e validación do sistema levouse a cabo nunha contorna simulada, o que permite a reproducibilidade dos resultados obtidos.
Dirección
CATALA BOLOS, ALEJANDRO (Titoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotitoría
CATALA BOLOS, ALEJANDRO (Titoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotitoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vogal)
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vogal)
Estratexias para a xestión das emisións de gases de efecto invernadoiro na rexión fronteiriza de San Diego, California e Tijuana, Baixa California. Impacto da mobilidade urbana e a integración de tecnoloxías limpas
Autoría
E.P.A.
Máster Universitario en Enxeñaría Ambiental (3ª ed)
E.P.A.
Máster Universitario en Enxeñaría Ambiental (3ª ed)
Data da defensa
23.02.2026 13:00
23.02.2026 13:00
Resumo
Tijuana, México, e San Diego, EUA: dous países, dous estados, unha rexión. A miúdo chamadas erroneamente cidades xemelgas, comparten non só historia, cultura e tradición, senón tamén importantes desafíos económicos, políticos e ambientais, un dos cales é o foco principal desta investigación: a calidade do aire, a saúde pública e a súa correlación cos gases de efecto invernadoiro (GEI). Ambas as dúas cidades, como centros de alta actividade industrial (industria maquiladora) e tráfico vehicular, son responsables dunha proporción significativa destas emisións. Aínda que a súa interacción diaria obriga a centos de miles de persoas a cruzar a fronteira diariamente por diversas razóns e por diferentes medios, comparar os efectos destes gases en ambas as cidades é inevitable. Estudar as emisións de gases de efecto invernadoiro en dúas cidades tan próximas como Tijuana e San Diego permítenos comprender como os contextos urbanos inflúen no seu impacto ambiental. Sen dúbida, estas dúas cidades proporcionan un marco ideal para analizar factores como o crecemento da poboación, a mobilidade, a actividade industrial e as políticas públicas e cooperativas e a súa influencia na xeración de emisións contaminantes. Este estudo ten como obxectivo identificar as principais fontes de emisións de gases de efecto invernadoiro na rexión, así como avaliar e comparar as diferentes estratexias de mitigación implementadas e identificar as mellores prácticas que se poidan replicar e adaptar entre as dúas cidades, fortalecendo así a cooperación bilateral.
Tijuana, México, e San Diego, EUA: dous países, dous estados, unha rexión. A miúdo chamadas erroneamente cidades xemelgas, comparten non só historia, cultura e tradición, senón tamén importantes desafíos económicos, políticos e ambientais, un dos cales é o foco principal desta investigación: a calidade do aire, a saúde pública e a súa correlación cos gases de efecto invernadoiro (GEI). Ambas as dúas cidades, como centros de alta actividade industrial (industria maquiladora) e tráfico vehicular, son responsables dunha proporción significativa destas emisións. Aínda que a súa interacción diaria obriga a centos de miles de persoas a cruzar a fronteira diariamente por diversas razóns e por diferentes medios, comparar os efectos destes gases en ambas as cidades é inevitable. Estudar as emisións de gases de efecto invernadoiro en dúas cidades tan próximas como Tijuana e San Diego permítenos comprender como os contextos urbanos inflúen no seu impacto ambiental. Sen dúbida, estas dúas cidades proporcionan un marco ideal para analizar factores como o crecemento da poboación, a mobilidade, a actividade industrial e as políticas públicas e cooperativas e a súa influencia na xeración de emisións contaminantes. Este estudo ten como obxectivo identificar as principais fontes de emisións de gases de efecto invernadoiro na rexión, así como avaliar e comparar as diferentes estratexias de mitigación implementadas e identificar as mellores prácticas que se poidan replicar e adaptar entre as dúas cidades, fortalecendo así a cooperación bilateral.
Dirección
HOSPIDO QUINTANA, ALMUDENA (Titoría)
HOSPIDO QUINTANA, ALMUDENA (Titoría)
Tribunal
Omil Prieto, Francisco (Presidente/a)
OTERO PEREZ, XOSE LOIS (Secretario/a)
GONZALEZ GARCIA, SARA (Vogal)
Omil Prieto, Francisco (Presidente/a)
OTERO PEREZ, XOSE LOIS (Secretario/a)
GONZALEZ GARCIA, SARA (Vogal)
Protobiome: redes prototípicas para a clasificación multiclase few-shot do microbioma oral
Autoría
E.P.V.
Máster Universitario en Intelixencia Artificial
E.P.V.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.02.2026 11:00
18.02.2026 11:00
Resumo
Os conxuntos de datos do microbioma oral caracterízanse por unha alta dimensionalidade, dispersión e propiedades composicionais, o que a miúdo leva a unha xeneralización deficiente nos modelos tradicionais de aprendizaxe automática en contornos con poucos datos. Neste traballo, presentamos Protobiome, un marco de traballo que utiliza redes prototípicas para a clasificación multiclase con poucas mostras en nichos salivais, subxinxivais e supraxinxivais. O noso enfoque integra preprocesamento especializado, selección de características e aumentado de datos adaptado ao espazo simplex. Os resultados amosan que as redes prototípicas superan significativamente aos modelos de última xeración, como XGBoost, na detección de clases minoritarias. Para as mostras de saliva, o noso modelo acadou unha puntuación F1 de 0,958 para a xenxivite con precisión e especificidade perfectas, empregando menos de 20 mostras. A análise de explicabilidade usando UMAP e SHAP confirma que o modelo identifica unha xerarquía microbiana coherente, con variantes de secuencias de amplicóns (ASVs) servindo como indicadores discriminativos do estado do paciente. Este estudo demostra que o aprendizaxe baseado en métricas con datos limitados proporciona unha base robusta e interpretable para o diagnóstico clínico non invasivo.
Os conxuntos de datos do microbioma oral caracterízanse por unha alta dimensionalidade, dispersión e propiedades composicionais, o que a miúdo leva a unha xeneralización deficiente nos modelos tradicionais de aprendizaxe automática en contornos con poucos datos. Neste traballo, presentamos Protobiome, un marco de traballo que utiliza redes prototípicas para a clasificación multiclase con poucas mostras en nichos salivais, subxinxivais e supraxinxivais. O noso enfoque integra preprocesamento especializado, selección de características e aumentado de datos adaptado ao espazo simplex. Os resultados amosan que as redes prototípicas superan significativamente aos modelos de última xeración, como XGBoost, na detección de clases minoritarias. Para as mostras de saliva, o noso modelo acadou unha puntuación F1 de 0,958 para a xenxivite con precisión e especificidade perfectas, empregando menos de 20 mostras. A análise de explicabilidade usando UMAP e SHAP confirma que o modelo identifica unha xerarquía microbiana coherente, con variantes de secuencias de amplicóns (ASVs) servindo como indicadores discriminativos do estado do paciente. Este estudo demostra que o aprendizaxe baseado en métricas con datos limitados proporciona unha base robusta e interpretable para o diagnóstico clínico non invasivo.
Dirección
VILA BLANCO, NICOLAS (Titoría)
TOMAS CARMONA, INMACULADA Cotitoría
LAMAS PEREZ, JOSE MANUEL Cotitoría
VILA BLANCO, NICOLAS (Titoría)
TOMAS CARMONA, INMACULADA Cotitoría
LAMAS PEREZ, JOSE MANUEL Cotitoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vogal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vogal)
Estimación monocular da pose 6D de obxectos para aplicacións de realidade mixta
Autoría
D.P.
Máster Universitario en Visión por Computador
D.P.
Máster Universitario en Visión por Computador
Data da defensa
04.02.2026 09:50
04.02.2026 09:50
Resumo
Este informe de tese de mestrado presenta unha canle completa para a estimación da pose de obxectos 6D en tempo real nun hardware de realidade mixta independente, concretamente as lentes Meta Quest 3. A diferenza da detección de obxectos 2D tradicional, a estimación da pose 6D recupera tanto a posición 3D como as orientacións 3D dun obxecto. Permite unha comprensión espacial precisa que é crucial para as aplicacións de realidade mixta, como a guía de montaxe, a accesibilidade e o entretemento. Este traballo aproveita a API Passthrough Camera de Meta, lanzada recentemente, para implementar tarefas de visión por computador directamente no dispositivo. O sistema proposto consta de tres compoñentes principais: (1) unha canle de xeración de datos sintéticos procedurais que utiliza Python e Blender para crear imaxes de adestramento fotorrealistas con anotacións 6D perfectas para píxeles; (2) unha implementación da arquitectura lixeira YOLOX-6D-Pose optimizada para a inferencia de bordos; e (3) unha aplicación de realidade mixta baseada en Unity que utiliza o motor de inferencia Unity Sentis. Os resultados experimentais demostran unha transferencia Sim-to-Real exitosa, conseguindo unha recuperación media (AR) do BOP do 62,79 % en datos do mundo real sen usar imaxes de adestramento reais. O estudo de ablación confirma que a aleatorización de dominios é importante e mellora o rendemento en máis dun 12 %. Ademais, a cuantización dinámica de INT8 reduciu o tamaño do modelo en arredor dun 75 % e a latencia de inferencia a 201 ms con moi pouca perda de precisión. Este traballo valida a posibilidade de realizar unha estimación de pose 6D en cascos de realidade virtual de consumo, abrindo o camiño para aplicacións de RM espacialmente conscientes en moitas aplicacións diferentes.
Este informe de tese de mestrado presenta unha canle completa para a estimación da pose de obxectos 6D en tempo real nun hardware de realidade mixta independente, concretamente as lentes Meta Quest 3. A diferenza da detección de obxectos 2D tradicional, a estimación da pose 6D recupera tanto a posición 3D como as orientacións 3D dun obxecto. Permite unha comprensión espacial precisa que é crucial para as aplicacións de realidade mixta, como a guía de montaxe, a accesibilidade e o entretemento. Este traballo aproveita a API Passthrough Camera de Meta, lanzada recentemente, para implementar tarefas de visión por computador directamente no dispositivo. O sistema proposto consta de tres compoñentes principais: (1) unha canle de xeración de datos sintéticos procedurais que utiliza Python e Blender para crear imaxes de adestramento fotorrealistas con anotacións 6D perfectas para píxeles; (2) unha implementación da arquitectura lixeira YOLOX-6D-Pose optimizada para a inferencia de bordos; e (3) unha aplicación de realidade mixta baseada en Unity que utiliza o motor de inferencia Unity Sentis. Os resultados experimentais demostran unha transferencia Sim-to-Real exitosa, conseguindo unha recuperación media (AR) do BOP do 62,79 % en datos do mundo real sen usar imaxes de adestramento reais. O estudo de ablación confirma que a aleatorización de dominios é importante e mellora o rendemento en máis dun 12 %. Ademais, a cuantización dinámica de INT8 reduciu o tamaño do modelo en arredor dun 75 % e a latencia de inferencia a 201 ms con moi pouca perda de precisión. Este traballo valida a posibilidade de realizar unha estimación de pose 6D en cascos de realidade virtual de consumo, abrindo o camiño para aplicacións de RM espacialmente conscientes en moitas aplicacións diferentes.
Dirección
FLORES GONZALEZ, JULIAN CARLOS (Titoría)
Glowacki , David Ryan Cotitoría
FLORES GONZALEZ, JULIAN CARLOS (Titoría)
Glowacki , David Ryan Cotitoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vogal)
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vogal)
Deseño e validación dun asistente conversacional fiable apoiado en técnicas de xeración aumentada mediante recuperación.
Autoría
D.R.M.
Máster Universitario en Intelixencia Artificial
D.R.M.
Máster Universitario en Intelixencia Artificial
Data da defensa
03.02.2026 13:00
03.02.2026 13:00
Resumo
Os Grandes Modelos de Linguaxe (LLMs) demostraron capacidades notables para comprender e xerar linguaxe natural. Non obstante, o seu uso en campos sensibles como a medicina ou o dereito suscita dúbidas sobre a súa fiabilidade, transparencia e confianza. En resposta a estes desafíos, xurdiron técnicas de Xeración Aumentada de Recuperación (RAG) para basear os resultados xerados en datos documentais fiables. Esta tese de máster propón unha arquitectura RAG que amplía o fluxo de traballo básico integrando múltiples mecanismos de protección, incluíndo un módulo de verificación de consultas para detectar preguntas fóra de dominio, un sistema de recuperación multifonte xunto con mecanismos de refinamento do coñecemento para optimizar a extracción de información da base de coñecemento e un módulo de Cadea de Pensamento para mellorar as capacidades de razoamento do modelo xerador. Nos tres experimentos realizados, os resultados demostran que a inclusión de cada mecanismo de protección mellora o rendemento do sistema en diferentes contornas. En concreto, a arquitectura proposta rexeita con maior precisión as consultas fóra de dominio e mellora a eficiencia da recuperación en comparación cos sistemas de recuperación amplamente utilizados, como BM25. Tamén consegue un mellor rendemento nas tarefas de resposta a preguntas de opción múltiple e verificación de datos a través do seu deseño de almacenamento vectorial dual e o módulo de cadea de pensamento.
Os Grandes Modelos de Linguaxe (LLMs) demostraron capacidades notables para comprender e xerar linguaxe natural. Non obstante, o seu uso en campos sensibles como a medicina ou o dereito suscita dúbidas sobre a súa fiabilidade, transparencia e confianza. En resposta a estes desafíos, xurdiron técnicas de Xeración Aumentada de Recuperación (RAG) para basear os resultados xerados en datos documentais fiables. Esta tese de máster propón unha arquitectura RAG que amplía o fluxo de traballo básico integrando múltiples mecanismos de protección, incluíndo un módulo de verificación de consultas para detectar preguntas fóra de dominio, un sistema de recuperación multifonte xunto con mecanismos de refinamento do coñecemento para optimizar a extracción de información da base de coñecemento e un módulo de Cadea de Pensamento para mellorar as capacidades de razoamento do modelo xerador. Nos tres experimentos realizados, os resultados demostran que a inclusión de cada mecanismo de protección mellora o rendemento do sistema en diferentes contornas. En concreto, a arquitectura proposta rexeita con maior precisión as consultas fóra de dominio e mellora a eficiencia da recuperación en comparación cos sistemas de recuperación amplamente utilizados, como BM25. Tamén consegue un mellor rendemento nas tarefas de resposta a preguntas de opción múltiple e verificación de datos a través do seu deseño de almacenamento vectorial dual e o módulo de cadea de pensamento.
Dirección
ALONSO MORAL, JOSE MARIA (Titoría)
CATALA BOLOS, ALEJANDRO Cotitoría
ALONSO MORAL, JOSE MARIA (Titoría)
CATALA BOLOS, ALEJANDRO Cotitoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vogal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vogal)
Descarbonización de procesos intensivos en enerxía mediante análise de ciclo de vida: secadeiro de madeira con vapor sobrequentado
Autoría
S.R.P.
Máster Universitario en Enxeñaría Ambiental (3ª ed)
S.R.P.
Máster Universitario en Enxeñaría Ambiental (3ª ed)
Data da defensa
23.02.2026 12:30
23.02.2026 12:30
Resumo
A etapa de secado de madeireira caracterízase por un alto consumo enerxético, que representa arredor do 60% do total da industria. O secado en fornos (kiln drying) é a tecnoloxía dominante para reducir o contido de humidade nas pranchas e acadar os estándares industriais. Actualmente, a maioría dos fornos empregan procesos de combustión para a xeración de calor, polo que o desenvolvemento de alternativas máis eficientes e electrificadas resulta chave para diminuír as emisións directas do sector. O TFM enfocouse no deseño dun kiln dryer que, en lugar de aire quente, empregue vapor sobrequentado como medio de secado. Esta tecnoloxía emerxente pode reducir de forma notable as emisións de carbono grazas a dous mecanismos: (1) a recuperación do calor latente da auga evaporada nas pranchas, mediante un aumento de presión e un intercambiador de calor, e (2) a posibilidade de electrificar a xeración e recuperación de calor a través de tecnoloxías como Mechanical Vapor Recompression ou bombas de calor. Desenvolveuse un modelo matemático en Python para simular a transferencia de calor e masa no secado, avaliando as condicións de operación e a evolución do contido de humidade na pila de madeira. Paralelamente, o sistema de recuperación de calor foi simulado en Aspen PLUS. Finalmente, avaliouse a redución da pegada de carbono e o perfil ambiental mediante Análise de Ciclo de Vida, comparando o proceso convencional segundo datos bibliográficos e/ou simulados.
A etapa de secado de madeireira caracterízase por un alto consumo enerxético, que representa arredor do 60% do total da industria. O secado en fornos (kiln drying) é a tecnoloxía dominante para reducir o contido de humidade nas pranchas e acadar os estándares industriais. Actualmente, a maioría dos fornos empregan procesos de combustión para a xeración de calor, polo que o desenvolvemento de alternativas máis eficientes e electrificadas resulta chave para diminuír as emisións directas do sector. O TFM enfocouse no deseño dun kiln dryer que, en lugar de aire quente, empregue vapor sobrequentado como medio de secado. Esta tecnoloxía emerxente pode reducir de forma notable as emisións de carbono grazas a dous mecanismos: (1) a recuperación do calor latente da auga evaporada nas pranchas, mediante un aumento de presión e un intercambiador de calor, e (2) a posibilidade de electrificar a xeración e recuperación de calor a través de tecnoloxías como Mechanical Vapor Recompression ou bombas de calor. Desenvolveuse un modelo matemático en Python para simular a transferencia de calor e masa no secado, avaliando as condicións de operación e a evolución do contido de humidade na pila de madeira. Paralelamente, o sistema de recuperación de calor foi simulado en Aspen PLUS. Finalmente, avaliouse a redución da pegada de carbono e o perfil ambiental mediante Análise de Ciclo de Vida, comparando o proceso convencional segundo datos bibliográficos e/ou simulados.
Dirección
MOREIRA VILAR, MARIA TERESA (Titoría)
FEIJOO COSTA, GUMERSINDO Cotitoría
MOREIRA VILAR, MARIA TERESA (Titoría)
FEIJOO COSTA, GUMERSINDO Cotitoría
Tribunal
Omil Prieto, Francisco (Presidente/a)
OTERO PEREZ, XOSE LOIS (Secretario/a)
GONZALEZ GARCIA, SARA (Vogal)
Omil Prieto, Francisco (Presidente/a)
OTERO PEREZ, XOSE LOIS (Secretario/a)
GONZALEZ GARCIA, SARA (Vogal)
Cara a unha xestión sostible da pesca nos mares Atlántico e Mediterráneo: un marco de avaliación de servizos ecosistémicos
Autoría
R.R.S.
Máster Universitario en Enxeñaría Química e Bioprocesos (2ª ed)
R.R.S.
Máster Universitario en Enxeñaría Química e Bioprocesos (2ª ed)
Data da defensa
19.02.2026 12:30
19.02.2026 12:30
Resumo
A sustentabilidade da pesca extractiva constitúe un reto prioritario nun contexto de intensificación das presións sobre os ecosistemas mariños e os recursos pesqueiros. Afrontar este desafío require enfoques de avaliación integrados que permitan caracterizar non só o desempeño ambiental das pesqueiras, senón tamén as dimensións socioeconómica e de gobernanza que condicionan a súa viabilidade a longo prazo. Neste marco, o presente traballo desenvolve un marco integral de indicadores orientado a avaliar a sustentabilidade da actividade pesqueira desde unha perspectiva ecosistémica. O marco proposto constrúese a partir da integración de fontes científicas e técnico-institucionais de referencia sobre a actividade pesqueira e artéllase mediante unha estrutura xerárquica que permite integrar información procedente de diferentes niveis de análise. Este enfoque facilita unha lectura conxunta e coherente dos resultados, reforza a súa interpretabilidade e mellora a utilidade do marco como ferramenta de apoio aos procesos de avaliación e á toma de decisións no ámbito da xestión pesqueira. A aplicabilidade do marco demóstrase mediante a súa aplicación en dúas rexións mariñas europeas con contextos ecolóxicos e de xestión contrastados: o Golfo de Biscaia e a Costa Ibérica Atlántica, e o Mediterráneo Occidental. A análise desenvólvese combinando unha avaliación integral da pesca a escala rexional cunha avaliación a escala de especie para tres poboacións representativas. Os resultados evidencian diferenzas rexionais significativas en termos de sustentabilidade. O Golfo de Biscaia e a Costa Ibérica Atlántica presentan, en xeral, un estado máis favorable dos recursos, asociado a unha maior produtividade dos stocks e a un mellor desempeño socioeconómico. En contraste, o Mediterráneo Occidental presenta un desempeño ambiental menos favorable, con presións máis intensas sobre os recursos e situacións especialmente comprometidas para determinadas poboacións, como a pescada europea. En conxunto, os resultados demostran a capacidade do marco de indicadores para identificar puntos críticos de sustentabilidade, comparar o desempeño entre rexións e achegar evidencia para o deseño e axuste de políticas pesqueiras baseadas en criterios científicos. O enfoque integrado adoptado permite dispoñer dunha base analítica coherente para o seguimento do sector e para orientar estratexias de xestión adaptativa destinadas a reforzar a resiliencia dos ecosistemas mariños e dos sistemas pesqueiros.
A sustentabilidade da pesca extractiva constitúe un reto prioritario nun contexto de intensificación das presións sobre os ecosistemas mariños e os recursos pesqueiros. Afrontar este desafío require enfoques de avaliación integrados que permitan caracterizar non só o desempeño ambiental das pesqueiras, senón tamén as dimensións socioeconómica e de gobernanza que condicionan a súa viabilidade a longo prazo. Neste marco, o presente traballo desenvolve un marco integral de indicadores orientado a avaliar a sustentabilidade da actividade pesqueira desde unha perspectiva ecosistémica. O marco proposto constrúese a partir da integración de fontes científicas e técnico-institucionais de referencia sobre a actividade pesqueira e artéllase mediante unha estrutura xerárquica que permite integrar información procedente de diferentes niveis de análise. Este enfoque facilita unha lectura conxunta e coherente dos resultados, reforza a súa interpretabilidade e mellora a utilidade do marco como ferramenta de apoio aos procesos de avaliación e á toma de decisións no ámbito da xestión pesqueira. A aplicabilidade do marco demóstrase mediante a súa aplicación en dúas rexións mariñas europeas con contextos ecolóxicos e de xestión contrastados: o Golfo de Biscaia e a Costa Ibérica Atlántica, e o Mediterráneo Occidental. A análise desenvólvese combinando unha avaliación integral da pesca a escala rexional cunha avaliación a escala de especie para tres poboacións representativas. Os resultados evidencian diferenzas rexionais significativas en termos de sustentabilidade. O Golfo de Biscaia e a Costa Ibérica Atlántica presentan, en xeral, un estado máis favorable dos recursos, asociado a unha maior produtividade dos stocks e a un mellor desempeño socioeconómico. En contraste, o Mediterráneo Occidental presenta un desempeño ambiental menos favorable, con presións máis intensas sobre os recursos e situacións especialmente comprometidas para determinadas poboacións, como a pescada europea. En conxunto, os resultados demostran a capacidade do marco de indicadores para identificar puntos críticos de sustentabilidade, comparar o desempeño entre rexións e achegar evidencia para o deseño e axuste de políticas pesqueiras baseadas en criterios científicos. O enfoque integrado adoptado permite dispoñer dunha base analítica coherente para o seguimento do sector e para orientar estratexias de xestión adaptativa destinadas a reforzar a resiliencia dos ecosistemas mariños e dos sistemas pesqueiros.
Dirección
MOREIRA VILAR, MARIA TERESA (Titoría)
MOREIRA VILAR, MARIA TERESA (Titoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vogal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vogal)
Evaluación de ferramentas de aceleración de redes neurais e técnicas de optimización para despregamentos na periferia baseados en FPGA
Autoría
Y.S.I.
Máster Universitario en Intelixencia Artificial
Y.S.I.
Máster Universitario en Intelixencia Artificial
Data da defensa
18.02.2026 17:30
18.02.2026 17:30
Resumo
A demanda industrial para implementar modelos de redes neuronais eficientes en sistemas periféricos baseados en FPGA motiva este traballo, no que o rendemento e a eficiencia enerxética son restricións fundamentais. Para abordar este reto, desenvolveuse e avaliou un fluxo de optimización unificado que integra a poda one-step, o reentrenamento, a cuantificación INT8 posterior ao adestramento e a compilación a FPGA utilizando AMD Vitis AI. O proceso avalíase en tres modelos representativos que abarcan tarefas de visión artificial e procesamento da linguaxe natural. Utilízanse ResNet-18 e ENet para avaliar o impacto de poda e a cuantificación nos modelos orientados á visión, mentres que se inclúe BERT-Large para avaliar a aplicabilidade do fluxo de traballo máis aló das arquitecturas convolucionales. Os resultados experimentais mostran que a poda estruturada mellora significativamente o rendemento da FPGA e a eficiencia enerxética dos modelos de visión, con ResNet-18 aumentando o rendemento de 418,02 a 637,98 FPS (+52,6 %) e mellorando a eficiencia enerxética de 12,3 a 20,4 FPS/W. No caso de ENet, a poda e a cuantificación INT8 melloran o rendemento ao lado do servidor de 27,61 a 34,25 FPS (+24,0 %) cunha redución de 1,10 puntos no mIoU (do 93,43 % ao 92,33 %), mentres que a execución a dobre fío na FPGA alcanza ata 17,22 FPS e 0,65 FPS/W fronte aos 12,81 FPS e 0,44 FPS/W do modelo base. Pola contra, aínda que a cuantificación INT8 preserva a precisión de BERT-Large na servidor, a compilación a FPGA non se pode completar debido ao soporte limitado do compilador para operadores específicos do transformador. Estes resultados poñen en evidencia que a avaliación por parte do servidor por si soa pode ser insuficiente para caracterizar a eficiencia da implementación, o que motiva a realización de medicións a nivel de hardware. Aínda que a poda e a cuantificación melloran eficazmente o rendemento integrado dos modelos de visión, a implementación de transformadores en FPGA segue estando limitada pola compilación e o soporte das operacións.
A demanda industrial para implementar modelos de redes neuronais eficientes en sistemas periféricos baseados en FPGA motiva este traballo, no que o rendemento e a eficiencia enerxética son restricións fundamentais. Para abordar este reto, desenvolveuse e avaliou un fluxo de optimización unificado que integra a poda one-step, o reentrenamento, a cuantificación INT8 posterior ao adestramento e a compilación a FPGA utilizando AMD Vitis AI. O proceso avalíase en tres modelos representativos que abarcan tarefas de visión artificial e procesamento da linguaxe natural. Utilízanse ResNet-18 e ENet para avaliar o impacto de poda e a cuantificación nos modelos orientados á visión, mentres que se inclúe BERT-Large para avaliar a aplicabilidade do fluxo de traballo máis aló das arquitecturas convolucionales. Os resultados experimentais mostran que a poda estruturada mellora significativamente o rendemento da FPGA e a eficiencia enerxética dos modelos de visión, con ResNet-18 aumentando o rendemento de 418,02 a 637,98 FPS (+52,6 %) e mellorando a eficiencia enerxética de 12,3 a 20,4 FPS/W. No caso de ENet, a poda e a cuantificación INT8 melloran o rendemento ao lado do servidor de 27,61 a 34,25 FPS (+24,0 %) cunha redución de 1,10 puntos no mIoU (do 93,43 % ao 92,33 %), mentres que a execución a dobre fío na FPGA alcanza ata 17,22 FPS e 0,65 FPS/W fronte aos 12,81 FPS e 0,44 FPS/W do modelo base. Pola contra, aínda que a cuantificación INT8 preserva a precisión de BERT-Large na servidor, a compilación a FPGA non se pode completar debido ao soporte limitado do compilador para operadores específicos do transformador. Estes resultados poñen en evidencia que a avaliación por parte do servidor por si soa pode ser insuficiente para caracterizar a eficiencia da implementación, o que motiva a realización de medicións a nivel de hardware. Aínda que a poda e a cuantificación melloran eficazmente o rendemento integrado dos modelos de visión, a implementación de transformadores en FPGA segue estando limitada pola compilación e o soporte das operacións.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Titoría)
Losada Sanisidro, Pablo Cotitoría
Febles Rodríguez, Adriana Cotitoría
TABOADA IGLESIAS, MARÍA JESÚS (Titoría)
Losada Sanisidro, Pablo Cotitoría
Febles Rodríguez, Adriana Cotitoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vogal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vogal)
Predición de Scanpath a partir de pistas implícitas en eye-tracking ruidoso
Autoría
L.U.F.
Máster Universitario en Visión por Computador
L.U.F.
Máster Universitario en Visión por Computador
Data da defensa
04.02.2026 09:30
04.02.2026 09:30
Resumo
O seguimento ocular é unha ferramenta vital para a investigación psicolóxica e psicofisiolóxica; non obstante, a obtención de datos fiables require normalmente equipos caros e ambientes de laboratorio controlados. Aínda que se desenvolveron alternativas máis accesibles, a miúdo carecen da precisión e as taxas de mostraxe necesarias para un estudo científico rigoroso. Neste traballo, propoñemos un modelo que integra datos de seguimento ocular ruidosos e de baixa taxa de mostraxe con características de imaxes de estímulos para reconstruír secuencias de centroides de fixación e as súas duracións correspondentes. O noso enfoque ten como obxectivo producir datos que manteñan as propiedades estatísticas dos sistemas de seguimento de alta gama. Para conseguilo, utilizamos o conxunto de datos CocoFreeView para xerar mostras realistas de seguimento ocular e desenvolvemos un modelo de ruído que simula as características dos seguidores oculares comerciais amplamente utilizados. Finalmente, aproveitamos unha arquitectura baseada en Transformer cun codificador de imaxes DINOv3 para recuperar a información de fixación orixinal.
O seguimento ocular é unha ferramenta vital para a investigación psicolóxica e psicofisiolóxica; non obstante, a obtención de datos fiables require normalmente equipos caros e ambientes de laboratorio controlados. Aínda que se desenvolveron alternativas máis accesibles, a miúdo carecen da precisión e as taxas de mostraxe necesarias para un estudo científico rigoroso. Neste traballo, propoñemos un modelo que integra datos de seguimento ocular ruidosos e de baixa taxa de mostraxe con características de imaxes de estímulos para reconstruír secuencias de centroides de fixación e as súas duracións correspondentes. O noso enfoque ten como obxectivo producir datos que manteñan as propiedades estatísticas dos sistemas de seguimento de alta gama. Para conseguilo, utilizamos o conxunto de datos CocoFreeView para xerar mostras realistas de seguimento ocular e desenvolvemos un modelo de ruído que simula as características dos seguidores oculares comerciais amplamente utilizados. Finalmente, aproveitamos unha arquitectura baseada en Transformer cun codificador de imaxes DINOv3 para recuperar a información de fixación orixinal.
Dirección
CORES COSTA, DANIEL (Titoría)
CORES COSTA, DANIEL (Titoría)
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vogal)
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vogal)