Predicción de puntuación en baloncesto mediante el análisis de variables clave en tiros a canasta para evaluar el rendimiento de un jugador/equipo.
Autoría
O.F.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
O.F.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2024 16:00
15.07.2024 16:00
Resumen
En este trabajo se presenta un nuevo módulo destinado a enriquecer la aplicación utilizada por el Monbus Obradoiro (equipo de baloncesto de Santiago de Compostela y participante en la temporada 2023/2024 en la Liga Endesa ACB) para analizar el rendimiento de sus jugadores y de los equipos rivales. El desarrollo del proyecto se ha llevado a cabo en colaboración con el equipo de baloncesto mencionado y la empresa DXC Technology. El módulo propuesto consiste en un modelo de predicción de puntos para un partido que se basa en las características de los tiros a canasta acontecidos en el encuentro, de tal modo que la aplicación principal del modelo sea contrastar el rendimiento real con el rendimiento esperado. El proyecto toma como inspiración y referencia la métrica expected goals (xG) empleada en fútbol, y es una aproximación de la extrapolación de esta métrica a otro deporte (el baloncesto).
En este trabajo se presenta un nuevo módulo destinado a enriquecer la aplicación utilizada por el Monbus Obradoiro (equipo de baloncesto de Santiago de Compostela y participante en la temporada 2023/2024 en la Liga Endesa ACB) para analizar el rendimiento de sus jugadores y de los equipos rivales. El desarrollo del proyecto se ha llevado a cabo en colaboración con el equipo de baloncesto mencionado y la empresa DXC Technology. El módulo propuesto consiste en un modelo de predicción de puntos para un partido que se basa en las características de los tiros a canasta acontecidos en el encuentro, de tal modo que la aplicación principal del modelo sea contrastar el rendimiento real con el rendimiento esperado. El proyecto toma como inspiración y referencia la métrica expected goals (xG) empleada en fútbol, y es una aproximación de la extrapolación de esta métrica a otro deporte (el baloncesto).
Dirección
Losada Carril, David Enrique (Tutoría)
Sanz Anchelergues, Adolfo Cotutoría
Losada Carril, David Enrique (Tutoría)
Sanz Anchelergues, Adolfo Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
López Martínez, Paula (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
López Martínez, Paula (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
Análisis del impacto en la explicabilidad de un modelo LLM mediante Knowledge Graphs
Autoría
O.F.F.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
O.F.F.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2024 18:00
15.07.2024 18:00
Resumen
En esta memoria presentaremos los grafos de conocimiento como una herramienta para mejorar la explicabilidad de los Large Language Models a través de la integración de grafos de conocimiento y LLMs. Para probar su efectividad, lo aplicaremos a un caso de aplicación en medicina: el proyecto InnovaTrial, del Servizo Galego de Saúde en colaboración con la empresa NTTData.
En esta memoria presentaremos los grafos de conocimiento como una herramienta para mejorar la explicabilidad de los Large Language Models a través de la integración de grafos de conocimiento y LLMs. Para probar su efectividad, lo aplicaremos a un caso de aplicación en medicina: el proyecto InnovaTrial, del Servizo Galego de Saúde en colaboración con la empresa NTTData.
Dirección
FELIX LAMAS, PAULO (Tutoría)
Kreibel , Denis Cotutoría
FELIX LAMAS, PAULO (Tutoría)
Kreibel , Denis Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
López Martínez, Paula (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
López Martínez, Paula (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
Segmentación Semántica de Imágenes de Teledetección Multiespectrales Mediante Transformers
Autoría
P.C.G.
Máster Universitario en Inteligencia Artificial
P.C.G.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
19.07.2024 10:30
19.07.2024 10:30
Resumen
La segmentación semántica para la observación de la Tierra es un proceso que consiste en clasificar cada píxel de una imagen en categorías predefinidas. En el caso de las imágenes de teledetección utilizadas en el análisis de la cobertura y el uso del suelo, la segmentación facilita el análisis y la comprensión mediante la identificación de elementos como masas de agua, vegetación, zonas urbanas y carreteras. El deep learning, en particular los transformers, han supuesto un gran avance en el campo de la segmentación semántica de imágenes de teledetección, arrojando resultados significativamente mejores que las técnicas anteriores debido a su alta capacidad de generalización y adaptabilidad a diferentes propiedades de las imágenes. En este trabajo, un modelo de segmentación semántica, Mask2Former, que ha sido desarrollado para la segmentación semántica de imágenes RGB, es adaptado para ser utilizado sobre imágenes multiespectrales. Mask2Former se basa en transformers y realiza la segmentación semántica asignando máscaras a las clases de elementos presentes en la imagen. Las imágenes multiespectrales de 4 bandas consideradas son las contenidas en el conjunto de datos Five Billion Pixels y capturadas por el satélite Gaofen-2. Los modelos entrenados con el Mask2Former propuesto para imágenes multiespectrales se compararon con modelos entrenados con el Mask2Former original utilizando sólo las bandas RGB, así como con los métodos más avanzados de la bibliografía. Los resultados demostraron las ventajas de utilizar imágenes multiespectrales en términos de métricas estándar como la precisión global y el IoU.
La segmentación semántica para la observación de la Tierra es un proceso que consiste en clasificar cada píxel de una imagen en categorías predefinidas. En el caso de las imágenes de teledetección utilizadas en el análisis de la cobertura y el uso del suelo, la segmentación facilita el análisis y la comprensión mediante la identificación de elementos como masas de agua, vegetación, zonas urbanas y carreteras. El deep learning, en particular los transformers, han supuesto un gran avance en el campo de la segmentación semántica de imágenes de teledetección, arrojando resultados significativamente mejores que las técnicas anteriores debido a su alta capacidad de generalización y adaptabilidad a diferentes propiedades de las imágenes. En este trabajo, un modelo de segmentación semántica, Mask2Former, que ha sido desarrollado para la segmentación semántica de imágenes RGB, es adaptado para ser utilizado sobre imágenes multiespectrales. Mask2Former se basa en transformers y realiza la segmentación semántica asignando máscaras a las clases de elementos presentes en la imagen. Las imágenes multiespectrales de 4 bandas consideradas son las contenidas en el conjunto de datos Five Billion Pixels y capturadas por el satélite Gaofen-2. Los modelos entrenados con el Mask2Former propuesto para imágenes multiespectrales se compararon con modelos entrenados con el Mask2Former original utilizando sólo las bandas RGB, así como con los métodos más avanzados de la bibliografía. Los resultados demostraron las ventajas de utilizar imágenes multiespectrales en términos de métricas estándar como la precisión global y el IoU.
Dirección
ORDOÑEZ IGLESIAS, ALVARO (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
ORDOÑEZ IGLESIAS, ALVARO (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
Tribunal
LAMA PENIN, MANUEL (Presidente/a)
CONDORI FERNANDEZ, NELLY (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
LAMA PENIN, MANUEL (Presidente/a)
CONDORI FERNANDEZ, NELLY (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Análisis de datos financieros a gran escala para la extracción de patrones de gasto y predicciones de comportamiento
Autoría
M.P.R.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
M.P.R.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2024 10:00
16.07.2024 10:00
Resumen
El propósito central de este Trabajo de Fin de Máster es llevar a cabo un análisis exhaustivo del comportamiento de los usuarios de entidades bancarias mediante la revisión detallada de una amplia cantidad de transacciones bancarias. El objetivo primordial radica, pues, en comprender los patrones de consumo, anticipar tendencias financieras y, en consecuencia, perfeccionar la personalización de los servicios bancarios ofrecidos. De manera más específica, en la práctica se ha seleccionado un subconjunto de interés de datos transaccionales y se han explorado diversas estrategias de análisis, procesamiento y agregación de los movimientos realizados por los usuarios para los siguientes propósitos. El primero de ellos, descubrir información relevante que permita agrupar a los usuarios de forma homogénea según sus patrones de gasto y permita buscar similitudes y características relevantes de cada grupo y, el segundo de ellos, hacer uso de algoritmos de aprendizaje supervisado para predecir si un usuario será afín a la contratación de un determinado servicio, o no.
El propósito central de este Trabajo de Fin de Máster es llevar a cabo un análisis exhaustivo del comportamiento de los usuarios de entidades bancarias mediante la revisión detallada de una amplia cantidad de transacciones bancarias. El objetivo primordial radica, pues, en comprender los patrones de consumo, anticipar tendencias financieras y, en consecuencia, perfeccionar la personalización de los servicios bancarios ofrecidos. De manera más específica, en la práctica se ha seleccionado un subconjunto de interés de datos transaccionales y se han explorado diversas estrategias de análisis, procesamiento y agregación de los movimientos realizados por los usuarios para los siguientes propósitos. El primero de ellos, descubrir información relevante que permita agrupar a los usuarios de forma homogénea según sus patrones de gasto y permita buscar similitudes y características relevantes de cada grupo y, el segundo de ellos, hacer uso de algoritmos de aprendizaje supervisado para predecir si un usuario será afín a la contratación de un determinado servicio, o no.
Dirección
Sánchez Vila, Eduardo Manuel (Tutoría)
Barba Seara, Óscar Cotutoría
Fortes González, Daniel Cotutoría
Sánchez Vila, Eduardo Manuel (Tutoría)
Barba Seara, Óscar Cotutoría
Fortes González, Daniel Cotutoría
Tribunal
Losada Carril, David Enrique (Presidente/a)
Blanco Heras, Dora (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Losada Carril, David Enrique (Presidente/a)
Blanco Heras, Dora (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Desarrollo de algoritmos de active learning para la mejora de modelos de detección de Deepfake
Autoría
A.J.L.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.J.L.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2024 16:30
15.07.2024 16:30
Resumen
En este trabajo se investigó el desarrollo de algoritmos de Aprendizaje Activo (Active Learning) para la mejora de modelos de detección de deep fakes. Para ello, se revisó el estado del arte en técnicas de Aprendizaje Activo y detección de deep fakes, y se utilizaron las herramientas MMFlow y DVC sobre el conjunto de datos CelebDF (v2) para realizar comparaciones y entrenar modelos adaptados a la detección de deep fakes. Los resultados obtenidos indicaron que las técnicas de Aprendizaje Activo mejoran significativamente la precisión y eficiencia de los modelos de detección de deepfakes en comparación con los métodos tradicionales. Sin embargo, también se observó que la complejidad computacional y el tiempo de entrenamiento pueden aumentar, aunque este incremento se ve compensado por la mejora en la capacidad de los modelos para detectar deep fakes en contextos con grandes volúmenes de datos y variabilidad. Este trabajo destaca la viabilidad y efectividad del Aprendizaje Activo como una solución prometedora para optimizar los procesos de detección de deep fakes, ofreciendo una herramienta valiosa para abordar los desafíos de seguridad, privacidad y desinformación en la era digital.
En este trabajo se investigó el desarrollo de algoritmos de Aprendizaje Activo (Active Learning) para la mejora de modelos de detección de deep fakes. Para ello, se revisó el estado del arte en técnicas de Aprendizaje Activo y detección de deep fakes, y se utilizaron las herramientas MMFlow y DVC sobre el conjunto de datos CelebDF (v2) para realizar comparaciones y entrenar modelos adaptados a la detección de deep fakes. Los resultados obtenidos indicaron que las técnicas de Aprendizaje Activo mejoran significativamente la precisión y eficiencia de los modelos de detección de deepfakes en comparación con los métodos tradicionales. Sin embargo, también se observó que la complejidad computacional y el tiempo de entrenamiento pueden aumentar, aunque este incremento se ve compensado por la mejora en la capacidad de los modelos para detectar deep fakes en contextos con grandes volúmenes de datos y variabilidad. Este trabajo destaca la viabilidad y efectividad del Aprendizaje Activo como una solución prometedora para optimizar los procesos de detección de deep fakes, ofreciendo una herramienta valiosa para abordar los desafíos de seguridad, privacidad y desinformación en la era digital.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Morera Pérez, Juan José Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Morera Pérez, Juan José Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Sistema de automatización de generación de dimensiones en un modelo dimensional
Autoría
R.F.I.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
R.F.I.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2024 17:30
15.07.2024 17:30
Resumen
En este TFM se desarrolla una herramienta que automatiza la creación de dimensiones en un modelo dimensional. El modelo dimensional es una técnica de diseño de bases de datos que se orienta hacia la consulta y análisis de grandes cantidades de datos. En este contexto, una dimensión es una tabla de la base de datos que actúa como categoría o atributo para describir los datos que se van a analizar y sobre la que se realizan las acciones de agrupación y filtrado de la información. El proyecto está compuesto por una aplicación web que facilita al usuario final la creación de este tipo de dimensiones y de otra parte que se encarga del mantenimiento y actualización de los datos de las dimensiones. El sistema para crear las dimensiones consiste en una aplicación web a la que los usuarios se pueden conectar para transformar la información de una base de datos fuente a un formato dimensional en una base de datos destino. El sistema facilita la conexión con ambas bases de datos y también proporciona una interfaz sencilla para seleccionar los datos de interés de la base de datos fuente y la configuración de las diferentes opciones que existen a la hora de definir una dimensión. Los requisitos de actualización de información e historificación condicionan el diseño de las dimensiones. En concreto, se establecen diferentes tipos de dimensiones según las técnicas de actualización a aplicar. En este proyecto se ha creado una tarea que se encarga de insertar nuevos datos o modificar los ya existentes en la base de datos destino dependiendo de si ha habido cambios en la base de datos fuente. Esta tarea se puede programar para que se ejecute periódicamente según las necesidades de los usuarios.
En este TFM se desarrolla una herramienta que automatiza la creación de dimensiones en un modelo dimensional. El modelo dimensional es una técnica de diseño de bases de datos que se orienta hacia la consulta y análisis de grandes cantidades de datos. En este contexto, una dimensión es una tabla de la base de datos que actúa como categoría o atributo para describir los datos que se van a analizar y sobre la que se realizan las acciones de agrupación y filtrado de la información. El proyecto está compuesto por una aplicación web que facilita al usuario final la creación de este tipo de dimensiones y de otra parte que se encarga del mantenimiento y actualización de los datos de las dimensiones. El sistema para crear las dimensiones consiste en una aplicación web a la que los usuarios se pueden conectar para transformar la información de una base de datos fuente a un formato dimensional en una base de datos destino. El sistema facilita la conexión con ambas bases de datos y también proporciona una interfaz sencilla para seleccionar los datos de interés de la base de datos fuente y la configuración de las diferentes opciones que existen a la hora de definir una dimensión. Los requisitos de actualización de información e historificación condicionan el diseño de las dimensiones. En concreto, se establecen diferentes tipos de dimensiones según las técnicas de actualización a aplicar. En este proyecto se ha creado una tarea que se encarga de insertar nuevos datos o modificar los ya existentes en la base de datos destino dependiendo de si ha habido cambios en la base de datos fuente. Esta tarea se puede programar para que se ejecute periódicamente según las necesidades de los usuarios.
Dirección
Fernández Pena, Anselmo Tomás (Tutoría)
Graña Omil, Ángel Cotutoría
Fernández Pena, Anselmo Tomás (Tutoría)
Graña Omil, Ángel Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Aprendizaje automático versus modelos econométricos: ¿Cuál es el mejor para predecir decisiones en turismo?
Autoría
S.I.V.R.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
S.I.V.R.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
13.09.2024 16:30
13.09.2024 16:30
Resumen
El presente trabajo de fin de máster se propone comparar la eficacia de los modelos de aprendizaje automático y los modelos econométricos tradicionales en la predicción de decisiones en el sector turístico, específicamente en las rutas del Camino de Santiago. El trabajo se realiza en el contexto del proyecto “Comparing the Performance of Choice-Based Models: A Culture Evaluation” que está desarrollando por el doctor Yago Atrio Lema bajo la dirección del profesor Eduardo Sánchez. A través de una revisión de literatura y el análisis de datos recolectados entre 2003 y 2023, se evalúan y comparan diferentes modelos predictivos. El estudio incluye el preprocesamiento de datos, la selección de hiperparámetros, y la utilización de métricas específicas para medir el rendimiento de los modelos. Los resultados indican que los modelos de aprendizaje automático, aunque complejos, ofrecen una alta capacidad predictiva que puede complementar y, en algunos casos, superar a los modelos econométricos tradicionales.
El presente trabajo de fin de máster se propone comparar la eficacia de los modelos de aprendizaje automático y los modelos econométricos tradicionales en la predicción de decisiones en el sector turístico, específicamente en las rutas del Camino de Santiago. El trabajo se realiza en el contexto del proyecto “Comparing the Performance of Choice-Based Models: A Culture Evaluation” que está desarrollando por el doctor Yago Atrio Lema bajo la dirección del profesor Eduardo Sánchez. A través de una revisión de literatura y el análisis de datos recolectados entre 2003 y 2023, se evalúan y comparan diferentes modelos predictivos. El estudio incluye el preprocesamiento de datos, la selección de hiperparámetros, y la utilización de métricas específicas para medir el rendimiento de los modelos. Los resultados indican que los modelos de aprendizaje automático, aunque complejos, ofrecen una alta capacidad predictiva que puede complementar y, en algunos casos, superar a los modelos econométricos tradicionales.
Dirección
Sánchez Vila, Eduardo Manuel (Tutoría)
Sánchez Vila, Eduardo Manuel (Tutoría)
Tribunal
Fernández Pena, Anselmo Tomás (Presidente/a)
MOSQUERA GONZALEZ, ANTONIO (Secretario/a)
Triñanes Fernández, Joaquín Ángel (Vocal)
Fernández Pena, Anselmo Tomás (Presidente/a)
MOSQUERA GONZALEZ, ANTONIO (Secretario/a)
Triñanes Fernández, Joaquín Ángel (Vocal)
Impacto de los incendios forestales sobre la biodisponibilidad del fósforo en ambientes de sabana sometidos a incendios recurrentes en el Parque Nacional de Kruger (Sudáfrica)
Autoría
A.V.L.
Máster Universitario en Ingeniería Ambiental (3ª ed)
A.V.L.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
09.09.2024 12:30
09.09.2024 12:30
Resumen
El fósforo es uno de los elementos esenciales para el desarrollo vegetal, sin embargo, debido a su reactividad química la mayor parte del fósforo presente en el suelo no se encuentra en formas biodisponibles para las plantas. Por otra parte, algunas de las formas biodisponibles del fósforo son muy solubles por lo que pueden ser lixiviadas y eutrofizar masas de agua próximas. En este trabajo se estudia el contenido en fósforo y sus principales formas geoquímicas en suelos de pradera africana pre y post incendio, así como de las cenizas en el Parque Nacional Kruger, Sudáfrica, en sistemas sometidos a quemas prescritas durante más de dos décadas. Este estudio pretende: 1) conocer en contenido de P total, P biodisponible y formas geoquímicas de P en suelos desarrollados sobre granito y basalto; 3) Evaluar el efecto de los incendios forestales sobre la biodisponibilidad y las formas geoquímicas de P en un ecosistema de sabana. Para ello, se realizó un análisis en suelos y cenizas del contenido total de P y de sus formas geoquímicas más relevantes a nivel ambiental como son: P adsorbido, P asociado a los óxidos e hidróxidos de Fe, P asociado al aluminio y arcillas, P orgánico, P residual o recalcitrante. Los resultados muestran una gran heterogeneidad entre parcelas en cuanto al contenido de P total, oscilando entre 1200 mg kg-1 en la parte superficial de los suelos desarrollados de basalto y 70 mg kg-1 en los suelos desarrollados sobre granito. La mayor disponibilidad del P (P mehlich) se dio en suelos de basalto, observándose que las parcelas quemadas presentaron mayor contenido de P biodisponible. En cuanto a las formas geoquímicas del fósforo, los suelos desarrollados sobre basalto presentaron como fracciones dominantes el P apatito, seguido del P asociado a materia orgánica recalcitrante y P asociado a arcillas e hidróxidos de Al; mientras que los suelos desarrollados sobre granito la fracción dominante fue el P asociado a la materia orgánica recalcitrante seguido del P asociado a ácidos húmicos. En los suelos quemados el fraccionamiento fue similar observándose una ligera reducción en los valores del fósforo orgánico en las parcelas post incendio.
El fósforo es uno de los elementos esenciales para el desarrollo vegetal, sin embargo, debido a su reactividad química la mayor parte del fósforo presente en el suelo no se encuentra en formas biodisponibles para las plantas. Por otra parte, algunas de las formas biodisponibles del fósforo son muy solubles por lo que pueden ser lixiviadas y eutrofizar masas de agua próximas. En este trabajo se estudia el contenido en fósforo y sus principales formas geoquímicas en suelos de pradera africana pre y post incendio, así como de las cenizas en el Parque Nacional Kruger, Sudáfrica, en sistemas sometidos a quemas prescritas durante más de dos décadas. Este estudio pretende: 1) conocer en contenido de P total, P biodisponible y formas geoquímicas de P en suelos desarrollados sobre granito y basalto; 3) Evaluar el efecto de los incendios forestales sobre la biodisponibilidad y las formas geoquímicas de P en un ecosistema de sabana. Para ello, se realizó un análisis en suelos y cenizas del contenido total de P y de sus formas geoquímicas más relevantes a nivel ambiental como son: P adsorbido, P asociado a los óxidos e hidróxidos de Fe, P asociado al aluminio y arcillas, P orgánico, P residual o recalcitrante. Los resultados muestran una gran heterogeneidad entre parcelas en cuanto al contenido de P total, oscilando entre 1200 mg kg-1 en la parte superficial de los suelos desarrollados de basalto y 70 mg kg-1 en los suelos desarrollados sobre granito. La mayor disponibilidad del P (P mehlich) se dio en suelos de basalto, observándose que las parcelas quemadas presentaron mayor contenido de P biodisponible. En cuanto a las formas geoquímicas del fósforo, los suelos desarrollados sobre basalto presentaron como fracciones dominantes el P apatito, seguido del P asociado a materia orgánica recalcitrante y P asociado a arcillas e hidróxidos de Al; mientras que los suelos desarrollados sobre granito la fracción dominante fue el P asociado a la materia orgánica recalcitrante seguido del P asociado a ácidos húmicos. En los suelos quemados el fraccionamiento fue similar observándose una ligera reducción en los valores del fósforo orgánico en las parcelas post incendio.
Dirección
OTERO PEREZ, XOSE LOIS (Tutoría)
Santín Nuño, Cristina Cotutoría
OTERO PEREZ, XOSE LOIS (Tutoría)
Santín Nuño, Cristina Cotutoría
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Secretario/a)
BARCIELA ALONSO, Ma CARMEN (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Secretario/a)
BARCIELA ALONSO, Ma CARMEN (Vocal)
Comiendo con conciencia: dieta atlántica y su contribución a una sociedad respetuosa con el agua
Autoría
E.P.R.
Máster Universitario en Ingeniería Ambiental (3ª ed)
E.P.R.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
09.09.2024 10:30
09.09.2024 10:30
Resumen
Los sistemas alimentarios contemporáneos han avanzado tecnológicamente para satisfacer las necesidades de una población creciente, pero se enfrentan a desafíos significativos en relación con la sostenibilidad. Estos sistemas, que comprenden la producción y el suministro de alimentos, tienen un impacto negativo en el medio ambiente debido al excesivo uso de recursos naturales como el agua, la tierra y la energía, causando problemas como el agotamiento de los recursos, emisiones de gases de efecto invernadero y pérdida de biodiversidad. La agricultura es responsable del 70% de las extracciones de agua, y para realizar una correcta gestión del agua es fundamental conocer con minuciosidad cuánta agua es necesaria para la producción de un producto. En particular, la producción de carne y lácteos tienen una alta carga ambiental, y se prevé un aumento de su demanda en un 70% para 2050. Por lo tanto, el estudio de dietas, como la mediterránea o la dieta atlántica, son necesarias para tener un estilo de vida saludable y sostenible con el medio ambiente. Este trabajo se centra en la creación de una base de datos que documente la huella hídrica de una serie de alimentos, con el objetivo de proporcionar información para la creación de dietas que sean saludables y sostenibles, en especial con nuestros recursos hídricos, para posteriormente utilizarlos en un caso de estudio enfocado a la creación de un menú semanal, de lunes a viernes, basado en dieta atlántica. Estos datos se han creado siguiendo la metodología ‘Manual de Evaluación de Huella Hídrica’, que es una guía que detalla el método para evaluar y gestionar la huella hídrica de productos, empresas y países, desarrollada por la Water Footprint Network. Como conclusiones, obtenemos que la huella hídrica de un menú semanal basado en dieta atlántica es equivalente a 12766,5 litros de agua semanales (de lunes a viernes) por persona, incluyendo los tres componentes de la huella hídrica (verde, azul y gris), resultando en 2553,3 L por persona y día. En su mayoría, la mayor contribución a la huella hídrica del menú proviene de la huella hídrica verde (aproximadamente un 57%), donde destacan alimentos lácteos como la leche (75,35%), el yogur (77,9%), el solomillo (77,82%).
Los sistemas alimentarios contemporáneos han avanzado tecnológicamente para satisfacer las necesidades de una población creciente, pero se enfrentan a desafíos significativos en relación con la sostenibilidad. Estos sistemas, que comprenden la producción y el suministro de alimentos, tienen un impacto negativo en el medio ambiente debido al excesivo uso de recursos naturales como el agua, la tierra y la energía, causando problemas como el agotamiento de los recursos, emisiones de gases de efecto invernadero y pérdida de biodiversidad. La agricultura es responsable del 70% de las extracciones de agua, y para realizar una correcta gestión del agua es fundamental conocer con minuciosidad cuánta agua es necesaria para la producción de un producto. En particular, la producción de carne y lácteos tienen una alta carga ambiental, y se prevé un aumento de su demanda en un 70% para 2050. Por lo tanto, el estudio de dietas, como la mediterránea o la dieta atlántica, son necesarias para tener un estilo de vida saludable y sostenible con el medio ambiente. Este trabajo se centra en la creación de una base de datos que documente la huella hídrica de una serie de alimentos, con el objetivo de proporcionar información para la creación de dietas que sean saludables y sostenibles, en especial con nuestros recursos hídricos, para posteriormente utilizarlos en un caso de estudio enfocado a la creación de un menú semanal, de lunes a viernes, basado en dieta atlántica. Estos datos se han creado siguiendo la metodología ‘Manual de Evaluación de Huella Hídrica’, que es una guía que detalla el método para evaluar y gestionar la huella hídrica de productos, empresas y países, desarrollada por la Water Footprint Network. Como conclusiones, obtenemos que la huella hídrica de un menú semanal basado en dieta atlántica es equivalente a 12766,5 litros de agua semanales (de lunes a viernes) por persona, incluyendo los tres componentes de la huella hídrica (verde, azul y gris), resultando en 2553,3 L por persona y día. En su mayoría, la mayor contribución a la huella hídrica del menú proviene de la huella hídrica verde (aproximadamente un 57%), donde destacan alimentos lácteos como la leche (75,35%), el yogur (77,9%), el solomillo (77,82%).
Dirección
GONZALEZ GARCIA, SARA (Tutoría)
GONZALEZ GARCIA, SARA (Tutoría)
Tribunal
MOREIRA VILAR, MARIA TERESA (Presidente/a)
Rojo Alboreca, Alberto (Secretario/a)
FIOL LOPEZ, SARAH (Vocal)
MOREIRA VILAR, MARIA TERESA (Presidente/a)
Rojo Alboreca, Alberto (Secretario/a)
FIOL LOPEZ, SARAH (Vocal)
Estudio de obtención y modificación de nanopartículas de celulosa con aplicación en materiales para celdas electroquímicas
Autoría
P.J.P.
Máster Universitario en Ingeniería Ambiental (3ª ed)
P.J.P.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
09.09.2024 12:00
09.09.2024 12:00
Resumen
La demanda energética crece a un ritmo vertiginoso, siendo cada vez más difícil de satisfacer. Actualmente, los combustibles fósiles son las mayores fuentes de suministro de energía, pero debido a sus múltiples inconvenientes y desventajas, hay un creciente interés en la búsqueda de otras fuentes de energía, destacando los materiales de almacenamiento energético. Estos cada vez gozan de mayor relevancia en la industria, pero muchos de los elementos necesarios para su desarrollo se encuentran catalogados como materias primas críticas, de este modo la búsqueda de materiales sostenibles para el desarrollo de celdas electroquímicas es un tema de gran importancia en el mundo de la investigación, como pueden ser los materiales lignocelulósicos, que surgen como un material prometedor, especialmente la celulosa, caracterizándose por poseer unas características de elevado interés. En el presente trabajo, se han estudiado diversos pretratamientos mecánicos y/o químicos para optimizar el proceso de obtención de micro y nanocelulosa mediante homogeneización de alta presión. Además, se han llevado a cabo las reacciones de esterificación y fosforilación de nanocelulosa para funcionalizarla de cara a su aplicación en baterías.
La demanda energética crece a un ritmo vertiginoso, siendo cada vez más difícil de satisfacer. Actualmente, los combustibles fósiles son las mayores fuentes de suministro de energía, pero debido a sus múltiples inconvenientes y desventajas, hay un creciente interés en la búsqueda de otras fuentes de energía, destacando los materiales de almacenamiento energético. Estos cada vez gozan de mayor relevancia en la industria, pero muchos de los elementos necesarios para su desarrollo se encuentran catalogados como materias primas críticas, de este modo la búsqueda de materiales sostenibles para el desarrollo de celdas electroquímicas es un tema de gran importancia en el mundo de la investigación, como pueden ser los materiales lignocelulósicos, que surgen como un material prometedor, especialmente la celulosa, caracterizándose por poseer unas características de elevado interés. En el presente trabajo, se han estudiado diversos pretratamientos mecánicos y/o químicos para optimizar el proceso de obtención de micro y nanocelulosa mediante homogeneización de alta presión. Además, se han llevado a cabo las reacciones de esterificación y fosforilación de nanocelulosa para funcionalizarla de cara a su aplicación en baterías.
Dirección
PARAJO MONTES, MARIA MERCEDES (Tutoría)
Noguerol Cal, Rosalia Cotutoría
PARAJO MONTES, MARIA MERCEDES (Tutoría)
Noguerol Cal, Rosalia Cotutoría
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Secretario/a)
BARCIELA ALONSO, Ma CARMEN (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Secretario/a)
BARCIELA ALONSO, Ma CARMEN (Vocal)
Inyección dinámica de conocimiento legislativo gallego en grandes modelos de lenguaje.
Autoría
A.F.S.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.F.S.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
13.09.2024 16:00
13.09.2024 16:00
Resumen
Los grandes modelos de lenguaje suponen un gran avance en la recuperación de información y en la asimilación de conocimiento para usuarios finales gracias a la gran cantidad de datos con los que son entrenados, y sus capacidades para la comprensión y el razonamiento sobre el lenguaje natural. Sin embargo, a pesar de la gran cantidad de información que han aprendido, aún puede quedar fuera de su alcance datos de dominios específicos, la comprensión de lenguas menos empleadas, y actualizaciones o nuevos datos con los que el modelo no ha sido entrenado. Para lidiar con estos problemas existen diferentes métodos como insertar, a través de la entrada, o mediante reentrenamiento, nuevo conocimiento externo de manera que los modelos puedan procesarlo e inferir sobre este, respuestas que se adecúen a una tarea que requiera de este determinado conocimiento. Así pues, con este trabajo se aborda el problema de enseñar a un gran modelo de lenguaje preentrenado, conocimiento del dominio legislativo en gallego, explorando las capacidades de modelos diferentes tanto a través de un enfoque basado en contexto, como a través de una aproximación consistente en inyectar conocimiento mediante el reentrenamiento de parámetros, al mismo tiempo que se tienen en cuenta las limitaciones como el continuo cambio de la información contenida en los datos y la necesidad de una inyección dinámica de conocimientos.
Los grandes modelos de lenguaje suponen un gran avance en la recuperación de información y en la asimilación de conocimiento para usuarios finales gracias a la gran cantidad de datos con los que son entrenados, y sus capacidades para la comprensión y el razonamiento sobre el lenguaje natural. Sin embargo, a pesar de la gran cantidad de información que han aprendido, aún puede quedar fuera de su alcance datos de dominios específicos, la comprensión de lenguas menos empleadas, y actualizaciones o nuevos datos con los que el modelo no ha sido entrenado. Para lidiar con estos problemas existen diferentes métodos como insertar, a través de la entrada, o mediante reentrenamiento, nuevo conocimiento externo de manera que los modelos puedan procesarlo e inferir sobre este, respuestas que se adecúen a una tarea que requiera de este determinado conocimiento. Así pues, con este trabajo se aborda el problema de enseñar a un gran modelo de lenguaje preentrenado, conocimiento del dominio legislativo en gallego, explorando las capacidades de modelos diferentes tanto a través de un enfoque basado en contexto, como a través de una aproximación consistente en inyectar conocimiento mediante el reentrenamiento de parámetros, al mismo tiempo que se tienen en cuenta las limitaciones como el continuo cambio de la información contenida en los datos y la necesidad de una inyección dinámica de conocimientos.
Dirección
LAMA PENIN, MANUEL (Tutoría)
VIDAL AGUIAR, JUAN CARLOS Cotutoría
LAMA PENIN, MANUEL (Tutoría)
VIDAL AGUIAR, JUAN CARLOS Cotutoría
Tribunal
Fernández Pena, Anselmo Tomás (Presidente/a)
MOSQUERA GONZALEZ, ANTONIO (Secretario/a)
Triñanes Fernández, Joaquín Ángel (Vocal)
Fernández Pena, Anselmo Tomás (Presidente/a)
MOSQUERA GONZALEZ, ANTONIO (Secretario/a)
Triñanes Fernández, Joaquín Ángel (Vocal)
Redes neuronales basadas en impulsos para la predicción de series temporales multivariantes
Autoría
A.D.R.M.
Máster Universitario en Inteligencia Artificial
A.D.R.M.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2024 16:00
21.02.2024 16:00
Resumen
En este trabajo, se diseñaron y desarrollaron múltiples tipos de redes neuronales basadas en impulsos (SNNs) con snnTorch para probar su rendimiento en un problema de mantenimiento predictivo, concretamente con los subconjuntos FD001 y FD004 del conjunto de datos simulados de motores a reacción C-MAPSS. Se diseñaron y evaluaron modelos de clasificación, regresión y un modelo híbrido (clasificador y regresor). Se probaron las neuronas Leaky Integrate and Fire (LIF), LIF Recurrente (RLIF) y Spiking LSTM (SLSTM). Se aplicó una estrategia de grid search para los modelos SNN. Para comparar con el rendimiento de los modelos tradicionales, se diseñaron arquitecturas tradicionales equivalentes (Redes Neuronales Artificiales (ANN), Redes Neuronales Recurrentes (RNN), Long Short-Term Memory (LSTM)) a las mejores arquitecturas SNN. Las SNN mostraron un gran potencial debido a su rendimiento observado y a la utilización eficiente del tiempo. Las neuronas SLSTM demostraron un rendimiento superior en el subconjunto FD001 tanto para el problema de clasificación como el de regresión, mientras que las neuronas LIF mostraron un mejor rendimiento en el subconjunto más complejo FD004. Los hiperparámetros específicos, como la modulación delta, no mostraron mejoras significativas. Los modelos híbridos no superaron a los modelos de regresión en ninguno de los subconjuntos, y el mejor regresor utiliza un preprocesamiento temprano de la vida útil restante (RUL) y el mayor tamaño de ventana. Las comparaciones entre los modelos tradicionales (ANN, RNN, LSTM) y los modelos spiking (LIF, RLIF, SLSTM) pusieron de manifiesto diferencias significativas de rendimiento entre arquitecturas equivalentes. En cuanto a las comparaciones de tiempo, los modelos equivalentes tradicionales necesitaron, en general, menos tiempo de entrenamiento para el mismo número de épocas. Los modelos spiking y equivalentes tradicionales tienen tamaños similares en los tipos de modelos recurrentes y LSTM, mientras que la diferencia de tamaño entre los modelos LIF y ANN fue significativa, siendo los primeros más pequeños.
En este trabajo, se diseñaron y desarrollaron múltiples tipos de redes neuronales basadas en impulsos (SNNs) con snnTorch para probar su rendimiento en un problema de mantenimiento predictivo, concretamente con los subconjuntos FD001 y FD004 del conjunto de datos simulados de motores a reacción C-MAPSS. Se diseñaron y evaluaron modelos de clasificación, regresión y un modelo híbrido (clasificador y regresor). Se probaron las neuronas Leaky Integrate and Fire (LIF), LIF Recurrente (RLIF) y Spiking LSTM (SLSTM). Se aplicó una estrategia de grid search para los modelos SNN. Para comparar con el rendimiento de los modelos tradicionales, se diseñaron arquitecturas tradicionales equivalentes (Redes Neuronales Artificiales (ANN), Redes Neuronales Recurrentes (RNN), Long Short-Term Memory (LSTM)) a las mejores arquitecturas SNN. Las SNN mostraron un gran potencial debido a su rendimiento observado y a la utilización eficiente del tiempo. Las neuronas SLSTM demostraron un rendimiento superior en el subconjunto FD001 tanto para el problema de clasificación como el de regresión, mientras que las neuronas LIF mostraron un mejor rendimiento en el subconjunto más complejo FD004. Los hiperparámetros específicos, como la modulación delta, no mostraron mejoras significativas. Los modelos híbridos no superaron a los modelos de regresión en ninguno de los subconjuntos, y el mejor regresor utiliza un preprocesamiento temprano de la vida útil restante (RUL) y el mayor tamaño de ventana. Las comparaciones entre los modelos tradicionales (ANN, RNN, LSTM) y los modelos spiking (LIF, RLIF, SLSTM) pusieron de manifiesto diferencias significativas de rendimiento entre arquitecturas equivalentes. En cuanto a las comparaciones de tiempo, los modelos equivalentes tradicionales necesitaron, en general, menos tiempo de entrenamiento para el mismo número de épocas. Los modelos spiking y equivalentes tradicionales tienen tamaños similares en los tipos de modelos recurrentes y LSTM, mientras que la diferencia de tamaño entre los modelos LIF y ANN fue significativa, siendo los primeros más pequeños.
Dirección
MERA PEREZ, DAVID (Tutoría)
Fernández Castro, Bruno Cotutoría
MERA PEREZ, DAVID (Tutoría)
Fernández Castro, Bruno Cotutoría
Tribunal
CARREIRA NOUCHE, MARIA JOSE (Presidente/a)
CATALA BOLOS, ALEJANDRO (Secretario/a)
López Martínez, Paula (Vocal)
CARREIRA NOUCHE, MARIA JOSE (Presidente/a)
CATALA BOLOS, ALEJANDRO (Secretario/a)
López Martínez, Paula (Vocal)
Selección de algoritmos de seguimiento basados en IA para sistemas de detección y evasión embarcados
Autoría
J.B.G.T.
Máster Universitario en Inteligencia Artificial
J.B.G.T.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2024 16:30
21.02.2024 16:30
Resumen
La detección de aeronaves es un problema complejo con multitud de aplicaciones en el campo de los vehículos aéreos no tripulados (UAV), incluidos los sistemas de detección y evasión. Estos sistemas utilizan seguimiento de objetos para detectar el tráfico circundante y tomar las medidas adecuadas para un vuelo seguro. Este trabajo se centra en investigar el estado del arte de los algoritmos de seguimiento de objetos. De esta investigación se seleccionan SORT, DeepSORT, StrongSORT, ByteTrack, Tracktor y QDTrack para ser probados tanto en un entorno de laboratorio, con el conjunto de datos MOT Challenge 2020; como en un entorno de campo, con el conjunto de datos Anti-UAV. A partir de estos experimentos, se ha descubierto que ByteTrack obtiene el mejor rendimiento, logrando un MOTA de 93,498, un IDF1 de 89,766 y un HOTA de 77,236 con el detector YOLOX sobre MOT20, y un MOTA de 71,979, un IDF1 de 65,693 y un HOTA de 54,184 con un detector RetinaNet sobre Anti-UAV, además de un rendimiento de 38,2 FPS.
La detección de aeronaves es un problema complejo con multitud de aplicaciones en el campo de los vehículos aéreos no tripulados (UAV), incluidos los sistemas de detección y evasión. Estos sistemas utilizan seguimiento de objetos para detectar el tráfico circundante y tomar las medidas adecuadas para un vuelo seguro. Este trabajo se centra en investigar el estado del arte de los algoritmos de seguimiento de objetos. De esta investigación se seleccionan SORT, DeepSORT, StrongSORT, ByteTrack, Tracktor y QDTrack para ser probados tanto en un entorno de laboratorio, con el conjunto de datos MOT Challenge 2020; como en un entorno de campo, con el conjunto de datos Anti-UAV. A partir de estos experimentos, se ha descubierto que ByteTrack obtiene el mejor rendimiento, logrando un MOTA de 93,498, un IDF1 de 89,766 y un HOTA de 77,236 con el detector YOLOX sobre MOT20, y un MOTA de 71,979, un IDF1 de 65,693 y un HOTA de 54,184 con un detector RetinaNet sobre Anti-UAV, además de un rendimiento de 38,2 FPS.
Dirección
CORES COSTA, DANIEL (Tutoría)
Lorenzo Rodríguez, Alfonso Cotutoría
CORES COSTA, DANIEL (Tutoría)
Lorenzo Rodríguez, Alfonso Cotutoría
Tribunal
CARREIRA NOUCHE, MARIA JOSE (Presidente/a)
CATALA BOLOS, ALEJANDRO (Secretario/a)
López Martínez, Paula (Vocal)
CARREIRA NOUCHE, MARIA JOSE (Presidente/a)
CATALA BOLOS, ALEJANDRO (Secretario/a)
López Martínez, Paula (Vocal)
Reconstrucción de la forma de un objeto en 3D combinando una única imagen de profundidad y sensores táctiles visuales
Autoría
M.B.S.
Máster Universitario en Visión por Computador
M.B.S.
Máster Universitario en Visión por Computador
Fecha de la defensa
06.02.2024 09:30
06.02.2024 09:30
Resumen
El conocimiento completo de la forma tridimensional de un objeto es crucial para las tareas de manipulación robótica. Sin embargo, obtener esta información en entornos no controlados puede resultar complicado. Además, la interacción con robots suele ocultar la visión. Los sensores visuotáctiles de alta resolución pueden proporcionar información local densa sobre la forma del objeto. No obstante, trabajar con sensores visuotáctiles tiene limitaciones inherentes debido a su pequeña área de detección. Por lo tanto, en algunos casos, la representación de la forma debe aproximarse sin inspección visual. Este trabajo implementa una metodología para lograr una reconstrucción de la forma del objeto de alta fidelidad mediante el uso extensivo de una única vista de imagen RGB-D. La metodología estima el plano del eje de simetría para la reflexión y, a continuación, añade diferentes mediciones táctiles de la parte no visual mediante sensores visuotáctiles. La información de la cámara de profundidad y de los sensores visuotáctiles se procesa y combina objetivamente para obtener la representación más precisa de la forma del objeto. A continuación, la malla 3D se reconstruye utilizando métodos tradicionales, como los algoritmos de pivotaje de bolas y de reconstrucción de superficies de Poisson.
El conocimiento completo de la forma tridimensional de un objeto es crucial para las tareas de manipulación robótica. Sin embargo, obtener esta información en entornos no controlados puede resultar complicado. Además, la interacción con robots suele ocultar la visión. Los sensores visuotáctiles de alta resolución pueden proporcionar información local densa sobre la forma del objeto. No obstante, trabajar con sensores visuotáctiles tiene limitaciones inherentes debido a su pequeña área de detección. Por lo tanto, en algunos casos, la representación de la forma debe aproximarse sin inspección visual. Este trabajo implementa una metodología para lograr una reconstrucción de la forma del objeto de alta fidelidad mediante el uso extensivo de una única vista de imagen RGB-D. La metodología estima el plano del eje de simetría para la reflexión y, a continuación, añade diferentes mediciones táctiles de la parte no visual mediante sensores visuotáctiles. La información de la cámara de profundidad y de los sensores visuotáctiles se procesa y combina objetivamente para obtener la representación más precisa de la forma del objeto. A continuación, la malla 3D se reconstruye utilizando métodos tradicionales, como los algoritmos de pivotaje de bolas y de reconstrucción de superficies de Poisson.
Dirección
CARREIRA NOUCHE, MARIA JOSE (Tutoría)
CORRALES RAMON, JUAN ANTONIO Cotutoría
CARREIRA NOUCHE, MARIA JOSE (Tutoría)
CORRALES RAMON, JUAN ANTONIO Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
López Martínez, Paula (Secretario/a)
Pardo López, Xosé Manuel (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
López Martínez, Paula (Secretario/a)
Pardo López, Xosé Manuel (Vocal)
Investigación, desarrollo y evaluación de algoritmos de aprendizaje profundo para diversas funcionalidades de apoyo a la gestión de incendios forestales
Autoría
D.S.R.
Máster Universitario en Inteligencia Artificial
D.S.R.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2024 17:30
21.02.2024 17:30
Resumen
La detección temprana de incendios es una tarea crucial para combatirlos y proteger a la biodiversidad, en la cual los drones equipados con sistemas de visión pueden ser una herramienta clave, con demostrada eficacia en la detección temprana. En este trabajo presentamos una metodología para la evaluación de modelos de aprendizaje profundo presentes en el estado del arte, realizando una experimentación con enfoque de dos fases. La primera experimentación se realiza utilizando un conjunto de datos público, que es ampliado posteriormente para realizar la segunda experimentación con modelos. Se entrenan cuatro arquitecturas con distintos extractores de características, lo que da lugar a pruebas con un total de once modelos diferentes. Por otro lado, se crea el conjunto de datos utilizado a partir de un conjunto de datos público, al que se añaden más imágenes etiquetadas a mano. De esta manera, se gana en variedad de situaciones y características de las imágenes, acercándolas al escenario real para un dron. Finalmente, se obtienen métricas de evaluación y se realizan pruebas de inferencia con los modelos elegidos, concluyendo con la mejor alternativa presente en el estado del arte para esta aplicación. Hemos encontrado que el modelo con mejor rendimiento de los probados ha sido SSD-VGG-16, con una Precisión Media (mAP@0.5) de 0,76, aunque la mayoría de los modelos del estado del arte obtuvieron buenos resultados.
La detección temprana de incendios es una tarea crucial para combatirlos y proteger a la biodiversidad, en la cual los drones equipados con sistemas de visión pueden ser una herramienta clave, con demostrada eficacia en la detección temprana. En este trabajo presentamos una metodología para la evaluación de modelos de aprendizaje profundo presentes en el estado del arte, realizando una experimentación con enfoque de dos fases. La primera experimentación se realiza utilizando un conjunto de datos público, que es ampliado posteriormente para realizar la segunda experimentación con modelos. Se entrenan cuatro arquitecturas con distintos extractores de características, lo que da lugar a pruebas con un total de once modelos diferentes. Por otro lado, se crea el conjunto de datos utilizado a partir de un conjunto de datos público, al que se añaden más imágenes etiquetadas a mano. De esta manera, se gana en variedad de situaciones y características de las imágenes, acercándolas al escenario real para un dron. Finalmente, se obtienen métricas de evaluación y se realizan pruebas de inferencia con los modelos elegidos, concluyendo con la mejor alternativa presente en el estado del arte para esta aplicación. Hemos encontrado que el modelo con mejor rendimiento de los probados ha sido SSD-VGG-16, con una Precisión Media (mAP@0.5) de 0,76, aunque la mayoría de los modelos del estado del arte obtuvieron buenos resultados.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Abado Bóveda, Silvia Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Abado Bóveda, Silvia Cotutoría
Tribunal
CARREIRA NOUCHE, MARIA JOSE (Presidente/a)
CATALA BOLOS, ALEJANDRO (Secretario/a)
López Martínez, Paula (Vocal)
CARREIRA NOUCHE, MARIA JOSE (Presidente/a)
CATALA BOLOS, ALEJANDRO (Secretario/a)
López Martínez, Paula (Vocal)
Desarrollo de un Sistema de Preguntas y Respuestas Multi-Documento para la Creación de un Asistente de Preguntas Frecuentes
Autoría
M.M.H.L.
Máster Universitario en Inteligencia Artificial
M.M.H.L.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2024 13:00
21.02.2024 13:00
Resumen
Este trabajo de fin de master profundiza en el desarrollo de un Sistema de Preguntas y Respuestas de Múltiples Documentos para un Asistente de FAQ, aprovechando técnicas avanzadas en Inteligencia Artificial y Procesamiento del Lenguaje Natural. Un enfoque clave de esta investigación es la utilización de búsqueda semántica con representaciones vectoriales de pasajes antes de la consulta del usuario, lo cual ha surgido como un hallazgo significativo en la reducción de la carga de trabajo del reranker mientras se mantiene la precisión de los resultados al examinar menos documentos en el proceso. La tesis proporciona una exploración en profundidad de la arquitectura Transformer y los métodos de búsqueda semántica, con el objetivo de mejorar la recuperación de información y las capacidades de pregunta y respuesta dentro de los sistemas de QA. Al enfatizar la eficiencia ganada a través de la búsqueda semántica con representaciones vectoriales, este trabajo arroja luz sobre un nuevo enfoque para la clasificación de documentos y la recuperación de información, agilizando en última instancia el proceso de QA y mejorando la experiencia del usuario. El estudio demostró una reducción potencial en la carga de trabajo de los modelos de reranking al pasar de analizar 1000 a 50 documentos, delegando una tarea de preclasificación a un modelo basado en semántica para documentos vectorizados. Esto permitió una disminución en el tiempo de ejecución del reranker sin comprometer la precisión medida por MRR@5. Finalmente, las estrategias fueron probadas con el proceso completo de selección de documentos relevantes usando 50, 100 y 500 consultas, resultando en un conjunto de modelos: ms-marco-distilbert-base-dot-prod-v3 como el modelo de búsqueda de pasajes y ms-marco-MiniLM-L-12-v2 como el modelo de reranking.
Este trabajo de fin de master profundiza en el desarrollo de un Sistema de Preguntas y Respuestas de Múltiples Documentos para un Asistente de FAQ, aprovechando técnicas avanzadas en Inteligencia Artificial y Procesamiento del Lenguaje Natural. Un enfoque clave de esta investigación es la utilización de búsqueda semántica con representaciones vectoriales de pasajes antes de la consulta del usuario, lo cual ha surgido como un hallazgo significativo en la reducción de la carga de trabajo del reranker mientras se mantiene la precisión de los resultados al examinar menos documentos en el proceso. La tesis proporciona una exploración en profundidad de la arquitectura Transformer y los métodos de búsqueda semántica, con el objetivo de mejorar la recuperación de información y las capacidades de pregunta y respuesta dentro de los sistemas de QA. Al enfatizar la eficiencia ganada a través de la búsqueda semántica con representaciones vectoriales, este trabajo arroja luz sobre un nuevo enfoque para la clasificación de documentos y la recuperación de información, agilizando en última instancia el proceso de QA y mejorando la experiencia del usuario. El estudio demostró una reducción potencial en la carga de trabajo de los modelos de reranking al pasar de analizar 1000 a 50 documentos, delegando una tarea de preclasificación a un modelo basado en semántica para documentos vectorizados. Esto permitió una disminución en el tiempo de ejecución del reranker sin comprometer la precisión medida por MRR@5. Finalmente, las estrategias fueron probadas con el proceso completo de selección de documentos relevantes usando 50, 100 y 500 consultas, resultando en un conjunto de modelos: ms-marco-distilbert-base-dot-prod-v3 como el modelo de búsqueda de pasajes y ms-marco-MiniLM-L-12-v2 como el modelo de reranking.
Dirección
CATALA BOLOS, ALEJANDRO (Tutoría)
CEREZO COSTAS, HÉCTOR Cotutoría
CATALA BOLOS, ALEJANDRO (Tutoría)
CEREZO COSTAS, HÉCTOR Cotutoría
Tribunal
Barro Ameneiro, Senén (Presidente/a)
ALONSO MORAL, JOSE MARIA (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
Barro Ameneiro, Senén (Presidente/a)
ALONSO MORAL, JOSE MARIA (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
Desarrollo de una solución OCR+NER para extraer información de las facturas
Autoría
M.A.M.
Máster Universitario en Inteligencia Artificial
M.A.M.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
20.02.2024 12:00
20.02.2024 12:00
Resumen
La comprensión de documentos, aprovechando tecnologías como el Reconocimiento Óptico de Caracteres (OCR) y el Reconocimiento de Entidades Nombradas (NER), constituye una piedra angular en el tratamiento moderno de la información. Este proyecto de tesis profundiza en este ámbito, centrándose específicamente en la extracción de información de facturas. A partir de los conocimientos prácticos adquiridos durante las prácticas, el proyecto pretende unir los conocimientos teóricos con la aplicación práctica. El proyecto pretende desarrollar una solución robusta capaz de extraer eficazmente información importante de diversos formatos de facturas. Partiendo de los fundamentos teóricos de la comprensión de documentos, incluidos los matices del OCR y el NER, esbozamos un enfoque sistemático que abarca la disponibilidad de datos, la metodología y la realización de pruebas rigurosas. Este proyecto de tesis ofrece una exploración exhaustiva de la comprensión de documentos en el contexto del procesamiento de facturas, aportando ideas sobre la integración de tecnologías, el desarrollo de metodologías y el potencial de innovación en escenarios reales. Gracias a su enfoque sistemático y a su dedicación a la excelencia, el proyecto contribuye al avance del campo de la comprensión de documentos, abriendo vías para futuras investigaciones y aplicaciones.
La comprensión de documentos, aprovechando tecnologías como el Reconocimiento Óptico de Caracteres (OCR) y el Reconocimiento de Entidades Nombradas (NER), constituye una piedra angular en el tratamiento moderno de la información. Este proyecto de tesis profundiza en este ámbito, centrándose específicamente en la extracción de información de facturas. A partir de los conocimientos prácticos adquiridos durante las prácticas, el proyecto pretende unir los conocimientos teóricos con la aplicación práctica. El proyecto pretende desarrollar una solución robusta capaz de extraer eficazmente información importante de diversos formatos de facturas. Partiendo de los fundamentos teóricos de la comprensión de documentos, incluidos los matices del OCR y el NER, esbozamos un enfoque sistemático que abarca la disponibilidad de datos, la metodología y la realización de pruebas rigurosas. Este proyecto de tesis ofrece una exploración exhaustiva de la comprensión de documentos en el contexto del procesamiento de facturas, aportando ideas sobre la integración de tecnologías, el desarrollo de metodologías y el potencial de innovación en escenarios reales. Gracias a su enfoque sistemático y a su dedicación a la excelencia, el proyecto contribuye al avance del campo de la comprensión de documentos, abriendo vías para futuras investigaciones y aplicaciones.
Dirección
CATALA BOLOS, ALEJANDRO (Tutoría)
Méndez Llatas, Pablo Cotutoría
CATALA BOLOS, ALEJANDRO (Tutoría)
Méndez Llatas, Pablo Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Un enfoque novedoso para la predicción del tiempo restante en el monitoreo predictivo de procesos
Autoría
N.S.B.
Máster Universitario en Inteligencia Artificial
N.S.B.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
20.02.2024 12:30
20.02.2024 12:30
Resumen
Los modelos basados en transformers han desencadenado toda una revolución en el campo del procesamiento del lenguaje natural y ahora están extendiendo sus tentáculos a otros campos, como el análisis de series temporales o la minería de procesos. Recientemente, se ha propuesto un nuevo enfoque basado en transformers en el monitoreo predictivo de procesos que supera a todos los modelos basados en recurrentes que tenían las mejores calificaciones hasta el momento. En este trabajo adaptamos esta arquitectura al campo de la minería de procesos, aportando mayor semántica al embedding de las trazas que se utilizan para entrenar el modelo predictivo. Esta mejora vendrá a través de dos contribuciones. La primera es que proponemos una interpretación novedosa de las trazas como una serie temporal de eventos y tomamos prestado un nuevo esquema de codificación de este campo para aprovechar la información temporal de los eventos. Esta codificación temporal integra el tiempo entre eventos en la representación obtenida para la traza, de manera similar a la codificación posicional pero prestando atención a la separación entre eventos en el tiempo. En segundo lugar está la aplicación del enmascaramiento causal para restringir el tipo de relaciones que pueden establecerse en el prefijo y ajustarse mejor a la idea de precedencia temporal. También experimentamos con la atención para descubrir en qué medida contribuye a la calidad de las predicciones. Los resultados muestran que diferentes tipos de modelos funcionarán mejor dependiendo de las características intrínsecas del registro de eventos en cuestión, y que la atención puede no ser tan relevante en la minería de procesos como lo es en el modelado del lenguaje.
Los modelos basados en transformers han desencadenado toda una revolución en el campo del procesamiento del lenguaje natural y ahora están extendiendo sus tentáculos a otros campos, como el análisis de series temporales o la minería de procesos. Recientemente, se ha propuesto un nuevo enfoque basado en transformers en el monitoreo predictivo de procesos que supera a todos los modelos basados en recurrentes que tenían las mejores calificaciones hasta el momento. En este trabajo adaptamos esta arquitectura al campo de la minería de procesos, aportando mayor semántica al embedding de las trazas que se utilizan para entrenar el modelo predictivo. Esta mejora vendrá a través de dos contribuciones. La primera es que proponemos una interpretación novedosa de las trazas como una serie temporal de eventos y tomamos prestado un nuevo esquema de codificación de este campo para aprovechar la información temporal de los eventos. Esta codificación temporal integra el tiempo entre eventos en la representación obtenida para la traza, de manera similar a la codificación posicional pero prestando atención a la separación entre eventos en el tiempo. En segundo lugar está la aplicación del enmascaramiento causal para restringir el tipo de relaciones que pueden establecerse en el prefijo y ajustarse mejor a la idea de precedencia temporal. También experimentamos con la atención para descubrir en qué medida contribuye a la calidad de las predicciones. Los resultados muestran que diferentes tipos de modelos funcionarán mejor dependiendo de las características intrínsecas del registro de eventos en cuestión, y que la atención puede no ser tan relevante en la minería de procesos como lo es en el modelado del lenguaje.
Dirección
LAMA PENIN, MANUEL (Tutoría)
VIDAL AGUIAR, JUAN CARLOS Cotutoría
LAMA PENIN, MANUEL (Tutoría)
VIDAL AGUIAR, JUAN CARLOS Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Abordando el Seguimiento de Múltiples Objetos con Máscaras de Segmentación
Autoría
M.B.G.
Máster Universitario en Visión por Computador
M.B.G.
Máster Universitario en Visión por Computador
Fecha de la defensa
06.02.2024 10:05
06.02.2024 10:05
Resumen
El Seguimiento de Objetos Múltiples (MOT) tiene como objetivo localizar todos los objetos de un vídeo, asignándoles las mismas identidades en todos los fotogramas. Tradicionalmente, este problema se abordaba siguiendo el paradigma del Seguimiento por Detección (TbD), utilizando detecciones representadas por rectángulos delimitadores. Sin embargo, los rectángulos delimitadores pueden contener información de varios objetos, algo que no ocurre con las máscaras de segmentación. Este trabajo toma como punto de partida el sistema MOT ByteTrack. Nuestra propuesta, ByteTrackMask, integra un método de segmentación independiente de las clases (class-agnostic) y un tracker basado en segmentación en ByteTrack con el fin de rescatar tracks que se habrían perdido. Los resultados sobre conjuntos de datos de validación de desafíos MOT proporcionan mejoras en métricas MOT de interés como MOTA, IDF1 y falsos negativos.
El Seguimiento de Objetos Múltiples (MOT) tiene como objetivo localizar todos los objetos de un vídeo, asignándoles las mismas identidades en todos los fotogramas. Tradicionalmente, este problema se abordaba siguiendo el paradigma del Seguimiento por Detección (TbD), utilizando detecciones representadas por rectángulos delimitadores. Sin embargo, los rectángulos delimitadores pueden contener información de varios objetos, algo que no ocurre con las máscaras de segmentación. Este trabajo toma como punto de partida el sistema MOT ByteTrack. Nuestra propuesta, ByteTrackMask, integra un método de segmentación independiente de las clases (class-agnostic) y un tracker basado en segmentación en ByteTrack con el fin de rescatar tracks que se habrían perdido. Los resultados sobre conjuntos de datos de validación de desafíos MOT proporcionan mejoras en métricas MOT de interés como MOTA, IDF1 y falsos negativos.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
BREA SANCHEZ, VICTOR MANUEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
BREA SANCHEZ, VICTOR MANUEL Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
López Martínez, Paula (Secretario/a)
Pardo López, Xosé Manuel (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
López Martínez, Paula (Secretario/a)
Pardo López, Xosé Manuel (Vocal)
Evaluación de Cube como capa semántica en una organización Data Driven
Autoría
A.S.A.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.S.A.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2024 10:30
16.07.2024 10:30
Resumen
La actividad empresarial está generando grandes cantidades de datos, que han empezado a ser utilizados para facilitar y mejorar la toma de decisiones. Sin embargo, el constante aumento de datos provoca la descentralización de los mismos, dividiéndolos en diferentes modelos y bases de datos para facilitar su gestión. Desde el punto de vista del negocio, el acceso a los datos debería estar centralizado y unificado, pudiendo combinar datos de diferentes modelos y fuentes para mejorar la toma de decisiones. Surge así en las empresas centradas en datos la necesidad de disponer de una herramienta en la que disponibilizar todos los datos y exponerlos de forma comprensible para los usuarios de negocio. En este contexto, el presente trabajo ha consistido en una evaluación de la herramienta Cube, que es un software de capa semántica. El objetivo de esta evaluación fue comprender cómo funciona y las posibilidades que ofrece de cara a su utilización en la empresa FDS, A DXC Technology Company, que está buscando una herramienta de capa semántica para su uso con los diferentes clientes de la empresa. Esta evaluación pasó por tres fases, empezando por definir los requisitos de la empresa para aceptar la herramienta. En segundo lugar, se creó una capa semántica utilizando Cube sobre un modelo de ejemplo, para estudiar si cumple los requisitos establecidos. Por último, se realizaron pruebas de usabilidad y rendimiento para comprobar la posible utilidad final de la herramienta. Una vez finalizado el proceso, se realizó una evaluación final, incluyendo tanto la experiencia técnica de uso de Cube como las observaciones a nivel de definición del modelo de datos, usabilidad y rendimiento. Tras esta primera aproximación, se identificaron posibles líneas a seguir en caso de continuar adelante con iniciativa de introducir Cube en la empresa.
La actividad empresarial está generando grandes cantidades de datos, que han empezado a ser utilizados para facilitar y mejorar la toma de decisiones. Sin embargo, el constante aumento de datos provoca la descentralización de los mismos, dividiéndolos en diferentes modelos y bases de datos para facilitar su gestión. Desde el punto de vista del negocio, el acceso a los datos debería estar centralizado y unificado, pudiendo combinar datos de diferentes modelos y fuentes para mejorar la toma de decisiones. Surge así en las empresas centradas en datos la necesidad de disponer de una herramienta en la que disponibilizar todos los datos y exponerlos de forma comprensible para los usuarios de negocio. En este contexto, el presente trabajo ha consistido en una evaluación de la herramienta Cube, que es un software de capa semántica. El objetivo de esta evaluación fue comprender cómo funciona y las posibilidades que ofrece de cara a su utilización en la empresa FDS, A DXC Technology Company, que está buscando una herramienta de capa semántica para su uso con los diferentes clientes de la empresa. Esta evaluación pasó por tres fases, empezando por definir los requisitos de la empresa para aceptar la herramienta. En segundo lugar, se creó una capa semántica utilizando Cube sobre un modelo de ejemplo, para estudiar si cumple los requisitos establecidos. Por último, se realizaron pruebas de usabilidad y rendimiento para comprobar la posible utilidad final de la herramienta. Una vez finalizado el proceso, se realizó una evaluación final, incluyendo tanto la experiencia técnica de uso de Cube como las observaciones a nivel de definición del modelo de datos, usabilidad y rendimiento. Tras esta primera aproximación, se identificaron posibles líneas a seguir en caso de continuar adelante con iniciativa de introducir Cube en la empresa.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Graña Omil, Ángel Cotutoría
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Graña Omil, Ángel Cotutoría
Tribunal
Losada Carril, David Enrique (Presidente/a)
Blanco Heras, Dora (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Losada Carril, David Enrique (Presidente/a)
Blanco Heras, Dora (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Evaluación de la herramienta SYCLomatic
Autoría
T.L.B.
Máster Universitario en Computación de Altas Prestaciones / High Performance Computing from the University of A Coruña and the University of Santiago de Compostela (presencial)
T.L.B.
Máster Universitario en Computación de Altas Prestaciones / High Performance Computing from the University of A Coruña and the University of Santiago de Compostela (presencial)
Fecha de la defensa
03.09.2024 10:00
03.09.2024 10:00
Resumen
CUDA es una plataforma de computación paralela y modelo de programación exclusiva para GPUs de NVIDIA. Esta exclusividad limita la portabilidad de los códigos a otras plataformas. En contraposición está SYCL, un lenguaje basado en C++ que soporta diferentes arquitecturas y modelos de memoria disjuntos permitiendo la ejecución de un mismo código en CPUs, GPUs y FPGAs. En este contexto se origina la herramienta SYCLomatic, una solución open source que busca facilitar la transición de códigos CUDA a SYCL. De este modo se simplifica el proceso de reutilización de código para múltiples plataformas reduciendo los tiempos y los costos en el mantenimiento continuo de código. La migración automática de código con SYCLomatic alcanza entre un 90-95% de automatización, dejando la codificación restante necesaria a mano de los desarrolladores así como el ajuste del nivel de rendimiento que se quiera alcanzar para una determinada arquitectura. Este Trabajo de Fin de Master presenta una guía de usabilidad de la herramienta SYCLomatic donde se explorará el grado de automatización de la migración indicando todas las modificaciones manuales que hayan sido necesarias. Por otro lado, se realiza también un estudio comparativo del rendimiento de los códigos migrados y los originales.
CUDA es una plataforma de computación paralela y modelo de programación exclusiva para GPUs de NVIDIA. Esta exclusividad limita la portabilidad de los códigos a otras plataformas. En contraposición está SYCL, un lenguaje basado en C++ que soporta diferentes arquitecturas y modelos de memoria disjuntos permitiendo la ejecución de un mismo código en CPUs, GPUs y FPGAs. En este contexto se origina la herramienta SYCLomatic, una solución open source que busca facilitar la transición de códigos CUDA a SYCL. De este modo se simplifica el proceso de reutilización de código para múltiples plataformas reduciendo los tiempos y los costos en el mantenimiento continuo de código. La migración automática de código con SYCLomatic alcanza entre un 90-95% de automatización, dejando la codificación restante necesaria a mano de los desarrolladores así como el ajuste del nivel de rendimiento que se quiera alcanzar para una determinada arquitectura. Este Trabajo de Fin de Master presenta una guía de usabilidad de la herramienta SYCLomatic donde se explorará el grado de automatización de la migración indicando todas las modificaciones manuales que hayan sido necesarias. Por otro lado, se realiza también un estudio comparativo del rendimiento de los códigos migrados y los originales.
Dirección
RODRIGUEZ ALCARAZ, SILVIA (Tutoría)
López Vilariño, David Cotutoría
RODRIGUEZ ALCARAZ, SILVIA (Tutoría)
López Vilariño, David Cotutoría
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
Blanco Heras, Dora (Secretario/a)
González Domínguez, Jorge (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
Blanco Heras, Dora (Secretario/a)
González Domínguez, Jorge (Vocal)
Aplicación de Aprendizaje Profundo en la Clasificación de Señales de Radiofrecuencia
Autoría
M.A.
Máster Universitario en Inteligencia Artificial
M.A.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
12.09.2024 10:00
12.09.2024 10:00
Resumen
Este estudio presenta un modelo unidimensional de Aprendizaje Profundo (DL) para la clasificación de señales de radiofrecuencia (RF), incorporando componentes como ResNet, bloques de Squeeze-and-Excitation y Convoluciones Separables en Profundidad. El modelo tiene como objetivo clasificar señales de RF de 18 clases, incluyendo familias de QAM y PSK de portadora única y clases de OFDM de portadora múltiple, en condiciones realistas. Se utilizó la herramienta Torchsig para generar datos sintéticos, simulando escenarios del mundo real con diversas alteraciones, tales como ruido blanco gaussiano aditivo, cambios de fase, cambios de tiempo, cambios de frecuencia y desvanecimiento multipropagación. Estas alteraciones crean condiciones desafiantes, haciendo que la tarea de clasificación sea más robusta y realista. El rendimiento del modelo propuesto fue evaluado y comparado con otros modelos avanzados, como EfficientNet y XCiT. Nuestro modelo mostró una precisión competitiva y tiempos de inferencia eficientes, demostrando su potencial a pesar de las limitaciones de volumen de datos y potencia computacional. Los resultados indican vías prometedoras para una mayor refinación. El trabajo futuro se centrará en mejorar el rendimiento del modelo mediante el aumento de datos y pruebas en el mundo real, con el objetivo de una clasificación de señales de RF confiable y oportuna en aplicaciones prácticas.
Este estudio presenta un modelo unidimensional de Aprendizaje Profundo (DL) para la clasificación de señales de radiofrecuencia (RF), incorporando componentes como ResNet, bloques de Squeeze-and-Excitation y Convoluciones Separables en Profundidad. El modelo tiene como objetivo clasificar señales de RF de 18 clases, incluyendo familias de QAM y PSK de portadora única y clases de OFDM de portadora múltiple, en condiciones realistas. Se utilizó la herramienta Torchsig para generar datos sintéticos, simulando escenarios del mundo real con diversas alteraciones, tales como ruido blanco gaussiano aditivo, cambios de fase, cambios de tiempo, cambios de frecuencia y desvanecimiento multipropagación. Estas alteraciones crean condiciones desafiantes, haciendo que la tarea de clasificación sea más robusta y realista. El rendimiento del modelo propuesto fue evaluado y comparado con otros modelos avanzados, como EfficientNet y XCiT. Nuestro modelo mostró una precisión competitiva y tiempos de inferencia eficientes, demostrando su potencial a pesar de las limitaciones de volumen de datos y potencia computacional. Los resultados indican vías prometedoras para una mayor refinación. El trabajo futuro se centrará en mejorar el rendimiento del modelo mediante el aumento de datos y pruebas en el mundo real, con el objetivo de una clasificación de señales de RF confiable y oportuna en aplicaciones prácticas.
Dirección
López Martínez, Paula (Tutoría)
López Martínez, Paula (Tutoría)
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
MERA PEREZ, DAVID (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Cinéticas de secado y características de oleogeles de aceite de oliva y quitosano
Autoría
M.N.S.L.C.
Máster Universitario en Ingeniería Química y Bioprocesos
M.N.S.L.C.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 09:00
15.02.2024 09:00
Resumen
En la actualidad, la sustitución de grasas saturadas perjudiciales para la salud por otras opciones más saludables es uno de los principales objetivos de la industria alimentaria. Una alternativa es utilizar aceites vegetales con buenas propiedades nutricionales estabilizados en forma de oleogel para el reemplazo de grasas saturadas y trans. En este trabajo se estudian oleogeles de aceite de oliva empleando como agentes estructurantes quitosano y vainillina. El aceite de oliva (componente principal) se atrapa en una red tridimensional construida mediante una base de Schiff (imina) formada entre los grupos funcionales del quitosano (aminas) y de la vainillina (aldehídos), aplicando un método indirecto (emulsion-template). Este consiste en la formación de emulsiones aceite-agua y posterior eliminación del agua. Se generaron dos tipos de emulsiones con distintas concentraciones de quitosano (0,7 y 0,8% en peso) manteniendo la relación vainillina/quitosano constante (1,3) y una relación másica de fase dispersa (aceite)/fase continua (agua) de 50:50 en peso, que fueron deshidratadas mediante dos técnicas de deshidratación: secado convectivo a cuatro temperaturas (50, 60, 70 y 80 C) y liofilización. Los resultados experimentales obtenidos permitieron determinar las cinéticas de secado de las emulsiones a distintas temperaturas, y su posterior modelización, a través de modelos empíricos y difusionales. Se analizaron las propiedades de textura del producto (dureza, adhesividad, cohesividad, elasticidad), y de calidad (retención de aceite, color y oxidación). Las condiciones óptimas del proceso de secado correspondieron a una temperatura de 70 C, ya que a temperaturas de aire superiores no se aceleró la cinética de secado. Se concluyó que el tiempo de secado y la concentración del gelificante son fundamentales para los parámetros de calidad y textura. La dureza aumentó con la concentración de gelificante y disminuyó con la temperatura, mientras que las demás propiedades lo hacen a la inversa. La retención de aceite es significativamente mejor a medida que aumenta la concentración de quitosano. Por otro lado, se obtuvieron altos valores de oxidación debido a la presencia de aldehídos en el sistema, provenientes de la vainillina, los que interfieren en las metodologías adoptadas. Con respecto a las muestras liofilizadas, el cambio en el color fue inferior y no hubo reacciones de pardeamiento, indicando alta calidad en este aspecto. En cuanto a su textura, se obtuvieron muestras más blandas y elásticas que las obtenidas por secado convencional, con una alta adhesividad. Además, la retención de aceite fue inferior. En conclusión, el secado convencional genera muestras con mejores propiedades y calidad que las liofilizadas, sin embargo, hay que tener el cambio importante de color que se produce junto a un análisis económico de las opciones.
En la actualidad, la sustitución de grasas saturadas perjudiciales para la salud por otras opciones más saludables es uno de los principales objetivos de la industria alimentaria. Una alternativa es utilizar aceites vegetales con buenas propiedades nutricionales estabilizados en forma de oleogel para el reemplazo de grasas saturadas y trans. En este trabajo se estudian oleogeles de aceite de oliva empleando como agentes estructurantes quitosano y vainillina. El aceite de oliva (componente principal) se atrapa en una red tridimensional construida mediante una base de Schiff (imina) formada entre los grupos funcionales del quitosano (aminas) y de la vainillina (aldehídos), aplicando un método indirecto (emulsion-template). Este consiste en la formación de emulsiones aceite-agua y posterior eliminación del agua. Se generaron dos tipos de emulsiones con distintas concentraciones de quitosano (0,7 y 0,8% en peso) manteniendo la relación vainillina/quitosano constante (1,3) y una relación másica de fase dispersa (aceite)/fase continua (agua) de 50:50 en peso, que fueron deshidratadas mediante dos técnicas de deshidratación: secado convectivo a cuatro temperaturas (50, 60, 70 y 80 C) y liofilización. Los resultados experimentales obtenidos permitieron determinar las cinéticas de secado de las emulsiones a distintas temperaturas, y su posterior modelización, a través de modelos empíricos y difusionales. Se analizaron las propiedades de textura del producto (dureza, adhesividad, cohesividad, elasticidad), y de calidad (retención de aceite, color y oxidación). Las condiciones óptimas del proceso de secado correspondieron a una temperatura de 70 C, ya que a temperaturas de aire superiores no se aceleró la cinética de secado. Se concluyó que el tiempo de secado y la concentración del gelificante son fundamentales para los parámetros de calidad y textura. La dureza aumentó con la concentración de gelificante y disminuyó con la temperatura, mientras que las demás propiedades lo hacen a la inversa. La retención de aceite es significativamente mejor a medida que aumenta la concentración de quitosano. Por otro lado, se obtuvieron altos valores de oxidación debido a la presencia de aldehídos en el sistema, provenientes de la vainillina, los que interfieren en las metodologías adoptadas. Con respecto a las muestras liofilizadas, el cambio en el color fue inferior y no hubo reacciones de pardeamiento, indicando alta calidad en este aspecto. En cuanto a su textura, se obtuvieron muestras más blandas y elásticas que las obtenidas por secado convencional, con una alta adhesividad. Además, la retención de aceite fue inferior. En conclusión, el secado convencional genera muestras con mejores propiedades y calidad que las liofilizadas, sin embargo, hay que tener el cambio importante de color que se produce junto a un análisis económico de las opciones.
Dirección
MOREIRA MARTINEZ, RAMON FELIPE (Tutoría)
FRANCO URIA, MARIA AMAYA Cotutoría
MOREIRA MARTINEZ, RAMON FELIPE (Tutoría)
FRANCO URIA, MARIA AMAYA Cotutoría
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
RODRIGUEZ FERNANDEZ, MANUEL DAMASO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
RODRIGUEZ FERNANDEZ, MANUEL DAMASO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Valorización secuencial del bagazo de manzana: extracción de compuestos bioactivos y producción de biocombustibles por fermentación ABE.
Autoría
A.B.M.
Máster Universitario en Ingeniería Química y Bioprocesos
A.B.M.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 10:00
15.02.2024 10:00
Resumen
En el presente trabajo fin de máster se ha estudiado la viabilidad de una valorización secuencial de un residuo de la industria sidrera como es el bagazo de manzana. La valorización pasa por una etapa de secado, una etapa de extracción de compuestos bioactivos, una etapa de hidrólisis enzimática y una etapa de producción de biocombustibles por fermentación ABE. En primer lugar, el bagazo de manzana fue secado en estufas a 50ºC durante tiempos de dos, cuatro y siete días, llegando a porcentajes de humedad del 21,51%, 18,18% y 7,68% respectivamente. Cada fracción de bagazo presentó diferentes características las cuales fueron evaluadas en la siguiente etapa. Posteriormente, la extracción se llevó a cabo empleando una mezcla agua-etanol como disolvente, obteniéndose extractos con concentraciones de 32,02 mg GAE/g DW de compuestos fenólicos totales, 6,67 mg TE/g DW de actividad antioxidante por el método DPPH, 15,55 mg TE/g DW de actividad antioxidante por el método FRAP, 39,10 mg TE/g DW de actividad antioxidante por el método ABTS y 6,34 mg RE/ g DW de flavonoides totales. Se comprobó que la etapa de extracción conlleva asociada una pérdida de parte de los azúcares constituyentes del bagazo de manzana, lo que limita las etapas posteriores de la valorización. En la siguiente etapa, la hidrólisis enzimática, se estudiaron los parámetros que más afectan a la operación, llegando a la conclusión de que es necesario un estricto control de pH y disponer de una buena geometría y sistema de calefacción en el recipiente de reacción con el fin de que la liberación de azúcares se lleve a cabo de manera correcta. También se confirmó que empleando bagazo proveniente de la etapa de extracción la hidrólisis enzimática solo alcanza una concentración de azúcares reductores totales de hasta 63,51 g/L. Finalmente, se evalúo la última etapa de fermentación ABE en medio de control (P2) formado por glucosa e hidrolizado de manzana (HBM) tanto provenientes de hidrolizados tamponados como acuosos utilizando C. beijerinckii como inóculo. Se comprobó que los medios donde mayor producción de metabolitos se da es en el medio sintético compuesto únicamente por glucosa mientras que el medio HBM tamponado inhibe el crecimiento bacteriano y el medio HBM acuoso permite llevar a cabo la reacción biológica, pero obteniendo menores rendimientos y productividades que el medio P2.
En el presente trabajo fin de máster se ha estudiado la viabilidad de una valorización secuencial de un residuo de la industria sidrera como es el bagazo de manzana. La valorización pasa por una etapa de secado, una etapa de extracción de compuestos bioactivos, una etapa de hidrólisis enzimática y una etapa de producción de biocombustibles por fermentación ABE. En primer lugar, el bagazo de manzana fue secado en estufas a 50ºC durante tiempos de dos, cuatro y siete días, llegando a porcentajes de humedad del 21,51%, 18,18% y 7,68% respectivamente. Cada fracción de bagazo presentó diferentes características las cuales fueron evaluadas en la siguiente etapa. Posteriormente, la extracción se llevó a cabo empleando una mezcla agua-etanol como disolvente, obteniéndose extractos con concentraciones de 32,02 mg GAE/g DW de compuestos fenólicos totales, 6,67 mg TE/g DW de actividad antioxidante por el método DPPH, 15,55 mg TE/g DW de actividad antioxidante por el método FRAP, 39,10 mg TE/g DW de actividad antioxidante por el método ABTS y 6,34 mg RE/ g DW de flavonoides totales. Se comprobó que la etapa de extracción conlleva asociada una pérdida de parte de los azúcares constituyentes del bagazo de manzana, lo que limita las etapas posteriores de la valorización. En la siguiente etapa, la hidrólisis enzimática, se estudiaron los parámetros que más afectan a la operación, llegando a la conclusión de que es necesario un estricto control de pH y disponer de una buena geometría y sistema de calefacción en el recipiente de reacción con el fin de que la liberación de azúcares se lleve a cabo de manera correcta. También se confirmó que empleando bagazo proveniente de la etapa de extracción la hidrólisis enzimática solo alcanza una concentración de azúcares reductores totales de hasta 63,51 g/L. Finalmente, se evalúo la última etapa de fermentación ABE en medio de control (P2) formado por glucosa e hidrolizado de manzana (HBM) tanto provenientes de hidrolizados tamponados como acuosos utilizando C. beijerinckii como inóculo. Se comprobó que los medios donde mayor producción de metabolitos se da es en el medio sintético compuesto únicamente por glucosa mientras que el medio HBM tamponado inhibe el crecimiento bacteriano y el medio HBM acuoso permite llevar a cabo la reacción biológica, pero obteniendo menores rendimientos y productividades que el medio P2.
Dirección
EIBES GONZALEZ, GEMMA MARIA (Tutoría)
LU CHAU, THELMO ALEJANDRO Cotutoría
FARIÑAS MERA, RAQUEL Cotutoría
EIBES GONZALEZ, GEMMA MARIA (Tutoría)
LU CHAU, THELMO ALEJANDRO Cotutoría
FARIÑAS MERA, RAQUEL Cotutoría
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
RODRIGUEZ OSORIO, CARLOS (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
RODRIGUEZ OSORIO, CARLOS (Vocal)
Análisis y optimización del consumo energético en una planta de componentes de automoción
Autoría
T.A.P.
Máster Universitario en Ingeniería Química y Bioprocesos
T.A.P.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 10:00
15.02.2024 10:00
Resumen
Se denomina eficiencia energética en la industria a un objetivo o meta propuesta para conseguir reducir el consumo energético manteniendo la misma actividad y productividad. El objetivo principal de este estudio es el análisis y la optimización energética de una la planta de producción de componentes para vehículos, para así, reducir el consumo energético. Esta reducción afecta tanto a nivel económico, con la reducción de la factura, como medioambiental, con la diminución de la emisión de gases de efecto invernadero. Para poder lograr esta reducción se plantean una seria de medidas de optimización para poner en práctica en algunos equipos. La elección de esos equipos se basa en el análisis global de la planta para identificar cuales son los equipos con mayor consumo, ya sea de gas natural o de electricidad. Observando que estos equipos son los hornos de infrarrojo en el consumo de electricidad y las calderas en el consumo de gas natural. Una vez conocido los equipos se realiza un análisis energético de cada uno de ellos para poder obtener un primer valor de consumo, tanto eléctrico como de gas natural. Tras el análisis y con la ayuda de unas checklists se observa si las medidas de optimización propuestas están implementadas, ya no solo a los hornos y a las calderas sino también en la automatización de la planta, la iluminación, la climatización y el modo pausa. Después de conseguir implementar algunas medidas, se realiza la evaluación comparativa para corroborar si las medidas has sido efectivas o no. Obteniendo que para los hornos de infrarrojo y la iluminación la mayoría de las medidas fueron efectivas.
Se denomina eficiencia energética en la industria a un objetivo o meta propuesta para conseguir reducir el consumo energético manteniendo la misma actividad y productividad. El objetivo principal de este estudio es el análisis y la optimización energética de una la planta de producción de componentes para vehículos, para así, reducir el consumo energético. Esta reducción afecta tanto a nivel económico, con la reducción de la factura, como medioambiental, con la diminución de la emisión de gases de efecto invernadero. Para poder lograr esta reducción se plantean una seria de medidas de optimización para poner en práctica en algunos equipos. La elección de esos equipos se basa en el análisis global de la planta para identificar cuales son los equipos con mayor consumo, ya sea de gas natural o de electricidad. Observando que estos equipos son los hornos de infrarrojo en el consumo de electricidad y las calderas en el consumo de gas natural. Una vez conocido los equipos se realiza un análisis energético de cada uno de ellos para poder obtener un primer valor de consumo, tanto eléctrico como de gas natural. Tras el análisis y con la ayuda de unas checklists se observa si las medidas de optimización propuestas están implementadas, ya no solo a los hornos y a las calderas sino también en la automatización de la planta, la iluminación, la climatización y el modo pausa. Después de conseguir implementar algunas medidas, se realiza la evaluación comparativa para corroborar si las medidas has sido efectivas o no. Obteniendo que para los hornos de infrarrojo y la iluminación la mayoría de las medidas fueron efectivas.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
Lopez Rodríguez, Anjara Cotutoría
RODIL RODRIGUEZ, EVA (Tutoría)
Lopez Rodríguez, Anjara Cotutoría
Tribunal
SOTO CAMPOS, ANA MARIA (Presidente/a)
BALBOA MENDEZ, SABELA (Secretario/a)
SOUTO GONZALEZ, JOSE ANTONIO (Vocal)
SOTO CAMPOS, ANA MARIA (Presidente/a)
BALBOA MENDEZ, SABELA (Secretario/a)
SOUTO GONZALEZ, JOSE ANTONIO (Vocal)
Optimización de la producción de ácidos grasos volátiles para la obtención de biopolímeros mediante la valorización de residuos orgánicos complejos
Autoría
I.A.C.M.
Máster Universitario en Ingeniería Química y Bioprocesos
I.A.C.M.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 10:30
15.02.2024 10:30
Resumen
El aumento de la población mundial ha provocado un crecimiento exponencial de la demanda de recursos y de la cantidad de desechos orgánicos producidos. Una forma de tratar corrientes de residuos es la digestión anaerobia, un método flexible y respetuoso con el medioambiente. Este proceso consta de cuatro pasos: hidrólisis, acidogénesis, acetogénesis y metanogénesis. En la implementación de la Directiva Marco de Residuos de la Unión Europea, se podría avanzar del reciclaje a la recuperación de productos, inhibiendo la metanogénesis y, por ejemplo, utilizando los ácidos grasos volátiles (AGV) formados durante la acidogénesis y acetogénesis como fuente de carbono para la producción de polihidroxialcanoatos (PHA), biopolímeros con propiedades plásticas y biodegradables, con mayor valor en el mercado. En este trabajo se evalúa el potencial de producción de AGV a partir de corrientes lipídicas y se estudia la composición de PHA que podría producirse con las mezclas de AGV obtenidas. Para ello, se realizaron 3 ensayos batch en botellas de 400 mL con distintos sustratos (glucosa, ácido oleico y aceite usado de cocina). En el primer ensayo, se utilizó glucosa como parámetro sintético y aceite residual. En este ensayo, se produjo una inhibición total de la metanogénesis y cerca del 50% en las demás etapas por el amoníaco libre. En el segundo ensayo, se cambió el inóculo y la glucosa se consumió completamente, pero el aceite no se solubilizó por completo, quedando en forma de flóculos de grasa flotando en la superficie del líquido. Sin embargo, para ambos sustratos, toda la materia orgánica en fase soluble eran AGV, siendo los compuestos mayoritarios acético y butírico en el caso de la glucosa, y acético y propiónico en el caso del aceite. El objetivo del tercer ensayo era estudiar el efecto de la hidrólisis utilizando ácido oleico, además de dos corrientes de aceite con menor concentración. El ácido oleico tampoco pudo solubilizarse y se observaron los mismos flóculos de grasa flotando en la superficie. Una de las corrientes de aceite con menor concentración formó AGV con una mayor proporción de acético que en el ensayo 2, seguido de nuevo por el ácido propiónico. La otra estaba fuera del rango mínimo de medición del equipo. En unidades de DQO, la mayor cantidad de AGV producidos por las corrientes de aceite en los ensayos 1, 2 y 3 fueron 0,63 g DQO/L, 2,34 g DQO/L y 0,14 g DQO/L, respectivamente. En el ensayo 3, con ácido oleico se obtuvo 1,38 g DQO/L. Se logró un aumento de la producción de AGV al cambiar el inóculo, sin embargo, los tres intentos de optimización en el ensayo 3 fallaron. La hidrólisis de lípidos depende demasiado del área superficial disponible y que se hayan formado flóculos de grasa en la superficie del líquido dificultó la hidrólisis, lo que provocó que el máximo de AGV logrados a partir de la DQO introducida sea 23% para el aceite y 13% para el ácido oleico. Sin embargo, los AGV específicos obtenidos en cada ensayo fueron diferentes, mostrando el potencial de obtención de materiales con diferentes propiedades bioplásticas a partir de aceite residual adaptando el modo de operación.
El aumento de la población mundial ha provocado un crecimiento exponencial de la demanda de recursos y de la cantidad de desechos orgánicos producidos. Una forma de tratar corrientes de residuos es la digestión anaerobia, un método flexible y respetuoso con el medioambiente. Este proceso consta de cuatro pasos: hidrólisis, acidogénesis, acetogénesis y metanogénesis. En la implementación de la Directiva Marco de Residuos de la Unión Europea, se podría avanzar del reciclaje a la recuperación de productos, inhibiendo la metanogénesis y, por ejemplo, utilizando los ácidos grasos volátiles (AGV) formados durante la acidogénesis y acetogénesis como fuente de carbono para la producción de polihidroxialcanoatos (PHA), biopolímeros con propiedades plásticas y biodegradables, con mayor valor en el mercado. En este trabajo se evalúa el potencial de producción de AGV a partir de corrientes lipídicas y se estudia la composición de PHA que podría producirse con las mezclas de AGV obtenidas. Para ello, se realizaron 3 ensayos batch en botellas de 400 mL con distintos sustratos (glucosa, ácido oleico y aceite usado de cocina). En el primer ensayo, se utilizó glucosa como parámetro sintético y aceite residual. En este ensayo, se produjo una inhibición total de la metanogénesis y cerca del 50% en las demás etapas por el amoníaco libre. En el segundo ensayo, se cambió el inóculo y la glucosa se consumió completamente, pero el aceite no se solubilizó por completo, quedando en forma de flóculos de grasa flotando en la superficie del líquido. Sin embargo, para ambos sustratos, toda la materia orgánica en fase soluble eran AGV, siendo los compuestos mayoritarios acético y butírico en el caso de la glucosa, y acético y propiónico en el caso del aceite. El objetivo del tercer ensayo era estudiar el efecto de la hidrólisis utilizando ácido oleico, además de dos corrientes de aceite con menor concentración. El ácido oleico tampoco pudo solubilizarse y se observaron los mismos flóculos de grasa flotando en la superficie. Una de las corrientes de aceite con menor concentración formó AGV con una mayor proporción de acético que en el ensayo 2, seguido de nuevo por el ácido propiónico. La otra estaba fuera del rango mínimo de medición del equipo. En unidades de DQO, la mayor cantidad de AGV producidos por las corrientes de aceite en los ensayos 1, 2 y 3 fueron 0,63 g DQO/L, 2,34 g DQO/L y 0,14 g DQO/L, respectivamente. En el ensayo 3, con ácido oleico se obtuvo 1,38 g DQO/L. Se logró un aumento de la producción de AGV al cambiar el inóculo, sin embargo, los tres intentos de optimización en el ensayo 3 fallaron. La hidrólisis de lípidos depende demasiado del área superficial disponible y que se hayan formado flóculos de grasa en la superficie del líquido dificultó la hidrólisis, lo que provocó que el máximo de AGV logrados a partir de la DQO introducida sea 23% para el aceite y 13% para el ácido oleico. Sin embargo, los AGV específicos obtenidos en cada ensayo fueron diferentes, mostrando el potencial de obtención de materiales con diferentes propiedades bioplásticas a partir de aceite residual adaptando el modo de operación.
Dirección
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
Tribunal
SOTO CAMPOS, ANA MARIA (Presidente/a)
BALBOA MENDEZ, SABELA (Secretario/a)
SOUTO GONZALEZ, JOSE ANTONIO (Vocal)
SOTO CAMPOS, ANA MARIA (Presidente/a)
BALBOA MENDEZ, SABELA (Secretario/a)
SOUTO GONZALEZ, JOSE ANTONIO (Vocal)
Efecto de la razón molar In/V en catalizadores de In2O3/V2O5 sobre su actividad y selectividad para la hidrogenación de CO2 hacia metanol.
Autoría
C.P.P.S.
Máster Universitario en Ingeniería Química y Bioprocesos
C.P.P.S.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 11:30
15.02.2024 11:30
Resumen
La hidrogenación de CO2 hacia metanol es una alternativa prometedora para alcanzar la descarbonización y mitigar el cambio climático. Para ello es fundamental la búsqueda de catalizadores estables, activos y selectivos. En este trabajo se estudiaron catalizadores de In2O3/ V2O5, In2O3/V2O5/SiO2 y In2O3/V2O5/ZrO2 para mostrar el efecto que genera el cambio de la razón molar V/In y la naturaleza del soporte en la interacción entre fases y su influencia en la generación de vacancias de oxígeno, consideradas como los sitios activos para la formación de metanol. Se sintetizaron catalizadores por coprecipitación de In2O3/V2O5 y por impregnación húmeda de In2O3/V2O5, In2O3/ZrO2, In2O3/SiO2, In2O3/V2O5/ZrO2 e In2O3/V2O5/SiO2, variando la razón molar de V/In. Los materiales se caracterizaron por XRD, TPR-H2 y termogravimetría. Las pruebas de actividad fueron realizadas en un reactor diferencial de lecho dijo a presión absoluta de 8 bar, razón de flujo H2:CO2 igual a 4 y temperaturas entre los 220 y 280 ºC. La caracterización por XRD mostró la existencia de la fase cristalina cúbica de In2O3, monoclínica de ZrO2 y ortorrómbica de V2O5. Mediante la ecuación de Scherrer se obtuvieron tamaños medios de cristales de In2O3 entre los 18 y los 30 nm. Se observó un aumento del tamaño del cristal In2O3 con el aumento de la razón V/In para los catalizadores soportados en SiO2. Las áreas superficiales mostraron que el óxido de zirconio utilizado para sintetizar InZr tiene un área de 61 m2/g, mientras que el ZrO2 utilizado para sintetizar 0,33VInZr y VInZr tiene un área de 4 m2/g, por lo que los resultados de actividad obtenidos para estos dos últimos catalizadores no son comparables con los de InZr, pero sí permitieron evaluar el efecto de la razón V/In. En los análisis TPR-H2 y termogravimétrico se evidencia que para las condiciones de reacción estudiadas se generan vacancias de oxígeno en In2O3. Además, un aumento en la razón V/In del catalizador genera un mayor consumo de H2 y también facilita la reducción del In2O3. Se observó una diminución de la energía de activación aparente para formar metanol en los catalizadores con mayor razón V/In. A su vez, el rendimiento y la selectividad hacia metanol se vieron favorecidos con la presencia de vanadio para los catalizadores soportados en SiO2 y ZrO2, lo que se atribuye a una mayor actividad de las vacancias de oxígeno como consecuencia de la interacción entre los óxidos reducibles. Estudios como estos permiten avanzar en la descripción de las características superficiales de los catalizadores y su efecto en la reacción catalítica, aun así, es necesario llevar a cabo más investigaciones para lograr un diseño de catalizadores más eficientes.
La hidrogenación de CO2 hacia metanol es una alternativa prometedora para alcanzar la descarbonización y mitigar el cambio climático. Para ello es fundamental la búsqueda de catalizadores estables, activos y selectivos. En este trabajo se estudiaron catalizadores de In2O3/ V2O5, In2O3/V2O5/SiO2 y In2O3/V2O5/ZrO2 para mostrar el efecto que genera el cambio de la razón molar V/In y la naturaleza del soporte en la interacción entre fases y su influencia en la generación de vacancias de oxígeno, consideradas como los sitios activos para la formación de metanol. Se sintetizaron catalizadores por coprecipitación de In2O3/V2O5 y por impregnación húmeda de In2O3/V2O5, In2O3/ZrO2, In2O3/SiO2, In2O3/V2O5/ZrO2 e In2O3/V2O5/SiO2, variando la razón molar de V/In. Los materiales se caracterizaron por XRD, TPR-H2 y termogravimetría. Las pruebas de actividad fueron realizadas en un reactor diferencial de lecho dijo a presión absoluta de 8 bar, razón de flujo H2:CO2 igual a 4 y temperaturas entre los 220 y 280 ºC. La caracterización por XRD mostró la existencia de la fase cristalina cúbica de In2O3, monoclínica de ZrO2 y ortorrómbica de V2O5. Mediante la ecuación de Scherrer se obtuvieron tamaños medios de cristales de In2O3 entre los 18 y los 30 nm. Se observó un aumento del tamaño del cristal In2O3 con el aumento de la razón V/In para los catalizadores soportados en SiO2. Las áreas superficiales mostraron que el óxido de zirconio utilizado para sintetizar InZr tiene un área de 61 m2/g, mientras que el ZrO2 utilizado para sintetizar 0,33VInZr y VInZr tiene un área de 4 m2/g, por lo que los resultados de actividad obtenidos para estos dos últimos catalizadores no son comparables con los de InZr, pero sí permitieron evaluar el efecto de la razón V/In. En los análisis TPR-H2 y termogravimétrico se evidencia que para las condiciones de reacción estudiadas se generan vacancias de oxígeno en In2O3. Además, un aumento en la razón V/In del catalizador genera un mayor consumo de H2 y también facilita la reducción del In2O3. Se observó una diminución de la energía de activación aparente para formar metanol en los catalizadores con mayor razón V/In. A su vez, el rendimiento y la selectividad hacia metanol se vieron favorecidos con la presencia de vanadio para los catalizadores soportados en SiO2 y ZrO2, lo que se atribuye a una mayor actividad de las vacancias de oxígeno como consecuencia de la interacción entre los óxidos reducibles. Estudios como estos permiten avanzar en la descripción de las características superficiales de los catalizadores y su efecto en la reacción catalítica, aun así, es necesario llevar a cabo más investigaciones para lograr un diseño de catalizadores más eficientes.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Jimenez Concepción, Romel Mario Cotutoría
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Jimenez Concepción, Romel Mario Cotutoría
Tribunal
SOTO CAMPOS, ANA MARIA (Presidente/a)
BALBOA MENDEZ, SABELA (Secretario/a)
SOUTO GONZALEZ, JOSE ANTONIO (Vocal)
SOTO CAMPOS, ANA MARIA (Presidente/a)
BALBOA MENDEZ, SABELA (Secretario/a)
SOUTO GONZALEZ, JOSE ANTONIO (Vocal)
Sistema de una unidad a escala piloto para la producción de biopolímeros
Autoría
M.A.L.M.
Máster Universitario en Ingeniería Química y Bioprocesos
M.A.L.M.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 12:00
15.02.2024 12:00
Resumen
La generación de residuos a nivel mundial ha ido en aumento de forma directamente proporcional al incremento de la población humana y el modelo de consumismo contemporáneo. Entre estos residuos, se hallan los aceites y grasas derivados de la industria alimentaria, de acuerdo con el crecimiento poblacional que requiere cubrir sus necesidades básicas. Los residuos grasos presentan, por su naturaleza, una gran dificultad en su gestión, ya que son susceptibles de generar problemas medioambientales, sociales y estructurales, tales como la contaminación de aguas, la producción de malos olores y la obstrucción de las canalizaciones. Entre las industrias de este sector que generan este tipo de residuos, destaca, en Galicia, la industria conservera del pescado. Recientemente, los esfuerzos sobre la gestión de residuos se han orientado hacia la posibilidad de su revalorización, generando a partir de ellos nuevos productos de alto valor añadido. Entre estos productos, se encuentran biopolímeros como los polihidroxialcanoatos (PHA) y los triacilglicéridos (TAG), bioplásticos alternativos a aquellos derivados del petróleo y precursores de los biocombustibles, respectivamente. El presente trabajo consiste en la aplicación de la tecnología PRETENACC en un reactor secuencial discontinuo (SBR) a escala piloto (24 L) que emplea el aceite residual como fuente de carbono para la alimentación de un cultivo microbiano mixto (CMM) enriquecido a partir de lodos activos de una estación depuradora de aguas residuales (EDAR). El sistema opera en ciclos sucesivos de 12 h de enriquecimiento del CMM y acumulación de biopolímeros, mediante la aplicación de un régimen de saciedad/hambruna donde se realiza la alimentación desacoplada de la fuente de carbono (al inicio del ciclo) y de los nutrientes (al cabo de 6 horas, al inicio de la hambruna). Tras dos operaciones de 35 y 39 días, respectivamente, entre las que han sido implementadas mejoras en el sistema de aireación, se ha obtenido una acumulación de biopolímeros dentro de los microorganismos cercana al 40 % en peso. Sin embargo, el sistema requiere ser optimizado si se pretende una acumulación dirigida a PHA.
La generación de residuos a nivel mundial ha ido en aumento de forma directamente proporcional al incremento de la población humana y el modelo de consumismo contemporáneo. Entre estos residuos, se hallan los aceites y grasas derivados de la industria alimentaria, de acuerdo con el crecimiento poblacional que requiere cubrir sus necesidades básicas. Los residuos grasos presentan, por su naturaleza, una gran dificultad en su gestión, ya que son susceptibles de generar problemas medioambientales, sociales y estructurales, tales como la contaminación de aguas, la producción de malos olores y la obstrucción de las canalizaciones. Entre las industrias de este sector que generan este tipo de residuos, destaca, en Galicia, la industria conservera del pescado. Recientemente, los esfuerzos sobre la gestión de residuos se han orientado hacia la posibilidad de su revalorización, generando a partir de ellos nuevos productos de alto valor añadido. Entre estos productos, se encuentran biopolímeros como los polihidroxialcanoatos (PHA) y los triacilglicéridos (TAG), bioplásticos alternativos a aquellos derivados del petróleo y precursores de los biocombustibles, respectivamente. El presente trabajo consiste en la aplicación de la tecnología PRETENACC en un reactor secuencial discontinuo (SBR) a escala piloto (24 L) que emplea el aceite residual como fuente de carbono para la alimentación de un cultivo microbiano mixto (CMM) enriquecido a partir de lodos activos de una estación depuradora de aguas residuales (EDAR). El sistema opera en ciclos sucesivos de 12 h de enriquecimiento del CMM y acumulación de biopolímeros, mediante la aplicación de un régimen de saciedad/hambruna donde se realiza la alimentación desacoplada de la fuente de carbono (al inicio del ciclo) y de los nutrientes (al cabo de 6 horas, al inicio de la hambruna). Tras dos operaciones de 35 y 39 días, respectivamente, entre las que han sido implementadas mejoras en el sistema de aireación, se ha obtenido una acumulación de biopolímeros dentro de los microorganismos cercana al 40 % en peso. Sin embargo, el sistema requiere ser optimizado si se pretende una acumulación dirigida a PHA.
Dirección
VAL DEL RIO, MARIA ANGELES (Tutoría)
MOSQUERA CORRAL, ANUSKA Cotutoría
Pedrouso Fuentes, Alba Cotutoría
VAL DEL RIO, MARIA ANGELES (Tutoría)
MOSQUERA CORRAL, ANUSKA Cotutoría
Pedrouso Fuentes, Alba Cotutoría
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
ROMERO CASTRO, NOELIA MARIA (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
ROMERO CASTRO, NOELIA MARIA (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Modelización, simulación y optimización de un electrolizador alcalino de pequeña escala en Aspen Plus
Autoría
G.M.L.
Máster Universitario en Ingeniería Química y Bioprocesos
G.M.L.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 12:30
15.02.2024 12:30
Resumen
El hidrógeno verde es uno de los vectores energéticos más prometedores en la actualidad, ya que permite reducir las emisiones de gases de efecto invernadero. Entre las tecnologías de producción de hidrógeno más prometedoras destaca la electrólisis. La electrólisis alcalina es la tecnología de electrólisis más madura y presenta un elevado rendimiento. Con el objetivo de facilitar la implementación de estos equipos en el entorno industrial actual se desarrolló un modelo del proceso de electrólisis, tomando como referencia modelos previos encontrados en bibliografía e incorporando diferentes aportaciones propias que los mejoran, que permite calcular las corrientes de salida de un electrolizador, independientemente de las condiciones de operación y dimensiones del equipo, a partir de fundamentos electroquímicos, termodinámicos y balances de materia y energía. Partiendo de este modelo se creó un programa mediante el cual se puede simular un electrolizador en el entorno de Aspen Plus. Se analizan las respuestas del modelo frente a diferentes variables de entrada, determinando que los factores principales que afectan al rendimiento del proceso son la densidad de corriente, la temperatura de operación y la composición del electrolito, aunque el área de electrodo también tiene una relevancia destacable en ciertas respuestas. Con este modelo se optimiza un electrolizador para la producción de 0,8 kg/h de H2, definiendo unas condiciones de operación nominales y las dimensiones principales del equipo.
El hidrógeno verde es uno de los vectores energéticos más prometedores en la actualidad, ya que permite reducir las emisiones de gases de efecto invernadero. Entre las tecnologías de producción de hidrógeno más prometedoras destaca la electrólisis. La electrólisis alcalina es la tecnología de electrólisis más madura y presenta un elevado rendimiento. Con el objetivo de facilitar la implementación de estos equipos en el entorno industrial actual se desarrolló un modelo del proceso de electrólisis, tomando como referencia modelos previos encontrados en bibliografía e incorporando diferentes aportaciones propias que los mejoran, que permite calcular las corrientes de salida de un electrolizador, independientemente de las condiciones de operación y dimensiones del equipo, a partir de fundamentos electroquímicos, termodinámicos y balances de materia y energía. Partiendo de este modelo se creó un programa mediante el cual se puede simular un electrolizador en el entorno de Aspen Plus. Se analizan las respuestas del modelo frente a diferentes variables de entrada, determinando que los factores principales que afectan al rendimiento del proceso son la densidad de corriente, la temperatura de operación y la composición del electrolito, aunque el área de electrodo también tiene una relevancia destacable en ciertas respuestas. Con este modelo se optimiza un electrolizador para la producción de 0,8 kg/h de H2, definiendo unas condiciones de operación nominales y las dimensiones principales del equipo.
Dirección
ROCA BORDELLO, ENRIQUE (Tutoría)
FERNANDEZ CARRASCO, EUGENIO Cotutoría
Blanco López, Alexander Cotutoría
ROCA BORDELLO, ENRIQUE (Tutoría)
FERNANDEZ CARRASCO, EUGENIO Cotutoría
Blanco López, Alexander Cotutoría
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
ROMERO CASTRO, NOELIA MARIA (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
ROMERO CASTRO, NOELIA MARIA (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Evaluación reológica y de la estabilidad de emulsiones de aceite de oliva/agua con quitosano para la producción de oleogeles
Autoría
D.R.N.
Máster Universitario en Ingeniería Química y Bioprocesos
D.R.N.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 13:00
15.02.2024 13:00
Resumen
A substitución das graxas de orixe animal por outras de orixe vexetal máis saudables é un obxectivo no que a industria alimentaria viuse envolta e leva traballando durante os últimos anos. Para isto, é necesario transformar os aceites vexetais, que normalmente se atopan nun estado líquido, en graxas que teñan as propiedades de textura e organolépticas das graxas animais que se queiran substituír. Recentemente, investigouse no desenvolvemento de novos produtos, oleoxeles, aptos para cumprir este fin. Un oleoxel non é máis que un aceite vexetal, que durante a túa formación viuse atrapado nunha rede tridimensional capaz de achegarlle estrutura sólida. Para isto o máis habitual é utilizar un polímero como pode ser o quitosano ou outro. Para a produción destes oleoxeles existen dous métodos principais, o directo e o indirecto. Dentro das variantes do método indirecto, unha das máis empregadas e estudadas é a que emprega unha emulsión como paso intermedio (emulsion-template) que logo será secada ou liofilizada co fin de obter o produto final. Este Traballo Fin de Máster presenta como obxectivo principal o estudo das propiedades reolóxicas e a análise da estabilidade das emulsións aceite de oliva/auga con quitosano e vainillina para a produción de oleoxeles. Así, estudáronse certas variables de operación co obxectivo de determinar cales son as máis determinantes e críticas para a estabilidade. As variables estudadas son: a velocidade de axitación (potencia) (6.500, 9.500, 13.500 e 17.500 min-1) e o tempo (0,5, 2, 4 e 10 min) de homoxeneización, a temperatura de reacción entre a vainillina e o quitosano (25, 40 e 55 C), a concentración de quitosano (0,6, 0,7, 0,8, 0,9 e 1,0), a relación entre moléculas de vainillina e monómeros de quitosano na emulsión final (0,0, 0,3, 0,7 e 1,3) e a adición de axentes emulxentes (Tween 20 e 60). Estas emulsións foron sometidas a ensaios reolóxicos onde se caracterizaron grazas á aplicación de ensaios rotacionáis (varridos de tempo e de velocidade de cizalla) e oscilatorios (varridos de deformación e de frecuencia), así como mediante ramplas de temperatura que permiten unha análise acelerada da estabilidade. Os módulos viscoso (G´´) e elástico (G´) determinados a través de varridos de frecuencia axustáronse satisfactoriamente ao modelo da potencia e a viscosidade complexa puido ser simulada co modelo de Cross-Williamson. Ademais, a compoñente viscosa sempre foi maior que a elástica nos sistemas estudados, seguindo a tendencia bibliográfica para emulsións cunha fracción volumétrica da fase dispersa similar (0,52). Do estudo dos varridos de velocidade de cizalla determinouse que a viscosidade aparente das emulsións non é dependente do tempo. As curvas de fluxo axustáronse ao modelo de Herschel-Bulkley, permitindo caracterizar as emulsións como pseudoplásticas. Comparando os ensaios rotacionáis e oscilatorios púidose comprobar que, para todas as emulsións estudadas, fóra daquelas con axentes emulxentes, cumpriuse a regra de Cox-Merz para velocidades de cizalla e angulares altas (1 s-1 ou rad/s). A comparación entre as variables da etapa de homoxeneización demostrou que o tempo e a velocidade de axitación non afectaron significativamente á estabilidade da emulsión, mentres que a temperatura, de reacción, a concentración de quitosano, a relación vainillina/quitosano e a adición de axentes emulxentes si o fixeron. Finalmente, o protocolo de operación proposto consiste en: homoxeneización durante 4 minutos e con 9.500 min-1 de velocidade de axitación, cunha concentración de 0,9 p/p na emulsión final, cunha relación de moléculas de vainillina fronte a monómeros de quitosano do 0,7, cunha temperatura durante a etapa de reacción de 55C e co uso de Tween 20 como axente emulxente.
A substitución das graxas de orixe animal por outras de orixe vexetal máis saudables é un obxectivo no que a industria alimentaria viuse envolta e leva traballando durante os últimos anos. Para isto, é necesario transformar os aceites vexetais, que normalmente se atopan nun estado líquido, en graxas que teñan as propiedades de textura e organolépticas das graxas animais que se queiran substituír. Recentemente, investigouse no desenvolvemento de novos produtos, oleoxeles, aptos para cumprir este fin. Un oleoxel non é máis que un aceite vexetal, que durante a túa formación viuse atrapado nunha rede tridimensional capaz de achegarlle estrutura sólida. Para isto o máis habitual é utilizar un polímero como pode ser o quitosano ou outro. Para a produción destes oleoxeles existen dous métodos principais, o directo e o indirecto. Dentro das variantes do método indirecto, unha das máis empregadas e estudadas é a que emprega unha emulsión como paso intermedio (emulsion-template) que logo será secada ou liofilizada co fin de obter o produto final. Este Traballo Fin de Máster presenta como obxectivo principal o estudo das propiedades reolóxicas e a análise da estabilidade das emulsións aceite de oliva/auga con quitosano e vainillina para a produción de oleoxeles. Así, estudáronse certas variables de operación co obxectivo de determinar cales son as máis determinantes e críticas para a estabilidade. As variables estudadas son: a velocidade de axitación (potencia) (6.500, 9.500, 13.500 e 17.500 min-1) e o tempo (0,5, 2, 4 e 10 min) de homoxeneización, a temperatura de reacción entre a vainillina e o quitosano (25, 40 e 55 C), a concentración de quitosano (0,6, 0,7, 0,8, 0,9 e 1,0), a relación entre moléculas de vainillina e monómeros de quitosano na emulsión final (0,0, 0,3, 0,7 e 1,3) e a adición de axentes emulxentes (Tween 20 e 60). Estas emulsións foron sometidas a ensaios reolóxicos onde se caracterizaron grazas á aplicación de ensaios rotacionáis (varridos de tempo e de velocidade de cizalla) e oscilatorios (varridos de deformación e de frecuencia), así como mediante ramplas de temperatura que permiten unha análise acelerada da estabilidade. Os módulos viscoso (G´´) e elástico (G´) determinados a través de varridos de frecuencia axustáronse satisfactoriamente ao modelo da potencia e a viscosidade complexa puido ser simulada co modelo de Cross-Williamson. Ademais, a compoñente viscosa sempre foi maior que a elástica nos sistemas estudados, seguindo a tendencia bibliográfica para emulsións cunha fracción volumétrica da fase dispersa similar (0,52). Do estudo dos varridos de velocidade de cizalla determinouse que a viscosidade aparente das emulsións non é dependente do tempo. As curvas de fluxo axustáronse ao modelo de Herschel-Bulkley, permitindo caracterizar as emulsións como pseudoplásticas. Comparando os ensaios rotacionáis e oscilatorios púidose comprobar que, para todas as emulsións estudadas, fóra daquelas con axentes emulxentes, cumpriuse a regra de Cox-Merz para velocidades de cizalla e angulares altas (1 s-1 ou rad/s). A comparación entre as variables da etapa de homoxeneización demostrou que o tempo e a velocidade de axitación non afectaron significativamente á estabilidade da emulsión, mentres que a temperatura, de reacción, a concentración de quitosano, a relación vainillina/quitosano e a adición de axentes emulxentes si o fixeron. Finalmente, o protocolo de operación proposto consiste en: homoxeneización durante 4 minutos e con 9.500 min-1 de velocidade de axitación, cunha concentración de 0,9 p/p na emulsión final, cunha relación de moléculas de vainillina fronte a monómeros de quitosano do 0,7, cunha temperatura durante a etapa de reacción de 55C e co uso de Tween 20 como axente emulxente.
Dirección
MOREIRA MARTINEZ, RAMON FELIPE (Tutoría)
FRANCO RUIZ, DANIEL JOSE Cotutoría
MOREIRA MARTINEZ, RAMON FELIPE (Tutoría)
FRANCO RUIZ, DANIEL JOSE Cotutoría
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
ROMERO CASTRO, NOELIA MARIA (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
ROMERO CASTRO, NOELIA MARIA (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Modelado de la inhibición por polifenoles para su integración en un sistema de control de digestión anaerobia
Autoría
M.R.G.
Máster Universitario en Ingeniería Química y Bioprocesos
M.R.G.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 13:30
15.02.2024 13:30
Resumen
Este proyecto, realizado como Trabajo Fin de Máster, explora de manera integral la compleja interacción entre la inhibición por compuestos fenólicos y la digestión anaerobia, afectando al proceso microbiano, y, en consecuencia, a la producción de biogás. Se ha formulado y desarrollado el modelo matemático que incorpora la inhibición por polifenoles en un sistema de control de digestión anaerobia, patentado por la Universidad de Santiago de Compostela y con licencia exclusiva de la empresa iCODA. Esto permite la evaluación del rendimiento de los procesos de digestión anaerobia en condiciones variables de presencia de compuestos fenólicos, con aplicabilidad en escenarios prácticos y con capacidad para ofrecer predicciones precisas de producción de biogás. Este modelo propuesto ha sido validado mediante un ensayo en discontinuo de producción de biogás empleando residuo de alperujo como sustrato y de manera bibliográfica, lo que ha permitido llevar a cabo ajustes y calibraciones de los parámetros cinéticos del modelo, garantizando que en las simulaciones se refleje con precisión el comportamiento observado en casos reales. Con este proyecto se busca contribuir a la mejora ambiental, ofreciendo soluciones óptimas para el tratamiento de residuos, influyendo positivamente al desarrollo sostenible y a la gestión responsable de los recursos.
Este proyecto, realizado como Trabajo Fin de Máster, explora de manera integral la compleja interacción entre la inhibición por compuestos fenólicos y la digestión anaerobia, afectando al proceso microbiano, y, en consecuencia, a la producción de biogás. Se ha formulado y desarrollado el modelo matemático que incorpora la inhibición por polifenoles en un sistema de control de digestión anaerobia, patentado por la Universidad de Santiago de Compostela y con licencia exclusiva de la empresa iCODA. Esto permite la evaluación del rendimiento de los procesos de digestión anaerobia en condiciones variables de presencia de compuestos fenólicos, con aplicabilidad en escenarios prácticos y con capacidad para ofrecer predicciones precisas de producción de biogás. Este modelo propuesto ha sido validado mediante un ensayo en discontinuo de producción de biogás empleando residuo de alperujo como sustrato y de manera bibliográfica, lo que ha permitido llevar a cabo ajustes y calibraciones de los parámetros cinéticos del modelo, garantizando que en las simulaciones se refleje con precisión el comportamiento observado en casos reales. Con este proyecto se busca contribuir a la mejora ambiental, ofreciendo soluciones óptimas para el tratamiento de residuos, influyendo positivamente al desarrollo sostenible y a la gestión responsable de los recursos.
Dirección
MAURICIO IGLESIAS, MIGUEL (Tutoría)
RODRIGUEZ VERDE, IVAN Cotutoría
MAURICIO IGLESIAS, MIGUEL (Tutoría)
RODRIGUEZ VERDE, IVAN Cotutoría
Tribunal
VIDAL TATO, MARIA ISABEL (Presidente/a)
ROMERO CASTRO, NOELIA MARIA (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VIDAL TATO, MARIA ISABEL (Presidente/a)
ROMERO CASTRO, NOELIA MARIA (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Valorización de materiales lignocelulósicos como ligantes para la generación de emulsiones bituminosas sostenibles.
Autoría
J.L.A.S.
Máster Universitario en Ingeniería Química y Bioprocesos
J.L.A.S.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 09:25
15.02.2024 09:25
Resumen
El presente documento aborda el desarrollo de alternativas sostenibles a partir de lignina técnica Kraft procedente de la industria de pulpa y papel para la sustitución total o parcial de ligantes de emulsiones bituminosas. Para ello se han planteado tres rutas de modificación de lignina distintas y se han planteado diseños experimentales para optimizar las condiciones de operación de estas. Posteriormente se procedió a la caracterización de las ligninas modificadas a través de la determinación de su índice de hidroxilos y a través del análisis de espectroscopía FTIR, RMN-H y RMN-13C. Finalmente se llevó a cabo un breve análisis económico sobre los aditivos estudiados.
El presente documento aborda el desarrollo de alternativas sostenibles a partir de lignina técnica Kraft procedente de la industria de pulpa y papel para la sustitución total o parcial de ligantes de emulsiones bituminosas. Para ello se han planteado tres rutas de modificación de lignina distintas y se han planteado diseños experimentales para optimizar las condiciones de operación de estas. Posteriormente se procedió a la caracterización de las ligninas modificadas a través de la determinación de su índice de hidroxilos y a través del análisis de espectroscopía FTIR, RMN-H y RMN-13C. Finalmente se llevó a cabo un breve análisis económico sobre los aditivos estudiados.
Dirección
GONZALEZ ALVAREZ, JULIA (Tutoría)
FREIRE LEIRA, MARIA SONIA Cotutoría
Castro López, María Mar Cotutoría
GONZALEZ ALVAREZ, JULIA (Tutoría)
FREIRE LEIRA, MARIA SONIA Cotutoría
Castro López, María Mar Cotutoría
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
RODRIGUEZ OSORIO, CARLOS (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
RODRIGUEZ OSORIO, CARLOS (Vocal)
Optimización de taninos como coadyuvantes para filtración de cerveza terminada
Autoría
R.G.F.S.
Máster Universitario en Ingeniería Química y Bioprocesos
R.G.F.S.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 11:00
15.02.2024 11:00
Resumen
La clarificación de la cerveza mediante la filtración es una fase crucial para eliminar partículas y sedimentos, asegurando un producto con buena estabilidad coloidal, larga vida útil, brillante y organolépticamente correcto para de esta manera cumplir con las expectativas del consumidor. Tradicionalmente en Estrella Galicia se han utilizado enzimas y gel de sílice como coadyuvantes de maduración y filtración. La turbidez en cerveza se refiere a la presencia de partículas suspendidas que afectan su transparencia, gran parte de las partículas en suspensión se deben al complejo proteína-polifenol y las interacciones de estos, el objetivo es quitar una parte de la ecuación de la turbidez, pero a su vez preservar las proteínas y polifenoles que contribuyen al perfil sensorial de la cerveza. No obstante, en la constante búsqueda de optimizar la eficiencia y sostenibilidad del proceso cervecero, surge la necesidad de investigar y realizar pruebas con alternativas comerciales que se encuentran disponibles con el objetivo de generar un impacto positivo en el medioambiente, una mejora en el costo, la calidad y la operación. Los taninos, compuestos polifenólicos presentes en diversas fuentes naturales, han mostrado propiedades clarificantes y estabilizantes en otras industrias alimentarias. La modificación de coadyuvante no puede analizarse de manera aislada sino como parte de un proceso complejo y afectado por diversas variables. La eficiencia de filtración, la estabilidad de la cerveza, las características organolépticas y el coste serán las claves para comprender si la modificación es una mejora y es posible llevarla a cabo de manera definitiva.
La clarificación de la cerveza mediante la filtración es una fase crucial para eliminar partículas y sedimentos, asegurando un producto con buena estabilidad coloidal, larga vida útil, brillante y organolépticamente correcto para de esta manera cumplir con las expectativas del consumidor. Tradicionalmente en Estrella Galicia se han utilizado enzimas y gel de sílice como coadyuvantes de maduración y filtración. La turbidez en cerveza se refiere a la presencia de partículas suspendidas que afectan su transparencia, gran parte de las partículas en suspensión se deben al complejo proteína-polifenol y las interacciones de estos, el objetivo es quitar una parte de la ecuación de la turbidez, pero a su vez preservar las proteínas y polifenoles que contribuyen al perfil sensorial de la cerveza. No obstante, en la constante búsqueda de optimizar la eficiencia y sostenibilidad del proceso cervecero, surge la necesidad de investigar y realizar pruebas con alternativas comerciales que se encuentran disponibles con el objetivo de generar un impacto positivo en el medioambiente, una mejora en el costo, la calidad y la operación. Los taninos, compuestos polifenólicos presentes en diversas fuentes naturales, han mostrado propiedades clarificantes y estabilizantes en otras industrias alimentarias. La modificación de coadyuvante no puede analizarse de manera aislada sino como parte de un proceso complejo y afectado por diversas variables. La eficiencia de filtración, la estabilidad de la cerveza, las características organolépticas y el coste serán las claves para comprender si la modificación es una mejora y es posible llevarla a cabo de manera definitiva.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Vázquez Pedrouzo, Diego Cotutoría
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Vázquez Pedrouzo, Diego Cotutoría
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
RODRIGUEZ OSORIO, CARLOS (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
RODRIGUEZ OSORIO, CARLOS (Vocal)
Extracción de reglas basada en técnicas de aprendizaje automático para minería de procesos
Autoría
T.B.A.
Máster Universitario en Inteligencia Artificial
T.B.A.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2024 12:30
21.02.2024 12:30
Resumen
La minería de procesos es una disciplina que ha ido ganando importancia al ofrecer un conjunto de técnicas que permiten extraer conocimiento de los registros de eventos en los que se almacena la información generada en la ejecución de los procesos. Uno de los principales objetivos de la minería de procesos es comprender qué ha ocurrido durante la ejecución de un proceso. Típicamente, este objetivo se consigue explorando manualmente el modelo real, describiendo el comportamiento del proceso y analizando temporal y frecuencialmente sus variantes e indicadores de negocio. En este trabajo se presenta un enfoque innovador basado en árboles de decisión que permite clasificar automáticamente determinados comportamientos que se producen durante un proceso a partir de la información generada durante sus ejecuciones y las variables asociadas a las mismas, de forma que los interesados en el proceso puedan tener una mejor comprensión de lo que está ocurriendo y mejorar así la toma de decisiones. Esta técnica ha sido validada en un proceso médico, el Proceso Asistencial Integrado de Estenosis Aórtica (PAI de EA) implantado en el Servicio de Cardiología del Hospital Universitario de Santiago de Compostela. Sobre este proceso se han abordado los tiempos de espera de los pacientes para extraer aquellos perfiles de pacientes susceptibles de demoras o de ser priorizados.
La minería de procesos es una disciplina que ha ido ganando importancia al ofrecer un conjunto de técnicas que permiten extraer conocimiento de los registros de eventos en los que se almacena la información generada en la ejecución de los procesos. Uno de los principales objetivos de la minería de procesos es comprender qué ha ocurrido durante la ejecución de un proceso. Típicamente, este objetivo se consigue explorando manualmente el modelo real, describiendo el comportamiento del proceso y analizando temporal y frecuencialmente sus variantes e indicadores de negocio. En este trabajo se presenta un enfoque innovador basado en árboles de decisión que permite clasificar automáticamente determinados comportamientos que se producen durante un proceso a partir de la información generada durante sus ejecuciones y las variables asociadas a las mismas, de forma que los interesados en el proceso puedan tener una mejor comprensión de lo que está ocurriendo y mejorar así la toma de decisiones. Esta técnica ha sido validada en un proceso médico, el Proceso Asistencial Integrado de Estenosis Aórtica (PAI de EA) implantado en el Servicio de Cardiología del Hospital Universitario de Santiago de Compostela. Sobre este proceso se han abordado los tiempos de espera de los pacientes para extraer aquellos perfiles de pacientes susceptibles de demoras o de ser priorizados.
Dirección
LAMA PENIN, MANUEL (Tutoría)
MUCIENTES MOLINA, MANUEL FELIPE Cotutoría
LAMA PENIN, MANUEL (Tutoría)
MUCIENTES MOLINA, MANUEL FELIPE Cotutoría
Tribunal
Barro Ameneiro, Senén (Presidente/a)
ALONSO MORAL, JOSE MARIA (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
Barro Ameneiro, Senén (Presidente/a)
ALONSO MORAL, JOSE MARIA (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
Reconocimiento de emociones en lenguaje cruzado a partir del habla
Autoría
M.J.F.
Máster Universitario en Inteligencia Artificial
M.J.F.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2024 13:30
21.02.2024 13:30
Resumen
El reconocimiento de emociones a partir del habla es una parte importante de la computación afectiva que se centra en la clasificación de las emociones humanas a través de la voz. Reconocer las emociones a partir del habla tiene múltiples aplicaciones, como determinar el estado de bienestar físico y psicológico de una persona. En este trabajo, realizamos una clasificación de emociones en varios idiomas en cinco corpus: Berlin Database of Emotional Speech, Ryerson Audio-Visual Database of Emotional Speech and Song, el corpus de habla de Quechua Collao para el reconocimiento automático de emociones, el corpus multilingüe EmoFilm para reconocimiento de emoción y la base de datos italiana del habla emocional Emovo. Se realiza el preprocesamiento de los archivos de audio y la extracción de características de atributos como espectrogramas Mel, espectrogramas Log-Mel y coeficientes cepstrales de frecuencia Mel. Se evalúan varios modelos propuestos basados en arquitecturas de última generación, como redes convolucionales unidimensionales y bidimensionales con y sin capas de memoria a corto plazo, y se utilizan técnicas de aumento de datos para incrementar la disponibilidad de muestras para estas arquitecturas de aprendizaje profundo. Informamos los resultados obtenidos en los cinco conjuntos de datos mencionados anteriormente y su evaluación en varios idiomas. Además, se realiza un análisis de los resultados obtenidos para proporcionar comparaciones entre las ramas indoeuropea, romance y germánica, y las familias de lenguas andino-ecuatoriales.
El reconocimiento de emociones a partir del habla es una parte importante de la computación afectiva que se centra en la clasificación de las emociones humanas a través de la voz. Reconocer las emociones a partir del habla tiene múltiples aplicaciones, como determinar el estado de bienestar físico y psicológico de una persona. En este trabajo, realizamos una clasificación de emociones en varios idiomas en cinco corpus: Berlin Database of Emotional Speech, Ryerson Audio-Visual Database of Emotional Speech and Song, el corpus de habla de Quechua Collao para el reconocimiento automático de emociones, el corpus multilingüe EmoFilm para reconocimiento de emoción y la base de datos italiana del habla emocional Emovo. Se realiza el preprocesamiento de los archivos de audio y la extracción de características de atributos como espectrogramas Mel, espectrogramas Log-Mel y coeficientes cepstrales de frecuencia Mel. Se evalúan varios modelos propuestos basados en arquitecturas de última generación, como redes convolucionales unidimensionales y bidimensionales con y sin capas de memoria a corto plazo, y se utilizan técnicas de aumento de datos para incrementar la disponibilidad de muestras para estas arquitecturas de aprendizaje profundo. Informamos los resultados obtenidos en los cinco conjuntos de datos mencionados anteriormente y su evaluación en varios idiomas. Además, se realiza un análisis de los resultados obtenidos para proporcionar comparaciones entre las ramas indoeuropea, romance y germánica, y las familias de lenguas andino-ecuatoriales.
Dirección
CONDORI FERNANDEZ, NELLY (Tutoría)
CATALA BOLOS, ALEJANDRO Cotutoría
CONDORI FERNANDEZ, NELLY (Tutoría)
CATALA BOLOS, ALEJANDRO Cotutoría
Tribunal
Barro Ameneiro, Senén (Presidente/a)
ALONSO MORAL, JOSE MARIA (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
Barro Ameneiro, Senén (Presidente/a)
ALONSO MORAL, JOSE MARIA (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
Desarrollo de un modelo de predicción de cancelaciones de reservas en el sector turístico.
Autoría
N.F.Q.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
N.F.Q.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2024 11:00
16.07.2024 11:00
Resumen
En la industria hotelera, la incertidumbre producida por las cancelaciones de reservas dificulta la previsión de disponibilidad en el establecimiento, lo cual produce pérdidas significativas de beneficios. En este proyecto se lleva a cabo un estudio profundo sobre los patrones de anulación de reservas para Eurostars Hotel Company, utilizando métodos avanzados de Big Data para limpiar, transformar y analizar grandes volúmenes de datos históricos. A partir del conocimiento obtenido, se desarrolla un conjunto de modelos de detección de cancelaciones y se discute su rendimiento atendiendo tanto a cuestiones técnicas como de negocio. Una vez seleccionado el mejor modelo, se compara con un clasificador implementado por una empresa externa. Finalmente, se diseña una herramienta visual que facilita al personal del sector el análisis de las predicciones, permitiendo la elaboración de estrategias efectivas para mitigar el impacto de las cancelaciones y la estimación del beneficio aportado por la aplicación de las mismas.
En la industria hotelera, la incertidumbre producida por las cancelaciones de reservas dificulta la previsión de disponibilidad en el establecimiento, lo cual produce pérdidas significativas de beneficios. En este proyecto se lleva a cabo un estudio profundo sobre los patrones de anulación de reservas para Eurostars Hotel Company, utilizando métodos avanzados de Big Data para limpiar, transformar y analizar grandes volúmenes de datos históricos. A partir del conocimiento obtenido, se desarrolla un conjunto de modelos de detección de cancelaciones y se discute su rendimiento atendiendo tanto a cuestiones técnicas como de negocio. Una vez seleccionado el mejor modelo, se compara con un clasificador implementado por una empresa externa. Finalmente, se diseña una herramienta visual que facilita al personal del sector el análisis de las predicciones, permitiendo la elaboración de estrategias efectivas para mitigar el impacto de las cancelaciones y la estimación del beneficio aportado por la aplicación de las mismas.
Dirección
Sánchez Vila, Eduardo Manuel (Tutoría)
Comesaña García, Alejandra Cotutoría
Freire Martínez, Ignacio Cotutoría
Sánchez Vila, Eduardo Manuel (Tutoría)
Comesaña García, Alejandra Cotutoría
Freire Martínez, Ignacio Cotutoría
Tribunal
Losada Carril, David Enrique (Presidente/a)
Blanco Heras, Dora (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Losada Carril, David Enrique (Presidente/a)
Blanco Heras, Dora (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Estudio comparativo de plataformas de streaming de eventos: Apache Kafka, Apache Pulsar y RedpandaEstudio comparativo de plataformas de streaming de eventos: Apache Kafka, Apache Pulsar y Redpanda
Autoría
R.A.P.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
R.A.P.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2024 09:00
16.07.2024 09:00
Resumen
Los sistemas de streaming de eventos han emergido como una pieza fundamental en las arquitecturas de datos modernas, permitiendo la ingestión eficiente de grandes volúmenes de datos y proporcionando resultados casi en tiempo real. Entre las herramientas más prominentes en este ámbito se encuentran Apache Kafka, Apache Pulsar y RedPanda. Este trabajo tiene como objetivo realizar un análisis exhaustivo de estas plataformas, explorando tanto sus fortalezas como sus debilidades a través del estudio de sus arquitecturas internas, características y rendimiento. Los aspectos a analizar de cada herramienta serán los siguientes: escalabilidad, garantía de entrega y capacidad de recuperación en casos de fallos, latencia, facilidad de uso, soporte comunitario, costo.P or último, también se evaluará la compatibilidad entre estas tecnologías, buscando identificar si es posible una integración entre ellas y si existen limitaciones o requisitos específicos para su interoperabilidad.
Los sistemas de streaming de eventos han emergido como una pieza fundamental en las arquitecturas de datos modernas, permitiendo la ingestión eficiente de grandes volúmenes de datos y proporcionando resultados casi en tiempo real. Entre las herramientas más prominentes en este ámbito se encuentran Apache Kafka, Apache Pulsar y RedPanda. Este trabajo tiene como objetivo realizar un análisis exhaustivo de estas plataformas, explorando tanto sus fortalezas como sus debilidades a través del estudio de sus arquitecturas internas, características y rendimiento. Los aspectos a analizar de cada herramienta serán los siguientes: escalabilidad, garantía de entrega y capacidad de recuperación en casos de fallos, latencia, facilidad de uso, soporte comunitario, costo.P or último, también se evaluará la compatibilidad entre estas tecnologías, buscando identificar si es posible una integración entre ellas y si existen limitaciones o requisitos específicos para su interoperabilidad.
Dirección
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Martínez Álvarez, Rafael Cotutoría
RIOS VIQUEIRA, JOSE RAMON (Tutoría)
Martínez Álvarez, Rafael Cotutoría
Tribunal
Losada Carril, David Enrique (Presidente/a)
Blanco Heras, Dora (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Losada Carril, David Enrique (Presidente/a)
Blanco Heras, Dora (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Desarrollo de un modelo de apoyo a la toma de decisiones para la cotización de grupos en el ámbito hotelero.
Autoría
A.P.F.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.P.F.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2024 16:00
15.07.2024 16:00
Resumen
En el sector hotelero, una solicitud de reserva de alojamiento por parte de un grupo puede representar una importante oportunidad y fuente de beneficios para una cadena como es Eurostars Hotel Company. A diferencia de una reserva individual, una estancia de grupo recibe generalmente una reducción en el precio, ante la alta garantía de ocupación y posible contratación de servicios adicionales que proporciona a la compañía. El departamento de Revenue management se encarga de gestionar esta solicitud y tomar la decisión, atendiendo a un complejo contexto que la envuelve, de aceptar o no la petición y, en caso afirmativo, fijar un precio adecuado. El propósito de este trabajo es desarrollar un modelo que sirva de apoyo en las diferentes etapas del proceso de gestión de una solicitud, poniendo en valor el registro de datos internos disponible. Para ello, además de la automatización de una serie de procesos manuales, buscaremos beneficiarnos de las técnicas de Big Data estudiadas en la titulación. El contexto antes mencionado incluye aspectos como la demanda prevista o el precio esperado por habitación para un determinado día, valores que serán el objetivo de un modelo de predicción. Por último, generaremos una herramienta visual que permita hacer un uso sencillo del modelo desenvuelto.
En el sector hotelero, una solicitud de reserva de alojamiento por parte de un grupo puede representar una importante oportunidad y fuente de beneficios para una cadena como es Eurostars Hotel Company. A diferencia de una reserva individual, una estancia de grupo recibe generalmente una reducción en el precio, ante la alta garantía de ocupación y posible contratación de servicios adicionales que proporciona a la compañía. El departamento de Revenue management se encarga de gestionar esta solicitud y tomar la decisión, atendiendo a un complejo contexto que la envuelve, de aceptar o no la petición y, en caso afirmativo, fijar un precio adecuado. El propósito de este trabajo es desarrollar un modelo que sirva de apoyo en las diferentes etapas del proceso de gestión de una solicitud, poniendo en valor el registro de datos internos disponible. Para ello, además de la automatización de una serie de procesos manuales, buscaremos beneficiarnos de las técnicas de Big Data estudiadas en la titulación. El contexto antes mencionado incluye aspectos como la demanda prevista o el precio esperado por habitación para un determinado día, valores que serán el objetivo de un modelo de predicción. Por último, generaremos una herramienta visual que permita hacer un uso sencillo del modelo desenvuelto.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Comesaña García, Alejandra Cotutoría
Freire Martínez, Ignacio Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
Comesaña García, Alejandra Cotutoría
Freire Martínez, Ignacio Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Evaluación ambiental y económica de una estrategia de multivalorización secuencial del bagazo de manzana
Autoría
I.C.G.
Máster Universitario en Ingeniería Química y Bioprocesos
I.C.G.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
09.07.2024 11:00
09.07.2024 11:00
Resumen
Este trabajo se centra en el desarrollo de una estrategia innovadora de multivalorización en cascada utilizando bagazo de manzana como materia prima. Este enfoque busca maximizar el aprovechamiento de los recursos disponible y reducir los residuos agrícolas, al mismo tiempo que se generan productos de valor añadido. En primer lugar, se describe en detalle el proceso de multivalorización en cascada, que consta de tres etapas: la obtención de polifenoles, la producción de enzimas y la fermentación ABE para la obtención de biobutanol. Se realiza una simulación a escala industrial, basada en resultados de estudios de laboratorio, destacando que el proceso está diseñado para operar en régimen semicontinuo, garantizando eficiencia y una producción constante de los productos deseados. Posteriormente, se lleva a cabo una evaluación económica y ambiental para comparar el proceso con otras alternativas disponibles en el mercado. El análisis económico muestra que el proceso es viable, pero la sección de polifenoles presenta un mayor impacto, por lo que una disminución en el precio de venta de estos podría afectar la rentabilidad. Se realiza un análisis de sensibilidad para establecer un rango mínimo de venta. La evaluación del ciclo de vida proporciona una visión integral de los impactos ambientales asociados con el proceso. se identifica que la extracción de polifenoles y la obtención de biobutanol son etapas críticas en términos de impacto ambiental, destacando el uso de etanol y vapor como los principales contribuyentes. Se resalta la necesidad de implementar practicas mas sostenibles en la gestión de estos recursos para mitigar su impacto ambiental. Par abordar estos desafíos, se lleva a cabo un análisis de sensibilidad que considera alternativas para los procesos con mayores impactos. Este análisis permite evaluar como varían los impactos ambientales al modificar la selección de los procesos clave.
Este trabajo se centra en el desarrollo de una estrategia innovadora de multivalorización en cascada utilizando bagazo de manzana como materia prima. Este enfoque busca maximizar el aprovechamiento de los recursos disponible y reducir los residuos agrícolas, al mismo tiempo que se generan productos de valor añadido. En primer lugar, se describe en detalle el proceso de multivalorización en cascada, que consta de tres etapas: la obtención de polifenoles, la producción de enzimas y la fermentación ABE para la obtención de biobutanol. Se realiza una simulación a escala industrial, basada en resultados de estudios de laboratorio, destacando que el proceso está diseñado para operar en régimen semicontinuo, garantizando eficiencia y una producción constante de los productos deseados. Posteriormente, se lleva a cabo una evaluación económica y ambiental para comparar el proceso con otras alternativas disponibles en el mercado. El análisis económico muestra que el proceso es viable, pero la sección de polifenoles presenta un mayor impacto, por lo que una disminución en el precio de venta de estos podría afectar la rentabilidad. Se realiza un análisis de sensibilidad para establecer un rango mínimo de venta. La evaluación del ciclo de vida proporciona una visión integral de los impactos ambientales asociados con el proceso. se identifica que la extracción de polifenoles y la obtención de biobutanol son etapas críticas en términos de impacto ambiental, destacando el uso de etanol y vapor como los principales contribuyentes. Se resalta la necesidad de implementar practicas mas sostenibles en la gestión de estos recursos para mitigar su impacto ambiental. Par abordar estos desafíos, se lleva a cabo un análisis de sensibilidad que considera alternativas para los procesos con mayores impactos. Este análisis permite evaluar como varían los impactos ambientales al modificar la selección de los procesos clave.
Dirección
HOSPIDO QUINTANA, ALMUDENA (Tutoría)
EIBES GONZALEZ, GEMMA MARIA Cotutoría
HOSPIDO QUINTANA, ALMUDENA (Tutoría)
EIBES GONZALEZ, GEMMA MARIA Cotutoría
Tribunal
FEIJOO COSTA, GUMERSINDO (Presidente/a)
DIAZ JULLIEN, CRISTINA (Secretario/a)
FERNANDEZ CARRASCO, EUGENIO (Vocal)
FEIJOO COSTA, GUMERSINDO (Presidente/a)
DIAZ JULLIEN, CRISTINA (Secretario/a)
FERNANDEZ CARRASCO, EUGENIO (Vocal)
ptimización de extracción de Sustancias Poliméricas Extracelulares (EPS) para su valorización como biosorbente de cobre
Autoría
C.F.G.A.
Máster Universitario en Ingeniería Química y Bioprocesos
C.F.G.A.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
09.07.2024 12:00
09.07.2024 12:00
Resumen
La gestión de residuos, especialmente en el tratamiento de aguas residuales, es un desafío creciente debido a la liberación de metales pesados en ambientes acuáticos causado por actividades industriales, y representa una amenaza a ecosistemas y la salud humana. Las Sustancias Poliméricas Extracelulares (EPS) tienen propiedades únicas que las hacen efectivas como adsorbentes de metales pesados, convirtiéndolas en una alternativa atractiva en la búsqueda de soluciones sostenibles y económicamente viables para la remoción de estos metales. Este trabajo se centró en optimizar la extracción de EPS desde lodos de depuración de Plantas de Tratamiento de Aguas Residuales (PTAR) con la finalidad de maximizar el rendimiento y su capacidad de adsorción de cobre (Cu2+) mediante el diseño experimental como técnica estadística. El método de extracción utilizado fue una hidrólisis alcalina variando cuatro factores: concentración de reactivo, temperatura, porcentaje en masa de lodo en la mezcla de lodo y reactivo alcalino y el tipo de reactivo alcalino. Aunque no se alcanzaron las condiciones óptimas entre las variables y niveles estudiados en el presente estudio, se identificó que a 20 oC, 10 % de lodo y utilizando NaOH 1 M se maximizaban los rendimientos de extracción y capacidad de adsorción de las EPS (465 mg EPS/g SV y 46,5 mg Cu(II) ads/g EPS, respectivamente). Adicionalmente, se determinó que la concentración de reactivo y el porcentaje de lodo en la mezcla de lodo y reactivo son las variables más influyentes en el rendimiento de extracción y capacidad de adsorción. La caracterización de extractos reveló, una mayor presencia de proteínas que polisacáridos, especialmente en los ensayos con altas concentraciones de reactivos alcalinos. A diferencia de lo publicado en la literatura, aparentemente, el aumento de la temperatura en la extracción no incrementa la cantidad de EPS; sin embargo, lo que se observa en este estudio es resultado de dos efectos, uno de ellos es la degradación de macromoléculas provocada por la temperatura y el otro se debe a la pérdida de componentes moleculares de menor peso molecular durante las etapas de diálisis previas a las pruebas de adsorción. Se observaron mejores capacidades de adsorción utilizando Na2CO3 en lugar de NaOH como reactivo alcalino, pues la menor alcalinidad permitió mantener mejor la integridad estructural de las EPS, manteniendo así la actividad de los grupos funcionales en su superficie, lo que favorece la adsorción de iones metálicos. Por otro lado, los ensayos de potencial Z indicaron que la interacción electrostática no explica completamente el comportamiento de las EPS en los procesos de adsorción, por lo que se requiere de una investigación más detallada de los mecanismos que actúan en este proceso. La principal limitación del presente estudio fue el modelo de regresión de primer orden utilizado en el diseño experimental, que no permitió una optimización completa. Se recomienda llevar a cabo un diseño experimental con un modelo de regresión de segundo orden siendo el Diseño Central Compuesto o el Diseño Box-Behnken adecuados para ello.
La gestión de residuos, especialmente en el tratamiento de aguas residuales, es un desafío creciente debido a la liberación de metales pesados en ambientes acuáticos causado por actividades industriales, y representa una amenaza a ecosistemas y la salud humana. Las Sustancias Poliméricas Extracelulares (EPS) tienen propiedades únicas que las hacen efectivas como adsorbentes de metales pesados, convirtiéndolas en una alternativa atractiva en la búsqueda de soluciones sostenibles y económicamente viables para la remoción de estos metales. Este trabajo se centró en optimizar la extracción de EPS desde lodos de depuración de Plantas de Tratamiento de Aguas Residuales (PTAR) con la finalidad de maximizar el rendimiento y su capacidad de adsorción de cobre (Cu2+) mediante el diseño experimental como técnica estadística. El método de extracción utilizado fue una hidrólisis alcalina variando cuatro factores: concentración de reactivo, temperatura, porcentaje en masa de lodo en la mezcla de lodo y reactivo alcalino y el tipo de reactivo alcalino. Aunque no se alcanzaron las condiciones óptimas entre las variables y niveles estudiados en el presente estudio, se identificó que a 20 oC, 10 % de lodo y utilizando NaOH 1 M se maximizaban los rendimientos de extracción y capacidad de adsorción de las EPS (465 mg EPS/g SV y 46,5 mg Cu(II) ads/g EPS, respectivamente). Adicionalmente, se determinó que la concentración de reactivo y el porcentaje de lodo en la mezcla de lodo y reactivo son las variables más influyentes en el rendimiento de extracción y capacidad de adsorción. La caracterización de extractos reveló, una mayor presencia de proteínas que polisacáridos, especialmente en los ensayos con altas concentraciones de reactivos alcalinos. A diferencia de lo publicado en la literatura, aparentemente, el aumento de la temperatura en la extracción no incrementa la cantidad de EPS; sin embargo, lo que se observa en este estudio es resultado de dos efectos, uno de ellos es la degradación de macromoléculas provocada por la temperatura y el otro se debe a la pérdida de componentes moleculares de menor peso molecular durante las etapas de diálisis previas a las pruebas de adsorción. Se observaron mejores capacidades de adsorción utilizando Na2CO3 en lugar de NaOH como reactivo alcalino, pues la menor alcalinidad permitió mantener mejor la integridad estructural de las EPS, manteniendo así la actividad de los grupos funcionales en su superficie, lo que favorece la adsorción de iones metálicos. Por otro lado, los ensayos de potencial Z indicaron que la interacción electrostática no explica completamente el comportamiento de las EPS en los procesos de adsorción, por lo que se requiere de una investigación más detallada de los mecanismos que actúan en este proceso. La principal limitación del presente estudio fue el modelo de regresión de primer orden utilizado en el diseño experimental, que no permitió una optimización completa. Se recomienda llevar a cabo un diseño experimental con un modelo de regresión de segundo orden siendo el Diseño Central Compuesto o el Diseño Box-Behnken adecuados para ello.
Dirección
MOSQUERA CORRAL, ANUSKA (Tutoría)
Marzialetti , Teresita Cotutoría
MOSQUERA CORRAL, ANUSKA (Tutoría)
Marzialetti , Teresita Cotutoría
Tribunal
FEIJOO COSTA, GUMERSINDO (Presidente/a)
DIAZ JULLIEN, CRISTINA (Secretario/a)
FERNANDEZ CARRASCO, EUGENIO (Vocal)
FEIJOO COSTA, GUMERSINDO (Presidente/a)
DIAZ JULLIEN, CRISTINA (Secretario/a)
FERNANDEZ CARRASCO, EUGENIO (Vocal)
Análisis de rendimiento de sistemas OLAP para analítica en tiempo real
Autoría
M.T.H.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
M.T.H.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2024 17:00
15.07.2024 17:00
Resumen
Este proyecto explora el rendimiento de los sistemas OLAP (Procesamiento Analítico en Línea) en aplicaciones de analítica en tiempo real. A medida que las empresas buscan mejorar la toma de decisiones mediante la analítica de grandes volúmenes de datos en tiempo real, los sistemas OLAP se han vuelto esenciales. Se evalúan los sistemas ClickHouse, Apache Doris y StarRocks, destacando sus arquitecturas, métodos de optimización y capacidades de escalabilidad. El análisis se basa en métricas clave como el tiempo de ejecución, la eficiencia de uso de recursos y la capacidad de manejo de diversos volúmenes de datos en distintos escenarios y casos de uso. Los resultados muestran que, los tiempos de ejecución son considerablemente menores en ClickHouse en comparación con StarRocks y especialmente con Apache Doris. Para alcanzar este nivel de rendimiento, ClickHouse utiliza una mayor cantidad de potencia de procesamiento de la CPU que los otros sistemas, así como más memoria en las consultas que involucran JOINs.
Este proyecto explora el rendimiento de los sistemas OLAP (Procesamiento Analítico en Línea) en aplicaciones de analítica en tiempo real. A medida que las empresas buscan mejorar la toma de decisiones mediante la analítica de grandes volúmenes de datos en tiempo real, los sistemas OLAP se han vuelto esenciales. Se evalúan los sistemas ClickHouse, Apache Doris y StarRocks, destacando sus arquitecturas, métodos de optimización y capacidades de escalabilidad. El análisis se basa en métricas clave como el tiempo de ejecución, la eficiencia de uso de recursos y la capacidad de manejo de diversos volúmenes de datos en distintos escenarios y casos de uso. Los resultados muestran que, los tiempos de ejecución son considerablemente menores en ClickHouse en comparación con StarRocks y especialmente con Apache Doris. Para alcanzar este nivel de rendimiento, ClickHouse utiliza una mayor cantidad de potencia de procesamiento de la CPU que los otros sistemas, así como más memoria en las consultas que involucran JOINs.
Dirección
Triñanes Fernández, Joaquín Ángel (Tutoría)
López Chao, Brais Cotutoría
Triñanes Fernández, Joaquín Ángel (Tutoría)
López Chao, Brais Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Optimizacion Combinatoria en Monitorizacion Predictiva
Autoría
A.T.R.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.T.R.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
13.09.2024 17:00
13.09.2024 17:00
Resumen
Este trabajo ofrece un estudio sobre la optimización de modelos de secuencia a secuencia para la predicción de tareas en un sistema de monitorización predictiva de procesos de negocio. La monitorización predictiva es fundamental para anticipar el comportamiento de los procesos en ejecución y mejorar la toma de decisiones. Inicialmente, se investigaron varias técnicas de optimización, tanto basadas en aprendizaje profundo como en meta-heurísticas, para mejorar la fase de inferencia del sistema ASTON. Cada técnica fue evaluada en función de su capacidad para tratar restricciones específicas, la calidad de los datos de aprendizaje disponibles o la variabilidad en el tamaño de las trazas. Finalmente, se eligió el algoritmo genético (GA) por su eficiencia demostrada en la resolución de problemas complejos de optimización combinatoria y su habilidad para adaptarse al problema. El GA propuesto mejora iterativamente una población de soluciones potenciales mediante selección, cruce y mutación, maximizando la probabilidad condicionada de los sufijos predichos. Se estudiarán los efectos de los hiperparámetros en las soluciones alcanzadas y la viabilidad del sistema desarrollado para la predicción.
Este trabajo ofrece un estudio sobre la optimización de modelos de secuencia a secuencia para la predicción de tareas en un sistema de monitorización predictiva de procesos de negocio. La monitorización predictiva es fundamental para anticipar el comportamiento de los procesos en ejecución y mejorar la toma de decisiones. Inicialmente, se investigaron varias técnicas de optimización, tanto basadas en aprendizaje profundo como en meta-heurísticas, para mejorar la fase de inferencia del sistema ASTON. Cada técnica fue evaluada en función de su capacidad para tratar restricciones específicas, la calidad de los datos de aprendizaje disponibles o la variabilidad en el tamaño de las trazas. Finalmente, se eligió el algoritmo genético (GA) por su eficiencia demostrada en la resolución de problemas complejos de optimización combinatoria y su habilidad para adaptarse al problema. El GA propuesto mejora iterativamente una población de soluciones potenciales mediante selección, cruce y mutación, maximizando la probabilidad condicionada de los sufijos predichos. Se estudiarán los efectos de los hiperparámetros en las soluciones alcanzadas y la viabilidad del sistema desarrollado para la predicción.
Dirección
LAMA PENIN, MANUEL (Tutoría)
VIDAL AGUIAR, JUAN CARLOS Cotutoría
RAMA MANEIRO, EFREN Cotutoría
LAMA PENIN, MANUEL (Tutoría)
VIDAL AGUIAR, JUAN CARLOS Cotutoría
RAMA MANEIRO, EFREN Cotutoría
Tribunal
Fernández Pena, Anselmo Tomás (Presidente/a)
MOSQUERA GONZALEZ, ANTONIO (Secretario/a)
Triñanes Fernández, Joaquín Ángel (Vocal)
Fernández Pena, Anselmo Tomás (Presidente/a)
MOSQUERA GONZALEZ, ANTONIO (Secretario/a)
Triñanes Fernández, Joaquín Ángel (Vocal)
Eliminación de contaminantes emergentes (microcontaminantes, resistencias a antibióticos y patógenos) mediante procesos biológicos anaerobios: Estudio del estado del arte y propuesta de estudio experimental.
Autoría
A.F.S.
Máster Universitario en Ingeniería Ambiental (3ª ed)
A.F.S.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
27.02.2024 12:00
27.02.2024 12:00
Resumen
Los Contaminantes de Preocupación Emergente (CECs) han adquirido una relevancia considerable en el ámbito de la ingeniería ambiental, destacándo su ingreso al medio acuático a través de los efluentes provenientes de estaciones depuradoras de aguas residuales. Entre los CECs presentes en estas aguas residuales urbanas, destacan los antibióticos, los microorganismos patógenos y las resistencias desarrolladas por estos microorganismos, transmitidas mediante genes de resistencia a antibióticos (ARGs). Las aguas residuales domésticas representan una fuente importante de CECs. Sin embargo, los sistemas de gestión individual de aguas residuales comúnmente empleados en áreas poblacionales dispersas resultan insuficientes para abordar tanto los contaminantes convencionales como los emergentes. Por ende, se hace necesario el desarrollo de tecnologías eficientes desde una perspectiva económica para enfrentar este desafío. En el presente trabajo, se llevó a cabo una revisión exhaustiva del estado del arte respecto a las tecnologías disponibles para la eliminación de CECs en aguas residuales, así como una evaluación de la eficacia de los métodos de tratamiento para la eliminación de estos contaminantes. Además, se diseñó un estudio experimental con el fin de evaluar la eficacia de un proceso anaerobio para la eliminación de CECs en aguas residuales segregadas. La revisión del estado del arte se basó en una estrategia de búsqueda de palabras clave relevantes, tales como microcontaminantes orgánicos, antibióticos, resistencia antibiótica, patógenos, plantas de tratamiento de aguas residuales y tratamiento descentralizado. Por otro lado, el diseño del estudio experimental implicó el arranque y optimización de un reactor anaerobio de flujo ascendente de lodos granulares (UASB) para el tratamiento de aguas residuales provenientes de fosas sépticas. En conclusión, se seleccionaron microcontaminantes en general y antibióticos en particular (sulfametoxazol, trimetoprima, ciprofloxacino y eritromicina), así como ARGs (intl1, sul1, blaCTX-M, mcr, ermB y qnrS) y patógenos (Klebsiella, Enterococos, norovirus, sapovirus y virus de la hepatitis) para su análisis. Respecto al equipo experimental, se desarrolló un sistema de conservación del agua residual, y se alcanzó una eliminación del 79% en el reactor UASB en términos de Demanda Química de Oxígeno (DQO).
Los Contaminantes de Preocupación Emergente (CECs) han adquirido una relevancia considerable en el ámbito de la ingeniería ambiental, destacándo su ingreso al medio acuático a través de los efluentes provenientes de estaciones depuradoras de aguas residuales. Entre los CECs presentes en estas aguas residuales urbanas, destacan los antibióticos, los microorganismos patógenos y las resistencias desarrolladas por estos microorganismos, transmitidas mediante genes de resistencia a antibióticos (ARGs). Las aguas residuales domésticas representan una fuente importante de CECs. Sin embargo, los sistemas de gestión individual de aguas residuales comúnmente empleados en áreas poblacionales dispersas resultan insuficientes para abordar tanto los contaminantes convencionales como los emergentes. Por ende, se hace necesario el desarrollo de tecnologías eficientes desde una perspectiva económica para enfrentar este desafío. En el presente trabajo, se llevó a cabo una revisión exhaustiva del estado del arte respecto a las tecnologías disponibles para la eliminación de CECs en aguas residuales, así como una evaluación de la eficacia de los métodos de tratamiento para la eliminación de estos contaminantes. Además, se diseñó un estudio experimental con el fin de evaluar la eficacia de un proceso anaerobio para la eliminación de CECs en aguas residuales segregadas. La revisión del estado del arte se basó en una estrategia de búsqueda de palabras clave relevantes, tales como microcontaminantes orgánicos, antibióticos, resistencia antibiótica, patógenos, plantas de tratamiento de aguas residuales y tratamiento descentralizado. Por otro lado, el diseño del estudio experimental implicó el arranque y optimización de un reactor anaerobio de flujo ascendente de lodos granulares (UASB) para el tratamiento de aguas residuales provenientes de fosas sépticas. En conclusión, se seleccionaron microcontaminantes en general y antibióticos en particular (sulfametoxazol, trimetoprima, ciprofloxacino y eritromicina), así como ARGs (intl1, sul1, blaCTX-M, mcr, ermB y qnrS) y patógenos (Klebsiella, Enterococos, norovirus, sapovirus y virus de la hepatitis) para su análisis. Respecto al equipo experimental, se desarrolló un sistema de conservación del agua residual, y se alcanzó una eliminación del 79% en el reactor UASB en términos de Demanda Química de Oxígeno (DQO).
Dirección
Omil Prieto, Francisco (Tutoría)
GARRIDO FERNANDEZ, JUAN MANUEL Cotutoría
Omil Prieto, Francisco (Tutoría)
GARRIDO FERNANDEZ, JUAN MANUEL Cotutoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
FERNANDEZ ESCRIBANO, JOSE ANGEL (Secretario/a)
ALDREY VAZQUEZ, JOSE ANTONIO (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
FERNANDEZ ESCRIBANO, JOSE ANGEL (Secretario/a)
ALDREY VAZQUEZ, JOSE ANTONIO (Vocal)
Integrando los Servicios Ecosistémicos en el Análisis del Ciclo de Vida: Una comparativa entre sistemas de producción de carne vacuna en Galicia
Autoría
A.F.D.B.
Máster Universitario en Ingeniería Ambiental (3ª ed)
A.F.D.B.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
27.02.2024 12:30
27.02.2024 12:30
Resumen
Muchos sistemas ganaderos cumplen múltiples funciones al proporcionar servicios ecosistémicos (SE) que normalmente no se consideran en los estudios de Análisis del Ciclo de Vida (ACV). Los ACV actuales de ganadería a menudo se centran en productos primarios como la carne vacuna y la leche, descuidando SE distintos a los de provisión. Esto puede llevar a una comprensión limitada de la naturaleza multifuncional de ciertas prácticas de gestión. La integración de SE en el ACV sigue siendo poco común debido a desafíos en el modelado de sistemas de producción, la recopilación de datos de inventario y la interpretación de resultados. Este trabajo integra valoraciones de SE, basadas en esquemas de pagos de la Política Agrícola Común (PAC), en categorías de impacto de punto medio mediante asignación económica de cargas. Reconocer y valorar SE que proporcionan sistemas extensivos y mixtos es crucial para reconocer el trabajo realizado por pastores y pequeños granjeros. Los resultados contribuyen al discurso sobre la ganadería sostenible, informando a los tomadores de decisiones sobre las compensaciones ambientales en varios enfoques de gestión.
Muchos sistemas ganaderos cumplen múltiples funciones al proporcionar servicios ecosistémicos (SE) que normalmente no se consideran en los estudios de Análisis del Ciclo de Vida (ACV). Los ACV actuales de ganadería a menudo se centran en productos primarios como la carne vacuna y la leche, descuidando SE distintos a los de provisión. Esto puede llevar a una comprensión limitada de la naturaleza multifuncional de ciertas prácticas de gestión. La integración de SE en el ACV sigue siendo poco común debido a desafíos en el modelado de sistemas de producción, la recopilación de datos de inventario y la interpretación de resultados. Este trabajo integra valoraciones de SE, basadas en esquemas de pagos de la Política Agrícola Común (PAC), en categorías de impacto de punto medio mediante asignación económica de cargas. Reconocer y valorar SE que proporcionan sistemas extensivos y mixtos es crucial para reconocer el trabajo realizado por pastores y pequeños granjeros. Los resultados contribuyen al discurso sobre la ganadería sostenible, informando a los tomadores de decisiones sobre las compensaciones ambientales en varios enfoques de gestión.
Dirección
HOSPIDO QUINTANA, ALMUDENA (Tutoría)
DIAZ VARELA, EMILIO RAFAEL Cotutoría
HOSPIDO QUINTANA, ALMUDENA (Tutoría)
DIAZ VARELA, EMILIO RAFAEL Cotutoría
Tribunal
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Presidente/a)
FERNANDEZ ESCRIBANO, JOSE ANGEL (Secretario/a)
ALDREY VAZQUEZ, JOSE ANTONIO (Vocal)
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Presidente/a)
FERNANDEZ ESCRIBANO, JOSE ANGEL (Secretario/a)
ALDREY VAZQUEZ, JOSE ANTONIO (Vocal)
Evaluación del tratamiento de efluentes salinos con alta carga orgánica utilizando bacterias fototróficas púrpura en un reactor SBR.
Autoría
M.B.F.
Máster Universitario en Ingeniería Ambiental (3ª ed)
M.B.F.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
01.03.2024 10:00
01.03.2024 10:00
Resumen
Tradicionalmente, el tratamiento de aguas residuales ha estado enfocado a la eliminación de nutrientes (nitrógeno, fósforo y materia orgánica), con el fin de conseguir que un agua cumpla unas determinadas características que hagan mínimo el impacto al medio del vertido. Sin embargo, en los últimos años este enfoque se ha completado, concibiendo a estas plantas como un actor más en la economía circular y del cual se pueden obtener recursos. En este sentido, las bacterias fotótrofas púrpuras (de aquí en adelante PPB por sus siglas en inglés de purple phototrophic bacteria), han surgido como una opción prometedora en el tratamiento de aguas residuales. Su aplicación se está empezando a extender en el tratamiento de efluentes urbanos. A diferencia de los sistemas de lodos activos, la biomasa PPB contiene una alta concentración de proteína de una sola célula. Esta característica abre nuevas oportunidades para la recuperación de recursos, ya que la biomasa PPB se puede valorizar como alimento en granjas ganaderas y piscícolas, además de poder ser utilizado como fertilizante. A pesar de los notables avances en el uso de PPB en aguas residuales, apenas se han realizado estudios sobre la utilización de los cultivos enriquecidos en PPB para el tratamiento de efluentes salinos. El presente trabajo pretende evaluar el efecto de la salinidad sobre el comportamiento de un cultivo mixto de PPB.
Tradicionalmente, el tratamiento de aguas residuales ha estado enfocado a la eliminación de nutrientes (nitrógeno, fósforo y materia orgánica), con el fin de conseguir que un agua cumpla unas determinadas características que hagan mínimo el impacto al medio del vertido. Sin embargo, en los últimos años este enfoque se ha completado, concibiendo a estas plantas como un actor más en la economía circular y del cual se pueden obtener recursos. En este sentido, las bacterias fotótrofas púrpuras (de aquí en adelante PPB por sus siglas en inglés de purple phototrophic bacteria), han surgido como una opción prometedora en el tratamiento de aguas residuales. Su aplicación se está empezando a extender en el tratamiento de efluentes urbanos. A diferencia de los sistemas de lodos activos, la biomasa PPB contiene una alta concentración de proteína de una sola célula. Esta característica abre nuevas oportunidades para la recuperación de recursos, ya que la biomasa PPB se puede valorizar como alimento en granjas ganaderas y piscícolas, además de poder ser utilizado como fertilizante. A pesar de los notables avances en el uso de PPB en aguas residuales, apenas se han realizado estudios sobre la utilización de los cultivos enriquecidos en PPB para el tratamiento de efluentes salinos. El presente trabajo pretende evaluar el efecto de la salinidad sobre el comportamiento de un cultivo mixto de PPB.
Dirección
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
Tribunal
PARAJO MONTES, MARIA MERCEDES (Presidente/a)
BALBOA MENDEZ, SABELA (Secretario/a)
MAURICIO IGLESIAS, MIGUEL (Vocal)
PARAJO MONTES, MARIA MERCEDES (Presidente/a)
BALBOA MENDEZ, SABELA (Secretario/a)
MAURICIO IGLESIAS, MIGUEL (Vocal)
Evaluación del proceso de nitritación parcial en continuo para la eliminación eficiente de nitrógeno en la línea principal de una EDAR
Autoría
G.M.A.
Máster Universitario en Ingeniería Ambiental (3ª ed)
G.M.A.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
01.03.2024 10:30
01.03.2024 10:30
Resumen
La presencia de nitrógeno en las aguas residuales, si no se elimina adecuadamente, supone un gran riesgo para la salud humana y los ecosistemas. Los sistemas convencionales de eliminación de nitrógeno se basan en los procesos biológicos de nitrificación, oxidación secuencial de amonio a nitrito (nitritación por las bacterias oxidantes de amonio, BOA) y de este a nitrato (nitratación por las bacterias oxidantes de nitrito, BON) en condiciones aerobias, y desnitrificación, reducción de nitrato o nitrito a nitrógeno gas en condiciones anóxicas. El empleo de estos procesos supone un elevado gasto energético para las estaciones depuradoras de aguas residuales (EDAR), encareciendo la depuración de las aguas residuales e incrementando la liberación de gases de efecto invernadero a la atmósfera. El empleo de sistemas donde se llevan a cabo los procesos biológicos de nitritación parcial y anammox (NP/AMX) permite reducir el consumo de energía en un 60 %. Esta alternativa combina la NP, que es la oxidación parcial del amonio a nitrito (50 % de oxidación), con el proceso AMX en el que el amonio restante, junto con el nitrito producido se combina para producir nitrógeno gas. Aunque este proceso ha sido implementado con éxito para el tratamiento de efluentes de digestores anaerobios de lodos o de aguas residuales industriales, caracterizados por su alta concentración de nitrógeno y temperaturas en el rango mesófilo (30 C), la producción estable de nitrito en la NP presenta una serie de dificultades para el tratamiento de aguas residuales urbanas debido su baja concentración de amonio (100 mg N-NH4+/L). En el presente estudio se ha operado un sistema de NP en continuo con el objetivo de evaluar los principales parámetros críticos que afectan al proceso de NP para tratar un agua con 100 mg N-NH4+/L. Los resultados obtenidos demuestran la posibilidad de oxidar un 50 % de amonio a nitrito en un sistema operado en con tiempos de residencia hidráulicos de 3 h. Al mismo tiempo, se ha comprobado el potencial del amoniaco libre (AL) y el ácido nitroso libre (ANL) para actuar como inhibidores de las BON. Los resultados obtenidos reflejan la capacidad de las BON para desarrollar mecanismos que les permitan tolerar concentraciones de AL por encima de los límites teóricos inhibitorios (0,1 mg AL/L), mientras que son más sensibles al ANL, comenzando a inhibirse por debajo de su límite teórico (0,022 mg ANL/L), lo cual a su vez estará relacionado con la concentración de biomasa presente en el cultivo. La combinación de ambos parámetros ha permitido obtener hasta casi un 90 % de acumulación de nitrito, evidenciando la capacidad de estos sistemas para su aplicación en el tratamiento de aguas residuales urbanas.
La presencia de nitrógeno en las aguas residuales, si no se elimina adecuadamente, supone un gran riesgo para la salud humana y los ecosistemas. Los sistemas convencionales de eliminación de nitrógeno se basan en los procesos biológicos de nitrificación, oxidación secuencial de amonio a nitrito (nitritación por las bacterias oxidantes de amonio, BOA) y de este a nitrato (nitratación por las bacterias oxidantes de nitrito, BON) en condiciones aerobias, y desnitrificación, reducción de nitrato o nitrito a nitrógeno gas en condiciones anóxicas. El empleo de estos procesos supone un elevado gasto energético para las estaciones depuradoras de aguas residuales (EDAR), encareciendo la depuración de las aguas residuales e incrementando la liberación de gases de efecto invernadero a la atmósfera. El empleo de sistemas donde se llevan a cabo los procesos biológicos de nitritación parcial y anammox (NP/AMX) permite reducir el consumo de energía en un 60 %. Esta alternativa combina la NP, que es la oxidación parcial del amonio a nitrito (50 % de oxidación), con el proceso AMX en el que el amonio restante, junto con el nitrito producido se combina para producir nitrógeno gas. Aunque este proceso ha sido implementado con éxito para el tratamiento de efluentes de digestores anaerobios de lodos o de aguas residuales industriales, caracterizados por su alta concentración de nitrógeno y temperaturas en el rango mesófilo (30 C), la producción estable de nitrito en la NP presenta una serie de dificultades para el tratamiento de aguas residuales urbanas debido su baja concentración de amonio (100 mg N-NH4+/L). En el presente estudio se ha operado un sistema de NP en continuo con el objetivo de evaluar los principales parámetros críticos que afectan al proceso de NP para tratar un agua con 100 mg N-NH4+/L. Los resultados obtenidos demuestran la posibilidad de oxidar un 50 % de amonio a nitrito en un sistema operado en con tiempos de residencia hidráulicos de 3 h. Al mismo tiempo, se ha comprobado el potencial del amoniaco libre (AL) y el ácido nitroso libre (ANL) para actuar como inhibidores de las BON. Los resultados obtenidos reflejan la capacidad de las BON para desarrollar mecanismos que les permitan tolerar concentraciones de AL por encima de los límites teóricos inhibitorios (0,1 mg AL/L), mientras que son más sensibles al ANL, comenzando a inhibirse por debajo de su límite teórico (0,022 mg ANL/L), lo cual a su vez estará relacionado con la concentración de biomasa presente en el cultivo. La combinación de ambos parámetros ha permitido obtener hasta casi un 90 % de acumulación de nitrito, evidenciando la capacidad de estos sistemas para su aplicación en el tratamiento de aguas residuales urbanas.
Dirección
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
Tribunal
PARAJO MONTES, MARIA MERCEDES (Presidente/a)
BARRAL SILVA, MARIA TERESA DEL CARMEN (Secretario/a)
MAURICIO IGLESIAS, MIGUEL (Vocal)
PARAJO MONTES, MARIA MERCEDES (Presidente/a)
BARRAL SILVA, MARIA TERESA DEL CARMEN (Secretario/a)
MAURICIO IGLESIAS, MIGUEL (Vocal)
Incidencia de (Micro)Plásticos en Hábitats Costeros del Archipiélago de Sálvora (Parque Nacional de las Islas Atlánticas)
Autoría
S.P.C.
Máster Universitario en Ingeniería Ambiental (3ª ed)
S.P.C.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
01.03.2024 11:00
01.03.2024 11:00
Resumen
Los océanos acumulan 150 millones de toneladas de plástico y se estima reciben entre 4,8 y 12,7 millones de este al año. Pese a ello, su impacto sobre el medio marino está todavía por valorar. Este trabajo pretende evaluar la incidencia de basura marina y microplásticos en tres hábitats costeros (playa, dunas y costa rocosa) de la isla de Sálvora, Parque Nacional de las Islas Atlánticas de Galicia. El archipiélago de Sálvora se encuentra en la boca de la ría de Arousa, la cual concentra la mayor parte de la producción de mejillón de Galicia, actividad que puede contribuir sustancialmente a la generación de basura marina. En este trabajo se ha realizado el inventario de basura marina a lo largo de dos transectos costeros y se ha analizado el contenido de microplásticos en las arenas de la playa do Boi y en un sistema dunar, en el que se asienta una de las principales colonias de gaviota patiamarilla (Larus michahellis) de la isla. Los plásticos fueron identificados mediante espectroscopía FTIR (Fourier transform infrared spectroscopy). Para el estudio de microplásticos, se tomaron muestras de arena de las que fueron separados por densidad, con una solución de cloruro de zinc (ZnCl2). Las micropartículas obtenidas se analizaron por espectroscopía Raman y microATR FTIR (micro Attenuated Total Reflection Fourier Transform InfraRed) para, como con los macroplásticos, determinar su composición. La costa rocosa presentó la mayor acumulación de basura, representando una masa 10 veces superior a la de la playa. El origen de estos plásticos se relacionó con los sectores que predominan en la zona, como la pesca. El análisis de los datos ha permitido estimar en casi 4 toneladas la basura marina total presente en el Parque Nacional de las Islas Atlánticas. En cuanto a los microplásticos, se observó una mayor concentración en la zona de duna con colonias de gaviotas (2247 MPs/kg), que en la playa (480 MPs/kg). Las principales formas observadas fueron fibras de naturaleza celulósica y pellets de PET y PVC. En la zona de playa abundan las fibras, lo que podría tener como origen vertidos de lavado de ropa, mientras que en la zona de duna predominan los pellets, que guardarían relación con la acumulación en las heces de las aves. Se estima que en la superficie de la playa, de 5100 m2, se acumulan 1800 106 MPs, y 1300 106 MPs en los 2000 m2 de colonia de gaviotas.
Los océanos acumulan 150 millones de toneladas de plástico y se estima reciben entre 4,8 y 12,7 millones de este al año. Pese a ello, su impacto sobre el medio marino está todavía por valorar. Este trabajo pretende evaluar la incidencia de basura marina y microplásticos en tres hábitats costeros (playa, dunas y costa rocosa) de la isla de Sálvora, Parque Nacional de las Islas Atlánticas de Galicia. El archipiélago de Sálvora se encuentra en la boca de la ría de Arousa, la cual concentra la mayor parte de la producción de mejillón de Galicia, actividad que puede contribuir sustancialmente a la generación de basura marina. En este trabajo se ha realizado el inventario de basura marina a lo largo de dos transectos costeros y se ha analizado el contenido de microplásticos en las arenas de la playa do Boi y en un sistema dunar, en el que se asienta una de las principales colonias de gaviota patiamarilla (Larus michahellis) de la isla. Los plásticos fueron identificados mediante espectroscopía FTIR (Fourier transform infrared spectroscopy). Para el estudio de microplásticos, se tomaron muestras de arena de las que fueron separados por densidad, con una solución de cloruro de zinc (ZnCl2). Las micropartículas obtenidas se analizaron por espectroscopía Raman y microATR FTIR (micro Attenuated Total Reflection Fourier Transform InfraRed) para, como con los macroplásticos, determinar su composición. La costa rocosa presentó la mayor acumulación de basura, representando una masa 10 veces superior a la de la playa. El origen de estos plásticos se relacionó con los sectores que predominan en la zona, como la pesca. El análisis de los datos ha permitido estimar en casi 4 toneladas la basura marina total presente en el Parque Nacional de las Islas Atlánticas. En cuanto a los microplásticos, se observó una mayor concentración en la zona de duna con colonias de gaviotas (2247 MPs/kg), que en la playa (480 MPs/kg). Las principales formas observadas fueron fibras de naturaleza celulósica y pellets de PET y PVC. En la zona de playa abundan las fibras, lo que podría tener como origen vertidos de lavado de ropa, mientras que en la zona de duna predominan los pellets, que guardarían relación con la acumulación en las heces de las aves. Se estima que en la superficie de la playa, de 5100 m2, se acumulan 1800 106 MPs, y 1300 106 MPs en los 2000 m2 de colonia de gaviotas.
Dirección
OTERO PEREZ, XOSE LOIS (Tutoría)
OTERO PEREZ, XOSE LOIS (Tutoría)
Tribunal
GARCIA-RODEJA GAYOSO, EDUARDO (Presidente/a)
BARRAL SILVA, MARIA TERESA DEL CARMEN (Secretario/a)
PARAJO MONTES, MARIA MERCEDES (Vocal)
GARCIA-RODEJA GAYOSO, EDUARDO (Presidente/a)
BARRAL SILVA, MARIA TERESA DEL CARMEN (Secretario/a)
PARAJO MONTES, MARIA MERCEDES (Vocal)
El castaño en las Fragas do Eume
Autoría
I.M.B.R.
Máster Universitario en Ingeniería Ambiental (3ª ed)
I.M.B.R.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
01.03.2024 13:00
01.03.2024 13:00
Resumen
El castaño Castanea sativa es una especie en declive en el Parque Natural de las Fragas do Eume PNFE. Se pretende intentar revertir esta situación encontrando los lugares mas propicios para llevar a cabo plantaciones con esta especia, empleando QuantumGis para realizar distintos análisis sobre el territorio del PNFE y de esta manera aumentar el número de pies de castaño en el Parque Natural. También se pretende poner en valor el papel de los árboles en el secuestro de carbono y los beneficios que provoca la vegetación arbórea, en el contexto actual de cambio climático, cuantificando las toneladas de CO2 que transforma la vegetación, mediante la fotosíntesis, en biomasa.
El castaño Castanea sativa es una especie en declive en el Parque Natural de las Fragas do Eume PNFE. Se pretende intentar revertir esta situación encontrando los lugares mas propicios para llevar a cabo plantaciones con esta especia, empleando QuantumGis para realizar distintos análisis sobre el territorio del PNFE y de esta manera aumentar el número de pies de castaño en el Parque Natural. También se pretende poner en valor el papel de los árboles en el secuestro de carbono y los beneficios que provoca la vegetación arbórea, en el contexto actual de cambio climático, cuantificando las toneladas de CO2 que transforma la vegetación, mediante la fotosíntesis, en biomasa.
Dirección
Rojo Alboreca, Alberto (Tutoría)
Franco Aradas, Carlos Cotutoría
Rojo Alboreca, Alberto (Tutoría)
Franco Aradas, Carlos Cotutoría
Tribunal
FIOL LOPEZ, SARAH (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
CARBALLA ARCOS, MARTA (Vocal)
FIOL LOPEZ, SARAH (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
CARBALLA ARCOS, MARTA (Vocal)
Produccción de ácidos grasos volátiles a partir de xilano por fermentación anaerobia en cultivo mixto
Autoría
C.M.F.
Máster Universitario en Ingeniería Ambiental (3ª ed)
C.M.F.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
01.03.2024 13:45
01.03.2024 13:45
Resumen
Los procesos industriales son responsables de hasta el 24% de las emisiones globales de gases de efecto invernadero, esto se debe principalmente a la creciente explotación de combustibles fósiles y otros recursos no renovables para satisfacer el aumento en la demanda de productos. La preocupación a causa de los posibles efectos sobre el cambio climático de estas emisiones ha motivado la investigación y desarrollo sobre el uso de recursos alternativos que permitan mitigar sus posibles impactos; por ejemplo, la valorización de residuos orgánicos para la producción de combustibles y productos químicos de alto valor añadido. La digestión anaerobia es una alternativa ampliamente estudiada y utilizada con este fin, ya que ha demostrado un gran potencial para la recuperación de energía de forma eficiente y a bajo coste; no obstante, el principal producto de la digestión anaerobia -el metano- aún es considerado un commodity de bajo valor. Por ello, recientemente se ha optado por impedir la metanogénesis, de forma de obtener productos químicos de mayor valor como el etanol, el butanol, el lactato, los Ácidos Grasos Volátiles (AGVs) y los Ácidos Grasos de Cadena Media (AGCM). Los AGVs y AGCM suscitan un gran interés debido a la gran variedad de aplicaciones, siendo requeridos por industrias como la alimentaria, farmacéutica, cosmética y química. Hasta el momento la utilización de residuos agroindustriales para la producción de AGCM se limita a aquellos con alto contenido en etanol o lactato, ya que son fundamentales para el proceso de obtención de AGCM. Un nuevo reto consiste en ampliar el espectro de residuos a utilizar, incorporando fracciones abundantes en la naturaleza, como pueden ser los residuos lignocelulósicos, pero con limitaciones, como son la dificultad en la hidrólisis de la celulosa y la baja producción de lactato in situ. En este trabajo se parte de un sustrato modelo (xilano), lo suficientemente complejo como para tener en cuenta la etapa de hidrólisis dentro del proceso global, pero no tan complejo como la celulosa, ya que la optimización de la hidrólisis sería un trabajo en sí mismo. De esta forma, se busca optimizar la obtención de AGCM contemplando todas las etapas del proceso (hidrólisis, acidogénesis y elongación de cadena) a través de la selección de las condiciones de operación, en particular el Tiempo de Retención Hidráulico (TRH), y se comparan dos configuraciones de operación (continuo y discontinuo secuencial). Los resultados del trabajo indican que la hidrólisis del sustrato no resulta ser una etapa limitante de la velocidad, en cambio sí lo es el proceso de elongación de cadena para obtener AGCM a partir de AGVs. El TRH óptimo se encuentra entre 2 y 4 días, una disminución por debajo de 1 día limita la cinética de elongación de cadena comprometiendo fuertemente el rendimiento de AGCM. Si bien, la selección del TRH como parámetro de optimización resultó acertada ya que pudieron observarse tendencias claras en el rendimiento del ácido caproico en ambos reactores, su relación directa con parámetros como la Velocidad de Carga Orgánica (VCO), el Tiempo de Retención de Sólidos (TRS) y la actividad de la biomasa, dificultó la interpretación de los resultados, en especial al intentar atribuir las tendencias observadas a los cambios de uno u otro parámetro. De cara al diseño de un nuevo experimento, una de las posibles alternativas de mejoras consiste en fijar el TRH en un valor entre 2 y 4 días, y optimizar el TRS controlando la biomasa del reactor mediante purgas. El estudio de la influencia de estos parámetros de forma independiente requerirá de mayores esfuerzos y por ende de más recursos, pero ganaría en comprensión.
Los procesos industriales son responsables de hasta el 24% de las emisiones globales de gases de efecto invernadero, esto se debe principalmente a la creciente explotación de combustibles fósiles y otros recursos no renovables para satisfacer el aumento en la demanda de productos. La preocupación a causa de los posibles efectos sobre el cambio climático de estas emisiones ha motivado la investigación y desarrollo sobre el uso de recursos alternativos que permitan mitigar sus posibles impactos; por ejemplo, la valorización de residuos orgánicos para la producción de combustibles y productos químicos de alto valor añadido. La digestión anaerobia es una alternativa ampliamente estudiada y utilizada con este fin, ya que ha demostrado un gran potencial para la recuperación de energía de forma eficiente y a bajo coste; no obstante, el principal producto de la digestión anaerobia -el metano- aún es considerado un commodity de bajo valor. Por ello, recientemente se ha optado por impedir la metanogénesis, de forma de obtener productos químicos de mayor valor como el etanol, el butanol, el lactato, los Ácidos Grasos Volátiles (AGVs) y los Ácidos Grasos de Cadena Media (AGCM). Los AGVs y AGCM suscitan un gran interés debido a la gran variedad de aplicaciones, siendo requeridos por industrias como la alimentaria, farmacéutica, cosmética y química. Hasta el momento la utilización de residuos agroindustriales para la producción de AGCM se limita a aquellos con alto contenido en etanol o lactato, ya que son fundamentales para el proceso de obtención de AGCM. Un nuevo reto consiste en ampliar el espectro de residuos a utilizar, incorporando fracciones abundantes en la naturaleza, como pueden ser los residuos lignocelulósicos, pero con limitaciones, como son la dificultad en la hidrólisis de la celulosa y la baja producción de lactato in situ. En este trabajo se parte de un sustrato modelo (xilano), lo suficientemente complejo como para tener en cuenta la etapa de hidrólisis dentro del proceso global, pero no tan complejo como la celulosa, ya que la optimización de la hidrólisis sería un trabajo en sí mismo. De esta forma, se busca optimizar la obtención de AGCM contemplando todas las etapas del proceso (hidrólisis, acidogénesis y elongación de cadena) a través de la selección de las condiciones de operación, en particular el Tiempo de Retención Hidráulico (TRH), y se comparan dos configuraciones de operación (continuo y discontinuo secuencial). Los resultados del trabajo indican que la hidrólisis del sustrato no resulta ser una etapa limitante de la velocidad, en cambio sí lo es el proceso de elongación de cadena para obtener AGCM a partir de AGVs. El TRH óptimo se encuentra entre 2 y 4 días, una disminución por debajo de 1 día limita la cinética de elongación de cadena comprometiendo fuertemente el rendimiento de AGCM. Si bien, la selección del TRH como parámetro de optimización resultó acertada ya que pudieron observarse tendencias claras en el rendimiento del ácido caproico en ambos reactores, su relación directa con parámetros como la Velocidad de Carga Orgánica (VCO), el Tiempo de Retención de Sólidos (TRS) y la actividad de la biomasa, dificultó la interpretación de los resultados, en especial al intentar atribuir las tendencias observadas a los cambios de uno u otro parámetro. De cara al diseño de un nuevo experimento, una de las posibles alternativas de mejoras consiste en fijar el TRH en un valor entre 2 y 4 días, y optimizar el TRS controlando la biomasa del reactor mediante purgas. El estudio de la influencia de estos parámetros de forma independiente requerirá de mayores esfuerzos y por ende de más recursos, pero ganaría en comprensión.
Dirección
CARBALLA ARCOS, MARTA (Tutoría)
Iglesias Riobó, Juan Cotutoría
CARBALLA ARCOS, MARTA (Tutoría)
Iglesias Riobó, Juan Cotutoría
Tribunal
GONZALEZ GARCIA, SARA (Coordinador)
FIOL LOPEZ, SARAH (Presidente/a)
Rojo Alboreca, Alberto (Vocal)
GONZALEZ GARCIA, SARA (Coordinador)
FIOL LOPEZ, SARAH (Presidente/a)
Rojo Alboreca, Alberto (Vocal)
Evaluación ambiental de la producción de compuestos fenólicos y bioetanol a partir de una corriente residual de la producción de zumo de aronia
Autoría
I.N.P.
Máster Universitario en Ingeniería Química y Bioprocesos
I.N.P.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 10:30
15.02.2024 10:30
Resumen
Con el objetivo de promover la circularidad y sostenibilidad de los procesos de la industria agroalimentaria, este Trabajo Fin de Máster aborda la valorización de una corriente residual procedente de la producción de zumo de aronia, un fruto rojo rico en antioxidantes. Para ello, se plantea un escenario de biorrefinería en el que, por un lado, se obtienen compuestos fenólicos, con un alto valor añadido en el mercado de productos nutracéuticos y farmacéuticos, y, por otro, bioetanol, alternativa biotecnológica para la reducción de combustibles fósiles en el sector transporte. Para el desarrollo de este modelo de producción biotecnológica, se utilizaron los datos disponibles en las referencias bibliográficas y se desarrolló el modelo de biorrefinería a gran escala en el software SuperPro Designer. Posteriormente, para evaluar el grado de sostenibilidad del proceso, se utilizó la metodología de Análisis de Ciclo de Vida, siguiendo las directrices definidas en las normas ISO 14040 y PAS 2050, así como indicadores de circularidad, identificando así el perfil ambiental y circular del proceso. Además, una vez identificadas las etapas del proceso con mayor contribución ambiental, se realizó un análisis de sensibilidad con el objetivo de mejorar la calidad y el potencial de sostenibilidad y circularidad de la biorrefinería.
Con el objetivo de promover la circularidad y sostenibilidad de los procesos de la industria agroalimentaria, este Trabajo Fin de Máster aborda la valorización de una corriente residual procedente de la producción de zumo de aronia, un fruto rojo rico en antioxidantes. Para ello, se plantea un escenario de biorrefinería en el que, por un lado, se obtienen compuestos fenólicos, con un alto valor añadido en el mercado de productos nutracéuticos y farmacéuticos, y, por otro, bioetanol, alternativa biotecnológica para la reducción de combustibles fósiles en el sector transporte. Para el desarrollo de este modelo de producción biotecnológica, se utilizaron los datos disponibles en las referencias bibliográficas y se desarrolló el modelo de biorrefinería a gran escala en el software SuperPro Designer. Posteriormente, para evaluar el grado de sostenibilidad del proceso, se utilizó la metodología de Análisis de Ciclo de Vida, siguiendo las directrices definidas en las normas ISO 14040 y PAS 2050, así como indicadores de circularidad, identificando así el perfil ambiental y circular del proceso. Además, una vez identificadas las etapas del proceso con mayor contribución ambiental, se realizó un análisis de sensibilidad con el objetivo de mejorar la calidad y el potencial de sostenibilidad y circularidad de la biorrefinería.
Dirección
MOREIRA VILAR, MARIA TERESA (Tutoría)
Arias Calvo, Ana Cotutoría
MOREIRA VILAR, MARIA TERESA (Tutoría)
Arias Calvo, Ana Cotutoría
Tribunal
ROCA BORDELLO, ENRIQUE (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
RODRIGUEZ OSORIO, CARLOS (Vocal)
ROCA BORDELLO, ENRIQUE (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
RODRIGUEZ OSORIO, CARLOS (Vocal)
Convoluciones 3D en paralelo
Autoría
A.F.L.
Máster Universitario en Computación de Altas Prestaciones / High Performance Computing from the University of A Coruña and the University of Santiago de Compostela (a distancia)
A.F.L.
Máster Universitario en Computación de Altas Prestaciones / High Performance Computing from the University of A Coruña and the University of Santiago de Compostela (a distancia)
Fecha de la defensa
03.07.2024 10:30
03.07.2024 10:30
Resumen
En este Trabajo de Fin de Máster se construye y optimiza un algoritmo de convolución 3D que se encarga de procesar nubes de puntos LiDAR aéreo que permita identificar objetos similares según el patrón de entrada dado. Concretamente, se utiliza un conjunto de datos correspondiente a zonas residenciales y, para evaluar el funcionamiento del algoritmo, se marca como objetivo la identificación de edificaciones. Tras la construcción del algoritmo de convolución y el ensayo con diferentes estructuras de representación de la nube de puntos, se aplican optimizaciones de paralelización en memoria compartida tratando de mantener un consumo de memoria reducido. Tras aplicar las técnicas consideradas, se consigue reducir el tiempo de ejecución de la convolución en un 98%, utilizando para ello 64 núcleos en 2 procesadores con OpenMP.
En este Trabajo de Fin de Máster se construye y optimiza un algoritmo de convolución 3D que se encarga de procesar nubes de puntos LiDAR aéreo que permita identificar objetos similares según el patrón de entrada dado. Concretamente, se utiliza un conjunto de datos correspondiente a zonas residenciales y, para evaluar el funcionamiento del algoritmo, se marca como objetivo la identificación de edificaciones. Tras la construcción del algoritmo de convolución y el ensayo con diferentes estructuras de representación de la nube de puntos, se aplican optimizaciones de paralelización en memoria compartida tratando de mantener un consumo de memoria reducido. Tras aplicar las técnicas consideradas, se consigue reducir el tiempo de ejecución de la convolución en un 98%, utilizando para ello 64 núcleos en 2 procesadores con OpenMP.
Dirección
CABALEIRO DOMINGUEZ, JOSE CARLOS (Tutoría)
Esmorís Pena, Alberto Manuel Cotutoría
CABALEIRO DOMINGUEZ, JOSE CARLOS (Tutoría)
Esmorís Pena, Alberto Manuel Cotutoría
Tribunal
GARCIA LOUREIRO, ANTONIO JESUS (Presidente/a)
QUESADA BARRIUSO, PABLO (Secretario/a)
Andión Fernández, José Manuel (Vocal)
GARCIA LOUREIRO, ANTONIO JESUS (Presidente/a)
QUESADA BARRIUSO, PABLO (Secretario/a)
Andión Fernández, José Manuel (Vocal)
Obtención dirigida de ácidos carboxílicos en fermentaciones microbianas: el efecto del medio de cultivo
Autoría
M.B.F.
Máster Universitario en Ingeniería Química y Bioprocesos
M.B.F.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
09.07.2024 10:30
09.07.2024 10:30
Resumen
La sociedad actual tiene una alta dependencia de los productos petroquímicos, y se enfrenta a una generación de grandes cantidades de residuos. En línea con los objetivos de desarrollo sostenible, este estudio se centra en la producción de ácidos grasos volátiles mediante fermentación anaerobia, la cual resulta atractiva para el aprovechamiento de residuos de carácter orgánico. Concretamente, se investiga el efecto de la modificación del medio de cultivo (complejo vs mineral) y el modo de operación (continuo vs semicontinuo) utilizando glucosa como sustrato en la producción dirigida de ácidos grasos volátiles. Los resultados muestran una mayor producción en medios ricos en nutrientes, aunque con diferencias en la composición con respecto a la producción en un medio pobre. Además, la producción de ácido hexanoico se logró de manera mucho más efectiva en un reactor continuo que en uno semicontinuo. Destaca por tanto la importancia de considerar tanto el medio de cultivo como el modo de operación del reactor para optimizar la producción de ácidos grasos volátiles.
La sociedad actual tiene una alta dependencia de los productos petroquímicos, y se enfrenta a una generación de grandes cantidades de residuos. En línea con los objetivos de desarrollo sostenible, este estudio se centra en la producción de ácidos grasos volátiles mediante fermentación anaerobia, la cual resulta atractiva para el aprovechamiento de residuos de carácter orgánico. Concretamente, se investiga el efecto de la modificación del medio de cultivo (complejo vs mineral) y el modo de operación (continuo vs semicontinuo) utilizando glucosa como sustrato en la producción dirigida de ácidos grasos volátiles. Los resultados muestran una mayor producción en medios ricos en nutrientes, aunque con diferencias en la composición con respecto a la producción en un medio pobre. Además, la producción de ácido hexanoico se logró de manera mucho más efectiva en un reactor continuo que en uno semicontinuo. Destaca por tanto la importancia de considerar tanto el medio de cultivo como el modo de operación del reactor para optimizar la producción de ácidos grasos volátiles.
Dirección
REGUEIRA LOPEZ, ALBERTE (Tutoría)
Cubero Cardoso, Juan Cotutoría
REGUEIRA LOPEZ, ALBERTE (Tutoría)
Cubero Cardoso, Juan Cotutoría
Tribunal
FEIJOO COSTA, GUMERSINDO (Presidente/a)
DIAZ JULLIEN, CRISTINA (Secretario/a)
FERNANDEZ CARRASCO, EUGENIO (Vocal)
FEIJOO COSTA, GUMERSINDO (Presidente/a)
DIAZ JULLIEN, CRISTINA (Secretario/a)
FERNANDEZ CARRASCO, EUGENIO (Vocal)
Desarrollo de un recomendador de trámites administrativos utilizando técnicas de machine learning e inteligencia artificial sobre una infraestructura Cloud avanzada
Autoría
A.O.Q.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.O.Q.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
16.07.2024 09:30
16.07.2024 09:30
Resumen
La implementación de sistemas de recomendación se ha convertido en una herramienta esencial para optimizar la experiencia del usuario y mejorar la eficiencia en diversos sectores. Es por eso que este trabajo se centra en el desarrollo de un recomendador de trámites administrativos utilizando técnicas avanzadas de machine learning e inteligencia artificial sobre una infraestructura Cloud. Se busca facilitar y personalizar la interacción de los ciudadanos con un organismo público autonómico determinado, mejorando la accesibilidad y eficiencia en la realización de trámites administrativos. Para ello, se proponen diversos sistemas de recomendación que incluyen filtrado colaborativo, filtrado basado en contenido y enfoques híbridos. Estos modelos se implementan utilizando Python aprovechando la infraestructura Cloud de AWS para un desarrollo ágil y escalable. El proceso se enmarca dentro de la metodología MLOps (Machine Learning Operations), garantizando una integración continua y una monitorización constante del sistema desde su diseño hasta su despliegue. El proyecto se estructura en varias fases que incluyen la comprensión y preparación de los datos, la construcción y evaluación de los modelos predictivos, y la elección y documentación del modelo final. Las fuentes de datos utilizadas provienen de tres diversas plataformas que registran la interacción de los ciudadanos con los trámites administrativos, permitiendo así una personalización efectiva de las recomendaciones. Cabe destacar que los datos utilizados son reales y no simulados, lo cual garantiza una mayor precisión y relevancia en las recomendaciones ofrecidas. Este proyecto no solo busca mejorar la experiencia del usuario al simplificar la búsqueda y realización de trámites, sino también promover la transparencia y la confianza en la administración pública.
La implementación de sistemas de recomendación se ha convertido en una herramienta esencial para optimizar la experiencia del usuario y mejorar la eficiencia en diversos sectores. Es por eso que este trabajo se centra en el desarrollo de un recomendador de trámites administrativos utilizando técnicas avanzadas de machine learning e inteligencia artificial sobre una infraestructura Cloud. Se busca facilitar y personalizar la interacción de los ciudadanos con un organismo público autonómico determinado, mejorando la accesibilidad y eficiencia en la realización de trámites administrativos. Para ello, se proponen diversos sistemas de recomendación que incluyen filtrado colaborativo, filtrado basado en contenido y enfoques híbridos. Estos modelos se implementan utilizando Python aprovechando la infraestructura Cloud de AWS para un desarrollo ágil y escalable. El proceso se enmarca dentro de la metodología MLOps (Machine Learning Operations), garantizando una integración continua y una monitorización constante del sistema desde su diseño hasta su despliegue. El proyecto se estructura en varias fases que incluyen la comprensión y preparación de los datos, la construcción y evaluación de los modelos predictivos, y la elección y documentación del modelo final. Las fuentes de datos utilizadas provienen de tres diversas plataformas que registran la interacción de los ciudadanos con los trámites administrativos, permitiendo así una personalización efectiva de las recomendaciones. Cabe destacar que los datos utilizados son reales y no simulados, lo cual garantiza una mayor precisión y relevancia en las recomendaciones ofrecidas. Este proyecto no solo busca mejorar la experiencia del usuario al simplificar la búsqueda y realización de trámites, sino también promover la transparencia y la confianza en la administración pública.
Dirección
FELIX LAMAS, PAULO (Tutoría)
López Cabaleiros, Iván Cotutoría
FELIX LAMAS, PAULO (Tutoría)
López Cabaleiros, Iván Cotutoría
Tribunal
Losada Carril, David Enrique (Presidente/a)
Blanco Heras, Dora (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Losada Carril, David Enrique (Presidente/a)
Blanco Heras, Dora (Secretario/a)
AMEIJEIRAS ALONSO, JOSE (Vocal)
Desarrollo de una aplicación para la explotación de capas semánticas por
Autoría
M.S.O.A.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
M.S.O.A.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2024 16:30
15.07.2024 16:30
Resumen
Una capa semántica es una abstracción que se utiliza en un sistema de Inteligencia de Negocio para la interpretación y gestión de los datos de manera comprensible y útil para los usuarios finales, sin necesidad de que estos tengan conocimientos técnicos avanzados. Convierte los datos crudos desde la fuente de datos en información estructurada, alineando la terminología y los conceptos con las necesidades de negocio. Se presenta el desarrollo de una aplicación que trata de explotar capas semánticas usando la voz y el lenguaje natural como un método innovador en el acceso a la información. Este enfoque no solo mejora la accesibilidad a los datos y la eficiencia en el acceso a los mismos, sino que también tiene el potencial para el aprovechamiento de las herramientas BI, permitiendo al negocio tener un incremento el la productividad haciendo que los usuarios se abstraigan de pensar y escribir la consulta, para centrarse más en tareas de toma de decisiones en base a los datos recuperados. El desarrollo de esta aplicación se divide en múltiples etapas: en primer lugar, se establecerá la conexión entre la base de datos fuente volcada en Oracle al entorno de trabajo en el que se creará la capa semántica (en este caso Cube Cloud). Una vez se tiene una capa semántica funcional, se extraen los metadatos de las tablas de dimensiones y la tabla de hechos del modelo para almacenarlos en formato vectorial. A partir del almacenamiento vectorial, se crea un modelo LLM basado en la API de OpenAI adaptado a la necesidad de este trabajo. Por último, se crea la herramienta visual mediante la librería de Streamlit en Python para permitir la interacción del usuario con la aplicación.
Una capa semántica es una abstracción que se utiliza en un sistema de Inteligencia de Negocio para la interpretación y gestión de los datos de manera comprensible y útil para los usuarios finales, sin necesidad de que estos tengan conocimientos técnicos avanzados. Convierte los datos crudos desde la fuente de datos en información estructurada, alineando la terminología y los conceptos con las necesidades de negocio. Se presenta el desarrollo de una aplicación que trata de explotar capas semánticas usando la voz y el lenguaje natural como un método innovador en el acceso a la información. Este enfoque no solo mejora la accesibilidad a los datos y la eficiencia en el acceso a los mismos, sino que también tiene el potencial para el aprovechamiento de las herramientas BI, permitiendo al negocio tener un incremento el la productividad haciendo que los usuarios se abstraigan de pensar y escribir la consulta, para centrarse más en tareas de toma de decisiones en base a los datos recuperados. El desarrollo de esta aplicación se divide en múltiples etapas: en primer lugar, se establecerá la conexión entre la base de datos fuente volcada en Oracle al entorno de trabajo en el que se creará la capa semántica (en este caso Cube Cloud). Una vez se tiene una capa semántica funcional, se extraen los metadatos de las tablas de dimensiones y la tabla de hechos del modelo para almacenarlos en formato vectorial. A partir del almacenamiento vectorial, se crea un modelo LLM basado en la API de OpenAI adaptado a la necesidad de este trabajo. Por último, se crea la herramienta visual mediante la librería de Streamlit en Python para permitir la interacción del usuario con la aplicación.
Dirección
Losada Carril, David Enrique (Tutoría)
Sanz Anchelergues, Adolfo Cotutoría
Losada Carril, David Enrique (Tutoría)
Sanz Anchelergues, Adolfo Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
López Martínez, Paula (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
López Martínez, Paula (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
Automatización del proceso de optimización de hiperparámetros para aprendizaje máquina en Pytorch usando algoritmos genéticos
Autoría
R.R.
Máster Universitario en Computación de Altas Prestaciones / High Performance Computing from the University of A Coruña and the University of Santiago de Compostela (Cergy presencial)
R.R.
Máster Universitario en Computación de Altas Prestaciones / High Performance Computing from the University of A Coruña and the University of Santiago de Compostela (Cergy presencial)
Fecha de la defensa
03.09.2024 11:00
03.09.2024 11:00
Resumen
El propósito de este proyecto es crear una biblioteca en Python que automatice la optimización y el ajuste fino de hiperparámetros para modelos de ML en PyTorch utilizando algoritmos evolutivos basados en la implementación de conceptos de selección natural: variable de aptitud, heredabilidad, cruce, mutación, etc. Hay una población en evolución que pasa por muchas generaciones, donde cada individuo en la población es un conjunto de hiperparámetros. Ejemplos de los hiperparámetros a ajustar son: tasa de aprendizaje, tamaño de lote, número de épocas. Para esto, uso la biblioteca de código abierto DEAP (Distributed Evolutionary Algorithms for Python) en Python, que implementa los componentes necesarios para personalizar diferentes implementaciones de algoritmos evolutivos.
El propósito de este proyecto es crear una biblioteca en Python que automatice la optimización y el ajuste fino de hiperparámetros para modelos de ML en PyTorch utilizando algoritmos evolutivos basados en la implementación de conceptos de selección natural: variable de aptitud, heredabilidad, cruce, mutación, etc. Hay una población en evolución que pasa por muchas generaciones, donde cada individuo en la población es un conjunto de hiperparámetros. Ejemplos de los hiperparámetros a ajustar son: tasa de aprendizaje, tamaño de lote, número de épocas. Para esto, uso la biblioteca de código abierto DEAP (Distributed Evolutionary Algorithms for Python) en Python, que implementa los componentes necesarios para personalizar diferentes implementaciones de algoritmos evolutivos.
Dirección
QUESADA BARRIUSO, PABLO (Tutoría)
Andrade Canosa, Diego Cotutoría
QUESADA BARRIUSO, PABLO (Tutoría)
Andrade Canosa, Diego Cotutoría
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
Blanco Heras, Dora (Secretario/a)
González Domínguez, Jorge (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
Blanco Heras, Dora (Secretario/a)
González Domínguez, Jorge (Vocal)
Implementación nativa de OpenMP para Python
Autoría
D.M.P.O.
Máster Universitario en Computación de Altas Prestaciones / High Performance Computing from the University of A Coruña and the University of Santiago de Compostela (Cergy presencial)
D.M.P.O.
Máster Universitario en Computación de Altas Prestaciones / High Performance Computing from the University of A Coruña and the University of Santiago de Compostela (Cergy presencial)
Fecha de la defensa
03.09.2024 10:30
03.09.2024 10:30
Resumen
Anteriormente era imposible obtener una aceleración usando subprocesos múltiples en Python debido al Bloqueo de intérprete global en la implementación principal de Python, CPython. En octubre de 2024, se lanzará Python 3.13, incluido PEP 703, que hace que el bloqueo de intérprete global sea opcional en CPython. Hasta ahora, la única forma de paralelizar programas Python era usar múltiples procesos y comunicación entre procesos. Este contexto hizo que la implementación de la API OpenMP fuera inútil. Con la eliminación del bloqueo de intérprete global en Python 3.13, proporcionar API de subprocesos múltiples simples es relevante y útil.
Anteriormente era imposible obtener una aceleración usando subprocesos múltiples en Python debido al Bloqueo de intérprete global en la implementación principal de Python, CPython. En octubre de 2024, se lanzará Python 3.13, incluido PEP 703, que hace que el bloqueo de intérprete global sea opcional en CPython. Hasta ahora, la única forma de paralelizar programas Python era usar múltiples procesos y comunicación entre procesos. Este contexto hizo que la implementación de la API OpenMP fuera inútil. Con la eliminación del bloqueo de intérprete global en Python 3.13, proporcionar API de subprocesos múltiples simples es relevante y útil.
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
Tribunal
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
Blanco Heras, Dora (Secretario/a)
González Domínguez, Jorge (Vocal)
CABALEIRO DOMINGUEZ, JOSE CARLOS (Presidente/a)
Blanco Heras, Dora (Secretario/a)
González Domínguez, Jorge (Vocal)
Evaluación ambiental de la conformidad de las nuevas biorrefinerías con el reglamento de la Taxonomía Europea
Autoría
A.L.V.
Máster Universitario en Ingeniería Ambiental (2ª ed)
A.L.V.
Máster Universitario en Ingeniería Ambiental (2ª ed)
Fecha de la defensa
09.09.2024 10:00
09.09.2024 10:00
Resumen
El presente trabajo fin de máster analiza cómo las biorrefinerías, especialmente las de carboxilatos, contribuyen a la sostenibilidad al transformar biomasa en productos valiosos como biometano y biofertilizantes, alineándose con la Estrategia Europa 2020 y el Reglamento de Taxonomía Europea. Se investigan los indicadores de desempeño ambiental de las biorrefinerías en comparación con otras tecnologías de valorización de biomasa, evaluando su eficiencia y sostenibilidad. Además, se examina la conformidad de estas biorrefinerías con los seis objetivos medioambientales de la taxonomía europea, destacando su papel en la descarbonización y la economía circular, y promoviendo inversiones sostenibles y transparencia en el mercado para alcanzar los objetivos climáticos de la UE para 2050.
El presente trabajo fin de máster analiza cómo las biorrefinerías, especialmente las de carboxilatos, contribuyen a la sostenibilidad al transformar biomasa en productos valiosos como biometano y biofertilizantes, alineándose con la Estrategia Europa 2020 y el Reglamento de Taxonomía Europea. Se investigan los indicadores de desempeño ambiental de las biorrefinerías en comparación con otras tecnologías de valorización de biomasa, evaluando su eficiencia y sostenibilidad. Además, se examina la conformidad de estas biorrefinerías con los seis objetivos medioambientales de la taxonomía europea, destacando su papel en la descarbonización y la economía circular, y promoviendo inversiones sostenibles y transparencia en el mercado para alcanzar los objetivos climáticos de la UE para 2050.
Dirección
MAURICIO IGLESIAS, MIGUEL (Tutoría)
HOSPIDO QUINTANA, ALMUDENA Cotutoría
MAURICIO IGLESIAS, MIGUEL (Tutoría)
HOSPIDO QUINTANA, ALMUDENA Cotutoría
Tribunal
MOREIRA VILAR, MARIA TERESA (Presidente/a)
Rojo Alboreca, Alberto (Secretario/a)
FIOL LOPEZ, SARAH (Vocal)
MOREIRA VILAR, MARIA TERESA (Presidente/a)
Rojo Alboreca, Alberto (Secretario/a)
FIOL LOPEZ, SARAH (Vocal)
Aprendizaje profundo para visión por computador: de la nube al borde.
Autoría
M.E.A.E.F.
Máster Universitario en Visión por Computador
M.E.A.E.F.
Máster Universitario en Visión por Computador
Fecha de la defensa
06.02.2024 10:40
06.02.2024 10:40
Resumen
Esta tesis de maestría investiga el uso de métodos específicos para optimizar modelos de aprendizaje profundo en diferentes marcos y conjuntos de datos. En PyTorch, se estudian tres técnicas de cuantificación utilizando el conjunto de datos MNIST: cuantificación dinámica posterior al entrenamiento (PTDQ), cuantificación estática posterior al entrenamiento (PTSQ) y entrenamiento consciente de la cuantificación (QAT). Al mismo tiempo, se exploraron varios métodos de cuantificación en TensorFlow utilizando el conjunto de datos CIFAR-10, incluida la cuantificación estándar, la cuantificación de la capa de salida y la cuantificación de la capa de entrada/salida. Además, se realizaron experimentos específicos de destilación de conocimientos (KD) utilizando TensorFlow; uno con el modelo Vision Transformer (ViT) como “maestro” y ResNet-50 como “estudiante”, mostró resultados desfavorables, y el otro experimento con ResNet-50 como “maestro”, MobileNetV2 actúa como “estudiante” para evaluar el impacto en redes más simples. El propósito de estos experimentos es comprender cómo las diferentes técnicas de cuantificación y destilación del conocimiento afectan la precisión y eficiencia de diferentes escenarios de modelos de aprendizaje profundo en el campo de la computación verde.
Esta tesis de maestría investiga el uso de métodos específicos para optimizar modelos de aprendizaje profundo en diferentes marcos y conjuntos de datos. En PyTorch, se estudian tres técnicas de cuantificación utilizando el conjunto de datos MNIST: cuantificación dinámica posterior al entrenamiento (PTDQ), cuantificación estática posterior al entrenamiento (PTSQ) y entrenamiento consciente de la cuantificación (QAT). Al mismo tiempo, se exploraron varios métodos de cuantificación en TensorFlow utilizando el conjunto de datos CIFAR-10, incluida la cuantificación estándar, la cuantificación de la capa de salida y la cuantificación de la capa de entrada/salida. Además, se realizaron experimentos específicos de destilación de conocimientos (KD) utilizando TensorFlow; uno con el modelo Vision Transformer (ViT) como “maestro” y ResNet-50 como “estudiante”, mostró resultados desfavorables, y el otro experimento con ResNet-50 como “maestro”, MobileNetV2 actúa como “estudiante” para evaluar el impacto en redes más simples. El propósito de estos experimentos es comprender cómo las diferentes técnicas de cuantificación y destilación del conocimiento afectan la precisión y eficiencia de diferentes escenarios de modelos de aprendizaje profundo en el campo de la computación verde.
Dirección
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
PARDO SECO, FERNANDO RAFAEL Cotutoría
BREA SANCHEZ, VICTOR MANUEL (Tutoría)
PARDO SECO, FERNANDO RAFAEL Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
López Martínez, Paula (Secretario/a)
Pardo López, Xosé Manuel (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
López Martínez, Paula (Secretario/a)
Pardo López, Xosé Manuel (Vocal)
Evaluación del proceso de nitritación parcial en continuo para la eliminación eficiente de nitrógeno en la línea de lodos de una EDAR.
Autoría
A.P.R.B.
Máster Universitario en Ingeniería Química y Bioprocesos
A.P.R.B.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 11:00
15.02.2024 11:00
Resumen
La eliminación de nitrógeno y fósforo en las plantas de tratamiento de aguas residuales es un tema de importancia, esto ya que constantemente la legislación europea se encarga de reducir los límites de vertido, con el objetivo de reducir los problemas de eutrofización de aguas, toxicidad en los microorganismos presentes, contaminación de los cuerpos receptores, entre otros. Por este motivo es fundamental la mejora en la línea de fango, dado que esta es la línea que contiene la mayor cantidad de nitrógeno en las EDAR. Particularmente el agua proveniente de la deshidratación de lodos o el sobrenadante de la digestión anaerobia tienen concentraciones de amonio superiores a 400 mg N NH4/L. Se han planteado diversas tecnologías para la remoción de nitrógeno, una de las de interés para esta investigación corresponde a la nitritación parcial anammox, dónde se oxida el 50 de amonio a nitrito, para tener la cantidad requerida de estos en el sistema anammox. Este sistema ha sido utilizado en diversos procesos piloto tanto a nivel laboratorio como industrial, no obstante, no ha sido realizado en un sistema continuo, convirtiéndolo en el tema de interés para este trabajo. Esta investigación se dedicó a encontrar las condiciones operacionales que generan el mayor porcentaje de nitritación parcial posible. Para esto se analizaron las variables de pH, oxígeno disuelto, TRH, TRC, entre otros; para conseguir la inhibición de las bacterias oxidantes de nitrito. Se inició con una carga de nitrógeno equivalente a 100 mg N NH4/L, la cual se aumentó a medida que el carbono inorgánico (CI) disponible se acercaba a valores de 1 a 2 mg CI/L. El mejor resultado de nitritación parcial se obtuvo al día 28 de operación, dónde se generaron 196,32 mg N NO2/L. Al finalizar el tiempo de operación del reactor de nitritación parcial se determinó la actividad de las bacterias oxidantes de amonio, las cuales forman un rol fundamental en el proceso de nitritación. Se obtuvo un valor de 0,32 mg N/mg SSV d, el cual es la mitad del valor encontrado en bibliografía, sin embargo, se justifica a través de la gran cantidad de biomasa adherida a las paredes del reactor, y el lodo que quedó retenido en la recirculación. Según los resultados de esta investigación, se considera que realizar la nitritación parcial en un reactor continuo para altas cargas de nitrógeno puede ser viable, siempre y cuando los factores inhibitorios para las bacterias oxidantes de nitrito se mantengan controlados.
La eliminación de nitrógeno y fósforo en las plantas de tratamiento de aguas residuales es un tema de importancia, esto ya que constantemente la legislación europea se encarga de reducir los límites de vertido, con el objetivo de reducir los problemas de eutrofización de aguas, toxicidad en los microorganismos presentes, contaminación de los cuerpos receptores, entre otros. Por este motivo es fundamental la mejora en la línea de fango, dado que esta es la línea que contiene la mayor cantidad de nitrógeno en las EDAR. Particularmente el agua proveniente de la deshidratación de lodos o el sobrenadante de la digestión anaerobia tienen concentraciones de amonio superiores a 400 mg N NH4/L. Se han planteado diversas tecnologías para la remoción de nitrógeno, una de las de interés para esta investigación corresponde a la nitritación parcial anammox, dónde se oxida el 50 de amonio a nitrito, para tener la cantidad requerida de estos en el sistema anammox. Este sistema ha sido utilizado en diversos procesos piloto tanto a nivel laboratorio como industrial, no obstante, no ha sido realizado en un sistema continuo, convirtiéndolo en el tema de interés para este trabajo. Esta investigación se dedicó a encontrar las condiciones operacionales que generan el mayor porcentaje de nitritación parcial posible. Para esto se analizaron las variables de pH, oxígeno disuelto, TRH, TRC, entre otros; para conseguir la inhibición de las bacterias oxidantes de nitrito. Se inició con una carga de nitrógeno equivalente a 100 mg N NH4/L, la cual se aumentó a medida que el carbono inorgánico (CI) disponible se acercaba a valores de 1 a 2 mg CI/L. El mejor resultado de nitritación parcial se obtuvo al día 28 de operación, dónde se generaron 196,32 mg N NO2/L. Al finalizar el tiempo de operación del reactor de nitritación parcial se determinó la actividad de las bacterias oxidantes de amonio, las cuales forman un rol fundamental en el proceso de nitritación. Se obtuvo un valor de 0,32 mg N/mg SSV d, el cual es la mitad del valor encontrado en bibliografía, sin embargo, se justifica a través de la gran cantidad de biomasa adherida a las paredes del reactor, y el lodo que quedó retenido en la recirculación. Según los resultados de esta investigación, se considera que realizar la nitritación parcial en un reactor continuo para altas cargas de nitrógeno puede ser viable, siempre y cuando los factores inhibitorios para las bacterias oxidantes de nitrito se mantengan controlados.
Dirección
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
Tribunal
SOTO CAMPOS, ANA MARIA (Presidente/a)
BALBOA MENDEZ, SABELA (Secretario/a)
SOUTO GONZALEZ, JOSE ANTONIO (Vocal)
SOTO CAMPOS, ANA MARIA (Presidente/a)
BALBOA MENDEZ, SABELA (Secretario/a)
SOUTO GONZALEZ, JOSE ANTONIO (Vocal)
Aumentado de datos basada en modelos GAN para classificación en imagenes multiespectrales
Autoría
V.X.B.D.
Máster Universitario en Inteligencia Artificial
V.X.B.D.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2024 12:00
21.02.2024 12:00
Resumen
Las imágenes multiespectrales frecuentemente adolecen de datos etiquetados limitados, lo que limita la precisión de la clasificación. El objetivo del aumentado de datos es mejorar el rendimiento de los modelos de aprendizaje automático aumentando artificialmente el tamaño del conjunto de datos de entrenamiento. Este artículo propone mDAGAN, una técnica de aumentado de datos basada en una Red Generativa Adversaria (GAN, por las siglas en Ingés) para la clasificación de imágenes de teledetección multiespectrales de alta resolución. La técnica propuesta se basa en un modelo anterior basado en GAN y pretende ser independiente de la técnica de clasificación elegida. La capacidad de aumebntado de mDAGAN para diferentes algoritmos de clasificación se ha evaluado en tres imágenes multiespectrales de vegetación, lo que proporciona una mayor precisión de clasificación. También representa una alternativa basada en la definición de similitud de muestras y no en etiquetas, lo que posibilita la adaptación a problemas de regresión.
Las imágenes multiespectrales frecuentemente adolecen de datos etiquetados limitados, lo que limita la precisión de la clasificación. El objetivo del aumentado de datos es mejorar el rendimiento de los modelos de aprendizaje automático aumentando artificialmente el tamaño del conjunto de datos de entrenamiento. Este artículo propone mDAGAN, una técnica de aumentado de datos basada en una Red Generativa Adversaria (GAN, por las siglas en Ingés) para la clasificación de imágenes de teledetección multiespectrales de alta resolución. La técnica propuesta se basa en un modelo anterior basado en GAN y pretende ser independiente de la técnica de clasificación elegida. La capacidad de aumebntado de mDAGAN para diferentes algoritmos de clasificación se ha evaluado en tres imágenes multiespectrales de vegetación, lo que proporciona una mayor precisión de clasificación. También representa una alternativa basada en la definición de similitud de muestras y no en etiquetas, lo que posibilita la adaptación a problemas de regresión.
Dirección
Blanco Heras, Dora (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
GOLDAR DIESTE, ALVARO Cotutoría
Blanco Heras, Dora (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
GOLDAR DIESTE, ALVARO Cotutoría
Tribunal
Barro Ameneiro, Senén (Presidente/a)
ALONSO MORAL, JOSE MARIA (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
Barro Ameneiro, Senén (Presidente/a)
ALONSO MORAL, JOSE MARIA (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
Hacia una evaluación automatizada de la legibilidad de textos en español
Autoría
A.B.B.
Máster Universitario en Inteligencia Artificial
A.B.B.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
20.02.2024 11:30
20.02.2024 11:30
Resumen
Este trabajo aborda la clasificación automática de legibilidad de textos en español, centrándose en modelos de clasificación basados en el Marco Común Europeo de Referencia para las Lenguas, concretamente en los niveles de legibilidad A1, A2 y B1. La metodología abordó el problema involucrando la extracción de características para modelos clásicos de Machine Learning y el ajuste de Transformadores para la clasificación de textos, comparando ambos sobre el mismo corpus. Aunque los resultados están en consonancia con el estado del arte en otros idiomas, exigen más investigación, ya que aún hay margen de mejora. El mejor modelo es un árbol de decisión con una precisión de 0,49 y un kappa de 0,24, utilizando el conjunto de características con la correlación más alta (evaluada con el algoritmo de correlación de rangos de Spearman) con la variable objetivo, el nivel del MCER. El trabajo futuro explorará otros enfoques para mejorar el rendimiento, un sistema basado en la web para clasificar la legibilidad en español y una API para la extracción automatizada de características, siendo un recurso valioso para la investigación en PNL y el aprendizaje de idiomas.
Este trabajo aborda la clasificación automática de legibilidad de textos en español, centrándose en modelos de clasificación basados en el Marco Común Europeo de Referencia para las Lenguas, concretamente en los niveles de legibilidad A1, A2 y B1. La metodología abordó el problema involucrando la extracción de características para modelos clásicos de Machine Learning y el ajuste de Transformadores para la clasificación de textos, comparando ambos sobre el mismo corpus. Aunque los resultados están en consonancia con el estado del arte en otros idiomas, exigen más investigación, ya que aún hay margen de mejora. El mejor modelo es un árbol de decisión con una precisión de 0,49 y un kappa de 0,24, utilizando el conjunto de características con la correlación más alta (evaluada con el algoritmo de correlación de rangos de Spearman) con la variable objetivo, el nivel del MCER. El trabajo futuro explorará otros enfoques para mejorar el rendimiento, un sistema basado en la web para clasificar la legibilidad en español y una API para la extracción automatizada de características, siendo un recurso valioso para la investigación en PNL y el aprendizaje de idiomas.
Dirección
CATALA BOLOS, ALEJANDRO (Tutoría)
GARCIA GONZALEZ, MARCOS Cotutoría
CATALA BOLOS, ALEJANDRO (Tutoría)
GARCIA GONZALEZ, MARCOS Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
EfficientBaGAN: un modelo eficiente de GAN balanceada para mapeo forestal
Autoría
N.V.P.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
N.V.P.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2024 17:00
15.07.2024 17:00
Resumen
Lograr altas precisiones en la clasificación de conjuntos de datos de teledetección multiespectral mediante el uso de técnicas de aprendizaje profundo es un reto, ya que estos conjuntos de datos a menudo se caracterizan por tener información etiquetada limitada y desequilibrios de clase. Diferentes métodos basados en GAN como herramientas de aumentado de datos han aliviado con éxito estos problemas en los últimos años. Otro problema es el elevado coste computacional asociado a los métodos de aprendizaje profundo. La arquitectura EfficientNet ha surgido como una alternativa para obtener altas precisiones con un coste computacional moderado. Para hacer frente a estos retos, este trabajo presenta EfficientBaGAN, un método para la clasificación de imágenes multiespectrales de teledetección basado en el modelo EfficientNet. EfficientBaGAN pretende reducir el efecto de la escasez de datos y los desequilibrios de clase aprovechando la llamada arquitectura BAGAN pero incorporando un generador residual basado en EfficientNet y un discriminador también basado en EfficientNet. Además, se emplea un procedimiento de extracción de muestras basado en superpíxeles para reducir aún más el coste computacional. Se realizaron experimentos con imágenes multiespectrales de vegetación de gran tamaño y muy alta resolución. EfficientBaGAN ha logrado una mayor precisión que otros métodos de clasificación igualmente sofisticados, al mismo tiempo que presenta un menor coste computacional, siendo más del doble de rápido que estos métodos de clasificación igualmente sofisticados.
Lograr altas precisiones en la clasificación de conjuntos de datos de teledetección multiespectral mediante el uso de técnicas de aprendizaje profundo es un reto, ya que estos conjuntos de datos a menudo se caracterizan por tener información etiquetada limitada y desequilibrios de clase. Diferentes métodos basados en GAN como herramientas de aumentado de datos han aliviado con éxito estos problemas en los últimos años. Otro problema es el elevado coste computacional asociado a los métodos de aprendizaje profundo. La arquitectura EfficientNet ha surgido como una alternativa para obtener altas precisiones con un coste computacional moderado. Para hacer frente a estos retos, este trabajo presenta EfficientBaGAN, un método para la clasificación de imágenes multiespectrales de teledetección basado en el modelo EfficientNet. EfficientBaGAN pretende reducir el efecto de la escasez de datos y los desequilibrios de clase aprovechando la llamada arquitectura BAGAN pero incorporando un generador residual basado en EfficientNet y un discriminador también basado en EfficientNet. Además, se emplea un procedimiento de extracción de muestras basado en superpíxeles para reducir aún más el coste computacional. Se realizaron experimentos con imágenes multiespectrales de vegetación de gran tamaño y muy alta resolución. EfficientBaGAN ha logrado una mayor precisión que otros métodos de clasificación igualmente sofisticados, al mismo tiempo que presenta un menor coste computacional, siendo más del doble de rápido que estos métodos de clasificación igualmente sofisticados.
Dirección
Blanco Heras, Dora (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
Blanco Heras, Dora (Tutoría)
Argüello Pedreira, Francisco Santiago Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
López Martínez, Paula (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
López Martínez, Paula (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
Automatización del acceso a datos a través de un conector de espacio de datos.
Autoría
A.V.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
A.V.L.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2024 17:30
15.07.2024 17:30
Resumen
El objetivo de este proyecto es estudiar cómo funcionan los espacios de datos y cómo poder automatizar su uso de forma simple. Este TFM utiliza el conector desarrollado por Eclipse. Con el fin de automatizar el uso de los espacios de datos, se ha desarrollado un software que lo facilita. Este software facilitará el acceso a un espacio de datos a los usuarios que quieran formar parte de él, sirviendo datos en el mismo. Este software deberá ser compatible con los principales sistemas gestores de bases de datos que usan las empresas, de cara a que la fricción de compartición de datos sea mínima. Así mismo, se ha trabajado en la generación automática de las definiciones de los datos que el actor quiera compartir. También se han automatizado las definiciónes de las políticas que se puedan aplicar sobre estos datos, y los contratos bajo los que se ofrecerán dentro de un espacio de datos. Estos avances sobre el uso de espacios de datos son realmente beneficiosos para los usuarios que quieran formar parte de ellos, facilitando el uso de los espacios de datos y acercándolos a cualquier empresa que quiera beneficiarse de ellos. La idea de simplificar la entrada a un espacio de datos se ve aún más necesaria si tenemos en cuenta que la UE está impulsando estas iniciativas para conseguir un espacio de datos europeo funcional.
El objetivo de este proyecto es estudiar cómo funcionan los espacios de datos y cómo poder automatizar su uso de forma simple. Este TFM utiliza el conector desarrollado por Eclipse. Con el fin de automatizar el uso de los espacios de datos, se ha desarrollado un software que lo facilita. Este software facilitará el acceso a un espacio de datos a los usuarios que quieran formar parte de él, sirviendo datos en el mismo. Este software deberá ser compatible con los principales sistemas gestores de bases de datos que usan las empresas, de cara a que la fricción de compartición de datos sea mínima. Así mismo, se ha trabajado en la generación automática de las definiciones de los datos que el actor quiera compartir. También se han automatizado las definiciónes de las políticas que se puedan aplicar sobre estos datos, y los contratos bajo los que se ofrecerán dentro de un espacio de datos. Estos avances sobre el uso de espacios de datos son realmente beneficiosos para los usuarios que quieran formar parte de ellos, facilitando el uso de los espacios de datos y acercándolos a cualquier empresa que quiera beneficiarse de ellos. La idea de simplificar la entrada a un espacio de datos se ve aún más necesaria si tenemos en cuenta que la UE está impulsando estas iniciativas para conseguir un espacio de datos europeo funcional.
Dirección
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
Reiriz Cores, Diego Cotutoría
VIDAL AGUIAR, JUAN CARLOS (Tutoría)
Reiriz Cores, Diego Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
López Martínez, Paula (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
López Martínez, Paula (Secretario/a)
RIOS VIQUEIRA, JOSE RAMON (Vocal)
Experimentación en modelos multilingües entrenados usando la arquitectura transformer para el tratamiento de lenguaje natural
Autoría
A.L.V.
Máster Universitario en Inteligencia Artificial
A.L.V.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
19.07.2024 10:00
19.07.2024 10:00
Resumen
El enfoque de este Trabajo Fin de Máster es la experimentación con métodos de transfer learning en modelos multilingües que utilizan la arquitectura tipo transformer y funcionen en lengua gallega; principalmente su adaptación a tareas posteriores del lenguaje natural, como por ejemplo el seguimiento de instrucciones. Usaremos un modelo gallego de tipo open-source, Carballo-1.3B, para aplicar técnicas clásicas de fine-tuning y LoRA; el objetivo final sería obtener un modelo funcional y comparar estas dos técnicas en cómo adaptan el modelo a esta nueva tarea mientras: (i) no pierden capacidades de generación de texto, y (ii) no requieran una cantidad excesiva de recursos computacionales. Para ello, se realizarán dos evaluaciones humanas diferentes sobre los modelos ya entrenados, con las cuales juzgaremos los modelos en el seguimiento de instrucciones y en la generación de texto.
El enfoque de este Trabajo Fin de Máster es la experimentación con métodos de transfer learning en modelos multilingües que utilizan la arquitectura tipo transformer y funcionen en lengua gallega; principalmente su adaptación a tareas posteriores del lenguaje natural, como por ejemplo el seguimiento de instrucciones. Usaremos un modelo gallego de tipo open-source, Carballo-1.3B, para aplicar técnicas clásicas de fine-tuning y LoRA; el objetivo final sería obtener un modelo funcional y comparar estas dos técnicas en cómo adaptan el modelo a esta nueva tarea mientras: (i) no pierden capacidades de generación de texto, y (ii) no requieran una cantidad excesiva de recursos computacionales. Para ello, se realizarán dos evaluaciones humanas diferentes sobre los modelos ya entrenados, con las cuales juzgaremos los modelos en el seguimiento de instrucciones y en la generación de texto.
Dirección
Gamallo Otero, Pablo (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
de Dios Flores, Iria Cotutoría
Gamallo Otero, Pablo (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
de Dios Flores, Iria Cotutoría
Tribunal
LAMA PENIN, MANUEL (Presidente/a)
CONDORI FERNANDEZ, NELLY (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
LAMA PENIN, MANUEL (Presidente/a)
CONDORI FERNANDEZ, NELLY (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Diseño e implementación de una arquitectura de datos moderna basada en la plataforma Microsoft Fabric
Autoría
S.B.M.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
S.B.M.
Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data
Fecha de la defensa
15.07.2024 18:00
15.07.2024 18:00
Resumen
La capacidad de análisis con el creciente incremento de los datos se ha vuelto esencial para las empresas que buscan tomar decisiones rápidas y basadas en datos precisos. Hoy en día, las tecnologías tradicionales de análisis de datos tienen problemas para procesar los enormes volúmenes de datos creados, lo que hace que se requieran soluciones más escalables y eficaces. Este Trabajo Fin de Máster se enfoca en la creación e implementación de una arquitectura de datos moderna que utiliza Microsoft Fabric. En este proyecto se realizará una investigación detallada de las características y funcionalidades de Microsoft Fabric, así como su estructura, componentes principales.. El proyecto se estructura en varias etapas, comenzando con la comprensión teórica de Microsoft Fabric y su integración con las estrategias de datos de SDG \textit{group}. Se diseña e implementa un flujo completo de integración de datos que permite evaluar las capacidades de Microsoft Fabric en términos de escalabilidad, rendimiento, facilidad de uso y coste. Además, se lleva a cabo una comparación con otras soluciones de análisis de datos masivos como Google BigQuery, Amazon Redshift y Snowflake, destacando las ventajas competitivas de Microsoft Fabric. Finalmente, se presentan conclusiones sobre el potencial de Microsoft Fabric. Los resultados indican que Microsoft Fabric es una herramienta valiosa que puede proporcionar una ventaja competitiva significativa mediante un análisis eficiente y efectivo de grandes volúmenes de datos.
La capacidad de análisis con el creciente incremento de los datos se ha vuelto esencial para las empresas que buscan tomar decisiones rápidas y basadas en datos precisos. Hoy en día, las tecnologías tradicionales de análisis de datos tienen problemas para procesar los enormes volúmenes de datos creados, lo que hace que se requieran soluciones más escalables y eficaces. Este Trabajo Fin de Máster se enfoca en la creación e implementación de una arquitectura de datos moderna que utiliza Microsoft Fabric. En este proyecto se realizará una investigación detallada de las características y funcionalidades de Microsoft Fabric, así como su estructura, componentes principales.. El proyecto se estructura en varias etapas, comenzando con la comprensión teórica de Microsoft Fabric y su integración con las estrategias de datos de SDG \textit{group}. Se diseña e implementa un flujo completo de integración de datos que permite evaluar las capacidades de Microsoft Fabric en términos de escalabilidad, rendimiento, facilidad de uso y coste. Además, se lleva a cabo una comparación con otras soluciones de análisis de datos masivos como Google BigQuery, Amazon Redshift y Snowflake, destacando las ventajas competitivas de Microsoft Fabric. Finalmente, se presentan conclusiones sobre el potencial de Microsoft Fabric. Los resultados indican que Microsoft Fabric es una herramienta valiosa que puede proporcionar una ventaja competitiva significativa mediante un análisis eficiente y efectivo de grandes volúmenes de datos.
Dirección
Triñanes Fernández, Joaquín Ángel (Tutoría)
López Chao, Brais Cotutoría
Triñanes Fernández, Joaquín Ángel (Tutoría)
López Chao, Brais Cotutoría
Tribunal
Argüello Pedreira, Francisco Santiago (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Argüello Pedreira, Francisco Santiago (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
FELIX LAMAS, PAULO (Vocal)
Identificación de beneficios ambientales vinculados a la aplicación de vermicompost en viñedos de uva albariño
Autoría
P.A.L.
Máster Universitario en Ingeniería Ambiental (3ª ed)
P.A.L.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
09.09.2024 09:15
09.09.2024 09:15
Resumen
El noroeste peninsular, con sus características edáficas y climatológicas diferenciadas, da lugar a variedades de vid únicas, entre las que destaca el albariño. El cultivo de vides es reconocido como perjudicial para el medio ambiente, principalmente debido al alto uso de agroquímicos, contribuyendo con importantes cantidades de emisiones y compuestos tóxicos al medioambiente. Con el objetivo de mejorar la sostenibilidad ambiental del cultivo de las vides se está trabajando en la integración de prácticas agrícolas que sean sostenibles y en este sentido recibe especial atención el empleo de bioestimulantes. El presente trabajo se centra en analizar los beneficios ambientales derivados del empleo de vermicompost (como alternativa a los fertilizantes minerales) producido a partir de bagazo de uva albariño dentro de una perspectiva de economía circular en la viticultura sostenible, considerando como caso de estudio viñedos de la bodega Paco y Lola. El estudio se realizará empleando la metodología del Análisis de Ciclo de Vida (ACV). El estudio pretende i) identificar los puntos críticos desde una perspectiva ambiental en el proceso de cultivo, ii) determinar los beneficios ambientales del empleo del vermicompost como enmienda orgánica frente al empleo de fertilización mineral. Para ello, se recopilaron datos de inventario en el proceso de cultivo y se procesaron para modelar posteriormente el perfil ambiental en base a una selección de categorías de impacto, representativas para sistemas agrícolas, empleando el software SimaPro para la implementación de los datos de inventario.
El noroeste peninsular, con sus características edáficas y climatológicas diferenciadas, da lugar a variedades de vid únicas, entre las que destaca el albariño. El cultivo de vides es reconocido como perjudicial para el medio ambiente, principalmente debido al alto uso de agroquímicos, contribuyendo con importantes cantidades de emisiones y compuestos tóxicos al medioambiente. Con el objetivo de mejorar la sostenibilidad ambiental del cultivo de las vides se está trabajando en la integración de prácticas agrícolas que sean sostenibles y en este sentido recibe especial atención el empleo de bioestimulantes. El presente trabajo se centra en analizar los beneficios ambientales derivados del empleo de vermicompost (como alternativa a los fertilizantes minerales) producido a partir de bagazo de uva albariño dentro de una perspectiva de economía circular en la viticultura sostenible, considerando como caso de estudio viñedos de la bodega Paco y Lola. El estudio se realizará empleando la metodología del Análisis de Ciclo de Vida (ACV). El estudio pretende i) identificar los puntos críticos desde una perspectiva ambiental en el proceso de cultivo, ii) determinar los beneficios ambientales del empleo del vermicompost como enmienda orgánica frente al empleo de fertilización mineral. Para ello, se recopilaron datos de inventario en el proceso de cultivo y se procesaron para modelar posteriormente el perfil ambiental en base a una selección de categorías de impacto, representativas para sistemas agrícolas, empleando el software SimaPro para la implementación de los datos de inventario.
Dirección
GONZALEZ GARCIA, SARA (Tutoría)
GONZALEZ GARCIA, SARA (Tutoría)
Tribunal
OTERO PEREZ, XOSE LOIS (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
ALDREY VAZQUEZ, JOSE ANTONIO (Vocal)
OTERO PEREZ, XOSE LOIS (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
ALDREY VAZQUEZ, JOSE ANTONIO (Vocal)
Visión por ordenador y técnicas de IA aplicadas al cálculo de la altura de capa de modelos impresos mediante bioimpresoras top-down
Autoría
A.G.S.
Máster Universitario en Inteligencia Artificial
A.G.S.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
21.02.2024 17:00
21.02.2024 17:00
Resumen
La bioimpresión es una novedosa técnica que permite la biofabricación de tejidos artificiales, mediante la generación de una estructura de soporte en la que quedan atrapadas células vivas a nivel microscópico, constituyendo lo que se conoce como un biochip. Los biochips pueden aplicarse en diversos campos, desde el estudio de la difusión de fármacos y células tumorales hasta la elaboración de tejidos artificiales en 3D, e incluso la creación de órganos completos. Este trabajo se centra en resolver uno de los problemas fundamentales de la bioimpresión DLP multimaterial: determinar la separación entre el modelo, impreso en una plataforma, y la superficie de la resina fotopolimerizable o biogel, que define el grosor de capa del objeto impreso. Se propone un método basado en IA y técnicas de visión por ordenador, que es capaz de determinar la altura del líquido con una precisión de 0,092 mm, y proporciona mediciones de la posición de la plataforma con un coeficiente de correlación de 0,994 con respecto a la posición real definida por el motor paso a paso. Este método permite la impresión multimaterial sin necesidad de intervención humana cada vez que se realiza un cambio de material.
La bioimpresión es una novedosa técnica que permite la biofabricación de tejidos artificiales, mediante la generación de una estructura de soporte en la que quedan atrapadas células vivas a nivel microscópico, constituyendo lo que se conoce como un biochip. Los biochips pueden aplicarse en diversos campos, desde el estudio de la difusión de fármacos y células tumorales hasta la elaboración de tejidos artificiales en 3D, e incluso la creación de órganos completos. Este trabajo se centra en resolver uno de los problemas fundamentales de la bioimpresión DLP multimaterial: determinar la separación entre el modelo, impreso en una plataforma, y la superficie de la resina fotopolimerizable o biogel, que define el grosor de capa del objeto impreso. Se propone un método basado en IA y técnicas de visión por ordenador, que es capaz de determinar la altura del líquido con una precisión de 0,092 mm, y proporciona mediciones de la posición de la plataforma con un coeficiente de correlación de 0,994 con respecto a la posición real definida por el motor paso a paso. Este método permite la impresión multimaterial sin necesidad de intervención humana cada vez que se realiza un cambio de material.
Dirección
FLORES GONZALEZ, JULIAN CARLOS (Tutoría)
NIETO GARCIA, DANIEL Cotutoría
FLORES GONZALEZ, JULIAN CARLOS (Tutoría)
NIETO GARCIA, DANIEL Cotutoría
Tribunal
CARREIRA NOUCHE, MARIA JOSE (Presidente/a)
CATALA BOLOS, ALEJANDRO (Secretario/a)
López Martínez, Paula (Vocal)
CARREIRA NOUCHE, MARIA JOSE (Presidente/a)
CATALA BOLOS, ALEJANDRO (Secretario/a)
López Martínez, Paula (Vocal)
Estudio de Mejoras para la Optimización de la Línea de Fangos en una Estación de Depuración de Aguas Residuales
Autoría
A.J.S.C.
Máster Universitario en Ingeniería Química y Bioprocesos
A.J.S.C.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
15.02.2024 09:30
15.02.2024 09:30
Resumen
El presente TFM se centrará en el estudio de sistemas para la mejora de obtención de energía, gestión de residuos y recuperación de nutrientes en EDAR Bens, empresa supramunicipal con capacidad para depurar aguas residuales urbanas de hasta 600.000 habitantes equivalentes. Como objetivo estaría el mayor aprovechamiento de los recursos presentes en el agua a depurar, buscando maximizar la recuperación de energía minimizando la oxidación de DQO y mejorando el rendimiento de la digestión anaerobia mediante tratamientos térmicos. Siguiendo, recuperar el fósforo eliminado en el reactor biológico es otro de los propósitos del estudio, realizando cristalización controlada de estruvita en la línea de fangos. A parte, se vería reducido el mantenimiento de la planta por la precipitación descontrolada en conducciones y equipos. A mayores, la mejora de la gestión de residuos es otro aspecto que cobra importancia en el proyecto, buscando higienizar el lodo para poder darle salida como fertilizante siguiendo la ley gallega vigente. Por ende, con estas medidas se busca optimizar la operación en línea de fangos en la EDAR de Bens, buscando una mayor recuperación de energía, una reducción del volumen de residuos y una recuperación del fósforo eliminado para darle salida como fertilizante, acercándose más a un modelo de economía circular.
El presente TFM se centrará en el estudio de sistemas para la mejora de obtención de energía, gestión de residuos y recuperación de nutrientes en EDAR Bens, empresa supramunicipal con capacidad para depurar aguas residuales urbanas de hasta 600.000 habitantes equivalentes. Como objetivo estaría el mayor aprovechamiento de los recursos presentes en el agua a depurar, buscando maximizar la recuperación de energía minimizando la oxidación de DQO y mejorando el rendimiento de la digestión anaerobia mediante tratamientos térmicos. Siguiendo, recuperar el fósforo eliminado en el reactor biológico es otro de los propósitos del estudio, realizando cristalización controlada de estruvita en la línea de fangos. A parte, se vería reducido el mantenimiento de la planta por la precipitación descontrolada en conducciones y equipos. A mayores, la mejora de la gestión de residuos es otro aspecto que cobra importancia en el proyecto, buscando higienizar el lodo para poder darle salida como fertilizante siguiendo la ley gallega vigente. Por ende, con estas medidas se busca optimizar la operación en línea de fangos en la EDAR de Bens, buscando una mayor recuperación de energía, una reducción del volumen de residuos y una recuperación del fósforo eliminado para darle salida como fertilizante, acercándose más a un modelo de economía circular.
Dirección
GARRIDO FERNANDEZ, JUAN MANUEL (Tutoría)
Lamora Suárez, Carlos Cotutoría
GARRIDO FERNANDEZ, JUAN MANUEL (Tutoría)
Lamora Suárez, Carlos Cotutoría
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
RODRIGUEZ FERNANDEZ, MANUEL DAMASO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
RODRIGUEZ FERNANDEZ, MANUEL DAMASO (Secretario/a)
RODIL RODRIGUEZ, EVA (Vocal)
Reutilizando, Reciclando y Reduciendo Modelos Pre-entrenados para Desarrollar y Evaluar Sistemas de Datos-a-Texto Ecológicos: Un Caso de Uso con Datos Meteorológicos.
Autoría
A.V.C.
Máster Universitario en Inteligencia Artificial
A.V.C.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
20.02.2024 13:00
20.02.2024 13:00
Resumen
Este Tabajo Fin de Máster tiene como objetivo avanzar en el campo del Procesamiento del Lenguaje Natural (PLN) hacia una mayor sostenibilidad ambiental, con un enfoque en la reutilización, reciclaje y reducción de modelos de lenguaje pre-entrenados. Nuestros objetivos principales incluyen: (i) refinar modelos existentes para los idiomas español y gallego a través de métodos eficientes adaptables a nuevos dominios, géneros e idiomas; (ii) investigar la viabilidad de enfoques para adaptar modelos de lenguaje con una huella de carbono minimizada; y (iii) desarrollar un pipeline sistemático para experimentación, facilitando la definición de líneas base, creación de modelos alternativos, generación de texto y evaluación integral, que incluye la valoración de aspectos relacionados con el consumo de energía y la calidad del texto generado para determinar el modelo óptimo. El tema central subraya la responsabilidad ambiental en el PLN, como se ejemplifica en un caso de uso que involucra datos meteorológicos en los idiomas español y gallego.
Este Tabajo Fin de Máster tiene como objetivo avanzar en el campo del Procesamiento del Lenguaje Natural (PLN) hacia una mayor sostenibilidad ambiental, con un enfoque en la reutilización, reciclaje y reducción de modelos de lenguaje pre-entrenados. Nuestros objetivos principales incluyen: (i) refinar modelos existentes para los idiomas español y gallego a través de métodos eficientes adaptables a nuevos dominios, géneros e idiomas; (ii) investigar la viabilidad de enfoques para adaptar modelos de lenguaje con una huella de carbono minimizada; y (iii) desarrollar un pipeline sistemático para experimentación, facilitando la definición de líneas base, creación de modelos alternativos, generación de texto y evaluación integral, que incluye la valoración de aspectos relacionados con el consumo de energía y la calidad del texto generado para determinar el modelo óptimo. El tema central subraya la responsabilidad ambiental en el PLN, como se ejemplifica en un caso de uso que involucra datos meteorológicos en los idiomas español y gallego.
Dirección
ALONSO MORAL, JOSE MARIA (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
GONZALEZ CORBELLE, JAVIER Cotutoría
ALONSO MORAL, JOSE MARIA (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
GONZALEZ CORBELLE, JAVIER Cotutoría
Tribunal
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
MUCIENTES MOLINA, MANUEL FELIPE (Presidente/a)
ORDOÑEZ IGLESIAS, ALVARO (Secretario/a)
Sánchez Vila, Eduardo Manuel (Vocal)
Los efectos adversos de microplásticos en la cadena trófica: Una contribución para su gestión a través de modelización
Autoría
A.P.O.
Máster Universitario en Ingeniería Ambiental (2ª ed)
A.P.O.
Máster Universitario en Ingeniería Ambiental (2ª ed)
Fecha de la defensa
01.03.2024 12:30
01.03.2024 12:30
Resumen
La presencia de plásticos en el medio ambiente y sus efectos adversos sobre la vida biológica han sido desde hace mucho tiempo el foco de muchos estudios medioambientales, tanto, que los estudios en esta área han aumentado de forma exponencial en las últimas décadas. La mayoría de estos estudios se centran en los océanos, mares y ríos como los “hot spots” de la contaminación de los plásticos, dejando fuera las otras zonas de transición como los estuarios, los lagos, las cuencas, etc. que también son “hot spots”. Una vez en el medio ambiente, los plásticos pasan por muchos procesos como fotooxidación, abrasión de viento de mucha fuerza, etc., y también debido al tiempo prolongado de uso, terminan fragmentando en trozos muy pequeños cuyo tamaño llegará a ser menos de 5mm, convirtiéndose en microplásticos. Este estudio se centra en un estuario como un “hot spot” en concreto, en la ría de Vigo, y muy importante también, en los efectos adversos de la contaminación de microplásticos. Se realiza un análisis de los efectos adversos de estos en la cadena trófica, sobre todo entre las especies acuáticas, y confirma el paso de microplásticos en la cadena trófica entre dichas especies. Se ha construido un modelo con el que se puede saber la concentración de microplásticos en tres matrices diferente, en los sedimentos, en la superficie del agua y en los mejillones. El modelo sirve como una herramienta importante para predecir la concentración de microplásticos en estas matrices a medio y largo plazo, y también ayuda a la hora de hacer las políticas medioambientales.
La presencia de plásticos en el medio ambiente y sus efectos adversos sobre la vida biológica han sido desde hace mucho tiempo el foco de muchos estudios medioambientales, tanto, que los estudios en esta área han aumentado de forma exponencial en las últimas décadas. La mayoría de estos estudios se centran en los océanos, mares y ríos como los “hot spots” de la contaminación de los plásticos, dejando fuera las otras zonas de transición como los estuarios, los lagos, las cuencas, etc. que también son “hot spots”. Una vez en el medio ambiente, los plásticos pasan por muchos procesos como fotooxidación, abrasión de viento de mucha fuerza, etc., y también debido al tiempo prolongado de uso, terminan fragmentando en trozos muy pequeños cuyo tamaño llegará a ser menos de 5mm, convirtiéndose en microplásticos. Este estudio se centra en un estuario como un “hot spot” en concreto, en la ría de Vigo, y muy importante también, en los efectos adversos de la contaminación de microplásticos. Se realiza un análisis de los efectos adversos de estos en la cadena trófica, sobre todo entre las especies acuáticas, y confirma el paso de microplásticos en la cadena trófica entre dichas especies. Se ha construido un modelo con el que se puede saber la concentración de microplásticos en tres matrices diferente, en los sedimentos, en la superficie del agua y en los mejillones. El modelo sirve como una herramienta importante para predecir la concentración de microplásticos en estas matrices a medio y largo plazo, y también ayuda a la hora de hacer las políticas medioambientales.
Dirección
BELLO BUGALLO, PASTORA MARIA (Tutoría)
BELLO BUGALLO, PASTORA MARIA (Tutoría)
Tribunal
FIOL LOPEZ, SARAH (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
CARBALLA ARCOS, MARTA (Vocal)
FIOL LOPEZ, SARAH (Presidente/a)
GONZALEZ GARCIA, SARA (Secretario/a)
CARBALLA ARCOS, MARTA (Vocal)
Enriquecimiento y acumulación en una única unidad para la obtención de biopolímeros con ácido oleico como substrato
Autoría
S.M.R.
Máster Universitario en Ingeniería Ambiental (3ª ed)
S.M.R.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
21.06.2024 09:30
21.06.2024 09:30
Resumen
La gestión de residuos de tipo graso tiene cada vez un papel más relevante en la actualidad. Los problemas causados por ellos en las estaciones depuradoras junto con su poder contaminante hacen de ellos una diana para la investigación del tratamiento de aguas. Así, nuevas estrategias para su utilización en la síntesis de compuestos intracelulares de alto valor añadido. Más concretamente, los polihidroxialcanoatos (PHA), que pueden ser utilizados para la fabricación de bioplásticos con unas mejores propiedades de biodegradabilidad y biocompatibilidad con el medio ambiente. Su síntesis a partir de corrientes residuales utilizando cultivos microbianos mixtos (CMM) y su carácter biodegradable hacen de ellos unos perfectos competidores para la sustitución de los plásticos convencionales derivados del petróleo. En el presente trabajo de fin de máster se utilizó ácido oleico como substrato con el fin de comprender las condiciones de operación ideales para el enriquecimiento de un CMM capaz de realizar la solubilización de corrientes lipídicas y la acumulación de biopolímeros de alto valor añadido. Para ello, se operó un reactor secuencial del tipo SBR (del inglés Sequencing Batch Reactor) de 4 L durante 123 días ajustando las distintas condiciones de operación (pH, concentración de nitrógeno y la forma de añadir la fuente de carbono). Además, se realizaron dos ensayos discontinuos de acumulación, del CMM enriquecido, con la finalidad de evaluar la máxima capacidad de acumulación de esta biomasa con ácido oleico.
La gestión de residuos de tipo graso tiene cada vez un papel más relevante en la actualidad. Los problemas causados por ellos en las estaciones depuradoras junto con su poder contaminante hacen de ellos una diana para la investigación del tratamiento de aguas. Así, nuevas estrategias para su utilización en la síntesis de compuestos intracelulares de alto valor añadido. Más concretamente, los polihidroxialcanoatos (PHA), que pueden ser utilizados para la fabricación de bioplásticos con unas mejores propiedades de biodegradabilidad y biocompatibilidad con el medio ambiente. Su síntesis a partir de corrientes residuales utilizando cultivos microbianos mixtos (CMM) y su carácter biodegradable hacen de ellos unos perfectos competidores para la sustitución de los plásticos convencionales derivados del petróleo. En el presente trabajo de fin de máster se utilizó ácido oleico como substrato con el fin de comprender las condiciones de operación ideales para el enriquecimiento de un CMM capaz de realizar la solubilización de corrientes lipídicas y la acumulación de biopolímeros de alto valor añadido. Para ello, se operó un reactor secuencial del tipo SBR (del inglés Sequencing Batch Reactor) de 4 L durante 123 días ajustando las distintas condiciones de operación (pH, concentración de nitrógeno y la forma de añadir la fuente de carbono). Además, se realizaron dos ensayos discontinuos de acumulación, del CMM enriquecido, con la finalidad de evaluar la máxima capacidad de acumulación de esta biomasa con ácido oleico.
Dirección
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
Tribunal
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
PARADELO NUÑEZ, REMIGIO (Vocal)
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
PARADELO NUÑEZ, REMIGIO (Vocal)
Evaluación del grado de sostenibilidad y circularidad de una planta de tratamiento de aguas residuales industriales
Autoría
B.C.P.
Máster Universitario en Ingeniería Ambiental (3ª ed)
B.C.P.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
21.06.2024 10:00
21.06.2024 10:00
Resumen
Este trabajo de investigación se centra en el análisis exhaustivo del impacto ambiental generado por una planta de tratamiento de aguas residuales industriales (EDAR), concretamente de una industria conservera de atún. Se utiliza una herramienta de simulación (Biowin) para poder evaluar el comportamiento de la planta al realizar diferentes cambios que puedan disminuir el impacto ambiental y asegurar que se sigan cumpliendo los límites de vertido. Se identificaron las categorías de impacto más relevantes, como el calentamiento global y la escasez de recursos. Se observó como el consumo energético y el consumo de reactivos son los que mayor impacto ambiental generan, por lo que se investigó a fondo las áreas críticas de estos, demostrando que el aireador del Reactor Biológico Secuencial es el que mayor consumo de energía genera y que el policloruro de aluminio es el reactivo con mayor impacto ambiental. Por ello, se discutieron estrategias para mejorar la eficiencia y reducir el impacto ambiental del sistema de tratamiento, como la optimización del uso de reactivos y la evaluación de fuentes de energía alternativas. Los resultados obtenidos subrayan la complejidad de la gestión ambiental en el tratamiento de aguas residuales y ponen de relieve la necesidad de enfoques innovadores para afrontar estos retos, proporcionando una visión global que pueda orientar la investigación y la práctica futuras en el campo del tratamiento de aguas residuales.
Este trabajo de investigación se centra en el análisis exhaustivo del impacto ambiental generado por una planta de tratamiento de aguas residuales industriales (EDAR), concretamente de una industria conservera de atún. Se utiliza una herramienta de simulación (Biowin) para poder evaluar el comportamiento de la planta al realizar diferentes cambios que puedan disminuir el impacto ambiental y asegurar que se sigan cumpliendo los límites de vertido. Se identificaron las categorías de impacto más relevantes, como el calentamiento global y la escasez de recursos. Se observó como el consumo energético y el consumo de reactivos son los que mayor impacto ambiental generan, por lo que se investigó a fondo las áreas críticas de estos, demostrando que el aireador del Reactor Biológico Secuencial es el que mayor consumo de energía genera y que el policloruro de aluminio es el reactivo con mayor impacto ambiental. Por ello, se discutieron estrategias para mejorar la eficiencia y reducir el impacto ambiental del sistema de tratamiento, como la optimización del uso de reactivos y la evaluación de fuentes de energía alternativas. Los resultados obtenidos subrayan la complejidad de la gestión ambiental en el tratamiento de aguas residuales y ponen de relieve la necesidad de enfoques innovadores para afrontar estos retos, proporcionando una visión global que pueda orientar la investigación y la práctica futuras en el campo del tratamiento de aguas residuales.
Dirección
MOREIRA VILAR, MARIA TERESA (Tutoría)
Arias Calvo, Ana Cotutoría
MOREIRA VILAR, MARIA TERESA (Tutoría)
Arias Calvo, Ana Cotutoría
Tribunal
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
PARADELO NUÑEZ, REMIGIO (Vocal)
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
PARADELO NUÑEZ, REMIGIO (Vocal)
Evaluación de plantas de tratamiento de aguas desde la perspectiva de sostenibilidad y economía circular
Autoría
R.P.M.
Máster Universitario en Ingeniería Ambiental (3ª ed)
R.P.M.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
21.06.2024 10:30
21.06.2024 10:30
Resumen
El objetivo de este proyecto es evaluar el potencial de sostenibilidad y circularidad de tres plantas de tratamiento de aguas ubicadas en Italia, así como identificar posibles escenarios alternativos para mejorar su desempeño ambiental y circular. Se emplearon datos reales de los sistemas de tratamiento, los cuales fueron analizados y procesados utilizando la metodología del Análisis del Ciclo de Vida (ACV), además de la evaluación de indicadores provenientes de esquemas de certificación y documentos reconocidos internacionalmente. La metodología del ACV se llevó a cabo de acuerdo con las normas ISO 14040 y 14044, utilizando como unidad funcional 1 m3 de agua tratada. Se realizó un análisis de ciclo de vida para cada Estación Depuradora de Aguas Residuales (EDAR), donde se estudiaron 6 categorías de impacto mediante la metodología de evaluación ReCiPe 2016, comparándolas entre sí. Además, se realizó un análisis de sensibilidad con dos escenarios: uno evaluando el impacto de reducir un 20% el consumo de energía eléctrica y otro analizando el impacto del uso de fuentes de energías renovables. Los resultados indican que el tratamiento secundario es la etapa con la mayor contribución ambiental en la mayoría de las categorías de impacto analizadas. Además, se observó que Canegrate destacó por su bajo impacto ambiental, seguida por Sesto San Giovanni, y finalmente Rozzano. Por otro lado, el análisis de sensibilidad demostró que la eficiencia energética y el uso de energías renovables ayudan a reducir el impacto ambiental de las EDAR. En cuanto a los indicadores de circularidad, se seleccionaron 31 indicadores distribuidos en 3 grupos generales: ambientales y económicos. Tras el análisis, se encontró que, aunque las tres instalaciones presentan tanto fortalezas como debilidades, la EDAR de Canegrate exhibe generalmente valores más circulares, seguida por Sesto San Giovanni y, finalmente, Rozzano.
El objetivo de este proyecto es evaluar el potencial de sostenibilidad y circularidad de tres plantas de tratamiento de aguas ubicadas en Italia, así como identificar posibles escenarios alternativos para mejorar su desempeño ambiental y circular. Se emplearon datos reales de los sistemas de tratamiento, los cuales fueron analizados y procesados utilizando la metodología del Análisis del Ciclo de Vida (ACV), además de la evaluación de indicadores provenientes de esquemas de certificación y documentos reconocidos internacionalmente. La metodología del ACV se llevó a cabo de acuerdo con las normas ISO 14040 y 14044, utilizando como unidad funcional 1 m3 de agua tratada. Se realizó un análisis de ciclo de vida para cada Estación Depuradora de Aguas Residuales (EDAR), donde se estudiaron 6 categorías de impacto mediante la metodología de evaluación ReCiPe 2016, comparándolas entre sí. Además, se realizó un análisis de sensibilidad con dos escenarios: uno evaluando el impacto de reducir un 20% el consumo de energía eléctrica y otro analizando el impacto del uso de fuentes de energías renovables. Los resultados indican que el tratamiento secundario es la etapa con la mayor contribución ambiental en la mayoría de las categorías de impacto analizadas. Además, se observó que Canegrate destacó por su bajo impacto ambiental, seguida por Sesto San Giovanni, y finalmente Rozzano. Por otro lado, el análisis de sensibilidad demostró que la eficiencia energética y el uso de energías renovables ayudan a reducir el impacto ambiental de las EDAR. En cuanto a los indicadores de circularidad, se seleccionaron 31 indicadores distribuidos en 3 grupos generales: ambientales y económicos. Tras el análisis, se encontró que, aunque las tres instalaciones presentan tanto fortalezas como debilidades, la EDAR de Canegrate exhibe generalmente valores más circulares, seguida por Sesto San Giovanni y, finalmente, Rozzano.
Dirección
MOREIRA VILAR, MARIA TERESA (Tutoría)
Arias Calvo, Ana Cotutoría
MOREIRA VILAR, MARIA TERESA (Tutoría)
Arias Calvo, Ana Cotutoría
Tribunal
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
PARADELO NUÑEZ, REMIGIO (Vocal)
PRIETO LAMAS, BEATRIZ LORETO (Presidente/a)
BELLO BUGALLO, PASTORA MARIA (Secretario/a)
PARADELO NUÑEZ, REMIGIO (Vocal)
Efecto del cambio de uso del suelo sobre el contenido y formas de carbono
Autoría
A.M.M.S.
Máster Universitario en Ingeniería Ambiental (3ª ed)
A.M.M.S.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
25.06.2024 10:00
25.06.2024 10:00
Resumen
El suelo constituye el mayor sumidero de carbono de la superficie terrestre. Este se encuentra afectado por la transformación de ecosistemas forestales o de prado a terrenos dedicados al cultivo, lo cual puede tener impacto sobre el contenido de dicho elemento no sólo en el sistema edáfico sino también en la atmósfera, elevando la concentración de gases de efecto invernadero. En este estudio, enmarcado en el proyecto ReCrop (Bioinocula and CROPping systems: an integrated biotechnological approach for improving crop yield, biodiversity and REsilience of Mediterranean agro-ecosystems), se ha investigado el efecto del cambio de uso del suelo sobre el contenido y formas de carbono orgánico en una parcela del municipio de Trabada tras su conversión de prado permanente de más de 80 años de antigüedad a cultivo de maíz (Zea mais L.) en primavera y verano con rotación con raigrás (Lolium perenne L.) en otoño e invierno. Se tomaron muestras a 0- 10 cm y 10- 20 cm el primer año en el que se produjo el cambio de uso del suelo y 28 meses después. Para poder llevar a cabo el objetivo fijado, se realizaron diversas extracciones (con agua caliente, permanganato de potasio, pirofosfato de sodio y sulfato de potasio), así como un fraccionamiento físico del carbono orgánico del suelo. Los resultados obtenidos permiten determinar el efecto producido por el cambio del uso del suelo de prado permanente a cultivo de maíz, y cómo responden las distintas fracciones de carbono orgánico a dicha transformación. Los efectos observados de mayor importancia se debieron a las prácticas de arado que promovieron la mineralización de carbono y la homogenización de las capas del suelo estudiadas.
El suelo constituye el mayor sumidero de carbono de la superficie terrestre. Este se encuentra afectado por la transformación de ecosistemas forestales o de prado a terrenos dedicados al cultivo, lo cual puede tener impacto sobre el contenido de dicho elemento no sólo en el sistema edáfico sino también en la atmósfera, elevando la concentración de gases de efecto invernadero. En este estudio, enmarcado en el proyecto ReCrop (Bioinocula and CROPping systems: an integrated biotechnological approach for improving crop yield, biodiversity and REsilience of Mediterranean agro-ecosystems), se ha investigado el efecto del cambio de uso del suelo sobre el contenido y formas de carbono orgánico en una parcela del municipio de Trabada tras su conversión de prado permanente de más de 80 años de antigüedad a cultivo de maíz (Zea mais L.) en primavera y verano con rotación con raigrás (Lolium perenne L.) en otoño e invierno. Se tomaron muestras a 0- 10 cm y 10- 20 cm el primer año en el que se produjo el cambio de uso del suelo y 28 meses después. Para poder llevar a cabo el objetivo fijado, se realizaron diversas extracciones (con agua caliente, permanganato de potasio, pirofosfato de sodio y sulfato de potasio), así como un fraccionamiento físico del carbono orgánico del suelo. Los resultados obtenidos permiten determinar el efecto producido por el cambio del uso del suelo de prado permanente a cultivo de maíz, y cómo responden las distintas fracciones de carbono orgánico a dicha transformación. Los efectos observados de mayor importancia se debieron a las prácticas de arado que promovieron la mineralización de carbono y la homogenización de las capas del suelo estudiadas.
Dirección
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Tutoría)
Prieto Fernández, María Ángeles Cotutoría
Trasar Cepeda, Mª del Carmen Cotutoría
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Tutoría)
Prieto Fernández, María Ángeles Cotutoría
Trasar Cepeda, Mª del Carmen Cotutoría
Tribunal
BARRAL SILVA, MARIA TERESA DEL CARMEN (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
PEÑA VAZQUEZ, ELENA MARIA (Vocal)
BARRAL SILVA, MARIA TERESA DEL CARMEN (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
PEÑA VAZQUEZ, ELENA MARIA (Vocal)
Implementación de logística industrial en instalaciones de gestión de residuos
Autoría
A.H.P.
Máster Universitario en Ingeniería Ambiental (3ª ed)
A.H.P.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
25.06.2024 10:30
25.06.2024 10:30
Resumen
El presente trabajo se enmarca en una colaboración con una destacada empresa gallega del sector de la gestión de residuos. El objetivo principal es analizar los métodos de tratamiento de residuos desde la perspectiva de la producción industrial. Para ello, se adoptará un enfoque analítico propio de los sistemas de producción industrial, similar al aplicado en los procesos de manufactura. Este estudio se centrará en evaluar la operatividad de los actuales métodos de tratamiento de residuos de la empresa. A través de estos análisis, se pretende identificar posibles ajustes necesarios antes de que la empresa traslade sus actividades a una instalación de mayor tamaño. Este traslado se plantea con el fin de aumentar la capacidad de recepción y procesamiento de residuos, respondiendo a las crecientes demandas del sector.
El presente trabajo se enmarca en una colaboración con una destacada empresa gallega del sector de la gestión de residuos. El objetivo principal es analizar los métodos de tratamiento de residuos desde la perspectiva de la producción industrial. Para ello, se adoptará un enfoque analítico propio de los sistemas de producción industrial, similar al aplicado en los procesos de manufactura. Este estudio se centrará en evaluar la operatividad de los actuales métodos de tratamiento de residuos de la empresa. A través de estos análisis, se pretende identificar posibles ajustes necesarios antes de que la empresa traslade sus actividades a una instalación de mayor tamaño. Este traslado se plantea con el fin de aumentar la capacidad de recepción y procesamiento de residuos, respondiendo a las crecientes demandas del sector.
Dirección
BELLO BUGALLO, PASTORA MARIA (Tutoría)
BELLO BUGALLO, PASTORA MARIA (Tutoría)
Tribunal
BARRAL SILVA, MARIA TERESA DEL CARMEN (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
PEÑA VAZQUEZ, ELENA MARIA (Vocal)
BARRAL SILVA, MARIA TERESA DEL CARMEN (Presidente/a)
VAL DEL RIO, MARIA ANGELES (Secretario/a)
PEÑA VAZQUEZ, ELENA MARIA (Vocal)
Evaluación de materiales para la eliminación de colorantes de las aguas residuales textiles
Autoría
S.V.R.
Máster Universitario en Ingeniería Ambiental (3ª ed)
S.V.R.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
25.06.2024 12:30
25.06.2024 12:30
Resumen
La creciente industrialización ha provocado una significativa contaminación del agua debido a la descarga de diversos contaminantes de origen industrial, entre ellos los colorantes sintéticos utilizados en la industria textil. Uno de estos compuestos nocivos para el medio ambiente es el azul de metileno, ampliamente utilizado por su intenso color y solubilidad en agua, características que, sin embargo, resultan problemáticas para el entorno natural. La eliminación del azul de metileno de las aguas residuales es crucial para proteger el medio ambiente, garantizar la salud pública y promover la sostenibilidad. Por ello, es vital desarrollar métodos efectivos y eficientes para su eliminación, con el objetivo de mitigar sus efectos negativos y fomentar una gestión sostenible de los recursos hídricos. Bajo esta premisa, en este Trabajo Fin de Máster hemos evaluado la eficacia de distintos materiales adsorbentes para eliminar este compuesto: compost, algas, partículas de Fe(0), biocarbón (derivado de maíz y eucalipto) y serrín de pino. Se analizó su capacidad de adsorción en experimentos por lotes y en columnas de lecho fijo. Los resultados mostraron que las algas y el compost tienen la mejor capacidad de adsorción del azul de metileno. Utilizar algas y compost es beneficioso porque son materiales abundantes y de bajo costo, promueven prácticas sostenibles, tienen una alta capacidad de adsorción de contaminantes y ofrecen beneficios ecológicos adicionales, como la mejora de la calidad del suelo y la absorción de dióxido de carbono. Además, su uso fomenta una economía circular al reutilizar biorresiduos, lo que no solo reduce los costos de tratamiento de aguas residuales, sino que también minimiza el impacto ambiental global. Estos resultados nos permitirán desarrollar un proceso de descontaminación de aguas residuales utilizando productos derivados de otras industrias, promoviendo así una gestión más sostenible de los recursos.
La creciente industrialización ha provocado una significativa contaminación del agua debido a la descarga de diversos contaminantes de origen industrial, entre ellos los colorantes sintéticos utilizados en la industria textil. Uno de estos compuestos nocivos para el medio ambiente es el azul de metileno, ampliamente utilizado por su intenso color y solubilidad en agua, características que, sin embargo, resultan problemáticas para el entorno natural. La eliminación del azul de metileno de las aguas residuales es crucial para proteger el medio ambiente, garantizar la salud pública y promover la sostenibilidad. Por ello, es vital desarrollar métodos efectivos y eficientes para su eliminación, con el objetivo de mitigar sus efectos negativos y fomentar una gestión sostenible de los recursos hídricos. Bajo esta premisa, en este Trabajo Fin de Máster hemos evaluado la eficacia de distintos materiales adsorbentes para eliminar este compuesto: compost, algas, partículas de Fe(0), biocarbón (derivado de maíz y eucalipto) y serrín de pino. Se analizó su capacidad de adsorción en experimentos por lotes y en columnas de lecho fijo. Los resultados mostraron que las algas y el compost tienen la mejor capacidad de adsorción del azul de metileno. Utilizar algas y compost es beneficioso porque son materiales abundantes y de bajo costo, promueven prácticas sostenibles, tienen una alta capacidad de adsorción de contaminantes y ofrecen beneficios ecológicos adicionales, como la mejora de la calidad del suelo y la absorción de dióxido de carbono. Además, su uso fomenta una economía circular al reutilizar biorresiduos, lo que no solo reduce los costos de tratamiento de aguas residuales, sino que también minimiza el impacto ambiental global. Estos resultados nos permitirán desarrollar un proceso de descontaminación de aguas residuales utilizando productos derivados de otras industrias, promoviendo así una gestión más sostenible de los recursos.
Dirección
FIOL LOPEZ, SARAH (Tutoría)
ANTELO MARTINEZ, JUAN Cotutoría
FIOL LOPEZ, SARAH (Tutoría)
ANTELO MARTINEZ, JUAN Cotutoría
Tribunal
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
ROMERO CASTRO, NOELIA MARIA (Secretario/a)
MAURICIO IGLESIAS, MIGUEL (Vocal)
HOSPIDO QUINTANA, ALMUDENA (Presidente/a)
ROMERO CASTRO, NOELIA MARIA (Secretario/a)
MAURICIO IGLESIAS, MIGUEL (Vocal)
Estudio de la Ecoeficiencia en Plantaciones Intensivas de Cebada Cervecera en Italia
Autoría
M.D.M.M.
Máster Universitario en Ingeniería Ambiental (3ª ed)
M.D.M.M.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
09.09.2024 09:45
09.09.2024 09:45
Resumen
Este estudio evalúa la ecoeficiencia de las plantaciones intensivas de cebada cervecera en Italia a través del análisis del ciclo de vida (ACV) y el Análisis por Envoltura de Datos (DEA) orientado a las entradas. El objetivo principal es mejorar la sostenibilidad ambiental de este cultivo, reduciendo los impactos ambientales asociados a la producción de cebada. Se utilizaron datos de diversas regiones de centroitalia y se realizó una evaluación comparativa para identificar las prácticas agrícolas más eficientes. El estudio concluye que la adopción de prácticas agrícolas optimizadas puede mejorar significativamente la ecoeficiencia, reduciendo las emisiones de gases de efecto invernadero y otros impactos ambientales.
Este estudio evalúa la ecoeficiencia de las plantaciones intensivas de cebada cervecera en Italia a través del análisis del ciclo de vida (ACV) y el Análisis por Envoltura de Datos (DEA) orientado a las entradas. El objetivo principal es mejorar la sostenibilidad ambiental de este cultivo, reduciendo los impactos ambientales asociados a la producción de cebada. Se utilizaron datos de diversas regiones de centroitalia y se realizó una evaluación comparativa para identificar las prácticas agrícolas más eficientes. El estudio concluye que la adopción de prácticas agrícolas optimizadas puede mejorar significativamente la ecoeficiencia, reduciendo las emisiones de gases de efecto invernadero y otros impactos ambientales.
Dirección
GONZALEZ GARCIA, SARA (Tutoría)
GONZALEZ GARCIA, SARA (Tutoría)
Tribunal
OTERO PEREZ, XOSE LOIS (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
ALDREY VAZQUEZ, JOSE ANTONIO (Vocal)
OTERO PEREZ, XOSE LOIS (Presidente/a)
SOUTO GONZALEZ, JOSE ANTONIO (Secretario/a)
ALDREY VAZQUEZ, JOSE ANTONIO (Vocal)
Obtención de ácidos grasos de cadena impar mediante fermentación de lactato
Autoría
C.A.M.P.
Máster Universitario en Ingeniería Química y Bioprocesos
C.A.M.P.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
11.09.2024 12:00
11.09.2024 12:00
Resumen
En la actualidad se genera una gran cantidad de residuos orgánicos que no para de crecer, es por esto que se deben buscar alternativas para reducir la generación de residuos y una manera de valorizarlos. Una plataforma interesante es la plataforma de los carboxilatos, que permite producir ácidos grasos a partir de materia orgánica mediante la fermentación acidogénica. Dentro de esta fermentación hay distintos intermediarios que llevan a los distintos ácidos grasos, en el cual destaca el lactato. El lactato es el intermediario para la producción de ácido propiónico, el cual es el principal precursor de los ácidos grasos de cadena impar. Los ácidos grasos de cadena impar son relevantes ya que son los intermediarios para la producción de bioplásticos. Debido a la influencia que tienen los parámetros operacionales, estudiar su efecto es determinante al momento de querer mejorar el proceso. Se estudiaron los efectos de tres parámetros operacionales, el medio de cultivo, el pH y la relación inoculo sustrato, para diseñar un esquema experimental óptimo. De estos ensayos experimentales se obtuvieron resultados que permiten decir que la adición de extracto de levadura no mejora la producción de ácidos grasos de manera significativa. El pH influye en la proporción del espectro de los ácidos grasos, en la adaptación de las bacterias al medio y la velocidad de consumo de sustrato. A un pH 5,5, la fermentación no es estable y la fase de latencia es más larga. A mayor relación inoculo sustrato mayor es la concentración de ácidos grasos y aparecen más ácidos grasos dentro del espectro. La producción de ácidos grasos de cadena media necesita de donadores de electrones, donde esta depende de la concentración de los donadores de electrones y del donador de electrones. Debido a esto es que se debe estudiar con mayor profundidad el metabolismo para la elongación de cadena y buscar otros posibles donadores de electrones.
En la actualidad se genera una gran cantidad de residuos orgánicos que no para de crecer, es por esto que se deben buscar alternativas para reducir la generación de residuos y una manera de valorizarlos. Una plataforma interesante es la plataforma de los carboxilatos, que permite producir ácidos grasos a partir de materia orgánica mediante la fermentación acidogénica. Dentro de esta fermentación hay distintos intermediarios que llevan a los distintos ácidos grasos, en el cual destaca el lactato. El lactato es el intermediario para la producción de ácido propiónico, el cual es el principal precursor de los ácidos grasos de cadena impar. Los ácidos grasos de cadena impar son relevantes ya que son los intermediarios para la producción de bioplásticos. Debido a la influencia que tienen los parámetros operacionales, estudiar su efecto es determinante al momento de querer mejorar el proceso. Se estudiaron los efectos de tres parámetros operacionales, el medio de cultivo, el pH y la relación inoculo sustrato, para diseñar un esquema experimental óptimo. De estos ensayos experimentales se obtuvieron resultados que permiten decir que la adición de extracto de levadura no mejora la producción de ácidos grasos de manera significativa. El pH influye en la proporción del espectro de los ácidos grasos, en la adaptación de las bacterias al medio y la velocidad de consumo de sustrato. A un pH 5,5, la fermentación no es estable y la fase de latencia es más larga. A mayor relación inoculo sustrato mayor es la concentración de ácidos grasos y aparecen más ácidos grasos dentro del espectro. La producción de ácidos grasos de cadena media necesita de donadores de electrones, donde esta depende de la concentración de los donadores de electrones y del donador de electrones. Debido a esto es que se debe estudiar con mayor profundidad el metabolismo para la elongación de cadena y buscar otros posibles donadores de electrones.
Dirección
MAURICIO IGLESIAS, MIGUEL (Tutoría)
REGUEIRA LOPEZ, ALBERTE Cotutoría
MAURICIO IGLESIAS, MIGUEL (Tutoría)
REGUEIRA LOPEZ, ALBERTE Cotutoría
Tribunal
CASARES LONG, JUAN JOSE (Presidente/a)
EIBES GONZALEZ, GEMMA MARIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
CASARES LONG, JUAN JOSE (Presidente/a)
EIBES GONZALEZ, GEMMA MARIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
Desterpenación de aceites esenciales de cítricos mediante extracción con un líquido iónico biocompatible
Autoría
A.R.G.
Máster Universitario en Ingeniería Química y Bioprocesos
A.R.G.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
11.09.2024 12:30
11.09.2024 12:30
Resumen
Los aceites esenciales de cítricos tienen una gran aplicación en la industria alimentaria como conservantes, saborizantes y aromatizantes, entre otros. Estos aceites están constituidos en su mayor parte por terpenos, que no contribuyen particularmente a las propiedades organolépticas deseadas y además pueden originar problemas asociados con la estabilidad del aceite esencial. Una posibilidad para la reducción de los volúmenes a manejar y para la mejora de las propiedades de estos aceites es someterlos a un proceso de desterpenación. Una de las técnicas más utilizadas para ello es la extracción líquido-líquido. No obstante, los disolventes convencionales utilizados en la desterpenación presentan un bajo desempeño termodinámico y cierta incompatibilidad con las aplicaciones de los aceites esenciales. En este contexto, existe un aumento de investigaciones para la sustitución de estos disolventes en la desterpenación de aceites esenciales de cítricos por otros alternativos más favorables. En este sentido, se han estudiado diferentes líquidos iónicos, ya que en general presentan buenas propiedades para ser considerados como disolventes alternativos en aplicaciones industriales. Sin embargo, a pesar de que algunos de los líquidos iónicos probados hasta la fecha presentan comportamientos termodinámicamente muy interesantes como disolventes para desterpenación, su perfil de toxicidad o biodegradabilidad merma la viabilidad de su utilización en el correspondiente proceso a escala industrial. Así, en este Trabajo Fin de Máster se plantea la utilización, como alternativa, de un líquido iónico con un perfil más biocompatible. En concreto, se ha considerado el 2-hidroxipropanoato de (2-hidroxietil)trimetilamonio (también conocido como lactato de colina). Se sintetizó el líquido iónico y se determinó el equilibrio líquido-líquido para el modelo ternario limoneno + linalool + líquido iónico (modelando el aceite esencial como una mezcla binaria de limoneno y linalool), a 25 C y presión atmosférica. En base a los datos de equilibrio obtenidos, se analizó la viabilidad termodinámica de este líquido iónico para la desterpenación de aceites esenciales de cítricos mediante extracción líquido-líquido. Aunque los resultados de relación de distribución de soluto y selectividad son ligeramente inferiores en comparación con otros líquidos iónicos explorados anteriormente en la bibliografía, las credenciales de carácter más sostenible del lactato de colina pueden erigirlo en un disolvente más adecuado para la desterpenación a escala industrial. Los datos de equilibrio líquido-líquido se correlacionaron aceptablemente por medio de modelos termodinámicos clásicos, lo que permitió su utilización en el simulador de procesos químicos Aspen Plus para la optimización del proceso de extracción. Los valores óptimos para una columna de desterpenación operando en contracorriente se correspondieron con una relación disolvente/alimención en torno a 2,8 y un total de 8 etapas teóricas.
Los aceites esenciales de cítricos tienen una gran aplicación en la industria alimentaria como conservantes, saborizantes y aromatizantes, entre otros. Estos aceites están constituidos en su mayor parte por terpenos, que no contribuyen particularmente a las propiedades organolépticas deseadas y además pueden originar problemas asociados con la estabilidad del aceite esencial. Una posibilidad para la reducción de los volúmenes a manejar y para la mejora de las propiedades de estos aceites es someterlos a un proceso de desterpenación. Una de las técnicas más utilizadas para ello es la extracción líquido-líquido. No obstante, los disolventes convencionales utilizados en la desterpenación presentan un bajo desempeño termodinámico y cierta incompatibilidad con las aplicaciones de los aceites esenciales. En este contexto, existe un aumento de investigaciones para la sustitución de estos disolventes en la desterpenación de aceites esenciales de cítricos por otros alternativos más favorables. En este sentido, se han estudiado diferentes líquidos iónicos, ya que en general presentan buenas propiedades para ser considerados como disolventes alternativos en aplicaciones industriales. Sin embargo, a pesar de que algunos de los líquidos iónicos probados hasta la fecha presentan comportamientos termodinámicamente muy interesantes como disolventes para desterpenación, su perfil de toxicidad o biodegradabilidad merma la viabilidad de su utilización en el correspondiente proceso a escala industrial. Así, en este Trabajo Fin de Máster se plantea la utilización, como alternativa, de un líquido iónico con un perfil más biocompatible. En concreto, se ha considerado el 2-hidroxipropanoato de (2-hidroxietil)trimetilamonio (también conocido como lactato de colina). Se sintetizó el líquido iónico y se determinó el equilibrio líquido-líquido para el modelo ternario limoneno + linalool + líquido iónico (modelando el aceite esencial como una mezcla binaria de limoneno y linalool), a 25 C y presión atmosférica. En base a los datos de equilibrio obtenidos, se analizó la viabilidad termodinámica de este líquido iónico para la desterpenación de aceites esenciales de cítricos mediante extracción líquido-líquido. Aunque los resultados de relación de distribución de soluto y selectividad son ligeramente inferiores en comparación con otros líquidos iónicos explorados anteriormente en la bibliografía, las credenciales de carácter más sostenible del lactato de colina pueden erigirlo en un disolvente más adecuado para la desterpenación a escala industrial. Los datos de equilibrio líquido-líquido se correlacionaron aceptablemente por medio de modelos termodinámicos clásicos, lo que permitió su utilización en el simulador de procesos químicos Aspen Plus para la optimización del proceso de extracción. Los valores óptimos para una columna de desterpenación operando en contracorriente se correspondieron con una relación disolvente/alimención en torno a 2,8 y un total de 8 etapas teóricas.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
PENA PUGA, CARLOS ALBERTO Cotutoría
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
PENA PUGA, CARLOS ALBERTO Cotutoría
Tribunal
CASARES LONG, JUAN JOSE (Presidente/a)
EIBES GONZALEZ, GEMMA MARIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
CASARES LONG, JUAN JOSE (Presidente/a)
EIBES GONZALEZ, GEMMA MARIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
Producción de enzimas hidrolíticas de PET en biorreactor
Autoría
J.L.G.
Máster Universitario en Ingeniería Química y Bioprocesos
J.L.G.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
11.09.2024 13:15
11.09.2024 13:15
Resumen
La acumulación de los plásticos en el medio ambiente es un problema crítico, debido a los largos tiempos de degradación que presentan comparado con su vida útil. Focalizándose en el fin último de reciclar polímeros de un solo uso, pero más concretamente compuestos de PET, este trabajo se centra en la producción de dos enzimas hidrolíticas del polímero en un biorreactor de 2 L, obtenidas tanto de forma libre como encapsulada en nanoesferas (NS), utilizando la bacteria Escherichia coli BL21 (DE3) como microorganismo que aloja los plásmidos de expresión. Con ello, se busca participar en el desarrollo de procesos sostenibles para la producción a mayor escala de estas proteínas, abriendo así nuevas oportunidades de negocio relacionadas con el reciclaje enzimático. El estudio incluye la caracterización de las curvas de crecimiento microbiano (a pequeña escala), la aplicación de diferentes configuraciones del biorreactor (monitorizando el oxígeno disuelto, pH, potencial RedOx, absorbancia) y la comparación de diferentes técnicas de lisis celular y purificación enzimática, con la evaluación posterior de cómo estas variables influyen en la obtención de las proteínas. De forma general, se ha detectado cómo el tipo de pocillo empleado en los ensayos a pequeña escala afecta al crecimiento microbiano y aparecen diferentes velocidades de reproducción bacteriana en función de las enzimas a producir. Asimismo, se ha detectado en los ensayos dentro del biorreactor como el aporte de O2 es un factor limitante, que determina el tiempo del ciclo productivo. Además, se proponen futuros ensayos a realizar para evolucionar este desarrollo, tomando como otra fuente de información las conclusiones obtenidas en este trabajo, con las que se ha buscado aportar los avances más relevantes con la información disponible.
La acumulación de los plásticos en el medio ambiente es un problema crítico, debido a los largos tiempos de degradación que presentan comparado con su vida útil. Focalizándose en el fin último de reciclar polímeros de un solo uso, pero más concretamente compuestos de PET, este trabajo se centra en la producción de dos enzimas hidrolíticas del polímero en un biorreactor de 2 L, obtenidas tanto de forma libre como encapsulada en nanoesferas (NS), utilizando la bacteria Escherichia coli BL21 (DE3) como microorganismo que aloja los plásmidos de expresión. Con ello, se busca participar en el desarrollo de procesos sostenibles para la producción a mayor escala de estas proteínas, abriendo así nuevas oportunidades de negocio relacionadas con el reciclaje enzimático. El estudio incluye la caracterización de las curvas de crecimiento microbiano (a pequeña escala), la aplicación de diferentes configuraciones del biorreactor (monitorizando el oxígeno disuelto, pH, potencial RedOx, absorbancia) y la comparación de diferentes técnicas de lisis celular y purificación enzimática, con la evaluación posterior de cómo estas variables influyen en la obtención de las proteínas. De forma general, se ha detectado cómo el tipo de pocillo empleado en los ensayos a pequeña escala afecta al crecimiento microbiano y aparecen diferentes velocidades de reproducción bacteriana en función de las enzimas a producir. Asimismo, se ha detectado en los ensayos dentro del biorreactor como el aporte de O2 es un factor limitante, que determina el tiempo del ciclo productivo. Además, se proponen futuros ensayos a realizar para evolucionar este desarrollo, tomando como otra fuente de información las conclusiones obtenidas en este trabajo, con las que se ha buscado aportar los avances más relevantes con la información disponible.
Dirección
EIBES GONZALEZ, GEMMA MARIA (Tutoría)
BALBOA MENDEZ, SABELA Cotutoría
GALINDO MORALES, SARA Cotutoría
EIBES GONZALEZ, GEMMA MARIA (Tutoría)
BALBOA MENDEZ, SABELA Cotutoría
GALINDO MORALES, SARA Cotutoría
Tribunal
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
FREIRE LEIRA, MARIA SONIA (Vocal)
GARRIDO FERNANDEZ, JUAN MANUEL (Presidente/a)
FRANCO RUIZ, DANIEL JOSE (Secretario/a)
FREIRE LEIRA, MARIA SONIA (Vocal)
Efecto del tiempo de retención hidráulico sobre el microbioma en procesos de fermentación oscura.
Autoría
C.C.G.
Máster Universitario en Ingeniería Ambiental (3ª ed)
C.C.G.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
09.09.2024 13:00
09.09.2024 13:00
Resumen
La fermentación oscura se define como el conjunto de procesos metabólicos que tienen lugar en una digestión anaeróbica, con independencia de las condiciones lumínicas, y que concluyen en la producción de hidrógeno biogénico. El objetivo de este Trabajo Fin de Máster es estudiar cómo las diferentes condiciones de operación ensayadas afectan al microbioma de los digestores hidrogenogénicos, con el fin de detectar potenciales relaciones entre las poblaciones de microorganismos y los componentes monitorizables. En una primera fase se prueba en régimen discontinuo la capacidad hidrogenogénica de diferentes sustratos (residuos urbanos e industriales), con el objetivo de seleccionar el más favorable y proceder al escalado. Posteriormente, en una segunda fase, se estudió cómo afectan las variaciones en el tiempo de retención hidráulica (TRH) al microbioma de los reactores continuos. Para ello se monitorearon varios parámetros como los rendimientos de producción de biohidrógeno, Ácidos Grasos Volátiles (AGV), nutrientes y carga orgánica de los reactores (entre otros parámetros de seguimiento). El análisis de las poblaciones bacterianas se realizó mediante metabarcoding de ADN Los resultados de operación de los reactores mostraron una producción de hidrógeno inestable. Los de diversidad microbiana, mostraron un alto grado de especialización de la comunidad microbiana en dos filos mayoritarios (Actinobacteriota y Firmicutes). Además, se detectó la presencia y abundancia relativa de LAB (Lactic Acid Bacteria) y esta presencia no se pudo relacionar con cese de producción de hidrógeno.
La fermentación oscura se define como el conjunto de procesos metabólicos que tienen lugar en una digestión anaeróbica, con independencia de las condiciones lumínicas, y que concluyen en la producción de hidrógeno biogénico. El objetivo de este Trabajo Fin de Máster es estudiar cómo las diferentes condiciones de operación ensayadas afectan al microbioma de los digestores hidrogenogénicos, con el fin de detectar potenciales relaciones entre las poblaciones de microorganismos y los componentes monitorizables. En una primera fase se prueba en régimen discontinuo la capacidad hidrogenogénica de diferentes sustratos (residuos urbanos e industriales), con el objetivo de seleccionar el más favorable y proceder al escalado. Posteriormente, en una segunda fase, se estudió cómo afectan las variaciones en el tiempo de retención hidráulica (TRH) al microbioma de los reactores continuos. Para ello se monitorearon varios parámetros como los rendimientos de producción de biohidrógeno, Ácidos Grasos Volátiles (AGV), nutrientes y carga orgánica de los reactores (entre otros parámetros de seguimiento). El análisis de las poblaciones bacterianas se realizó mediante metabarcoding de ADN Los resultados de operación de los reactores mostraron una producción de hidrógeno inestable. Los de diversidad microbiana, mostraron un alto grado de especialización de la comunidad microbiana en dos filos mayoritarios (Actinobacteriota y Firmicutes). Además, se detectó la presencia y abundancia relativa de LAB (Lactic Acid Bacteria) y esta presencia no se pudo relacionar con cese de producción de hidrógeno.
Dirección
BALBOA MENDEZ, SABELA (Tutoría)
González Míguez, Alicia Cotutoría
BALBOA MENDEZ, SABELA (Tutoría)
González Míguez, Alicia Cotutoría
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Secretario/a)
BARCIELA ALONSO, Ma CARMEN (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
MONTERROSO MARTINEZ, MARIA DEL CARMEN (Secretario/a)
BARCIELA ALONSO, Ma CARMEN (Vocal)
Integración de Procesamiento en Streaming en un Framework HPC-Big Data para su aplicación en el ámbito de la Bioinformática
Autoría
A.A.K.
Máster Universitario en Computación de Altas Prestaciones / High Performance Computing from the University of A Coruña and the University of Santiago de Compostela (a distancia)
A.A.K.
Máster Universitario en Computación de Altas Prestaciones / High Performance Computing from the University of A Coruña and the University of Santiago de Compostela (a distancia)
Fecha de la defensa
03.07.2024 11:00
03.07.2024 11:00
Resumen
El objetivo principal de IgnisHPC [1] es unificar en el mismo framework el desarrollo, la combinación y la ejecución de aplicaciones HPC y Big Data utilizando diferentes lenguajes y modelos de programación. En la actualidad, admite aplicaciones multi-lenguaje implementadas en C/C++, Python, Java y Go. Aunque IgnisHPC ha demostrado su superioridad en términos de rendimiento frente a otros frameworks estándar como Hadoop o Spark, a la hora de procesar grandes cantidades de datos necesita realizar una distribución estática previa de los datos y no soporta el procesamiento en streaming. [1] César Piñeiro and Juan C. Pichel. A Unified Framework to Improve the Interoperability between HPC and Big Data Languages and Programming Models. Future Generation Computer Systems, Vol. 134, pages 123-139, 2022
El objetivo principal de IgnisHPC [1] es unificar en el mismo framework el desarrollo, la combinación y la ejecución de aplicaciones HPC y Big Data utilizando diferentes lenguajes y modelos de programación. En la actualidad, admite aplicaciones multi-lenguaje implementadas en C/C++, Python, Java y Go. Aunque IgnisHPC ha demostrado su superioridad en términos de rendimiento frente a otros frameworks estándar como Hadoop o Spark, a la hora de procesar grandes cantidades de datos necesita realizar una distribución estática previa de los datos y no soporta el procesamiento en streaming. [1] César Piñeiro and Juan C. Pichel. A Unified Framework to Improve the Interoperability between HPC and Big Data Languages and Programming Models. Future Generation Computer Systems, Vol. 134, pages 123-139, 2022
Dirección
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
PICHEL CAMPOS, JUAN CARLOS (Tutoría)
PIÑEIRO POMAR, CESAR ALFREDO Cotutoría
Tribunal
GARCIA LOUREIRO, ANTONIO JESUS (Presidente/a)
QUESADA BARRIUSO, PABLO (Secretario/a)
Andión Fernández, José Manuel (Vocal)
GARCIA LOUREIRO, ANTONIO JESUS (Presidente/a)
QUESADA BARRIUSO, PABLO (Secretario/a)
Andión Fernández, José Manuel (Vocal)
Efecto de la salinidad y el pH en la recuperación de fósforo por medio de bacterias fotótrofas púrpura
Autoría
M.G.N.
Máster Universitario en Ingeniería Química y Bioprocesos
M.G.N.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
09.07.2024 12:45
09.07.2024 12:45
Resumen
El fósforo se encuentra entre los recursos presentes en el agua residual cuya recuperación ha despertado un mayor interés debido a que el continuo crecimiento de la población, la fuerte demanda de alimentos y la producción masiva de fertilizantes amenazan con convertirlo en una materia prima limitante en el planeta. En las estaciones depuradoras de aguas residuales (EDAR) se han implementado numerosos procesos a gran escala de eliminación/recuperación biológica de fósforo con PAO (organismos acumuladores de fosfato). Sin embargo, estos reactores biológicos requieren aeración, elevando significativamente el coste de operación de la planta y son sensibles a descensos en la concentración de materia orgánica del influente. Además, la biomasa utilizada libera polifosfato al medio si se expone a largos periodos de anaerobiosis. Las PPB (bacterias fotótrofas púrpura), en concreto, algunas de tipo PNSB (purple non-sulfur bacteria) han despertado interés por demostrar ser PAO con un metabolismo único fotoheterótrofo que acumula polifosfato en el interior de las células en condiciones anaerobias, cuando se agota la fuente de carbono orgánico del medio. Sin embargo, se requiere investigar el comportamiento de estas bacterias para adquirir conocimientos fundamentales de sus condiciones de operación, ya que no existen artículos que analicen el efecto de la salinidad y el pH en la eliminación de fósforo con un cultivo mixto de PNSB. La mayoría de los artículos utilizan cultivos puros y no caracterizan en profundidad el comportamiento en condiciones anaerobias. En este trabajo, se utiliza un reactor discontinuo anaerobio de 2 L con una fuente de luz y ácido acético como fuente de carbono orgánico, para que las bacterias utilicen su metabolismo fotoheterótrofo. La biomasa es un cultivo mixto enriquecido en PNSB, no adaptado a la salinidad ni a valores extremos de pH. En primer lugar, se ha estudiado el efecto de la salinidad en un rango de concentraciones de NaCl de 8-24 g/L, obteniendo menores eliminaciones de fósforo a medida que aumenta la salinidad del medio. A continuación, se ha estudiado el efecto del pH, en un rango de 4,5 a 9,0. A pH ácidos las bacterias no crecieron adecuadamente. Sin embargo, se han obtenido eliminaciones significativas en los ensayos en los que la biomasa experimenta un pH próximo a 9,0 en la fase estacionaria de su crecimiento. En general, en los ensayos de este trabajo se han obtenido eliminaciones del orden de 0,06-0,09 g P eliminado / g SSV presente. Estos valores se encuentran en el rango típico de las PAO convencionales. La máxima eliminación alcanzada ha sido de 0,14 g P / g SSV presente.
El fósforo se encuentra entre los recursos presentes en el agua residual cuya recuperación ha despertado un mayor interés debido a que el continuo crecimiento de la población, la fuerte demanda de alimentos y la producción masiva de fertilizantes amenazan con convertirlo en una materia prima limitante en el planeta. En las estaciones depuradoras de aguas residuales (EDAR) se han implementado numerosos procesos a gran escala de eliminación/recuperación biológica de fósforo con PAO (organismos acumuladores de fosfato). Sin embargo, estos reactores biológicos requieren aeración, elevando significativamente el coste de operación de la planta y son sensibles a descensos en la concentración de materia orgánica del influente. Además, la biomasa utilizada libera polifosfato al medio si se expone a largos periodos de anaerobiosis. Las PPB (bacterias fotótrofas púrpura), en concreto, algunas de tipo PNSB (purple non-sulfur bacteria) han despertado interés por demostrar ser PAO con un metabolismo único fotoheterótrofo que acumula polifosfato en el interior de las células en condiciones anaerobias, cuando se agota la fuente de carbono orgánico del medio. Sin embargo, se requiere investigar el comportamiento de estas bacterias para adquirir conocimientos fundamentales de sus condiciones de operación, ya que no existen artículos que analicen el efecto de la salinidad y el pH en la eliminación de fósforo con un cultivo mixto de PNSB. La mayoría de los artículos utilizan cultivos puros y no caracterizan en profundidad el comportamiento en condiciones anaerobias. En este trabajo, se utiliza un reactor discontinuo anaerobio de 2 L con una fuente de luz y ácido acético como fuente de carbono orgánico, para que las bacterias utilicen su metabolismo fotoheterótrofo. La biomasa es un cultivo mixto enriquecido en PNSB, no adaptado a la salinidad ni a valores extremos de pH. En primer lugar, se ha estudiado el efecto de la salinidad en un rango de concentraciones de NaCl de 8-24 g/L, obteniendo menores eliminaciones de fósforo a medida que aumenta la salinidad del medio. A continuación, se ha estudiado el efecto del pH, en un rango de 4,5 a 9,0. A pH ácidos las bacterias no crecieron adecuadamente. Sin embargo, se han obtenido eliminaciones significativas en los ensayos en los que la biomasa experimenta un pH próximo a 9,0 en la fase estacionaria de su crecimiento. En general, en los ensayos de este trabajo se han obtenido eliminaciones del orden de 0,06-0,09 g P eliminado / g SSV presente. Estos valores se encuentran en el rango típico de las PAO convencionales. La máxima eliminación alcanzada ha sido de 0,14 g P / g SSV presente.
Dirección
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
MOSQUERA CORRAL, ANUSKA (Tutoría)
VAL DEL RIO, MARIA ANGELES Cotutoría
Pedrouso Fuentes, Alba Cotutoría
Tribunal
CASARES LONG, JUAN JOSE (Presidente/a)
EIBES GONZALEZ, GEMMA MARIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
CASARES LONG, JUAN JOSE (Presidente/a)
EIBES GONZALEZ, GEMMA MARIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
Caracterización de contaminantes de preocupación emergente durante el tratamiento de aguas residuales de sistemas de tratamiento individual
Autoría
A.S.S.
Máster Universitario en Ingeniería Química y Bioprocesos
A.S.S.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
09.07.2024 13:15
09.07.2024 13:15
Resumen
En los últimos años ha surgido un creciente interés por estudiar un nuevo grupo de contaminantes presentes en las aguas residuales, conocidos como contaminantes de preocupación emergente CEC por sus siglas en inglés. Dentro de los CECs están los microcontaminantes orgánicos (OMPs) los cuales se detectan en concentraciones del orden de microg/l a ng/l. Los análisis ambientales indican que estos contaminantes están presentes en la mayoría de las aguas superficiales. Entre los muchos microcontaminantes, los antibióticos destacan por su relevancia, ya que pueden contribuir a la aparición de microorganismos resistentes a antibióticos (ARM). En la actualidad el número de fallecidos por resistencias a antibióticos es de 700.000 personas en todo el mundo cifra que puede ascender a 10 millones en 2050. Una forma eficaz de combatir este problema es mediante el tratamiento de las aguas en las EDAR, sin embargo la población de las zonas rurales generalmente no está conectada a las EDAR. En estas zonas el agua se trata con sistemas e tratamiento individual como las fosas sépticas o tanques de almacenamiento, lo que generalmente implica una depuración baja. La información sobre este tipo de aguas a nivel de contaminantes clásicos y CECs es escasa o nula. En este trabajo se realiza una caracterización de los CECs presentes en las aguas de sistemas de tratamiento individual así como un estudio de eliminación de los mismos en un reactor de lodos activos.
En los últimos años ha surgido un creciente interés por estudiar un nuevo grupo de contaminantes presentes en las aguas residuales, conocidos como contaminantes de preocupación emergente CEC por sus siglas en inglés. Dentro de los CECs están los microcontaminantes orgánicos (OMPs) los cuales se detectan en concentraciones del orden de microg/l a ng/l. Los análisis ambientales indican que estos contaminantes están presentes en la mayoría de las aguas superficiales. Entre los muchos microcontaminantes, los antibióticos destacan por su relevancia, ya que pueden contribuir a la aparición de microorganismos resistentes a antibióticos (ARM). En la actualidad el número de fallecidos por resistencias a antibióticos es de 700.000 personas en todo el mundo cifra que puede ascender a 10 millones en 2050. Una forma eficaz de combatir este problema es mediante el tratamiento de las aguas en las EDAR, sin embargo la población de las zonas rurales generalmente no está conectada a las EDAR. En estas zonas el agua se trata con sistemas e tratamiento individual como las fosas sépticas o tanques de almacenamiento, lo que generalmente implica una depuración baja. La información sobre este tipo de aguas a nivel de contaminantes clásicos y CECs es escasa o nula. En este trabajo se realiza una caracterización de los CECs presentes en las aguas de sistemas de tratamiento individual así como un estudio de eliminación de los mismos en un reactor de lodos activos.
Dirección
GARRIDO FERNANDEZ, JUAN MANUEL (Tutoría)
GARRIDO FERNANDEZ, JUAN MANUEL (Tutoría)
Tribunal
CASARES LONG, JUAN JOSE (Presidente/a)
EIBES GONZALEZ, GEMMA MARIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
CASARES LONG, JUAN JOSE (Presidente/a)
EIBES GONZALEZ, GEMMA MARIA (Secretario/a)
FRANCO URIA, MARIA AMAYA (Vocal)
Estructuración de aciete de oliva empleando etilcelulosa de diferentes pesos moleculares
Autoría
C.A.A.G.
Máster Universitario en Ingeniería Química y Bioprocesos
C.A.A.G.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
09.07.2024 11:30
09.07.2024 11:30
Resumen
En la busqueda de sustituir las grasas saturadas y los acidos grasos trans presentes en la industria alimentaria, se han desarrollado distintas tecnicas de estructuracion de aceites ricos en acidos grasos insaturados. Algunas de estas tecnicas se basan en la gelificacion de aceites mediante la adicion de un polimero como agente estructurante a traves del metodo directo, necesitandose elevar la temperatura hasta el punto de gelificacion. En este estudio, se evaluaron los efectos de la mezcla de etilcelulosa (EC) de diferente viscosidad (22, 46 y 100 mPa·s) sobre las propiedades de color, textura (dureza, elasticidad, cohesividad, adhesividad, masticabilidad y gomosidad), capacidad de retencion de aceite (CRA), parametros de oxidacion del aceite y de reologia de oleogeles de aceite de oliva. Para ello, primero se formularon oleogeles con una unica EC de cada viscosidad (peso molecular) y a distintas concentraciones (8, 10, 12 y 15 % p/p) y se evaluaron y correlacionaron las propiedades fisicoquimicas y reologicas de estos ologeles con la concentracion y viscosidad de la EC empleada. Posteriormente, se elaboraron oleogeles a partir de mezclas de EC de diferentes viscosidades. Las mezclas, T, A y B, se generaron con proporciones (p/p) de 50:50, 25:75 y 75:25 de las EC de 22 y 100 mPa·s, respectivamente, con una concentracion total de polimero de 10% p/p. Los resultados permitieron establecer que oleogeles formulados a partir de mezclas de EC de diferente peso molecular necesitan de una menor cantidad de polimero para reproducir propiedades texturales y reologicas de oleogeles formulados unicamente con EC de 46 mPa·s. En cuanto a la oxidacion, se demostro que al aumentar la proporción de EC de 22 mPa·s en las mezclas estudiadas, disminuyen las oxidaciones primaria, secundaria y total, lo que indica un potencial protector de esta EC sobre la oxidacion de los oleogeles.
En la busqueda de sustituir las grasas saturadas y los acidos grasos trans presentes en la industria alimentaria, se han desarrollado distintas tecnicas de estructuracion de aceites ricos en acidos grasos insaturados. Algunas de estas tecnicas se basan en la gelificacion de aceites mediante la adicion de un polimero como agente estructurante a traves del metodo directo, necesitandose elevar la temperatura hasta el punto de gelificacion. En este estudio, se evaluaron los efectos de la mezcla de etilcelulosa (EC) de diferente viscosidad (22, 46 y 100 mPa·s) sobre las propiedades de color, textura (dureza, elasticidad, cohesividad, adhesividad, masticabilidad y gomosidad), capacidad de retencion de aceite (CRA), parametros de oxidacion del aceite y de reologia de oleogeles de aceite de oliva. Para ello, primero se formularon oleogeles con una unica EC de cada viscosidad (peso molecular) y a distintas concentraciones (8, 10, 12 y 15 % p/p) y se evaluaron y correlacionaron las propiedades fisicoquimicas y reologicas de estos ologeles con la concentracion y viscosidad de la EC empleada. Posteriormente, se elaboraron oleogeles a partir de mezclas de EC de diferentes viscosidades. Las mezclas, T, A y B, se generaron con proporciones (p/p) de 50:50, 25:75 y 75:25 de las EC de 22 y 100 mPa·s, respectivamente, con una concentracion total de polimero de 10% p/p. Los resultados permitieron establecer que oleogeles formulados a partir de mezclas de EC de diferente peso molecular necesitan de una menor cantidad de polimero para reproducir propiedades texturales y reologicas de oleogeles formulados unicamente con EC de 46 mPa·s. En cuanto a la oxidacion, se demostro que al aumentar la proporción de EC de 22 mPa·s en las mezclas estudiadas, disminuyen las oxidaciones primaria, secundaria y total, lo que indica un potencial protector de esta EC sobre la oxidacion de los oleogeles.
Dirección
MOREIRA MARTINEZ, RAMON FELIPE (Tutoría)
FRANCO RUIZ, DANIEL JOSE Cotutoría
MOREIRA MARTINEZ, RAMON FELIPE (Tutoría)
FRANCO RUIZ, DANIEL JOSE Cotutoría
Tribunal
FEIJOO COSTA, GUMERSINDO (Presidente/a)
DIAZ JULLIEN, CRISTINA (Secretario/a)
FERNANDEZ CARRASCO, EUGENIO (Vocal)
FEIJOO COSTA, GUMERSINDO (Presidente/a)
DIAZ JULLIEN, CRISTINA (Secretario/a)
FERNANDEZ CARRASCO, EUGENIO (Vocal)