Modelos de optimización aplicados a la localización de cargadores de vehículos eléctricos
Autoría
A.C.P.
Máster Universitario en Técnicas Estadísticas (2ªed)
A.C.P.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.09.2025 10:15
05.09.2025 10:15
Resumen
En este trabajo realizamos una revisión de los modelos de optimización aplicados a la localización de estaciones de carga para vehículos eléctricos, un aspecto clave en la expansión de esta infraestructura para fomentar el uso del vehículo eléctrico como medida de reducción de emisiones y transición hacia una movilidad más sostenible. Analizamos los principales enfoques existentes, clasificados en dos grandes categorías según la forma de modelar la demanda: modelos basados en nodos, habitualmente empleados en entornos urbanos, y modelos basados en flujos de viajes origen-destino, más orientados a áreas geográficas amplias. Se presentan las formulaciones básicas y las principales formas de incorporar otros aspectos relevantes al problema, como las restricciones de capacidad o las particularidades del sistema de transporte. Además, se revisan los métodos de resolución más habituales, generalmente asociados a la programación lineal entera mixta. Finalmente, se complementa la revisión con un caso práctico aplicado a Galicia, que ilustra la aplicación de estos modelos en un contexto cercano a la realidad y permite comparar su funcionamiento y resultados.
En este trabajo realizamos una revisión de los modelos de optimización aplicados a la localización de estaciones de carga para vehículos eléctricos, un aspecto clave en la expansión de esta infraestructura para fomentar el uso del vehículo eléctrico como medida de reducción de emisiones y transición hacia una movilidad más sostenible. Analizamos los principales enfoques existentes, clasificados en dos grandes categorías según la forma de modelar la demanda: modelos basados en nodos, habitualmente empleados en entornos urbanos, y modelos basados en flujos de viajes origen-destino, más orientados a áreas geográficas amplias. Se presentan las formulaciones básicas y las principales formas de incorporar otros aspectos relevantes al problema, como las restricciones de capacidad o las particularidades del sistema de transporte. Además, se revisan los métodos de resolución más habituales, generalmente asociados a la programación lineal entera mixta. Finalmente, se complementa la revisión con un caso práctico aplicado a Galicia, que ilustra la aplicación de estos modelos en un contexto cercano a la realidad y permite comparar su funcionamiento y resultados.
Dirección
Carpente Rodríguez, Maria luisa (Tutoría)
Carpente Rodríguez, Maria luisa (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Análisis modal de cavidades mediante simulación numérica con ANSA y META: aplicación al habitáculo de un vehículo
Autoría
A.C.F.
Máster Universitario en Matemática Industrial
A.C.F.
Máster Universitario en Matemática Industrial
Fecha de la defensa
23.09.2025 10:30
23.09.2025 10:30
Resumen
Este trabajo de fin de máster aborda el análisis modal de cavidades mediante simulación numérica, utilizando los programas ANSA y META, con aplicación específica al habitáculo de un vehículo. El objetivo principal ha sido comprender el flujo completo de trabajo, desde la generación de geometrías y mallado hasta el postprocesado de resultados, identificando las principales dificultades y limitaciones de este tipo de simulaciones. Se han realizado casos de estudio con geometrías simples para validar la metodología frente a resultados teóricos, y posteriormente se ha aplicado el procedimiento a un modelo real de automóvil. Aunque los resultados obtenidos en el caso real no han sido plenamente satisfactorios, debido a limitaciones del solver y simplificaciones en la geometría, la experiencia ha permitido adquirir competencias avanzadas en el uso de ANSA y META y comprender mejor los condicionantes técnicos en la simulación acústica industrial.
Este trabajo de fin de máster aborda el análisis modal de cavidades mediante simulación numérica, utilizando los programas ANSA y META, con aplicación específica al habitáculo de un vehículo. El objetivo principal ha sido comprender el flujo completo de trabajo, desde la generación de geometrías y mallado hasta el postprocesado de resultados, identificando las principales dificultades y limitaciones de este tipo de simulaciones. Se han realizado casos de estudio con geometrías simples para validar la metodología frente a resultados teóricos, y posteriormente se ha aplicado el procedimiento a un modelo real de automóvil. Aunque los resultados obtenidos en el caso real no han sido plenamente satisfactorios, debido a limitaciones del solver y simplificaciones en la geometría, la experiencia ha permitido adquirir competencias avanzadas en el uso de ANSA y META y comprender mejor los condicionantes técnicos en la simulación acústica industrial.
Dirección
Hervella Nieto, Luís María (Tutoría)
Hervella Nieto, Luís María (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VIAÑO REY, JUAN MANUEL (Presidente/a)
Sánchez Sanz, Mario (Secretario/a)
Durany Castrillo, José (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VIAÑO REY, JUAN MANUEL (Presidente/a)
Sánchez Sanz, Mario (Secretario/a)
Durany Castrillo, José (Vocal)
Modelado de un proceso fermentativo en planta piloto.
Autoría
L.C.S.
Máster Universitario en Matemática Industrial
L.C.S.
Máster Universitario en Matemática Industrial
Fecha de la defensa
16.09.2025 10:30
16.09.2025 10:30
Resumen
Este Trabajo Fin de Máster se centra en la modelización del proceso fermentativo de producción de vino y su objetivo principal es desarrollar un modelo aplicable en planta piloto para facilitar la optimización del proceso. El estudio se ha desarrollado en tres etapas diferenciadas: la formulación del modelo, la realización de simulaciones y el análisis comparativo entre los datos generados en la simulación y los datos experimentales disponibles. El modelo finalmente implementado sigue una estructura de tipo reacción-difusión, compuesto por ecuaciones en derivadas parciales que describen la evolución de las concentraciones de los componentes con el tiempo, incluyendo las diferentes tasas de producción o consumo y términos de difusión asociados. La simulación se ha llevado a cabo utilizando el software COMSOL Multiphysics 5.6 y para su validación se han empleado los datos experimentales obtenidos a escala piloto por el Grupo Bio2Eng-IIM del CSIC.
Este Trabajo Fin de Máster se centra en la modelización del proceso fermentativo de producción de vino y su objetivo principal es desarrollar un modelo aplicable en planta piloto para facilitar la optimización del proceso. El estudio se ha desarrollado en tres etapas diferenciadas: la formulación del modelo, la realización de simulaciones y el análisis comparativo entre los datos generados en la simulación y los datos experimentales disponibles. El modelo finalmente implementado sigue una estructura de tipo reacción-difusión, compuesto por ecuaciones en derivadas parciales que describen la evolución de las concentraciones de los componentes con el tiempo, incluyendo las diferentes tasas de producción o consumo y términos de difusión asociados. La simulación se ha llevado a cabo utilizando el software COMSOL Multiphysics 5.6 y para su validación se han empleado los datos experimentales obtenidos a escala piloto por el Grupo Bio2Eng-IIM del CSIC.
Dirección
Rodríguez Seijo, José Manuel (Tutoría)
Rodríguez Seijo, José Manuel (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VIAÑO REY, JUAN MANUEL (Presidente/a)
Porter , Jeff (Secretario/a)
Flores Arias, Oscar (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VIAÑO REY, JUAN MANUEL (Presidente/a)
Porter , Jeff (Secretario/a)
Flores Arias, Oscar (Vocal)
Evaluación del impacto en los costes de los diversos artículos en modelos cooperativos de inventario con múltiples agentes
Autoría
E.D.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
E.D.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.02.2025 10:30
05.02.2025 10:30
Resumen
El presente trabajo aborda el análisis de modelos de inventario deterministas en el contexto de la teoría de juegos cooperativos, explorando su aplicación a problemas de distribución de costes. Se presentan los conceptos fundamentales necesarios para el estudio, incluyendo una introducción a la teoría de juegos cooperativos, los juegos de utilidad transferible (TU) y sus principales soluciones, como el núcleo, el valor de Shapley y el valor de Owen. En el marco de los modelos de inventario, se analizan diferentes configuraciones del modelo EOQ (Economic Order Quantity), comenzando por el modelo básico determinista y extendiéndose a casos con múltiples artículos y agentes. Dos variantes clave serán examinadas: modelos con costes eximibles, que contemplan eximir a ciertas coaliciones de los costes fijos de pedido y modelos sin costes eximibles, que no lo contemplan. A lo largo del trabajo, se estudiará un ejemplo ilustrativo que destaca las implicaciones de los modelos y sus soluciones en la práctica. Además, se analizará cómo las diferentes reglas de distribución de costes afectan al reparto entre agentes o artículos, considerando tanto la ecuanimidad como la estabilidad del sistema.
El presente trabajo aborda el análisis de modelos de inventario deterministas en el contexto de la teoría de juegos cooperativos, explorando su aplicación a problemas de distribución de costes. Se presentan los conceptos fundamentales necesarios para el estudio, incluyendo una introducción a la teoría de juegos cooperativos, los juegos de utilidad transferible (TU) y sus principales soluciones, como el núcleo, el valor de Shapley y el valor de Owen. En el marco de los modelos de inventario, se analizan diferentes configuraciones del modelo EOQ (Economic Order Quantity), comenzando por el modelo básico determinista y extendiéndose a casos con múltiples artículos y agentes. Dos variantes clave serán examinadas: modelos con costes eximibles, que contemplan eximir a ciertas coaliciones de los costes fijos de pedido y modelos sin costes eximibles, que no lo contemplan. A lo largo del trabajo, se estudiará un ejemplo ilustrativo que destaca las implicaciones de los modelos y sus soluciones en la práctica. Además, se analizará cómo las diferentes reglas de distribución de costes afectan al reparto entre agentes o artículos, considerando tanto la ecuanimidad como la estabilidad del sistema.
Dirección
GARCIA JURADO, IGNACIO (Tutoría)
GARCIA JURADO, IGNACIO (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Certificando optimalidad global en problemas grandes de estimación de parámetros en sistemas dinámicos: Resolución global del problema 3SP
Autoría
M.F.F.D.D.
Máster Universitario en Técnicas Estadísticas (2ªed)
M.F.F.D.D.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
18.06.2025 12:15
18.06.2025 12:15
Resumen
Neste traballo presentamos unha resolución cunha garantía de optimalidade global dun problema reto e de gran tamaño de estimación de parámetros en sistemas dinámicos. A proposta baseáse na metodoloxía desenvolvida no noso traballo previo, recollido no artigo Parameter estimation in ODEs: assessing the potential of local and global solvers (De Dios et al., 2025, aceptado en Optimization and Engineering), e aplícase á resolución do problema 3SP, formulado por Moles et al. (2003). Segundo a revisión realizada, non consta que este problema fora abordado previamente cunha formulación completa e unha resolución que certifique optimalidade global. A metodoloxía está baseada na formulación do problema como un modelo de programación non lineal (NLP), resolto mediante técnicas de optimización matemática implementadas en AMPL e executadas con solvers globais deterministas. Esta aproximación permite obter solucións con garantía de optimalidade global nun contexto onde tradicionalmente se empregaron métodos heurísticos. Os resultados amosan que é posible abordar problemas de gran tamaño mediante técnicas de optimización global baseadas en AMPL e solvers deterministas actuais, o que cuestiona as limitacións asumidas previamente na literatura e abre a porta á resolución de problemas aínda máis complexos.
Neste traballo presentamos unha resolución cunha garantía de optimalidade global dun problema reto e de gran tamaño de estimación de parámetros en sistemas dinámicos. A proposta baseáse na metodoloxía desenvolvida no noso traballo previo, recollido no artigo Parameter estimation in ODEs: assessing the potential of local and global solvers (De Dios et al., 2025, aceptado en Optimization and Engineering), e aplícase á resolución do problema 3SP, formulado por Moles et al. (2003). Segundo a revisión realizada, non consta que este problema fora abordado previamente cunha formulación completa e unha resolución que certifique optimalidade global. A metodoloxía está baseada na formulación do problema como un modelo de programación non lineal (NLP), resolto mediante técnicas de optimización matemática implementadas en AMPL e executadas con solvers globais deterministas. Esta aproximación permite obter solucións con garantía de optimalidade global nun contexto onde tradicionalmente se empregaron métodos heurísticos. Os resultados amosan que é posible abordar problemas de gran tamaño mediante técnicas de optimización global baseadas en AMPL e solvers deterministas actuais, o que cuestiona as limitacións asumidas previamente na literatura e abre a porta á resolución de problemas aínda máis complexos.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
GONZALEZ DIAZ, JULIO (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
El teorema de Krasnoselskii en espacios producto para sistemas de operadores y aplicaciones
Autoría
L.M.F.P.
Máster Universitario en Matemáticas
L.M.F.P.
Máster Universitario en Matemáticas
Fecha de la defensa
18.07.2025 09:00
18.07.2025 09:00
Resumen
La teoría del punto fijo se ha consolidado como una rama de las matemáticas con gran potencial para abordar una amplia variedad de problemas en análisis no lineal, especialmente en la demostración de la existencia, unicidad o multiplicidad de soluciones de ecuaciones diferenciales e integrales. En concreto, el teorema del punto fijo de Krasnoselskii en conos de expansión-compresión ha sido empleado en numerosos trabajos de investigación para obtener soluciones no triviales a este tipo de problemas. Con el objetivo de alcanzar resultados de existencia para sistemas de ecuaciones diferenciales e integrales con todas sus componentes no triviales, se han desarrollado distintas versiones de este resultado, adaptadas a operadores definidos en espacios producto. En este trabajo introducimos el índice de punto fijo, una potente herramienta con la que probaremos los resultados principales. Asimismo, proponemos una nueva versión vectorial del teorema de Krasnoselskii, en la que las condiciones sobre el operador se expresan en términos de las normas de los espacios que componen el producto en el que trabajamos. Este resultado original motivó pequeñas mejoras sobre versiones previas, que también serán detalladas en este texto. Finalmente, aplicaremos, de entre estos resultados, los más novedosos, estableciendo condiciones que garanticen la existencia de soluciones con componentes positivas en distintos sistemas de ecuaciones diferenciales e integrales.
La teoría del punto fijo se ha consolidado como una rama de las matemáticas con gran potencial para abordar una amplia variedad de problemas en análisis no lineal, especialmente en la demostración de la existencia, unicidad o multiplicidad de soluciones de ecuaciones diferenciales e integrales. En concreto, el teorema del punto fijo de Krasnoselskii en conos de expansión-compresión ha sido empleado en numerosos trabajos de investigación para obtener soluciones no triviales a este tipo de problemas. Con el objetivo de alcanzar resultados de existencia para sistemas de ecuaciones diferenciales e integrales con todas sus componentes no triviales, se han desarrollado distintas versiones de este resultado, adaptadas a operadores definidos en espacios producto. En este trabajo introducimos el índice de punto fijo, una potente herramienta con la que probaremos los resultados principales. Asimismo, proponemos una nueva versión vectorial del teorema de Krasnoselskii, en la que las condiciones sobre el operador se expresan en términos de las normas de los espacios que componen el producto en el que trabajamos. Este resultado original motivó pequeñas mejoras sobre versiones previas, que también serán detalladas en este texto. Finalmente, aplicaremos, de entre estos resultados, los más novedosos, estableciendo condiciones que garanticen la existencia de soluciones con componentes positivas en distintos sistemas de ecuaciones diferenciales e integrales.
Dirección
Rodríguez López, Jorge (Tutoría)
Rodríguez López, Jorge (Tutoría)
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
FERNANDEZ TOJO, FERNANDO ADRIAN (Secretario/a)
GARCIA RIO, EDUARDO (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
FERNANDEZ TOJO, FERNANDO ADRIAN (Secretario/a)
GARCIA RIO, EDUARDO (Vocal)
Valoración con modelos de volatilidad rugosa en mercados de commodities
Autoría
H.F.C.
Máster Universitario en Matemática Industrial
H.F.C.
Máster Universitario en Matemática Industrial
Fecha de la defensa
09.07.2025 12:00
09.07.2025 12:00
Resumen
El objetivo de este Proyecto fin de Máster es investigar las aplicaciones del modelo de Bergomi rugoso (rBergomi) a la valoración de opciones sobre futuros en commodities (materias primas). El modelo rBergomi es un modelo de volatilidad estocástica impulsado por un movimiento Browniano fraccionario. Este proceso ha sido estudiado ampliamente en el contexto de mercados de valores, sin embargo, la literatura sobre su aplicación al mercado de commodities es escasa. En primer lugar, revisamos los fundamentos matemáticos de la valoración de activos financieros y del modelo rBergomi, analizando sus ventajas y desventajas en comparación con modelos de volatilidad estocástica clásicos. A continuación, proponemos un modelo novedoso para valorar opciones sobre futuros en commodities que implementa la dinámica del modelo rBergomi. Finalmente, presentamos un esquema numérico eficiente para la simulación del modelo y lo calibramos con datos reales del mercado de petróleo crudo WTI.
El objetivo de este Proyecto fin de Máster es investigar las aplicaciones del modelo de Bergomi rugoso (rBergomi) a la valoración de opciones sobre futuros en commodities (materias primas). El modelo rBergomi es un modelo de volatilidad estocástica impulsado por un movimiento Browniano fraccionario. Este proceso ha sido estudiado ampliamente en el contexto de mercados de valores, sin embargo, la literatura sobre su aplicación al mercado de commodities es escasa. En primer lugar, revisamos los fundamentos matemáticos de la valoración de activos financieros y del modelo rBergomi, analizando sus ventajas y desventajas en comparación con modelos de volatilidad estocástica clásicos. A continuación, proponemos un modelo novedoso para valorar opciones sobre futuros en commodities que implementa la dinámica del modelo rBergomi. Finalmente, presentamos un esquema numérico eficiente para la simulación del modelo y lo calibramos con datos reales del mercado de petróleo crudo WTI.
Dirección
Vázquez Cendón, Carlos (Tutoría)
Vázquez Cendón, Carlos (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
Valoración de la opción exótica Callable Reverse Floater bajo diferentes modelos estocásticos
Autoría
S.G.C.
Máster Universitario en Matemática Industrial
S.G.C.
Máster Universitario en Matemática Industrial
Fecha de la defensa
16.07.2025 11:00
16.07.2025 11:00
Resumen
Este documento explora la valoración del producto derivado exótico Callable Reverse Floater, una combinación de un Reverse Floater y una opción de cancelación. Para ello, se establece una base teórica en cálculo estocástico y teoría financiera. Se introduce el modelo SABR para la volatilidad y se analizan diversos modelos estocásticos (Hull-White, Black-Karasinski, Lineal Gaussiano y CIR) para la valoración, con énfasis en su implementación y calibración a las condiciones del mercado. Finalmente, se presentan y comparan los resultados obtenidos en la valoración mediante los diferentes modelos, analizando su comportamiento y particularidades.
Este documento explora la valoración del producto derivado exótico Callable Reverse Floater, una combinación de un Reverse Floater y una opción de cancelación. Para ello, se establece una base teórica en cálculo estocástico y teoría financiera. Se introduce el modelo SABR para la volatilidad y se analizan diversos modelos estocásticos (Hull-White, Black-Karasinski, Lineal Gaussiano y CIR) para la valoración, con énfasis en su implementación y calibración a las condiciones del mercado. Finalmente, se presentan y comparan los resultados obtenidos en la valoración mediante los diferentes modelos, analizando su comportamiento y particularidades.
Dirección
Vázquez Cendón, Carlos (Tutoría)
Vázquez Cendón, Carlos (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Sanchez Villaseñor, Eduardo Jesús (Presidente/a)
RODRIGUEZ GARCIA, JERONIMO (Secretario/a)
Ferreiro Ferreiro, Ana María (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Sanchez Villaseñor, Eduardo Jesús (Presidente/a)
RODRIGUEZ GARCIA, JERONIMO (Secretario/a)
Ferreiro Ferreiro, Ana María (Vocal)
El problema isoperimétrico.
Autoría
D.G.D.R.
Máster Universitario en Matemáticas
D.G.D.R.
Máster Universitario en Matemáticas
Fecha de la defensa
18.07.2025 09:40
18.07.2025 09:40
Resumen
El presente trabajo aborda el estudio del problema isoperimétrico desde sus raíces más clásicas hasta su formulación en contextos geométricos más avanzados. Dicho problema aspira a comprender qué regiones de un espacio ambiente dado minimizan el área de su frontera bajo una restricción de volumen fijo. En su formulación clásica en el plano euclídeo R2, se demuestra rigurosamente que entre todas las curvas de Jordan la que encierra mayor área es la circunferencia, hecho que se formaliza mediante la desigualdad isoperimétrica en el plano. Además, se generaliza el problema isoperimétrico a dimensión superior, mostrando que en Rn la esfera es la única hipersuperficie compacta y conexa que minimiza el área para un volumen fijado. Esto se llevará a cabo probando el teorema de Alexandrov y las propiedades variacionales de las hipersuperficies de curvatura media constante. Este trabajo extiende el análisis del problema isoperimétrico al marco de las variedades riemannianas, donde la resolución del problema isoperimétrico resulta ser de gran dificultad. En este contexto, se introduce la constante isoperimétrica de Cheeger, definida como el ínfimo de los cocientes entre área de frontera y volumen de dominios regulares. Esta constante posee además propiedades analíticas profundas, ya que proporciona una cota inferior para el primer autovalor del operador de Laplace Beltrami con condiciones de Dirichlet. Además, el presente trabajo estudia en detalle el cálculo explícito de la constante isoperimétrica de Cheeger en cierta familia de espacios geométricos de gran importancia, como es el caso de los grupos de Lie resolubles y simplemente conexos con métrica invariante a la izquierda, donde dicha constante puede expresarse en términos de la traza de la representación adjunta del álgebra de Lie. Finalmente, se analiza un caso particularmente interesante: los espacios simétricos de tipo no compacto. Cada uno de estos espacios resulta ser isométrico a un grupo de Lie resoluble y simplemente conexo con métrica invariante a la izquierda, permitiendo calcular en ellos la constante de Cheeger mediante herramientas estructurales como la descomposición en espacios de raíces y la descomposición de Iwasawa. Además, se explicitará el cálculo de la constante de Cheeger en el caso concreto de los espacios hiperbólicos real y complejo.
El presente trabajo aborda el estudio del problema isoperimétrico desde sus raíces más clásicas hasta su formulación en contextos geométricos más avanzados. Dicho problema aspira a comprender qué regiones de un espacio ambiente dado minimizan el área de su frontera bajo una restricción de volumen fijo. En su formulación clásica en el plano euclídeo R2, se demuestra rigurosamente que entre todas las curvas de Jordan la que encierra mayor área es la circunferencia, hecho que se formaliza mediante la desigualdad isoperimétrica en el plano. Además, se generaliza el problema isoperimétrico a dimensión superior, mostrando que en Rn la esfera es la única hipersuperficie compacta y conexa que minimiza el área para un volumen fijado. Esto se llevará a cabo probando el teorema de Alexandrov y las propiedades variacionales de las hipersuperficies de curvatura media constante. Este trabajo extiende el análisis del problema isoperimétrico al marco de las variedades riemannianas, donde la resolución del problema isoperimétrico resulta ser de gran dificultad. En este contexto, se introduce la constante isoperimétrica de Cheeger, definida como el ínfimo de los cocientes entre área de frontera y volumen de dominios regulares. Esta constante posee además propiedades analíticas profundas, ya que proporciona una cota inferior para el primer autovalor del operador de Laplace Beltrami con condiciones de Dirichlet. Además, el presente trabajo estudia en detalle el cálculo explícito de la constante isoperimétrica de Cheeger en cierta familia de espacios geométricos de gran importancia, como es el caso de los grupos de Lie resolubles y simplemente conexos con métrica invariante a la izquierda, donde dicha constante puede expresarse en términos de la traza de la representación adjunta del álgebra de Lie. Finalmente, se analiza un caso particularmente interesante: los espacios simétricos de tipo no compacto. Cada uno de estos espacios resulta ser isométrico a un grupo de Lie resoluble y simplemente conexo con métrica invariante a la izquierda, permitiendo calcular en ellos la constante de Cheeger mediante herramientas estructurales como la descomposición en espacios de raíces y la descomposición de Iwasawa. Además, se explicitará el cálculo de la constante de Cheeger en el caso concreto de los espacios hiperbólicos real y complejo.
Dirección
DOMINGUEZ VAZQUEZ, MIGUEL (Tutoría)
RODRIGUEZ VAZQUEZ, ALBERTO Cotutoría
DOMINGUEZ VAZQUEZ, MIGUEL (Tutoría)
RODRIGUEZ VAZQUEZ, ALBERTO Cotutoría
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
FERNANDEZ TOJO, FERNANDO ADRIAN (Secretario/a)
GARCIA RIO, EDUARDO (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
FERNANDEZ TOJO, FERNANDO ADRIAN (Secretario/a)
GARCIA RIO, EDUARDO (Vocal)
Simulación de las condiciones de evaporación, transferencia y condensación en un reactor.
Autoría
J.G.P.
Máster Universitario en Matemática Industrial
J.G.P.
Máster Universitario en Matemática Industrial
Fecha de la defensa
09.07.2025 10:00
09.07.2025 10:00
Resumen
Este proyecto fin de máster se centra en la simulación de un proceso in- dustrial innovador impulsado por la empresa Ferroglobe. El proceso se lleva a cabo en un reactor operando al vacío, en el que se aplica un campo eléctrico para generar calor. Este calentamiento permite alcanzar las condiciones necesarias para que los reactivos presentes en su interior generen un producto metalúrgico de alto valor. El producto se forma en fase gaseosa, se transporta a lo largo del reactor y se condensa en su parte superior, donde se encuentra ubicado un condensador. El objetivo principal del proyecto es comprender y optimizar este proceso mediante técnicas de modelización matemática y simulación numérica. Todas las simulaciones se han llevado a cabo utilizando el software ANSYS Fluent que se imparte en el Máster en Matemática Industrial. Con la simulación del reactor, la empresa podrá conocer mejor el funcionamiento del mismo, lo que facilitará la evaluación de modificaciones geométricas, la identificación de zonas con riesgo de condensación y el escalado del proceso, reduciendo la necesidad de realizar ensayos experimentales.
Este proyecto fin de máster se centra en la simulación de un proceso in- dustrial innovador impulsado por la empresa Ferroglobe. El proceso se lleva a cabo en un reactor operando al vacío, en el que se aplica un campo eléctrico para generar calor. Este calentamiento permite alcanzar las condiciones necesarias para que los reactivos presentes en su interior generen un producto metalúrgico de alto valor. El producto se forma en fase gaseosa, se transporta a lo largo del reactor y se condensa en su parte superior, donde se encuentra ubicado un condensador. El objetivo principal del proyecto es comprender y optimizar este proceso mediante técnicas de modelización matemática y simulación numérica. Todas las simulaciones se han llevado a cabo utilizando el software ANSYS Fluent que se imparte en el Máster en Matemática Industrial. Con la simulación del reactor, la empresa podrá conocer mejor el funcionamiento del mismo, lo que facilitará la evaluación de modificaciones geométricas, la identificación de zonas con riesgo de condensación y el escalado del proceso, reduciendo la necesidad de realizar ensayos experimentales.
Dirección
GOMEZ PEDREIRA, MARIA DOLORES (Tutoría)
GOMEZ PEDREIRA, MARIA DOLORES (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
Estimación de filamentos
Autoría
H.G.V.
Máster Universitario en Técnicas Estadísticas (2ªed)
H.G.V.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.02.2025 09:30
05.02.2025 09:30
Resumen
La estimación de variedades permite abordar de modo no lineal y no paramétrico el problema de reducción de la dimensión al trabajar con datos en un espacio euclídeo que realmente se distribuyen en (o cerca de) una variedad de dimensión menor, proporcionando una mejor comprensión sobre su estructura subyacente. En el caso particular en el que la variedad es una curva, el problema se denomina estimación de filamentos. El objetivo de este trabajo es proponer un nuevo estimador de filamentos y probar que alcanza la tasa óptima en el sentido minimax de convergencia en distancia de Hausdorff, salvo factor logarítmico, cuando el espacio ambiente es el plano. Primero se realiza una presentación de conceptos, condiciones de forma y estimadores empleados en estimación de conjuntos. A continuación, se revisa un estimador, el llamado estimador EDT (Euclidean Distance Transform), en un modelo de estimación de filamentos con ruido aditivo. Además, se presenta un modelo de ruido perpendicular, en un contexto más general de estimación de variedades, en el que se conoce la tasa minimax. Finalmente, se propone el nuevo estimador, denominado estimador EDT con envoltura r-convexa, y se prueba su tasa de convergencia. También se estudia la posible selección del parámetro de forma r a partir de los datos sin afectar a la tasa de convergencia. El estimador propuesto se aplica a un problema de estimación del contorno de secciones de troncos de árboles en inventario forestal.
La estimación de variedades permite abordar de modo no lineal y no paramétrico el problema de reducción de la dimensión al trabajar con datos en un espacio euclídeo que realmente se distribuyen en (o cerca de) una variedad de dimensión menor, proporcionando una mejor comprensión sobre su estructura subyacente. En el caso particular en el que la variedad es una curva, el problema se denomina estimación de filamentos. El objetivo de este trabajo es proponer un nuevo estimador de filamentos y probar que alcanza la tasa óptima en el sentido minimax de convergencia en distancia de Hausdorff, salvo factor logarítmico, cuando el espacio ambiente es el plano. Primero se realiza una presentación de conceptos, condiciones de forma y estimadores empleados en estimación de conjuntos. A continuación, se revisa un estimador, el llamado estimador EDT (Euclidean Distance Transform), en un modelo de estimación de filamentos con ruido aditivo. Además, se presenta un modelo de ruido perpendicular, en un contexto más general de estimación de variedades, en el que se conoce la tasa minimax. Finalmente, se propone el nuevo estimador, denominado estimador EDT con envoltura r-convexa, y se prueba su tasa de convergencia. También se estudia la posible selección del parámetro de forma r a partir de los datos sin afectar a la tasa de convergencia. El estimador propuesto se aplica a un problema de estimación del contorno de secciones de troncos de árboles en inventario forestal.
Dirección
PATEIRO LOPEZ, BEATRIZ (Tutoría)
RODRIGUEZ CASAL, ALBERTO Cotutoría
PATEIRO LOPEZ, BEATRIZ (Tutoría)
RODRIGUEZ CASAL, ALBERTO Cotutoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
Desarrollo de Modelos de Clasificación Automática de Documentos Digitales usando Transformer
Autoría
M.G.H.S.
Máster Universitario en Técnicas Estadísticas (2ªed)
M.G.H.S.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.02.2025 09:45
05.02.2025 09:45
Resumen
La gestión de grandes volúmenes de documentos representa un desafío significativo para las organizaciones, ya que clasificarlos y procesarlos de manera manual resulta ineficiente y supone un desaprovechamiento de recursos. Este enfoque tradicional, aunque necesario en ciertos contextos, limita la capacidad para acceder rápidamente a la información y utilizarla de manera efectiva. En respuesta a esta situación, existen diversas soluciones tecnológicas que están evolucionando para facilitar la organización y el acceso eficiente a los documentos. La primera parte de este trabajo presenta el desarrollo de un modelo de clasificación de texto basado en Transformer, una arquitectura avanzada de procesamiento de lenguaje natural (PNL). El modelo automatiza el proceso de clasificación de documentos, lo que no solo mejora la eficiencia en la organización de los mismos, sino que también permite su aprovechamiento posterior de manera más ágil y efectiva. Este enfoque, basado en modelos preentrenados como BERT, aprovecha su capacidad para adaptarse a tareas específicas, lo que facilita la clasificación eficiente de grandes volúmenes de datos y mejora el acceso rápido y preciso a la información relevante. De este modo, se contribuye a la optimización de recursos y a una mejor gestión de la información dentro de la organización. Para validar la efectividad del modelo, se hicieron diversas comparaciones con clasificadores tradicionales como kNN, Naïve Bayes y Random Forest, utilizando los mismos datos de entrenamiento. En todos los casos, el modelo basado en BERT demostró una capacidad de generalización superior, mostrando un desempeño notable al clasificar documentos sobre temas que ninguno de los clasificadores había visto durante la etapa de entrenamiento y superando a las técnicas tradicionales en los conjuntos de datos analizados. Esto establece su ventaja para adaptarse a nuevos contextos y tipos de documentos sin requerir una reestructuración o ajuste significativo del modelo. La arquitectura de BERT le permite comprender el contexto y significado profundo del texto, lo que le otorga flexibilidad para manejar una amplia variedad de tareas, incluso cuando se enfrenta a datos que no se alinean perfectamente con los ejemplos usados previamente durante su entrenamiento. Esta capacidad de adaptación convierte a BERT en una solución ideal para entornos donde los datos y las necesidades cambian constantemente, permitiendo así una mayor eficiencia y precisión en la clasificación y recuperación de información. La segunda parte de este trabajo se centra en el desarrollo de un modelo para la recuperación y generación de información. Este modelo constituye una primera propuesta orientada a facilitar el acceso a información contenida en diversas fuentes, lo que añade un valor considerable a los procesos operativos de la organización, optimizando el uso de los datos disponibles para la toma de decisiones. El modelo ha sido evaluado utilizando un conjunto de datos extraído de la plataforma tecnológica Huggingface. Los resultados muestran que las respuestas generadas alcanzaron una similitud coseno superior al 60% con respecto a las respuestas esperadas cuando el contexto proporcionado tenía relación con la pregunta, lo que sugiere una alta correspondencia en términos de contenido. Esto valida la capacidad del modelo para generar respuestas coherentes y relevantes en escenarios donde el contexto es clave.
La gestión de grandes volúmenes de documentos representa un desafío significativo para las organizaciones, ya que clasificarlos y procesarlos de manera manual resulta ineficiente y supone un desaprovechamiento de recursos. Este enfoque tradicional, aunque necesario en ciertos contextos, limita la capacidad para acceder rápidamente a la información y utilizarla de manera efectiva. En respuesta a esta situación, existen diversas soluciones tecnológicas que están evolucionando para facilitar la organización y el acceso eficiente a los documentos. La primera parte de este trabajo presenta el desarrollo de un modelo de clasificación de texto basado en Transformer, una arquitectura avanzada de procesamiento de lenguaje natural (PNL). El modelo automatiza el proceso de clasificación de documentos, lo que no solo mejora la eficiencia en la organización de los mismos, sino que también permite su aprovechamiento posterior de manera más ágil y efectiva. Este enfoque, basado en modelos preentrenados como BERT, aprovecha su capacidad para adaptarse a tareas específicas, lo que facilita la clasificación eficiente de grandes volúmenes de datos y mejora el acceso rápido y preciso a la información relevante. De este modo, se contribuye a la optimización de recursos y a una mejor gestión de la información dentro de la organización. Para validar la efectividad del modelo, se hicieron diversas comparaciones con clasificadores tradicionales como kNN, Naïve Bayes y Random Forest, utilizando los mismos datos de entrenamiento. En todos los casos, el modelo basado en BERT demostró una capacidad de generalización superior, mostrando un desempeño notable al clasificar documentos sobre temas que ninguno de los clasificadores había visto durante la etapa de entrenamiento y superando a las técnicas tradicionales en los conjuntos de datos analizados. Esto establece su ventaja para adaptarse a nuevos contextos y tipos de documentos sin requerir una reestructuración o ajuste significativo del modelo. La arquitectura de BERT le permite comprender el contexto y significado profundo del texto, lo que le otorga flexibilidad para manejar una amplia variedad de tareas, incluso cuando se enfrenta a datos que no se alinean perfectamente con los ejemplos usados previamente durante su entrenamiento. Esta capacidad de adaptación convierte a BERT en una solución ideal para entornos donde los datos y las necesidades cambian constantemente, permitiendo así una mayor eficiencia y precisión en la clasificación y recuperación de información. La segunda parte de este trabajo se centra en el desarrollo de un modelo para la recuperación y generación de información. Este modelo constituye una primera propuesta orientada a facilitar el acceso a información contenida en diversas fuentes, lo que añade un valor considerable a los procesos operativos de la organización, optimizando el uso de los datos disponibles para la toma de decisiones. El modelo ha sido evaluado utilizando un conjunto de datos extraído de la plataforma tecnológica Huggingface. Los resultados muestran que las respuestas generadas alcanzaron una similitud coseno superior al 60% con respecto a las respuestas esperadas cuando el contexto proporcionado tenía relación con la pregunta, lo que sugiere una alta correspondencia en términos de contenido. Esto valida la capacidad del modelo para generar respuestas coherentes y relevantes en escenarios donde el contexto es clave.
Dirección
LÓPEZ TABOADA, GUILLERMO (Tutoría)
LÓPEZ TABOADA, GUILLERMO (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Análisis del efecto de la e-consulta en el Servicio de Cardiología del Área Sanitaria de Santiago de Compostela y Barbanza
Autoría
I.I.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
I.I.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
03.09.2025 09:00
03.09.2025 09:00
Resumen
En este trabajo analizaremos el efecto de la introducción de la consulta electrónica (habitualmente conocida como e-consulta) en el Servicio de Cardiología de pacientes asociadas/os al Área Sanitaria de Santiago de Compostela e Barbanza. Para eso, emplearemos modelos aditivos generalizados (conocidos por sus siglas en inglés: GAM), que permiten modelizar relaciones no paramétricas entre las variables explicativas y las diversas variables respuesta escogidas. Primero, estudiaremos en que medida la implantación de la e-consulta mejora la accesibilidad en el sistema sanitario gallego. En concreto, nos centraremos en aspectos clave de la gestión clínica como los ingresos hospitalarios por causas cardiovasculares, los tiempos de respuesta en el acceso al Servicio de Cardiología, el número de visitas a urgencias o el número de consultas relacionadas con patologías propias asociadas al Servicio de Cardiología. A continuación, y teniendo en cuenta la presencia de datos censurados en la base de datos considerada, analizaremos el impacto de la e-consulta sobre el tiempo de vida de las/los pacientes. Para eso, volveremos a utilizar los modelos GAM, incorporando los pesos Kaplan-Meier con el objetivo de adaptar la metodología al contexto de los datos censurados.
En este trabajo analizaremos el efecto de la introducción de la consulta electrónica (habitualmente conocida como e-consulta) en el Servicio de Cardiología de pacientes asociadas/os al Área Sanitaria de Santiago de Compostela e Barbanza. Para eso, emplearemos modelos aditivos generalizados (conocidos por sus siglas en inglés: GAM), que permiten modelizar relaciones no paramétricas entre las variables explicativas y las diversas variables respuesta escogidas. Primero, estudiaremos en que medida la implantación de la e-consulta mejora la accesibilidad en el sistema sanitario gallego. En concreto, nos centraremos en aspectos clave de la gestión clínica como los ingresos hospitalarios por causas cardiovasculares, los tiempos de respuesta en el acceso al Servicio de Cardiología, el número de visitas a urgencias o el número de consultas relacionadas con patologías propias asociadas al Servicio de Cardiología. A continuación, y teniendo en cuenta la presencia de datos censurados en la base de datos considerada, analizaremos el impacto de la e-consulta sobre el tiempo de vida de las/los pacientes. Para eso, volveremos a utilizar los modelos GAM, incorporando los pesos Kaplan-Meier con el objetivo de adaptar la metodología al contexto de los datos censurados.
Dirección
CONDE AMBOAGE, MERCEDES (Tutoría)
CONDE AMBOAGE, MERCEDES (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
Construcción de un indicador adelantado de la tasa de paro
Autoría
L.M.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
L.M.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
18.06.2025 10:45
18.06.2025 10:45
Resumen
La tasa de paro es una variable clave para analizar la evolución del mercado laboral en España, pero se publica trimestralmente con un desfase de mes y medio tras el fin del trimestre en cuestión. Por ello, desde el Departamento de Planificación Estratégica y PMO de ABANCA se plantea la construcción de un indicador adelantado de la tasa de paro, estimado mensualmente a partir de los datos de afiliación a la Seguridad Social y de paro registrado, disponibles a principios de cada mes. Para ello, mediante modelos de desagregación temporal, se mensualizan los datos de ocupados y parados usando las series mensuales de las afiliaciones y del paro registrado. A partir de estas estimaciones, se calcula una tasa de paro mensual que se convierte luego a frecuencia trimestral, permitiendo así su comparación con el dato oficial de la Encuesta de Población Activa (EPA). Además, se incorpora una metodología de corrección de estacionalidad y efectos de calendario, esencial para el análisis de series temporales, ya que las series oficiales no están corregidas del impacto de estos factores. Una vez cancelados estos efectos, es factible un análisis más detallado y comparativas que, sin este ajuste, serían inadecuadas.
La tasa de paro es una variable clave para analizar la evolución del mercado laboral en España, pero se publica trimestralmente con un desfase de mes y medio tras el fin del trimestre en cuestión. Por ello, desde el Departamento de Planificación Estratégica y PMO de ABANCA se plantea la construcción de un indicador adelantado de la tasa de paro, estimado mensualmente a partir de los datos de afiliación a la Seguridad Social y de paro registrado, disponibles a principios de cada mes. Para ello, mediante modelos de desagregación temporal, se mensualizan los datos de ocupados y parados usando las series mensuales de las afiliaciones y del paro registrado. A partir de estas estimaciones, se calcula una tasa de paro mensual que se convierte luego a frecuencia trimestral, permitiendo así su comparación con el dato oficial de la Encuesta de Población Activa (EPA). Además, se incorpora una metodología de corrección de estacionalidad y efectos de calendario, esencial para el análisis de series temporales, ya que las series oficiales no están corregidas del impacto de estos factores. Una vez cancelados estos efectos, es factible un análisis más detallado y comparativas que, sin este ajuste, serían inadecuadas.
Dirección
Vilar Fernández, José Antonio (Tutoría)
Vilar Fernández, José Antonio (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Medición de incertidumbre en modelos de detección de anomalías
Autoría
C.M.O.
Máster Universitario en Técnicas Estadísticas (2ªed)
C.M.O.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.09.2025 11:00
05.09.2025 11:00
Resumen
Este Trabajo Fin de Máster presenta un estudio de la aplicación de metodologías de medición de incertidumbre sobre algoritmos de detección de anomalías en contextos no supervisados, aplicados a un caso de seguridad industrial. Los métodos de detección de anomalías no están exentos de errores, por lo que medir la incertidumbre de estos modelos y de sus predicciones es crucial, especialmente en contextos críticos como es la ciberseguridad. La metodología es evaluada en dos escenarios, uno sintético para facilitar la representación gráfica de su funcionamiento, y otro más realista con datos de tráfico de red generados en un laboratorio.
Este Trabajo Fin de Máster presenta un estudio de la aplicación de metodologías de medición de incertidumbre sobre algoritmos de detección de anomalías en contextos no supervisados, aplicados a un caso de seguridad industrial. Los métodos de detección de anomalías no están exentos de errores, por lo que medir la incertidumbre de estos modelos y de sus predicciones es crucial, especialmente en contextos críticos como es la ciberseguridad. La metodología es evaluada en dos escenarios, uno sintético para facilitar la representación gráfica de su funcionamiento, y otro más realista con datos de tráfico de red generados en un laboratorio.
Dirección
SESTELO PEREZ, MARTA (Tutoría)
SESTELO PEREZ, MARTA (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Categorías de Modelos
Autoría
L.M.S.
Máster Universitario en Matemáticas
L.M.S.
Máster Universitario en Matemáticas
Fecha de la defensa
18.07.2025 10:00
18.07.2025 10:00
Resumen
l objetivo de este trabajo es hacer una primera aproximación a las categorías de modelos y a su categoría de homotopía. Para ello, además de profundizar en las definiciones pertinentes, estudaremos dos ejemplos en dos contextos distintos de las matemáticas. Por un lado, probaremos una estructura de categoría de modelos en espacios topológicos. Por otro, iremos a un contexto puramente algebraico, el de complejos de cadenas. Además, introduciremos el argumento del objeto pequeño de Quillen.
l objetivo de este trabajo es hacer una primera aproximación a las categorías de modelos y a su categoría de homotopía. Para ello, además de profundizar en las definiciones pertinentes, estudaremos dos ejemplos en dos contextos distintos de las matemáticas. Por un lado, probaremos una estructura de categoría de modelos en espacios topológicos. Por otro, iremos a un contexto puramente algebraico, el de complejos de cadenas. Además, introduciremos el argumento del objeto pequeño de Quillen.
Dirección
Gómez Tato, Antonio M. (Tutoría)
MOSQUERA LOIS, DAVID Cotutoría
Gómez Tato, Antonio M. (Tutoría)
MOSQUERA LOIS, DAVID Cotutoría
Tribunal
OTERO ESPINAR, MARIA VICTORIA (Presidente/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
OTERO ESPINAR, MARIA VICTORIA (Presidente/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Métodos algebraicos y combinatorios en la robótica topológica
Autoría
A.M.V.
Máster Universitario en Matemáticas
A.M.V.
Máster Universitario en Matemáticas
Fecha de la defensa
18.07.2025 10:20
18.07.2025 10:20
Resumen
En este trabajo desarrollamos métodos algebraicos y combinatorios en la robótica topológica. Más en concreto, estudiamos invariantes homotópicos relacionados con el problema de planificación de movimientos, como la categoría de Lusternik-Schnirelmann o la complejidad topológica, a partir de una noción que los unifica: la distancia homotópica. Las técnicas que utilizamos combinan tanto herramientas clásicas de topología algebraica, como los grupos de homotopía o la (co)homología, así como recursos de topología combinatoria y computacional, gracias a los complejos simpliciales. Esto nos permite definir nuevos invariantes originales que mejoran estrictamente cotas y resultados existentes en la literatura, a la vez que diseñar algoritmos que, mediante la implementación de programas computacionales de cálculo simbólico, hallan estos invariantes para cualquier espacio triangulable.
En este trabajo desarrollamos métodos algebraicos y combinatorios en la robótica topológica. Más en concreto, estudiamos invariantes homotópicos relacionados con el problema de planificación de movimientos, como la categoría de Lusternik-Schnirelmann o la complejidad topológica, a partir de una noción que los unifica: la distancia homotópica. Las técnicas que utilizamos combinan tanto herramientas clásicas de topología algebraica, como los grupos de homotopía o la (co)homología, así como recursos de topología combinatoria y computacional, gracias a los complejos simpliciales. Esto nos permite definir nuevos invariantes originales que mejoran estrictamente cotas y resultados existentes en la literatura, a la vez que diseñar algoritmos que, mediante la implementación de programas computacionales de cálculo simbólico, hallan estos invariantes para cualquier espacio triangulable.
Dirección
Gómez Tato, Antonio M. (Tutoría)
MOSQUERA LOIS, DAVID Cotutoría
Gómez Tato, Antonio M. (Tutoría)
MOSQUERA LOIS, DAVID Cotutoría
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
FERNANDEZ TOJO, FERNANDO ADRIAN (Secretario/a)
GARCIA RIO, EDUARDO (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
FERNANDEZ TOJO, FERNANDO ADRIAN (Secretario/a)
GARCIA RIO, EDUARDO (Vocal)
Exploración de métodos para estimar la incertidumbre de los descartes pesqueros utilizando el formato RDBES
Autoría
J.M.M.C.
Máster Universitario en Técnicas Estadísticas (2ªed)
J.M.M.C.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
18.06.2025 11:45
18.06.2025 11:45
Resumen
La estimación precisa de los descartes es esencial para una gestión eficaz de las poblaciones pesqueras, ya que los datos de descartes forman parte de la mortalidad por pesca. No hacerlo podría comprometer seriamente la sostenibilidad a largo plazo de los recursos pesqueros. Su precisión se ve afectada por diversos factores, desde el diseño del muestreo hasta el proceso de estimación. Expertos en muestreo han expresado su preocupación por la escasez de indicadores de calidad de los datos en las estimaciones de descartes, especialmente cuando se deben utilizar datos de métodos de muestreo no probabilísticos como sustitutos de datos probabilísticos. Como estudio de caso, utilizamos datos del programa de observadores a bordo del IEO-CSIC de la flota de arrastre española que captura peces demersales en la zona 7 del ICES. El muestreo sigue un diseño en varias etapas, desde la selección de los buques hasta la recogida de la muestra de descartes durante la maniobra de pesca. Para obtener las estimaciones más precisas de los descartes, es necesario especificar correctamente los métodos sucesivos de selección de las unidades de muestreo, así como parametrizar adecuadamente el cálculo de la varianza en cada etapa del muestreo. Para ello, se empleó un diseño de muestreo en dos etapas. En la primera etapa, las mareas fueron seleccionadas mediante muestreo aleatorio simple sin reemplazo, mientras que en la segunda etapa, las operaciones de pesca se eligieron utilizando muestreo sistemático. Para la estimación de la varianza, se adoptaron dos enfoques complementarios. En primer lugar, se utilizó la estimación clásica correspondiente al SRSWOR y, en el caso del SYSS, se compararon las aproximaciones obtenidas mediante el método de diferencias sucesivas y la estimación basada en el supuesto de SRSWOR. En segundo lugar, se implementaron técnicas de remuestreo, particularmente el método Bootstrap, con el fin de evaluar la incertidumbre de manera más flexible y robusta.
La estimación precisa de los descartes es esencial para una gestión eficaz de las poblaciones pesqueras, ya que los datos de descartes forman parte de la mortalidad por pesca. No hacerlo podría comprometer seriamente la sostenibilidad a largo plazo de los recursos pesqueros. Su precisión se ve afectada por diversos factores, desde el diseño del muestreo hasta el proceso de estimación. Expertos en muestreo han expresado su preocupación por la escasez de indicadores de calidad de los datos en las estimaciones de descartes, especialmente cuando se deben utilizar datos de métodos de muestreo no probabilísticos como sustitutos de datos probabilísticos. Como estudio de caso, utilizamos datos del programa de observadores a bordo del IEO-CSIC de la flota de arrastre española que captura peces demersales en la zona 7 del ICES. El muestreo sigue un diseño en varias etapas, desde la selección de los buques hasta la recogida de la muestra de descartes durante la maniobra de pesca. Para obtener las estimaciones más precisas de los descartes, es necesario especificar correctamente los métodos sucesivos de selección de las unidades de muestreo, así como parametrizar adecuadamente el cálculo de la varianza en cada etapa del muestreo. Para ello, se empleó un diseño de muestreo en dos etapas. En la primera etapa, las mareas fueron seleccionadas mediante muestreo aleatorio simple sin reemplazo, mientras que en la segunda etapa, las operaciones de pesca se eligieron utilizando muestreo sistemático. Para la estimación de la varianza, se adoptaron dos enfoques complementarios. En primer lugar, se utilizó la estimación clásica correspondiente al SRSWOR y, en el caso del SYSS, se compararon las aproximaciones obtenidas mediante el método de diferencias sucesivas y la estimación basada en el supuesto de SRSWOR. En segundo lugar, se implementaron técnicas de remuestreo, particularmente el método Bootstrap, con el fin de evaluar la incertidumbre de manera más flexible y robusta.
Dirección
Mosquera Rodríguez, Manuel Alfredo (Tutoría)
Mosquera Rodríguez, Manuel Alfredo (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
Análisis de fallos en baterías de iones de litio por penetración de clavo
Autoría
J.N.M.C.
Máster Universitario en Matemática Industrial
J.N.M.C.
Máster Universitario en Matemática Industrial
Fecha de la defensa
16.07.2025 12:00
16.07.2025 12:00
Resumen
Este trabajo se centra en la simulación de la penetración de un clavo en una celda de iones de litio, un problema crítico para la seguridad de las baterías de iones de litio. La penetración de un objeto metálico puede causar cortocircuitos internos y generación local de calor excesivo, provocando riesgos de incendio o explosión. Para abordar este problema, se ha desarrollado un modelo axisimétrico 2D que simula las interacciones electroquímicas y térmicas durante la penetración del clavo. Se han utilizado las herramientas de software Gmsh para la generación de mallas, y FEniCSx junto con Multiphenicsx para la solución de las ecuaciones diferenciales que describen los fenómenos involucrados. En particular, se ha prestado especial atención a la simulación de distintos coeficientes de convección y estados de carga de la celda para ver los efectos que se tiene.
Este trabajo se centra en la simulación de la penetración de un clavo en una celda de iones de litio, un problema crítico para la seguridad de las baterías de iones de litio. La penetración de un objeto metálico puede causar cortocircuitos internos y generación local de calor excesivo, provocando riesgos de incendio o explosión. Para abordar este problema, se ha desarrollado un modelo axisimétrico 2D que simula las interacciones electroquímicas y térmicas durante la penetración del clavo. Se han utilizado las herramientas de software Gmsh para la generación de mallas, y FEniCSx junto con Multiphenicsx para la solución de las ecuaciones diferenciales que describen los fenómenos involucrados. En particular, se ha prestado especial atención a la simulación de distintos coeficientes de convección y estados de carga de la celda para ver los efectos que se tiene.
Dirección
Varas Mérida, Fernando (Tutoría)
Varas Mérida, Fernando (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Sanchez Villaseñor, Eduardo Jesús (Presidente/a)
RODRIGUEZ GARCIA, JERONIMO (Secretario/a)
Ferreiro Ferreiro, Ana María (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Sanchez Villaseñor, Eduardo Jesús (Presidente/a)
RODRIGUEZ GARCIA, JERONIMO (Secretario/a)
Ferreiro Ferreiro, Ana María (Vocal)
SorterAssignmentOptimization
Autoría
A.M.A.
Máster Universitario en Técnicas Estadísticas (2ªed)
A.M.A.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
18.06.2025 09:45
18.06.2025 09:45
Resumen
Este trabajo busca mejorar la eficiencia de un clasificador de almacén del sector textil mediante la asignación óptima de tareas a sus trabajadores. Diversas prendas son introducidas en el sorter desde el almacén, proceso donde se distinguen dos roles de trabajo. Al llegar a un destino concreto, la ropa cae en la caja que se encuentra debajo. Tras llenarse, las cajas son evacuadas por humanos, con otros dos roles de trabajo posibles. El problema consistirá en decidir cuántas personas ocuparán cada uno de los cuatro roles de trabajo, buscando que la demanda, generada por las necesidades de un conjunto de tiendas, se satisfaga en el menor tiempo posible. Este texto describe en profundidad el problema y formula un modelo de programación lineal entera para resolverlo. Tras comprobar que este no será capaz de resolver instancias de tamaño realista, y apreciar que el número total de asignaciones trabajador-rol es mucho menor de lo esperado, se construye un simulador que recree más fielmente el sorter y evalúe las posibles asignaciones, devolviendo la mejor de ellas como solución óptima.
Este trabajo busca mejorar la eficiencia de un clasificador de almacén del sector textil mediante la asignación óptima de tareas a sus trabajadores. Diversas prendas son introducidas en el sorter desde el almacén, proceso donde se distinguen dos roles de trabajo. Al llegar a un destino concreto, la ropa cae en la caja que se encuentra debajo. Tras llenarse, las cajas son evacuadas por humanos, con otros dos roles de trabajo posibles. El problema consistirá en decidir cuántas personas ocuparán cada uno de los cuatro roles de trabajo, buscando que la demanda, generada por las necesidades de un conjunto de tiendas, se satisfaga en el menor tiempo posible. Este texto describe en profundidad el problema y formula un modelo de programación lineal entera para resolverlo. Tras comprobar que este no será capaz de resolver instancias de tamaño realista, y apreciar que el número total de asignaciones trabajador-rol es mucho menor de lo esperado, se construye un simulador que recree más fielmente el sorter y evalúe las posibles asignaciones, devolviendo la mejor de ellas como solución óptima.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
GONZALEZ DIAZ, JULIO (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
Estudio de las necesidades de camas para patologías tumorales a nivel de Comunidades Autónomas
Autoría
C.A.P.V.
Máster Universitario en Técnicas Estadísticas (2ªed)
C.A.P.V.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.09.2025 16:45
05.09.2025 16:45
Resumen
En el ámbito de la gestión hospitalaria existe la necesidad tener una asignación adecuada de camas para poder tener una atención médica de calidad para pacientes con cáncer al pulmón a nivel de las comunidades autónomas. En este trabajo, se busca dar solución a este problema usando herramientas de Investigación Operativa, formulando para ello un modelo determinístico robusto que abarque todas las necesidades planteadas, comparándolos con diferentes solvers mediante ejemplos con datos reales. Las conclusiones de este estudio, aseguran que la elección de modelo nos ayuda a cubrir las necesidades de atención sanitaría en todos los hospitales de la comunidades autónomas de España.
En el ámbito de la gestión hospitalaria existe la necesidad tener una asignación adecuada de camas para poder tener una atención médica de calidad para pacientes con cáncer al pulmón a nivel de las comunidades autónomas. En este trabajo, se busca dar solución a este problema usando herramientas de Investigación Operativa, formulando para ello un modelo determinístico robusto que abarque todas las necesidades planteadas, comparándolos con diferentes solvers mediante ejemplos con datos reales. Las conclusiones de este estudio, aseguran que la elección de modelo nos ayuda a cubrir las necesidades de atención sanitaría en todos los hospitales de la comunidades autónomas de España.
Dirección
GINZO VILLAMAYOR, MARIA JOSE (Tutoría)
SAAVEDRA NIEVES, ALEJANDRO Cotutoría
GINZO VILLAMAYOR, MARIA JOSE (Tutoría)
SAAVEDRA NIEVES, ALEJANDRO Cotutoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Homotopía de las esferas
Autoría
V.E.P.B.
Máster Universitario en Matemáticas
V.E.P.B.
Máster Universitario en Matemáticas
Fecha de la defensa
18.07.2025 11:00
18.07.2025 11:00
Resumen
Este Trabajo Fin de Máster aborda el estudio de los grupos de homotopía de las esferas, uno de los temas clásicos y fundamentales de la Topología Algebraica. En primer lugar, se introducen algunas construcciones topológicas básicas, como los la suma puntual, las suspensiones (de esferas) y el producto smash, así como una breve introducción a la teoría de categorías. Posteriormente, desarrollaremos los grupos de homotopía de orden superior. Analizaremos su definición mediante clases de homotopía de aplicaciones del tipo $Sn \longrightarrow X$, algunas de sus propiedades principales y la noción de grupos de homotopía relativa, que permite estudiar una sucesión exacta larga entre sus grupos de homotopía. También se presentan herramientas clave como el Teorema de escisión y el Teorema de suspensión de Freudenthal, útiles para calcular $\pi_n(Sn)$, entre otros. Finalmente, se introduce el concepto de fibración, especialmente la fibración de Hopf dada por $S1 \longrightarrow S3 \overset{p}{\longrightarrow}S2$ que permite estudiar el grupo de homotopía $\pi_3(S2)=\mathbb{Z}$.
Este Trabajo Fin de Máster aborda el estudio de los grupos de homotopía de las esferas, uno de los temas clásicos y fundamentales de la Topología Algebraica. En primer lugar, se introducen algunas construcciones topológicas básicas, como los la suma puntual, las suspensiones (de esferas) y el producto smash, así como una breve introducción a la teoría de categorías. Posteriormente, desarrollaremos los grupos de homotopía de orden superior. Analizaremos su definición mediante clases de homotopía de aplicaciones del tipo $Sn \longrightarrow X$, algunas de sus propiedades principales y la noción de grupos de homotopía relativa, que permite estudiar una sucesión exacta larga entre sus grupos de homotopía. También se presentan herramientas clave como el Teorema de escisión y el Teorema de suspensión de Freudenthal, útiles para calcular $\pi_n(Sn)$, entre otros. Finalmente, se introduce el concepto de fibración, especialmente la fibración de Hopf dada por $S1 \longrightarrow S3 \overset{p}{\longrightarrow}S2$ que permite estudiar el grupo de homotopía $\pi_3(S2)=\mathbb{Z}$.
Dirección
Gómez Tato, Antonio M. (Tutoría)
Gómez Tato, Antonio M. (Tutoría)
Tribunal
OTERO ESPINAR, MARIA VICTORIA (Presidente/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
OTERO ESPINAR, MARIA VICTORIA (Presidente/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Soluciones periódicas para ecuaciones diferenciales singulares
Autoría
M.P.A.
Máster Universitario en Matemáticas
M.P.A.
Máster Universitario en Matemáticas
Fecha de la defensa
18.07.2025 12:00
18.07.2025 12:00
Resumen
Las ecuaciones diferenciales singulares presentan algún término que, en algún punto de su dominio, tiende al infinito, lo cual ocurre habitualmente al tratar con problemas de electromagnetismo o mecánica. En este trabajo, tras exponer algunas técnicas útiles en el estudio de problemas de frontera periódicos, introduciremos el concepto de ecuación diferencial singular a través de ejemplos y comentaremos las dos clasificaciones de las singularidades más comunes en los textos. Posteriormente, aplicaremos las técnicas mencionadas para probar la existencia de solución periódica positiva para distintas familias de ecuaciones diferenciales singulares de segundo orden, distinguiendo entre aquellas sin rozamiento, esto es, en las que no interviene la derivada primera, de aquellas con rozamiento.
Las ecuaciones diferenciales singulares presentan algún término que, en algún punto de su dominio, tiende al infinito, lo cual ocurre habitualmente al tratar con problemas de electromagnetismo o mecánica. En este trabajo, tras exponer algunas técnicas útiles en el estudio de problemas de frontera periódicos, introduciremos el concepto de ecuación diferencial singular a través de ejemplos y comentaremos las dos clasificaciones de las singularidades más comunes en los textos. Posteriormente, aplicaremos las técnicas mencionadas para probar la existencia de solución periódica positiva para distintas familias de ecuaciones diferenciales singulares de segundo orden, distinguiendo entre aquellas sin rozamiento, esto es, en las que no interviene la derivada primera, de aquellas con rozamiento.
Dirección
Rodríguez López, Rosana (Tutoría)
Rodríguez López, Rosana (Tutoría)
Tribunal
OTERO ESPINAR, MARIA VICTORIA (Presidente/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
OTERO ESPINAR, MARIA VICTORIA (Presidente/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Automatización del proceso de detección de fallos en Test de Hornos de boyas
Autoría
A.G.P.M.
Máster Universitario en Matemática Industrial
A.G.P.M.
Máster Universitario en Matemática Industrial
Fecha de la defensa
09.07.2025 12:30
09.07.2025 12:30
Resumen
Marine Instruments es una empresa líder en el diseño y la fabricación de equipos electrónicos para entornos marinos. Su prestigio se fundamenta en la alta fiabilidad de sus productos, garantizada por un riguroso proceso de producción que concluye con un exhaustivo control de calidad. En el caso de las boyas, dicho control incluye un “test” en horno: las placas de circuito impreso (PCB) se someten a 60 grados mientras ejecutan un programa de prueba estandarizado y se registra en continuo su consumo eléctrico. Actualmente, la validación se realiza de forma manual mediante la inspección visual de las curvas de consumo para identificar posibles anomalías. Este trabajo propone automatizar esa fase de clasificación mediante la extracción y modelización de rasgos característicos de los fallos y el diseño de un algoritmo de detección que combina técnicas de analítica de datos e inteligencia artificial. Con ello se persigue reducir tiempos de inspección, incrementar la trazabilidad del proceso y elevar aún más la fiabilidad del producto final.
Marine Instruments es una empresa líder en el diseño y la fabricación de equipos electrónicos para entornos marinos. Su prestigio se fundamenta en la alta fiabilidad de sus productos, garantizada por un riguroso proceso de producción que concluye con un exhaustivo control de calidad. En el caso de las boyas, dicho control incluye un “test” en horno: las placas de circuito impreso (PCB) se someten a 60 grados mientras ejecutan un programa de prueba estandarizado y se registra en continuo su consumo eléctrico. Actualmente, la validación se realiza de forma manual mediante la inspección visual de las curvas de consumo para identificar posibles anomalías. Este trabajo propone automatizar esa fase de clasificación mediante la extracción y modelización de rasgos característicos de los fallos y el diseño de un algoritmo de detección que combina técnicas de analítica de datos e inteligencia artificial. Con ello se persigue reducir tiempos de inspección, incrementar la trazabilidad del proceso y elevar aún más la fiabilidad del producto final.
Dirección
VAZQUEZ CENDON, MARIA ELENA (Tutoría)
VAZQUEZ CENDON, MARIA ELENA (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
Varas Mérida, Fernando (Presidente/a)
Terragni , Filippo (Secretario/a)
López Pouso, Óscar (Vocal)
La función L p-ádica de una forma modular
Autoría
J.P.N.
Máster Universitario en Matemáticas
J.P.N.
Máster Universitario en Matemáticas
Fecha de la defensa
18.07.2025 11:40
18.07.2025 11:40
Resumen
Este trabajo se centra en la construcción y estudio de la función L p-ádica asociada a una forma modular. Se comienza introduciendo algunos conceptos de formas modulares y símbolos modulares y sus propiedades básicas. A continuación se hace la construcción de la función L p-ádica, para la cual se introducen las funciones L y se estudian algunas de las propiedades y conceptos relacionados, probando la algebraicidad de algunos de sus valores concretos y utilizando el teorema de control de Stevens (cuya prueba es abordada con posterioridad) para acabar construyendo la función L p-ádica asociada a una forma modular y probar su propiedad de interpolación, bajo ciertas hipótesis. La última parte se centra en estudiar lo que ocurre cuando el peso de la forma modular varía y analizando los casos crítico y Eisenstein.
Este trabajo se centra en la construcción y estudio de la función L p-ádica asociada a una forma modular. Se comienza introduciendo algunos conceptos de formas modulares y símbolos modulares y sus propiedades básicas. A continuación se hace la construcción de la función L p-ádica, para la cual se introducen las funciones L y se estudian algunas de las propiedades y conceptos relacionados, probando la algebraicidad de algunos de sus valores concretos y utilizando el teorema de control de Stevens (cuya prueba es abordada con posterioridad) para acabar construyendo la función L p-ádica asociada a una forma modular y probar su propiedad de interpolación, bajo ciertas hipótesis. La última parte se centra en estudiar lo que ocurre cuando el peso de la forma modular varía y analizando los casos crítico y Eisenstein.
Dirección
RIVERO SALGADO, OSCAR (Tutoría)
RIVERO SALGADO, OSCAR (Tutoría)
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
FERNANDEZ TOJO, FERNANDO ADRIAN (Secretario/a)
GARCIA RIO, EDUARDO (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
FERNANDEZ TOJO, FERNANDO ADRIAN (Secretario/a)
GARCIA RIO, EDUARDO (Vocal)
Comparativa de algoritmos de optimización global para estimación de parámetros en redes bioquímicas.
Autoría
A.P.R.
Máster Universitario en Matemática Industrial
A.P.R.
Máster Universitario en Matemática Industrial
Fecha de la defensa
24.01.2025 10:00
24.01.2025 10:00
Resumen
Este estudio evalúa el rendimiento de varios algoritmos de optimización global para estimación de parámetros en redes bioquímicas, una importante tarea en Biología Computacional de Sistemas. Se han comparado métodos deterministas y estocásticos a partir de un conjunto de problemas de optimización estándar y cuatro problemas referentes en el ámbito de la Biología de Sistemas (el conjunto de problemas BioPreDyn). El objetivo es identidicar el método más efectivo y fiable para abordar los problemas de optimización no convexa que surgen frecuentemente en este campo. El descubrimiento más importante del trabajo es que, de entre las metaheurísticas comparadas, el método más fiable a la hora de abordar problemas de optimización relativos a la Biología de Sistemas ha sido el método de “enhanced Scatter Search” (eSS). Aunque ningún algoritmo ha sobresalido en todos los casos, eSS logró la mayor reducción en el valor de la función objetivo de manera consistente y demostró ser el método más robusto. Los métodos deterministas resultaron inadecuados para problemas de gran escala, lo que destaca su limitación en este tipo de contextos. El estudio subraya la importancia de escoger adecuadamente los algoritmos con que resolver el problema de estimación de parámetros en redes bioquímicas. Además, enfatiza la eficacia de ciertas metaheurísticas al abordar los problemas de optimización complejos que surgen en la Biología de Sistemas.
Este estudio evalúa el rendimiento de varios algoritmos de optimización global para estimación de parámetros en redes bioquímicas, una importante tarea en Biología Computacional de Sistemas. Se han comparado métodos deterministas y estocásticos a partir de un conjunto de problemas de optimización estándar y cuatro problemas referentes en el ámbito de la Biología de Sistemas (el conjunto de problemas BioPreDyn). El objetivo es identidicar el método más efectivo y fiable para abordar los problemas de optimización no convexa que surgen frecuentemente en este campo. El descubrimiento más importante del trabajo es que, de entre las metaheurísticas comparadas, el método más fiable a la hora de abordar problemas de optimización relativos a la Biología de Sistemas ha sido el método de “enhanced Scatter Search” (eSS). Aunque ningún algoritmo ha sobresalido en todos los casos, eSS logró la mayor reducción en el valor de la función objetivo de manera consistente y demostró ser el método más robusto. Los métodos deterministas resultaron inadecuados para problemas de gran escala, lo que destaca su limitación en este tipo de contextos. El estudio subraya la importancia de escoger adecuadamente los algoritmos con que resolver el problema de estimación de parámetros en redes bioquímicas. Además, enfatiza la eficacia de ciertas metaheurísticas al abordar los problemas de optimización complejos que surgen en la Biología de Sistemas.
Dirección
López Pouso, Óscar (Tutoría)
López Pouso, Óscar (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
Carretero Cerrajero, Manuel (Secretario/a)
ARREGUI ALVAREZ, IÑIGO (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VAZQUEZ CENDON, MARIA ELENA (Presidente/a)
Carretero Cerrajero, Manuel (Secretario/a)
ARREGUI ALVAREZ, IÑIGO (Vocal)
Una introducción a la teoría de Iwasawa
Autoría
B.Q.C.
Máster Universitario en Matemáticas
B.Q.C.
Máster Universitario en Matemáticas
Fecha de la defensa
18.07.2025 13:00
18.07.2025 13:00
Resumen
Este trabajo pretende realizar una introducción a la teoría de Iwasawa, comenzando por el estudio de la estructura de los módulos finitamente generados sobre Zp[[T]], que se puede entender como una generalización del teorema de clasificación de módulos sobre un dominio de ideales principales. A su vez, esto nos permite establecer el teorema de control de Iwasawa para el número de clases de los cuerpos ciclotómicos. En la segunda parte, presentamos resultados más recientes que permiten entender mejor la estructura algebraica de las Zp-extensiones, formulando la conjetura principal de Iwasawa, que relaciona dicha estructura algebraica con un objeto puramente analítico, la función zeta p-ádica. Finalmente explicamos la estrategia general empleada en la demostración de ese resultado y acabamos ilustrando algunas tendencias actuales de investigación en el tema.
Este trabajo pretende realizar una introducción a la teoría de Iwasawa, comenzando por el estudio de la estructura de los módulos finitamente generados sobre Zp[[T]], que se puede entender como una generalización del teorema de clasificación de módulos sobre un dominio de ideales principales. A su vez, esto nos permite establecer el teorema de control de Iwasawa para el número de clases de los cuerpos ciclotómicos. En la segunda parte, presentamos resultados más recientes que permiten entender mejor la estructura algebraica de las Zp-extensiones, formulando la conjetura principal de Iwasawa, que relaciona dicha estructura algebraica con un objeto puramente analítico, la función zeta p-ádica. Finalmente explicamos la estrategia general empleada en la demostración de ese resultado y acabamos ilustrando algunas tendencias actuales de investigación en el tema.
Dirección
RIVERO SALGADO, OSCAR (Tutoría)
RIVERO SALGADO, OSCAR (Tutoría)
Tribunal
OTERO ESPINAR, MARIA VICTORIA (Presidente/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
OTERO ESPINAR, MARIA VICTORIA (Presidente/a)
DOMINGUEZ VAZQUEZ, MIGUEL (Secretario/a)
ALONSO TARRIO, LEOVIGILDO (Vocal)
Un enfoque categórico de las álgebras no asociativas
Autoría
D.Q.G.
Máster Universitario en Matemáticas
D.Q.G.
Máster Universitario en Matemáticas
Fecha de la defensa
09.09.2025 17:00
09.09.2025 17:00
Resumen
El concepto de álgebra no asociativa fue introducido por Hamilton en 1843, y sirvió de gran ayuda para entender las álgebras de Lie cuando aparecieron a principios del siglo XX, pero no fue hasta 1950 que se trataron desde la Teoría de Categorías. Durante este trabajo se tratará de encuadrar cada concepto categórico dentro del mundo de las álgebras no asociativas, teniendo en cuenta las variedades de álgebras como categorías y relacionán- dolas con conceptos de reciente incorporación a las matemáticas como son las categorías semiabelianas o las subcategorías de Birkhoff.
El concepto de álgebra no asociativa fue introducido por Hamilton en 1843, y sirvió de gran ayuda para entender las álgebras de Lie cuando aparecieron a principios del siglo XX, pero no fue hasta 1950 que se trataron desde la Teoría de Categorías. Durante este trabajo se tratará de encuadrar cada concepto categórico dentro del mundo de las álgebras no asociativas, teniendo en cuenta las variedades de álgebras como categorías y relacionán- dolas con conceptos de reciente incorporación a las matemáticas como son las categorías semiabelianas o las subcategorías de Birkhoff.
Dirección
LADRA GONZALEZ, MANUEL EULOGIO (Tutoría)
GARCIA MARTINEZ, XABIER Cotutoría
LADRA GONZALEZ, MANUEL EULOGIO (Tutoría)
GARCIA MARTINEZ, XABIER Cotutoría
Tribunal
OTERO ESPINAR, MARIA VICTORIA (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
OTERO ESPINAR, MARIA VICTORIA (Presidente/a)
ALONSO TARRIO, LEOVIGILDO (Secretario/a)
Gómez Tato, Antonio M. (Vocal)
Impacto del periodo de rebajas en la previsión de ventas del sector textil
Autoría
M.R.B.
Máster Universitario en Técnicas Estadísticas (2ªed)
M.R.B.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
18.06.2025 10:00
18.06.2025 10:00
Resumen
La gestión eficiente de las rebajas ha cobrado una relevancia creciente en la estrategia comercial del sector textil, donde el equilibrio entre liquidez de stock y rentabilidad es clave. En este contexto, INDITEX ha consolidado su liderazgo no solo por su capacidad de respuesta ágil al mercado, sino también por su dominio en la gestión de inventario y fijación de precios durante el periodo de rebajas. Tradicionalmente programadas tras temporadas de alta demanda, las rebajas permiten liberar espacio para nuevas colecciones, pero su planificación óptima plantea retos significativos. Surge así la necesidad de anticipar el impacto que los distintos niveles de descuento pueden tener sobre las ventas, especialmente en un entorno donde los márgenes y la percepción del cliente son variables críticas. Este trabajo aborda este desafío mediante un análisis exhaustivo de datos históricos y el desarrollo de modelos predictivos capaces de estimar el comportamiento de las ventas bajo diferentes escenarios de precios. El principal objetivo es proporcionar a INDITEX una herramienta que facilite la toma de decisiones informadas sobre descuentos, optimizando así el rendimiento comercial durante las rebajas y reforzando su posición estratégica dentro del mercado global de la moda.
La gestión eficiente de las rebajas ha cobrado una relevancia creciente en la estrategia comercial del sector textil, donde el equilibrio entre liquidez de stock y rentabilidad es clave. En este contexto, INDITEX ha consolidado su liderazgo no solo por su capacidad de respuesta ágil al mercado, sino también por su dominio en la gestión de inventario y fijación de precios durante el periodo de rebajas. Tradicionalmente programadas tras temporadas de alta demanda, las rebajas permiten liberar espacio para nuevas colecciones, pero su planificación óptima plantea retos significativos. Surge así la necesidad de anticipar el impacto que los distintos niveles de descuento pueden tener sobre las ventas, especialmente en un entorno donde los márgenes y la percepción del cliente son variables críticas. Este trabajo aborda este desafío mediante un análisis exhaustivo de datos históricos y el desarrollo de modelos predictivos capaces de estimar el comportamiento de las ventas bajo diferentes escenarios de precios. El principal objetivo es proporcionar a INDITEX una herramienta que facilite la toma de decisiones informadas sobre descuentos, optimizando así el rendimiento comercial durante las rebajas y reforzando su posición estratégica dentro del mercado global de la moda.
Dirección
AMEIJEIRAS ALONSO, JOSE (Tutoría)
GINZO VILLAMAYOR, MARIA JOSE Cotutoría
AMEIJEIRAS ALONSO, JOSE (Tutoría)
GINZO VILLAMAYOR, MARIA JOSE Cotutoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Optimización de horarios
Autoría
S.R.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
S.R.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
03.09.2025 11:45
03.09.2025 11:45
Resumen
Este trabajo propone un modelo de optimización lineal en enteros para la planificación de turnos en el sector retail, basándonos y ampliando el clásico Nursing Personnel Scheduling Problem. Su objetivo es asignar turnos de forma eficiente, respetando restricciones laborales, preferencias individuales, habilidades específicas y necesidades operativas de la tienda. La solución se integra en un proceso más amplio de gestión de personal, estructurado en fases desde el preprocesado de restricciones hasta el filtrado por robustez. Se presenta un modelo de programación lineal en enteros para planificación semanal, complementando con algoritmos que permiten escalar la solución y reducir la carga computacional. Los resultados avalan la viabilidad del enfoque y permiten avanzar de cara a sistemas más flexibles y adaptados al contexto comercial.
Este trabajo propone un modelo de optimización lineal en enteros para la planificación de turnos en el sector retail, basándonos y ampliando el clásico Nursing Personnel Scheduling Problem. Su objetivo es asignar turnos de forma eficiente, respetando restricciones laborales, preferencias individuales, habilidades específicas y necesidades operativas de la tienda. La solución se integra en un proceso más amplio de gestión de personal, estructurado en fases desde el preprocesado de restricciones hasta el filtrado por robustez. Se presenta un modelo de programación lineal en enteros para planificación semanal, complementando con algoritmos que permiten escalar la solución y reducir la carga computacional. Los resultados avalan la viabilidad del enfoque y permiten avanzar de cara a sistemas más flexibles y adaptados al contexto comercial.
Dirección
GONZALEZ RUEDA, ANGEL MANUEL (Tutoría)
GONZALEZ RUEDA, ANGEL MANUEL (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
Software para la predicción y compensación de la distorsión de diseños en superficies termoconformadas
Autoría
M.R.P.
Máster Universitario en Matemática Industrial
M.R.P.
Máster Universitario en Matemática Industrial
Fecha de la defensa
23.09.2025 11:30
23.09.2025 11:30
Resumen
El trabajo se enmarca en el estudio del proceso de termoconformado, una técnica utilizada para moldear láminas plásticas, mediante presión y temperatura, que suele generar distorsiones en las imágenes impresas en las mismas debido a las deformaciones diferenciales del material. Para resolver este problema, se desarrolló en Python una herramienta computacional que predice dichas deformaciones y calcula la predistorsión que se debe aplicar a la imagen original, de manera que tras el conformado se mantengan las proporciones y geometría deseadas.
El trabajo se enmarca en el estudio del proceso de termoconformado, una técnica utilizada para moldear láminas plásticas, mediante presión y temperatura, que suele generar distorsiones en las imágenes impresas en las mismas debido a las deformaciones diferenciales del material. Para resolver este problema, se desarrolló en Python una herramienta computacional que predice dichas deformaciones y calcula la predistorsión que se debe aplicar a la imagen original, de manera que tras el conformado se mantengan las proporciones y geometría deseadas.
Dirección
Varas Mérida, Fernando (Tutoría)
Varas Mérida, Fernando (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VIAÑO REY, JUAN MANUEL (Presidente/a)
Sánchez Sanz, Mario (Secretario/a)
Durany Castrillo, José (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VIAÑO REY, JUAN MANUEL (Presidente/a)
Sánchez Sanz, Mario (Secretario/a)
Durany Castrillo, José (Vocal)
Métodos basados en datos para modelizar la dinámica de biosensores
Autoría
A.R.F.
Máster Universitario en Matemática Industrial
A.R.F.
Máster Universitario en Matemática Industrial
Fecha de la defensa
16.09.2025 11:00
16.09.2025 11:00
Resumen
En el marco de la biología sintética, los biosensores se presentan como herramientas fundamentales para la monitorización y regulación celular. Sin embargo, modelizar la dinámica y la respuesta de este tipo de circuitos genéticos resulta un gran reto debido a la fuerte no-linealidad del sistema y a la influencia de factores ambientales, fenómenos que no acaban de ser fielmente capturados por los actuales modelos mecanísticos. En este proyecto, se explora la aplicación de métodos basados en datos, en particular la descomposición en valores singulares (SVD) y su generalización para tensores (HOSVD), sobre un biosensor de naringerina. Por un lado, se analizan datos experimentales reales, identificando las dinámicas dominantes y la influencia de factores ambientales y genéticos en ellas. Por otro, se construye una base de datos más amplia mediante simulaciones, que sirve para comparar las dinámicas del modelo con las reales y para validar la capacidad de este enfoque basado en datos para reconstruir la dinámica del biosensor en condiciones no observadas experimentalmente.
En el marco de la biología sintética, los biosensores se presentan como herramientas fundamentales para la monitorización y regulación celular. Sin embargo, modelizar la dinámica y la respuesta de este tipo de circuitos genéticos resulta un gran reto debido a la fuerte no-linealidad del sistema y a la influencia de factores ambientales, fenómenos que no acaban de ser fielmente capturados por los actuales modelos mecanísticos. En este proyecto, se explora la aplicación de métodos basados en datos, en particular la descomposición en valores singulares (SVD) y su generalización para tensores (HOSVD), sobre un biosensor de naringerina. Por un lado, se analizan datos experimentales reales, identificando las dinámicas dominantes y la influencia de factores ambientales y genéticos en ellas. Por otro, se construye una base de datos más amplia mediante simulaciones, que sirve para comparar las dinámicas del modelo con las reales y para validar la capacidad de este enfoque basado en datos para reconstruir la dinámica del biosensor en condiciones no observadas experimentalmente.
Dirección
Le Clainche Martínez, Soledad (Tutoría)
Le Clainche Martínez, Soledad (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VIAÑO REY, JUAN MANUEL (Presidente/a)
Porter , Jeff (Secretario/a)
Flores Arias, Oscar (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VIAÑO REY, JUAN MANUEL (Presidente/a)
Porter , Jeff (Secretario/a)
Flores Arias, Oscar (Vocal)
Juegos estratégicos: Juegos matriciales y su relación con la programación lineal
Autoría
A.R.O.
Máster Universitario en Técnicas Estadísticas (2ªed)
A.R.O.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.02.2025 11:30
05.02.2025 11:30
Resumen
Este Trabajo Fin de Máster (TFM) explora la teoría de juegos, con énfasis en los juegos estratégicos y los juegos matriciales, y su relación con la programación lineal. La teoría de juegos, una disciplina matemática que modela decisiones estratégicas entre agentes, se analiza aquí desde una perspectiva teórica y práctica, enfocándose en las interacciones competitivas y cooperativas. El estudio se centra en los juegos matriciales, una representación fundamental de los juegos estratégicos, donde las estrategias y los pagos se organizan en forma de matriz. Mediante programación lineal, se abordan problemas de optimización asociados a estos juegos, como encontrar estrategias mixtas óptimas que maximicen las ganancias de los jugadores o minimicen sus pérdidas. El trabajo incluye ejemplos prácticos, destacando la resolución de un juego en forma matricial utilizando el método del simplex, una herramienta poderosa de la programación lineal. Entre los casos estudiados, se analiza un problema real relacionado con decisiones bajo incertidumbre, mostrando cómo la teoría de juegos y la programación lineal ofrecen soluciones eficientes.
Este Trabajo Fin de Máster (TFM) explora la teoría de juegos, con énfasis en los juegos estratégicos y los juegos matriciales, y su relación con la programación lineal. La teoría de juegos, una disciplina matemática que modela decisiones estratégicas entre agentes, se analiza aquí desde una perspectiva teórica y práctica, enfocándose en las interacciones competitivas y cooperativas. El estudio se centra en los juegos matriciales, una representación fundamental de los juegos estratégicos, donde las estrategias y los pagos se organizan en forma de matriz. Mediante programación lineal, se abordan problemas de optimización asociados a estos juegos, como encontrar estrategias mixtas óptimas que maximicen las ganancias de los jugadores o minimicen sus pérdidas. El trabajo incluye ejemplos prácticos, destacando la resolución de un juego en forma matricial utilizando el método del simplex, una herramienta poderosa de la programación lineal. Entre los casos estudiados, se analiza un problema real relacionado con decisiones bajo incertidumbre, mostrando cómo la teoría de juegos y la programación lineal ofrecen soluciones eficientes.
Dirección
GARCIA JURADO, IGNACIO (Tutoría)
GARCIA JURADO, IGNACIO (Tutoría)
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
La estimación no paramétrica de curvas con datos sesgados
Autoría
N.S.M.
Máster Universitario en Técnicas Estadísticas (2ªed)
N.S.M.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.09.2025 13:00
05.09.2025 13:00
Resumen
En términos generales, se asume que una muestra refleja de manera precisa las características fundamentales de la población que representa. Sin embargo, en la práctica, muchas muestras se generan bajo un contexto tal que la probabilidad de incluir una observación en la muestra está condicionada por su valor o por otras variables relevantes, lo que da lugar a lo que se conoce como datos sesgados. El objetivo principal de este trabajo es adaptar las técnicas clásicas de Inferencia Estadística para abordar las complejidades derivadas de los datos sesgados. Se centra especialmente en la estimación de curvas de interés general, como la función de densidad y la función de distribución. Los contenidos teóricos se acompañan de sus correspondientes implementaciones en R. Para ilustrar de manera más específica la aplicación de estas técnicas, se utiliza una base de datos sobre el tamaño de los arbustos de la especie Cercocarpus montanus en una antigua cantera de piedra caliza ubicada al este de Laramie, Wyoming.
En términos generales, se asume que una muestra refleja de manera precisa las características fundamentales de la población que representa. Sin embargo, en la práctica, muchas muestras se generan bajo un contexto tal que la probabilidad de incluir una observación en la muestra está condicionada por su valor o por otras variables relevantes, lo que da lugar a lo que se conoce como datos sesgados. El objetivo principal de este trabajo es adaptar las técnicas clásicas de Inferencia Estadística para abordar las complejidades derivadas de los datos sesgados. Se centra especialmente en la estimación de curvas de interés general, como la función de densidad y la función de distribución. Los contenidos teóricos se acompañan de sus correspondientes implementaciones en R. Para ilustrar de manera más específica la aplicación de estas técnicas, se utiliza una base de datos sobre el tamaño de los arbustos de la especie Cercocarpus montanus en una antigua cantera de piedra caliza ubicada al este de Laramie, Wyoming.
Dirección
BORRAJO GARCIA, MARIA ISABEL (Tutoría)
CONDE AMBOAGE, MERCEDES Cotutoría
BORRAJO GARCIA, MARIA ISABEL (Tutoría)
CONDE AMBOAGE, MERCEDES Cotutoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
Simulación de la dispersión de radón en espacios interiores mediante CFD: validación experimental y estrategias de ventilación
Autoría
J.M.S.P.
Máster Universitario en Matemática Industrial
J.M.S.P.
Máster Universitario en Matemática Industrial
Fecha de la defensa
23.09.2025 11:00
23.09.2025 11:00
Resumen
El radón (radón-222) es un gas radiactivo e inerte que se origina a partir de la desintegración del uranio. Debido al alto contenido de uranio en determinadas regiones españolas, especialmente Galicia y Extremadura, la acumulación de radón en ambientes interiores supone un riesgo significativo para la salud. El radón y sus descendientes se adhieren a las partículas en suspensión en el aire que, al ser inhaladas, pueden adherirse al tejido pulmonar, causando daños moleculares y aumentando sustancialmente el riesgo de cáncer de pulmón, solo por detrás del tabaco como factor causal. Este estudio investiga la dispersión del radón en ambientes interiores utilizando simulaciones de dinámica de fluidos computacional (CFD) junto con mediciones experimentales, con el objetivo de validar el modelo y optimizar las estrategias de ventilación para reducir la exposición. Mostraremos los datos experimentales obtenidos y los ajustes realizados para obtener la tasa de exhalación de radón; la distribución de la concentración de radón en la geometría durante el tiempo de simulación; y gráficos que muestran la disminución de la concentración de radón en función del tiempo.
El radón (radón-222) es un gas radiactivo e inerte que se origina a partir de la desintegración del uranio. Debido al alto contenido de uranio en determinadas regiones españolas, especialmente Galicia y Extremadura, la acumulación de radón en ambientes interiores supone un riesgo significativo para la salud. El radón y sus descendientes se adhieren a las partículas en suspensión en el aire que, al ser inhaladas, pueden adherirse al tejido pulmonar, causando daños moleculares y aumentando sustancialmente el riesgo de cáncer de pulmón, solo por detrás del tabaco como factor causal. Este estudio investiga la dispersión del radón en ambientes interiores utilizando simulaciones de dinámica de fluidos computacional (CFD) junto con mediciones experimentales, con el objetivo de validar el modelo y optimizar las estrategias de ventilación para reducir la exposición. Mostraremos los datos experimentales obtenidos y los ajustes realizados para obtener la tasa de exhalación de radón; la distribución de la concentración de radón en la geometría durante el tiempo de simulación; y gráficos que muestran la disminución de la concentración de radón en función del tiempo.
Dirección
VAZQUEZ CENDON, MARIA ELENA (Tutoría)
VAZQUEZ CENDON, MARIA ELENA (Tutoría)
Tribunal
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VIAÑO REY, JUAN MANUEL (Presidente/a)
Sánchez Sanz, Mario (Secretario/a)
Durany Castrillo, José (Vocal)
VAZQUEZ CENDON, MARIA ELENA (Coordinador)
VIAÑO REY, JUAN MANUEL (Presidente/a)
Sánchez Sanz, Mario (Secretario/a)
Durany Castrillo, José (Vocal)
Estudio econométrico desde un punto de vista social sobre la eficiencia de la gestión del agua en el sector público y privado
Autoría
P.S.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
P.S.G.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.02.2025 09:00
05.02.2025 09:00
Resumen
A lo largo de los años la elección entre una gestión pública y privada de los recursos hídricos fue, y sigue siendo, motivo de debate en muchos países, a pesar de las legislaciones particulares de cada uno. Existiendo argumentos a ambos lados de la discusión, podemos dividirlos en tres categorías fundamentales para elegir qué administración tiene un mejor comportamiento: precio de la tarifa, calidad del agua y eficiencia de la gestión. En este trabajo, haremos un resumen de algunas aportaciones de la literatura existente en este tema, haciendo hincapié en aquellas que basan sus análisis en España, pues serán de ayuda para nuestro caso particular. Además, nos centraremos en la evaluación de la eficiencia entre ambas gestiones, empleando el Análisis Envolvente de Datos. Así, tras una breve descripción de esta técnica y sus principales modelos, la aplicaremos a nuestro caso: una comparación de la eficiencia entre estaciones depuradoras de aguas residuales (EDARs) según sean gestionadas por entidades públicas o por la privada Viaqua Gestión Integral De Aguas De Galicia, S.A.. Una vez aplicados, podremos comparar el funcionamiento de las EDARs en términos de una medida de eficiencia y veremos cuales de las depuradoras tendrán un peor comportamiento. Finalmente, realizando un análisis comparativo combinada con la técnica clúster de análisis multivariante, podremos agrupar las depuradoras en grupos con características similares y estudiar cuales de ellas son puntos de referencia para las demás.
A lo largo de los años la elección entre una gestión pública y privada de los recursos hídricos fue, y sigue siendo, motivo de debate en muchos países, a pesar de las legislaciones particulares de cada uno. Existiendo argumentos a ambos lados de la discusión, podemos dividirlos en tres categorías fundamentales para elegir qué administración tiene un mejor comportamiento: precio de la tarifa, calidad del agua y eficiencia de la gestión. En este trabajo, haremos un resumen de algunas aportaciones de la literatura existente en este tema, haciendo hincapié en aquellas que basan sus análisis en España, pues serán de ayuda para nuestro caso particular. Además, nos centraremos en la evaluación de la eficiencia entre ambas gestiones, empleando el Análisis Envolvente de Datos. Así, tras una breve descripción de esta técnica y sus principales modelos, la aplicaremos a nuestro caso: una comparación de la eficiencia entre estaciones depuradoras de aguas residuales (EDARs) según sean gestionadas por entidades públicas o por la privada Viaqua Gestión Integral De Aguas De Galicia, S.A.. Una vez aplicados, podremos comparar el funcionamiento de las EDARs en términos de una medida de eficiencia y veremos cuales de las depuradoras tendrán un peor comportamiento. Finalmente, realizando un análisis comparativo combinada con la técnica clúster de análisis multivariante, podremos agrupar las depuradoras en grupos con características similares y estudiar cuales de ellas son puntos de referencia para las demás.
Dirección
GINZO VILLAMAYOR, MARIA JOSE (Tutoría)
SAAVEDRA NIEVES, ALEJANDRO Cotutoría
GINZO VILLAMAYOR, MARIA JOSE (Tutoría)
SAAVEDRA NIEVES, ALEJANDRO Cotutoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
El impacto del cambio climático en la demanda del sector retail
Autoría
T.T.
Máster Universitario en Técnicas Estadísticas (2ªed)
T.T.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
05.09.2025 09:30
05.09.2025 09:30
Resumen
El presente Trabajo de Fin de Máster aborda el análisis pormenorizado de las ventas y devoluciones de la entidad colaboradora INDITEX. El estudio cuenta con un exhaustivo análisis exploratorio enfocado en entender la afectación del estado meteorológico en los patrones de consumo de los clientes así como el desarrollo de varios modelos de predicción enfocados a pronosticar el número de unidades vendidas y las devoluciones realizadas.
El presente Trabajo de Fin de Máster aborda el análisis pormenorizado de las ventas y devoluciones de la entidad colaboradora INDITEX. El estudio cuenta con un exhaustivo análisis exploratorio enfocado en entender la afectación del estado meteorológico en los patrones de consumo de los clientes así como el desarrollo de varios modelos de predicción enfocados a pronosticar el número de unidades vendidas y las devoluciones realizadas.
Dirección
AMEIJEIRAS ALONSO, JOSE (Tutoría)
SAAVEDRA NIEVES, PAULA Cotutoría
AMEIJEIRAS ALONSO, JOSE (Tutoría)
SAAVEDRA NIEVES, PAULA Cotutoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Vidal Puga, Juan José (Presidente/a)
Oviedo de la Fuente, Manuel (Secretario/a)
PATEIRO LOPEZ, BEATRIZ (Vocal)
El método de las series de potencias y su implementación en Python con derivación automática
Autoría
P.V.G.
Máster Universitario en Matemáticas
P.V.G.
Máster Universitario en Matemáticas
Fecha de la defensa
18.07.2025 12:20
18.07.2025 12:20
Resumen
En este trabajo profundizamos en los fundamentos teóricos de los conocidos métodos de las series de potencias y de las subsoluciones y sobresoluciones, y los combinamos con diferenciación automática para elaborar dos programas en Python. El primero de ellos permite la construcción del polinomio de Taylor del grado deseado de la solución de un problema de valor inicial asociado a una ecuación diferencial, bajo la hipótesis de que la función dato sea analítica, caso en el cual está garantizado el buen funcionamiento del método de las series de potencias. El segundo de los programas trata con un problema de frontera de tipo Dirichlet asociado a una EDO con función dato continua, y no pretende ya aproximar su solución, sino demostrar su existencia mediante la construcción de una subsolución y una sobresolución para el mismo.
En este trabajo profundizamos en los fundamentos teóricos de los conocidos métodos de las series de potencias y de las subsoluciones y sobresoluciones, y los combinamos con diferenciación automática para elaborar dos programas en Python. El primero de ellos permite la construcción del polinomio de Taylor del grado deseado de la solución de un problema de valor inicial asociado a una ecuación diferencial, bajo la hipótesis de que la función dato sea analítica, caso en el cual está garantizado el buen funcionamiento del método de las series de potencias. El segundo de los programas trata con un problema de frontera de tipo Dirichlet asociado a una EDO con función dato continua, y no pretende ya aproximar su solución, sino demostrar su existencia mediante la construcción de una subsolución y una sobresolución para el mismo.
Dirección
LOPEZ POUSO, RODRIGO (Tutoría)
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER Cotutoría
LOPEZ POUSO, RODRIGO (Tutoría)
FERNANDEZ FERNANDEZ, FRANCISCO JAVIER Cotutoría
Tribunal
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
FERNANDEZ TOJO, FERNANDO ADRIAN (Secretario/a)
GARCIA RIO, EDUARDO (Vocal)
LADRA GONZALEZ, MANUEL EULOGIO (Presidente/a)
FERNANDEZ TOJO, FERNANDO ADRIAN (Secretario/a)
GARCIA RIO, EDUARDO (Vocal)
Problemas de optimización: Machine Learning vs Métodos tradicionales
Autoría
M.V.A.
Máster Universitario en Técnicas Estadísticas (2ªed)
M.V.A.
Máster Universitario en Técnicas Estadísticas (2ªed)
Fecha de la defensa
03.09.2025 13:45
03.09.2025 13:45
Resumen
Desde la consultora SDG se presentó como objetivo de este proyecto la realización de una comparación en términos de eficiencia económica entre dos enfoques distintos a la hora de definir los valores de un modelo MIN y MAX. Todo proceso de gestión de inventario necesita un proceso de predicción de demanda y un proceso de optimización de recursos. El objetivo del presente proyecto es dirimir si el enfoque clásico de predicción de la demanda y optimización posterior es sustancialmente mejor que un nuevo enfoque, que realiza un proceso de optimización de los valores MIN y MAX en el histórico de datos y utiliza estos valores para realizar la predicción.
Desde la consultora SDG se presentó como objetivo de este proyecto la realización de una comparación en términos de eficiencia económica entre dos enfoques distintos a la hora de definir los valores de un modelo MIN y MAX. Todo proceso de gestión de inventario necesita un proceso de predicción de demanda y un proceso de optimización de recursos. El objetivo del presente proyecto es dirimir si el enfoque clásico de predicción de la demanda y optimización posterior es sustancialmente mejor que un nuevo enfoque, que realiza un proceso de optimización de los valores MIN y MAX en el histórico de datos y utiliza estos valores para realizar la predicción.
Dirección
GONZALEZ DIAZ, JULIO (Tutoría)
PATEIRO LOPEZ, BEATRIZ Cotutoría
GONZALEZ DIAZ, JULIO (Tutoría)
PATEIRO LOPEZ, BEATRIZ Cotutoría
Tribunal
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)
AMEIJEIRAS ALONSO, JOSE (Coordinador)
Bergantiños Cid, Gustavo (Presidente/a)
GINZO VILLAMAYOR, MARIA JOSE (Secretario/a)
Darriba López, Diego (Vocal)