Résumé: Este trabajo, de nombre MAGICGrid, se ha llevado a cabo dentro del proyecto MAGIC. Su principal objetivo es la adaptación al entorno Grid de las simulaciones Montecarlo para el telescopio MAGIC, así como la simplificación, de cara al usuario de estas, del proceso de generación de las mismas. El nombre de Monte Carlo fue tomado por un grupo de científicos
en los años cuarenta para designar a un tipo de métodos numéricos basados en el uso de números aleatorios. Actualmente, los métodos de Monte Carlo son ampliamente usados como una clase de algoritmos computacionales para simular el comportamiento de sistemas físicos y matemáticos complejos. Se distinguen de otros métodos de simulación por su índole estocástica, usando en la práctica números pseudo-aleatorios.
Mots-clés: Grid, Telescopio MAGIC, Simulaciones Monte Carlo, Arquitectura Grid
Département: Fac. de Informática - Depto. de Ingeniería de Software e I. A. - Lenguajes y Sistemas Informáticos
CDU: 519.245:519.876.5:004.7
Notes: Master en Investigación en Informática, Facultad de Informática, Departamento de Ingeniería del Software e Inteligencia Artificial , curso 2007-2008
Résumé: Este trabajo describe un algoritmo para estimar parámetros importantes para la gestión de masas forestales, mediante el posicionamiento de los árboles la medición automática de sus dimensiones partiendo de imágenes LiDAR. Este trabajo se basa en estudios previos realizados en Alemania y muestra los problemas que se presentan en la búsqueda de árboles de diferentes tamaños y formas. Con este
algoritmo se pretende mejorar los métodos existentes hasta ahora para este fin. Para llevar a cabo este algoritmo se han usado métodos de clustering y lógica fuzzy. A partir de métodos
de clustering y lógica Fuzzy se decide si un punto pertenece o no a un árbol existente. Finalmente los resultados obtenidos por el algoritmo son satisfactorios para la altura media, mientras que el número de pies por hectárea se sobreestima excesivamente y en consecuencia también la biomasa por hectárea. Estos últimos e pueden mejorar ajustando determinados parámetros. El algoritmo ha sido implementando usando librerías de gvSig y la validación de los resultados obtenidos se ha llevado a cabo con Statgraphics y R.
[ABSTRACT]
This work describes an algorithm to analyze light detection and ranging (LiDAR) datasets with the aim of estimating forest biomass, positioning trees and measuring their heights and crown dimensions. The algorithm is based on previous studies developed in Germany that showed several problems when working with irregularly shaped trees. This algorithm tries to improve existing methods for this purpose. The detection of trees presents numerous challenges that are described in this work. Clustering methods and fuzzy logic have been used to decide whether or not each point stored in the LiDAR dataset belonged to an existing tree. Finally, the results obtained by the algorithm are satisfactory for the average height, while the number of trees per hectare is overestimated and consequently also too biomass per hectare. The last ones can be improved by adjusting certain parameters. The algorithm has been implemented using gvSIG libraries and the evaluation of results has been done by Statgraphics and R.
Département: Fac. de Informática - Depto. de Ingeniería de Software e I. A. - Lenguajes y Sistemas Informáticos
CDU: 004.932(043.3):510.64(043.3)
Notes: Máster en Investigación en Informática, Facultad de Informática, Departamento de Ingeniería del Software e Inteligencia Artificial, curso 2008-2009
Résumé: En la mayoría de los problemas de decisión multicriterio se supone un conocimiento a priori de los criterios. Sin embargo, esta hipótesis no parece ser la más adecuada en diversas situaciones. En esta línea de búsqueda de los criterios subyacentes del decisor, surge el concepto de dimensión inicialmente propuesto por Dushnik y Miller. Sin embargo, este concepto solamente es aplicado
a órdenes parciales. En esta memoria se define un nuevo concepto de dimensión que permitirá la representación de cualquier relación de preferencia no reflexiva, se analizaran propiedades asociadas a este concepto así como algoritmos para su cálculo. Este nuevo concepto de dimensión permite su extensión al contexto difuso permitiendo una representación de cualquier relación de preferencia difusa, sin más que analizar la secuencia de alfa-cortes de dicha relación. El análisis de las relaciones de preferencia permitirá el desarrollo de diversos algoritmos interactivos de clasificación difusa de imágenes digitales obtenidas vía satélite. Se desarrollan algoritmos no supervisados de clasificación desde dos perspectivas diferentes, el conceptó de variacional de un píxel y la coloración de grafos difusos que modelizan la imagen digital.
Éditorial: Universidad Complutense de Madrid, Servicio de Publicaciones
Département: Fac. de CC. Matemáticas - Depto. de Estadística e Investigación Operativa
ISBN: 84-669-1796-9
Notes: Tesis de la Universidad Complutense de Madrid, Facultad de Matemáticas, Departamento de Estadística e Investigación Operativa, leída el 31-01-2003
Résumé: Para un problema de localización en una hipótesis nula puntual se relaciona el p-valor con la probabilidad final de la hipótesis nula, cuando la distribución inicial se escoge convenientemente. Se generalizan estos resultados al caso de distribuciones e-contaminadas.
Département: Fac. de CC. Matemáticas - Depto. de Estadística e Investigación Operativa
ISBN: 84-669-0719-X
Notes: Tesis de la Universidad Complutense de Madrid, Facultad de Ciencias Matemáticas, Departamento de Estadística e Investigación Operativa, leída el 9 de Julio de 1996
Résumé: La tesis se plantea como objetivo principal la caracterización de espacios prehilbert a través de propiedades de localización de centros de Chebishev, de centros de Fermat, de p-centros, o, con más generalidad, de gamma-centros (gamma norma monótona). El punto de partida es una caracterización en términos de centros de Chbyshev que presenta Amir en su libro (Characterizations of Inner Product Spaces, Birkhauser 1986). En la tesis, entre
otras cosas se prueba que la caracterización de Amir es falsa y se dan alterantivas para modificarla de modo que se obtengan caracterizaciones verdaderas. También se plantean y resuelven problemas de Aproximación simultánea en espacios de funciones integrables Bochener. Los pulmones de Aproximación simultánea se consideran tanto desde el punto de vista de Saidi, Hussein y Khalil, como del de Li y Watson.
Résumé: En esta memoria se abordan dos problemas relacionados con la teoría de control de ecuaciones en derivadas parciales.en el primer capitulo se estudia la controlabilidad aproximada de ecuaciones parabólicas semilineales y se obtienen tanto resultados de controlabilidad como contraejemplos. En el segundo se analiza la factorización de una ecuación elíptica lineal y se establece un paralelismo con la factorización lu
Résumé: En este trabajo se presentan algunas propiedades intrínsecas de las soluciones de ecuaciones de la forma ut-h(x,u, u) = 0 en el marco de las soluciones de viscosidad eventualmente discontinuas. Comenzamos presentando algunos modelos que aparecen en las aplicaciones gobernados por ecuaciones de la forma anterior (óptica geométrica, frente de propagación de una llama, problemas de control optimo determinista,...). La memoria,
esencialmente, esta estructurada en tres partes: propiedades intrínsecas. El uso de las soluciones de similaridad, la formula de representación de lax-oleinik, argumentos de convexidad y el teorema de verificación nos permiten obtener propiedades interesantes como la clase de datos iniciales admisibles para el problema de cauchy, la descripción del dato inicial, el horizonte maximal hasta donde están definidas las soluciones, el comportamiento asintótico espacial,... También presentamos resultados de unicidad y regularidad en los cuales van a jugar un papel fundamental la propiedad del cono de dependencia y las estimaciones del gradiente. Otra aportación interesante es el concepto de d+ solución con el cual damos sentido a como, mediante su envuelta semicontinua superior, una función discontinua puede ser la única solución de la ecuación. Propiedad de extinción en tiempo finito. Hacemos un estudio de la ecuación anterior cuando el hamiltoniano h(x,r,p) = h(p) - (r), siendo una función localmente lipschitziana. Bajo la hipótesis de absorción fuerte obtenemos propiedades sobre la función primer instante de extinción, entre las que destacamos: existencia, regularidad, tasa de extinción y comportamiento asintótico. Finalmente, se hace un exhaustivo estudio del comportamiento asintótico temporal de las soluciones
Résumé: Esta Memoria se encuadra dentro del marco Análisis de Datos Simbólicos y de las tecnicas de Segmentación. El análisis de Datos Simbólicos permite la extensión de la Estadística de las intenciones o conceptos, y el paso de la minería de datos simbólicos y a la minería de conocimientos. Se propone una nueva técnica de análisis de Datos simbólicos, el Análisis de Segmentación para datos simbólicos
estratificados. Además del análisis de datos simbólicos, se incorpora la información de los estratos en los algoritmos de Segmentación, alcanzándose el doble objetivo de explicación de una variable clase, de una parte y una clasificación de los estratos por su comportamiento homogéneo en la explicación de la variable clase de otra. Se presenta una formalización generalizada del método en términos de objetos simbólicos que permite el análisis de datos monoevaluados y de diversos tipos de datos simbólicos: modales probabilistas, multievaluados, de intervalo y posibilistas. El método proporciona una descripción por objetos simbólicos de los estratos, como información agregada de los mismos, representando una generalización o intención de los mismos, expresada en términos de reglas de predicción de las clases. El método de Segmentación presentado contribuye al análisis de datos consolidados. La información consolidada y el conocimiento extraído de la misma se expresan por un único formalismo. El marco único de representación de los datos, del árbol y de los estratos mediante datos y objetos simbólicos ha permitido identificarlos tres grandes propósitos de un algoritmo general de análisis de Datos Simbólicos: la organización de los datos, la organización del conocimiento y la extracción de conocimiento a partir de datos y/o conocimiento. Se ha desarrollado un software que permite la utilización del método propuesto y que facilita la investigación futura para la creación de nuevos criterios que mejoren la técnica desarrollada a esta Memoria y la incorporación de otros tipos de datos simbólicos
Éditorial: Universidad Complutense de Madrid, Servicio de Publicaciones
Département: Fac. de CC. Matemáticas - Depto. de Estadística e Investigación Operativa
ISBN: 84-669-1791-8
Notes: Tesis de la Universidad Complutense de Madrid, Facultad de Ciencias Matemáticas, Departamento de Estadística e Investigación Operativa, leída el 27-11-2001