Refine
Year of publication
- 2015 (5) (remove)
Document Type
- Doctoral Thesis (5)
Has Fulltext
- yes (5)
Is part of the Bibliography
- no (5)
Keywords
- Algebra (1)
- Algorithmus (1)
- Assemblierung (1)
- BLAST (1)
- Bernoulli convolution (1)
- Bialgebra (1)
- Darstellung (1)
- Diagnostik (1)
- Dynamical System (1)
- Dynamische Systeme (1)
- Enzym (1)
- Eulerian numbers (1)
- Fock-Raum (1)
- Fraktal (1)
- Funktionalanalysis (1)
- GNS-Konstruktion (1)
- Gewöhnliche Differentialgleichungen (1)
- Graph (1)
- Graphentheorie (1)
- Grenzwertsatz (1)
- Hausdorff-Dimension (1)
- Hierarchie (1)
- Homotopie (1)
- Homotopy methods (1)
- Hopf-Algebra (1)
- Informationsvisualisierung (1)
- Kategorientheorie (1)
- Kotensorfunktor (1)
- Lévy-Prozess (1)
- Mapping (1)
- Metagenomanalyse (1)
- Monoidale Kategorie (1)
- Netzwerk (1)
- Next Generation Sequencing (1)
- Numerische Mathematik (1)
- Optimal control (1)
- Optimalsteuerung (1)
- Pisot-Zahl (1)
- Quanten-Lévy-Prozess (1)
- RIEMS (1)
- Selbstähnlichkeit (1)
- Slice (1)
- Spannender Baum (1)
- Stoffwechselweg (1)
- Taxonomie (1)
- Treemap (1)
- Visualisierung (1)
- beta-representation (1)
- duale Halbgruppe (1)
- fractal (1)
- non-commutative independences (1)
- self-similarity (1)
- universelles Produkt (1)
Institute
- Institut für Mathematik und Informatik (5) (remove)
Today the process of improving technology and software allows to create, save and explore massive data sets in little time. "Big Data" are everywhere such as in social networks, meteorology, customers’ behaviour – and in biology. The Omics research field, standing for the organism-wide data exploration and analysis, is an example of biological research that has to deal with "Big Data" challenges. Possible challenges are for instance effcient storage and cataloguing of the data sets and finally the qualitative analysis and exploration of the information. In the last decade largescale genome-wide association studies and high-throughput techniques became more effcient, more profitable and less expensive. As a consequence of this rapid development, it is easier to gather massive amounts of genomic and proteomic data. However, these data need to get evaluated, analysed and explored. Typical questions that arise in this context include: which genes are active under sever al physical states, which proteins and metabolites are available, which organisms or cell types are similar or different in their enzymes’or genes’ behaviour. For this reason and because a scientist of any "Big Data" research field wants to see the data, there is an increasing need of clear, intuitively understandable and recognizable visualization to explore the data and confirm thesis. One way to get an overview of the data sets is to cluster it. Taxonomic trees and functional classification schemes are hierarchical structures used by biologists to organize the available biological knowledge in a systematic and computer readable way (such as KEGG, GO and FUNCAT). For example, proteins and genes could be clustered according to their function in an organism. These hierarchies tend to be rather complex, and many comprise thousands of biological entities. One approach for a space-filling visualization of these hierarchical structured data sets is a treemap. Existing algorithms for producing treemaps struggle with large data sets and have several other problems. This thesis addresses some of these problems and is structured as follows. After a short review of the basic concepts from graph theory some commonly used types of treemaps and a classification of treemaps according to information visualization aspects is presented in the first chapter of this thesis. The second chapter of this thesis provides several methods to improve treemap constructions. In certain applications the researcher wants to know, how the entities in a hierarchical structure are related to each other (such as enzymes in a metabolic pathway). Therefore in the 3 third chapter of this thesis, the focus is on the construction of a suitable layout overlaying an existing treemap. This gives rise to optimization problems on geometric graphs. In addition, from a practical point of view, options for enhancing the display of the computed layout are explored to help the user perform typical tasks in this context more effciently. One important aspect of the problems on geometric graphs considered in the third chapter of the thesis is that crossings of edges in a network structure are to be minimized while certain other properties such as connectedness are maintained. Motivated by this, in the fourth chapter of this thesis, related combinatorial and computational problems are explored from a more theoretical point of view. In particular some light is shed on properties of crossing-free spanning trees in geometric graphs.
In der Dissertation haben wir uns mit dem numerischen Lösen von unbeschränkten Optimalsteuerungsproblemen beschäftigt. Dabei war das Ziel der Arbeit die Homotopie-Methode von Costanza zu untersuchen, kritisch zu hinterfragen und sie zu erweitern. Dazu haben wir zuerst Optimalsteuerungsprobleme untersucht und Resultate aus der Funktionalanalysis zitiert, die wir benötigen, um notwendige Bedingungen für ein unbeschränktes Optimalsteuerungsproblem herzuleiten. Die zentrale Idee dabei ist, dass wir ein äquivalentes, infinites Optimierungsproblem aufstellen und für dieses die notwendigen Bedingungen herleiten und beweisen. Die erhaltenen Resultate haben wir dann auf unbeschränkte Optimalsteuerungsprobleme übertragen. Ziel des Ansatzes ist es, die unbekannten Anfangs- und Endwerte der Zustände und Adjungierten in Abhängigkeit von frei wählbaren Parametern zu berechnen, so dass nur noch ein reines Anfangs- oder Endwertproblem gelöst werden muss, welches numerisch einfacher zu handhaben ist. Dabei stellte sich im Verlauf der Arbeit heraus, dass Costanzas Ansatz nicht allgemeingültig ist und nur auf spezielle Fälle angewendet werden kann. Wir haben den ursprünglichen Ansatz neu hergeleitet und an den kritischen Stellen angepasst, so dass dieser beispielunabhängig benutzt werden kann. Danach haben wir uns mit der numerische Umsetzung unseres Ansatzes befasst. Zum Lösen der gewöhnlichen Differentialgleichungssysteme mit gegebenen Anfangswerten benutzten wir ein in MATLAB implementiertes, explizites Runge-Kutta-Verfahren mit Schrittweitensteuerung. Ein wichtiger Punkt dabei war die Approximation der Jacobi-Matrix der Zustands- und Adjungiertengleichungen mit Hilfe von Complex step differentiation. Diese liefert schnellere und stabilere Approximationen an die ersten Ableitungen als z.B. der zentrale Differenzenquotient, da bei diesem numerische Auslöschung auftreten kann. Weiterhin haben wir direkte und indirekte Verfahren genannt, die man zum Lösen von Optimalsteuerungsproblemen benutzen kann, um die Genauigkeit unseres Ansatzes zu überprüfen. Im letzten Kapitel haben wir unseren Ansatz an verschiedenen Beispielen getestet. Dabei haben wir zuerst unbeschränkte Optimalsteuerungsprobleme betrachtet, die alle sehr gut gelöst wurden. Dessen numerische Lösung wurde effizient und mit hoher Genauigkeit berechnet. Dies ist insbesondere bemerkenswert, da man mit anderen Ansätzen oft eine gute Startlösung benötigt, damit die jeweiligen Verfahren konvergieren. Abschließend haben wir Beispiele für beschränkte Optimalsteuerungsprobleme betrachtet. Diese haben wir mit unbeschränkten Optimalsteuerungsproblemen approximiert, wobei wir in dem Integranden eine Straffunktion eingeführt haben, die mit dem Parameter S gewichtet wurde. Somit konnten wir unter Anwendung unseres erweiterten Ansatzes die ursprünglichen Probleme gut approximieren und für hinreichend große S waren die Lösungen der unbeschränkten und beschränkten Probleme im numerischen Sinne identisch. Dabei unterschied sich in den Beispielen, wie groß das S gewählt werden muss, um eine gute Näherung zu erhalten.
Jedes Metagenom umfasst die gesamte genomische Information eines kompletten Ökosystems. Die Analyse eines solchen Systems bedarf der Bestimmung aller darin enthaltenen Nukleinsäuren, stellvertretend für den Bauplan eines jeden Organismus, um Kenntnis über die in diesem Ökosystem nachweisbaren Organismen zu erlangen. Ferner bietet die diagnostische Metagenomanalyse eine Möglichkeit zur Identifizierung von sowohl bekannten als auch unbekannten Pathogenen. Zu diesem Zweck wird dem Metagenom eine Probe entnommen, welche einen repräsentativen Ausschnitt aller darin vorliegenden Organismen enthält. Da a priori keine Informationen zu den in der Probe enthaltenen Organismen vorliegen, bedarf es einer ungerichteten Methode zur Bestimmung aller enthaltenen Nukleinsäuren. Eine geeignete Lösung bietet die Sequenzierung. Darin werden alle Moleküle der Ausgangsprobe mit ungefähr gleicher Wahrscheinlichkeit bestimmt und der erzeugte Datensatz, bestehend aus Millionen kleiner Sequenzabschnitte, entspricht einem repräsentativen Querschnitt der in der Probe nachweisbaren Organismen. Die Herausforderung besteht in der Zuordnung einer jeden Sequenz zu ihren Ursprungsorganismen und die Sequenzen zu identifizieren, die mit einem potentiellen Erreger assoziiert werden können. Aktuell herrscht ein Defizit an Werkzeugen, die diese Zuordnung sowohl schnell als auch präzise vornehmen und speziell für die diagnostische Metagenomanalyse konzipiert sind. Zu diesem Zweck wurde im Rahmen dieser Arbeit eine Software-Pipeline mit Namen RIEMS (164) (Reliable Information Extraction from Metagenomic Sequence datasets) entwickelt, die bestehende Software zur Analyse von Sequenzdaten auf eine Weise verknüpft, die deren Stärken ausnutzt und Schwächen eliminiert. RIEMS ist in der Lage mit Hilfe bekannter Alignierungsalgorithmen und dem Abgleich der Sequenzen mit einschlägigen Datenbanken umfangreiche Datensätze schnell zu analysieren und Nukleinsäuresequenzen präzise ihren putativen Ursprungstaxa zuzuordnen (164). Die vorliegende Arbeit verdeutlicht die Effizienz dieses Computerprogramms im Vergleich zu bestehenden Software-Pipelines. Des Weiteren illustriert sie dessen möglichen Einsatz in der Diagnostik zur Pathogenidentifizierung anhand einiger Beispiele. Dabei können nicht nur bekannte Organismen identifiziert werden, sondern auch unbekannte, noch nicht näher beschriebene Organismen detektiert werden.
A slice is an intersection of a hyperplane and a self-similar set. The main purpose of this work is the mathematical description of slices. A suitable tool to describe slices are branching dynamical systems. Such systems are a generalisation of ordinary discrete dynamical systems for multivalued maps. Simple examples are systems arising from Bernoulli convolutions and beta-representations. The connection between orbits of branching dynamical systems and slices is demsonstrated and conditions are derived under which the geometry of a slice can be computed. A number of interesting 2-d and 3-d slices through 3-d and 4-d fractals is discussed.
This thesis revolves around a new concept of independence of algebras. The independence nicely fits into the framework of universal products, which have been introduced to classify independence relations in quantum probability theory; the associated product is called (r,s)-product and depends on two complex parameters r and s. Based on this product, we develop a theory which works without using involutive algebras or states. The following aspects are considered: 1. Classification: Universal products are defined on the free product of algebras (the coproduct in the category of algebras) and model notions of independence in quantum probability theory. We distinguish universal products according to their behaviour on elements of length two, calling them (r,s)-universal products with complex parameters r and s respectively. In case r and s equal 1, Muraki was able to show that there exist exactly five universal products (Muraki’s five). For r equals s nonzero we get five one parameter families (q-Muraki’s five). We prove that in the case r not equal to s the (r,s)-product, a two parameter deformation of the Boolean product, is the only universal product satisfying our set of axioms. The corresponding independence is called (r,s)-independence. 2. Dual pairs and GNS construction: By use of the GNS construction, one can associate a product of representations with every positive universal product. Since the (r,s)-product does not preserve positivity, we need a substitute for the usual GNS construction for states on involutive algebras. In joint work with M. Gerhold, the product of representations associated with the (r,s)-product was determined, whereby we considered representations on dual pairs instead of Hilbert spaces. This product of representations is - as we could show - essentially different from the Boolean product. 3. Reduction and quantum Lévy processes: U. Franz introduced a category theoretical concept which allows a reduction of the Boolean, monotone and antimonotone independence to the tensor independence. This existing reduction could be modified in order to apply to the (r,s)-independence. Quantum Lévy processes with (r,s)-independent increments can, in analogy with the tensor case, be realized as solutions of quantum stochastic differential equations. To prove this theorem, the previously mentioned reduction principle in the sense of U. Franz and a generalization of M. Schürmann’s theory for symmetric Fock spaces over dual pairs are used. As the main result, we obtain the realization of every (r,s)-Lévy process as solution of a quantum stochastic differential equation. When one, more generally, defines Lévy processes in a categorial way using U. Franz’s definition of independence for tensor categories with inclusions, compatibility of the inclusions with the tensor category structure plays an important role. For this thesis such a compatibility condition was formulated and proved to be equivalent to the characterization proposed by M. Gerhold. 4. Limit distributions: We work with so-called dual semigroups in the sense of D. V. Voiculescu (comonoids in the tensor category of algebras with free product). The polynomial algebra with primitive comultiplication is an example for such a dual semigroup. We use a "weakened" reduction which we call reduction of convolution and which essentially consists of a cotensor functor constructed from the symmetric tensor algebra. It turns dual semigroups into commutative bialgebras and also translates the convolution exponentials. This method, which can be nicely described in the categorial language, allows us to formulate central limit theorems for the (r,s)-independence and to calculate the correponding limit distributions (convergence in moments). We calculate the moments appearing in the central limit theorem for the (r,s)-product: The even moments are homogeneous polynomials in r and s with the Eulerian numbers as coefficients; the odd moments vanish. The moment sequence that we get from the central limit theorem for an arbitrary universal product is the moment sequence of a probability measure on the real line if and only if r equals s greater or equal to 1. In this case we present an explicit formula for the probability measure.