Refine
Year of publication
Document Type
- Doctoral Thesis (48)
- Article (10)
Keywords
- - (10)
- Statistik (5)
- Numerische Mathematik (4)
- Optimale Kontrolle (4)
- permutation entropy (4)
- Bioinformatik (3)
- Fraktal (3)
- SelbstÀhnlichkeit (3)
- fractal (3)
- Algebra (2)
- Algorithmus (2)
- Bundle Gerbes (2)
- Fock-Raum (2)
- Funktionalanalysis (2)
- Lévy-Prozess (2)
- Mathematical Physics (2)
- Netzwerk (2)
- Optimale Steuerung (2)
- Robuste Statistik (2)
- autocorrelation (2)
- microarray (2)
- order pattern (2)
- self-similarity (2)
- signal processing (2)
- statistics (2)
- time series (2)
- (generalized) linear mixed model (1)
- (verallgemeinertes) lineares gemischtes Modell (1)
- 1H-NMR (1)
- 33C10 (1)
- 60B15 (1)
- 60H05 (primary) (1)
- <i>A. thaliana</i> (1)
- Abweichung (1)
- Akute lymphatische LeukÀmie (1)
- Algebra Bundles (1)
- Algorithmic Cheminformatics (1)
- Alignment <Biochemie> (1)
- Approximationsalgorithmus (1)
- Assemblierung (1)
- AusreiĂer (1)
- BAYES (1)
- BLAST (1)
- Bernoulli convolution (1)
- Bernoulli convolutions (1)
- Bernoulli-Faltungen (1)
- Bialgebra (1)
- Bioinformatics (1)
- Biomathematik , Bioinformatik (1)
- Blutdruck (1)
- Box-Cox-Transformation (1)
- Box-Cox-transformation (1)
- Brustkrebs (1)
- CRF (1)
- Call Center (1)
- Characteristic Attribute Organization System (1)
- Chromosomenaberration (1)
- Chromosomenanalyse (1)
- Clade Annotation (1)
- Classification (1)
- Clusteranalyse (1)
- Comparative Gene Finding (1)
- Comparative Genomics (1)
- Convergence of Markov chains (1)
- Covid-19 (1)
- DNA taxonomy (1)
- Darbellay-Vajda Partitionsregel (1)
- Darstellung (1)
- Diagnostik (1)
- DichteschÀtzung (1)
- Differentialgleichung (1)
- Diskrete Optimierung (1)
- Dual Decomposition (1)
- Dual Fitting (1)
- Dynamical System (1)
- Dynamische Systeme (1)
- ElastizitÀtstheorie (1)
- Elektrodiagnostik (1)
- Elektroencephalogramm (1)
- Elektrokardiogramm (1)
- Entropie (1)
- Enzym (1)
- Eulerian numbers (1)
- Evolution (1)
- Evolution der Genregulation (1)
- Evolution of Gene Regulation (1)
- Expressionsdaten (1)
- Fehler in Variablen Modellen (1)
- Freies Produkt (1)
- GNS-Konstruktion (1)
- Gammaverteilung (1)
- Ganzzahlige lineare Optimierung (1)
- Gene Structure Prediction (1)
- Genetic Evolution (1)
- Genetische Netzwerke (1)
- Genome Annotation (1)
- Genregulation (1)
- Geometrie (1)
- Geometry (1)
- Germany (1)
- Gewöhnliche Differentialgleichungen (1)
- Graph (1)
- Graph Theory (1)
- Graphentheorie (1)
- Graphenzeichnen (1)
- Grenzwertsatz (1)
- Harn (1)
- Hausdorff-Dimension (1)
- Heart Beat Detection (1)
- HerzfrequenzvariabilitÀt (1)
- Herzschlagerkennung (1)
- Hierarchie (1)
- High-Dimensional Data (1)
- Highest density regions (1)
- Histogramm (1)
- Histogramm-Konstruktion (1)
- Histogramme (1)
- Hoch-dimensionale Daten (1)
- Hochdurchsatz (1)
- Homotopie (1)
- Homotopy methods (1)
- Hopf-Algebra (1)
- Hutchinson Operator (1)
- Hutchinson-Operator (1)
- Hybride stochastische Modelle (1)
- Hybridisierung (1)
- IL-10 (1)
- Infinite Dimensional Geometry (1)
- InformationsabhÀngigkeit (1)
- Informationsvisualisierung (1)
- Innerwurfvarianz (1)
- Integer Linear Program (1)
- InteraktionsflÀche (1)
- Iterated Function System (1)
- Iteriertes Funktionensystem (1)
- Kategorientheorie (1)
- Kernspintomografie (1)
- Klassifikation (1)
- Klimaschwankungen (1)
- Kotensorfunktor (1)
- L1-Regression (1)
- Labelingproblem (1)
- Lagrangian Relaxation (1)
- LeukÀmie (1)
- Level-Set-Methode (1)
- Lie-Algebra (1)
- Likelihood-Quotienten-Test (1)
- Linear Elasticity (1)
- Lineare ElastizitÀtstheorie (1)
- Lévy processes (1)
- Lévy-prozess (1)
- MATLAB (1)
- MCMC (1)
- MRI (1)
- Mahalanobisdistanz (1)
- Mapping (1)
- Markov-Kette (1)
- Maschinelles Lernen (1)
- Mathematical Phylogenetic (1)
- Mathematical Phylogenetics (1)
- Mathematik (1)
- Mathematische Modellierung (1)
- Mathematische Phylogenetik (1)
- Maximumprinzip (1)
- MaĂanalyse (1)
- Medizin (1)
- Metagenomanalyse (1)
- Microarray (1)
- Minkowski-Metrik (1)
- Model selection (1)
- Modellierung (1)
- Monoidale Kategorie (1)
- Mustererkennung (1)
- NGS (1)
- NP-completeness (1)
- NP-vollstÀndiges Problem (1)
- Network (1)
- Next Generation Sequencing (1)
- Nichtkommutative Wahrscheinlichkeit (1)
- Nichtlineare Optimierung (1)
- Nichtlineares dynamisches System (1)
- Niere (1)
- Nilpotente Lie-Algebra (1)
- Normalverteilung (1)
- Optimal Control (1)
- Optimal control (1)
- Optimalsteuerung (1)
- Optimierung (1)
- PD-L1 (1)
- PDE (1)
- PalÀoklimarekonstruktion (1)
- Parameter <Mathematik> (1)
- Permutationsentropie (1)
- Perron-Frobenius theorem (1)
- Photoplethysmogram (1)
- Phylogenetics (1)
- Physiologie (1)
- Pisot-Zahl (1)
- Plethysmogramm (1)
- Podocyte (1)
- Position Specific Scoring Matrix (1)
- Protein (1)
- Proteine (1)
- Proteinwechselwirkungsstelle (1)
- Protonen-NMR-Spektroskopie (1)
- Pseudo-Riemannscher Raum (1)
- Quanten-Lévy-Prozess (1)
- Quantengruppe (1)
- Quantenwahrscheinlichkeitstheorie (1)
- Quantifizierung (1)
- Quasi-Pseudo-Metrik (1)
- RIEMS (1)
- RR Intervals (1)
- RR-AbstÀnde (1)
- Random matrices (1)
- Randomisierung (1)
- Rechenmethoden (1)
- SPecies IDentity and Evolution in R (1)
- Schale (1)
- Schalentheorie (1)
- Scheduling (1)
- Segmentierung (1)
- Self-assembling protein design (1)
- Sequentielle Optimierung (1)
- Shells (1)
- Signal (1)
- Signalanalyse (1)
- Simulation (1)
- Slice (1)
- Spannender Baum (1)
- Spektrum (1)
- Spike and Slab (1)
- Sprungbestrafte SchÀtzer (1)
- Statistics (1)
- Statistische Analyse (1)
- Statistischer Test (1)
- Stetiger Markov-Prozess (1)
- Stoffwechselkrankheit (1)
- Stoffwechselweg (1)
- String Geometry (1)
- StĂŒckweise deterministischer Markov Prozess (1)
- Symplektischer Raum (1)
- System von gewöhnlichen (1)
- Taxonomie (1)
- Tensoralgebra (1)
- Test von zufÀlligen Effekten (1)
- Tollwut (1)
- Transcription Factor Binding Site (1)
- Transfer Operator (1)
- Transfer-Operator (1)
- Transkriptionsfaktorbindestellen (1)
- Translokation (1)
- Treemap (1)
- Twisted K-Theory (1)
- UnabhÀngigkeitanalyse (1)
- Ungewissheit (1)
- Variationsrechnung (1)
- Visualisierung (1)
- Visualization (1)
- Vorhersage (1)
- Zufallsmatrizen (1)
- Zylinderschale (1)
- aging (1)
- beta-representation (1)
- bioinformatics (1)
- biologischer Quellen (1)
- cattle trade (1)
- cell fractionation (1)
- clustering (1)
- concentration coefficient (1)
- conditional random field (1)
- diagnostic (genetic) characters (1)
- drug (1)
- duale Halbgruppe (1)
- epidemic model (1)
- free probability (1)
- gamma distribution (1)
- granuloma (1)
- histogram construction (1)
- histograms (1)
- hybridization (1)
- immunology (1)
- inborn errors of metabolism (1)
- infectious diseases (1)
- integrative taxonomy (1)
- invariant measure (1)
- invariantes MaĂ (1)
- konsistente SchÀtzung (1)
- kw: Graph Theory (1)
- mRNA (1)
- mathematical modeling (1)
- mathematical statistics (1)
- mathematische Statistik (1)
- mixture proposals (1)
- modeling (1)
- modularity (1)
- myeloid-derived suppressor cells (1)
- neighbor map (1)
- network analysis (1)
- nichtparametrische DichteschÀtzung (1)
- non-commutative independences (1)
- nonparametric density estimation (1)
- normal distribution (1)
- oocyte (1)
- ordinal (1)
- ordinal time series (1)
- ordinale Muster (1)
- outlier detection (1)
- parametric bootstrap (1)
- parametrisches Bootstrap (1)
- pattern (1)
- phylogenetic (1)
- pn: Nikolai NĂžjgaard (1)
- probabilistic interface labeling problem (1)
- protein (1)
- proteome (1)
- quantum groups (1)
- quantum probability (1)
- rabies (1)
- randomization (1)
- relative entropy (1)
- reprogramming (1)
- sleep stages (1)
- small molecule (1)
- snoRNAs (1)
- sparsame Darstellung von Daten (1)
- sparse representation of data (1)
- spectrum (1)
- stichprobenabhÀngige Partitionsregel (1)
- stochastic block model (1)
- systems biology (1)
- test of random effects (1)
- tiling, self-similarity, fractal, aperiodic, iterated function system (1)
- tissue specificity (1)
- trans dimensional sampling (1)
- tuberculosis (1)
- universelles Produkt (1)
- virology (1)
- within-litter variation (1)
Institute
- Institut fĂŒr Mathematik und Informatik (58) (remove)
This thesis revolves around a new concept of independence of algebras. The independence nicely fits into the framework of universal products, which have been introduced to classify independence relations in quantum probability theory; the associated product is called (r,s)-product and depends on two complex parameters r and s. Based on this product, we develop a theory which works without using involutive algebras or states. The following aspects are considered: 1. Classification: Universal products are defined on the free product of algebras (the coproduct in the category of algebras) and model notions of independence in quantum probability theory. We distinguish universal products according to their behaviour on elements of length two, calling them (r,s)-universal products with complex parameters r and s respectively. In case r and s equal 1, Muraki was able to show that there exist exactly five universal products (Murakiâs five). For r equals s nonzero we get five one parameter families (q-Murakiâs five). We prove that in the case r not equal to s the (r,s)-product, a two parameter deformation of the Boolean product, is the only universal product satisfying our set of axioms. The corresponding independence is called (r,s)-independence. 2. Dual pairs and GNS construction: By use of the GNS construction, one can associate a product of representations with every positive universal product. Since the (r,s)-product does not preserve positivity, we need a substitute for the usual GNS construction for states on involutive algebras. In joint work with M. Gerhold, the product of representations associated with the (r,s)-product was determined, whereby we considered representations on dual pairs instead of Hilbert spaces. This product of representations is - as we could show - essentially different from the Boolean product. 3. Reduction and quantum LĂ©vy processes: U. Franz introduced a category theoretical concept which allows a reduction of the Boolean, monotone and antimonotone independence to the tensor independence. This existing reduction could be modified in order to apply to the (r,s)-independence. Quantum LĂ©vy processes with (r,s)-independent increments can, in analogy with the tensor case, be realized as solutions of quantum stochastic differential equations. To prove this theorem, the previously mentioned reduction principle in the sense of U. Franz and a generalization of M. SchĂŒrmannâs theory for symmetric Fock spaces over dual pairs are used. As the main result, we obtain the realization of every (r,s)-LĂ©vy process as solution of a quantum stochastic differential equation. When one, more generally, defines LĂ©vy processes in a categorial way using U. Franzâs definition of independence for tensor categories with inclusions, compatibility of the inclusions with the tensor category structure plays an important role. For this thesis such a compatibility condition was formulated and proved to be equivalent to the characterization proposed by M. Gerhold. 4. Limit distributions: We work with so-called dual semigroups in the sense of D. V. Voiculescu (comonoids in the tensor category of algebras with free product). The polynomial algebra with primitive comultiplication is an example for such a dual semigroup. We use a "weakened" reduction which we call reduction of convolution and which essentially consists of a cotensor functor constructed from the symmetric tensor algebra. It turns dual semigroups into commutative bialgebras and also translates the convolution exponentials. This method, which can be nicely described in the categorial language, allows us to formulate central limit theorems for the (r,s)-independence and to calculate the correponding limit distributions (convergence in moments). We calculate the moments appearing in the central limit theorem for the (r,s)-product: The even moments are homogeneous polynomials in r and s with the Eulerian numbers as coefficients; the odd moments vanish. The moment sequence that we get from the central limit theorem for an arbitrary universal product is the moment sequence of a probability measure on the real line if and only if r equals s greater or equal to 1. In this case we present an explicit formula for the probability measure.
We consider Iterated Function Systems (IFS) on the real line and on the complex plane. Every IFS defines a self-similar measure supported on a self-similar set. We study the transfer operator (which acts on the space of continuous functions on the self-similar set) and the Hutchinson operator (which acts on the space of Borel regular measures on the self-similar set). We show that the transfer operator has an infinitely countable set of polynomial eigenfunctions. These eigenfunctions can be regarded as generalized Bernoulli polynomials. The polynomial eigenfuctions define a polynomial approximation of the self-similar measure. We also study the moments of the self-similar measure and give recursions for computing them. Further, we develop a numerical method based on Markov chains to study the spectrum of the Hutchinson and transfer operators. This method provides numerical approximations of the invariant measure for which we give error bounds in terms of the Wasserstein-distance. The standard example in this thesis is the parametric family of Bernoulli convolutions.
Self-affine tiles and fractals are known as examples in analysis and topology, as models of quasicrystals and biological growth, as unit intervals of generalized number systems, and as attractors of dynamical systems. The author has implemented a software which can find new examples and handle big databases of self-affine fractals. This thesis establishes the algebraic foundation of the algorithms of the IFStile package. Lifting and projection of algebraic and rational iterated function systems and many properties of the resulting attractors are discussed.
In phylogenetics, evolutionary relationships of different species are represented by phylogenetic trees.
In this thesis, we are mainly concerned with the reconstruction of ancestral sequences and the accuracy of this reconstruction given a rooted binary phylogenetic tree.
For example, we wish to estimate the DNA sequences of the ancestors given the observed DNA sequences of today living species.
In particular, we are interested in reconstructing the DNA sequence of the last common ancestor of all species under consideration. Note that this last common ancestor corresponds to the root of the tree.
There exist various methods for the reconstruction of ancestral sequences.
A widely used principle for ancestral sequence reconstruction is the principle of parsimony (Maximum Parsimony).
This principle means that the simplest explanation it the best.
Applied to the reconstruction of ancestral sequences this means that a sequence which requires the fewest evolutionary changes along the tree is reconstructed.
Thus, the number of changes is minimized, which explains the name of Maximum Parsimony.
Instead of estimating a whole DNA sequence, Maximum Parsimony considers each position in the sequence separately. Thus in the following, each sequence position is regarded separately, and we call a single position in a sequence state.
It can happen that the state of the last common ancestor is reconstructed unambiguously, for example as A. On the other hand, Maximum Parsimony might be indecisive between two DNA nucleotides, say for example A and C.
In this case, the last common ancestor will be reconstructed as {A,C}.
Therefore we consider, after an introduction and some preliminary definitions, the following question in Section 3: how many present-day species need to be in a certain state, for example A, such that the Maximum Parsimony estimate of the last common ancestor is also {A}?
The answer of this question depends on the tree topology as well as on the number of different states.
In Section 4, we provide a sufficient condition for Maximum Parsimony to recover the ancestral state at the root correctly from the observed states at the leaves.
The so-called reconstruction accuracy for the reconstruction of ancestral states is introduced in Section 5. The reconstruction accuracy is the probability that the true root state is indeed reconstructed and always takes two processes into account: on the one hand the approach to reconstruct ancestral states, and on the other hand the way how the states evolve along the edges of the tree. The latter is given by an evolutionary model.
In the present thesis, we focus on a simple symmetric model, the Neyman model.
The symmetry of the model means for example that a change from A to C is equally likely than a change from C to A.
Intuitively, one could expect that the reconstruction accuracy it the highest when all present-day species are taken into account. However, it has long been known that the reconstruction accuracy improves when some taxa are disregarded for the estimation.
Therefore, the question if there exits at least a lower bound for the reconstruction accuracy arises, i.e. if it is best to consider all today living species instead of just one for the reconstruction.
This is bad news for Maximum Parsimony as a criterion for ancestral state reconstruction, and therefore the question if there exists at least a lower bound for the reconstruction accuracy arises.
In Section 5, we start with considering ultrametric trees, which are trees where the expected number of substitutions from the root to each leaf is the same.
For such trees, we investigate a lower bound for the reconstruction accuracy, when the number of different states at the leaves of the tree is 3 or 4.
Subsequently in Section 6, in order to generalize this result, we introduce a new method for ancestral state reconstruction: the coin-toss method.
We obtain new results for the reconstruction accuracy of Maximum Parsimony by relating Maximum Parsimony to the coin-toss method.
Some of these results do not require the underlying tree to be ultrametric.
Then, in Section 7 we investigate the influence of specific tree topologies on the reconstruction accuracy of Maximum Parsimony. In particular, we consider balanced and imbalanced trees as the balance of a tree may have an influence on the reconstruction accuracy.
We end by introducing the Colless index in Section 8, an index which measures the degree of balance a rooted binary tree can have, and analyze its extremal properties.
Betrachtet werden Optimalsteuerungsaufgaben der dreidimensionalen Fischpopulationsmodelle. Solche Modelle gehören zu der Klasse der sogenannten Lotka-Volterra-Modelle. Fischerei-Probleme mit Steuerungen werden fĂŒr Steuerungsfunktionen verschiedener Klassen gelöst. Der Schwerpunkt der Arbeit liegt auf den notwendigen OptimalitĂ€tsbedingungen, die mit Hilfe des Bellman-Prinzips hergeleitet werden.
Approaches to the Analysis of Proteomics and Transcriptomics Data based on Statistical Methodology
(2014)
Recent developments in genomics and molecular biology led to the generation of an enormous amount of complex data of different origin. This is demonstrated by a number of published results from microarray experiments in Gene Expression Omnibus. The number was growing in exponential pace over the last decade. The challenge of interpreting these vast amounts of data from different technologies led to the development of new methods in the fields of computational biology and bioinformatics. Researchers often want to represent biological phenomena in the most detailed and comprehensive way. However, due to the technological limitations and other factors like limited resources this is not always possible. On one hand, more detailed and comprehensive research generates data of high complexity that is very often difficult to approach analytically, however, giving bioinformatics a chance to draw more precise and deeper conclusions. On the other hand, for low-complexity tasks the data distribution is known and we can fit a mathematical model. Then, to infer from this mathematical model, researchers can use well-known and standard methodologies. In return for using standard methodologies, the biological questions we are answering might not be unveiling the whole complexity of the biological meaning. Nowadays it is a standard that a biological study involves generation of large amounts of data that needs to be analyzed with a statistical inference. Sometimes data challenge researchers with low complexity task that can be performed with standard and popular methodologies as in Proteomic analysis of mouse oocytes reveals 28 candidate factors of the "reprogrammome". There, we established a protocol for proteomics data that involves preprocessing of the raw data and conducting Gene Ontology overrepresentation analysis utilizing hypergeometric distribution. In cases, where the data complexity is high and there are no published frameworks a researcher could follow, randomization can be an approach to exploit. In two studies by The mouse oocyte proteome escapes maternal aging and CellFateScout - a bioinformatics tool for elucidating small molecule signaling pathways that drive cells in a specific direction we showed how randomization can be performed for distinct complex tasks. In The mouse oocyte proteome escapes maternal aging we constructed a random sample of semantic similarity score between oocyte transcriptome and random transcriptome subset of oocyte proteome size. Therefore, we could calculate whether the proteome is representative of the trancriptome. Further, we established a novel framework for Gene Ontology overrepresentation that involves randomization testing. Every Gene Ontology term is tested whether randomly reassigning all gene labels of belonging to or not belonging to this term will decrease the overall expression level in this term. In CellFateScout - a bioinformatics tool for elucidating small molecule signaling pathways that drive cells in a specific direction we validated CellFateScout against other well-known bioinformatics tools. We stated the question whether our plugin is able to predict small molecule effects better in terms of expression signatures. For this, we constructed a protocol that uses randomization testing. We assess here if the small molecule effect described as a (set of) active signaling pathways, as detected by our plugin or other bioinformatics tools, is significantly closer to known small molecule targets than a random path.
In this thesis, we elaborate upon Bayesian changepoint analysis, whereby our focus is on three big topics: approximate sampling via MCMC, exact inference and uncertainty quantification. Besides, modeling matters are discussed in an ongoing fashion. Our findings are underpinned through several changepoint examples with a focus on a well-log drilling data.
A slice is an intersection of a hyperplane and a self-similar set. The main purpose of this work is the mathematical description of slices. A suitable tool to describe slices are branching dynamical systems. Such systems are a generalisation of ordinary discrete dynamical systems for multivalued maps. Simple examples are systems arising from Bernoulli convolutions and beta-representations. The connection between orbits of branching dynamical systems and slices is demsonstrated and conditions are derived under which the geometry of a slice can be computed. A number of interesting 2-d and 3-d slices through 3-d and 4-d fractals is discussed.
We present classical and hybrid modeling approaches for genetic regulatory networks focusing on promoter analysis for negatively and positively autoregulated networks. The main aim of this thesis is to introduce an alternative mathematical approach to model gene regulatory networks based on piecewise deterministic Markov processes (PDMP). During somitogenesis, a process describing the early segmentation in vertebrates, molecular oscillators play a crucial role as part of a segmentation clock. In mice, these oscillators are called Hes1 and Hes7 and are commonly modeled by a system of two delay differential equations including a Hill function, which describes gene repression by their own gene products. The Hill coefficient, which is a measure of nonlinearity of the binding processes in the promoter, is assumed to be equal to two, based on the fact that Hes1 and Hes7 form dimers.However, by standard arguments applied to binding analysis, we show that a higher Hill coefficient is reasonable. This leads to results different from those in literature which requires a more sophisticated model. For the Hes7 oscillator we present a system of ordinary differential equations including a Michaelis-Menten term describing a nonlinear degradation of the proteins by the ubiquitinpathway. As demonstrated by the Hes1 and Hes7 oscillator, promoter behavior can have strong influence on the dynamical behavior of genetic networks. Since purely deterministic systems cannot reveal phenomenons caused by the inherent random fluctuations, we propose a novel approach based on PDMPs. Such models allow to model binding processes of transcription factors to binding sites in a promoter as random processes, where all other processes like synthesis, degradation or dimerization of the gene products are modeled in deterministic manner. We present and discuss a simulation algorithm for PDMPs and apply it to three types of genetic networks: an unregulated gene, a toggle switch, and a positively autoregulated network. The different regulation characteristics are analyzed and compared by numerical means. Furthermore, we determine analytical solutions of the stationary distributions of one negatively, and three positively autoregulated networks. Based on these results, we analyze attenuation of noise in a negative feedback loop, and the question of graded or binary response in autocatalytic networks.
The goal of this doctoral thesis is to create and to implement methods for fully automatic segmentation applications in magnetic resonance images and datasets. The work introduces into technical and physical backgrounds of magnetic resonance imaging (MRI) and summarizes essential segmentation challenges in MRI data including technical malfunctions and ill-posedness of inverse segmentation problems. Theoretical background knowledge of all the used methods that are adapted and extended to combine them for problem-specific segmentation applications are explained in more detail. The first application for the implemented solutions in this work deals with two-dimensional tissue segmentation of atherosclerotic plaques in cardiological MRI data. The main part of segmentation solutions is designed for fully automatic liver and kidney parenchyma segmentation in three-dimensional MRI datasets to ensure computer-assisted organ volumetry in epidemiological studies. The results for every application are listed, described and discussed before important conclusions are drawn. Among several applied methods, the level set method is the main focus of this work and is used as central segmentation concept in the most applications. Thus, its possibilities and limitations for MRI data segmentation are analyzed. The level set method is extended by several new ideas to overcome possible limitations and it is combined as important part of modularized frameworks. Additionally, a new approach for probability map generation is presented in this thesis, which reduces data dimensionality of multiple MR-weightings and incorporates organ position probabilities in a probabilistic framework. It is shown, that essential organ features (i.e. MR-intensity distributions, locations) can be well represented in the calculated probability maps. Since MRI data are produced by using multiple MR- weightings, the used dimensionality reduction technique is very helpful to generate a single probability map, which can be used for further segmentation steps in a modularized framework.
Die vorliegende Arbeit beschĂ€ftigt sich mit der numerischen Lösung von Optimalsteuerungsproblemen. Dazu wird das Maximumprinzip verwendet, dessen Anwendung auf ein Mehrpunktrandwertproblem fĂŒhrt. Die Aufgabe bestand nun darin, ein Programmpaket zu entwickeln, mit dem solche Mehrpunktrandwertprobleme mit der Mehrzielmethode numerisch gelöst werden können. Dabei wurden verschiedene Anforderungen an das zu entwickelnde Programm gestellt, die bereits existierende Programmpakete nicht oder nur eingeschrĂ€nkt erfĂŒllen. Die Bedienung soll durch die Verwendung einer grafischen OberflĂ€che intuitiver und komfortabler gestaltet werden. Ein weiteres Ziel besteht in der ProblemunabhĂ€ngigkeit des Quellcodes, sodass der Quellcode unangetastet bleiben kann. AuĂerdem sollen fĂŒr die Benutzung des Programms keine Programmierkenntnisse notwendig sein. Der Funktionsumfang soll im Vergleich zu bestehenden Implementierungen erweitert werden, um die Möglichkeiten der Mehrzielmethode besser ausnutzen sowie die Methoden an das jeweilige zu lösende Problem anpassen zu können. ZunĂ€chst werden theoretische Grundlagen der optimalen Steuerung und des Maximumprinzips beschrieben. Die Mehrzielmethode wird vorgestellt und erweitert, sodass mit dieser auch Mehrpunktrandwertprobleme gelöst werden können. Ferner wird auf die Umsetzung der weiteren verwendeten mathematischen Methoden eingegangen. Dazu gehören das Newtonverfahren inklusive DĂ€mpfung und Broydenupdate, verschiedenene Anfangswertproblemlöser (Dormand-Prince- und Rosenbrock-Typ-Verfahren) und die SingulĂ€rwertzerlegung, mit der die linearen Gleichungsssysteme gelöst werden. AuĂerdem werden die Komponenten und Funktionen des Programmpakets beschrieben, beispielsweise die Entwicklung der grafischen OberflĂ€che. Um das Einlesen der Daten eines Optimalsteuerungsproblems aus der grafischen OberflĂ€che in das Programm zu ermöglichen, wurde ein Parser verwendet. Die Software enthĂ€lt Funktionen zur Erstellung von Plots und dem Export von Problemdaten in ein PDF-Dokument. Des Weiteren wird beschrieben, inwieweit die implementierten Verfahren an die Anforderungen eines spezifischen Optimalsteuerungsproblems angepasst werden können. AbschlieĂend werden vier in ihrer Gestalt und ihrem Schwierigkeitsgrad sehr verschiedene Optimalsteuerungsprobleme beispielhaft gelöst. Dazu gehören beispielsweise das als Optimalsteuerungsproblem formulierte Brachistochrone- sowie das Min-Energy-Problem. Anhand der Lösung des Rayleigh-Problems wird gezeigt, wie man die zur VerfĂŒgung gestellten Optionen des Programmpakets sinnvoll nutzen kann, um eine Lösung zu bestimmen, die ein aussichtsreicher Kandidat fĂŒr eine optimale Lösung ist. AbschlieĂend wird ein Wiedereintrittsproblem einer Raumkapsel in die Erdumlaufbahn betrachtet, welches eine besondere Herausforderung darstellt, da das Differenzialgleichungssystem sehr empfindlich reagiert und Lösungen nur fĂŒr einen kleinen Bereich von Startwerten existieren.
Background: Computational tools for the investigation of transcriptional regulation, in particular of transcription factor binding sites (TFBS), in evolutionary context are developed. Existing sequence based tools prediction such binding sites do not consider their actual functionality, although it is known that besides the base sequence many other aspects are relevant for binding and for the effects of that binding. In particular in Eukaryotes a perfectly matching sequence motif is neither necessary nor sufficient for a functional transcription factor binding site. Published work in the field of transcriptional regulation frequently focus on the prediction of putative transcription factor binding sites based on sequence similarity to known binding sites. Furthermore, among the related software, only a small number implements visualization of the evolution of transcription factor binding sites or the integration of other regulation related data. The interface of many tools is made for computer scientists, although the actual interpretation of their outcome needs profound biological background knowledge. Results and Discussion: The tool presented in this thesis, "ReXSpecies" is a web application. Therefore, it is ready to use for the end user without installation providing a graphical user interface. Besides extensive automation of analyses of transcriptional regulation (the only necessary input are the genomic coordinates of a regulatory region), new techniques to visualize the evolution of transcription factor binding sites were developed. Furthermore, an interface to genome browsers was implemented to enable scientists to comprehensively analyze their regulatory regions with respect to other regulation relevant data. ReXSpecies contains a novel algorithm that searches for evolutionary conserved patterns of transcription factor binding sites, which could imply functionality. Such patterns were verified using some known transcription factor binding sites of genes involved in pluripotency. In the appendix, efficiency and correctness of the used algorithm are discussed. Furthermore, a novel algorithm to color phylogenetic trees intuitively is presented. In the thesis, new possibilities to render evolutionary conserved sets of transcription factor binding sites are developed. The thesis also discusses the evolutionary conservation of regulation and its context dependency. An important source of errors in the analysis of regulatory regions using comparative genetics is probably to find and to align homologous regulatory regions. Some alternatives to using sequence similarity alone are discussed. Outlook: Other possibilities to find (functional) homologous regulatory regions (besides whole-genome-alignments currently used) are BLAST searches, local alignments, homology databases and alignment-free approaches. Using one ore more of these alternatives could reduce the number of artifacts by reduction of the number of regions that are erroneously declared homologous. To achieve more robust predictions of transcription, the author suggests to use other regulation related data besides sequence data only. Therefore, the use and extension of existing tools, in particular of systems biology, is proposed.
Twisted topological K-theory is a twisted version of topological K-theory in the sense of twisted generalized cohomology theories. It was pioneered by Donavan and Karoubi in 1970 where they used bundles of central simple graded algebras to model twists of K-theory. By the end of the last century physicists realised that D-brane charges in the field of string theory may be studied in terms of twisted K-theory. This rekindled interest in the topic lead to a wave of new models for the twists and new ways to realize the respective twisted K-theory groups. The state-of-the-art models today use bundles of projective unitary operators on separable Hilbert spaces as twists and K-groups are modeled by homotopy classes of sections of certain bundles of Fredholm operators. From a physics perspective these treatments are not optimal yet: they are intrinsically infinite-dimensional and these models do not immediately allow the inclusion of differential data like forms and connections.
In this thesis we introduce the 2-stack of k-algebra gerbes. Objects, 1-morphisms and 2-morphisms consist of finite-dimensional geometric data simultaneously generalizing bundle gerbes and bundles of central simple graded k-algebras for k either the field of real numbers or the field of complex numbers. We construct an explicit isomorphism from equivalence classes of k-algebra gerbes over a space X to the full set of twists of real K-theory and complex K-theory respectively. Further, we model relative twisted K-groups for compact spaces X and closed subspaces Y twisted by algebra gerbes. These groups are modeled directly in terms of 1-morphisms and 2-morphisms of algebra gerbes over X. We exhibit a relation to the K-groups introduced by Donavan and Karoubi and we translate their fundamental isomorphism -- an isomorphism relating K-groups over Thom spaces with K-groups twisted by Clifford algebra bundles -- to the new setting. With the help of this fundamental isomorphism we construct an explicit Thom isomorphism and explicit pushforward homomorphisms for smooth maps between compact manifolds, without requiring these maps to be K-oriented. Further -- in order to treat K-groups for non-torsion twists -- we implement a geometric cocycle model, inspired by a related geometric cycle model developed by Baum and Douglas for K-homology in 1982, and construct an assembly map for this model.
A common task in natural sciences is to
describe, characterize, and infer relations between discrete
objects. A set of relations E on a set of objects V can
naturally be expressed as a graph G = (V, E). It is
therefore often convenient to formalize problems in natural
sciences as graph theoretical problems.
In this thesis we will examine a number of problems found in
life sciences in particular, and show how to use graph theoretical
concepts to formalize and solve the presented problems. The
content of the thesis is a collection of papers all
solving separate problems that are relevant to biology
or biochemistry.
The first paper examines problems found in self-assembling
protein design. Designing polypeptides, composed of concatenated
coiled coil units, to fold into polyhedra turns out
to be intimately related to the concept of 1-face embeddings in
graph topology. We show that 1-face embeddings can be
canonicalized in linear time and present algorithms to enumerate
pairwise non-isomorphic 1-face embeddings in orientable surfaces.
The second and third paper examine problems found in evolutionary
biology. In particular, they focus on
inferring gene and species trees directly from sequence data
without any a priori knowledge of the trees topology. The second
paper characterize when gene trees can be inferred from
estimates of orthology, paralogy and xenology relations when only
partial information is available. Using this characterization an
algorithm is presented that constructs a gene tree consistent
with the estimates in polynomial time, if one exists. The
shown algorithm is used to experimentally show that gene trees
can be accurately inferred even in the case that only 20$\%$ of
the relations are known. The third paper explores how to
reconcile a gene tree with a species tree in a biologically
feasible way, when the events of the gene tree are known.
Biologically feasible reconciliations are characterized using
only the topology of the gene and species tree. Using this
characterization an algorithm is shown that constructs a
biologically feasible reconciliation in polynomial time, if one
exists.
The fourth and fifth paper are concerned with with the analysis
of automatically generated reaction networks. The fourth paper
introduces an algorithm to predict thermodynamic properties of
compounds in a chemistry. The algorithm is based on
the well known group contribution methods and will automatically
infer functional groups based on common structural motifs found
in a set of sampled compounds. It is shown experimentally that
the algorithm can be used to accurately
predict a variety of molecular properties such as normal boiling
point, Gibbs free energy, and the minimum free energy of RNA
secondary structures. The fifth and final paper presents a
framework to track atoms through reaction networks generated by a
graph grammar. Using concepts found in semigroup theory, the
paper defines the characteristic monoid of a reaction network. It
goes on to show how natural subsystems of a reaction network organically
emerge from the right Cayley graph of said monoid. The
applicability of the framework is proven by applying it to the
design of isotopic labeling experiments as well as to the
analysis of the TCA cycle.
In the PhD-thesis a conditional random field approach and its implementation is presented to predict the interaction sites of protein homo- and heterodimers using the spatial structure of one protein partner from a complex. The method includes a substantially simple edge feature model. A novel node feature class is introduced that is called -change in free energy-. The Online Large-Margin algorithm is adapted in order to train the model parameters given a classified reference set of proteins. A significantly higher prediction accuracy is achieved by combining our new node feature class with the standard node feature class relative accessible surface area. The quality of the predictions is measured by computing the area under the receiver operating characteristic.
Trade of cattle between farms forms a complex trade network. We investigate partitions of this network for cattle trade in Germany. These partitions are groups of farms with similar properties and they are inferred directly from the trade pattern between farms. We make use of a rather new method known as stochastic block modeling (SBM) in order to divide the network into smaller units. SBM turns out to outperform the more established community detection method in the context of disease control in terms of trade restriction. Moreover, SBM is also superior to geographical based trade restrictions and could be a promising approach for disease control.
In der Dissertation haben wir uns mit dem numerischen Lösen von unbeschrĂ€nkten Optimalsteuerungsproblemen beschĂ€ftigt. Dabei war das Ziel der Arbeit die Homotopie-Methode von Costanza zu untersuchen, kritisch zu hinterfragen und sie zu erweitern. Dazu haben wir zuerst Optimalsteuerungsprobleme untersucht und Resultate aus der Funktionalanalysis zitiert, die wir benötigen, um notwendige Bedingungen fĂŒr ein unbeschrĂ€nktes Optimalsteuerungsproblem herzuleiten. Die zentrale Idee dabei ist, dass wir ein Ă€quivalentes, infinites Optimierungsproblem aufstellen und fĂŒr dieses die notwendigen Bedingungen herleiten und beweisen. Die erhaltenen Resultate haben wir dann auf unbeschrĂ€nkte Optimalsteuerungsprobleme ĂŒbertragen. Ziel des Ansatzes ist es, die unbekannten Anfangs- und Endwerte der ZustĂ€nde und Adjungierten in AbhĂ€ngigkeit von frei wĂ€hlbaren Parametern zu berechnen, so dass nur noch ein reines Anfangs- oder Endwertproblem gelöst werden muss, welches numerisch einfacher zu handhaben ist. Dabei stellte sich im Verlauf der Arbeit heraus, dass Costanzas Ansatz nicht allgemeingĂŒltig ist und nur auf spezielle FĂ€lle angewendet werden kann. Wir haben den ursprĂŒnglichen Ansatz neu hergeleitet und an den kritischen Stellen angepasst, so dass dieser beispielunabhĂ€ngig benutzt werden kann. Danach haben wir uns mit der numerische Umsetzung unseres Ansatzes befasst. Zum Lösen der gewöhnlichen Differentialgleichungssysteme mit gegebenen Anfangswerten benutzten wir ein in MATLAB implementiertes, explizites Runge-Kutta-Verfahren mit Schrittweitensteuerung. Ein wichtiger Punkt dabei war die Approximation der Jacobi-Matrix der Zustands- und Adjungiertengleichungen mit Hilfe von Complex step differentiation. Diese liefert schnellere und stabilere Approximationen an die ersten Ableitungen als z.B. der zentrale Differenzenquotient, da bei diesem numerische Auslöschung auftreten kann. Weiterhin haben wir direkte und indirekte Verfahren genannt, die man zum Lösen von Optimalsteuerungsproblemen benutzen kann, um die Genauigkeit unseres Ansatzes zu ĂŒberprĂŒfen. Im letzten Kapitel haben wir unseren Ansatz an verschiedenen Beispielen getestet. Dabei haben wir zuerst unbeschrĂ€nkte Optimalsteuerungsprobleme betrachtet, die alle sehr gut gelöst wurden. Dessen numerische Lösung wurde effizient und mit hoher Genauigkeit berechnet. Dies ist insbesondere bemerkenswert, da man mit anderen AnsĂ€tzen oft eine gute Startlösung benötigt, damit die jeweiligen Verfahren konvergieren. AbschlieĂend haben wir Beispiele fĂŒr beschrĂ€nkte Optimalsteuerungsprobleme betrachtet. Diese haben wir mit unbeschrĂ€nkten Optimalsteuerungsproblemen approximiert, wobei wir in dem Integranden eine Straffunktion eingefĂŒhrt haben, die mit dem Parameter S gewichtet wurde. Somit konnten wir unter Anwendung unseres erweiterten Ansatzes die ursprĂŒnglichen Probleme gut approximieren und fĂŒr hinreichend groĂe S waren die Lösungen der unbeschrĂ€nkten und beschrĂ€nkten Probleme im numerischen Sinne identisch. Dabei unterschied sich in den Beispielen, wie groĂ das S gewĂ€hlt werden muss, um eine gute NĂ€herung zu erhalten.
Tuberculosis (TB) has tremendous public health relevance. It most frequently affects the lung and is characterized by the development of unique tissue lesions, termed granulomas. These lesions encompass various immune populations, with macrophages being most extensively investigated. Myeloid derived suppressor cells (MDSCs) have been recently identified in TB patients, both in the circulation and at the site of infection, however their interactions with Mycobacterium tuberculosis (Mtb) and their impact on granulomas remain undefined. We generated human monocytic MDSCs and observed that their suppressive capacities are retained upon Mtb infection. We employed an in vitro granuloma model, which mimics human TB lesions to some extent, with the aim of analyzing the roles of MDSCs within granulomas. MDSCs altered the structure of and affected bacterial containment within granuloma-like structures. These effects were partly controlled through highly abundant secreted IL-10. Compared to macrophages, MDSCs activated primarily the NF-ÎșB and MAPK pathways and the latter largely contributed to the release of IL-10 and replication of bacteria within in vitro generated granulomas. Moreover, MDSCs upregulated PD-L1 and suppressed proliferation of lymphocytes, albeit with negligible effects on Mtb replication. Further comprehensive characterization of MDSCs in TB will contribute to a better understanding of disease pathogenesis and facilitate the design of novel immune-based interventions for this deadly infection.
Maligne Erkrankungen zeigen oft charakteristische genetische VerĂ€nderungen. Das Auffinden derartiger VerĂ€nderungen wurde in den letzten Jahren durch verfeinerte molekulare Techniken erleichtert. Viele genetische Ereignisse in den maligne transformierten Zellen sind jedoch noch ungeklĂ€rt. Die prĂ€zise Bestimmung der Bruchpunktregionen chromosomaler VerĂ€nderungen bei T-Zell akuten lymphatischen LeukĂ€mien ist Inhalt dieser Arbeit. Hierzu wurde die âFine Tiling-Comparative Genomhybridisierungâ (FT-CGH) mit der âLigation mediated-PCRâ (LM-PCR) kombiniert. Diese Methoden wurden zunĂ€chst an Zelllinien etabliert und anschlieĂend in verschiedenen LeukĂ€mieproben eingesetzt. Chromosomale Aberrationen gehen hĂ€ufig mit Verlust oder Gewinn von genetischem Material einher. Diese unbalancierten Anomalien lassen sich durch die Comparative Genomhybridisierung (CGH) ermitteln. Dieses Verfahren ermöglicht Differenzen der DNA-Menge einer zu untersuchenden Probe bezogen auf eine interne Kontrollprobe zu detektieren. Bei der Fine Tiling-CGH werden gezielt chromosomale Abschnitte hochauflösend auf eventuelle Abweichungen des DNA-Gehaltes analysiert. AnschlieĂend werden die detektierten Bruchpunktregionen der DNA Schwankungen mittels der LM-PCR untersucht. Ein Abgleich mit einer internen Kontrollzelllinie HEK 293-T lĂ€sst atypische PCR-Fragmente bei der untersuchten Probe aufspĂŒren. Der anschlieĂende Sequenzabgleich unter der Verwendung des BLASTn Suchprogramms (National Center for Biotechnology Information) fĂŒhrte in den untersuchten Zelllinien, wie auch in den T-Zell akuten lymphatischen LeukĂ€mieproben zur Identifizierung verschiedener genomischer VerĂ€nderungen. Neben einfachen Deletionen wurden auch bisher ungeklĂ€rte komplexere chromosomale Translokationen nachgewiesen. So konnte unter anderem bei einer lymphoblastischen T-Zell-LeukĂ€mie die Translokation t(12;14)(q23;q11.2) auf genomischer Ebene geklĂ€rt werden. Hierbei fand im Abschnitt 14q11 innerhalb des TRA/D Locus eine Deletion von 89 Kilobasen statt. Die Bruchenden wurden mit der Sequenz des open reading frames C12orf42, welches im 12q23 Chromosomenabschnitt lokalisiert ist, zusammengelagert. Bei dieser chromosomalen Aberration wurde die C12orf42 Sequenz zerstört und 1,3 Kilobasen deletiert. Des Weiteren konnte bei einer akuten lymphoblastischen T-Zell-LeukĂ€mie die Inversion inv(14)(q11q32) mit involvierten TRA/D und IGH Locus auf Sequenzebene geklĂ€rt werden. Der Bruch des 14q11 Bereiches fand zwischen dem Genabschnitt der konstanten Region (TRAC) des TRA/D Locus und dem DAD1 (defender against cell death 1) Gens statt, wobei im beteiligten genetischen Abschnitt keine Rekombinasesignalsequenz (RSS) zu finden ist. Dieses belegt, dass fehlerhafte Umlagerungen innerhalb des Genoms nicht ausschlieĂlich auf die Rekombinase zurĂŒckzufĂŒhren sind. Die vorliegende Arbeit zeigt, dass die Kombination aus FT-CGH und LM-PCR eine prĂ€zise Bruchpunktanalyse unbekannter chromosomaler Aberrationen, welche mit Imbalancen einhergehen, ermöglicht. Diese genaue Analyse dient der Identifizierung von Genen, welche direkt und indirekt durch diese genomischen Umlagerungen betroffen sind. Das Wissen ĂŒber diese VerĂ€nderungen kann fĂŒr das VerstĂ€ndnis der Pathogenese, fĂŒr diagnostische Zwecke und zum Nachweis der minimalen Resterkrankung eingesetzt werden. Eine KlĂ€rung beteiligter Gene und Signalwege wird es erlauben, zielgerichtete und individualisierte Therapiestrategien zu entwickeln.
Independence is a basic concept of probability theory and statistics. In a lot of fields of sciences, dependency of different variables is gained lots of attention from scientists. A measure, named information dependency, is proposed to express the dependency of a group of random variables. This measure is defined as the Kullback-Leibler divergence of a joint distribution with respect to a product-marginal distribution of these random variables. In the bivariate case, this measure is known as mutual information of two random variables. Thus, the measure information dependency has a strong relationship with the Information Theory. The thesis aims to give a thorough study of the information dependency from both mathematical and practical viewpoints. Concretely, we would like to research three following problems: 1. Proving that the information dependency is a useful tool to express the dependency of a group of random variables by comparing it with other measures of dependency. 2. Studying the methods to estimate the information dependency based on the samples of a group of random variables. 3. Investigating how the Independent Component Analysis problem, an interesting problem in statistics, can be solved using information dependency.
High-throughput expression data have become the norm in molecular biology research. However, the analysis of expression data is statistically and computationally challenging and has not kept up with their generation. This has resulted in large amounts of unexplored data in public repositories. After pre-processing and quality control, the typical gene expression analysis workflow follows two main steps. First, the complexity of the data is reduced by removing the genes that are redundant or irrelevant for the biological question that motivated the experiment, using a feature selection method. Second, relevant genes are investigated to extract biological information that could aid in the interpretation of the results. Different methods, such as functional annotation, clustering, network analysis, and/or combinations thereof are useful for the latter purpose. Here, I investigated and presented solutions to three problems encountered in the expression data analysis workflow. First, I worked on reducing complexity of high-throughput expression data by selecting relevant genes in the context of the sample classification problem. The sample classification problem aims to assign unknown samples into one of the known classes, such as healthy and diseased. For this purpose, I developed the relative signal-to-noise ratio (rSNR), a novel feature selection method which was shown to perform significantly better than other methods with similar objectives. Second, to better understand complex phenotypes using high-throughput expression data, I developed a pipeline to identify the underlying biological units, as well as their interactions. These biological units were assumed to be represented by groups of genes working in synchronization to perform a given function or participate in common biological processes or pathways. Thus, to identify biological units, those genes that had been identified as relevant to the phenotype under consideration through feature selection methods were clustered based on both their functional annotations and expression profiles. Relationships between the associated biological functions, processes, and/or pathways were investigated by means of a co-expression network. The developed pipeline provides a new perspective to the analysis of high-throughput expression data by investigating interactions between biological units. Finally, I contributed to a project where a network describing pluripotency in mouse was used to infer the corresponding network in human. Biological networks are context-specific. Combining network information with high-throughput expression data can explain the control mechanisms underlying changes and maintenance of complex phenotypes. The human network was constructed on the basis of orthology between mouse and human genes and proteins. It was validated with available data in the literature. The methods and strategies proposed here were mainly trained and tested on microarray expression data. However, they can be easily adapted to next-generation sequencing and proteomics data.
Interactive Visualization for the Exploration of Aligned Biological Networks and Their Evolution
(2011)
Network Visualization is a widely used tool in biology. The biological networks, as protein-interaction-networks are important for many aspects in life. Today biologists use the comparison of networks of different species (network alignment) to understand the networks in more detail and to understand the underlying evolution. The goal of this work is to develop a visualization software that is able to visualize network alignments and also their evolution. The presented software is the first software for such visualization tasks. It uses 3D graphics and also animations for the dynamic visualization of evolution. This work consists of a review of the Related Work, a chapter about our Graph-based Approach for Interactive Visualization of Evolving Network Alignments, an explanation of the Graph Layout Algorithm and some hints for the Software System.
The history of Mathematics has been lead in part by the desire for generalization: once an object was given and had been understood, there was the desire to find a more general version of it, to fit it into a broader framework. Noncommutative Mathematics fits into this description, as its interests are objects analoguous to vector spaces, or probability spaces, etc., but without the commonsense interpretation that those latter objects possess. Indeed, a space can be described by its points, but also and equivalently, by the set of functions on this space. This set is actually a commutative algebra, sometimes equipped with some more structure: *-algebra, C*-algebra, von Neumann algebras, Hopf algebras, etc. The idea that lies at the basis of noncommutative Mathematics is to replace such algebras by algebras that are not necessarily commutative any more and to interpret them as "algebras of functions on noncommutative spaces". Of course, these spaces do not exist independently from their defining algebras, but facts show that a lot of the results holding in (classical) probability or (classical) group theory can be extended to their noncommutative counterparts, or find therein powerful analogues. The extensions of group theory into the realm of noncommutative Mathematics has long been studied and has yielded the various quantum groups. The easiest version of them, the compact quantum groups, consist of C*-algebras equipped with a *-homomorphism &Delta with values in the tensor product of the algebra with itself and verifying some coassociativity condition. It is also required that the compact quantum group verifies what is known as quantum cancellation property. It can be shown that (classical) compact groups are indeed a particular case of compact quantum groups. The area of compact quantum groups, and of quantum groups at large, is a fruitful area of research. Nevertheless, another generalization of group theory could be envisioned, namely by taking a comultiplication &Delta taking values not in the tensor product but rather in the free product (in the category of unital *-algebras). This leads to the theory of dual groups in the sense of Voiculescu, also called H-algebras by Zhang. These objects have not been so thoroughly studied as their quantum counterparts. It is true that they are not so flexible and that we therefore do not know many examples of them and showing that some relations cannot exist in the dual group case because they do not pass the coproduct. Nevertheless, I have been interested during a great part of my PhD work by these objects and I have made some progress towards their understanding, especially regarding quantum Lévy processes defined on them and Haar states.
Jump penalized L1-Regression
(2012)
Die vorgelegte Arbeit beschĂ€ftigt sich mit KurvenschĂ€tzung in einem Regressionsmodell fĂŒr eindimensionale verrauschte Daten, welche die AusreiĂer enthalten können. Dabei ist die Regression Funktion, also Funktion welche a priori unbekannt ist und welche geschĂ€tzt werden soll, eine beliebige absolut-integrierbare Funktion auf dem Intervall [0, 1) und Regression SchĂ€tzer eine StĂŒckweise-konstante Funktion auf dem Intervall [0, 1). Die von uns betrachtende SchĂ€tzer sind stĂŒckweise-konstante Funktionen, welche die L1-Version den sogenannten Potts Funktional minimieren (s. [8]). Das L1 Potts Funktional ist so gewĂ€hlt, dass einerseits die KomplexitĂ€t des SchĂ€tzers in Form der Anzahl ihrer SprĂŒnge beachtet wird und anderseits die absolute Abweichungen von den Daten betrachtet werden. Die Stufen des Minimierers vom L1 Potts Funktional entsprechen den lokalen Medianen von verrauschten Daten, im Gegensatz dazu entsprechen die Stufen des Minimierers von dem klassischen Potts Funktional (L2-Fall) den lokalen Mittelwerten von den Daten. Der Vorteil der L1-Version gegenĂŒber L2-Version des Potts Funktionals kann dadurch erklĂ€rt werden, dass die Mediane bekannterweise viel robuster gegen AusreiĂer als Mittelwerte sind. In der vorgelegten Arbeit wurden die asymptotischen Eigenschaften sowohl von der L1 Potts Funktionals als auch von seinen Minimierer studiert. Unter anderem, es konnte die Konsistenz des SchĂ€tzers fĂŒr den Fall, dass die Originalfunktion f selbst eine Stufenfunktion ist, gezeigt werden. Dies stellt das Hauptergebnis der Arbeit dar. Konsistenz heiĂt hier, dass unter bestimmten Bedingungen die Minimierer vom L1 Potts Funktional gegen die Originalfunktion f konvergieren.
Diese Arbeit beschĂ€ftigt sich mit der Analyse und Modellierung des Microarrayexperiments. HierfĂŒr wird das gesamte Experiment in fĂŒnf Teilprozesse zerlegt, die Reverse Transkription, die Hybridisierung, das Waschen, die Fluoreszenz und die Detektion. Jeder Teilprozess wurde separat modelliert und analysiert. AnschlieĂend wurde die Teilprozesse im Gesamtmodell vereint und dieses fĂŒr verschiedene Parametersituationen simuliert. Diese Arbeit ermöglicht eine mathematische Handhabung des Microarrayexperiments und deckt seine AbhĂ€ngigkeit von den einzelnen Schritten des Experiments auf. Dies kann benutzt werden, um Normalisierung und Analyse zu verbessern.
Jedes Metagenom umfasst die gesamte genomische Information eines kompletten Ăkosystems. Die Analyse eines solchen Systems bedarf der Bestimmung aller darin enthaltenen NukleinsĂ€uren, stellvertretend fĂŒr den Bauplan eines jeden Organismus, um Kenntnis ĂŒber die in diesem Ăkosystem nachweisbaren Organismen zu erlangen. Ferner bietet die diagnostische Metagenomanalyse eine Möglichkeit zur Identifizierung von sowohl bekannten als auch unbekannten Pathogenen. Zu diesem Zweck wird dem Metagenom eine Probe entnommen, welche einen reprĂ€sentativen Ausschnitt aller darin vorliegenden Organismen enthĂ€lt. Da a priori keine Informationen zu den in der Probe enthaltenen Organismen vorliegen, bedarf es einer ungerichteten Methode zur Bestimmung aller enthaltenen NukleinsĂ€uren. Eine geeignete Lösung bietet die Sequenzierung. Darin werden alle MolekĂŒle der Ausgangsprobe mit ungefĂ€hr gleicher Wahrscheinlichkeit bestimmt und der erzeugte Datensatz, bestehend aus Millionen kleiner Sequenzabschnitte, entspricht einem reprĂ€sentativen Querschnitt der in der Probe nachweisbaren Organismen. Die Herausforderung besteht in der Zuordnung einer jeden Sequenz zu ihren Ursprungsorganismen und die Sequenzen zu identifizieren, die mit einem potentiellen Erreger assoziiert werden können. Aktuell herrscht ein Defizit an Werkzeugen, die diese Zuordnung sowohl schnell als auch prĂ€zise vornehmen und speziell fĂŒr die diagnostische Metagenomanalyse konzipiert sind. Zu diesem Zweck wurde im Rahmen dieser Arbeit eine Software-Pipeline mit Namen RIEMS (164) (Reliable Information Extraction from Metagenomic Sequence datasets) entwickelt, die bestehende Software zur Analyse von Sequenzdaten auf eine Weise verknĂŒpft, die deren StĂ€rken ausnutzt und SchwĂ€chen eliminiert. RIEMS ist in der Lage mit Hilfe bekannter Alignierungsalgorithmen und dem Abgleich der Sequenzen mit einschlĂ€gigen Datenbanken umfangreiche DatensĂ€tze schnell zu analysieren und NukleinsĂ€uresequenzen prĂ€zise ihren putativen Ursprungstaxa zuzuordnen (164). Die vorliegende Arbeit verdeutlicht die Effizienz dieses Computerprogramms im Vergleich zu bestehenden Software-Pipelines. Des Weiteren illustriert sie dessen möglichen Einsatz in der Diagnostik zur Pathogenidentifizierung anhand einiger Beispiele. Dabei können nicht nur bekannte Organismen identifiziert werden, sondern auch unbekannte, noch nicht nĂ€her beschriebene Organismen detektiert werden.
Die Arbeit befasst sich mit der Parameterbestimmung in gewöhnlichen Differentialgleichungssystemen aus gegebenen Messdaten. Als Zielfunktion wird die quadratische Abweichungen betrachtet, ebenso wie die Betragssummen- und Tschebyschev-Norm der Differenz von der Lösung der gewöhnlichen Differentialgleichung und des Messwert-Vektors. Zur Anwendung kommen dabei sowohl iterative Optimierungsverfahren als auch direkte Methoden der optimalen Steuerung.
We introduce a multi-step machine learning approach and use it to classify data from EEG-based brain computer interfaces. This approach works very well for high-dimensional EEG data. First all features are divided into subgroups and linear discriminant analysis is used to obtain a score for each subgroup. Then it is applied to subgroups of the resulting scores. This procedure is iterated until there is only one score remaining and this one is used for classification. In this way we avoid estimation of the high-dimensional covariance matrix of all features. We investigate the classifification performance with special attention to the small sample size case. For the normal model, we study the asymptotic error rate when dimension p and sample size n tend to infinity. This indicates how to defifine the sizes of subgroups at each step. In addition we present a theoretical error bound for the spatio-temporal normal model with separable covariance matrix, which results in a recommendation on how subgroups should be formed for this kind of data. Finally some techniques, for example wavelets and independent component analysis, are used to extract features of some kind of EEG-based brain computer interface data.
Die Arbeit untersucht die Geometrie selbstĂ€hnlicher Mengen endlichen Typs, indem die möglichen Nachbarschaften kleiner Teile klassifiziert und ihr Zusammenhang untersucht werden. Anwendungen sind die Dimension von selbstĂ€hnlichen MaĂen und ĂŒberlappenden Konstruktionen sowie die Bestimmung von Zusammenhangseigenschaften.
Neue robuste Methoden zur Herzschlagerkennung und zur Quantifizierung der HerzfrequenzvariabilitÀt
(2016)
FĂŒr die Analyse der Herzfrequenz ist eine genaue Detektion des Herzschlags aus Rohdaten unerlĂ€sslich. Standardmethoden der Herzschlagerkennung sind fĂŒr elektrische Biosignale konfiguriert worden, die in einem standardisierten klinischen Umfeld erhoben wurden, insbesondere fĂŒr das Elektrokardiogramm. Im Zuge neuer Möglichkeiten zur Erfassung der Vitalparameter (ĂŒber Smartphone, drahtlose Möglichkeiten) und zur Reduktion von Falschalarmen im Krankenhaus werden zunehmend robuste Methoden benötigt. Im ersten Kapitel haben wir einen neuen Algorithmus eingefĂŒhrt, welcher in der Lage ist, unterschiedliche Wellenformen zu verarbeiten und die Informationen aus mehreren gleichzeitig erhobenen Biosignalen zu bĂŒndeln. Die LeistungsfĂ€higkeit wurde im Vergleich mit anderen Methoden an freien DatensĂ€tzen ĂŒberprĂŒft und wir konnten uns von der vielfĂ€ltigen Anwendbarkeit und der Störungsresistenz ĂŒberzeugen. Im zweiten Kapitel haben wir uns mit der Quantifizierung der HerzfrequenzvariabilitĂ€t (HRV) beschĂ€ftigt und ein neues leicht verstĂ€ndliches MaĂ eingefĂŒhrt. Das dafĂŒr notwendige Konzept von relativen RR-AbstĂ€nden wurde diskutiert und die Nutzung zur Artefaktfilterung und zur Klassifikation von Arrhythmiearten aufgezeigt. Vor- und Nachteile klassischer Methoden der HRV haben wir durch einige mathematische Eigenschaften begrĂŒndet. Im dritten Kapitel der Dissertation haben wir das neue MaĂ an realen Daten angewendet und die AbhĂ€ngigkeit der HRV vom Alter der Probanden und von der Herzfrequenz untersucht. Zudem haben wir periodische Strukturen des Streudiagramms von relativen RR-AbstĂ€nden betrachtet, fĂŒr die die Atmung ursĂ€chlich ist. Als wissenschaftliche Transferleistung wurde abschlieĂend ein freies Programm geschaffen, welches die neuen robusten Methoden umsetzt.
Mathematical phylogenetics provides the theoretical framework for the reconstruction and analysis of phylogenetic trees and networks. The underlying theory is based on various mathematical disciplines, ranging from graph theory to probability theory.
In this thesis, we take a mostly combinatorial and graph-theoretical position and study different problems concerning phylogenetic trees and networks.
We start by considering phylogenetic diversity indices that rank species for conservation. Two such indices for rooted trees are the Fair Proportion index and the Equal Splits index, and we analyze how different they can be from each other and under which circumstances they coincide. Moreover, we define and investigate analogues of these indices for unrooted trees.
Subsequently, we study the Shapley value of unrooted trees, another popular phylogenetic diversity index. We show that it may fail as a prioritization criterion in biodiversity conservation and is outcompeted by an existing greedy approach. Afterwards, we leave the biodiversity setting and consider the Shapley value as a tree reconstruction tool. Here, we show that non-isomorphic trees may have permutation-equivalent Shapley transformation matrices and identical Shapley values, implying that the Shapley value cannot reliably be employed in tree reconstruction.
In addition to phylogenetic diversity indices, another class of indices frequently discussed in mathematical phylogenetics, is the class of balance indices. In this thesis, we study one of the oldest and most popular of them, namely the Colless index for rooted binary trees. We focus on its extremal values and analyze both its maximum and minimum values as well as the trees that achieve them.
Having analyzed various questions regarding phylogenetic trees, we finally turn to phylogenetic networks. We focus on a certain class of phylogenetic networks, namely tree-based networks, and consider this class both in a rooted and in an unrooted setting.
First, we prove the existence of a rooted non-binary universal tree-based network with n leaves for all positive integers n, that is, we show that there exists a rooted non-binary tree-based network with $n$ leaves that has every non-binary phylogenetic tree on the same leaf set as a base tree.
Finally, we study unrooted tree-based networks and introduce a class of networks that are necessarily tree-based, namely edge-based networks. We show that edge-based networks are closely related to a family of graphs in classical graph theory, so-called generalized series-parallel graphs, and explore this relationship in full detail.
In summary, we add new insights into existing concepts in mathematical phylogenetics, answer open questions in the literature, and introduce new concepts and approaches. In doing so, we make a small but relevant contribution to current research in mathematical phylogenetics.
Numerische Lösung von Optimalsteuerungsaufgaben unter Nebenbedingungen mit biologischen Anwendungen
(2010)
In dieser Dissertation wird ein Verfahren zur Lösung von Optimalsteuerungsaufgaben mit Steuer-ZustandsbeschrĂ€nkungen vorgestellt. Dazu werden die notwendigen Bedingungen an eine optimale Lösung benutzt, die ein System aus algebraischen Gleichungen, Ungleichungen und Differentialgleichungen erzeugen. Dieses System wird mit einem Newton-Ă€hnlichen Ansatz gelöst. AuĂerdem wird die Erweiterung auf Problemen mit reinen ZustandsbeschrĂ€nkungen vorgefĂŒhrt. Eine deutliche Verbesserung der Konvergenzergebnisse kann durch die Anwendung der Fisher-Burmeister-Funktion auf die KomplementaritĂ€tsbedingungen erzielt werden. Die Iterationsverfahren werden auf eine Reihe von restringierten Optimalsteuerungsaufgaben (Aufgaben mit reinen SteuerbeschrĂ€nkungen, gemischten Steuer-ZustandbeschrĂ€nkungen und reinen ZustandsbeschrĂ€nkungen fĂŒr einzelne Zeitpunkte und fĂŒr das gesamte Optimierungsintervall) angewendet, um ihr Verhalten bei verschiedenen Startwerten sowie unterschiedlichen SchrittweitenansĂ€tzen zu untersuchen. Dazu werden zum einen zwei aus der Literatur bekannte Aufgaben (das Rayleigh-Problem und das Minimum-Ernergy-Problem) gelöst und zum anderen werden zwei Probleme mit biologischem Hintergrund untersucht. So wird eine Optimalsteuerungsaufgabe aus der Fischerei um geeignete Einnahmenbedingungen erweitert, die absichern sollen, dass die Fischer keine lĂ€ngeren Phasen ohne Kapitalzuwachs haben. Dazu wird zwischen einer globalen Bedingung und einer Bedingung fĂŒr endlich viele Zeitpunkte unterschieden. Desweiteren wird ein Modell einer HIV-Erkrankung untersucht, bei dem die numerischen Verfahren, die die notwendigen Bedingungen an eine optimale Lösung benutzen, nur fĂŒr geringe Behandlungszeiten (bis zu 50 Tage) das Problem lösen. Es zeigt sich, dass die StabilitĂ€t dieser Verfahren deutlich verbessert werden kann, wenn das Modell um eine Obergrenze fĂŒr die T-Zellen erweitert wird. Den Abschluss der Dissertation bildet ein Kapitel zur Konvergenzuntersuchung, in dem sich zeigt, dass die verwendeten Iterationsverfahren teilweise von sehr schlechter Konvergenzordnung sind, da die Bedingung fĂŒr eine lineare Konvergenz nicht erfĂŒllt wird.
Objektive Eingruppierung sequenzierter Tollwutisolate mithilfe des Affinity Propagation Clusterings.
(2018)
Das International Committee on Taxonomy of Viruses (ICTV) reguliert die Nomenklatur von Viren sowie die Entstehung neuer Taxa (dazu gehören: Ordnung, Familie, Unterfamilie, Gattung und Art/Spezies). Dank dieser Anstrengungen ist die Einteilung fĂŒr verschiedenste Viren in diese Kategorien klar und transparent nachvollziehbar. In den vergangenen Jahrzehnten sind insgesamt mehr als 21.000 DatensĂ€tze der Spezies ârabies lyssavirusâ (RABV) sequenziert worden. Eine weiterfĂŒhrende Unterteilung der sequenzierten Virusisolate dieser Spezies ist bislang jedoch nicht einheitlich vorgeschlagen. Die groĂe Anzahl an sequenzierten Isolaten fĂŒhrte auf Basis von phylogenetischen BĂ€umen zu uneindeutigen Ergebnissen bei der Einteilung in Cluster. Inhalt meiner Dissertation ist daher ein Vorschlag, diese Problematik mit der Anwendung einer partitionierenden Clusteringmethode zu lösen. Dazu habe ich erstmals die Methodik des affinity propagation clustering (AP) fĂŒr solche Fragestellungen eingesetzt. Als Datensatz wurden alle verfĂŒgbaren sequenzierten Vollgenomisolate der Spezies RABV analysiert. Die Analysen des Datensatzes ergaben vier Hauptcluster, die sich geographisch separieren lieĂen und entsprechend als âArcticâ, âCosmopolitainâ, âAsianâ und âNew Worldâ bezeichnet wurden. WeiterfĂŒhrende Analysen erlaubten auch eine weitere Aufteilung dieser Hauptcluster in 12-13 Untercluster. ZusĂ€tzlich konnte ich einen Workflow generieren, der die Möglichkeit bietet, die mittels AP definierten Cluster mit den Ergebnissen der phylogenetischen Auswertungen zu kombinieren. Somit lassen sich sowohl VerwandtschaftsverhĂ€ltnisse erkennen als auch eine objektive Clustereinteilung vornehmen. Dies könnte auch ein möglicher Analyseweg fĂŒr weitere Virusspezies oder andere vergleichende Sequenzanalysen sein.
The geometric arena here is a smooth manifold of dimension n equipped with a Riemannian or pseudo-Riemannian metric and an affine connection. Field theories following from a variational principle are considered on this basis. In this context, all invariants which are quadratic in the curvature are determined. The work derives several manifestly covariant formulas for the Euler-Lagrange derivatives or the field equations. Some of these field theories can be interpreted as gravitational theories alternatively to EinsteinÂŽs general relativity theory. The work also touches the difficult problem to define and to calculate energy and momentum of a gravitational field.
The constructions of Lévy processes from convolution semigroups and of product systems from subproduct systems respectively, are formally quite similar. Since there are many more comparable situations in quantum stochastics, we formulate a general categorial concept (comonoidal systems), construct corresponding inductive systems and show under suitable assumptions general properties of the corresponding inductive limits. Comonoidal systems in different tensor categories play a role in all chapters of the thesis. Additive deformations are certain comonoidal systems of algebras. These are obtained by deformation of the algebra structure of a bialgebra. If the bialgebra is even a Hopf algebra, then compatibility with the antipode automatically follows. This remains true also in the case of braided Hopf algebras. Subproduct systems are comonoidal systems of Hilbert spaces. In the thesis we deal with the question, what are the possible dimensions of finite-dimensional subproduct systems. In discrete time, this can be reduced to the combinatorial problem of determining the complexities of factorial languages. We also discuss the rational and continuous time case. A further source for comonoidal systems are universal products, which are used in quantum probability to model independence. For the (r,s)-products, which were recently introduced by S. Lachs, we determine the corresponding product of representations by use of a generalized GNS-construction.
This thesis deals with thickness optimization of shells. The overall task is to find an optimal thickness distribution in order to minimize the deformation of a loaded shell with prescribed volume. In addition, lower and upper bounds for the thickness are given. The shell is made of elastic, isotropic, homogeneous material. The deformation is modeled using equations from Linear Elasticity. Here, a basic shell model based on the Reissner-Mindlin assumption is used. Both the stationary and the dynamic case are considered. The continuity and the GĂąteaux-differentiability of the control-to-state operator is investigated. These results are applied to the reduced objective with help of adjoint theory. In addition, techniques from shape optimization are compared to the optimal control approach. In the following, the theoretical results are applied to cylindrical shells and an efficient numerical implementation is presented. Finally, numerical results are shown and analyzed for different examples.
In dieser Dissertation wird eine Problemstellung der Optimalen Steuerung aus dem Bereich der Linearen ElastizitĂ€tstheorie dargelegt und gelöst. Die Dissertation gliedert sich in die folgenden Schwerpunkte: Modellierung der Problemstellung, Formulierung der Optimalsteuerungsprobleme fĂŒr den zeitunabhĂ€ngigen (stationĂ€ren) bzw. zeitabhĂ€ngigen (instationĂ€ren) Problem, die Herleitung der notwendigen Bedingungen fĂŒr eine ermittelte optimale Lösung und die Berechnung von numerischen Lösungen des stationĂ€ren bzw. instationĂ€ren Problems sowie deren ĂberprĂŒfung der ErfĂŒllung der notwendigen Bedingungen. In der Modellierung werden Gleichungen zur Bestimmung der Deformation (Auslenkung) einer Zylinderschale unter rotations-symmetrischer Krafteinwirkung aus Grundgleichungen der Mechanik (KrĂ€ftegleichgewicht, Impulserhaltungssatz) hergeleitet. Bei dieser Herleitung werden die Hypothesen von Mindlin und Reissner verwendet und die spezielle Geometrie der Zylinderschale berĂŒcksichtigt. Die Dissertation erbringt den Nachweis der Existenz einer Lösung der modellierten Gleichungen im schwachen Sinne, d.h. fĂŒr Lösungen in Sobolev-RĂ€umen. FĂŒr die Formulierung der Optimalsteuerungsprobleme fĂŒr den stationĂ€ren und instationĂ€ren Fall fĂŒr Praxis relevante Problemstellungen setzen wir das Volumen des Zylinderrohres als konstant voraus (Volumenbedingung). Die Zielstellung der Optimalsteerungsprobleme besteht darin eine optimale Dicke zu bestimmen, welche die integrale Deformation (Auslenkung) der Zylinderschale (im instationĂ€ren Fall zu einer ausgezeichneten Zeit) minimiert. Eine optimale Lösung (optimale Dicke) muss die notwendige Bedingung erster Ordnung (Variationsungleichung) fĂŒr alle zulĂ€ssigen Dicken, welche auch der Volumenbedingung genĂŒgen, erfĂŒllen. Die Herleitung der konkreten Form dieser notwendigen Bedingungen fĂŒr den stationĂ€ren bzw. fĂŒr die instationĂ€ren FĂ€lle wird in der Dissertation dargelegt. Durch die Verwendung der zugehörigen adjungierten ZustĂ€nde können die notwendigen Bedingungen effizienter formuliert werden. Zur Berechnung einer Lösung der Gleichungen im stationĂ€ren Fall bzw. in den instationĂ€ren FĂ€llen wurde die Finite Elemente Methode bzw. die Rothe-Methode im zeitabhĂ€ngigen Fall verwendet, wobei die LösungsrĂ€ume exakt berĂŒcksichtigt werden. Das Optimierungsproblem wird diskretisiert und mit fmincon aus der Optimization-Toolbox von Matlab gelöst. Die damit berechneten diskreten optimalen Lösungen (optimale Dicke) fĂŒr die einzelnen Problemstellungen werden auf die ErfĂŒllung der notwendigen Bedingungen getestet. Die Dissertation wird durch viele Beispiel-Rechnungen abgerundet und deren Lösungen in grafischer Form prĂ€sentiert.
Today the process of improving technology and software allows to create, save and explore massive data sets in little time. "Big Data" are everywhere such as in social networks, meteorology, customersâ behaviour â and in biology. The Omics research field, standing for the organism-wide data exploration and analysis, is an example of biological research that has to deal with "Big Data" challenges. Possible challenges are for instance effcient storage and cataloguing of the data sets and finally the qualitative analysis and exploration of the information. In the last decade largescale genome-wide association studies and high-throughput techniques became more effcient, more profitable and less expensive. As a consequence of this rapid development, it is easier to gather massive amounts of genomic and proteomic data. However, these data need to get evaluated, analysed and explored. Typical questions that arise in this context include: which genes are active under sever al physical states, which proteins and metabolites are available, which organisms or cell types are similar or different in their enzymesâor genesâ behaviour. For this reason and because a scientist of any "Big Data" research field wants to see the data, there is an increasing need of clear, intuitively understandable and recognizable visualization to explore the data and confirm thesis. One way to get an overview of the data sets is to cluster it. Taxonomic trees and functional classification schemes are hierarchical structures used by biologists to organize the available biological knowledge in a systematic and computer readable way (such as KEGG, GO and FUNCAT). For example, proteins and genes could be clustered according to their function in an organism. These hierarchies tend to be rather complex, and many comprise thousands of biological entities. One approach for a space-filling visualization of these hierarchical structured data sets is a treemap. Existing algorithms for producing treemaps struggle with large data sets and have several other problems. This thesis addresses some of these problems and is structured as follows. After a short review of the basic concepts from graph theory some commonly used types of treemaps and a classification of treemaps according to information visualization aspects is presented in the first chapter of this thesis. The second chapter of this thesis provides several methods to improve treemap constructions. In certain applications the researcher wants to know, how the entities in a hierarchical structure are related to each other (such as enzymes in a metabolic pathway). Therefore in the 3 third chapter of this thesis, the focus is on the construction of a suitable layout overlaying an existing treemap. This gives rise to optimization problems on geometric graphs. In addition, from a practical point of view, options for enhancing the display of the computed layout are explored to help the user perform typical tasks in this context more effciently. One important aspect of the problems on geometric graphs considered in the third chapter of the thesis is that crossings of edges in a network structure are to be minimized while certain other properties such as connectedness are maintained. Motivated by this, in the fourth chapter of this thesis, related combinatorial and computational problems are explored from a more theoretical point of view. In particular some light is shed on properties of crossing-free spanning trees in geometric graphs.
Die vorliegende Arbeit ist im Bereich der parameterfreien Statistik anzusiedeln und beschĂ€ftigt sich mit der Anwendung von ordinalen Verfahren auf Zeitreihen und Bilddaten. Die Basis bilden dabei die sogenannten ordinalen Muster in ein bzw. zwei Dimensionen. Der erste Hauptteil der Arbeit gibt einen Ăberblick ĂŒber die breiten Einsatzmöglichkeiten ordinaler Muster in der Zeitreihenanalyse. Mit ihrer Hilfe wird bei simulierten gebrochenen Brownschen Bewegungen der Hurst-Exponenten geschĂ€tzt und anhand von EEG-Daten eine Klassifikationsaufgabe gelöst. Des Weiteren wird die auf der Verteilung der ordinalen Muster beruhende Permutationsentropie eingesetzt, um in Magnetresonanztomographie (MRT)-Ruhedaten Kopfbewegungen der Probanden zu detektieren. Der zweite Hauptteil der Arbeit befasst sich mit der Erweiterung der ordinalen Muster auf zwei Dimensionen, um sie fĂŒr Bilddaten nutzbar zu machen. Nach einigen Betrachtungen an fraktalen OberflĂ€chen steht eine automatisierte und robuste EinschĂ€tzung der QualitĂ€t struktureller MRT-Daten im Vordergrund.
Parsimonious Histograms
(2010)
The dissertation is concerned with the construction of data driven histograms. Histograms are the most elementary density estimators at all. However, they require the specification of the number and width of the bins. This thesis provides two new construction methods delivering adaptive histograms where the required parameters are determined automatically. Both methods follow the principle of parsimony, i.e. the histograms are solutions of predetermined optimization problems. In both cases, but under different aspects, the number of bins is minimized. The dissertation presents the algorithms that solve the optimization problems and illustrates them by a number of numerical experiments. Important properties of the estimators are shown. Finally, the new developed methods are compared with standard methods by an extensive simulation study. By means of synthetic samples of different size and distribution the histograms are evaluated by special performance criteria. As one main result, the proposed methods yield histograms with considerably fewer bins and with an excellent ability of peak detection.
Abstract
With the advent of molecular genetic methods, an increasing number of morphologically cryptic taxa has been discovered. The majority of them, however, remains formally undescribed and without a proper name although their importance in ecology and evolution is increasingly being acknowledged. Despite suggestions to complement traditional descriptions with genetic characters, the taxonomic community appears to be reluctant to adopt this proposition. As an incentive, we introduce QUIDDICH, a tool for the QUick IDentification of DIgnostic CHaracters, which automatically scans a DNA or amino acid alignment for those columns that allow to distinguish taxa and classifies them into four different types of diagnostic characters. QUIDDICH is a systemâindependent, fast and userâfriendly tool that requires few manual steps and provides a comprehensive output, which can be included in formal taxonomic descriptions. Thus, cryptic taxa do not have to remain in taxonomic crypsis and, bearing a proper name, can readily be included in biodiversity assessments and ecological and evolutionary analyses. QUIDDICH can be obtained from the comprehensive R archive network (CRAN, https://cran.r-project.org/package=quiddich).
Im Rahmen des hier verwendeten abstrakten, nichtkommutativen UnabhĂ€ngigkeitsbegriffs gibt es nach dem Klassifikationssatz von Muraki genau fĂŒnf konkrete UnabhĂ€ngigkeitsbegriffe: Tensor, boolesch, frei, monoton und antimonoton. Hierbei umfasst der Tensor-Fall den UnabhĂ€ngigkeitsbegriff aus der klassischen Wahrscheinlichkeitstheorie. Ein Quanten-Levy-Prozess (QLP) ist ein Prozess mit unabhĂ€ngigen, stationĂ€ren ZuwĂ€chsen, dessen Verteilung durch einen Generator g festgelegt ist. Die QLP und die Generatoren in dieser Arbeit sind auf den Voiculescuschen dualen Halbgruppen definiert. Ein Generator ist ein bedingt positives, lineares Funktional mit g(1)=0. Diese Arbeit untersucht das Problem, zu einem QLP mit gegebenem Generator einen QLP auf einen Fockraum mit demselben Generator anzugeben. Zur Problem wird in drei Teilen bearbeitet. Im ersten Teil wird fĂŒr jede konkrete UnabhĂ€ngigkeit die Existenz eines QLP zu gegebenem Generator g nachgewiesen. Hierbei wird die Schoenberg-Korrespondenz fĂŒr duale Halbgruppen verwendet und ein Quanten-Kolomogoroff Satz fĂŒr QLP gezeigt. Der zweite Teil, der zugleich den Hauptteil der Arbeit darstellt, besteht aus dem Transformationssatz fĂŒr duale Halbgruppen. Dieser besagt in etwa, dass ein gegebener QLP mit Generator g unter einer Transformation genannten Abbildung k zwischen zwei dualen Gruppen zu einem QLP mit Generator k•g transformiert werden kann. Dabei operieren der transformierte QLP und der ursprĂŒngliche QLP im Wesentlichen auf denselbem Raum. Der Beweis des Transformationssatzes wird ausschlieĂlich auf dem abstrakten, nichtkommutativen UnabhĂ€ngigkeitsbegriff aufgebaut. Dabei wird der Existenzsatz aus dem ersten Teil verwendet und die punktweise Konvergenz eines infinitesimalen Faltens des gegebenen QLP ausgewertet an einem normierten Vektor bewiesen. Somit sind alle fĂŒnf konkreten UnabhĂ€ngigkeitsbegriffe in einem einheitlichen Rahmen enthalten. Zu jedem konkreten nichtkommutativen UnabhĂ€ngigkeitsbegriff werden im dritten Teil die besonders einfachen, additven QLP auf FockrĂ€umen betrachtet. Hierbei ist ein additiver QLP einfach die Summe aus einem Erzeugungs-, einem Erhaltungs- und einem Vernichtungsprozess auf einem Fockraum, sowie aus einem Generatoranteil. Die Realisierung von QLP auf FockrĂ€umen, also das oben genannte Problem, wird durch Transformieren eines passenden, additiven QLP erreicht. Insbesondere erhalten wir somit erstmals eine Realisierung von QLP auf FockrĂ€umen mithilfe der Transformationstheorie im freien Fall. In einer Anwendung wird das nichtkommutative Analogon der UnitĂ€ren Gruppe als duale Gruppe betrachtet. Im freien Fall als konkreten, nichtkommutativen UnabhĂ€ngigkeitsbegriff und aufgrund der UnitaritĂ€t kann hier zusĂ€tzlich bewiesen werden, dass auch auf Operator-Ebene ein infinitesimales Falten der additiven QLP in der starken Operatortopologie existiert. Weiterhin gilt im GauĂ-Fall, das heiĂt obiger Erhaltungsprozess-Anteil verschwindet, dass sogar Normkonvergenz vorliegt.
Self-similar sets are a class of fractals which can be rigorously defined and treated by mathematical methods. Their theory has been developed in n-dimensional space, but we have just a few good examples of self-similar sets in three-dimensional space. This thesis has two different aims. First, to extend fractal constructions from two-dimensional space to three-dimensional space. Second, to study some of the properties of these fractals such as finite type, disk-likeness, ball-likeness, and the Hausdorff dimension of boundaries. We will use the neighbor graph tool for creating new fractals, and studying their properties.
The study of sow reproduction traits is important in livestock science and production to increase animal survival and economic efficiency. This work deals with the detection of different effects on within-litter variance of birth weight by applying different statistical models with different distributional assumptions. The piglets within one litter were separated by sex. The trait of sow was formed from the sample variances of birth weights within litter separated by sex to consider the sex effect on mean birth weight. A linear mixed model (LMM) approach was fitted to the logarithmized sample variance and the sample standard deviation. A generalized linear mixed model with gamma distributed residuals and log-link function was applied to the untransformed sample variance. Appropriate weights were constructed to account for individual litter sizes. Models were compared by analysing data from Landrace and Large White. The estimates of heritability for the different traits ranged from 6-14%. The LMM for the weighted standard deviation of birth weights was identified as most suitable in terms of residual normality. Furthermore, the impact of pigletsÂŽ sex on birth weight variability was tested, but it was only proved for one practical dataset. Additionally, we analysed the influence of including or not including birth weights of stillborn piglets on the estimates of variance components of birth weight variability. With omitted stillborns the estimates of heritability resulted in about 2% higher values than in investigations of total born piglets. We were interested in the presence of the random boar effect on birth weight variability. The corresponding variance component was tested via restricted likelihood ratio test. Among others, the null distribution of the test statistic was approximated by parametric bootstrap simulations which were computational intensive. We picked up a two-parametric approach from literature and proposed a three-parametric approach to approximate the null distribution of the test statistic. We have analysed correlated data in balanced (simulated data) and unbalanced (empirical data) designs. The two-parametric approach using a scaled mixture of chisquare-distributions as well as a three-parametric approach, that uses a mixture of the point mass at zero and a gamma distribution, behaved most solid in all investigations and were most powerful in the simulation study.
Es wird ein neues Konzept fĂŒr die Modellierung von (zeitlichen) Realisierungen komplexer und stark verrauschter ProzessabhĂ€ngigkeiten ohne spezielle Vorkenntnisse vorgestellt. Als Grundlage dient das "Errors-in-Variables Model" (EVM) als ein "Total Least Square" (TLS)- Verfahren zur asymptotisch fehlerfreien Rekonstruktion einer linearen ProzessabhĂ€ngigkeit. Die hierfĂŒr notwendigen Informationen zum Fehlerrauschen in den Variablen werden indirekt in den (zeitlichen) Realisierungen mit Hilfe eines neuen VergleichsmaĂes fĂŒr Strukturen (EP- MaĂ) auf Basis des Ăhnlichkeits- Koeffizienten nach Dice / SĂžrensen erhalten, d.h. solange der fehlerfreie Prozess sich nicht in Strukturen eines weiĂen Rauschens realisiert. Dies kann vorab mit Hilfe einer schrittweisen GauĂ- Tiefpass- Filterung der Ausgangsdaten im jeweiligen EP- Vergleich zu den ungefilterten Daten entschieden werden. Durch ein unabhĂ€ngiges Zusatz- Fehlerrauschen wird zwischen den modellierten und den abzubildenden Daten schrittweise eine maximale strukturelle Ăhnlichkeit âkĂŒnstlichâ hergestellt "Sequential Iterative NOise Matching Algorithm" (SINOMA), die dann mit Hilfe des VergleichsmaĂes unabhĂ€ngig zum EVM- Verfahren erkannt werden kann. Unter diesen "Reduced Major Axis" (RMA-)Bedingungen des EVM- Verfahrens sind die Parameter der linearen ProzessabhĂ€ngigkeit eindeutig bestimmbar, d.h. dann ohne Kenntnisse zum Fehlerrauschen in den Ausgangsdaten. Im Gegenteil, da hierbei das notwendige Zusatzrauschen fĂŒr das Erreichen von RMA- Bedingungen âbekannt istâ, können auf diese Weise auch noch das Fehlerrauschen in den Ausgangsdaten und die entsprechenden Standardabweichungen der fehlerfreien Daten abgeschĂ€tzt werden. Hiermit sollte (erstmals) eine adĂ€quate Lösung des Rekonstruktionsproblems prĂ€historischer Spannweiten klimatischer Schwankungen mit Hilfe von Proxy möglich sein.
In dieser Arbeit beschĂ€ftigen wir uns mit symplektischen Lie-Algebren und metrischen, symplektischen Lie-Algebren. Wir erweitern ein bestehendes Klassifikationsschema mittels quadratischer Erweiterungen fĂŒr metrische Lie-Algebren mit halbeinfachen, schiefsymmetrischen Derivationen so, dass damit sĂ€mtliche metrischen, symplektischen Lie-Algebren auf Isomorphie untersucht werden können. Damit bestimmen wir die Isomorphieklassen aller nichtabelschen, metrischen, symplektischen Lie-Algebren, der Dimension kleiner als zehn, sowie alle mit einem Index von kleiner oder gleich drei. AnschlieĂend wird in Analogie zur Herangehensweise fĂŒr metrische Lie-Algebren ein Klassifikationsschema fĂŒr symplektische Lie-Algebren mit ausgeartetem Zentrum mittels quadratischer Erweiterungen aufgebaut, was uns zudem ein Klassifikationsschema fĂŒr nilpotente, symplektische Lie-Algebren liefert. AbschlieĂend berechnen wir konkret ein ReprĂ€sentantensystem der Isomorphieklassen aller sechsdimensionalen, nilpotenten, symplektischen Lie-Algebren.
Abstract
The expected signature is an analogue of the Laplace transform for probability measures on rough paths. A key question in the area has been to identify a general condition to ensure that the expected signature uniquely determines the measures. A sufficient condition has recently been given by Chevyrev and Lyons and requires a strong upper bound on the expected signature. While the upper bound was verified for many wellâknown processes up to a deterministic time, it was not known whether the required bound holds for random time. In fact, even the simplest case of Brownian motion up to the exit time of a planar disc was open. For this particular case we answer this question using a suitable hyperbolic projection of the expected signature. The projection satisfies a threeâdimensional system of linear PDEs, which (surprisingly) can be solved explicitly, and which allows us to show that the upper bound on the expected signature is not satisfied.
As the tree of life is populated with sequenced genomes ever more densely, the new challenge is the accurate and consistent annotation of entire clades of genomes. In my dissertation, I address this problem with a new approach to comparative gene finding that takes a multiple genome alignment of closely related species and simultaneously predicts the location and structure of protein-coding genes in all input genomes, thereby exploiting negative selection and sequence conservation. The model prefers potential gene structures in the different genomes that are in agreement with each other, orâif notâwhere the exon gains and losses are plausible given the species tree. The multi-species gene finding problem is formulated as a binary labeling problem on a graph. The resulting optimization problem is NP hard, but can be efficiently approximated using a subgradient-based dual decomposition approach.
I tested the novel approach on whole-genome alignments of 12 vertebrate and 12 Drosophila species. The accuracy was evaluated for human, mouse and Drosophila melanogaster and compared to competing methods. Results suggest that the new method is well-suited for annotation of a large number of genomes of closely related species within a clade, in particular, when RNA-Seq data are available for many of the genomes. The transfer of existing annotations from one genome to another via the genome alignment is more accurate than previous approaches that are based on protein-spliced alignments, when the genomes are at close to medium distances. The method is implemented in C++ as part of the gene finder AUGUSTUS.
Given a manifold with a string structure, we construct a spinor bundle on its loop space. Our construction is in analogy with the usual construction of a spinor bundle on a spin manifold, but necessarily makes use of tools from infinite dimensional geometry. We equip this spinor bundle on loop space with an action of a bundle of Clifford algebras. Given two smooth loops in our string manifold that share a segment, we can construct a third loop by deleting this segment. If this third loop is smooth, then we say that the original pair of loops is a pair of compatible loops. It is well-known that this operation of fusing compatible loops is important if one wants to understand the geometry of a manifold through its loop space. In this work, we explain in detail how the spinor bundle on loop space behaves with respect to fusion of compatible loops. To wit, we construct a family of fusion isomorphisms indexed by pairs of compatible loops in our string manifold. Each of these fusion isomorphisms is an isomorphism from the relative tensor product of the fibres of the spinor bundle over its index pair of compatible loops to the fibre over the loop that is the result of fusing the index pair. The construction of a spinor bundle on loop space equipped with a fusion product as above was proposed by Stolz and Teichner with the goal of studying the Dirac operator on loop space". Our construction combines facets of the theory of bimodules for von Neumann algebras, infinite dimensional manifolds, and Lie groups and their representations. We moreover place our spinor bundle on loop space in the context of bundle gerbes and bundle gerbe modules.
In dieser Arbeit wird ein Verfahren zur Bestimmung von Toleranzbereichen fĂŒr 1H-NMR-Spektren von Neugeborenenurinen zur Detektion von angeborenen Stoffwechselerkrankungen vorgestellt. Diese Krankheiten werden durch genetische Defekte ausgelöst, die eine schwerwiegende Funktionsstörung im Stoffwechselkreislauf verursachen. Die dadurch entstehenden Krankheitsbilder fĂŒhren in der Regel zu Behinderungen und oftmals zum Tod. Eine frĂŒhe Diagnose und Behandlung können in vielen FĂ€llen ein Ăberleben ohne Symptome ermöglichen. Beim derzeitigen Neugeborenenscreening werden in Deutschland zwölf der hĂ€ufigsten Stoffwechselerkrankungen routinemĂ€Ăig abgetestet - weit ĂŒber hundert sind aktuell bekannt. Basierend auf einem Referenzdatensatz von 695 Neugeborenenurinspektren, werden in dieser Arbeit mathematische Methoden zur Bestimmung von Toleranzbereichen entwickelt, die eine ungezielte Detektion von Abweichungen ermöglichen, um schwerwiegende Krankheiten wie angeborene Stoffwechselerkrankungen frĂŒhzeitig und routinemĂ€Ăig diagnostizieren zu können. Das Verfahren basiert dabei auf der robusten Ermittlung von Verteilungsfunktionen, Toleranzbereichen und Identifikation von AusreiĂern fĂŒr eindimensionale Stichproben von unbekannten Verteilungen. Mithilfe einer von der Box-Cox-Transformation abgeleiteten Transformationsfamilie, werden die gemessenen KenngröĂen in normalverteilte Stichproben ĂŒberfĂŒhrt. FĂŒr die Bestimmung der optimalen Transformationsparameter wird die Teststatistik des Shapiro-Wilk-Tests auf Normalverteilung der transformierten Stichprobe verwendet. Die Betrachtung verschiedener links- und rechtsseitiger Trimmungen sichert dabei eine robuste Bestimmung, die nicht von AusreiĂern innerhalb des Referenzdatensatzes beeinflusst wird. Anhand von Simulationsstudien wird die Leistung dieses Verfahrens an Stichproben mit bekannten Verteilungen ermittelt und demonstriert. Die Anwendbarkeit an abgeleiteten KenngröĂen aus den realen Urinspektren wird zunĂ€chst anhand von Metabolitenkonzentrationen gezeigt. HierfĂŒr wurden im Rahmen dieser Arbeit Methoden zur Identifikation und Quantifikation von 22 ausgewĂ€hlten Metaboliten entwickelt. FĂŒr die ungezielte Analyse werden aus den NMR-Spektren abstrakte KenngröĂen abgeleitet, welche die Protonenkonzentrationen in verschiedenen chemischen Verschiebungsbereichen zusammenfassen (sogenannte Bucketierung). Dadurch wird jedes Signal, unabhĂ€ngig von MolekĂŒl oder funktioneller Gruppe, erfasst und ausgewertet. Bei der in dieser Arbeit verwendeten Strategie entstehen dadurch 500 Messwerte pro Spektrum, von denen 479 (96%) in normalverteilte Variablen ĂŒberfĂŒhrt werden können. FĂŒr diese werden schlieĂlich Toleranzbereiche definiert, um Messungen von weiteren Urinproben abzugleichen. ZusĂ€tzlich wird ausgehend von den transformierten Variablen eine Möglichkeit dargestellt, auch multivariate Toleranzbereiche auf Basis der Mahalanobisdistanz zu ermitteln, welche die SensitivitĂ€t des Tests auf abweichende Signale signifikant erhöht. Anhand einer Spiking-Simulationsstudie mit ca. 500.000 Spektren, bei denen die Signale von elf Verbindungen, die in Zusammenhang mit angeborenen Stoffwechselerkrankungen stehen, numerisch zu den Referenzspektren addiert werden, können Detektionsraten in AbhĂ€ngigkeit der Konzentrationen dieser Verbindungen ermittelt werden.
Die dem Leben zugrundeliegenden Prozesse sind hochkomplex. Sie werden zu einem GroĂteil durch Proteine umgesetzt. Diese spielen eine tragende Rolle fĂŒr die morphologische Struktur und Vielfalt sowie SpezifitĂ€t der FĂ€higkeiten der verschiedenen Zelltypen. Jedoch wirken Proteine nicht isoliert fĂŒr sich allein sondern indem sie miteinander oder mit anderen MolekĂŒlen in der Zelle (DNA, Metabolite, Signalstoffe etc.) wechselwirken. GerĂ€t dieses Geflecht von aufeinander abgestimmten Wechselwirkungen aus dem Gleichgewicht, kann das eine Ursache fĂŒr Erkrankungen sein. Die Kenntnis ĂŒber fehlregulierte Interaktionen kann dabei helfen, die betreffende Krankheit besser zu verstehen und gegen sie zu intervenieren. Die vorliegende Dissertation beschĂ€ftigt sich mit der Identifizierung von solch differentiell regulierten Interaktionen. Im Rahmen der Arbeit wurde eine Methode mit dem Namen ExprEssence entwickelt, welche diejenigen Interaktionen in einem Protein-Protein-Interaktionsnetzwerk identifiziert, die sich zwischen zwei verglichenen ZustĂ€nden (z.B. krank versus gesund) am stĂ€rksten unterscheiden. Ziel ist es, das Netzwerk auf die wesentlichen Unterschiede zwischen den zwei untersuchten ZustĂ€nden zu reduzieren. Hierzu werden Genexpressions- oder Proteomdaten der beiden ZustĂ€nde in das bereits bestehende Netzwerk integriert. Aus diesen Daten wird die StĂ€rke/HĂ€ufigkeit des Auftretens der einzelnen Interaktionen des Netzwerks geschĂ€tzt. Die Interaktionen, deren InteraktionsstĂ€rken sich zwischen den betrachteten ZustĂ€nden am stĂ€rksten unterscheiden, werden beibehalten â die restlichen Interaktionen werden verworfen. Dies ergibt ein verkleinertes Subnetzwerk, das aus jenen Interaktionen besteht, die am stĂ€rksten differentiell reguliert sind. Diese Interaktionen und ihre Proteine sind Kandidaten fĂŒr eine ErklĂ€rung der biologischen Unterschiede der betrachteten ZustĂ€nde auf molekularem Niveau. Die Methode wurde auf verschiedene biologische Fragestellungen angewandt und mit anderen Ă€hnlichen Methoden verglichen. Bei der Untersuchung der Unterschiede zwischen Erfolg und Misserfolg einer chemotherapeutischen Brustkrebstherapie konnte beispielsweise gezeigt werden, dass das mit ExprEssence erstellte Subnetzwerk einen stĂ€rkeren Bezug zu den bereits bekannten Therapieerfolg-relevanten Mechanismen aufweist als die Methoden, mit denen ExprEssence verglichen wurde. Weiterhin wurde im Subnetzwerk eine möglicherweise fĂŒr den Therapieerfolg relevante Interaktion identifiziert, die in diesem Zusammenhang bisher nicht betrachtet wurde. Deren Bedeutung konnte in der experimentellen Nachverfolgung weiter untermauert werden. Einen weiteren Schwerpunkt der Arbeit bildete die Untersuchung des Interaktoms eines spezialisierten Zelltyps der Niere â des Podozyten. Dieser Zelltyp ist essentiell fĂŒr die Filtrationskompetenz der Niere. Ein Interaktionsnetzwerk mit spezifisch fĂŒr den Podozyten relevanten Interaktion gib es bisher nicht. Daher wurde ein Podozyten-spezifisches Protein-Protein-Interaktionsnetzwerk aus wissenschaftlichen Veröffentlichungen zusammengestellt und öffentlich verfĂŒgbar gemacht. Genexpressionsdaten vielfĂ€ltiger Art, beispielsweise von Podozyten in verschiedenen Entwicklungsstadien oder in Zellkultur, wurden in das Netzwerk integriert und mit ExprEssence analysiert. So konnte beispielsweise gezeigt werden, dass die Dedifferenzierung von in Kultur gehaltenen Podozyten nicht dem Umkehrweg der zuvor durchlaufenen Differenzierung entspricht. Neben ExprEssence wurde weitere Software entwickelt, die die Anwendbarkeit von ExprEssence erweitert â MovieMaker und ExprEsSector. Mit MovieMaker werden die ĂbergĂ€nge zwischen den betrachteten ZustĂ€nden nachvollziehbarer visualisiert. ExprEsSector bildet die Vereinigungs- und Schnittmengen-Netzwerke von ExprEssence-Subnetzwerken. So können beispielsweise verschiedenen Krankheiten gemeinsame VerĂ€nderungen vom Normalzustand identifiziert werden. Ist fĂŒr eine Krankheit bereits ein Therapieansatz vorhanden, der auf eine fehlregulierte Interaktion einwirkt, und ist diese Interaktion auch in der anderen Krankheit gleichartig differentiell reguliert, kann geprĂŒft werden, ob diese Therapie auf die zweite Krankheit ĂŒbertragen werden kann. Neben der Vorstellung und Diskussion der erzielten Ergebnisse, wird auch auf methodisch bedingte Nachteile eingegangen. Es werden Strategien aufgezeigt, wie die negativen EinflĂŒsse möglichst minimiert werden können oder wie sie bei der Bewertung der Ergebnisse zu berĂŒcksichtigen sind. In Anbetracht der immer schneller ansteigenden Menge biologischer Daten ist es eine wesentliche Herausforderung geworden, aus diesen die essentiellen Informationen zu extrahieren. Der integrative Ansatz der VerknĂŒpfung von Informationen verschiedener Quellen wurde mit ExprEssence und den Erweiterungen MovieMaker und ExprEsSector in einem Konzept zur Identifizierung zustandsrelevanter molekularer Mechanismen in intuitiv leicht erfassbarer Form umgesetzt.