Refine
Year of publication
Document Type
- Doctoral Thesis (21)
Language
- German (21) (remove)
Has Fulltext
- yes (21)
Is part of the Bibliography
- no (21)
Keywords
- Numerische Mathematik (4)
- Optimale Kontrolle (3)
- Optimale Steuerung (3)
- Robuste Statistik (2)
- 1H-NMR (1)
- Abweichung (1)
- Akute lymphatische Leukämie (1)
- Algorithmus (1)
- Approximationsalgorithmus (1)
- Assemblierung (1)
Institute
- Institut für Mathematik und Informatik (21) (remove)
Betrachtet werden Optimalsteuerungsaufgaben der dreidimensionalen Fischpopulationsmodelle. Solche Modelle gehören zu der Klasse der sogenannten Lotka-Volterra-Modelle. Fischerei-Probleme mit Steuerungen werden für Steuerungsfunktionen verschiedener Klassen gelöst. Der Schwerpunkt der Arbeit liegt auf den notwendigen Optimalitätsbedingungen, die mit Hilfe des Bellman-Prinzips hergeleitet werden.
Die vorliegende Arbeit beschäftigt sich mit der numerischen Lösung von Optimalsteuerungsproblemen. Dazu wird das Maximumprinzip verwendet, dessen Anwendung auf ein Mehrpunktrandwertproblem führt. Die Aufgabe bestand nun darin, ein Programmpaket zu entwickeln, mit dem solche Mehrpunktrandwertprobleme mit der Mehrzielmethode numerisch gelöst werden können. Dabei wurden verschiedene Anforderungen an das zu entwickelnde Programm gestellt, die bereits existierende Programmpakete nicht oder nur eingeschränkt erfüllen. Die Bedienung soll durch die Verwendung einer grafischen Oberfläche intuitiver und komfortabler gestaltet werden. Ein weiteres Ziel besteht in der Problemunabhängigkeit des Quellcodes, sodass der Quellcode unangetastet bleiben kann. Außerdem sollen für die Benutzung des Programms keine Programmierkenntnisse notwendig sein. Der Funktionsumfang soll im Vergleich zu bestehenden Implementierungen erweitert werden, um die Möglichkeiten der Mehrzielmethode besser ausnutzen sowie die Methoden an das jeweilige zu lösende Problem anpassen zu können. Zunächst werden theoretische Grundlagen der optimalen Steuerung und des Maximumprinzips beschrieben. Die Mehrzielmethode wird vorgestellt und erweitert, sodass mit dieser auch Mehrpunktrandwertprobleme gelöst werden können. Ferner wird auf die Umsetzung der weiteren verwendeten mathematischen Methoden eingegangen. Dazu gehören das Newtonverfahren inklusive Dämpfung und Broydenupdate, verschiedenene Anfangswertproblemlöser (Dormand-Prince- und Rosenbrock-Typ-Verfahren) und die Singulärwertzerlegung, mit der die linearen Gleichungsssysteme gelöst werden. Außerdem werden die Komponenten und Funktionen des Programmpakets beschrieben, beispielsweise die Entwicklung der grafischen Oberfläche. Um das Einlesen der Daten eines Optimalsteuerungsproblems aus der grafischen Oberfläche in das Programm zu ermöglichen, wurde ein Parser verwendet. Die Software enthält Funktionen zur Erstellung von Plots und dem Export von Problemdaten in ein PDF-Dokument. Des Weiteren wird beschrieben, inwieweit die implementierten Verfahren an die Anforderungen eines spezifischen Optimalsteuerungsproblems angepasst werden können. Abschließend werden vier in ihrer Gestalt und ihrem Schwierigkeitsgrad sehr verschiedene Optimalsteuerungsprobleme beispielhaft gelöst. Dazu gehören beispielsweise das als Optimalsteuerungsproblem formulierte Brachistochrone- sowie das Min-Energy-Problem. Anhand der Lösung des Rayleigh-Problems wird gezeigt, wie man die zur Verfügung gestellten Optionen des Programmpakets sinnvoll nutzen kann, um eine Lösung zu bestimmen, die ein aussichtsreicher Kandidat für eine optimale Lösung ist. Abschließend wird ein Wiedereintrittsproblem einer Raumkapsel in die Erdumlaufbahn betrachtet, welches eine besondere Herausforderung darstellt, da das Differenzialgleichungssystem sehr empfindlich reagiert und Lösungen nur für einen kleinen Bereich von Startwerten existieren.
In der Dissertation haben wir uns mit dem numerischen Lösen von unbeschränkten Optimalsteuerungsproblemen beschäftigt. Dabei war das Ziel der Arbeit die Homotopie-Methode von Costanza zu untersuchen, kritisch zu hinterfragen und sie zu erweitern. Dazu haben wir zuerst Optimalsteuerungsprobleme untersucht und Resultate aus der Funktionalanalysis zitiert, die wir benötigen, um notwendige Bedingungen für ein unbeschränktes Optimalsteuerungsproblem herzuleiten. Die zentrale Idee dabei ist, dass wir ein äquivalentes, infinites Optimierungsproblem aufstellen und für dieses die notwendigen Bedingungen herleiten und beweisen. Die erhaltenen Resultate haben wir dann auf unbeschränkte Optimalsteuerungsprobleme übertragen. Ziel des Ansatzes ist es, die unbekannten Anfangs- und Endwerte der Zustände und Adjungierten in Abhängigkeit von frei wählbaren Parametern zu berechnen, so dass nur noch ein reines Anfangs- oder Endwertproblem gelöst werden muss, welches numerisch einfacher zu handhaben ist. Dabei stellte sich im Verlauf der Arbeit heraus, dass Costanzas Ansatz nicht allgemeingültig ist und nur auf spezielle Fälle angewendet werden kann. Wir haben den ursprünglichen Ansatz neu hergeleitet und an den kritischen Stellen angepasst, so dass dieser beispielunabhängig benutzt werden kann. Danach haben wir uns mit der numerische Umsetzung unseres Ansatzes befasst. Zum Lösen der gewöhnlichen Differentialgleichungssysteme mit gegebenen Anfangswerten benutzten wir ein in MATLAB implementiertes, explizites Runge-Kutta-Verfahren mit Schrittweitensteuerung. Ein wichtiger Punkt dabei war die Approximation der Jacobi-Matrix der Zustands- und Adjungiertengleichungen mit Hilfe von Complex step differentiation. Diese liefert schnellere und stabilere Approximationen an die ersten Ableitungen als z.B. der zentrale Differenzenquotient, da bei diesem numerische Auslöschung auftreten kann. Weiterhin haben wir direkte und indirekte Verfahren genannt, die man zum Lösen von Optimalsteuerungsproblemen benutzen kann, um die Genauigkeit unseres Ansatzes zu überprüfen. Im letzten Kapitel haben wir unseren Ansatz an verschiedenen Beispielen getestet. Dabei haben wir zuerst unbeschränkte Optimalsteuerungsprobleme betrachtet, die alle sehr gut gelöst wurden. Dessen numerische Lösung wurde effizient und mit hoher Genauigkeit berechnet. Dies ist insbesondere bemerkenswert, da man mit anderen Ansätzen oft eine gute Startlösung benötigt, damit die jeweiligen Verfahren konvergieren. Abschließend haben wir Beispiele für beschränkte Optimalsteuerungsprobleme betrachtet. Diese haben wir mit unbeschränkten Optimalsteuerungsproblemen approximiert, wobei wir in dem Integranden eine Straffunktion eingeführt haben, die mit dem Parameter S gewichtet wurde. Somit konnten wir unter Anwendung unseres erweiterten Ansatzes die ursprünglichen Probleme gut approximieren und für hinreichend große S waren die Lösungen der unbeschränkten und beschränkten Probleme im numerischen Sinne identisch. Dabei unterschied sich in den Beispielen, wie groß das S gewählt werden muss, um eine gute Näherung zu erhalten.
Maligne Erkrankungen zeigen oft charakteristische genetische Veränderungen. Das Auffinden derartiger Veränderungen wurde in den letzten Jahren durch verfeinerte molekulare Techniken erleichtert. Viele genetische Ereignisse in den maligne transformierten Zellen sind jedoch noch ungeklärt. Die präzise Bestimmung der Bruchpunktregionen chromosomaler Veränderungen bei T-Zell akuten lymphatischen Leukämien ist Inhalt dieser Arbeit. Hierzu wurde die „Fine Tiling-Comparative Genomhybridisierung“ (FT-CGH) mit der „Ligation mediated-PCR“ (LM-PCR) kombiniert. Diese Methoden wurden zunächst an Zelllinien etabliert und anschließend in verschiedenen Leukämieproben eingesetzt. Chromosomale Aberrationen gehen häufig mit Verlust oder Gewinn von genetischem Material einher. Diese unbalancierten Anomalien lassen sich durch die Comparative Genomhybridisierung (CGH) ermitteln. Dieses Verfahren ermöglicht Differenzen der DNA-Menge einer zu untersuchenden Probe bezogen auf eine interne Kontrollprobe zu detektieren. Bei der Fine Tiling-CGH werden gezielt chromosomale Abschnitte hochauflösend auf eventuelle Abweichungen des DNA-Gehaltes analysiert. Anschließend werden die detektierten Bruchpunktregionen der DNA Schwankungen mittels der LM-PCR untersucht. Ein Abgleich mit einer internen Kontrollzelllinie HEK 293-T lässt atypische PCR-Fragmente bei der untersuchten Probe aufspüren. Der anschließende Sequenzabgleich unter der Verwendung des BLASTn Suchprogramms (National Center for Biotechnology Information) führte in den untersuchten Zelllinien, wie auch in den T-Zell akuten lymphatischen Leukämieproben zur Identifizierung verschiedener genomischer Veränderungen. Neben einfachen Deletionen wurden auch bisher ungeklärte komplexere chromosomale Translokationen nachgewiesen. So konnte unter anderem bei einer lymphoblastischen T-Zell-Leukämie die Translokation t(12;14)(q23;q11.2) auf genomischer Ebene geklärt werden. Hierbei fand im Abschnitt 14q11 innerhalb des TRA/D Locus eine Deletion von 89 Kilobasen statt. Die Bruchenden wurden mit der Sequenz des open reading frames C12orf42, welches im 12q23 Chromosomenabschnitt lokalisiert ist, zusammengelagert. Bei dieser chromosomalen Aberration wurde die C12orf42 Sequenz zerstört und 1,3 Kilobasen deletiert. Des Weiteren konnte bei einer akuten lymphoblastischen T-Zell-Leukämie die Inversion inv(14)(q11q32) mit involvierten TRA/D und IGH Locus auf Sequenzebene geklärt werden. Der Bruch des 14q11 Bereiches fand zwischen dem Genabschnitt der konstanten Region (TRAC) des TRA/D Locus und dem DAD1 (defender against cell death 1) Gens statt, wobei im beteiligten genetischen Abschnitt keine Rekombinasesignalsequenz (RSS) zu finden ist. Dieses belegt, dass fehlerhafte Umlagerungen innerhalb des Genoms nicht ausschließlich auf die Rekombinase zurückzuführen sind. Die vorliegende Arbeit zeigt, dass die Kombination aus FT-CGH und LM-PCR eine präzise Bruchpunktanalyse unbekannter chromosomaler Aberrationen, welche mit Imbalancen einhergehen, ermöglicht. Diese genaue Analyse dient der Identifizierung von Genen, welche direkt und indirekt durch diese genomischen Umlagerungen betroffen sind. Das Wissen über diese Veränderungen kann für das Verständnis der Pathogenese, für diagnostische Zwecke und zum Nachweis der minimalen Resterkrankung eingesetzt werden. Eine Klärung beteiligter Gene und Signalwege wird es erlauben, zielgerichtete und individualisierte Therapiestrategien zu entwickeln.
Jump penalized L1-Regression
(2012)
Die vorgelegte Arbeit beschäftigt sich mit Kurvenschätzung in einem Regressionsmodell für eindimensionale verrauschte Daten, welche die Ausreißer enthalten können. Dabei ist die Regression Funktion, also Funktion welche a priori unbekannt ist und welche geschätzt werden soll, eine beliebige absolut-integrierbare Funktion auf dem Intervall [0, 1) und Regression Schätzer eine Stückweise-konstante Funktion auf dem Intervall [0, 1). Die von uns betrachtende Schätzer sind stückweise-konstante Funktionen, welche die L1-Version den sogenannten Potts Funktional minimieren (s. [8]). Das L1 Potts Funktional ist so gewählt, dass einerseits die Komplexität des Schätzers in Form der Anzahl ihrer Sprünge beachtet wird und anderseits die absolute Abweichungen von den Daten betrachtet werden. Die Stufen des Minimierers vom L1 Potts Funktional entsprechen den lokalen Medianen von verrauschten Daten, im Gegensatz dazu entsprechen die Stufen des Minimierers von dem klassischen Potts Funktional (L2-Fall) den lokalen Mittelwerten von den Daten. Der Vorteil der L1-Version gegenüber L2-Version des Potts Funktionals kann dadurch erklärt werden, dass die Mediane bekannterweise viel robuster gegen Ausreißer als Mittelwerte sind. In der vorgelegten Arbeit wurden die asymptotischen Eigenschaften sowohl von der L1 Potts Funktionals als auch von seinen Minimierer studiert. Unter anderem, es konnte die Konsistenz des Schätzers für den Fall, dass die Originalfunktion f selbst eine Stufenfunktion ist, gezeigt werden. Dies stellt das Hauptergebnis der Arbeit dar. Konsistenz heißt hier, dass unter bestimmten Bedingungen die Minimierer vom L1 Potts Funktional gegen die Originalfunktion f konvergieren.
Diese Arbeit beschäftigt sich mit der Analyse und Modellierung des Microarrayexperiments. Hierfür wird das gesamte Experiment in fünf Teilprozesse zerlegt, die Reverse Transkription, die Hybridisierung, das Waschen, die Fluoreszenz und die Detektion. Jeder Teilprozess wurde separat modelliert und analysiert. Anschließend wurde die Teilprozesse im Gesamtmodell vereint und dieses für verschiedene Parametersituationen simuliert. Diese Arbeit ermöglicht eine mathematische Handhabung des Microarrayexperiments und deckt seine Abhängigkeit von den einzelnen Schritten des Experiments auf. Dies kann benutzt werden, um Normalisierung und Analyse zu verbessern.
Jedes Metagenom umfasst die gesamte genomische Information eines kompletten Ökosystems. Die Analyse eines solchen Systems bedarf der Bestimmung aller darin enthaltenen Nukleinsäuren, stellvertretend für den Bauplan eines jeden Organismus, um Kenntnis über die in diesem Ökosystem nachweisbaren Organismen zu erlangen. Ferner bietet die diagnostische Metagenomanalyse eine Möglichkeit zur Identifizierung von sowohl bekannten als auch unbekannten Pathogenen. Zu diesem Zweck wird dem Metagenom eine Probe entnommen, welche einen repräsentativen Ausschnitt aller darin vorliegenden Organismen enthält. Da a priori keine Informationen zu den in der Probe enthaltenen Organismen vorliegen, bedarf es einer ungerichteten Methode zur Bestimmung aller enthaltenen Nukleinsäuren. Eine geeignete Lösung bietet die Sequenzierung. Darin werden alle Moleküle der Ausgangsprobe mit ungefähr gleicher Wahrscheinlichkeit bestimmt und der erzeugte Datensatz, bestehend aus Millionen kleiner Sequenzabschnitte, entspricht einem repräsentativen Querschnitt der in der Probe nachweisbaren Organismen. Die Herausforderung besteht in der Zuordnung einer jeden Sequenz zu ihren Ursprungsorganismen und die Sequenzen zu identifizieren, die mit einem potentiellen Erreger assoziiert werden können. Aktuell herrscht ein Defizit an Werkzeugen, die diese Zuordnung sowohl schnell als auch präzise vornehmen und speziell für die diagnostische Metagenomanalyse konzipiert sind. Zu diesem Zweck wurde im Rahmen dieser Arbeit eine Software-Pipeline mit Namen RIEMS (164) (Reliable Information Extraction from Metagenomic Sequence datasets) entwickelt, die bestehende Software zur Analyse von Sequenzdaten auf eine Weise verknüpft, die deren Stärken ausnutzt und Schwächen eliminiert. RIEMS ist in der Lage mit Hilfe bekannter Alignierungsalgorithmen und dem Abgleich der Sequenzen mit einschlägigen Datenbanken umfangreiche Datensätze schnell zu analysieren und Nukleinsäuresequenzen präzise ihren putativen Ursprungstaxa zuzuordnen (164). Die vorliegende Arbeit verdeutlicht die Effizienz dieses Computerprogramms im Vergleich zu bestehenden Software-Pipelines. Des Weiteren illustriert sie dessen möglichen Einsatz in der Diagnostik zur Pathogenidentifizierung anhand einiger Beispiele. Dabei können nicht nur bekannte Organismen identifiziert werden, sondern auch unbekannte, noch nicht näher beschriebene Organismen detektiert werden.
Die Arbeit befasst sich mit der Parameterbestimmung in gewöhnlichen Differentialgleichungssystemen aus gegebenen Messdaten. Als Zielfunktion wird die quadratische Abweichungen betrachtet, ebenso wie die Betragssummen- und Tschebyschev-Norm der Differenz von der Lösung der gewöhnlichen Differentialgleichung und des Messwert-Vektors. Zur Anwendung kommen dabei sowohl iterative Optimierungsverfahren als auch direkte Methoden der optimalen Steuerung.
Die Arbeit untersucht die Geometrie selbstähnlicher Mengen endlichen Typs, indem die möglichen Nachbarschaften kleiner Teile klassifiziert und ihr Zusammenhang untersucht werden. Anwendungen sind die Dimension von selbstähnlichen Maßen und überlappenden Konstruktionen sowie die Bestimmung von Zusammenhangseigenschaften.