Refine
Year of publication
Document Type
- Doctoral Thesis (21)
Language
- German (21) (remove)
Has Fulltext
- yes (21)
Is part of the Bibliography
- no (21)
Keywords
- Numerische Mathematik (4)
- Optimale Kontrolle (3)
- Optimale Steuerung (3)
- Robuste Statistik (2)
- 1H-NMR (1)
- Abweichung (1)
- Akute lymphatische Leukämie (1)
- Algorithmus (1)
- Approximationsalgorithmus (1)
- Assemblierung (1)
Institute
- Institut für Mathematik und Informatik (21) (remove)
Diese Dissertation untersucht Zusammenhänge der spieltheoretischen Begriffe des Nash- und Stackelberg-Gleichgewichts in Differenialspielen im N-Spieler-Fall. Weiterhin werden drei verschiedene Lösungskonzepte für das Finden von Gleichgewichten in 2-Spieler-Differentialspielen vorgestellt. Direkte Methoden aus der nichtlinearen Optimierung, der globalen Optimierung und der optimalen Steuerung werden verwendet, um Nash- und Stackelberg-Gleichgewichte in 2-Spieler-Differentialspielen zu finden. Anhand von Anwendungsbeispielen werden die Methoden getestet, analysiert und ausgewertet. Eine Erweiterung des Verfolgungsspiels von Isaacs auf Beschleunigungskomponenten wird betrachtet. Ein bisher unbekanntes Stackelberg-Gleichgewicht wird im Kapitalismusspiel nach Lancaster numerisch berechnet. Zuletzt wird ein Problem aus der Fischerei modelliert und anhand der eingeführten Methoden gelöst.
Objektive Eingruppierung sequenzierter Tollwutisolate mithilfe des Affinity Propagation Clusterings.
(2018)
Das International Committee on Taxonomy of Viruses (ICTV) reguliert die Nomenklatur von Viren sowie die Entstehung neuer Taxa (dazu gehören: Ordnung, Familie, Unterfamilie, Gattung und Art/Spezies). Dank dieser Anstrengungen ist die Einteilung für verschiedenste Viren in diese Kategorien klar und transparent nachvollziehbar. In den vergangenen Jahrzehnten sind insgesamt mehr als 21.000 Datensätze der Spezies „rabies lyssavirus“ (RABV) sequenziert worden. Eine weiterführende Unterteilung der sequenzierten Virusisolate dieser Spezies ist bislang jedoch nicht einheitlich vorgeschlagen. Die große Anzahl an sequenzierten Isolaten führte auf Basis von phylogenetischen Bäumen zu uneindeutigen Ergebnissen bei der Einteilung in Cluster. Inhalt meiner Dissertation ist daher ein Vorschlag, diese Problematik mit der Anwendung einer partitionierenden Clusteringmethode zu lösen. Dazu habe ich erstmals die Methodik des affinity propagation clustering (AP) für solche Fragestellungen eingesetzt. Als Datensatz wurden alle verfügbaren sequenzierten Vollgenomisolate der Spezies RABV analysiert. Die Analysen des Datensatzes ergaben vier Hauptcluster, die sich geographisch separieren ließen und entsprechend als „Arctic“, „Cosmopolitain“, „Asian“ und „New World“ bezeichnet wurden. Weiterführende Analysen erlaubten auch eine weitere Aufteilung dieser Hauptcluster in 12-13 Untercluster. Zusätzlich konnte ich einen Workflow generieren, der die Möglichkeit bietet, die mittels AP definierten Cluster mit den Ergebnissen der phylogenetischen Auswertungen zu kombinieren. Somit lassen sich sowohl Verwandtschaftsverhältnisse erkennen als auch eine objektive Clustereinteilung vornehmen. Dies könnte auch ein möglicher Analyseweg für weitere Virusspezies oder andere vergleichende Sequenzanalysen sein.
Die vorliegende Arbeit ist im Bereich der parameterfreien Statistik anzusiedeln und beschäftigt sich mit der Anwendung von ordinalen Verfahren auf Zeitreihen und Bilddaten. Die Basis bilden dabei die sogenannten ordinalen Muster in ein bzw. zwei Dimensionen. Der erste Hauptteil der Arbeit gibt einen Überblick über die breiten Einsatzmöglichkeiten ordinaler Muster in der Zeitreihenanalyse. Mit ihrer Hilfe wird bei simulierten gebrochenen Brownschen Bewegungen der Hurst-Exponenten geschätzt und anhand von EEG-Daten eine Klassifikationsaufgabe gelöst. Des Weiteren wird die auf der Verteilung der ordinalen Muster beruhende Permutationsentropie eingesetzt, um in Magnetresonanztomographie (MRT)-Ruhedaten Kopfbewegungen der Probanden zu detektieren. Der zweite Hauptteil der Arbeit befasst sich mit der Erweiterung der ordinalen Muster auf zwei Dimensionen, um sie für Bilddaten nutzbar zu machen. Nach einigen Betrachtungen an fraktalen Oberflächen steht eine automatisierte und robuste Einschätzung der Qualität struktureller MRT-Daten im Vordergrund.
Neue robuste Methoden zur Herzschlagerkennung und zur Quantifizierung der Herzfrequenzvariabilität
(2016)
Für die Analyse der Herzfrequenz ist eine genaue Detektion des Herzschlags aus Rohdaten unerlässlich. Standardmethoden der Herzschlagerkennung sind für elektrische Biosignale konfiguriert worden, die in einem standardisierten klinischen Umfeld erhoben wurden, insbesondere für das Elektrokardiogramm. Im Zuge neuer Möglichkeiten zur Erfassung der Vitalparameter (über Smartphone, drahtlose Möglichkeiten) und zur Reduktion von Falschalarmen im Krankenhaus werden zunehmend robuste Methoden benötigt. Im ersten Kapitel haben wir einen neuen Algorithmus eingeführt, welcher in der Lage ist, unterschiedliche Wellenformen zu verarbeiten und die Informationen aus mehreren gleichzeitig erhobenen Biosignalen zu bündeln. Die Leistungsfähigkeit wurde im Vergleich mit anderen Methoden an freien Datensätzen überprüft und wir konnten uns von der vielfältigen Anwendbarkeit und der Störungsresistenz überzeugen. Im zweiten Kapitel haben wir uns mit der Quantifizierung der Herzfrequenzvariabilität (HRV) beschäftigt und ein neues leicht verständliches Maß eingeführt. Das dafür notwendige Konzept von relativen RR-Abständen wurde diskutiert und die Nutzung zur Artefaktfilterung und zur Klassifikation von Arrhythmiearten aufgezeigt. Vor- und Nachteile klassischer Methoden der HRV haben wir durch einige mathematische Eigenschaften begründet. Im dritten Kapitel der Dissertation haben wir das neue Maß an realen Daten angewendet und die Abhängigkeit der HRV vom Alter der Probanden und von der Herzfrequenz untersucht. Zudem haben wir periodische Strukturen des Streudiagramms von relativen RR-Abständen betrachtet, für die die Atmung ursächlich ist. Als wissenschaftliche Transferleistung wurde abschließend ein freies Programm geschaffen, welches die neuen robusten Methoden umsetzt.
Es wird ein neues Konzept für die Modellierung von (zeitlichen) Realisierungen komplexer und stark verrauschter Prozessabhängigkeiten ohne spezielle Vorkenntnisse vorgestellt. Als Grundlage dient das "Errors-in-Variables Model" (EVM) als ein "Total Least Square" (TLS)- Verfahren zur asymptotisch fehlerfreien Rekonstruktion einer linearen Prozessabhängigkeit. Die hierfür notwendigen Informationen zum Fehlerrauschen in den Variablen werden indirekt in den (zeitlichen) Realisierungen mit Hilfe eines neuen Vergleichsmaßes für Strukturen (EP- Maß) auf Basis des Ähnlichkeits- Koeffizienten nach Dice / Sørensen erhalten, d.h. solange der fehlerfreie Prozess sich nicht in Strukturen eines weißen Rauschens realisiert. Dies kann vorab mit Hilfe einer schrittweisen Gauß- Tiefpass- Filterung der Ausgangsdaten im jeweiligen EP- Vergleich zu den ungefilterten Daten entschieden werden. Durch ein unabhängiges Zusatz- Fehlerrauschen wird zwischen den modellierten und den abzubildenden Daten schrittweise eine maximale strukturelle Ähnlichkeit „künstlich“ hergestellt "Sequential Iterative NOise Matching Algorithm" (SINOMA), die dann mit Hilfe des Vergleichsmaßes unabhängig zum EVM- Verfahren erkannt werden kann. Unter diesen "Reduced Major Axis" (RMA-)Bedingungen des EVM- Verfahrens sind die Parameter der linearen Prozessabhängigkeit eindeutig bestimmbar, d.h. dann ohne Kenntnisse zum Fehlerrauschen in den Ausgangsdaten. Im Gegenteil, da hierbei das notwendige Zusatzrauschen für das Erreichen von RMA- Bedingungen „bekannt ist“, können auf diese Weise auch noch das Fehlerrauschen in den Ausgangsdaten und die entsprechenden Standardabweichungen der fehlerfreien Daten abgeschätzt werden. Hiermit sollte (erstmals) eine adäquate Lösung des Rekonstruktionsproblems prähistorischer Spannweiten klimatischer Schwankungen mit Hilfe von Proxy möglich sein.
In dieser Arbeit beschäftigen wir uns mit symplektischen Lie-Algebren und metrischen, symplektischen Lie-Algebren. Wir erweitern ein bestehendes Klassifikationsschema mittels quadratischer Erweiterungen für metrische Lie-Algebren mit halbeinfachen, schiefsymmetrischen Derivationen so, dass damit sämtliche metrischen, symplektischen Lie-Algebren auf Isomorphie untersucht werden können. Damit bestimmen wir die Isomorphieklassen aller nichtabelschen, metrischen, symplektischen Lie-Algebren, der Dimension kleiner als zehn, sowie alle mit einem Index von kleiner oder gleich drei. Anschließend wird in Analogie zur Herangehensweise für metrische Lie-Algebren ein Klassifikationsschema für symplektische Lie-Algebren mit ausgeartetem Zentrum mittels quadratischer Erweiterungen aufgebaut, was uns zudem ein Klassifikationsschema für nilpotente, symplektische Lie-Algebren liefert. Abschließend berechnen wir konkret ein Repräsentantensystem der Isomorphieklassen aller sechsdimensionalen, nilpotenten, symplektischen Lie-Algebren.
In der Dissertation haben wir uns mit dem numerischen Lösen von unbeschränkten Optimalsteuerungsproblemen beschäftigt. Dabei war das Ziel der Arbeit die Homotopie-Methode von Costanza zu untersuchen, kritisch zu hinterfragen und sie zu erweitern. Dazu haben wir zuerst Optimalsteuerungsprobleme untersucht und Resultate aus der Funktionalanalysis zitiert, die wir benötigen, um notwendige Bedingungen für ein unbeschränktes Optimalsteuerungsproblem herzuleiten. Die zentrale Idee dabei ist, dass wir ein äquivalentes, infinites Optimierungsproblem aufstellen und für dieses die notwendigen Bedingungen herleiten und beweisen. Die erhaltenen Resultate haben wir dann auf unbeschränkte Optimalsteuerungsprobleme übertragen. Ziel des Ansatzes ist es, die unbekannten Anfangs- und Endwerte der Zustände und Adjungierten in Abhängigkeit von frei wählbaren Parametern zu berechnen, so dass nur noch ein reines Anfangs- oder Endwertproblem gelöst werden muss, welches numerisch einfacher zu handhaben ist. Dabei stellte sich im Verlauf der Arbeit heraus, dass Costanzas Ansatz nicht allgemeingültig ist und nur auf spezielle Fälle angewendet werden kann. Wir haben den ursprünglichen Ansatz neu hergeleitet und an den kritischen Stellen angepasst, so dass dieser beispielunabhängig benutzt werden kann. Danach haben wir uns mit der numerische Umsetzung unseres Ansatzes befasst. Zum Lösen der gewöhnlichen Differentialgleichungssysteme mit gegebenen Anfangswerten benutzten wir ein in MATLAB implementiertes, explizites Runge-Kutta-Verfahren mit Schrittweitensteuerung. Ein wichtiger Punkt dabei war die Approximation der Jacobi-Matrix der Zustands- und Adjungiertengleichungen mit Hilfe von Complex step differentiation. Diese liefert schnellere und stabilere Approximationen an die ersten Ableitungen als z.B. der zentrale Differenzenquotient, da bei diesem numerische Auslöschung auftreten kann. Weiterhin haben wir direkte und indirekte Verfahren genannt, die man zum Lösen von Optimalsteuerungsproblemen benutzen kann, um die Genauigkeit unseres Ansatzes zu überprüfen. Im letzten Kapitel haben wir unseren Ansatz an verschiedenen Beispielen getestet. Dabei haben wir zuerst unbeschränkte Optimalsteuerungsprobleme betrachtet, die alle sehr gut gelöst wurden. Dessen numerische Lösung wurde effizient und mit hoher Genauigkeit berechnet. Dies ist insbesondere bemerkenswert, da man mit anderen Ansätzen oft eine gute Startlösung benötigt, damit die jeweiligen Verfahren konvergieren. Abschließend haben wir Beispiele für beschränkte Optimalsteuerungsprobleme betrachtet. Diese haben wir mit unbeschränkten Optimalsteuerungsproblemen approximiert, wobei wir in dem Integranden eine Straffunktion eingeführt haben, die mit dem Parameter S gewichtet wurde. Somit konnten wir unter Anwendung unseres erweiterten Ansatzes die ursprünglichen Probleme gut approximieren und für hinreichend große S waren die Lösungen der unbeschränkten und beschränkten Probleme im numerischen Sinne identisch. Dabei unterschied sich in den Beispielen, wie groß das S gewählt werden muss, um eine gute Näherung zu erhalten.
Jedes Metagenom umfasst die gesamte genomische Information eines kompletten Ökosystems. Die Analyse eines solchen Systems bedarf der Bestimmung aller darin enthaltenen Nukleinsäuren, stellvertretend für den Bauplan eines jeden Organismus, um Kenntnis über die in diesem Ökosystem nachweisbaren Organismen zu erlangen. Ferner bietet die diagnostische Metagenomanalyse eine Möglichkeit zur Identifizierung von sowohl bekannten als auch unbekannten Pathogenen. Zu diesem Zweck wird dem Metagenom eine Probe entnommen, welche einen repräsentativen Ausschnitt aller darin vorliegenden Organismen enthält. Da a priori keine Informationen zu den in der Probe enthaltenen Organismen vorliegen, bedarf es einer ungerichteten Methode zur Bestimmung aller enthaltenen Nukleinsäuren. Eine geeignete Lösung bietet die Sequenzierung. Darin werden alle Moleküle der Ausgangsprobe mit ungefähr gleicher Wahrscheinlichkeit bestimmt und der erzeugte Datensatz, bestehend aus Millionen kleiner Sequenzabschnitte, entspricht einem repräsentativen Querschnitt der in der Probe nachweisbaren Organismen. Die Herausforderung besteht in der Zuordnung einer jeden Sequenz zu ihren Ursprungsorganismen und die Sequenzen zu identifizieren, die mit einem potentiellen Erreger assoziiert werden können. Aktuell herrscht ein Defizit an Werkzeugen, die diese Zuordnung sowohl schnell als auch präzise vornehmen und speziell für die diagnostische Metagenomanalyse konzipiert sind. Zu diesem Zweck wurde im Rahmen dieser Arbeit eine Software-Pipeline mit Namen RIEMS (164) (Reliable Information Extraction from Metagenomic Sequence datasets) entwickelt, die bestehende Software zur Analyse von Sequenzdaten auf eine Weise verknüpft, die deren Stärken ausnutzt und Schwächen eliminiert. RIEMS ist in der Lage mit Hilfe bekannter Alignierungsalgorithmen und dem Abgleich der Sequenzen mit einschlägigen Datenbanken umfangreiche Datensätze schnell zu analysieren und Nukleinsäuresequenzen präzise ihren putativen Ursprungstaxa zuzuordnen (164). Die vorliegende Arbeit verdeutlicht die Effizienz dieses Computerprogramms im Vergleich zu bestehenden Software-Pipelines. Des Weiteren illustriert sie dessen möglichen Einsatz in der Diagnostik zur Pathogenidentifizierung anhand einiger Beispiele. Dabei können nicht nur bekannte Organismen identifiziert werden, sondern auch unbekannte, noch nicht näher beschriebene Organismen detektiert werden.
Die dem Leben zugrundeliegenden Prozesse sind hochkomplex. Sie werden zu einem Großteil durch Proteine umgesetzt. Diese spielen eine tragende Rolle für die morphologische Struktur und Vielfalt sowie Spezifität der Fähigkeiten der verschiedenen Zelltypen. Jedoch wirken Proteine nicht isoliert für sich allein sondern indem sie miteinander oder mit anderen Molekülen in der Zelle (DNA, Metabolite, Signalstoffe etc.) wechselwirken. Gerät dieses Geflecht von aufeinander abgestimmten Wechselwirkungen aus dem Gleichgewicht, kann das eine Ursache für Erkrankungen sein. Die Kenntnis über fehlregulierte Interaktionen kann dabei helfen, die betreffende Krankheit besser zu verstehen und gegen sie zu intervenieren. Die vorliegende Dissertation beschäftigt sich mit der Identifizierung von solch differentiell regulierten Interaktionen. Im Rahmen der Arbeit wurde eine Methode mit dem Namen ExprEssence entwickelt, welche diejenigen Interaktionen in einem Protein-Protein-Interaktionsnetzwerk identifiziert, die sich zwischen zwei verglichenen Zuständen (z.B. krank versus gesund) am stärksten unterscheiden. Ziel ist es, das Netzwerk auf die wesentlichen Unterschiede zwischen den zwei untersuchten Zuständen zu reduzieren. Hierzu werden Genexpressions- oder Proteomdaten der beiden Zustände in das bereits bestehende Netzwerk integriert. Aus diesen Daten wird die Stärke/Häufigkeit des Auftretens der einzelnen Interaktionen des Netzwerks geschätzt. Die Interaktionen, deren Interaktionsstärken sich zwischen den betrachteten Zuständen am stärksten unterscheiden, werden beibehalten – die restlichen Interaktionen werden verworfen. Dies ergibt ein verkleinertes Subnetzwerk, das aus jenen Interaktionen besteht, die am stärksten differentiell reguliert sind. Diese Interaktionen und ihre Proteine sind Kandidaten für eine Erklärung der biologischen Unterschiede der betrachteten Zustände auf molekularem Niveau. Die Methode wurde auf verschiedene biologische Fragestellungen angewandt und mit anderen ähnlichen Methoden verglichen. Bei der Untersuchung der Unterschiede zwischen Erfolg und Misserfolg einer chemotherapeutischen Brustkrebstherapie konnte beispielsweise gezeigt werden, dass das mit ExprEssence erstellte Subnetzwerk einen stärkeren Bezug zu den bereits bekannten Therapieerfolg-relevanten Mechanismen aufweist als die Methoden, mit denen ExprEssence verglichen wurde. Weiterhin wurde im Subnetzwerk eine möglicherweise für den Therapieerfolg relevante Interaktion identifiziert, die in diesem Zusammenhang bisher nicht betrachtet wurde. Deren Bedeutung konnte in der experimentellen Nachverfolgung weiter untermauert werden. Einen weiteren Schwerpunkt der Arbeit bildete die Untersuchung des Interaktoms eines spezialisierten Zelltyps der Niere – des Podozyten. Dieser Zelltyp ist essentiell für die Filtrationskompetenz der Niere. Ein Interaktionsnetzwerk mit spezifisch für den Podozyten relevanten Interaktion gib es bisher nicht. Daher wurde ein Podozyten-spezifisches Protein-Protein-Interaktionsnetzwerk aus wissenschaftlichen Veröffentlichungen zusammengestellt und öffentlich verfügbar gemacht. Genexpressionsdaten vielfältiger Art, beispielsweise von Podozyten in verschiedenen Entwicklungsstadien oder in Zellkultur, wurden in das Netzwerk integriert und mit ExprEssence analysiert. So konnte beispielsweise gezeigt werden, dass die Dedifferenzierung von in Kultur gehaltenen Podozyten nicht dem Umkehrweg der zuvor durchlaufenen Differenzierung entspricht. Neben ExprEssence wurde weitere Software entwickelt, die die Anwendbarkeit von ExprEssence erweitert – MovieMaker und ExprEsSector. Mit MovieMaker werden die Übergänge zwischen den betrachteten Zuständen nachvollziehbarer visualisiert. ExprEsSector bildet die Vereinigungs- und Schnittmengen-Netzwerke von ExprEssence-Subnetzwerken. So können beispielsweise verschiedenen Krankheiten gemeinsame Veränderungen vom Normalzustand identifiziert werden. Ist für eine Krankheit bereits ein Therapieansatz vorhanden, der auf eine fehlregulierte Interaktion einwirkt, und ist diese Interaktion auch in der anderen Krankheit gleichartig differentiell reguliert, kann geprüft werden, ob diese Therapie auf die zweite Krankheit übertragen werden kann. Neben der Vorstellung und Diskussion der erzielten Ergebnisse, wird auch auf methodisch bedingte Nachteile eingegangen. Es werden Strategien aufgezeigt, wie die negativen Einflüsse möglichst minimiert werden können oder wie sie bei der Bewertung der Ergebnisse zu berücksichtigen sind. In Anbetracht der immer schneller ansteigenden Menge biologischer Daten ist es eine wesentliche Herausforderung geworden, aus diesen die essentiellen Informationen zu extrahieren. Der integrative Ansatz der Verknüpfung von Informationen verschiedener Quellen wurde mit ExprEssence und den Erweiterungen MovieMaker und ExprEsSector in einem Konzept zur Identifizierung zustandsrelevanter molekularer Mechanismen in intuitiv leicht erfassbarer Form umgesetzt.
Betrachtet werden Optimalsteuerungsaufgaben der dreidimensionalen Fischpopulationsmodelle. Solche Modelle gehören zu der Klasse der sogenannten Lotka-Volterra-Modelle. Fischerei-Probleme mit Steuerungen werden für Steuerungsfunktionen verschiedener Klassen gelöst. Der Schwerpunkt der Arbeit liegt auf den notwendigen Optimalitätsbedingungen, die mit Hilfe des Bellman-Prinzips hergeleitet werden.