Refine
Year of publication
Document Type
- Doctoral Thesis (21)
Language
- German (21) (remove)
Has Fulltext
- yes (21)
Is part of the Bibliography
- no (21)
Keywords
- Numerische Mathematik (4)
- Optimale Kontrolle (3)
- Optimale Steuerung (3)
- Robuste Statistik (2)
- 1H-NMR (1)
- Abweichung (1)
- Akute lymphatische Leukämie (1)
- Algorithmus (1)
- Approximationsalgorithmus (1)
- Assemblierung (1)
Institute
- Institut für Mathematik und Informatik (21) (remove)
Die vorliegende Arbeit ist im Bereich der parameterfreien Statistik anzusiedeln und beschäftigt sich mit der Anwendung von ordinalen Verfahren auf Zeitreihen und Bilddaten. Die Basis bilden dabei die sogenannten ordinalen Muster in ein bzw. zwei Dimensionen. Der erste Hauptteil der Arbeit gibt einen Überblick über die breiten Einsatzmöglichkeiten ordinaler Muster in der Zeitreihenanalyse. Mit ihrer Hilfe wird bei simulierten gebrochenen Brownschen Bewegungen der Hurst-Exponenten geschätzt und anhand von EEG-Daten eine Klassifikationsaufgabe gelöst. Des Weiteren wird die auf der Verteilung der ordinalen Muster beruhende Permutationsentropie eingesetzt, um in Magnetresonanztomographie (MRT)-Ruhedaten Kopfbewegungen der Probanden zu detektieren. Der zweite Hauptteil der Arbeit befasst sich mit der Erweiterung der ordinalen Muster auf zwei Dimensionen, um sie für Bilddaten nutzbar zu machen. Nach einigen Betrachtungen an fraktalen Oberflächen steht eine automatisierte und robuste Einschätzung der Qualität struktureller MRT-Daten im Vordergrund.
Die dem Leben zugrundeliegenden Prozesse sind hochkomplex. Sie werden zu einem Großteil durch Proteine umgesetzt. Diese spielen eine tragende Rolle für die morphologische Struktur und Vielfalt sowie Spezifität der Fähigkeiten der verschiedenen Zelltypen. Jedoch wirken Proteine nicht isoliert für sich allein sondern indem sie miteinander oder mit anderen Molekülen in der Zelle (DNA, Metabolite, Signalstoffe etc.) wechselwirken. Gerät dieses Geflecht von aufeinander abgestimmten Wechselwirkungen aus dem Gleichgewicht, kann das eine Ursache für Erkrankungen sein. Die Kenntnis über fehlregulierte Interaktionen kann dabei helfen, die betreffende Krankheit besser zu verstehen und gegen sie zu intervenieren. Die vorliegende Dissertation beschäftigt sich mit der Identifizierung von solch differentiell regulierten Interaktionen. Im Rahmen der Arbeit wurde eine Methode mit dem Namen ExprEssence entwickelt, welche diejenigen Interaktionen in einem Protein-Protein-Interaktionsnetzwerk identifiziert, die sich zwischen zwei verglichenen Zuständen (z.B. krank versus gesund) am stärksten unterscheiden. Ziel ist es, das Netzwerk auf die wesentlichen Unterschiede zwischen den zwei untersuchten Zuständen zu reduzieren. Hierzu werden Genexpressions- oder Proteomdaten der beiden Zustände in das bereits bestehende Netzwerk integriert. Aus diesen Daten wird die Stärke/Häufigkeit des Auftretens der einzelnen Interaktionen des Netzwerks geschätzt. Die Interaktionen, deren Interaktionsstärken sich zwischen den betrachteten Zuständen am stärksten unterscheiden, werden beibehalten – die restlichen Interaktionen werden verworfen. Dies ergibt ein verkleinertes Subnetzwerk, das aus jenen Interaktionen besteht, die am stärksten differentiell reguliert sind. Diese Interaktionen und ihre Proteine sind Kandidaten für eine Erklärung der biologischen Unterschiede der betrachteten Zustände auf molekularem Niveau. Die Methode wurde auf verschiedene biologische Fragestellungen angewandt und mit anderen ähnlichen Methoden verglichen. Bei der Untersuchung der Unterschiede zwischen Erfolg und Misserfolg einer chemotherapeutischen Brustkrebstherapie konnte beispielsweise gezeigt werden, dass das mit ExprEssence erstellte Subnetzwerk einen stärkeren Bezug zu den bereits bekannten Therapieerfolg-relevanten Mechanismen aufweist als die Methoden, mit denen ExprEssence verglichen wurde. Weiterhin wurde im Subnetzwerk eine möglicherweise für den Therapieerfolg relevante Interaktion identifiziert, die in diesem Zusammenhang bisher nicht betrachtet wurde. Deren Bedeutung konnte in der experimentellen Nachverfolgung weiter untermauert werden. Einen weiteren Schwerpunkt der Arbeit bildete die Untersuchung des Interaktoms eines spezialisierten Zelltyps der Niere – des Podozyten. Dieser Zelltyp ist essentiell für die Filtrationskompetenz der Niere. Ein Interaktionsnetzwerk mit spezifisch für den Podozyten relevanten Interaktion gib es bisher nicht. Daher wurde ein Podozyten-spezifisches Protein-Protein-Interaktionsnetzwerk aus wissenschaftlichen Veröffentlichungen zusammengestellt und öffentlich verfügbar gemacht. Genexpressionsdaten vielfältiger Art, beispielsweise von Podozyten in verschiedenen Entwicklungsstadien oder in Zellkultur, wurden in das Netzwerk integriert und mit ExprEssence analysiert. So konnte beispielsweise gezeigt werden, dass die Dedifferenzierung von in Kultur gehaltenen Podozyten nicht dem Umkehrweg der zuvor durchlaufenen Differenzierung entspricht. Neben ExprEssence wurde weitere Software entwickelt, die die Anwendbarkeit von ExprEssence erweitert – MovieMaker und ExprEsSector. Mit MovieMaker werden die Übergänge zwischen den betrachteten Zuständen nachvollziehbarer visualisiert. ExprEsSector bildet die Vereinigungs- und Schnittmengen-Netzwerke von ExprEssence-Subnetzwerken. So können beispielsweise verschiedenen Krankheiten gemeinsame Veränderungen vom Normalzustand identifiziert werden. Ist für eine Krankheit bereits ein Therapieansatz vorhanden, der auf eine fehlregulierte Interaktion einwirkt, und ist diese Interaktion auch in der anderen Krankheit gleichartig differentiell reguliert, kann geprüft werden, ob diese Therapie auf die zweite Krankheit übertragen werden kann. Neben der Vorstellung und Diskussion der erzielten Ergebnisse, wird auch auf methodisch bedingte Nachteile eingegangen. Es werden Strategien aufgezeigt, wie die negativen Einflüsse möglichst minimiert werden können oder wie sie bei der Bewertung der Ergebnisse zu berücksichtigen sind. In Anbetracht der immer schneller ansteigenden Menge biologischer Daten ist es eine wesentliche Herausforderung geworden, aus diesen die essentiellen Informationen zu extrahieren. Der integrative Ansatz der Verknüpfung von Informationen verschiedener Quellen wurde mit ExprEssence und den Erweiterungen MovieMaker und ExprEsSector in einem Konzept zur Identifizierung zustandsrelevanter molekularer Mechanismen in intuitiv leicht erfassbarer Form umgesetzt.
Im Rahmen des hier verwendeten abstrakten, nichtkommutativen Unabhängigkeitsbegriffs gibt es nach dem Klassifikationssatz von Muraki genau fünf konkrete Unabhängigkeitsbegriffe: Tensor, boolesch, frei, monoton und antimonoton. Hierbei umfasst der Tensor-Fall den Unabhängigkeitsbegriff aus der klassischen Wahrscheinlichkeitstheorie. Ein Quanten-Levy-Prozess (QLP) ist ein Prozess mit unabhängigen, stationären Zuwächsen, dessen Verteilung durch einen Generator g festgelegt ist. Die QLP und die Generatoren in dieser Arbeit sind auf den Voiculescuschen dualen Halbgruppen definiert. Ein Generator ist ein bedingt positives, lineares Funktional mit g(1)=0. Diese Arbeit untersucht das Problem, zu einem QLP mit gegebenem Generator einen QLP auf einen Fockraum mit demselben Generator anzugeben. Zur Problem wird in drei Teilen bearbeitet. Im ersten Teil wird für jede konkrete Unabhängigkeit die Existenz eines QLP zu gegebenem Generator g nachgewiesen. Hierbei wird die Schoenberg-Korrespondenz für duale Halbgruppen verwendet und ein Quanten-Kolomogoroff Satz für QLP gezeigt. Der zweite Teil, der zugleich den Hauptteil der Arbeit darstellt, besteht aus dem Transformationssatz für duale Halbgruppen. Dieser besagt in etwa, dass ein gegebener QLP mit Generator g unter einer Transformation genannten Abbildung k zwischen zwei dualen Gruppen zu einem QLP mit Generator k•g transformiert werden kann. Dabei operieren der transformierte QLP und der ursprüngliche QLP im Wesentlichen auf denselbem Raum. Der Beweis des Transformationssatzes wird ausschließlich auf dem abstrakten, nichtkommutativen Unabhängigkeitsbegriff aufgebaut. Dabei wird der Existenzsatz aus dem ersten Teil verwendet und die punktweise Konvergenz eines infinitesimalen Faltens des gegebenen QLP ausgewertet an einem normierten Vektor bewiesen. Somit sind alle fünf konkreten Unabhängigkeitsbegriffe in einem einheitlichen Rahmen enthalten. Zu jedem konkreten nichtkommutativen Unabhängigkeitsbegriff werden im dritten Teil die besonders einfachen, additven QLP auf Fockräumen betrachtet. Hierbei ist ein additiver QLP einfach die Summe aus einem Erzeugungs-, einem Erhaltungs- und einem Vernichtungsprozess auf einem Fockraum, sowie aus einem Generatoranteil. Die Realisierung von QLP auf Fockräumen, also das oben genannte Problem, wird durch Transformieren eines passenden, additiven QLP erreicht. Insbesondere erhalten wir somit erstmals eine Realisierung von QLP auf Fockräumen mithilfe der Transformationstheorie im freien Fall. In einer Anwendung wird das nichtkommutative Analogon der Unitären Gruppe als duale Gruppe betrachtet. Im freien Fall als konkreten, nichtkommutativen Unabhängigkeitsbegriff und aufgrund der Unitarität kann hier zusätzlich bewiesen werden, dass auch auf Operator-Ebene ein infinitesimales Falten der additiven QLP in der starken Operatortopologie existiert. Weiterhin gilt im Gauß-Fall, das heißt obiger Erhaltungsprozess-Anteil verschwindet, dass sogar Normkonvergenz vorliegt.
Neue robuste Methoden zur Herzschlagerkennung und zur Quantifizierung der Herzfrequenzvariabilität
(2016)
Für die Analyse der Herzfrequenz ist eine genaue Detektion des Herzschlags aus Rohdaten unerlässlich. Standardmethoden der Herzschlagerkennung sind für elektrische Biosignale konfiguriert worden, die in einem standardisierten klinischen Umfeld erhoben wurden, insbesondere für das Elektrokardiogramm. Im Zuge neuer Möglichkeiten zur Erfassung der Vitalparameter (über Smartphone, drahtlose Möglichkeiten) und zur Reduktion von Falschalarmen im Krankenhaus werden zunehmend robuste Methoden benötigt. Im ersten Kapitel haben wir einen neuen Algorithmus eingeführt, welcher in der Lage ist, unterschiedliche Wellenformen zu verarbeiten und die Informationen aus mehreren gleichzeitig erhobenen Biosignalen zu bündeln. Die Leistungsfähigkeit wurde im Vergleich mit anderen Methoden an freien Datensätzen überprüft und wir konnten uns von der vielfältigen Anwendbarkeit und der Störungsresistenz überzeugen. Im zweiten Kapitel haben wir uns mit der Quantifizierung der Herzfrequenzvariabilität (HRV) beschäftigt und ein neues leicht verständliches Maß eingeführt. Das dafür notwendige Konzept von relativen RR-Abständen wurde diskutiert und die Nutzung zur Artefaktfilterung und zur Klassifikation von Arrhythmiearten aufgezeigt. Vor- und Nachteile klassischer Methoden der HRV haben wir durch einige mathematische Eigenschaften begründet. Im dritten Kapitel der Dissertation haben wir das neue Maß an realen Daten angewendet und die Abhängigkeit der HRV vom Alter der Probanden und von der Herzfrequenz untersucht. Zudem haben wir periodische Strukturen des Streudiagramms von relativen RR-Abständen betrachtet, für die die Atmung ursächlich ist. Als wissenschaftliche Transferleistung wurde abschließend ein freies Programm geschaffen, welches die neuen robusten Methoden umsetzt.
Es wird ein neues Konzept für die Modellierung von (zeitlichen) Realisierungen komplexer und stark verrauschter Prozessabhängigkeiten ohne spezielle Vorkenntnisse vorgestellt. Als Grundlage dient das "Errors-in-Variables Model" (EVM) als ein "Total Least Square" (TLS)- Verfahren zur asymptotisch fehlerfreien Rekonstruktion einer linearen Prozessabhängigkeit. Die hierfür notwendigen Informationen zum Fehlerrauschen in den Variablen werden indirekt in den (zeitlichen) Realisierungen mit Hilfe eines neuen Vergleichsmaßes für Strukturen (EP- Maß) auf Basis des Ähnlichkeits- Koeffizienten nach Dice / Sørensen erhalten, d.h. solange der fehlerfreie Prozess sich nicht in Strukturen eines weißen Rauschens realisiert. Dies kann vorab mit Hilfe einer schrittweisen Gauß- Tiefpass- Filterung der Ausgangsdaten im jeweiligen EP- Vergleich zu den ungefilterten Daten entschieden werden. Durch ein unabhängiges Zusatz- Fehlerrauschen wird zwischen den modellierten und den abzubildenden Daten schrittweise eine maximale strukturelle Ähnlichkeit „künstlich“ hergestellt "Sequential Iterative NOise Matching Algorithm" (SINOMA), die dann mit Hilfe des Vergleichsmaßes unabhängig zum EVM- Verfahren erkannt werden kann. Unter diesen "Reduced Major Axis" (RMA-)Bedingungen des EVM- Verfahrens sind die Parameter der linearen Prozessabhängigkeit eindeutig bestimmbar, d.h. dann ohne Kenntnisse zum Fehlerrauschen in den Ausgangsdaten. Im Gegenteil, da hierbei das notwendige Zusatzrauschen für das Erreichen von RMA- Bedingungen „bekannt ist“, können auf diese Weise auch noch das Fehlerrauschen in den Ausgangsdaten und die entsprechenden Standardabweichungen der fehlerfreien Daten abgeschätzt werden. Hiermit sollte (erstmals) eine adäquate Lösung des Rekonstruktionsproblems prähistorischer Spannweiten klimatischer Schwankungen mit Hilfe von Proxy möglich sein.
Betrachtet werden Optimalsteuerungsaufgaben der dreidimensionalen Fischpopulationsmodelle. Solche Modelle gehören zu der Klasse der sogenannten Lotka-Volterra-Modelle. Fischerei-Probleme mit Steuerungen werden für Steuerungsfunktionen verschiedener Klassen gelöst. Der Schwerpunkt der Arbeit liegt auf den notwendigen Optimalitätsbedingungen, die mit Hilfe des Bellman-Prinzips hergeleitet werden.
Die Arbeit untersucht die Geometrie selbstähnlicher Mengen endlichen Typs, indem die möglichen Nachbarschaften kleiner Teile klassifiziert und ihr Zusammenhang untersucht werden. Anwendungen sind die Dimension von selbstähnlichen Maßen und überlappenden Konstruktionen sowie die Bestimmung von Zusammenhangseigenschaften.
In dieser Arbeit wird ein Verfahren zur Bestimmung von Toleranzbereichen für 1H-NMR-Spektren von Neugeborenenurinen zur Detektion von angeborenen Stoffwechselerkrankungen vorgestellt. Diese Krankheiten werden durch genetische Defekte ausgelöst, die eine schwerwiegende Funktionsstörung im Stoffwechselkreislauf verursachen. Die dadurch entstehenden Krankheitsbilder führen in der Regel zu Behinderungen und oftmals zum Tod. Eine frühe Diagnose und Behandlung können in vielen Fällen ein Überleben ohne Symptome ermöglichen. Beim derzeitigen Neugeborenenscreening werden in Deutschland zwölf der häufigsten Stoffwechselerkrankungen routinemäßig abgetestet - weit über hundert sind aktuell bekannt. Basierend auf einem Referenzdatensatz von 695 Neugeborenenurinspektren, werden in dieser Arbeit mathematische Methoden zur Bestimmung von Toleranzbereichen entwickelt, die eine ungezielte Detektion von Abweichungen ermöglichen, um schwerwiegende Krankheiten wie angeborene Stoffwechselerkrankungen frühzeitig und routinemäßig diagnostizieren zu können. Das Verfahren basiert dabei auf der robusten Ermittlung von Verteilungsfunktionen, Toleranzbereichen und Identifikation von Ausreißern für eindimensionale Stichproben von unbekannten Verteilungen. Mithilfe einer von der Box-Cox-Transformation abgeleiteten Transformationsfamilie, werden die gemessenen Kenngrößen in normalverteilte Stichproben überführt. Für die Bestimmung der optimalen Transformationsparameter wird die Teststatistik des Shapiro-Wilk-Tests auf Normalverteilung der transformierten Stichprobe verwendet. Die Betrachtung verschiedener links- und rechtsseitiger Trimmungen sichert dabei eine robuste Bestimmung, die nicht von Ausreißern innerhalb des Referenzdatensatzes beeinflusst wird. Anhand von Simulationsstudien wird die Leistung dieses Verfahrens an Stichproben mit bekannten Verteilungen ermittelt und demonstriert. Die Anwendbarkeit an abgeleiteten Kenngrößen aus den realen Urinspektren wird zunächst anhand von Metabolitenkonzentrationen gezeigt. Hierfür wurden im Rahmen dieser Arbeit Methoden zur Identifikation und Quantifikation von 22 ausgewählten Metaboliten entwickelt. Für die ungezielte Analyse werden aus den NMR-Spektren abstrakte Kenngrößen abgeleitet, welche die Protonenkonzentrationen in verschiedenen chemischen Verschiebungsbereichen zusammenfassen (sogenannte Bucketierung). Dadurch wird jedes Signal, unabhängig von Molekül oder funktioneller Gruppe, erfasst und ausgewertet. Bei der in dieser Arbeit verwendeten Strategie entstehen dadurch 500 Messwerte pro Spektrum, von denen 479 (96%) in normalverteilte Variablen überführt werden können. Für diese werden schließlich Toleranzbereiche definiert, um Messungen von weiteren Urinproben abzugleichen. Zusätzlich wird ausgehend von den transformierten Variablen eine Möglichkeit dargestellt, auch multivariate Toleranzbereiche auf Basis der Mahalanobisdistanz zu ermitteln, welche die Sensitivität des Tests auf abweichende Signale signifikant erhöht. Anhand einer Spiking-Simulationsstudie mit ca. 500.000 Spektren, bei denen die Signale von elf Verbindungen, die in Zusammenhang mit angeborenen Stoffwechselerkrankungen stehen, numerisch zu den Referenzspektren addiert werden, können Detektionsraten in Abhängigkeit der Konzentrationen dieser Verbindungen ermittelt werden.
Jedes Metagenom umfasst die gesamte genomische Information eines kompletten Ökosystems. Die Analyse eines solchen Systems bedarf der Bestimmung aller darin enthaltenen Nukleinsäuren, stellvertretend für den Bauplan eines jeden Organismus, um Kenntnis über die in diesem Ökosystem nachweisbaren Organismen zu erlangen. Ferner bietet die diagnostische Metagenomanalyse eine Möglichkeit zur Identifizierung von sowohl bekannten als auch unbekannten Pathogenen. Zu diesem Zweck wird dem Metagenom eine Probe entnommen, welche einen repräsentativen Ausschnitt aller darin vorliegenden Organismen enthält. Da a priori keine Informationen zu den in der Probe enthaltenen Organismen vorliegen, bedarf es einer ungerichteten Methode zur Bestimmung aller enthaltenen Nukleinsäuren. Eine geeignete Lösung bietet die Sequenzierung. Darin werden alle Moleküle der Ausgangsprobe mit ungefähr gleicher Wahrscheinlichkeit bestimmt und der erzeugte Datensatz, bestehend aus Millionen kleiner Sequenzabschnitte, entspricht einem repräsentativen Querschnitt der in der Probe nachweisbaren Organismen. Die Herausforderung besteht in der Zuordnung einer jeden Sequenz zu ihren Ursprungsorganismen und die Sequenzen zu identifizieren, die mit einem potentiellen Erreger assoziiert werden können. Aktuell herrscht ein Defizit an Werkzeugen, die diese Zuordnung sowohl schnell als auch präzise vornehmen und speziell für die diagnostische Metagenomanalyse konzipiert sind. Zu diesem Zweck wurde im Rahmen dieser Arbeit eine Software-Pipeline mit Namen RIEMS (164) (Reliable Information Extraction from Metagenomic Sequence datasets) entwickelt, die bestehende Software zur Analyse von Sequenzdaten auf eine Weise verknüpft, die deren Stärken ausnutzt und Schwächen eliminiert. RIEMS ist in der Lage mit Hilfe bekannter Alignierungsalgorithmen und dem Abgleich der Sequenzen mit einschlägigen Datenbanken umfangreiche Datensätze schnell zu analysieren und Nukleinsäuresequenzen präzise ihren putativen Ursprungstaxa zuzuordnen (164). Die vorliegende Arbeit verdeutlicht die Effizienz dieses Computerprogramms im Vergleich zu bestehenden Software-Pipelines. Des Weiteren illustriert sie dessen möglichen Einsatz in der Diagnostik zur Pathogenidentifizierung anhand einiger Beispiele. Dabei können nicht nur bekannte Organismen identifiziert werden, sondern auch unbekannte, noch nicht näher beschriebene Organismen detektiert werden.
Diese Dissertation untersucht Zusammenhänge der spieltheoretischen Begriffe des Nash- und Stackelberg-Gleichgewichts in Differenialspielen im N-Spieler-Fall. Weiterhin werden drei verschiedene Lösungskonzepte für das Finden von Gleichgewichten in 2-Spieler-Differentialspielen vorgestellt. Direkte Methoden aus der nichtlinearen Optimierung, der globalen Optimierung und der optimalen Steuerung werden verwendet, um Nash- und Stackelberg-Gleichgewichte in 2-Spieler-Differentialspielen zu finden. Anhand von Anwendungsbeispielen werden die Methoden getestet, analysiert und ausgewertet. Eine Erweiterung des Verfolgungsspiels von Isaacs auf Beschleunigungskomponenten wird betrachtet. Ein bisher unbekanntes Stackelberg-Gleichgewicht wird im Kapitalismusspiel nach Lancaster numerisch berechnet. Zuletzt wird ein Problem aus der Fischerei modelliert und anhand der eingeführten Methoden gelöst.