Refine
Year of publication
Document Type
- Doctoral Thesis (21)
Language
- German (21) (remove)
Has Fulltext
- yes (21)
Is part of the Bibliography
- no (21)
Keywords
- Numerische Mathematik (4)
- Optimale Kontrolle (3)
- Optimale Steuerung (3)
- Robuste Statistik (2)
- 1H-NMR (1)
- Abweichung (1)
- Akute lymphatische Leukämie (1)
- Algorithmus (1)
- Approximationsalgorithmus (1)
- Assemblierung (1)
Institute
- Institut für Mathematik und Informatik (21) (remove)
Die vorliegende Arbeit ist im Bereich der parameterfreien Statistik anzusiedeln und beschäftigt sich mit der Anwendung von ordinalen Verfahren auf Zeitreihen und Bilddaten. Die Basis bilden dabei die sogenannten ordinalen Muster in ein bzw. zwei Dimensionen. Der erste Hauptteil der Arbeit gibt einen Überblick über die breiten Einsatzmöglichkeiten ordinaler Muster in der Zeitreihenanalyse. Mit ihrer Hilfe wird bei simulierten gebrochenen Brownschen Bewegungen der Hurst-Exponenten geschätzt und anhand von EEG-Daten eine Klassifikationsaufgabe gelöst. Des Weiteren wird die auf der Verteilung der ordinalen Muster beruhende Permutationsentropie eingesetzt, um in Magnetresonanztomographie (MRT)-Ruhedaten Kopfbewegungen der Probanden zu detektieren. Der zweite Hauptteil der Arbeit befasst sich mit der Erweiterung der ordinalen Muster auf zwei Dimensionen, um sie für Bilddaten nutzbar zu machen. Nach einigen Betrachtungen an fraktalen Oberflächen steht eine automatisierte und robuste Einschätzung der Qualität struktureller MRT-Daten im Vordergrund.
Die dem Leben zugrundeliegenden Prozesse sind hochkomplex. Sie werden zu einem Großteil durch Proteine umgesetzt. Diese spielen eine tragende Rolle für die morphologische Struktur und Vielfalt sowie Spezifität der Fähigkeiten der verschiedenen Zelltypen. Jedoch wirken Proteine nicht isoliert für sich allein sondern indem sie miteinander oder mit anderen Molekülen in der Zelle (DNA, Metabolite, Signalstoffe etc.) wechselwirken. Gerät dieses Geflecht von aufeinander abgestimmten Wechselwirkungen aus dem Gleichgewicht, kann das eine Ursache für Erkrankungen sein. Die Kenntnis über fehlregulierte Interaktionen kann dabei helfen, die betreffende Krankheit besser zu verstehen und gegen sie zu intervenieren. Die vorliegende Dissertation beschäftigt sich mit der Identifizierung von solch differentiell regulierten Interaktionen. Im Rahmen der Arbeit wurde eine Methode mit dem Namen ExprEssence entwickelt, welche diejenigen Interaktionen in einem Protein-Protein-Interaktionsnetzwerk identifiziert, die sich zwischen zwei verglichenen Zuständen (z.B. krank versus gesund) am stärksten unterscheiden. Ziel ist es, das Netzwerk auf die wesentlichen Unterschiede zwischen den zwei untersuchten Zuständen zu reduzieren. Hierzu werden Genexpressions- oder Proteomdaten der beiden Zustände in das bereits bestehende Netzwerk integriert. Aus diesen Daten wird die Stärke/Häufigkeit des Auftretens der einzelnen Interaktionen des Netzwerks geschätzt. Die Interaktionen, deren Interaktionsstärken sich zwischen den betrachteten Zuständen am stärksten unterscheiden, werden beibehalten – die restlichen Interaktionen werden verworfen. Dies ergibt ein verkleinertes Subnetzwerk, das aus jenen Interaktionen besteht, die am stärksten differentiell reguliert sind. Diese Interaktionen und ihre Proteine sind Kandidaten für eine Erklärung der biologischen Unterschiede der betrachteten Zustände auf molekularem Niveau. Die Methode wurde auf verschiedene biologische Fragestellungen angewandt und mit anderen ähnlichen Methoden verglichen. Bei der Untersuchung der Unterschiede zwischen Erfolg und Misserfolg einer chemotherapeutischen Brustkrebstherapie konnte beispielsweise gezeigt werden, dass das mit ExprEssence erstellte Subnetzwerk einen stärkeren Bezug zu den bereits bekannten Therapieerfolg-relevanten Mechanismen aufweist als die Methoden, mit denen ExprEssence verglichen wurde. Weiterhin wurde im Subnetzwerk eine möglicherweise für den Therapieerfolg relevante Interaktion identifiziert, die in diesem Zusammenhang bisher nicht betrachtet wurde. Deren Bedeutung konnte in der experimentellen Nachverfolgung weiter untermauert werden. Einen weiteren Schwerpunkt der Arbeit bildete die Untersuchung des Interaktoms eines spezialisierten Zelltyps der Niere – des Podozyten. Dieser Zelltyp ist essentiell für die Filtrationskompetenz der Niere. Ein Interaktionsnetzwerk mit spezifisch für den Podozyten relevanten Interaktion gib es bisher nicht. Daher wurde ein Podozyten-spezifisches Protein-Protein-Interaktionsnetzwerk aus wissenschaftlichen Veröffentlichungen zusammengestellt und öffentlich verfügbar gemacht. Genexpressionsdaten vielfältiger Art, beispielsweise von Podozyten in verschiedenen Entwicklungsstadien oder in Zellkultur, wurden in das Netzwerk integriert und mit ExprEssence analysiert. So konnte beispielsweise gezeigt werden, dass die Dedifferenzierung von in Kultur gehaltenen Podozyten nicht dem Umkehrweg der zuvor durchlaufenen Differenzierung entspricht. Neben ExprEssence wurde weitere Software entwickelt, die die Anwendbarkeit von ExprEssence erweitert – MovieMaker und ExprEsSector. Mit MovieMaker werden die Übergänge zwischen den betrachteten Zuständen nachvollziehbarer visualisiert. ExprEsSector bildet die Vereinigungs- und Schnittmengen-Netzwerke von ExprEssence-Subnetzwerken. So können beispielsweise verschiedenen Krankheiten gemeinsame Veränderungen vom Normalzustand identifiziert werden. Ist für eine Krankheit bereits ein Therapieansatz vorhanden, der auf eine fehlregulierte Interaktion einwirkt, und ist diese Interaktion auch in der anderen Krankheit gleichartig differentiell reguliert, kann geprüft werden, ob diese Therapie auf die zweite Krankheit übertragen werden kann. Neben der Vorstellung und Diskussion der erzielten Ergebnisse, wird auch auf methodisch bedingte Nachteile eingegangen. Es werden Strategien aufgezeigt, wie die negativen Einflüsse möglichst minimiert werden können oder wie sie bei der Bewertung der Ergebnisse zu berücksichtigen sind. In Anbetracht der immer schneller ansteigenden Menge biologischer Daten ist es eine wesentliche Herausforderung geworden, aus diesen die essentiellen Informationen zu extrahieren. Der integrative Ansatz der Verknüpfung von Informationen verschiedener Quellen wurde mit ExprEssence und den Erweiterungen MovieMaker und ExprEsSector in einem Konzept zur Identifizierung zustandsrelevanter molekularer Mechanismen in intuitiv leicht erfassbarer Form umgesetzt.
Im Rahmen des hier verwendeten abstrakten, nichtkommutativen Unabhängigkeitsbegriffs gibt es nach dem Klassifikationssatz von Muraki genau fünf konkrete Unabhängigkeitsbegriffe: Tensor, boolesch, frei, monoton und antimonoton. Hierbei umfasst der Tensor-Fall den Unabhängigkeitsbegriff aus der klassischen Wahrscheinlichkeitstheorie. Ein Quanten-Levy-Prozess (QLP) ist ein Prozess mit unabhängigen, stationären Zuwächsen, dessen Verteilung durch einen Generator g festgelegt ist. Die QLP und die Generatoren in dieser Arbeit sind auf den Voiculescuschen dualen Halbgruppen definiert. Ein Generator ist ein bedingt positives, lineares Funktional mit g(1)=0. Diese Arbeit untersucht das Problem, zu einem QLP mit gegebenem Generator einen QLP auf einen Fockraum mit demselben Generator anzugeben. Zur Problem wird in drei Teilen bearbeitet. Im ersten Teil wird für jede konkrete Unabhängigkeit die Existenz eines QLP zu gegebenem Generator g nachgewiesen. Hierbei wird die Schoenberg-Korrespondenz für duale Halbgruppen verwendet und ein Quanten-Kolomogoroff Satz für QLP gezeigt. Der zweite Teil, der zugleich den Hauptteil der Arbeit darstellt, besteht aus dem Transformationssatz für duale Halbgruppen. Dieser besagt in etwa, dass ein gegebener QLP mit Generator g unter einer Transformation genannten Abbildung k zwischen zwei dualen Gruppen zu einem QLP mit Generator k•g transformiert werden kann. Dabei operieren der transformierte QLP und der ursprüngliche QLP im Wesentlichen auf denselbem Raum. Der Beweis des Transformationssatzes wird ausschließlich auf dem abstrakten, nichtkommutativen Unabhängigkeitsbegriff aufgebaut. Dabei wird der Existenzsatz aus dem ersten Teil verwendet und die punktweise Konvergenz eines infinitesimalen Faltens des gegebenen QLP ausgewertet an einem normierten Vektor bewiesen. Somit sind alle fünf konkreten Unabhängigkeitsbegriffe in einem einheitlichen Rahmen enthalten. Zu jedem konkreten nichtkommutativen Unabhängigkeitsbegriff werden im dritten Teil die besonders einfachen, additven QLP auf Fockräumen betrachtet. Hierbei ist ein additiver QLP einfach die Summe aus einem Erzeugungs-, einem Erhaltungs- und einem Vernichtungsprozess auf einem Fockraum, sowie aus einem Generatoranteil. Die Realisierung von QLP auf Fockräumen, also das oben genannte Problem, wird durch Transformieren eines passenden, additiven QLP erreicht. Insbesondere erhalten wir somit erstmals eine Realisierung von QLP auf Fockräumen mithilfe der Transformationstheorie im freien Fall. In einer Anwendung wird das nichtkommutative Analogon der Unitären Gruppe als duale Gruppe betrachtet. Im freien Fall als konkreten, nichtkommutativen Unabhängigkeitsbegriff und aufgrund der Unitarität kann hier zusätzlich bewiesen werden, dass auch auf Operator-Ebene ein infinitesimales Falten der additiven QLP in der starken Operatortopologie existiert. Weiterhin gilt im Gauß-Fall, das heißt obiger Erhaltungsprozess-Anteil verschwindet, dass sogar Normkonvergenz vorliegt.
Neue robuste Methoden zur Herzschlagerkennung und zur Quantifizierung der Herzfrequenzvariabilität
(2016)
Für die Analyse der Herzfrequenz ist eine genaue Detektion des Herzschlags aus Rohdaten unerlässlich. Standardmethoden der Herzschlagerkennung sind für elektrische Biosignale konfiguriert worden, die in einem standardisierten klinischen Umfeld erhoben wurden, insbesondere für das Elektrokardiogramm. Im Zuge neuer Möglichkeiten zur Erfassung der Vitalparameter (über Smartphone, drahtlose Möglichkeiten) und zur Reduktion von Falschalarmen im Krankenhaus werden zunehmend robuste Methoden benötigt. Im ersten Kapitel haben wir einen neuen Algorithmus eingeführt, welcher in der Lage ist, unterschiedliche Wellenformen zu verarbeiten und die Informationen aus mehreren gleichzeitig erhobenen Biosignalen zu bündeln. Die Leistungsfähigkeit wurde im Vergleich mit anderen Methoden an freien Datensätzen überprüft und wir konnten uns von der vielfältigen Anwendbarkeit und der Störungsresistenz überzeugen. Im zweiten Kapitel haben wir uns mit der Quantifizierung der Herzfrequenzvariabilität (HRV) beschäftigt und ein neues leicht verständliches Maß eingeführt. Das dafür notwendige Konzept von relativen RR-Abständen wurde diskutiert und die Nutzung zur Artefaktfilterung und zur Klassifikation von Arrhythmiearten aufgezeigt. Vor- und Nachteile klassischer Methoden der HRV haben wir durch einige mathematische Eigenschaften begründet. Im dritten Kapitel der Dissertation haben wir das neue Maß an realen Daten angewendet und die Abhängigkeit der HRV vom Alter der Probanden und von der Herzfrequenz untersucht. Zudem haben wir periodische Strukturen des Streudiagramms von relativen RR-Abständen betrachtet, für die die Atmung ursächlich ist. Als wissenschaftliche Transferleistung wurde abschließend ein freies Programm geschaffen, welches die neuen robusten Methoden umsetzt.
Es wird ein neues Konzept für die Modellierung von (zeitlichen) Realisierungen komplexer und stark verrauschter Prozessabhängigkeiten ohne spezielle Vorkenntnisse vorgestellt. Als Grundlage dient das "Errors-in-Variables Model" (EVM) als ein "Total Least Square" (TLS)- Verfahren zur asymptotisch fehlerfreien Rekonstruktion einer linearen Prozessabhängigkeit. Die hierfür notwendigen Informationen zum Fehlerrauschen in den Variablen werden indirekt in den (zeitlichen) Realisierungen mit Hilfe eines neuen Vergleichsmaßes für Strukturen (EP- Maß) auf Basis des Ähnlichkeits- Koeffizienten nach Dice / Sørensen erhalten, d.h. solange der fehlerfreie Prozess sich nicht in Strukturen eines weißen Rauschens realisiert. Dies kann vorab mit Hilfe einer schrittweisen Gauß- Tiefpass- Filterung der Ausgangsdaten im jeweiligen EP- Vergleich zu den ungefilterten Daten entschieden werden. Durch ein unabhängiges Zusatz- Fehlerrauschen wird zwischen den modellierten und den abzubildenden Daten schrittweise eine maximale strukturelle Ähnlichkeit „künstlich“ hergestellt "Sequential Iterative NOise Matching Algorithm" (SINOMA), die dann mit Hilfe des Vergleichsmaßes unabhängig zum EVM- Verfahren erkannt werden kann. Unter diesen "Reduced Major Axis" (RMA-)Bedingungen des EVM- Verfahrens sind die Parameter der linearen Prozessabhängigkeit eindeutig bestimmbar, d.h. dann ohne Kenntnisse zum Fehlerrauschen in den Ausgangsdaten. Im Gegenteil, da hierbei das notwendige Zusatzrauschen für das Erreichen von RMA- Bedingungen „bekannt ist“, können auf diese Weise auch noch das Fehlerrauschen in den Ausgangsdaten und die entsprechenden Standardabweichungen der fehlerfreien Daten abgeschätzt werden. Hiermit sollte (erstmals) eine adäquate Lösung des Rekonstruktionsproblems prähistorischer Spannweiten klimatischer Schwankungen mit Hilfe von Proxy möglich sein.
Betrachtet werden Optimalsteuerungsaufgaben der dreidimensionalen Fischpopulationsmodelle. Solche Modelle gehören zu der Klasse der sogenannten Lotka-Volterra-Modelle. Fischerei-Probleme mit Steuerungen werden für Steuerungsfunktionen verschiedener Klassen gelöst. Der Schwerpunkt der Arbeit liegt auf den notwendigen Optimalitätsbedingungen, die mit Hilfe des Bellman-Prinzips hergeleitet werden.
Die Arbeit untersucht die Geometrie selbstähnlicher Mengen endlichen Typs, indem die möglichen Nachbarschaften kleiner Teile klassifiziert und ihr Zusammenhang untersucht werden. Anwendungen sind die Dimension von selbstähnlichen Maßen und überlappenden Konstruktionen sowie die Bestimmung von Zusammenhangseigenschaften.
In dieser Arbeit wird ein Verfahren zur Bestimmung von Toleranzbereichen für 1H-NMR-Spektren von Neugeborenenurinen zur Detektion von angeborenen Stoffwechselerkrankungen vorgestellt. Diese Krankheiten werden durch genetische Defekte ausgelöst, die eine schwerwiegende Funktionsstörung im Stoffwechselkreislauf verursachen. Die dadurch entstehenden Krankheitsbilder führen in der Regel zu Behinderungen und oftmals zum Tod. Eine frühe Diagnose und Behandlung können in vielen Fällen ein Überleben ohne Symptome ermöglichen. Beim derzeitigen Neugeborenenscreening werden in Deutschland zwölf der häufigsten Stoffwechselerkrankungen routinemäßig abgetestet - weit über hundert sind aktuell bekannt. Basierend auf einem Referenzdatensatz von 695 Neugeborenenurinspektren, werden in dieser Arbeit mathematische Methoden zur Bestimmung von Toleranzbereichen entwickelt, die eine ungezielte Detektion von Abweichungen ermöglichen, um schwerwiegende Krankheiten wie angeborene Stoffwechselerkrankungen frühzeitig und routinemäßig diagnostizieren zu können. Das Verfahren basiert dabei auf der robusten Ermittlung von Verteilungsfunktionen, Toleranzbereichen und Identifikation von Ausreißern für eindimensionale Stichproben von unbekannten Verteilungen. Mithilfe einer von der Box-Cox-Transformation abgeleiteten Transformationsfamilie, werden die gemessenen Kenngrößen in normalverteilte Stichproben überführt. Für die Bestimmung der optimalen Transformationsparameter wird die Teststatistik des Shapiro-Wilk-Tests auf Normalverteilung der transformierten Stichprobe verwendet. Die Betrachtung verschiedener links- und rechtsseitiger Trimmungen sichert dabei eine robuste Bestimmung, die nicht von Ausreißern innerhalb des Referenzdatensatzes beeinflusst wird. Anhand von Simulationsstudien wird die Leistung dieses Verfahrens an Stichproben mit bekannten Verteilungen ermittelt und demonstriert. Die Anwendbarkeit an abgeleiteten Kenngrößen aus den realen Urinspektren wird zunächst anhand von Metabolitenkonzentrationen gezeigt. Hierfür wurden im Rahmen dieser Arbeit Methoden zur Identifikation und Quantifikation von 22 ausgewählten Metaboliten entwickelt. Für die ungezielte Analyse werden aus den NMR-Spektren abstrakte Kenngrößen abgeleitet, welche die Protonenkonzentrationen in verschiedenen chemischen Verschiebungsbereichen zusammenfassen (sogenannte Bucketierung). Dadurch wird jedes Signal, unabhängig von Molekül oder funktioneller Gruppe, erfasst und ausgewertet. Bei der in dieser Arbeit verwendeten Strategie entstehen dadurch 500 Messwerte pro Spektrum, von denen 479 (96%) in normalverteilte Variablen überführt werden können. Für diese werden schließlich Toleranzbereiche definiert, um Messungen von weiteren Urinproben abzugleichen. Zusätzlich wird ausgehend von den transformierten Variablen eine Möglichkeit dargestellt, auch multivariate Toleranzbereiche auf Basis der Mahalanobisdistanz zu ermitteln, welche die Sensitivität des Tests auf abweichende Signale signifikant erhöht. Anhand einer Spiking-Simulationsstudie mit ca. 500.000 Spektren, bei denen die Signale von elf Verbindungen, die in Zusammenhang mit angeborenen Stoffwechselerkrankungen stehen, numerisch zu den Referenzspektren addiert werden, können Detektionsraten in Abhängigkeit der Konzentrationen dieser Verbindungen ermittelt werden.
Jedes Metagenom umfasst die gesamte genomische Information eines kompletten Ökosystems. Die Analyse eines solchen Systems bedarf der Bestimmung aller darin enthaltenen Nukleinsäuren, stellvertretend für den Bauplan eines jeden Organismus, um Kenntnis über die in diesem Ökosystem nachweisbaren Organismen zu erlangen. Ferner bietet die diagnostische Metagenomanalyse eine Möglichkeit zur Identifizierung von sowohl bekannten als auch unbekannten Pathogenen. Zu diesem Zweck wird dem Metagenom eine Probe entnommen, welche einen repräsentativen Ausschnitt aller darin vorliegenden Organismen enthält. Da a priori keine Informationen zu den in der Probe enthaltenen Organismen vorliegen, bedarf es einer ungerichteten Methode zur Bestimmung aller enthaltenen Nukleinsäuren. Eine geeignete Lösung bietet die Sequenzierung. Darin werden alle Moleküle der Ausgangsprobe mit ungefähr gleicher Wahrscheinlichkeit bestimmt und der erzeugte Datensatz, bestehend aus Millionen kleiner Sequenzabschnitte, entspricht einem repräsentativen Querschnitt der in der Probe nachweisbaren Organismen. Die Herausforderung besteht in der Zuordnung einer jeden Sequenz zu ihren Ursprungsorganismen und die Sequenzen zu identifizieren, die mit einem potentiellen Erreger assoziiert werden können. Aktuell herrscht ein Defizit an Werkzeugen, die diese Zuordnung sowohl schnell als auch präzise vornehmen und speziell für die diagnostische Metagenomanalyse konzipiert sind. Zu diesem Zweck wurde im Rahmen dieser Arbeit eine Software-Pipeline mit Namen RIEMS (164) (Reliable Information Extraction from Metagenomic Sequence datasets) entwickelt, die bestehende Software zur Analyse von Sequenzdaten auf eine Weise verknüpft, die deren Stärken ausnutzt und Schwächen eliminiert. RIEMS ist in der Lage mit Hilfe bekannter Alignierungsalgorithmen und dem Abgleich der Sequenzen mit einschlägigen Datenbanken umfangreiche Datensätze schnell zu analysieren und Nukleinsäuresequenzen präzise ihren putativen Ursprungstaxa zuzuordnen (164). Die vorliegende Arbeit verdeutlicht die Effizienz dieses Computerprogramms im Vergleich zu bestehenden Software-Pipelines. Des Weiteren illustriert sie dessen möglichen Einsatz in der Diagnostik zur Pathogenidentifizierung anhand einiger Beispiele. Dabei können nicht nur bekannte Organismen identifiziert werden, sondern auch unbekannte, noch nicht näher beschriebene Organismen detektiert werden.
Diese Dissertation untersucht Zusammenhänge der spieltheoretischen Begriffe des Nash- und Stackelberg-Gleichgewichts in Differenialspielen im N-Spieler-Fall. Weiterhin werden drei verschiedene Lösungskonzepte für das Finden von Gleichgewichten in 2-Spieler-Differentialspielen vorgestellt. Direkte Methoden aus der nichtlinearen Optimierung, der globalen Optimierung und der optimalen Steuerung werden verwendet, um Nash- und Stackelberg-Gleichgewichte in 2-Spieler-Differentialspielen zu finden. Anhand von Anwendungsbeispielen werden die Methoden getestet, analysiert und ausgewertet. Eine Erweiterung des Verfolgungsspiels von Isaacs auf Beschleunigungskomponenten wird betrachtet. Ein bisher unbekanntes Stackelberg-Gleichgewicht wird im Kapitalismusspiel nach Lancaster numerisch berechnet. Zuletzt wird ein Problem aus der Fischerei modelliert und anhand der eingeführten Methoden gelöst.
In dieser Dissertation wird eine Problemstellung der Optimalen Steuerung aus dem Bereich der Linearen Elastizitätstheorie dargelegt und gelöst. Die Dissertation gliedert sich in die folgenden Schwerpunkte: Modellierung der Problemstellung, Formulierung der Optimalsteuerungsprobleme für den zeitunabhängigen (stationären) bzw. zeitabhängigen (instationären) Problem, die Herleitung der notwendigen Bedingungen für eine ermittelte optimale Lösung und die Berechnung von numerischen Lösungen des stationären bzw. instationären Problems sowie deren Überprüfung der Erfüllung der notwendigen Bedingungen. In der Modellierung werden Gleichungen zur Bestimmung der Deformation (Auslenkung) einer Zylinderschale unter rotations-symmetrischer Krafteinwirkung aus Grundgleichungen der Mechanik (Kräftegleichgewicht, Impulserhaltungssatz) hergeleitet. Bei dieser Herleitung werden die Hypothesen von Mindlin und Reissner verwendet und die spezielle Geometrie der Zylinderschale berücksichtigt. Die Dissertation erbringt den Nachweis der Existenz einer Lösung der modellierten Gleichungen im schwachen Sinne, d.h. für Lösungen in Sobolev-Räumen. Für die Formulierung der Optimalsteuerungsprobleme für den stationären und instationären Fall für Praxis relevante Problemstellungen setzen wir das Volumen des Zylinderrohres als konstant voraus (Volumenbedingung). Die Zielstellung der Optimalsteerungsprobleme besteht darin eine optimale Dicke zu bestimmen, welche die integrale Deformation (Auslenkung) der Zylinderschale (im instationären Fall zu einer ausgezeichneten Zeit) minimiert. Eine optimale Lösung (optimale Dicke) muss die notwendige Bedingung erster Ordnung (Variationsungleichung) für alle zulässigen Dicken, welche auch der Volumenbedingung genügen, erfüllen. Die Herleitung der konkreten Form dieser notwendigen Bedingungen für den stationären bzw. für die instationären Fälle wird in der Dissertation dargelegt. Durch die Verwendung der zugehörigen adjungierten Zustände können die notwendigen Bedingungen effizienter formuliert werden. Zur Berechnung einer Lösung der Gleichungen im stationären Fall bzw. in den instationären Fällen wurde die Finite Elemente Methode bzw. die Rothe-Methode im zeitabhängigen Fall verwendet, wobei die Lösungsräume exakt berücksichtigt werden. Das Optimierungsproblem wird diskretisiert und mit fmincon aus der Optimization-Toolbox von Matlab gelöst. Die damit berechneten diskreten optimalen Lösungen (optimale Dicke) für die einzelnen Problemstellungen werden auf die Erfüllung der notwendigen Bedingungen getestet. Die Dissertation wird durch viele Beispiel-Rechnungen abgerundet und deren Lösungen in grafischer Form präsentiert.
Die vorliegende Arbeit beschäftigt sich mit der numerischen Lösung von Optimalsteuerungsproblemen. Dazu wird das Maximumprinzip verwendet, dessen Anwendung auf ein Mehrpunktrandwertproblem führt. Die Aufgabe bestand nun darin, ein Programmpaket zu entwickeln, mit dem solche Mehrpunktrandwertprobleme mit der Mehrzielmethode numerisch gelöst werden können. Dabei wurden verschiedene Anforderungen an das zu entwickelnde Programm gestellt, die bereits existierende Programmpakete nicht oder nur eingeschränkt erfüllen. Die Bedienung soll durch die Verwendung einer grafischen Oberfläche intuitiver und komfortabler gestaltet werden. Ein weiteres Ziel besteht in der Problemunabhängigkeit des Quellcodes, sodass der Quellcode unangetastet bleiben kann. Außerdem sollen für die Benutzung des Programms keine Programmierkenntnisse notwendig sein. Der Funktionsumfang soll im Vergleich zu bestehenden Implementierungen erweitert werden, um die Möglichkeiten der Mehrzielmethode besser ausnutzen sowie die Methoden an das jeweilige zu lösende Problem anpassen zu können. Zunächst werden theoretische Grundlagen der optimalen Steuerung und des Maximumprinzips beschrieben. Die Mehrzielmethode wird vorgestellt und erweitert, sodass mit dieser auch Mehrpunktrandwertprobleme gelöst werden können. Ferner wird auf die Umsetzung der weiteren verwendeten mathematischen Methoden eingegangen. Dazu gehören das Newtonverfahren inklusive Dämpfung und Broydenupdate, verschiedenene Anfangswertproblemlöser (Dormand-Prince- und Rosenbrock-Typ-Verfahren) und die Singulärwertzerlegung, mit der die linearen Gleichungsssysteme gelöst werden. Außerdem werden die Komponenten und Funktionen des Programmpakets beschrieben, beispielsweise die Entwicklung der grafischen Oberfläche. Um das Einlesen der Daten eines Optimalsteuerungsproblems aus der grafischen Oberfläche in das Programm zu ermöglichen, wurde ein Parser verwendet. Die Software enthält Funktionen zur Erstellung von Plots und dem Export von Problemdaten in ein PDF-Dokument. Des Weiteren wird beschrieben, inwieweit die implementierten Verfahren an die Anforderungen eines spezifischen Optimalsteuerungsproblems angepasst werden können. Abschließend werden vier in ihrer Gestalt und ihrem Schwierigkeitsgrad sehr verschiedene Optimalsteuerungsprobleme beispielhaft gelöst. Dazu gehören beispielsweise das als Optimalsteuerungsproblem formulierte Brachistochrone- sowie das Min-Energy-Problem. Anhand der Lösung des Rayleigh-Problems wird gezeigt, wie man die zur Verfügung gestellten Optionen des Programmpakets sinnvoll nutzen kann, um eine Lösung zu bestimmen, die ein aussichtsreicher Kandidat für eine optimale Lösung ist. Abschließend wird ein Wiedereintrittsproblem einer Raumkapsel in die Erdumlaufbahn betrachtet, welches eine besondere Herausforderung darstellt, da das Differenzialgleichungssystem sehr empfindlich reagiert und Lösungen nur für einen kleinen Bereich von Startwerten existieren.
In der Dissertation haben wir uns mit dem numerischen Lösen von unbeschränkten Optimalsteuerungsproblemen beschäftigt. Dabei war das Ziel der Arbeit die Homotopie-Methode von Costanza zu untersuchen, kritisch zu hinterfragen und sie zu erweitern. Dazu haben wir zuerst Optimalsteuerungsprobleme untersucht und Resultate aus der Funktionalanalysis zitiert, die wir benötigen, um notwendige Bedingungen für ein unbeschränktes Optimalsteuerungsproblem herzuleiten. Die zentrale Idee dabei ist, dass wir ein äquivalentes, infinites Optimierungsproblem aufstellen und für dieses die notwendigen Bedingungen herleiten und beweisen. Die erhaltenen Resultate haben wir dann auf unbeschränkte Optimalsteuerungsprobleme übertragen. Ziel des Ansatzes ist es, die unbekannten Anfangs- und Endwerte der Zustände und Adjungierten in Abhängigkeit von frei wählbaren Parametern zu berechnen, so dass nur noch ein reines Anfangs- oder Endwertproblem gelöst werden muss, welches numerisch einfacher zu handhaben ist. Dabei stellte sich im Verlauf der Arbeit heraus, dass Costanzas Ansatz nicht allgemeingültig ist und nur auf spezielle Fälle angewendet werden kann. Wir haben den ursprünglichen Ansatz neu hergeleitet und an den kritischen Stellen angepasst, so dass dieser beispielunabhängig benutzt werden kann. Danach haben wir uns mit der numerische Umsetzung unseres Ansatzes befasst. Zum Lösen der gewöhnlichen Differentialgleichungssysteme mit gegebenen Anfangswerten benutzten wir ein in MATLAB implementiertes, explizites Runge-Kutta-Verfahren mit Schrittweitensteuerung. Ein wichtiger Punkt dabei war die Approximation der Jacobi-Matrix der Zustands- und Adjungiertengleichungen mit Hilfe von Complex step differentiation. Diese liefert schnellere und stabilere Approximationen an die ersten Ableitungen als z.B. der zentrale Differenzenquotient, da bei diesem numerische Auslöschung auftreten kann. Weiterhin haben wir direkte und indirekte Verfahren genannt, die man zum Lösen von Optimalsteuerungsproblemen benutzen kann, um die Genauigkeit unseres Ansatzes zu überprüfen. Im letzten Kapitel haben wir unseren Ansatz an verschiedenen Beispielen getestet. Dabei haben wir zuerst unbeschränkte Optimalsteuerungsprobleme betrachtet, die alle sehr gut gelöst wurden. Dessen numerische Lösung wurde effizient und mit hoher Genauigkeit berechnet. Dies ist insbesondere bemerkenswert, da man mit anderen Ansätzen oft eine gute Startlösung benötigt, damit die jeweiligen Verfahren konvergieren. Abschließend haben wir Beispiele für beschränkte Optimalsteuerungsprobleme betrachtet. Diese haben wir mit unbeschränkten Optimalsteuerungsproblemen approximiert, wobei wir in dem Integranden eine Straffunktion eingeführt haben, die mit dem Parameter S gewichtet wurde. Somit konnten wir unter Anwendung unseres erweiterten Ansatzes die ursprünglichen Probleme gut approximieren und für hinreichend große S waren die Lösungen der unbeschränkten und beschränkten Probleme im numerischen Sinne identisch. Dabei unterschied sich in den Beispielen, wie groß das S gewählt werden muss, um eine gute Näherung zu erhalten.
Jump penalized L1-Regression
(2012)
Die vorgelegte Arbeit beschäftigt sich mit Kurvenschätzung in einem Regressionsmodell für eindimensionale verrauschte Daten, welche die Ausreißer enthalten können. Dabei ist die Regression Funktion, also Funktion welche a priori unbekannt ist und welche geschätzt werden soll, eine beliebige absolut-integrierbare Funktion auf dem Intervall [0, 1) und Regression Schätzer eine Stückweise-konstante Funktion auf dem Intervall [0, 1). Die von uns betrachtende Schätzer sind stückweise-konstante Funktionen, welche die L1-Version den sogenannten Potts Funktional minimieren (s. [8]). Das L1 Potts Funktional ist so gewählt, dass einerseits die Komplexität des Schätzers in Form der Anzahl ihrer Sprünge beachtet wird und anderseits die absolute Abweichungen von den Daten betrachtet werden. Die Stufen des Minimierers vom L1 Potts Funktional entsprechen den lokalen Medianen von verrauschten Daten, im Gegensatz dazu entsprechen die Stufen des Minimierers von dem klassischen Potts Funktional (L2-Fall) den lokalen Mittelwerten von den Daten. Der Vorteil der L1-Version gegenüber L2-Version des Potts Funktionals kann dadurch erklärt werden, dass die Mediane bekannterweise viel robuster gegen Ausreißer als Mittelwerte sind. In der vorgelegten Arbeit wurden die asymptotischen Eigenschaften sowohl von der L1 Potts Funktionals als auch von seinen Minimierer studiert. Unter anderem, es konnte die Konsistenz des Schätzers für den Fall, dass die Originalfunktion f selbst eine Stufenfunktion ist, gezeigt werden. Dies stellt das Hauptergebnis der Arbeit dar. Konsistenz heißt hier, dass unter bestimmten Bedingungen die Minimierer vom L1 Potts Funktional gegen die Originalfunktion f konvergieren.
Numerische Lösung von Optimalsteuerungsaufgaben unter Nebenbedingungen mit biologischen Anwendungen
(2010)
In dieser Dissertation wird ein Verfahren zur Lösung von Optimalsteuerungsaufgaben mit Steuer-Zustandsbeschränkungen vorgestellt. Dazu werden die notwendigen Bedingungen an eine optimale Lösung benutzt, die ein System aus algebraischen Gleichungen, Ungleichungen und Differentialgleichungen erzeugen. Dieses System wird mit einem Newton-ähnlichen Ansatz gelöst. Außerdem wird die Erweiterung auf Problemen mit reinen Zustandsbeschränkungen vorgeführt. Eine deutliche Verbesserung der Konvergenzergebnisse kann durch die Anwendung der Fisher-Burmeister-Funktion auf die Komplementaritätsbedingungen erzielt werden. Die Iterationsverfahren werden auf eine Reihe von restringierten Optimalsteuerungsaufgaben (Aufgaben mit reinen Steuerbeschränkungen, gemischten Steuer-Zustandbeschränkungen und reinen Zustandsbeschränkungen für einzelne Zeitpunkte und für das gesamte Optimierungsintervall) angewendet, um ihr Verhalten bei verschiedenen Startwerten sowie unterschiedlichen Schrittweitenansätzen zu untersuchen. Dazu werden zum einen zwei aus der Literatur bekannte Aufgaben (das Rayleigh-Problem und das Minimum-Ernergy-Problem) gelöst und zum anderen werden zwei Probleme mit biologischem Hintergrund untersucht. So wird eine Optimalsteuerungsaufgabe aus der Fischerei um geeignete Einnahmenbedingungen erweitert, die absichern sollen, dass die Fischer keine längeren Phasen ohne Kapitalzuwachs haben. Dazu wird zwischen einer globalen Bedingung und einer Bedingung für endlich viele Zeitpunkte unterschieden. Desweiteren wird ein Modell einer HIV-Erkrankung untersucht, bei dem die numerischen Verfahren, die die notwendigen Bedingungen an eine optimale Lösung benutzen, nur für geringe Behandlungszeiten (bis zu 50 Tage) das Problem lösen. Es zeigt sich, dass die Stabilität dieser Verfahren deutlich verbessert werden kann, wenn das Modell um eine Obergrenze für die T-Zellen erweitert wird. Den Abschluss der Dissertation bildet ein Kapitel zur Konvergenzuntersuchung, in dem sich zeigt, dass die verwendeten Iterationsverfahren teilweise von sehr schlechter Konvergenzordnung sind, da die Bedingung für eine lineare Konvergenz nicht erfüllt wird.
Objektive Eingruppierung sequenzierter Tollwutisolate mithilfe des Affinity Propagation Clusterings.
(2018)
Das International Committee on Taxonomy of Viruses (ICTV) reguliert die Nomenklatur von Viren sowie die Entstehung neuer Taxa (dazu gehören: Ordnung, Familie, Unterfamilie, Gattung und Art/Spezies). Dank dieser Anstrengungen ist die Einteilung für verschiedenste Viren in diese Kategorien klar und transparent nachvollziehbar. In den vergangenen Jahrzehnten sind insgesamt mehr als 21.000 Datensätze der Spezies „rabies lyssavirus“ (RABV) sequenziert worden. Eine weiterführende Unterteilung der sequenzierten Virusisolate dieser Spezies ist bislang jedoch nicht einheitlich vorgeschlagen. Die große Anzahl an sequenzierten Isolaten führte auf Basis von phylogenetischen Bäumen zu uneindeutigen Ergebnissen bei der Einteilung in Cluster. Inhalt meiner Dissertation ist daher ein Vorschlag, diese Problematik mit der Anwendung einer partitionierenden Clusteringmethode zu lösen. Dazu habe ich erstmals die Methodik des affinity propagation clustering (AP) für solche Fragestellungen eingesetzt. Als Datensatz wurden alle verfügbaren sequenzierten Vollgenomisolate der Spezies RABV analysiert. Die Analysen des Datensatzes ergaben vier Hauptcluster, die sich geographisch separieren ließen und entsprechend als „Arctic“, „Cosmopolitain“, „Asian“ und „New World“ bezeichnet wurden. Weiterführende Analysen erlaubten auch eine weitere Aufteilung dieser Hauptcluster in 12-13 Untercluster. Zusätzlich konnte ich einen Workflow generieren, der die Möglichkeit bietet, die mittels AP definierten Cluster mit den Ergebnissen der phylogenetischen Auswertungen zu kombinieren. Somit lassen sich sowohl Verwandtschaftsverhältnisse erkennen als auch eine objektive Clustereinteilung vornehmen. Dies könnte auch ein möglicher Analyseweg für weitere Virusspezies oder andere vergleichende Sequenzanalysen sein.
In dieser Arbeit beschäftigen wir uns mit symplektischen Lie-Algebren und metrischen, symplektischen Lie-Algebren. Wir erweitern ein bestehendes Klassifikationsschema mittels quadratischer Erweiterungen für metrische Lie-Algebren mit halbeinfachen, schiefsymmetrischen Derivationen so, dass damit sämtliche metrischen, symplektischen Lie-Algebren auf Isomorphie untersucht werden können. Damit bestimmen wir die Isomorphieklassen aller nichtabelschen, metrischen, symplektischen Lie-Algebren, der Dimension kleiner als zehn, sowie alle mit einem Index von kleiner oder gleich drei. Anschließend wird in Analogie zur Herangehensweise für metrische Lie-Algebren ein Klassifikationsschema für symplektische Lie-Algebren mit ausgeartetem Zentrum mittels quadratischer Erweiterungen aufgebaut, was uns zudem ein Klassifikationsschema für nilpotente, symplektische Lie-Algebren liefert. Abschließend berechnen wir konkret ein Repräsentantensystem der Isomorphieklassen aller sechsdimensionalen, nilpotenten, symplektischen Lie-Algebren.
Maligne Erkrankungen zeigen oft charakteristische genetische Veränderungen. Das Auffinden derartiger Veränderungen wurde in den letzten Jahren durch verfeinerte molekulare Techniken erleichtert. Viele genetische Ereignisse in den maligne transformierten Zellen sind jedoch noch ungeklärt. Die präzise Bestimmung der Bruchpunktregionen chromosomaler Veränderungen bei T-Zell akuten lymphatischen Leukämien ist Inhalt dieser Arbeit. Hierzu wurde die „Fine Tiling-Comparative Genomhybridisierung“ (FT-CGH) mit der „Ligation mediated-PCR“ (LM-PCR) kombiniert. Diese Methoden wurden zunächst an Zelllinien etabliert und anschließend in verschiedenen Leukämieproben eingesetzt. Chromosomale Aberrationen gehen häufig mit Verlust oder Gewinn von genetischem Material einher. Diese unbalancierten Anomalien lassen sich durch die Comparative Genomhybridisierung (CGH) ermitteln. Dieses Verfahren ermöglicht Differenzen der DNA-Menge einer zu untersuchenden Probe bezogen auf eine interne Kontrollprobe zu detektieren. Bei der Fine Tiling-CGH werden gezielt chromosomale Abschnitte hochauflösend auf eventuelle Abweichungen des DNA-Gehaltes analysiert. Anschließend werden die detektierten Bruchpunktregionen der DNA Schwankungen mittels der LM-PCR untersucht. Ein Abgleich mit einer internen Kontrollzelllinie HEK 293-T lässt atypische PCR-Fragmente bei der untersuchten Probe aufspüren. Der anschließende Sequenzabgleich unter der Verwendung des BLASTn Suchprogramms (National Center for Biotechnology Information) führte in den untersuchten Zelllinien, wie auch in den T-Zell akuten lymphatischen Leukämieproben zur Identifizierung verschiedener genomischer Veränderungen. Neben einfachen Deletionen wurden auch bisher ungeklärte komplexere chromosomale Translokationen nachgewiesen. So konnte unter anderem bei einer lymphoblastischen T-Zell-Leukämie die Translokation t(12;14)(q23;q11.2) auf genomischer Ebene geklärt werden. Hierbei fand im Abschnitt 14q11 innerhalb des TRA/D Locus eine Deletion von 89 Kilobasen statt. Die Bruchenden wurden mit der Sequenz des open reading frames C12orf42, welches im 12q23 Chromosomenabschnitt lokalisiert ist, zusammengelagert. Bei dieser chromosomalen Aberration wurde die C12orf42 Sequenz zerstört und 1,3 Kilobasen deletiert. Des Weiteren konnte bei einer akuten lymphoblastischen T-Zell-Leukämie die Inversion inv(14)(q11q32) mit involvierten TRA/D und IGH Locus auf Sequenzebene geklärt werden. Der Bruch des 14q11 Bereiches fand zwischen dem Genabschnitt der konstanten Region (TRAC) des TRA/D Locus und dem DAD1 (defender against cell death 1) Gens statt, wobei im beteiligten genetischen Abschnitt keine Rekombinasesignalsequenz (RSS) zu finden ist. Dieses belegt, dass fehlerhafte Umlagerungen innerhalb des Genoms nicht ausschließlich auf die Rekombinase zurückzuführen sind. Die vorliegende Arbeit zeigt, dass die Kombination aus FT-CGH und LM-PCR eine präzise Bruchpunktanalyse unbekannter chromosomaler Aberrationen, welche mit Imbalancen einhergehen, ermöglicht. Diese genaue Analyse dient der Identifizierung von Genen, welche direkt und indirekt durch diese genomischen Umlagerungen betroffen sind. Das Wissen über diese Veränderungen kann für das Verständnis der Pathogenese, für diagnostische Zwecke und zum Nachweis der minimalen Resterkrankung eingesetzt werden. Eine Klärung beteiligter Gene und Signalwege wird es erlauben, zielgerichtete und individualisierte Therapiestrategien zu entwickeln.
Diese Arbeit beschäftigt sich mit der Analyse und Modellierung des Microarrayexperiments. Hierfür wird das gesamte Experiment in fünf Teilprozesse zerlegt, die Reverse Transkription, die Hybridisierung, das Waschen, die Fluoreszenz und die Detektion. Jeder Teilprozess wurde separat modelliert und analysiert. Anschließend wurde die Teilprozesse im Gesamtmodell vereint und dieses für verschiedene Parametersituationen simuliert. Diese Arbeit ermöglicht eine mathematische Handhabung des Microarrayexperiments und deckt seine Abhängigkeit von den einzelnen Schritten des Experiments auf. Dies kann benutzt werden, um Normalisierung und Analyse zu verbessern.
Die Arbeit befasst sich mit der Parameterbestimmung in gewöhnlichen Differentialgleichungssystemen aus gegebenen Messdaten. Als Zielfunktion wird die quadratische Abweichungen betrachtet, ebenso wie die Betragssummen- und Tschebyschev-Norm der Differenz von der Lösung der gewöhnlichen Differentialgleichung und des Messwert-Vektors. Zur Anwendung kommen dabei sowohl iterative Optimierungsverfahren als auch direkte Methoden der optimalen Steuerung.