Refine
Document Type
- Article (13)
- Doctoral Thesis (7)
Has Fulltext
- yes (20)
Is part of the Bibliography
- no (20)
Keywords
- - (8)
- heat stress (2)
- <i>Solanum lycopersicum</i> L. (1)
- Aging (1)
- Alterung (1)
- Artificial neural networks (1)
- Bayes-Netz (1)
- Bioinformatics (1)
- Bioinformatik (1)
- Biometrie (1)
Institute
- Institut für Biometrie und Medizinische Informatik (20) (remove)
Publisher
- MDPI (6)
- Frontiers Media S.A. (3)
- BMJ Publishing Group (1)
- JMIR Publications (1)
- Public Library of Science (PLoS) (1)
- Springer Nature (1)
Ergebnisse untersuchter Laborwerte von Patienten werden mit Referenzwerten von Gesunden abgeglichen und anhand vordefinierter Referenzbereiche ausgewertet. Mit Hilfe der damit gegebenen Information, ob sich ein gemessener Wert innerhalb der Norm – dem Referenzbereich – oder außerhalb dessen befindet, werden von Medizinern Diagnosen gestellt, Therapieentscheidungen getroffen oder der Krankheitsverlauf beurteilt. Wie aber entstehen Referenzbereiche? Wer legt sie wie fest und aufgrund welcher Daten? Was ist normal? Diese Fragen werden seit Jahrzehnten kontrovers diskutiert. Das über 25 Jahre alte, bisher größtenteils weltweit als Standard anerkannte Konzept zur Gewinnung von gesunden Referenzindividuen und der Ermittlung von Referenzgrenzen von der Internationalen Föderation für klinische Chemie und Laboratoriumsmedizin (IFCC) wird aus Gründen der schlechten Praktikabilität, eines zu hohen und von kleinen Laboreinrichtungen nicht tragbaren Kosten- und Zeitaufwandes oftmals nicht angewendet. Statt eigene, laborinterne Referenzbereiche zu bestimmen werden externe Referenzgrenzen aus der Literatur oder von anderen Laboratorien übernommen – welche aber nicht die regionale Bevölkerung, wie beispielsweise in ihrer Altersstruktur, repräsentieren. Die von der IFCC befürwortete prospektive Selektion der Referenzpopulation birgt neben diesem bestehenden Um-setzungsdefizit auch das Risiko, dass für in dem Probandenkollektiv unterrepräsen-tierte Subgruppen wie Frauen, Alte und Kinder wegen zu kleiner Stichprobenumfänge gar keine beziehungsweise keine aussagekräftigen Referenzgrenzen bestimmt werden können. Vermutungen wurden geäußert – zum Beispiel seitens der Internationalen Vereinigung für theoretische und angewandte Chemie (IUPAC), dass die von der IFCC anempfohlene statistische Methode der Ermittlung der Referenzbereiche aus den Konfidenzgrenzen der Quantilschätzer speziell für kleine Stichprobengrößen keine sehr zuverlässigen und präzisen Referenzbereiche liefert. Basierend auf diesem Verständnis bestand das Untersuchungsziel darin, den effek-tivsten Ansatz und die zuverlässigste Methode zur Bestimmung von medizinischen Referenzbereichen für labordiagnostische Parameter für alle Subpopulationen – explizit die der Frauen, Kinder und alten Menschen – zu finden, die insbesondere auch auf der Grundlage von kleinen Stichprobenmengen vertrauenswürdige Referenzgrenzen liefern. Zur Erreichung des Untersuchungszieles wurden Vergleiche von ausgewählten, aus der Fachliteratur entnommenen, vorangehend im Detail erläuterten Methoden und Verfahren zur Bestimmung von Referenzbereichen an konkreten Beispielen – an Labordaten von Nieren-gesunden Patienten aus dem Universitätsklinikum Greifswald, die im Jahr 2005 aufgenommen wurden – vorgenommen. Die drei Methoden der Quantilschätzung mit Konfidenzgrenzen laut der IFCC-Richtlinien, der Toleranzschätzung gemäß der IUPAC-Empfehlung sowie der Quantilregression, in Verbindung mit dem retrospektiven Selektionsverfahren für die Gewinnung der Referenzpopulation, wurden bei den drei verschieden großen Stichprobenumfängen N = 40, N = 120 und N = 2.000 angewendet und für 29 nach den biologischen Faktoren Alter und Geschlecht stratifizierten Subgruppen sowie allgemeinen Bezugsgruppen für die drei Nierenparameter Kreatinin, Harnstoff und Natrium berechnet. Die Güte der errungenen Referenzbereiche aus den drei verschiedenen Methoden wurde hinsichtlich der zwei Kriterien Zuverlässigkeit und Präzision bewertet und mit Referenzbereichen aus dem Laborkatalog des Instituts für Klinische Chemie und Laboratoriumsmedizin der Universitätsmedizin Greifswald abgeglichen – auch unter Berücksichtigung der ermittelten Alters- und/ oder Geschlechtseinflüsse auf die Referenzgrenzen. Anhand der gewonnenen Forschungsergebnisse konnte die Forschungsfrage wie folgt beantwortet werden: Zur Bestimmung von Referenzbereichen für alters- und geschlechtsunspezifische Laborparameter wie Natrium ist die Methode der parame-terfreien Toleranzschätzung, in Bezug auf eine Kombination mit dem retrospektiven Ansatz zur Gewinnung der Referenzpopulation, als beste Methode zu empfehlen. Zur Bestimmung von Referenzbereichen für alters- und/ oder geschlechtsspezifische Laborparameter wie Kreatinin oder Harnstoff ist die Methode der Quantilregression, in Bezug auf eine Kombination mit dem retrospektiven Ansatz zur Gewinnung der Referenzpopulation, als geeignetste Methode zu empfehlen. Die Methode der Quantilschätzung mit Konfidenzgrenzen nach dem IFCC-Konzept kann aufgrund der erarbeiteten Forschungsergebnisse zur Bestimmung von Referenzbereichen, in Bezug auf eine Kombination mit dem retrospektiven Ansatz zur Gewinnung der Referenzpopulation, nicht empfohlen werden. Beide als empfehlenswert herausgestellten Methoden sind auch für kleine Stichproben ab N = 40 anwendbar.
Im Rahmen der vorliegenden Arbeit wurden alle 185 medizinischen Dissertationen der Jahrgänge 2000 und 2001 der Medizinischen Fakultät der Universitätsmedizin Greifswald untersucht. Konkret sollte in der vorliegenden Arbeit festgestellt werden, welche biometrischen Methoden in medizinischen Dissertationen zur Anwendung kommen und welche Anwendungsprobleme sich identifizieren lassen. Die Ergebnisse sollen in der Gestaltung der Lehre zur Biometrie sowie in die biometrische Beratung der Promovenden einfließen und insgesamt der Verbesserung der Betreuung und der Qualität medizinischer Dissertationen dienen. Probleme bei der Auswertung der Dissertationen ergaben sich häufig aufgrund der lückenhaften Dokumentation der Vorgehensweise, so dass die Anzahl der Fehler insgesamt eher unterschätzt wurde. Die häufigsten Arbeiten sind retrospektive Studien anhand von Krankenakten. Einschränkungen bezüglich der Verallgemeinerbarkeit der Ergebnisse werden von den Autoren akzeptiert, wobei sicherlich der geringere Arbeitsaufwand verglichen mit einer prospektiven Studie oder einem Experiment eine große Rolle spielt. Der Anteil der experimentellen bzw. prospektiven Studien steht an der zweiten bzw. dritten Stelle. In der vorliegenden Arbeit sind als statistische Methoden vor allem die deskriptiven Verfahren ein wesentlicher Teil der biometrischen Analyse. Bei der Anwendung der statistischen Methoden fanden sich vor allem Defizite im Bereich Hypothesen testender Verfahren mit der Konsequenz einer zu oft unkritischen Verwendung dieser Methoden. In einigen Arbeiten sind sogar Auswertemethoden angegeben, die gar nicht durchgeführt worden sind. Eine Mitarbeit von statistischen Beratern wurde in etwa 46% der Fälle erwähnt. Die Beratung erfolgte überwiegend durch die Mitarbeiter der Universitätsmedizin Greifswald. Der Einfluss statistischer Beratung auf die Qualität der wissenschaftlichen Arbeit konnte in den untersuchten Dissertationen nicht objektiv eingeschätzt werden, da das seinerzeitige Promotionsverfahren eine Sichtung der fertigen Arbeit durch den statistischen Berater nicht vorsah. Es bleibt also offen, ob die Empfehlungen des Statistikers durch den Promovenden kreativ und auch richtig umgesetzt wurden. Es zeigte sich in den analysierten Arbeiten, dass bereits bei der Anwendung von Standardverfahren zu oft Fehler gemacht werden. Als wesentliche Mängel wurden identifiziert: - die Durchführung einer Studie bzw. eines Experimentes wird im statistischen Sinne nicht geplant; - Prinzipien der Stichprobenerhebung, die Beachtung von Confoundern/Kovariablen, Struktur-und Beobachtungsgleichheit von Studiengruppen, Stichprobenumfangspla- nung sind nicht bedacht; - Ergebnisse statistischer Auswertungen werden unzureichend interpretiert; - potentielle Möglichkeiten statistischer und nichtstatistischer biometrischer Verfahren (multivariate Statistik, sequentielle Verfahren, Äquivalenztests, Klassifikationsverfah ren etc.) bleiben ungenutzt. Für die wissenschaftliche Arbeit kann in Hinsicht auf die verfügbare Stundenzahl das Lehrprogramm zur Biometrie den Studierenden der Medizin jedoch nur einen ersten Ausgangspunkt bieten. Eine qualifizierte statistische Beratung bei der Erarbeitung einer medizinischen Dissertation erscheint ist unverzichtbar. Die zentralen Erkenntnisse der vorliegenden empirischen Arbeit sollen in zwei Empfehlungen formuliert werden: 1. Für die Studierenden der Medizin wäre eine Einordnung des Lehrgebietes Biometrie etwa in das 2.Klinische Jahr hilfreich, da zu diesem Zeitpunkt Arbeiten an der Disserta¬- tion in Angriff genommen werden und somit die Motivation zur Beschäftigung mit diesem Lehrgegenstand unterstützt wird. Zugleich besteht eher Veranlassung, die diesbezüglichen fakultativen Lehrangebote zur Datenauswertung gezielt zu nutzen. 2. Die Betreuung der Doktoranden hinsichtlich der Biometrie sollte durch ein durch das Promotionsverfahren objektiviertes Vorgehen unterstützt werden: Die unbedingt zu fordernde qualifizierte biometrische Unterstützung kann durch eine Verpflichtung zur Beratung sichergestellt werden, die bereits im Stadium der Versuchsplanung begin- nen sollte. Die fertige Arbeit sollte vor dem Einreichen vom statistischen Berater ge- prüft werden.
Diese Arbeit schafft ein Verständnis für die Notwendigkeit und Inhalte von Regelungen zum Thema Sicherheit im Medizinproduktesektor. Sicherheit als Basis für Gesundheit und somit Bestandteil des höchsten Guts des Menschen ist eine wesentliche Herausforderung für jeden Hersteller von Medizinprodukten. Dies wird durch europäische Richtlinien und Verordnungen auch auf europäischer Ebene geregelt, um den Binnenmarkt zu überwachen. Durch diese Festlegungen wird ein vergleichbares Niveau im europäischen Wirtschaftsraum erzielt. Dies lässt sich auch bis in deutsche Gesetze nachvollziehen. Dort sind die wesentlichen Anforderungen inklusive der Notwendigkeit der CE Kennzeichnung und die Einbeziehung von speziellen Organisationen festgesetzt. Neben den gesetzlichen Anforderungen wurden in dieser Arbeit die normativen Rahmenbedingungen aufgezeigt. Dadurch kann das Sicherheitsniveau deutlich gehoben und vereinheitlicht werden. Auf Basis der gesetzlichen und normativen Anforderungen wurden Entwic klungsphasen und ein roter Faden für die sichere Entwicklung beschrieben. Um spezielle Themen rund um die Sicherheit zu erläutern, wurden anhand eines Beispiels ausgewählte Schritte zur Erhöhung der Sicherheit dargestellt. Die als Beispiel herangezogene Software zur Zellzahlbestimmung bei Leukämiepatienten stellt nach der auf der Homepage der Universitätsmedizin Greifswald veröffentlichten Nutzungsbedingung kein Medizinprodukt dar. Zwar lässt das Medizinproduktegesetz ausdrücklich zu dass Software auch ohne die dafür benötigte Hardware ein Medizinprodukt ist, doch wird die Zweckbestimmung auf lediglich nicht medizinische Zwecke beschränkt. Ursache für diese Einschränkung ist die Unsicherheit bezüglich der Umsetzung des Medizinproduktegesetzes. Diese Arbeit leistet einen Beitrag um die Entwicklung Gesetzeskonform zu gestalten. Die Software selbst ist eine Bereicherung für die Medizin. Allerdings kann die Software auch erheblichen Schaden anrichten. Bei falscher Verwendung kann es in letzter Konsequenz sogar zum Tod des Patienten führen. Dies führt zu einer Einstufung in die Klasse C gemäß IEC62304 und zu einer Einstufung in die Klasse IIb gemäß 93/42/EWG. Möchte man die Zweckbestimmung ändern und die Nu tzung der Software für den Einsatz in der onkologischen Diagnostik und Therapie freigeben, muss ein Risikomanagementprozess instanziiert und durchgeführt werden. Die wesentlichen Schritte wurden exemplarisch in dieser Arbeit dargestellt. Unabhängig davon muss die Konformität zur IEC 62304 hergestellt und nachgewiesen werden. Hierbei sind die Maßnahmen gemäß Klasse C zu wählen. Eine klinische Bewertung, eine Konformitätsbewertung und eine CE Kennzeichnung sind erforderlich. Das Beispiel der Software zur Zellzahlbestimmung bei Leukämiepatienten verdeutlicht drei Problemkreise: 1. Wird eine relevante medizinische Fragestellung erforscht, sind Antworten mit wissenschaftlichen Methoden nachvollziehbar zu begründen. Dazu gehört insbesondere die Publikation der Resultate, die Voraussetzung ihrer Nachprüfbarkeit ist. Für die vorgestellte Methode zur Zellzahlbestimmung ist dies erfolgt. 2. Die Nutzbarmachung wissenschaftlichen Fortschrittes für die Behandlung von Patienten führt oft auf die Entwicklung von Arzneimitteln, Medizingeräten, die Anwendung von Softwarelösungen u.Ä.. Die hierbei zu beachtenden aufwendigen Regularien sind, speziell für Software, Gegenstand dieser Arbeit. Die Umsetzung der Berechnungsmethode in Software ist technisch gelöst, ihre Bereitstellung als Medizinprodukt erfordert einen Aufwand, den eine Klinik nicht leisten kann. 3. Den Aufwand für Forschung und Entwicklung durch kommerzielle Nutzung der Ergebnisse zu kompensieren ist legitim, wenn nicht gar notwendig. Hierbei entsteht ein Widerspruch zwischen der wissenschaftsethisch unverzichtbaren Transparenz der Beweise der Resultate und der vom Patentrecht geforderten Geheimhaltung der Erfindung. Eine Refinanzierung des Aufwandes für Zulassung und Inverkehrbringung erscheint unrealistisch, da eine Patentierung des Verfahrens wegen der bereits erfolgten Veröffentlichungen entfällt.
The intracellular life cycle of the human immunodeficiency virus (HIV) is modelled using ordinary differential equations (ODEs). Model parameters are obtained from the literature or fitted to experimental data using parameter estimation procedures. Key steps in the life cycle are inhibited singly and in combination to show the effects on viral replication. The results validate the success of highly active antiretroviral therapy (HAART), and in addition DNA nuclear import is identified as a novel influential therapeutic target.
Transcriptional Basis for Differential Thermosensitivity of Seedlings of Various Tomato Genotypes
(2020)
Dengue virus (DV) is a positive-strand RNA virus of the Flavivirus genus. It is one of the most prevalent mosquito-borne viruses, infecting globally 390 million individuals per year. The clinical spectrum of DV infection ranges from an asymptomatic course to severe complications such as dengue hemorrhagic fever (DHF) and dengue shock syndrome (DSS), the latter because of severe plasma leakage. Given that the outcome of infection is likely determined by the kinetics of viral replication and the antiviral host cell immune response (HIR) it is of importance to understand the interaction between these two parameters. In this study, we use mathematical modeling to characterize and understand the complex interplay between intracellular DV replication and the host cells' defense mechanisms. We first measured viral RNA, viral protein, and virus particle production in Huh7 cells, which exhibit a notoriously weak intrinsic antiviral response. Based on these measurements, we developed a detailed intracellular DV replication model. We then measured replication in IFN competent A549 cells and used this data to couple the replication model with a model describing IFN activation and production of IFN stimulated genes (ISGs), as well as their interplay with DV replication. By comparing the cell line specific DV replication, we found that host factors involved in replication complex formation and virus particle production are crucial for replication efficiency. Regarding possible modes of action of the HIR, our model fits suggest that the HIR mainly affects DV RNA translation initiation, cytosolic DV RNA degradation, and naïve cell infection. We further analyzed the potential of direct acting antiviral drugs targeting different processes of the DV lifecycle in silico and found that targeting RNA synthesis and virus assembly and release are the most promising anti-DV drug targets.
Data stewardship is an essential driver of research and clinical practice. Data collection, storage, access, sharing, and analytics are dependent on the proper and consistent use of data management principles among the investigators. Since 2016, the FAIR (findable, accessible, interoperable, and reusable) guiding principles for research data management have been resonating in scientific communities. Enabling data to be findable, accessible, interoperable, and reusable is currently believed to strengthen data sharing, reduce duplicated efforts, and move toward harmonization of data from heterogeneous unconnected data silos. FAIR initiatives and implementation trends are rising in different facets of scientific domains. It is important to understand the concepts and implementation practices of the FAIR data principles as applied to human health data by studying the flourishing initiatives and implementation lessons relevant to improved health research, particularly for data sharing during the coronavirus pandemic.
Objective: In the rat, the pancreatic islet transplantation model is an established method to induce hepatocellular carcinomas (HCC), due to insulin-mediated metabolic and molecular alterations like increased glycolysis and de novo lipogenesis and the oncogenic AKT/mTOR pathway including upregulation of the transcription factor Carbohydrate-response element-binding protein (ChREBP). ChREBP could therefore represent an essential oncogenic co-factor during hormonally induced hepatocarcinogenesis. Methods: Pancreatic islet transplantation was implemented in diabetic C57Bl/6J (wild type, WT) and ChREBP-knockout (KO) mice for 6 and 12 months. Liver tissue was examined using histology, immunohistochemistry, electron microscopy and Western blot analysis. Finally, we performed NGS-based transcriptome analysis between WT and KO liver tumor tissues. Results: Three hepatocellular carcinomas were detectable after 6 and 12 months in diabetic transplanted WT mice, but only one in a KO mouse after 12 months. Pre-neoplastic clear cell foci (CCF) were also present in liver acini downstream of the islets in WT and KO mice. In KO tumors, glycolysis, de novo lipogenesis and AKT/mTOR signalling were strongly downregulated compared to WT lesions. Extrafocal liver tissue of diabetic, transplanted KO mice revealed less glycogen storage and proliferative activity than WT mice. From transcriptome analysis, we identified a set of transcripts pertaining to metabolic, oncogenic and immunogenic pathways that are differentially expressed between tumors of WT and KO mice. Of 315 metabolism-associated genes, we observed 199 genes that displayed upregulation in the tumor of WT mice, whereas 116 transcripts showed their downregulated expression in KO mice tumor. Conclusions: The pancreatic islet transplantation model is a suitable method to study hormonally induced hepatocarcinogenesis also in mice, allowing combination with gene knockout models. Our data indicate that deletion of ChREBP delays insulin-induced hepatocarcinogenesis, suggesting a combined oncogenic and lipogenic function of ChREBP along AKT/mTOR-mediated proliferation of hepatocytes and induction of hepatocellular carcinoma.
Bioinformatics Algorithms and Predictive Models: The Grand Challenge in Computational Virology
(2021)
Never in the past has the relevance of bioinformatic and predictive tools been more central
in the field of virology as today. SARS-CoV-2 has brought along a huge health burden, but also
a deeper awareness that scientific progress can no longer be effective without extensive systems
for data storage, sharing and analysis, as well as computational tools dedicated to molecular
epidemiology, NGS data analysis, prediction of drug targets, multi-OMIC data integration, and
many other applications.