Refine
Document Type
- Article (13)
- Doctoral Thesis (7)
Has Fulltext
- yes (20)
Is part of the Bibliography
- no (20)
Keywords
- - (8)
- heat stress (2)
- <i>Solanum lycopersicum</i> L. (1)
- Aging (1)
- Alterung (1)
- Artificial neural networks (1)
- Bayes-Netz (1)
- Bioinformatics (1)
- Bioinformatik (1)
- Biometrie (1)
Institute
- Institut für Biometrie und Medizinische Informatik (20) (remove)
Publisher
- MDPI (6)
- Frontiers Media S.A. (3)
- BMJ Publishing Group (1)
- JMIR Publications (1)
- Public Library of Science (PLoS) (1)
- Springer Nature (1)
Since autumn 2020, rapid antigen tests (RATs) have been implemented in several countries as an important pillar of the national testing strategy to rapidly screen for infections on site during the SARS-CoV-2 pandemic. The current surge in infection rates around the globe is driven by the variant of concern (VoC) omicron (B.1.1.529). Here, we evaluated the performance of nine SARS-CoV-2 RATs in a single-centre laboratory study. We examined a total of 115 SARS-CoV-2 PCR-negative and 166 SARS-CoV-2 PCR-positive respiratory swab samples (101 omicron, 65 delta (B.1.617.2)) collected from October 2021 until January 2022 as well as cell culture-expanded clinical isolates of both VoCs. In an assessment of the analytical sensitivity in clinical specimen, the 50% limit of detection (LoD50) ranged from 1.77 × 106 to 7.03 × 107 RNA copies subjected to the RAT for omicron compared to 1.32 × 105 to 2.05 × 106 for delta. To score positive in these point-of-care tests, up to 10-fold (LoD50) or 101-fold (LoD95) higher virus loads were required for omicron- compared to delta-containing samples. The rates of true positive test results for omicron samples in the highest virus load category (Ct values < 25) ranged between 31.4 and 77.8%, while they dropped to 0–8.3% for samples with intermediate Ct values (25–30). Of note, testing of expanded virus stocks suggested a comparable RAT sensitivity of both VoCs, questioning the predictive value of this type of in vitro-studies for clinical performance. Given their importance for national test strategies in the current omicron wave, awareness must be increased for the reduced detection rate of omicron infections by RATs and a short list of suitable RATs that fulfill the minimal requirements of performance should be rapidly disclosed.
Non-coding RNA (ncRNA) classes take over important housekeeping and regulatory functions and are quite heterogeneous in terms of length, sequence conservation and secondary structure. High-throughput sequencing reveals that the expressed novel ncRNAs and their classification are important to understand cell regulation and identify potential diagnostic and therapeutic biomarkers. To improve the classification of ncRNAs, we investigated different approaches of utilizing primary sequences and secondary structures as well as the late integration of both using machine learning models, including different neural network architectures. As input, we used the newest version of RNAcentral, focusing on six ncRNA classes, including lncRNA, rRNA, tRNA, miRNA, snRNA and snoRNA. The late integration of graph-encoded structural features and primary sequences in our MncR classifier achieved an overall accuracy of >97%, which could not be increased by more fine-grained subclassification. In comparison to the actual best-performing tool ncRDense, we had a minimal increase of 0.5% in all four overlapping ncRNA classes on a similar test set of sequences. In summary, MncR is not only more accurate than current ncRNA prediction tools but also allows the prediction of long ncRNA classes (lncRNAs, certain rRNAs) up to 12.000 nts and is trained on a more diverse ncRNA dataset retrieved from RNAcentral.
Background
Approaching epidemiological data with flexible machine learning algorithms is of great value for understanding disease-specific association patterns. However, it can be difficult to correctly extract and understand those patterns due to the lack of model interpretability.
Method
We here propose a machine learning workflow that combines random forests with Bayesian network surrogate models to allow for a deeper level of interpretation of complex association patterns. We first evaluate the proposed workflow on synthetic data. We then apply it to data from the large population-based Study of Health in Pomerania (SHIP). Based on this combination, we discover and interpret broad patterns of individual serum TSH concentrations, an important marker of thyroid functionality.
Results
Evaluations using simulated data show that feature associations can be correctly recovered by combining random forests and Bayesian networks. The presented model achieves predictive accuracy that is similar to state-of-the-art models (root mean square error of 0.66, mean absolute error of 0.55, coefficient of determination of R2 = 0.15). We identify 62 relevant features from the final random forest model, ranging from general health variables over dietary and genetic factors to physiological, hematological and hemostasis parameters. The Bayesian network model is used to put these features into context and make the black-box random forest model more understandable.
Conclusion
We demonstrate that the combination of random forest and Bayesian network analysis is helpful to reveal and interpret broad association patterns of individual TSH concentrations. The discovered patterns are in line with state-of-the-art literature. They may be useful for future thyroid research and improved dosing of therapeutics.
Age is the single biggest risk factor for most major human diseases. As such, understanding the intricate molecular changes that drive biological aging holds great promise in attempting to slow
the onset of systemic diseases and thereby increase the effective health-span in modern societies.
This thesis explores several computational approaches to capture and analyze the molecular biological alterations triggered by intrinsic and extrinsic aging using skin as a model tissue to deliver genes and pathways as potential targets for intervention strategies.
Publication 1 demonstrates the utility of multi-omics data integration strategies for aging research, leading to the identification of four latent aging phases in skin tissue through an integrated cluster analysis of gene expression and DNA methylation data. The four phases improved the detection of molecular aging signals and were shown to be associated with sunbathing habits of the test subjects. Deeper analysis revealed extensive non-linear alterations in various biological pathways particularly at the transition into the fourth aging phase, coinciding with menopause, with potentially wide-reaching functional implications. Publication 2 describes the development of a novel type of age clock, that provides a new level of interpretability by embedding biological pathway information in the architecture of an artificial neural network. The clock not only generates meaningful biological age estimates from gene expression data, but further allows simultaneous monitoring of the aging states of various biological processes through the activations of intermediate neurons. Analyses of the inner workings of the clock revealed a wide-spread impact of aging on the global pathway landscape. Simulation experiments using the transcriptomic clock recapitulated known functional aging gene associations and allowed deciphering of the pathways by which accelerated aging conditions such as chronic sun exposure and Hutchinson-Gilford progeria syndrome exert their effects. Publication 3 further explores the molecular alterations caused by the pro-aging effector UV irradiation in the skin. The multi-omics data analysis of repetitively irradiated skin revealed signs of the immediate acquisition of aging- and cancer-related epigenetic signatures and concurrent wide-spread transcriptional changes across various biological processes. Investigations into the varying resilience to irradiation between subjects revealed prognostic biomarker signatures capable of predicting individual UV tolerances, with accuracies far surpassing the traditional Fitzpatrick classification scheme. Further analysis of the transcripts and pathways associated with UV tolerance identified a form of melanin-independent DNA damage protection in individuals with higher innate UV resilience.
Together, the approaches and findings described in this thesis explore several new angles to advance our understanding of aging processes and external drivers of aging such as UV irradiation in the human skin and deliver new insight on target genes and pathways involved.
Plus‐strand RNA [(+)RNA] viruses are the largest group of viruses, medically highly relevant human pathogens, and are a socio‐economic burden. The current global pandemic of the severe acute respiratory syndrome coronavirus 2 (SARS‐CoV‐2) shows how a virus has been rapidly spreading around the globe and that– without an antiviral treatment– virus trans mission is solely dependent on human behavior. However, other (+)RNA viruses such as rhino‐, noro‐, dengue‐ (DENV), Zika, and hepatitis C virus (HCV) are constantly spreading and expanding geographically. As in the case of hepatitis C, since its first identification in the 1970s, it took more than 30 years to understand the HCV structure, genome organiza t ion, life cycle, and virus‐host interplay leading to the cure of a chronic and life‐threatening disease. However, no vaccination or antiviral treatment exists for most (+)RNA viruses. Con sequently, a precise and comprehensive analysis of the viruses, their life cycles, and parasitic interactions with their hosts remains an important field of research. In the presented thesis, we use mathematical modeling to study the life cycles of (+)RNA viruses. We analyze replication strategies of closely related (+)RNA viruses, namely HCV, DENV, and coxsackievirus B3 (CVB3), to compare their life cycles in the presence and ab sence of the host’s immune response and antiviral drug treatment and consider different viral spreading mechanisms. Host dependency factors shape the viral life cycle, contribut ing to permissiveness and replication efficiency. Our mathematical models predicted that host dependency factors, such as ribosomes, and thus the virus’ ability to hijack the host cell’s translation machinery play an essential role in the viral genome replication efficiency. Furthermore, our mathematical model suggested that the availability of ribosomes in the vi ral life cycle is a crucial factor in disease outcome: the development of an acute or chronic disease. Even though the host developed strategies to attack the virus, e.g., by degrading the viral genome, blocking the viral protein production, and preventing viral spread, viruses found strategies to countermeasure those so‐called host restriction factors derived from the immune system. Our mathematical models predicted that DENV might be highly effective in blocking the cell’s attempts to recognize the invader. Moreover, we found ongoing HCV RNAreplication even with highly effective antiviral drugs that block processes in the viral life cycle. Furthermore, we found alternative pathways of infection spread, e.g., by HCV RNA carrying exosomes, which may be a possible explanation for reported plasma HCV RNA at the end of treatment, found in a subset of patients. Hence, the mathematical models presented in this thesis provide valuable tools to study the viral replication mechanism in detail. Even though being a simplification of reality, our model predictions confirm and explain known and suggest novel biological mechanisms. In the pre sented thesis, I will summarize and discuss key findings and contextualize model predictions in the broader scientific literature to improve our understanding of the viral dynamics and the virus‐host interplay.
Bioinformatics Algorithms and Predictive Models: The Grand Challenge in Computational Virology
(2021)
Never in the past has the relevance of bioinformatic and predictive tools been more central
in the field of virology as today. SARS-CoV-2 has brought along a huge health burden, but also
a deeper awareness that scientific progress can no longer be effective without extensive systems
for data storage, sharing and analysis, as well as computational tools dedicated to molecular
epidemiology, NGS data analysis, prediction of drug targets, multi-OMIC data integration, and
many other applications.
(1) Background: Global incidence of type 1 diabetes (T1D) is rising and nearly half occurred in adults. However, it is unclear if certain early-life childhood T1D risk factors were also associated with adult-onset T1D. This study aimed to assess associations between birth order, delivery mode or daycare attendance and type 1 diabetes (T1D) risk in a population-based cohort and whether these were similar for childhood- and adult-onset T1D (cut-off age 15); (2) Methods: Data were obtained from the German National Cohort (NAKO Gesundheitsstudie) baseline assessment. Self-reported diabetes was classified as T1D if: diagnosis age ≤ 40 years and has been receiving insulin treatment since less than one year after diagnosis. Cox regression was applied for T1D risk analysis; (3) Results: Analyses included 101,411 participants (100 childhood- and 271 adult-onset T1D cases). Compared to “only-children”, HRs for second- or later-born individuals were 0.70 (95% CI = 0.50–0.96) and 0.65 (95% CI = 0.45–0.94), respectively, regardless of parental diabetes, migration background, birth year and perinatal factors. In further analyses, higher birth order reduced T1D risk in children and adults born in recent decades. Caesarean section and daycare attendance showed no clear associations with T1D risk; (4) Conclusions: Birth order should be considered in both children and adults’ T1D risk assessment for early detection.
Background: Retrospective research on real-world data provides the ability to gain evidence on specific topics especially when running across different sites in research networks. Those research networks have become increasingly relevant in recent years; not least due to the special situation caused by the COVID-19 pandemic. An important requirement for those networks is the data harmonization by ensuring the semantic interoperability. Aims: In this paper we demonstrate (1) how to facilitate digital infrastructures to run a retrospective study in a research network spread across university and non-university hospital sites; and (2) to answer a medical question on COVID-19 related change in diagnostic counts for diabetes-related eye diseases. Materials and methods: The study is retrospective and non-interventional and runs on medical case data documented in routine care at the participating sites. The technical infrastructure consists of the OMOP CDM and other OHDSI tools that is provided in a transferable format. An ETL process to transfer and harmonize the data to the OMOP CDM has been utilized. Cohort definitions for each year in observation have been created centrally and applied locally against medical case data of all participating sites and analyzed with descriptive statistics. Results: The analyses showed an expectable drop of the total number of diagnoses and the diagnoses for diabetes in general; whereas the number of diagnoses for diabetes-related eye diseases surprisingly decreased stronger compared to non-eye diseases. Differences in relative changes of diagnoses counts between sites show an urgent need to process multi-centric studies rather than single-site studies to reduce bias in the data. Conclusions: This study has demonstrated the ability to utilize an existing portable and standardized infrastructure and ETL process from a university hospital setting and transfer it to non-university sites. From a medical perspective further activity is needed to evaluate data quality of the utilized real-world data documented in routine care and to investigate its eligibility of this data for research.
Introduction
The co-occurrence of health risk behaviours (HRBs, ie, tobacco smoking, at-risk alcohol use, insufficient physical activity and unhealthy diet) increases the risks of cancer, other chronic diseases and mortality more than additively; and applies to more than half of adult general populations. However, preventive measures that target all four HRBs and that reach the majority of the target populations, particularly those persons most in need and hard to reach are scarce. Electronic interventions may help to efficiently address multiple HRBs in healthcare patients. The aim is to investigate the acceptance of a proactive and brief electronic multiple behaviour change intervention among general hospital patients with regard to reach, retention, equity in reach and retention, satisfaction and changes in behaviour change motivation, HRBs and health.
Methods and analysis
A pre–post intervention study with four time points is conducted at a general hospital in Germany. All patients, aged 18–64 years, admitted to participating wards of five medical departments (internal medicine A and B, general surgery, trauma surgery, ear, nose and throat medicine) are systematically approached and invited to participate. Based on behaviour change theory and individual HRB profile, 175 participants receive individualised and motivation-enhancing computer-generated feedback at months 0, 1 and 3. Intervention reach and retention are determined by the proportion of participants among eligible patients and of participants who continue participation, respectively. Equity in reach and retention are measured with regard to school education and other sociodemographics. To investigate satisfaction with the intervention and subsequent changes, a 6-month follow-up is conducted. Descriptive statistics, multivariate regressions and latent growth modelling are applied.
Ethics and dissemination
The local ethics commission and data safety appointee approved the study procedures. Results will be disseminated via publication in international scientific journals and presentations on scientific conferences.
Trial registration numberNCT05365269.
Data stewardship is an essential driver of research and clinical practice. Data collection, storage, access, sharing, and analytics are dependent on the proper and consistent use of data management principles among the investigators. Since 2016, the FAIR (findable, accessible, interoperable, and reusable) guiding principles for research data management have been resonating in scientific communities. Enabling data to be findable, accessible, interoperable, and reusable is currently believed to strengthen data sharing, reduce duplicated efforts, and move toward harmonization of data from heterogeneous unconnected data silos. FAIR initiatives and implementation trends are rising in different facets of scientific domains. It is important to understand the concepts and implementation practices of the FAIR data principles as applied to human health data by studying the flourishing initiatives and implementation lessons relevant to improved health research, particularly for data sharing during the coronavirus pandemic.
Discovering Latent Structure in High-Dimensional Healthcare Data: Toward Improved Interpretability
(2022)
This cumulative thesis describes contributions to the field of interpretable machine learning in the healthcare domain. Three research articles are presented that lie at the intersection of biomedical and machine learning research. They illustrate how incorporating latent structure can provide a valuable compression of the information hidden in complex healthcare data.
Methodologically, this thesis gives an overview of interpretable machine learning and the discovery of latent structure, including clusters, latent factors, graph structure, and hierarchical structure. Different workflows are developed and applied to two main types of complex healthcare data (cohort study data and time-resolved molecular data). The core result builds on Bayesian networks, a type of probabilistic graphical model. On the application side, we provide accurate predictive or discriminative models focusing on relevant medical conditions, related biomarkers, and their interactions.
Objective: In the rat, the pancreatic islet transplantation model is an established method to induce hepatocellular carcinomas (HCC), due to insulin-mediated metabolic and molecular alterations like increased glycolysis and de novo lipogenesis and the oncogenic AKT/mTOR pathway including upregulation of the transcription factor Carbohydrate-response element-binding protein (ChREBP). ChREBP could therefore represent an essential oncogenic co-factor during hormonally induced hepatocarcinogenesis. Methods: Pancreatic islet transplantation was implemented in diabetic C57Bl/6J (wild type, WT) and ChREBP-knockout (KO) mice for 6 and 12 months. Liver tissue was examined using histology, immunohistochemistry, electron microscopy and Western blot analysis. Finally, we performed NGS-based transcriptome analysis between WT and KO liver tumor tissues. Results: Three hepatocellular carcinomas were detectable after 6 and 12 months in diabetic transplanted WT mice, but only one in a KO mouse after 12 months. Pre-neoplastic clear cell foci (CCF) were also present in liver acini downstream of the islets in WT and KO mice. In KO tumors, glycolysis, de novo lipogenesis and AKT/mTOR signalling were strongly downregulated compared to WT lesions. Extrafocal liver tissue of diabetic, transplanted KO mice revealed less glycogen storage and proliferative activity than WT mice. From transcriptome analysis, we identified a set of transcripts pertaining to metabolic, oncogenic and immunogenic pathways that are differentially expressed between tumors of WT and KO mice. Of 315 metabolism-associated genes, we observed 199 genes that displayed upregulation in the tumor of WT mice, whereas 116 transcripts showed their downregulated expression in KO mice tumor. Conclusions: The pancreatic islet transplantation model is a suitable method to study hormonally induced hepatocarcinogenesis also in mice, allowing combination with gene knockout models. Our data indicate that deletion of ChREBP delays insulin-induced hepatocarcinogenesis, suggesting a combined oncogenic and lipogenic function of ChREBP along AKT/mTOR-mediated proliferation of hepatocytes and induction of hepatocellular carcinoma.
Identification and Regulation of Tomato Serine/Arginine-Rich Proteins Under High Temperatures
(2021)
Alternative splicing is an important mechanism for the regulation of gene expression in eukaryotes during development, cell differentiation or stress response. Alterations in the splicing profiles of genes under high temperatures that cause heat stress (HS) can impact the maintenance of cellular homeostasis and thermotolerance. Consequently, information on factors involved in HS-sensitive alternative splicing is required to formulate the principles of HS response. Serine/arginine-rich (SR) proteins have a central role in alternative splicing. We aimed for the identification and characterization of SR-coding genes in tomato (Solanum lycopersicum), a plant extensively used in HS studies. We identified 17 canonical SR and two SR-like genes. Several SR-coding genes show differential expression and altered splicing profiles in different organs as well as in response to HS. The transcriptional induction of five SR and one SR-like genes is partially dependent on the master regulator of HS response, HS transcription factor HsfA1a. Cis-elements in the promoters of these SR genes were predicted, which can be putatively recognized by HS-induced transcription factors. Further, transiently expressed SRs show reduced or steady-state protein levels in response to HS. Thus, the levels of SRs under HS are regulated by changes in transcription, alternative splicing and protein stability. We propose that the accumulation or reduction of SRs under HS can impact temperature-sensitive alternative splicing.
Transcriptional Basis for Differential Thermosensitivity of Seedlings of Various Tomato Genotypes
(2020)
Dengue virus (DV) is a positive-strand RNA virus of the Flavivirus genus. It is one of the most prevalent mosquito-borne viruses, infecting globally 390 million individuals per year. The clinical spectrum of DV infection ranges from an asymptomatic course to severe complications such as dengue hemorrhagic fever (DHF) and dengue shock syndrome (DSS), the latter because of severe plasma leakage. Given that the outcome of infection is likely determined by the kinetics of viral replication and the antiviral host cell immune response (HIR) it is of importance to understand the interaction between these two parameters. In this study, we use mathematical modeling to characterize and understand the complex interplay between intracellular DV replication and the host cells' defense mechanisms. We first measured viral RNA, viral protein, and virus particle production in Huh7 cells, which exhibit a notoriously weak intrinsic antiviral response. Based on these measurements, we developed a detailed intracellular DV replication model. We then measured replication in IFN competent A549 cells and used this data to couple the replication model with a model describing IFN activation and production of IFN stimulated genes (ISGs), as well as their interplay with DV replication. By comparing the cell line specific DV replication, we found that host factors involved in replication complex formation and virus particle production are crucial for replication efficiency. Regarding possible modes of action of the HIR, our model fits suggest that the HIR mainly affects DV RNA translation initiation, cytosolic DV RNA degradation, and naïve cell infection. We further analyzed the potential of direct acting antiviral drugs targeting different processes of the DV lifecycle in silico and found that targeting RNA synthesis and virus assembly and release are the most promising anti-DV drug targets.
The intracellular life cycle of the human immunodeficiency virus (HIV) is modelled using ordinary differential equations (ODEs). Model parameters are obtained from the literature or fitted to experimental data using parameter estimation procedures. Key steps in the life cycle are inhibited singly and in combination to show the effects on viral replication. The results validate the success of highly active antiretroviral therapy (HAART), and in addition DNA nuclear import is identified as a novel influential therapeutic target.
Diese Arbeit schafft ein Verständnis für die Notwendigkeit und Inhalte von Regelungen zum Thema Sicherheit im Medizinproduktesektor. Sicherheit als Basis für Gesundheit und somit Bestandteil des höchsten Guts des Menschen ist eine wesentliche Herausforderung für jeden Hersteller von Medizinprodukten. Dies wird durch europäische Richtlinien und Verordnungen auch auf europäischer Ebene geregelt, um den Binnenmarkt zu überwachen. Durch diese Festlegungen wird ein vergleichbares Niveau im europäischen Wirtschaftsraum erzielt. Dies lässt sich auch bis in deutsche Gesetze nachvollziehen. Dort sind die wesentlichen Anforderungen inklusive der Notwendigkeit der CE Kennzeichnung und die Einbeziehung von speziellen Organisationen festgesetzt. Neben den gesetzlichen Anforderungen wurden in dieser Arbeit die normativen Rahmenbedingungen aufgezeigt. Dadurch kann das Sicherheitsniveau deutlich gehoben und vereinheitlicht werden. Auf Basis der gesetzlichen und normativen Anforderungen wurden Entwic klungsphasen und ein roter Faden für die sichere Entwicklung beschrieben. Um spezielle Themen rund um die Sicherheit zu erläutern, wurden anhand eines Beispiels ausgewählte Schritte zur Erhöhung der Sicherheit dargestellt. Die als Beispiel herangezogene Software zur Zellzahlbestimmung bei Leukämiepatienten stellt nach der auf der Homepage der Universitätsmedizin Greifswald veröffentlichten Nutzungsbedingung kein Medizinprodukt dar. Zwar lässt das Medizinproduktegesetz ausdrücklich zu dass Software auch ohne die dafür benötigte Hardware ein Medizinprodukt ist, doch wird die Zweckbestimmung auf lediglich nicht medizinische Zwecke beschränkt. Ursache für diese Einschränkung ist die Unsicherheit bezüglich der Umsetzung des Medizinproduktegesetzes. Diese Arbeit leistet einen Beitrag um die Entwicklung Gesetzeskonform zu gestalten. Die Software selbst ist eine Bereicherung für die Medizin. Allerdings kann die Software auch erheblichen Schaden anrichten. Bei falscher Verwendung kann es in letzter Konsequenz sogar zum Tod des Patienten führen. Dies führt zu einer Einstufung in die Klasse C gemäß IEC62304 und zu einer Einstufung in die Klasse IIb gemäß 93/42/EWG. Möchte man die Zweckbestimmung ändern und die Nu tzung der Software für den Einsatz in der onkologischen Diagnostik und Therapie freigeben, muss ein Risikomanagementprozess instanziiert und durchgeführt werden. Die wesentlichen Schritte wurden exemplarisch in dieser Arbeit dargestellt. Unabhängig davon muss die Konformität zur IEC 62304 hergestellt und nachgewiesen werden. Hierbei sind die Maßnahmen gemäß Klasse C zu wählen. Eine klinische Bewertung, eine Konformitätsbewertung und eine CE Kennzeichnung sind erforderlich. Das Beispiel der Software zur Zellzahlbestimmung bei Leukämiepatienten verdeutlicht drei Problemkreise: 1. Wird eine relevante medizinische Fragestellung erforscht, sind Antworten mit wissenschaftlichen Methoden nachvollziehbar zu begründen. Dazu gehört insbesondere die Publikation der Resultate, die Voraussetzung ihrer Nachprüfbarkeit ist. Für die vorgestellte Methode zur Zellzahlbestimmung ist dies erfolgt. 2. Die Nutzbarmachung wissenschaftlichen Fortschrittes für die Behandlung von Patienten führt oft auf die Entwicklung von Arzneimitteln, Medizingeräten, die Anwendung von Softwarelösungen u.Ä.. Die hierbei zu beachtenden aufwendigen Regularien sind, speziell für Software, Gegenstand dieser Arbeit. Die Umsetzung der Berechnungsmethode in Software ist technisch gelöst, ihre Bereitstellung als Medizinprodukt erfordert einen Aufwand, den eine Klinik nicht leisten kann. 3. Den Aufwand für Forschung und Entwicklung durch kommerzielle Nutzung der Ergebnisse zu kompensieren ist legitim, wenn nicht gar notwendig. Hierbei entsteht ein Widerspruch zwischen der wissenschaftsethisch unverzichtbaren Transparenz der Beweise der Resultate und der vom Patentrecht geforderten Geheimhaltung der Erfindung. Eine Refinanzierung des Aufwandes für Zulassung und Inverkehrbringung erscheint unrealistisch, da eine Patentierung des Verfahrens wegen der bereits erfolgten Veröffentlichungen entfällt.
Ergebnisse untersuchter Laborwerte von Patienten werden mit Referenzwerten von Gesunden abgeglichen und anhand vordefinierter Referenzbereiche ausgewertet. Mit Hilfe der damit gegebenen Information, ob sich ein gemessener Wert innerhalb der Norm – dem Referenzbereich – oder außerhalb dessen befindet, werden von Medizinern Diagnosen gestellt, Therapieentscheidungen getroffen oder der Krankheitsverlauf beurteilt. Wie aber entstehen Referenzbereiche? Wer legt sie wie fest und aufgrund welcher Daten? Was ist normal? Diese Fragen werden seit Jahrzehnten kontrovers diskutiert. Das über 25 Jahre alte, bisher größtenteils weltweit als Standard anerkannte Konzept zur Gewinnung von gesunden Referenzindividuen und der Ermittlung von Referenzgrenzen von der Internationalen Föderation für klinische Chemie und Laboratoriumsmedizin (IFCC) wird aus Gründen der schlechten Praktikabilität, eines zu hohen und von kleinen Laboreinrichtungen nicht tragbaren Kosten- und Zeitaufwandes oftmals nicht angewendet. Statt eigene, laborinterne Referenzbereiche zu bestimmen werden externe Referenzgrenzen aus der Literatur oder von anderen Laboratorien übernommen – welche aber nicht die regionale Bevölkerung, wie beispielsweise in ihrer Altersstruktur, repräsentieren. Die von der IFCC befürwortete prospektive Selektion der Referenzpopulation birgt neben diesem bestehenden Um-setzungsdefizit auch das Risiko, dass für in dem Probandenkollektiv unterrepräsen-tierte Subgruppen wie Frauen, Alte und Kinder wegen zu kleiner Stichprobenumfänge gar keine beziehungsweise keine aussagekräftigen Referenzgrenzen bestimmt werden können. Vermutungen wurden geäußert – zum Beispiel seitens der Internationalen Vereinigung für theoretische und angewandte Chemie (IUPAC), dass die von der IFCC anempfohlene statistische Methode der Ermittlung der Referenzbereiche aus den Konfidenzgrenzen der Quantilschätzer speziell für kleine Stichprobengrößen keine sehr zuverlässigen und präzisen Referenzbereiche liefert. Basierend auf diesem Verständnis bestand das Untersuchungsziel darin, den effek-tivsten Ansatz und die zuverlässigste Methode zur Bestimmung von medizinischen Referenzbereichen für labordiagnostische Parameter für alle Subpopulationen – explizit die der Frauen, Kinder und alten Menschen – zu finden, die insbesondere auch auf der Grundlage von kleinen Stichprobenmengen vertrauenswürdige Referenzgrenzen liefern. Zur Erreichung des Untersuchungszieles wurden Vergleiche von ausgewählten, aus der Fachliteratur entnommenen, vorangehend im Detail erläuterten Methoden und Verfahren zur Bestimmung von Referenzbereichen an konkreten Beispielen – an Labordaten von Nieren-gesunden Patienten aus dem Universitätsklinikum Greifswald, die im Jahr 2005 aufgenommen wurden – vorgenommen. Die drei Methoden der Quantilschätzung mit Konfidenzgrenzen laut der IFCC-Richtlinien, der Toleranzschätzung gemäß der IUPAC-Empfehlung sowie der Quantilregression, in Verbindung mit dem retrospektiven Selektionsverfahren für die Gewinnung der Referenzpopulation, wurden bei den drei verschieden großen Stichprobenumfängen N = 40, N = 120 und N = 2.000 angewendet und für 29 nach den biologischen Faktoren Alter und Geschlecht stratifizierten Subgruppen sowie allgemeinen Bezugsgruppen für die drei Nierenparameter Kreatinin, Harnstoff und Natrium berechnet. Die Güte der errungenen Referenzbereiche aus den drei verschiedenen Methoden wurde hinsichtlich der zwei Kriterien Zuverlässigkeit und Präzision bewertet und mit Referenzbereichen aus dem Laborkatalog des Instituts für Klinische Chemie und Laboratoriumsmedizin der Universitätsmedizin Greifswald abgeglichen – auch unter Berücksichtigung der ermittelten Alters- und/ oder Geschlechtseinflüsse auf die Referenzgrenzen. Anhand der gewonnenen Forschungsergebnisse konnte die Forschungsfrage wie folgt beantwortet werden: Zur Bestimmung von Referenzbereichen für alters- und geschlechtsunspezifische Laborparameter wie Natrium ist die Methode der parame-terfreien Toleranzschätzung, in Bezug auf eine Kombination mit dem retrospektiven Ansatz zur Gewinnung der Referenzpopulation, als beste Methode zu empfehlen. Zur Bestimmung von Referenzbereichen für alters- und/ oder geschlechtsspezifische Laborparameter wie Kreatinin oder Harnstoff ist die Methode der Quantilregression, in Bezug auf eine Kombination mit dem retrospektiven Ansatz zur Gewinnung der Referenzpopulation, als geeignetste Methode zu empfehlen. Die Methode der Quantilschätzung mit Konfidenzgrenzen nach dem IFCC-Konzept kann aufgrund der erarbeiteten Forschungsergebnisse zur Bestimmung von Referenzbereichen, in Bezug auf eine Kombination mit dem retrospektiven Ansatz zur Gewinnung der Referenzpopulation, nicht empfohlen werden. Beide als empfehlenswert herausgestellten Methoden sind auch für kleine Stichproben ab N = 40 anwendbar.
Im Rahmen der vorliegenden Arbeit wurden alle 185 medizinischen Dissertationen der Jahrgänge 2000 und 2001 der Medizinischen Fakultät der Universitätsmedizin Greifswald untersucht. Konkret sollte in der vorliegenden Arbeit festgestellt werden, welche biometrischen Methoden in medizinischen Dissertationen zur Anwendung kommen und welche Anwendungsprobleme sich identifizieren lassen. Die Ergebnisse sollen in der Gestaltung der Lehre zur Biometrie sowie in die biometrische Beratung der Promovenden einfließen und insgesamt der Verbesserung der Betreuung und der Qualität medizinischer Dissertationen dienen. Probleme bei der Auswertung der Dissertationen ergaben sich häufig aufgrund der lückenhaften Dokumentation der Vorgehensweise, so dass die Anzahl der Fehler insgesamt eher unterschätzt wurde. Die häufigsten Arbeiten sind retrospektive Studien anhand von Krankenakten. Einschränkungen bezüglich der Verallgemeinerbarkeit der Ergebnisse werden von den Autoren akzeptiert, wobei sicherlich der geringere Arbeitsaufwand verglichen mit einer prospektiven Studie oder einem Experiment eine große Rolle spielt. Der Anteil der experimentellen bzw. prospektiven Studien steht an der zweiten bzw. dritten Stelle. In der vorliegenden Arbeit sind als statistische Methoden vor allem die deskriptiven Verfahren ein wesentlicher Teil der biometrischen Analyse. Bei der Anwendung der statistischen Methoden fanden sich vor allem Defizite im Bereich Hypothesen testender Verfahren mit der Konsequenz einer zu oft unkritischen Verwendung dieser Methoden. In einigen Arbeiten sind sogar Auswertemethoden angegeben, die gar nicht durchgeführt worden sind. Eine Mitarbeit von statistischen Beratern wurde in etwa 46% der Fälle erwähnt. Die Beratung erfolgte überwiegend durch die Mitarbeiter der Universitätsmedizin Greifswald. Der Einfluss statistischer Beratung auf die Qualität der wissenschaftlichen Arbeit konnte in den untersuchten Dissertationen nicht objektiv eingeschätzt werden, da das seinerzeitige Promotionsverfahren eine Sichtung der fertigen Arbeit durch den statistischen Berater nicht vorsah. Es bleibt also offen, ob die Empfehlungen des Statistikers durch den Promovenden kreativ und auch richtig umgesetzt wurden. Es zeigte sich in den analysierten Arbeiten, dass bereits bei der Anwendung von Standardverfahren zu oft Fehler gemacht werden. Als wesentliche Mängel wurden identifiziert: - die Durchführung einer Studie bzw. eines Experimentes wird im statistischen Sinne nicht geplant; - Prinzipien der Stichprobenerhebung, die Beachtung von Confoundern/Kovariablen, Struktur-und Beobachtungsgleichheit von Studiengruppen, Stichprobenumfangspla- nung sind nicht bedacht; - Ergebnisse statistischer Auswertungen werden unzureichend interpretiert; - potentielle Möglichkeiten statistischer und nichtstatistischer biometrischer Verfahren (multivariate Statistik, sequentielle Verfahren, Äquivalenztests, Klassifikationsverfah ren etc.) bleiben ungenutzt. Für die wissenschaftliche Arbeit kann in Hinsicht auf die verfügbare Stundenzahl das Lehrprogramm zur Biometrie den Studierenden der Medizin jedoch nur einen ersten Ausgangspunkt bieten. Eine qualifizierte statistische Beratung bei der Erarbeitung einer medizinischen Dissertation erscheint ist unverzichtbar. Die zentralen Erkenntnisse der vorliegenden empirischen Arbeit sollen in zwei Empfehlungen formuliert werden: 1. Für die Studierenden der Medizin wäre eine Einordnung des Lehrgebietes Biometrie etwa in das 2.Klinische Jahr hilfreich, da zu diesem Zeitpunkt Arbeiten an der Disserta¬- tion in Angriff genommen werden und somit die Motivation zur Beschäftigung mit diesem Lehrgegenstand unterstützt wird. Zugleich besteht eher Veranlassung, die diesbezüglichen fakultativen Lehrangebote zur Datenauswertung gezielt zu nutzen. 2. Die Betreuung der Doktoranden hinsichtlich der Biometrie sollte durch ein durch das Promotionsverfahren objektiviertes Vorgehen unterstützt werden: Die unbedingt zu fordernde qualifizierte biometrische Unterstützung kann durch eine Verpflichtung zur Beratung sichergestellt werden, die bereits im Stadium der Versuchsplanung begin- nen sollte. Die fertige Arbeit sollte vor dem Einreichen vom statistischen Berater ge- prüft werden.