Refine
Year of publication
- 2019 (363) (remove)
Document Type
- Doctoral Thesis (188)
- Article (172)
- Book (2)
- Final Thesis (1)
Has Fulltext
- yes (363)
Is part of the Bibliography
- no (363)
Keywords
- - (119)
- proteomics (7)
- Biopharmazie (4)
- SHIP (4)
- Streptococcus pneumoniae (4)
- metabolomics (4)
- periodontitis (4)
- <i>Staphylococcus aureus</i> (3)
- Bauchspeicheldrüsenkrebs (3)
- CKD (3)
Institute
- Institut für Biochemie (26)
- Abteilung für Mikrobiologie und Molekularbiologie (23)
- Institut für Pharmazie (20)
- Kliniken und Polikliniken für Innere Medizin (20)
- Institut für Geographie und Geologie (18)
- Institut für Physik (14)
- Institut für Diagnostische Radiologie und Neuroradiologie (13)
- Zoologisches Institut und Museum (13)
- Institut für Botanik und Landschaftsökologie & Botanischer Garten (11)
- Institut für Pharmakologie (10)
Publisher
- MDPI (53)
- Frontiers Media S.A. (29)
- S. Karger AG (20)
- Copernicus (12)
- SAGE Publications (11)
- De Gruyter (9)
- Wiley (9)
- Public Library of Science (PLoS) (7)
- BioMed Central (BMC) (4)
- Nature Publishing Group (4)
Environmental activism, defined as a range of difficult pro-environmental behaviors, is analyzed within the conceptual framework of Significance Quest Theory (SQT). In Study 1, 40 interviews were carried out on two groups of people in the European Union: Committed Actors for Nature (CANs, n = 25) versus Committed Actors for Society (CASs, n = 15). Results demonstrated that Significance Quest (SQ) motivates each group to be strongly committed to their chosen action and the main difference between them being in their ideology (pro-social vs. pro-environmental). In Study 2 (N = 131), the relationship between SQ and intention to enact difficult pro-environmental behaviors was assessed. Results suggested that the higher the SQ, the higher the tendency to enact difficult pro-environmental behaviors, but not average or easy ones. Moreover, the higher the pro-environmental ideology, the stronger the indirect effect of SQ on difficult behavior through willingness to sacrifice.
Bluthochdruck gilt als einer der Hauptrisikofaktoren für die Progression einer chronischen Nierenerkrankung. Dem Erreichen einer suffizienten Blutdruckeinstellung zur Vermeidung des Voranschreitens einer chronischen Nierenerkrankung wird im klinischen Alltag eine hohe therapeutische Relevanz zugemessen, wobei Längsschnittdaten zur Auswirkung des Bluthochdruckes auf die Nierenfunktion bei Nierengesunden nur in geringer Zahl vorliegen. Ziel der vorliegenden Untersuchung war es, diesen Einfluss des Bluthochdruckes in einer nierengesunden Allgemeinbevölkerung über einen Zeitraum von 15 Jahren zu analysieren.
Zur Bearbeitung der Fragestellung wurden Daten nierengesunder Teilnehmer der SHIP-Studie ausgewertet. Ausgehend von der Basiserhebung SHIP-0 (n=4042) bezogen wir die Ergebnisse aller 5-Jahres-Follow-up-Untersuchungen bis SHIP-3 mit ein. Unter Anwendung eines gemischten Modells wurde der Verlauf der Nierenfunktion zum einen alters- und geschlechtsadjustiert dargestellt sowie für die Expositionen „Phänotyp Hypertonie“ (definiert als erhöhter systolischer oder erhöhter diastolischer Blutdruck oder wenn mittels Selbstangabe im Interview die Frage nach Verschreibung eines Medikamentes gegen Bluthochdruck in den vergangenen 12 Monaten mit „Ja“ beantwortet wurde) und „systolischer Blutdruck“ (als kontinuierliche Variable) die Entwicklung der eGFR wie auch der ACR über die Zeit prädiziert.
Die Modellprädiktion zeigte für die ersten vier Jahre der Studie für Hypertoniker (Jahr 0: 102.8ml/min; KI 102.3-103.3ml/min) höhere eGFR-Werte als für Nicht-Hypertoniker (Jahr 0: 101.2ml/min; KI 100.8-101.7ml/min), im zeitlichen Verlauf dann allerdings einen stärkeren Abfall der Nierenfunktion (-1,15 ml/min/Jahr bei Hypertonikern und -0,94 ml/min/Jahr bei Nicht-Hypertonikern) mit signifikant niedrigeren eGFR-Werten ab dem 14. Jahr der Beobachtungsdauer.
Für die kontinuierliche Variable „systolischer Blutdruck“ sagte das Modell vergleichbare Ergebnisse voraus, d.h. für hohe systolische Blutdruckwerte auch eine höhere eGFR zu Untersuchungsbeginn mit entsprechend höherer jährlicher Verschlechterungsrate. Beziffert bedeutete das in diesem Modell beispielsweise bei einem systolischen Blutdruck von 110mmHg eine Verschlechterung der eGFR von -0,97 ml/min pro Jahr und bei einem systolischen Blutdruck von 150mmHg einen Abfall von -1,09 ml/min pro Jahr oder bei einem systolischen Blutdruck von 190mmHg wiederum ein Abfallrate von -1,21 ml/min pro Jahr.
Für die Zielgröße ACR ließ sich eine Differenz in der Albuminurie zwischen Hypertonikern und Nicht-Hypertonikern bzw. in Abhängigkeit vom systolischen Blutdruck in der nierengesunden Allgemeinbevölkerung darstellen. Da die ACR nicht normalverteilt war, wurde diese Variable für Auswertungen, die eine Normalverteilung annehmen, logarithmiert. So hatten Hypertoniker im Modell im Schnitt um 0,20 mg/g höhere logarithmierte ACR Werte als Nicht-Hypertoniker. Zu SHIP-0 bzw. 15 Jahre später lag die ACR somit im Durchschnitt bei 10,2 (exp(2.32)) bzw. 16.8 mg/g (exp(2,82)) bei Hypertonikern und bei 8,3 mg/g (exp(2,12)) bzw. bei 13,7 mg/g (exp(2,62)) bei Nicht-Hypertonikern.
Ein Einfluss auf die Dynamik der Albuminurieveränderung über die Zeit konnte jedoch weder für den „Phänotyp Hypertonie“ noch für die kontinuierliche Variable „systolischer Blutdruck“ nachgewiesen werden.
Zusammenfassend konnte ein negativer Effekt von Bluthochdruck auf die eGFR-Entwicklung in der nierengesunden Allgemeinbevölkerung aufgezeigt werden. Dabei besteht auch eine Assoziation der Höhe des systolischen Blutdruckes auf die jährliche Verschlechterungsrate der eGFR. Dass zum Startzeitpunkt Hypertoniker nach Modellprädiktion eine signifikant bessere eGFR aufweisen, kann möglicherweise durch Hyperfiltrationseigenschaften der Niere erklärt werden („Brenner-Hypothese“). Die beschriebene erhöhte Proteinausscheidung bei Hypertonikern bzw. hohem systolischem Blutdruck unterstreicht deren diagnostische Bedeutung für die klinische Praxis der Früherkennung und Kontrolle von Nierenschädigungen.
Mit der Entdeckung der immunmodulatorischen Funktion des N. vagus über den cholinergen antiinflammatorischen Signalweg ergeben sich neue Möglichkeiten hinsichtlich der Analyse immunologischer Reaktionen im Verlauf der postoperativen Immunsuppression. Die Immundysfunktion infolge eines operativen Eingriffs stellt im chirurgischen Alltag eine große Herausforderung dar. Sie beeinflusst erheblich den Verlauf der Wundheilung sowie der Regeneration und bei sekundärer Infektion die Reaktion auf eine postoperativ erworbene Sepsis. Die Untersuchung der Folgen einer subdiaphragmalen Vagotomie in der postoperativ erworbenen Immunschwäche war eine zentrale Frage dieser Arbeit, da somit der Einfluss des N. vagus auf die postoperative Immundysfunktion beschrieben werden kann.
Die Vagotomie führte zu keiner Beeinträchtigung des Überlebens in der postoperativen Immunschwäche. Dies wäre erst zu erwarten, wenn ein zusätzlicher infektiöser Stimulus im Sinne einer Sepsis hinzukäme. In der Immunparalyse ist der Körper empfänglicher gegenüber infektiösen Komplikationen durch u. a. eine erleichterte Ausbreitung von Erregern im Blut. So führte bei Mäusen ohne Einfluss des Vagus die chirurgisch induzierte Immundysfunktion zu einer erhöhten Keimlast in der Peritoneallavage. War bei den Tieren der N. vagus hingegen intakt, schien dies nicht der Fall zu sein. Es ließ sich somit nachweisen, dass die Vagotomie die Erregerausbreitung bei einer postoperativ erworbenen Immundysfunktion begünstigt und somit zu einem erhöhten sekundären Infektionsrisiko beitragen könnte. Im Umkehrschluss ist möglicherweise anzunehmen, dass der Vagus eine eventuelle Rolle in der bakteriellen Last des Peritoneums spielt. In der frühen Phase der postoperativen Immunsuppression fördert die Durchtrennung des Vagus proinflammatorische Mechanismen über eine erhöhte MCP-1 Ausschüttung. Somit wurde gezeigt, dass die Vagotomie entzündungsfördernde Vorgänge, die zu einer Sepsis führen könnten, begünstigt. Im Umkehrschluss ist eine protektive Rolle des Vagus in der frühen postoperativen Phase anzunehmen. Hingegen ließ sich im Zeitverlauf über 72 Stunden eine prolongierte verminderte Immunabwehr der immungeschwächten Versuchstiere mit intaktem Vagus durch eine anhaltende IFN-γ-Suppression zeigen. Der N. vagus könnte somit besonders in der späten postoperativen Phase zu einer erhöhten Infektanfälligkeit der Patienten beitragen. Zusammenfassend weisen die Ergebnisse auf verschiedene Rollen des N. vagus zu verschiedenen Zeitpunkten in der Immundysfunktion nach chirurgischen Eingriffen hin. Damit wird ein neues Forschungsfeld eröffnet, dass die Auswirkungen des Nervus vagus bei postoperativ erworbener Immunsuppression einer genauen Analyse und somit einer Entwicklung von Therapien ermöglicht.
Background: Huntington’s disease (HD) is a progressive neurodegenerative disorder. The striatum is one of the first brain regions that show detectable atrophy in HD. Previous studies using functional magnetic resonance imaging (fMRI) at 3 tesla (3 T) revealed reduced functional connectivity between striatum and motor cortex in the prodromal period of HD. Neuroanatomical and neurophysiological studies have suggested segregated corticostriatal pathways with distinct loops involving different cortical regions, which may be investigated using fMRI at an ultra-high field (7 T) with enhanced sensitivity compared to lower fields. Objectives: We performed fMRI at 7 T to assess functional connectivity between the striatum and several chosen cortical areas including the motor and prefrontal cortex, in order to better understand brain changes in the striatum-cortical pathways. Method: 13 manifest subjects (age 51 ± 13 years, cytosine-adenine-guanine [CAG] repeat 45 ± 5, Unified Huntington’s Disease Rating Scale [UHDRS] motor score 32 ± 17), 8 subjects in the close-to-onset premanifest period (age 38 ± 10 years, CAG repeat 44 ± 2, UHDRS motor score 8 ± 2), 11 subjects in the far-from-onset premanifest period (age 38 ± 11 years, CAG repeat 42 ± 2, UHDRS motor score 1 ± 2), and 16 healthy controls (age 44 ± 15 years) were studied. The functional connectivity between the striatum and several cortical areas was measured by resting state fMRI at 7 T and analyzed in all participants. Results: Compared to controls, functional connectivity between striatum and premotor area, supplementary motor area, inferior frontal as well as middle frontal regions was altered in HD (all p values <0.001). Specifically, decreased striatum-motor connectivity but increased striatum-prefrontal connectivity were found in premanifest HD subjects. Altered functional connectivity correlated consistently with genetic burden, but not with clinical scores. Conclusions: Differential changes in functional connectivity of striatum-prefrontal and striatum-motor circuits can be found in early and premanifest HD. This may imply a compensatory mechanism, where additional cortical regions are recruited to subserve functions that have been impaired due to HD pathology. Our results suggest the potential value of functional connectivity as a marker for future clinical trials in HD.
Die vorliegende Studie hatte zum Ziel, verschiedene Messinstrumente zur patienten-zentrierten Evaluation des Knie- und Hüftgelenksersatzes (PROMs) zu vergleichen. Untersucht wurden der WOMAC und die hieraus abgeleiteten HOOS und KOOS, der FFbH-OA sowie der Lequesne-Index als gelenkspezifische Messinstrumente und der SF-36 als Messinstrument des allgemeinen Gesundheitszustandes. Zum Vergleich wurden zum ersten Messzeitpunkt pro Gelenk je zwei klinische Scores (Hüfte: Staf-felstein-Score, IOWA Hip Score; Knie: Staffelstein-Score, Knee Society Score) erho-ben. Zunächst erfolgte die Auswertung der Messinstrumente hinsichtlich ihrer Vertei-lungseigenschaften, anschließend wurden Validität, Reliabilität und Änderungssensiti-vität bestimmt. Die Studie war als Längsschnittstudie mit einem Befragungszeitraum von direkt präoperativ bis drei Monate postoperativ angelegt.
Die bereits in vielen Studien bewiesenen überwiegend sehr guten psychometrischen Eigenschaften der verwendeten Messinstrumente bestätigten sich auch in dieser Un-tersuchung. Insgesamt sind sich alle Messinstrumente hinsichtlich ihrer Verteilungs-eigenschaften, Validität und Reliabilität ähnlich. Somit können alle Instrumente emp-fohlen werden.
PROMs werden vor allem in der orthopädischen, rehabilitationswissenschaftlichen und epidemiologischen Forschung eingesetzt, während sie bisher im klinischen Alltag keine breite Verwendung finden. Auch in unserer Studie zeigten sich hohe Korrelati-onen zwischen den klinischen Scores und der subjektiv wahrgenommenen Funkti-onsfähigkeit. Die gute Übereinstimmung zwischen subjektiv und objektiv wahrge-nommener Gesundheit bzw. Funktion spricht dafür, dass der Einsatz von PROMs auch im klinischen Umfeld als Erfolgsmessung einer Maßnahme empfohlen werden kann.
Alle verwendeten Instrumente waren in der Lage, Veränderungen im Zeitverlauf ab-zubilden. Die gelenkspezifischen Fragebögen wiesen hierbei überwiegend etwas hö-here Werte auf als der allgemeine SF-36. Diese Tendenz zeigte sich auch in der Un-tersuchung nach Aufteilung der Gesamtstichprobe in Gruppen bezüglich der Kriterien „Geschlecht“, „Alter“ und „präoperativer Schmerz“. Neben den Funktionsskalen zeig-ten auch die ergänzend betrachteten Skalen „Schmerz“, „Steifigkeit“, „Sport“ und „Lebensqualität“ deutliche Verbesserungen im Zeitverlauf. Insgesamt besteht somit eine deutliche Verbesserung auch in anderen Bereichen als der reinen Gelenkfunkti-on, was als Hinweis auf die Effektivität eines Gelenkersatzes auch auf die Faktoren „Schmerz“ und „Lebensqualität“ gedeutet werden kann.
Zusammenfassend können alle in der vorliegenden Studie verwendeten Messinstru-mente empfohlen werden. Für die direkte Ergebnismessung beispielsweise eines Gelenkeingriffs bieten die gelenkspezifischen Messinstrumente aufgrund ihrer höhe-ren Änderungssensitivität Vorteile. WOMAC und HOOS bzw. KOOS waren aufgrund besserer Reliabilität und größerer Änderungssensitivität dem Lequesne Index und dem FFbH leicht überlegen. Für Studien, die auch über die reine Gelenkfunktion hin-ausgehende Aspekte untersuchen, empfiehlt sich die (zusätzliche) Verwendung von allgemeinen Instrumenten. Analog zu anderen Untersuchungen konnte auch in die-ser Studie die hohe Übereinstimmung von durch einen Untersucher erhobenen Be-funden mit der subjektiven Gesundheitswahrnehmung gezeigt werden, so dass die Verwendung von patientenzentrierten Messinstrumenten auch im klinischen Alltag zur Ergebnismessung einer medizinischen Behandlung (ergänzend) sinnvoll, kosten-günstig und wenig aufwendig ist und daher auch zur routinemäßigen Anwendung in klinischen Settings empfohlen werden kann.
Multiproxy investigations of lacustrine sediments from Laguna Azul (52 °S) document multi-millennial Holocene influences of Southern Hemispheric Westerlies (SHW) on the hydroclimatic variability of south-eastern Patagonia. During the last 4000 years, this hydroclimatic variability is overprinted by centennial warm/dry periods. A cool/wet period from 11,600 to 10,100 cal. BP is succeeded by an early Holocene dry period (10,100–8300 cal. BP) with a shallow lake, strong anoxia, methanogenesis and high salinity. Between 8300 and 4000 cal. BP the influence of SHW weakened, resulting in a freshwater lake considered to be related to less arid conditions. Since 4000 cal. BP, regional temperature decreased accompanied by re-intensification of SHW reaching full strength since 3000 cal. BP. Centred around 2200, 1000 cal. BP and in the 20th century, Laguna Azul experienced century-long warm/dry spells. Between these dry periods, two pronounced moist periods are suggested to be contemporaneous to the ‘Dark Age Cold Period’ and the ‘Little Ice Age’. Different from millennial SHW variations, centennial fluctuations appear to be synchronous for South America and the Northern Hemisphere. Changes in solar activity, large volcanic eruptions and/or modulations of ocean circulation are potential triggers for this synchronicity.
Eine Thrombose ist eine Gefäßerkrankung, bei der eine lokalisierte, intravasale Blutgerinnung zur Bildung eines Thrombus in einem Gefäß führt. Die Aktivierung der
Blutgerinnungskaskade und damit der Gerinnungsfaktoren führt zu einer Bildung sowie Quervernetzung von Fibrin und so zur Entstehung eines Thrombus. Dieser wird
physiologisch über die Fibrinolyse abgebaut. Die Serinprotease PAI-1 inhibiert diese und wirkt somit prothrombotisch. Jüngste Studien haben gezeigt, dass S1P als Schlüsselmolekül des Immunsystems und des Metabolismus auch das Gerinnungssystem beeinflusst und in einer wechselseitigen Beziehung mit dem Gerinnungsfaktor Thrombin und seinen PARs steht. Die S1P-Konzentration im Körper korreliert dabei eng mit dem BMI. Die vorliegende Arbeit beschreibt die Wirkung des Signallipids S1P auf die PAI-1-Expression von Fettzellen und damit die Stellung der Adipozyten bei S1P-vermittelten thrombotischen Ereignissen in vitro. Weiterhin wurde
erstmalig die Wechselwirkung von Thrombin und S1P bei der Produktion von PAI-1 in Fettzellen untersucht. Hierfür wurden 3T3-L1-Fibroblasten in Adipozyten differenziert
und mit S1P stimuliert. Es zeigte sich eine konzentrationsabhängige Steigerung der PAI-1-mRNA. Diese Ergebnisse wurden ebenfalls von anderen Arbeitsgruppen
bestätigt. Der S1P-Effekt ließ sich auch mittels Western Blot-Analyse auf Proteinebene darstellen. Dabei zeigte sich eine starke Steigerung der PAI-1-Expression und
Sekretion von 3T3-L1-Zellen. S1PR-2- und S1PR3-Inhibitoren senkten den S1Pvermittelten Anstieg, sodass S1P über eine S1PR-2- und, bisher in der Literatur noch
nicht beschrieben, auch über eine S1PR-3-Aktivierung einen prothrombotischen Einfluss ausübt. Weiterhin konnte nach Stimulation mit S1P erstmalig eine Expressionssteigerung von PAR-1 und damit eine Wechselwirkung zwischen dem Signalweg von Thrombin und S1P in Adipozyten beobachtet werden. Es wurde die
Hypothese aufgestellt, dass Thrombin über den PAR-1 die Aktivität der Enzyme des S1P-Metabolismus steigert und so über eine endogene S1P-Produktion zu einer zusätzlichen Steigerung von PAI-1 führt. Diese konnte bisher noch nicht bestätigt werden, da lediglich eine geringe, jedoch nicht signifikante Steigerung von PAI-1 nach Thrombin-Stimulation beobachtet werden konnte. Somit ist das Fettgewebe ein wichtiges Bindeglied zwischen dem inflammatorischen Lipid S1P sowie dem Enzym PAI-1 und damit als Gewebe ein bisher stark unterschätzter Einflussfaktor bei der Entstehung und Aufrechterhaltung thrombotischer Ereignisse.
Introduction: Senior urology physicians represent a heterogeneous group covering various clinical priorities and career objectives. No reliable data on gender-specific variations among senior urology physicians are available concerning professional and personal aspects. Methods: The objective of this study was to analyze professional perspectives, professional and personal settings, and individual career goals. A Web-based survey containing 55 items was designed which was available for senior physicians at German urologic centers between February and April 2019. Gender-specific differences were evaluated using bootstrap-adjusted multivariate logistic regression models. Results: One hundred and ninety-two surveys were evaluable including 29 female senior physicians (15.1%). Ninety-five percent would choose urology again as their field of specialization – with no significant gender-specific difference. 81.2% of participants rate the position of senior physician as a desirable career goal (comparing sexes: p = 0.220). Based on multivariate models, male participants self-assessed themselves significantly more frequently autonomously safe performing laparoscopic, open, and endourologic surgery. Male senior physicians declared 7 times more often to run for the position of head of department/full professor. Conclusion: This first study on professional and personal aspects among senior urology physicians demonstrates gender-specific variations concerning self-assessment of surgical expertise and future career goals. The creation of well-orchestrated human resources development strategies especially adapted to the needs of female urologists seems advisable.
Abstract
This article compares the use of calques modelled on anglicisms in different European languages, especially Spanish and German, which do not only show structural differences (e.g. with regard to the use of noun-noun compounds, which are more common in German) but also reflect different attitudes towards English. Aspects covered range from the factors generally favouring the coinage of such replacive forms, to the reasons for the emergence of different types of calques, to variations in their use and challenges concerning their identification. To unravel the main patterns and trends in calquing, this study includes numerous examples from written and oral language, i.e. items of different register affiliation, age, length, and semantic transparency. On a theoretical level, the article incorporates findings from the fields of lexicology, contact linguistics and sociolinguistics.
Klimawandel, Änderungen der Landnutzung und Habitatzerstörung sowie die Globalisierung tragen zu einer zunehmenden Ausbreitung von bekannten und noch unbekannten Viren bei, die eine Gefahr für Mensch und Tier darstellen können. Um potenziell gefährliche Viren frühzeitig zu entdecken, kann das in dieser Arbeit vorgestellte Protokoll für einen pan-viralen DNA-Microarray-gestützten (PVM) Virusnachweis verwendet werden, der optional mit einer Hochdurchsatzsequenzierung gekoppelt werden kann.
Für die Etablierung des PVM-Protokolls wurde die Leistungsfähigkeit von drei Probenbearbeitungs- und Datenauswertungsmethoden beim Nachweis von zwei Modellviren, einem DNA-Virus und einem RNA-Virus, verglichen. Für die Kopplung mit dem PVM wurden verschiedene Systeme für die Hochdurchsatzsequenzierung verwendet.
Das Ziel der Arbeit war die Etablierung eines optimierten PVM-Protokolls für einen robusten, breiten Virusnachweis, welcher einzeln oder in Kombination mit einer Hochdurchsatzsequenzierung als Teil einer mehrstufigen Analysepipeline verwendet werden kann.
Beim Nachweis beider Modellviren wies die Library-basierte Probenbearbeitungs- und Datenauswertungsmethode Limma die höchste Sensitivität auf. In der darauf folgenden Validierung konnten alle Viren, unabhängig von ihrer Genomorganisation und Komplexität der Probenmaterialien, korrekt identifiziert werden. In zwei publizierten Studien konnte der Nachweis der zum Zeitpunkt der Untersuchung noch unbekannten BBLV und SqAdV-1 gezeigt werden. Durch die Rückgewinnung von Virus-spezifischen Nukleinsäuren vom PVM und der anschließenden Sequenzierung
mittels Hochdurchsatzsequenzierung konnte das SqAdV-1 im Rahmen einer mehrstufigen Analysepipeline vollständig identifiziert, annotiert und taxonomisch eingeordnet werden. Durch die Kombination von PVM und Hochdurchsatzsequenzierung wurden für sechs Viren eine Virus-spezifische Anreicherung und ein damit verbundener Gewinn an Sequenzinformation erreicht. Die Library-basierte Probenbearbeitung mit Limma erlaubte einen robusten und sensitiven Virusnachweis; deshalb wurden beide Methoden für das PVM-Protokoll ausgewählt. Die Fähigkeit des hier etablierten PVM-Protokolls, Viren unabhängig von der Genomorganisation und in komplexen Probenmaterialien zu identifizieren, zeigt dessen Gleichwertigkeit mit bereits etablierten PVM-Systemen. Die Verwendung des PVM-Protokolls in einer mehrstufigen Analysepipeline erlaubt auch die Identifikation von bisher unbekannten Viren. Der durch die Kombination mit einer Hochdurchsatzsequenzierung erreichte Gewinn an Sequenzinformation ermöglicht eine Identifizierung und detailliertere Charakterisierung von Viren.
Der PVM stellt einzeln und in Verbindung mit einem Hochdurchsatzsequenzierungs- System ein wertvolles Werkzeug für die Virusdiagnostik dar, dessen Anwendung den Zeitaufwand für die Virusidentifizierung deutlich reduzieren kann.
A 2-day workshop of ORCA and the IADR Cariology Research Group was organized to discuss and reach consensus on definitions of the most commonly used terms in cariology. The aims were to identify and to select the most commonly used terms of dental caries and dental caries management and to define them based on current concepts. Terms related to definition, diagnosis, risk assessment, and monitoring of dental caries were included. The Delphi process was used to establish terms to be considered using the nominal group method favored by consensus. Of 222 terms originally suggested by six cariologists from different countries, a total of 59 terms were reviewed after removing duplicates and unnecessary words. Sixteen experts in cariology took part in the process of reaching consensus about the definitions of the selected caries terms. Decisions were made following thorough “round table” discussions of each term and confirmed by secret electronic voting. Full agreement (100%) was reached on 17 terms, while the definitions of 6 terms were below the agreed 80% threshold of consensus. The suggested terminology is recommended for use in research, in public health, as well as in clinical practice.
Background: Pancreatic exocrine insufficiency (PEI) is characterized by inadequate production, insufficient secretion, and/or inactivation of pancreatic enzymes, resulting in maldigestion. The aim of this review was to analyze the prevalence and pathophysiology of PEI resulting from gastrointestinal (GI) surgery and to examine the use of pancreatic enzyme replacement therapy (PERT) for effectively managing PEI. Summary: A targeted PubMed search was conducted for studies examining the prevalence and pathophysiology of PEI in patients following GI surgery and for studies assessing the effects of PERT in these patients. PEI is a common complication following GI surgery that can lead to nutritional deficiencies, which may contribute to morbidity and mortality in patients. Timely treatment of PEI with PERT can prevent malnutrition, increase quality of life, and possibly reduce the associated mortality. Treatment of PEI should aim not only to alleviate symptoms but also to achieve significant improvements in nutritional parameters. Dose optimization of PERT is required for effective management of PEI, in addition to regular assessment of nutritional status, appropriate patient education, and reassessment if symptoms return. Key Messages: Difficulties in detecting PEI following GI surgery can result in undiagnosed and untreated maldigestion, leading to metabolic complications and increased morbidity. Both are preventable by early administration and monitoring for optimal doses of PERT.
Die vorliegende Arbeit liefert ein Modell zur Erzeugung PI3K-mutierter Tumoren in der
Mausleber, je nach Mutationsart mit unterschiedlichem onkogenen Potenzial. Bekannte und
bisher unbekannte nachgeschaltete Ziele der PI3K konnten identifiziert werden. Diese
können im Rahmen von künftigen Target Therapien von Bedeutung sein.
Die in diesem Versuch verwendete Methode des hydrodynamischen Gentransfers bietet eine
zuverlässige Möglichkeit, ohne aufwendige Zucht von transgenen Mausstämmen,
verschiedene (Onko)Gene in der Mausleber langfristig zu exprimieren und ihre
Auswirkungen in vivo zu untersuchen.
A 2-day workshop of ORCA and the IADR Cariology Research Group was organized to discuss and reach consensus on definitions of the most commonly used terms in cariology. The aims were to identify and to select the most commonly used terms of dental caries and dental caries management and to define them based on current concepts. Terms related to definition, diagnosis, risk assessment, and monitoring of dental caries were included. The Delphi process was used to establish terms to be considered using the nominal group method favored by consensus. Of 222 terms originally suggested by six cariologists from different countries, a total of 59 terms were reviewed after removing duplicates and unnecessary words. Sixteen experts in cariology took part in the process of reaching consensus about the definitions of the selected caries terms. Decisions were made following thorough “round table” discussions of each term and confirmed by secret electronic voting. Full agreement (100%) was reached on 17 terms, while the definitions of 6 terms were below the agreed 80% threshold of consensus. The suggested terminology is recommended for use in research, in public health, as well as in clinical practice.
Die Zahl der Menschen mit Demenz (MmD) nimmt auch in den Krankenhäusern zu. Die Stationen sind üblicherweise auf eine Akutbehandlung ausgelegt, dies macht das Eingehen auf MmD schwierig. Sich dadurch ergebende mögliche Konsequenzen erstrecken sich von einer ungeplanten Wiedereinweisung über eine Heimeinweisung bis hin zum Tod des Patienten.
Verschiedene Studien konzentrieren sich auf die kurzfristigen Folgen einer Hospitalisierung
von MmD. Nur einige Studien erfassten Langzeitfolgen. Diese Informationen sind jedoch
bedeutend, um die Versorgung von MmD zu verbessern.
In der vorliegenden systematischen Übersichtsarbeit und Metaanalyse wird ein Überblick zu
den Langzeitfolgen (ungeplante Wiedereinweisung, Institutionalisierung und Mortalität) einer Hospitalisierung von MmD gegeben. Es werden Prädiktoren erfasst, die mit negativen Folgen
eines Krankenhausaufenthaltes assoziiert sind. Um alle relevanten Publikationen zum Thema zu erfassen, wurde eine systematische Literaturrecherche in den Datenbanken PubMed, CENTRAL und ScienceDirect durchgeführt. Die Qualität der einzelnen relevanten Studien
wurde in einem Formular zu Bewertung der Studien dokumentiert. Die Ergebnisse wurden in
einer Tabelle zusammengefasst, die Metaanalyse wurde mittels Review Manager 5.3 der Cochrane Collaboration berechnet.
Die systematische Literaturrecherche führte zu 1108 Artikeln, hiervon erfüllten 20 Artikel die Einschlusskriterien. 10 Studien wurden mit einer Kontrollgruppe durchgeführt und demnach in die Metaanalysen eingeschlossen. Die Inzidenz und das Relative Risiko für die Mortalität von
MmD (RR: 1,74 [95 %-KI 1,50-2,05]) und die Institutionalisierung (RR: 2,16 [95 %-KI 1,31-
3,56]) waren signifikant erhöht im Vergleich zu Menschen ohne Demenz. Die Ergebnisse bezüglich der ungeplanten Wiedereinweisung waren nicht aussagekräftig. Wichtige Faktoren, welche mit diesen Folgen assoziiert waren, waren der Schweregrad der Demenz, die Anzahl der eingenommen Medikamente und der Umfang der benötigten Hilfe bei der Verrichtung der Aktivitäten des täglichen Lebens.
Die Ergebnisse dieser Arbeit sprechen dafür, dass eine umfassendere Betreuung von MmD sowohl im Akutkrankenhaus als auch in der Häuslichkeit nötig ist. Außerdem sollten alle Prozesse an den Schnittstellen dieser Bereiche, insbesondere das Krankenhausentlassungsmanagement, weiter intensiviert und verbessert werden.
Zielsetzung: Cutibacterium (C.) acnes ist Teil des anaeroben Haut-Mikrobioms. Besonders in der Schulterchirurgie kommt es postoperativ häufig zu Infektionen mit C. acnes auf Grund der schwierigen Erreichbarkeit des Erregers durch das Hautantiseptikum in den Haarfollikeln der Haut.
Basierend auf der Hypothese, dass eine verlängerte Einwirkzeit des Hautantiseptikums in talgdrüsenreichen Arealen wie der Schulter das Eindringen in die Haarfollikel begünstigt und dadurch die antiseptische Wirksamkeit verbessert wird, sollte die Effektivität der derzeit üblichen Einwirkzeit von 2,5 min mit der Einwirkzeit von 30 min verglichen werden. Aufgrund der unterschiedlichen Eigenschaften von PVP-Iod und Chlorhexidindigluconat (CHG) sollten zwei handelsübliche alkoholische Hautantiseptika mit Gehalt an PVP-Iod bzw. CHG miteinander verglichen werden.
Methode: Im cross-over-Design wurde auf der Schulter von 16 gesunden, freiwilligen Probanden die Einwirkzeit von 2,5 min mit einer Einwirkzeit von 30 min jeweils mit einem PVP-I-haltigen Hautantiseptikum und einem CHG-haltigen Hautantiseptikum verglichen werden. Die Probenentnahmen erfolgten vor, direkt nach und 3h nach erfolgter Hautantiseptik. Analysiert wurde sowohl die aerobe als auch die anaerobe Hautflora.
Ergebnisse: Die aerobe residente Hautflora wurde durch beide Antiseptika bereits bei der kurzen Einwirkzeit effektiv eradiziert.
Die anaerobe residente Flora wurde hinsichtlich der Sofortwerte durch das PVP-I-haltige Antiseptikum sowohl bei der Einwirkungszeit von 2,5 min als auch von 30 min effektiver reduziert als durch das CHG-haltige Antiseptikum. Die nach 3 h erhobenen Werte zeigten dagegen nur die Tendenz der höheren Wirksamkeit bei der verlängerten Einwirkzeit des PVP-I-haltigen Antiseptikums. Die verlängerte Einwirkzeit hatte bei beiden Antiseptika keinen negativen Einfluss auf die intakte Haut, d.h. keiner der Probanden klagte über Hautirritationen oder Beschwerden.
Schlussfolgerung: Die alkoholische Zubereitung mit PVP-Iod ist dem CHG basierten Alkohol an Wirksamkeit gegen die anaerobe Flora im Sofortwert überlegen. Die klinische Relevanz dieser Studie sollte in einer randomisierten klinischen Studie mit dem Endpunkt SSI verifiziert werden.
In this thesis, we elaborate upon Bayesian changepoint analysis, whereby our focus is on three big topics: approximate sampling via MCMC, exact inference and uncertainty quantification. Besides, modeling matters are discussed in an ongoing fashion. Our findings are underpinned through several changepoint examples with a focus on a well-log drilling data.
Zusammenfassung
Zielsetzung: Ziel der vorliegenden experimentellen Studie war es, die Kontamination von Kurzinfusionssystemen an Zentralen Venenkathetern prospektiv zu untersuchen.
Methode: Die Probensammlung der Kurzinfusionssysteme erfolgte auf Intensivtherapiestationen. Es wurden ausschließlich Infusionssysteme zur Gabe von Kurzinfusionen verwendet. Infusionssysteme zur alleinigen Volumengabe wie E153 wurden von der Studie ausgeschlossen.
Beim Wechsel des Kurzinfusionssystems nach einer 72-stündigen Verwendungsdauer wurde die im System verbliebene Restlösung für 48 h bei 36 °C auf Blutagar zum Nachweis einer Kontamination kultiviert.
Ergebnisse: In einer von 616 Proben wurden 10 KbE Coagulase-negative Staphylokokken (CoNS) pro ml nachgewiesen.
Eine Kontrolltestung war bei dieser Probe zu Beginn der Studie nicht vorgesehen, sodass das getestete Kurzinfusionssystem als kontaminiert galt.
2 weitere Proben in der Anschlussuntersuchung wiesen wiederum 10 KbE CoNS pro ml auf, was bei einer Kontrolltestung mittels erneuter Kultivierung der Infusionslösung nicht bestätigt wurde, sodass der initiale Befund als Laborkontamination gewertet wurde. Damit liegt auch bei der kontaminierten Probe eine Laborkontamination (z.B. Hautflora) nahe, ohne die Durchführung einer Kontrolltestung konnte dies jedoch nicht bewiesen werden.
Schlussfolgerung: Infusionssysteme werden bei intermittierender Gabe von Kurzinfusionen mit Zwischenspülungen und einer Verwendungsdauer von 72h mikrobiell nicht kontaminiert. Obwohl das nur für aerob wachsende Bakterien nachgewiesen wurde, ist die Art der Entstehung einer Kontamination beim Umgang mit ISs für Aerobier und Anaerobier analog, so dass bei fehlendem Nachweis von Aerobiern kein Risiko einer Kontamination mit Anaerobiern anzunehmen ist. Damit können ISs bei intermittierender Gabe von Kurzinfusionen mit Zwischenspülungen bis zu 72 h verwendet werden, wodurch können Kosten eingespart werden.
Background: Sedentary behavior (SB) is a modifiable behavior with increasing prevalence worldwide. There is emerging evidence that time spend in SB and the manner in which SB is accumulated over time is associated with cardiovascular and cardiometabolic health. The requirement for SB data to be accurately measured is minimization, or at least accurate quantification of human-related sources of measurement errors such as accelerometer measurement reactivity (AMR). The present thesis was to examine SB and their associations with cardiovascular and cardiometabolic health, and to focus on challenges related to the assessment of SB. The first aim of the thesis was to identify patterns of SB describing how individuals accumulate their time spend in SB day-by-day over one week, and to examine how these patterns are associated with cardiorespiratory fitness as a marker for cardiovascular health (paper 1). The second aim of the thesis was to examine the multiple types of SB, and how this is associated with a clustered cardiometabolic risk score (CMRS; paper 2). The third aim of the thesis was to examine AMR and the reproducibility in SB and physical activity (PA) in two measurement periods, and to quantify AMR as a confounder for the estimation of the reproducibility of SB and PA data (paper 3).
Methods: The three papers were based on data of two different studies. For study 1, 1165 individuals aged 40 to 75 years were recruited in three different settings. Among these, 582 participated in a cardiovascular risk factor screening program including cardiopulmonary exercise testing. For the analyses of paper 1, 170 participants were eligible, agreed to wear an accelerometer, fulfilled the wearing regime, and completed the study period by wearing the accelerometer for seven consecutive days. Patterns in accelerometer data were classified based on time spent in SB per day applying growth mixture modeling. Model‐implied class‐specific peak oxygen uptake (VO2peak) means were compared using adjusted equality test of means (paper 1). The underlying study of paper 2 and 3 were based on data of a pilot study aiming to investigate the feasibility of a brief tailored letter intervention to increase PA and to reduce SB during leisure time. Among the individuals who agreed to be contacted again in study 1, a random sample of those aged between 40 and 65 years was drawn. Of those, 175 attended in a cardiovascular examination program. Assessment included giving blood sample, standardized measurement of blood pressure, waist circumference, body weight, and height at baseline, and after twelve months. Further, they agreed to complete a paper-pencil questionnaire on SB (Last 7-d Sedentary Behavior Questionnaire, SIT-Q-7d) and PA (International Physical Activity Questionnaire, IPAQ), and to receive seven-day accelerometery at baseline, and after 12 months. In addition, self-administered assessments were conducted at months one, three, four, and six after baseline. Only individuals of a random subsample (= intervention group) received up to three letters tailored to their self-reported SB and PA at months one, three, and four. For paper 2, associations between SBs and a clustered cardiometabolic risk score (CMRS) were analyzed using linear as well as quantile regression. To account for missing values at baseline, multiple imputations using chained equations were performed resulting in a total sample of 173 participants. Paper 3 comprised data of 136 individuals who participated at the baseline and twelve months assessments, and fulfilled the wearing regime. AMR was examined using latent growth modeling in each measurement period. Intraclass correlations (ICC) were calculated to examine the reproducibility of SB and PA data using two-level mixed-effects linear regression analyses.
Results: Results of paper 1 revealed four patterns of SB: 'High, stable', 'Low, increase', 'Low, decrease', and 'High, decrease'. Persons in the class 'High, stable' had significantly lower VO2peak values (M = 25.0 mL/kg/min, SD = 0.6) compared to persons in the class 'Low, increase' (M = 30.5 mL/kg/min, SD = 3.6; p = 0.001), in the class 'Low, decrease' (M = 30.1 mL/kg/min, SD = 5.0; p = 0.009), and in the class High, decrease' (M = 29.6 mL/kg/min, SD = 5.9; p = 0.032), respectively. No differences among the other classes were found. In paper 2, results revealed that the only factor positively associated with a CMRS in all regression models was watching television. Depending on the regression analysis approach used, other leisure-time SBs showed inconsistent (using a computer), or no associations (reading and socializing) with a CMRS. In paper 3, results revealed that time spent in SB increased (baseline: b = 2.3 min/d; after 12 months: b = 3.8 min/d), and time spent in light PA decreased (b = 2.0 min/day; b = 3.3 min/d). However, moderate-to-vigorous PA remained unchanged. Accelerometer wear time was reduced (b = 4.6 min/d) only at baseline. The ICC coefficients ranged from 0.42 (95% CI = 0.29 - 0.57) for accelerometer wear time to 0.70 (95% CI = 0.61 - 0.78) for moderate-to-vigorous PA. None of the regression models identified a reactivity indicator as a confounder for the reproducibility of SB and PA data.
Conclusions: The present thesis highlights SB in the field of cardiovascular and cardiometabolic research that have implications for future research. Individuals sit for different purposes and durations in multiple life domains, and the time spent in SB is accumulated in different patterns over time. Therefore, research should consider the fact that SB is embedded in an individual's daily life routine, hence might have differential effects on cardiovascular and cardiometabolic health. Further, methodological aspects have to be considered when dealing with SB. In order to detect how SB is 'independently' associated to an individual's health, an accurate measurement of SB is fundamental. Therefore, human-related sources of bias such as AMR should be taken into account when either planning studies or when interpreting data drawn from analysis of SB data.
Hypospadie ist die häufigste urogenitale Fehlbildung beim Jungen, Ursache ist eine Störung der Genitalentwicklung zwischen der 9. und 14. Schwangerschaftswoche. Betroffen ist einer von 200-300 Knaben. Seit Galen wurden über 250 Operationstechniken beschrieben. Untersucht wurden die Operationsergebnisse der Universitätsmedizin Greifswald zwischen 2006-2016 mit Betrachtung des veränderten postoperativen Managements und der subjektiven Patientenzufriedenheit.
Das Bovine Virale Diarrhoe Virus (BVDV) gehört zum Genus Pestivirus innerhalb der Familie der Flaviviridae. BVDV verursacht eine gefährliche Durchfallerkrankung bei Rindern,
besonders Kälbern, die Bovine Virusdiarrhoe (Mucosal Disease). BVDV gehört zu den einzelsträngigen RNA-Viren und ist eng verwandt mit dem Erreger der Klassischen Schweinepest sowie der Border Disease der Schafe. Wie andere Pestiviren, ist BVDV ein behülltes Virus, auf dessen Hülle drei Strukturproteine (Erns, E1 und E2) zu finden sind. In dieser Arbeit wurden die Glykoproteine E1 und E2 genauer charakterisiert, um Hinweise auf den Mechanismus der Knospung (Budding) von Pestiviren zu erhalten. Dazu ist die subzelluläre Lokalisation, die Topologie sowie der Retentionsmechanismus für E1 und E2 genauer untersucht worden. Die subzelluläre Lokalisation der Hüllproteine wurde mit Hilfe von Kolokalisationsanalysen mit spezifischen Kompartimentmarkerproteinen bestimmt. Sowohl als Einzelexpression als auch nach Expression als E1-E2-Vorläuferprotein zeigte sich eine Anreicherung der beiden Proteine vorwiegend im ER. Die Lokalisationsanalyse E2s in mit verschiedenen BVDV-Stämmen infizierten Zellen zeigte ein sehr ähnliches Bild wie die Einzelexpression. Die, die intrazelluläre Retention vermittelnden, Regionen wurden zunächst mit CD72-Fusionsproteinen eingegrenzt und zeigten, dass die Transmembrandomänen der Proteine für die Retention entscheidend waren.
Anhand verschiedenster Mutanten, welche Substitutionen, Insertionen und Deletionen im Bereich des C-Terminus von CD72-E1 bzw. E2 (ohne CD72-Fusionspartner) beinhalteten,
konnten einzelne Aminosäuren identifiziert werden, die essentiell für die Retention sind oder diese zumindest beeinflussen. Für E2 konnte das Arginin an Position 355 als wichtig für die Retention bestätigt und weiterführend untersucht werden. Mit Mutationen des Glutamins an Position 370 konnte außerdem der modulierende Effekt des cytoplasmatischen Rests auf die Retention E2s gezeigt werden. Die Retention von E1 ist unabhängig von der Länge der TMD und wird durch mehrere polare Aminosäuren (K174, R177, Q182) beeinflusst. Die Topologieuntersuchungen
für E1 und E2 nach Einzelexpression mit Tag-markierter Proteinvarienten zeigte, dass die reifen Proteine eine einspännige Transmembrandomäne mit dem N-Terminus auf der luminalen und dem C-Terminus auf der cytosolischen Seite des ERs besitzen.
For decades, evolutionary biologists have sought to understand the evolution of individual behaviour, physiology and ecology allowing organisms to cope to environmental change. One of the main challenges of current climate change is the unprecedent rate of temperature increase, as well as the increased occurence of extreme heat events. Interindividual response variability opens a whole new area of opportunities to understand how individual phenotypic traits are linked to individual response differences. In colour polymorphic species, colour honestly reflects an individual’s life-history strategy, and each morph may, therefore, represent an alternative life-history strategy. As such, colour polymorphic species, such as the Gouldian finch (Erythrura gouldiae), may be good models to assess how different strategies between morphs are linked to their espective responses to environmental variations. However, polymorphic species have mainly been disregarded for that purpose. In this context, the main aim of this thesis was to understand how the two morphs of the Gouldian finch respond through phenotypic plasticity to simulated heatwaves reaching thermocritical temperatures, and whether such differential responses may help to identify a ‘winner’ and a ‘loser’ morph in the light of climate change. To address these issues, we used an integrative approach including measurements of behavioural (Study 1), physiological (Study 2), and reproductive (Study 3) parameters. The novelty of our approach was to assess the immediate behavioural and physiological response variation of individuals of the two morphs longitudinally across different thermal conditions, as well as the postponed effects of this thermocritical heatwave exposure on their reproductive performance. In this study, although the behavioural responses generally did not differ between morphs or according to temperature intensity, the physiological and reproductive parameters differed in response to morph and temperature intensity. Blackheaded females, in particular, seem highly sensitive to thermocritical heatwaves, as they exhibited decreased body mass and increased oxidative damage during the thermocritical heatwaves, and advanced breeding initiation after these conditions, whereas these variables remained mostly unaffected in black-headed males and red-headed individuals. However, despite some response differences between morphs, both invested similarly in reproduction following intense heatwaves, and the offspring of both morphs were similarly affected. Based on these results, no morph therefore seems to appear more disadvantaged than the other following an intense heatwave, and red- and black-headed Gouldian finches may both be considered as climate stress ‘losers’.
Die degenerativ-kalzifizierende Aortenklappenstenose ist das häufigste Herzklappenvitium in der Altersgruppe der über 65-jährigen und tritt mit zunehmendem Alter vermehrt auf. (Vahanian et al. 2012; Stewart et al. 1997). Lange Zeit galt der offen-chirurgische Aortenklappenersatz als einziges kuratives Verfahren in der Behandlung der Aortenklappenstenose. Bei vielen Patienten wird jedoch aufgrund eines sehr hohen Lebensalter oder zahlreicher Komorbiditäten dieser Eingriff abgelehnt (Grube et al. 2006, Iung et al. 2003). Für diese Menschen steht seit wenigen Jahren die perkutane kathetergestützte Aortenklappenimplantation (TAVI) als neue Therapieoption zur Verfügung, welche sich gleichfalls in den letzten Jahren zu einer Therapieoption für Patienten mit niedrigerem Operationsrisiko zu entwickeln scheint (Gaede 2017).
Um die derzeit bestehenden Mortalitäts- und Komplikationsraten nach TAVI weiter zu senken, ist die präoperative Ermittlung von prognoserelevanten Einflussfaktoren von großer Bedeutung.
Für die vorliegende Dissertationsschrift wurden die Ergebnisse von 193 Patienten, die am Klinikum Karlsburg von September 2009 bis Juli 2014 einen transapikalen oder transfemoralen kathetergestützten Aortenklappenersatz (TAVI) erhielten, analysiert und anhand aktueller Literatur diskutiert.
Alle untersuchten Patienten wiesen eine hochgradige Aortenklappenstenose (AÖF ≤ 1,0 cm²) auf und konnten als Hochrisikopatienten angesehen werden. Sie waren im Durchschnitt 79,3 ± 6,0 Jahre alt und besaßen einen logistsichen EuroSCORE von 22,24 ± 16,7%, einen EuroSCORE II von 5,79 ± 5,8% und einen STS Score von 5,50 ± 3,9%. Das präinterventionelle Risikoprofil, sowie die vorab erhobenen echokardiografischen Daten waren mit denen bereits veröffentlichter Studien vergleichbar. In 98% der Interventionen erfolgte eine technisch erfolgreiche Prozedur. Die mittlere OP-Dauer betrug 72,2 ± 21,9 min, die Durchleuchtungszeit 9,2 ± 5,1 min und die verbrauchten Kontrastmittelmenge 94,4 ± 38,8. Die stationäre Aufenthaltsdauer betrug durchschnittlich 13,8 ± 9,1 Tage.
Insgesamt konnte ein sehr gutes 30-Tage-Outcome erzielt werden und damit die TAVI, als vergleichsweise komplikationsarmes und bezogen auf die Kurz- und Langzeitergebnisse gut funktionierendes Verfahren bestätigt werden. Die 30-Tage-Mortalität betrug 5,2% und die 30-Tage-MACCE-Rate 9,3% und ähnelt damit den Ergebnissen der Vergleichsliteratur.
Anhand einer umfangreichen Prädiktoranalyse, die sowohl univariat, als auch multivariat erfolgte, konnten eine periphere arterielle Verschlusskrankheit, eine ACI-Stenose ≥70 %, eine
86
zerebrovaskuläre Insuffizienz, der additive und logistische EuroSCORE, der STS-Score, die OP-Dauer, die Kontrastmittelmenge als Einflussfaktoren auf die 30-Tage-Mortalität ermittelt werden. In der multivariaten Analyse verblieben eine periphere arterielle Verschlusskrankheit, eine ACI-Stenose ≥70 %, eine pulmonale Hypertonie >60 mmHg, ein Diabetes mellitus, die OP-Dauer und die chirurgische Leistenrevision als unabhängige Prädiktoren. Bei Betrachtung der 30-Tage-MACCE-Rate stellten sich in der univariaten Analyse zusätzlich zu den die 30-Tage-Mortalität beeinflussenden Parametern, eine pulmonale Hypertonie >60 mmHg und der EuroSCORE II als signifikante Faktoren heraus. Multivariat konnten eine ACI-Stenose ≥70%, die eingeschränkte linksventrikuläre Ejektionsfraktion, der logistische EuroSCORE und die OP-Dauer als unabhängige Einflussfaktoren der 30-Tage-MACCE-Rate analysiert werden. Durch den Vergleich mit den Ergebnissen bereits veröffentlichter Arbeiten konnten dabei prognoserelevante Faktoren der genannten Endpunkte bestätigt, beziehungsweise neue Einflussfaktoren ermittelt werden.
Die Wirksamkeit und Sicherheit einer Arzneitherapie wird durch zahlreiche pharmakokinetische Prozesse beeinflusst. Neben den durch CYP-450-Enzym vermittelten Biotransformationsvorgängen sind zunehmend Transportprozesse durch Arzneimitteltransporter aus der ABC- sowie SLC-Familie in den Fokus getreten, welche unter anderem in den Membranen der Enterozyten, aber auch in weiteren Organen exprimiert sind. Die Expression und Funktion der Arzneimitteltransporter kann beispielsweise durch Arzneistoffe beeinflusst werden und somit in Arzneimittelwechselwirkungen resultieren. Dass diese Regulationsmechanismen eine hohe Komplexität aufweisen, ist aus einer Vielzahl von klinischen Interaktionsstudien ersichtlich. In diesen führte die Applikation von bekannten Induktoren des Arzneistoffmetabolismus und -transports zu organspezifischen Veränderungen in der Pharmakokinetik der gleichzeitig verabreichten Arzneistoffe.
Ziel dieser Arbeit war es, zu einem besseren Verständnis der Expression und Regulation intestinaler Arzneimitteltransporter beizutragen, um somit Auswirkungen auf die Pharmakokinetik besser vorhersagen zu können. Dies beinhaltete zum einen die Mitarbeit an der Entwicklung und Validierung einer LC-MS/MS-basierten Methode zur Proteinquantifizierung, mit welcher auch in limitierten Gewebemengen die am stärksten exprimierten Membrantransporter ABCB1 (P-gp), ABCC2 (MRP2), ABCG2 (BCRP) und SLC15A1 (PEPT1) quantifiziert werden konnten. Parallel dazu wurden die Prozesse zur mRNA-Isolierung und -Quantifizierung optimiert.
In der präklinischen Forschung wird weitverbreitet das Caco-2-Zellmodell zur Prädiktion der intestinalen Absorption genutzt. Im Rahmen dieser Arbeit sollte das Caco-2-Zellmodell dahingehend untersucht werden, ob es ein geeignetes Modell zur Prädiktion der intestinalen Absorption darstellt, auch in Bezug auf Induktionsvorgänge. In bereits publizierten Arbeiten wurde häufig eine gute Korrelation des Transporterexpressionsmusters auf mRNA-Ebene zwischen Caco-2 und Jejunum gezeigt. Die vorliegenden vergleichenden Ergebnisse zur mRNA- und Proteinexpression von Arzneimitteltransportern zeigten, dass sowohl im Zellmodell als auch im jejunalen Gewebe in Teilen deutliche Diskrepanzen zwischen mRNA und Transporterexpression bestehen. Auf der für die Funktion der Arzneimitteltransporter relevanten Proteinebene zeigten sich für ABCB1, ABCC2 und ABCG2 relativ gute Übereinstimmungen, während die Proteinexpression anderer Transporter, insbesondere OATP2B1, im Zellmodell deutlich abwich. Dies verdeutlicht, dass insgesamt Vorsicht geboten ist in der Prädiktion der intestinalen Absorption mittels Caco-2-Zellmodell, da zudem bereits auf mRNA-Ebene gezeigt worden ist, dass die Expression der Transporter sowohl von dem Zellklon als auch von den Kulturbedingungen anhängig ist. Darüber hinaus wurde in dieser Arbeit gezeigt, dass die Expression der Transporter in dem Zellmodell sowohl auf mRNA- als auch auf Proteinebene zeitlich variabel ist. Somit empfiehlt sich ein noch vorsichtiger Umgang mit Daten zur intestinalen Absorption, welche auf Basis eines Caco-2-Modells mit verkürzter Kultivierungszeit erhoben worden sind. Induktionsprozesse konnten weder auf Ebene der mRNA-Expression oder des Proteingehaltes noch auf Ebene der Funktion in dem Caco-2-Zellmodell durch Inkubation mit prototypischen Induktoren des Arzneistoffwechsels (Carbamazepin, Efavirenz, Johanniskrautextrakt, Rifampicin) simuliert werden.
Weiterhin wurde die Induktion von intestinalen Arzneimitteltransportern in vivo untersucht. Chronische Gabe von Rifampicin führte zu einem Anstieg von ABCB1 und ABCC2 auf mRNA Ebene, welches nur im Fall von ABCB1 (P-gp) auf Proteinebene umgesetzt wurde. Die chronische Applikation von Carbamazepin resultierte ausschließlich in einer Induktion auf mRNA Ebene. Im Vergleich zu Rifampicin war diese jedoch auch geringer ausgeprägt. Der PXR-Ligand Rifampicin kann aufgrund einer hohen intestinalen PXR-Expression eine stärkere Induktion hervorrufen als Carbamazepin, welches präferentiell den nukleären Rezeptor CAR aktiviert. Begünstigt wird dies darüber hinaus dadurch, dass Rifampicin, nicht aber Carbamazepin, einem enterohepatischen Kreislauf unterliegt und Rifampicin somit über einen längeren Zeitraum im Intestinum in einer Konzentration vorliegt, welche notwendig ist, um eine Aktivierung der nukleären Rezeptoren zu erreichen. Regulationsvorgänge durch miRNAs können dafür verantwortlich sein, dass eine erhöhte Expression der mRNA nicht parallel mit einem Anstieg des Proteingehaltes einhergeht. Durch Korrelationsanalysen, in silico-Prädiktion sowie Untersuchungen mittels Reportergen-Assays konnten in der vorliegenden in vivo-Studie drei Interaktionen zwischen miRNAs und mRNAs (ABCB1 - miR-485-3p; ABCC2 - miR-26a-5p; ABCG2 - miR-577) identifiziert werden, welche potentiell den Translationsprozess verhindert bzw. abgeschwächt haben. Korrelationsanalysen mit bereits zuvor erhobenen Daten zur Pharmakokinetik der applizierten probe drugs deuten darauf hin, dass die systemische Verfügbarkeit von Ezetimib und dessen Glukuronid durch intestinales ABCB1 (P-gp), nicht jedoch wie zuvor angenommen durch intestinales ABCC2 (MRP2) beeinflusst wird. Insgesamt konnten nach chronischer Gabe von Rifampicin Korrelationen entlang der Signalkaskade ausgehend von der mRNA-Expression von PXR, über die mRNA Expression von ABCB1, unter Berücksichtigung der Expression der miRNA 485-3p bis hin zum Gehalt und der Funktion von ABCB1 (P-gp) gezeigt werden. Veränderungen des Plasmaspiegels von Talinolol nach chronischer Gabe von Carbamazepin sind hingegen nicht auf Induktionsvorgänge intestinaler Transportprozesse zurückzuführen. Die Ursachen dafür sind u.a. in der Erhöhung der renalen Clearance zu suchen. Zusammengefasst konnte gezeigt werden, dass nukleäre Rezeptoren, miRNAs und die pharmakokinetischen Eigenschaften der Induktoren selbst maßgeblich an der differenziellen Regulation von Transportprozessen beteiligt sind.
Die dynamische Bevölkerungsentwicklung Ostdeutschlands seit 1990 zeigt am Beispiel der Entstehung einer Residualbevölkerung die unterschiedlichen Variationen der Selektivität von Wanderungen: Einer Bevölkerung, die aufgrund langfristig wirkender selektiven Wanderungsverluste im ländlich-peripheren Raum ein spezifisches demographisches Verhalten aufweist.
Der Wanderungsverlust Ostdeutschlands mit über 2,5 Millionen Menschen hat tiefgreifende Auswirkungen auf die alters-, geschlechts- und bildungsspezifische Bevölkerungsstruktur der neuen Bundesländer hinterlassen. Auch wenn die jungen Generationen zumeist das politisch geeinte Deutschland leben, existieren mit Blick auf die vorliegenden demographischen Prozesse und Strukturen bis heute nahezu zwei deutsche Staaten.
Die Entwicklungen sowie die Auswirkungen insbesondere der räumlichen Bevölkerungsbewegung wurden entsprechend dem Stand der Forschung vor dem Hintergrund der Situation Ostdeutschlands vorgestellt und die darauf aufbauenden Forschungsthesen benannt. Das bisher nur theoretische Konstrukt der Residualbevölkerung, die Interdependenz aus natürlicher und räumlicher Bevölkerungsbewegung, wurde anhand von unterschiedlichen demographischen Parametern (u. a. hohe Fertilität, hohe Mortalität, starke Wanderungsverluste, großes Frauendefizit, Überalterung) eingeordnet und damit als messbar definiert.
Am Beispiel Mecklenburg-Vorpommerns konnte anschließend gezeigt werden, wie sich die Bevölkerungsstruktur des ehemals jüngsten Bundeslandes aufgrund der selektiven Migration innerhalb eines Vierteljahrhunderts in das älteste umkehrte. Um diesen Verlauf nachzuvollziehen, wurden auf Gemeindeebene die unterschiedlichen Bewegungsentwicklungen ab 1990 dargestellt: Der Rückgang der Sterblichkeit, der Wiederanstieg der Fertilität sowie der sich manifestierende Wanderungsverlust junger Frauen. Daran anschließend zeigten Strukturberechnungen, wie sowohl das Billeter-Maß als auch Geschlechterproportionen, die umfassenden Auswirkungen der Bewegungen auf den Bevölkerungsstand und dessen Struktur Mecklenburg-Vorpommerns: Einen stetigen Rückgang der Bevölkerungszahlen, ein über-proportionales Frauendefizit in jüngeren Altersjahren und eine fortlaufend beschleunigte Alterung der Bevölkerung.
Vor dem Hintergrund dieser Rahmenbedingungen wurde für die Zeiträume 1990-2001 und 2002-2013 jeweils eine Clusteranalyse durchgeführt, die als Ergebnis eine Typisierung von Gemeinden hinsichtlich einer messbaren Residualbevölkerung ermöglichten. Entsprechend der Vordefinition eines solchen migrationellen Konstruktes konnte für etwa jede fünfte Gemeinde in Mecklenburg-Vorpommern solcherart demographische Bedingungen identifiziert werden. Diese Gemeinden liegen tendenziell im Binnenland und fern der Zentren – eine zentrale Verortung konnte nicht festgestellt werden. Von Gemeinde zu Gemeinde unterschieden sich die demographischen Parameter teils stark, so dass von einflussreichen lokalen (nicht betrachteten) Rahmenbedingungen ausgegangen werden muss.
Dagegen konnten auch Gemeinden ohne residuale Züge identifiziert werden. Etwa jede dritte Gemeinde Mecklenburg-Vorpommerns wies keine Parameter einer Residualbevölkerung auf. Diese Regionen waren vor allem in der Nähe der Zentren und der Küste zu finden. Die verbliebenen Gemeinden zeigten nur kurzfristig oder nur im geringfügigem Maße Indizien für eine solche Bevölkerung – das betraf etwa die Hälfte aller Gemeinden im Land.
Nach der gesamtgemeindlichen Analyse wurde die Bevölkerungs- und Sozialstruktur der dabei betroffenen Gemeinden Strasburg (Um.) im Landkreis Vorpommern-Greifswald und Dargun im Landkreis Mecklenburgische Seenplatte detailliert analysiert. Die Bevölkerungsentwicklung beider Betrachtungsgemeinden entsprach der vieler ostdeutscher Kleinstädte im ländlichen Raum nach der politischen Wende: Während die Gemeinden in der DDR Bevölkerungswachstum erfuhren oder zumindest gleichbleibende Bevölkerungszahlen als regionales Zentrum aufwiesen, verursachte die Abwanderung vor allem junger Menschen und ein manifestierter Sterbeüberschuss nach 1990 stetig rückläufige Zahlen.
In diesen beiden Gemeinden wurden dann nicht gesamtgemeindliche Bevölkerungszahlen analysiert, sondern vielmehr die Zusammensetzung einer Gemeindebevölkerung vor dem Hintergrund ihres Migrationsstatus differenziert. Für den Zeitraum 1979-2014 wurden deshalb anhand dieses Status die Bevölkerungen beider Gemeinden in Sesshafte und Zugezogene unterteilt. Aufgrund der sowohl vorhandenen Sterbe- als auch Geburtsstatistik war es möglich, die natürliche und räumliche Bevölkerungsbewegung der insgesamt fast 22.000 Men-schen direkt herauszuarbeiten. Die sesshafte Bevölkerung repräsentiert dabei die Menschen, die am ehesten dem Typus „Residualbevölkerung“ entsprechen.
Nach Berechnung der Mortalitäten für unterschiedliche Zeiträume ergab sich tendenziell eine höhere Sterblichkeit bzw. geringere Lebenserwartung der Sesshaften gegenüber den Zuzüglern bei Frauen wie Männern. Wurden darüber hinaus die Zugezogenen nach Lebensdauer in den Betrachtungsgemeinden differenziert, ergab bei beiden Geschlechtern eine längere Zugehörigkeit zu den Gemeinden auch eine höhere Sterblichkeit. Damit wurde einerseits die generell höhere Mortalität des ländlich-peripheren Raums gegenüber dem urbanen Raum bestätigt. Andererseits entspricht die höhere Sterblichkeit der sesshaften gegenüber der der nichtsesshaften Bevölkerung den Vorüberlegungen zur Residualbevölkerung.
Darüber hinaus wurde zusätzlich der Parameter „Bedürftigkeit“ berücksichtigt. Hier konnte erwartungsgemäß für beide Betrachtungsgemeinden die höchste Sterblichkeit der von Sozial-leistungen betroffenen Menschen festgestellt werden. Je länger dabei die Bezugsdauer, umso höher war die aufgezeigte Mortalität – dies sogar zumeist vor der sesshaften Bevölkerung. Bezieher von Sozialhilfe waren im Vergleich zu Beziehern von Wohngeld am stärksten betroffen; Unterschiede bei Männern besonders stark vertreten. Die Nichtbezieher wiesen bei beiden Geschlechtern die geringste Sterblichkeit auf.
Neben der Mortalität wurde als zweite Variable der natürlichen Bevölkerungsbewegung die Fertilität der beiden Bevölkerungsgruppen untersucht. Hier ergaben sich jedoch keine signifikanten Unterschiede zwischen beiden Bevölkerungsgruppen
Im Bereich der Periodenfertilität wiesen Zuzügler gegenüber den Sesshaften eine erhöhte Fertilität auf. Berechnungen der Kohortenfertilität ergaben wiederrum eine leicht höhere Fertilität der Sesshaften. Auch eine detaillierte Analyse der Zuzüglerinnen offenbarte kein einheitliches Bild. Mit Blick auf die Bedürftigkeit war festzustellen, dass die Bezieherinnen eine deutlich höhere Fertilität gegenüber Nichtbezieherinnen – unabhängig von der Bezugsdauer – aufwiesen. Im Ergebnis wurde damit zwar die generell höhere Fertilität des ländlich-peripheren Raums gegenüber dem urbanen Raum bestätigt. Die entsprechenden Vorüberlegungen zur Fertilität der sesshaften gegenüber der nichtsesshaften Bevölkerung konnten aber nicht eindeutig verifiziert werden.
Die gesamtheitliche Betrachtung der Gemeindeberechnungen zeigte demzufolge ein zweitgeteiltes Bild: Die Ergebnisse der Mortalität bestätigen die Annahmen zur Residualbevölkerung, die Ergebnisse der Fertilität nur in Teilen. Auch wenn die festgestellten Fertilitäts- und Morta-litätsunterschiede ortsbehaftet sind – sei es durch Umwelteinflüsse vor Ort oder die Art der Menschen zu leben: Je länger die Menschen in Regionen mit einem bestimmten Fertilitäts- und Mortalitätsniveau leben, umso stärker passen sie sich diesem an – in beide Richtungen.
Vor dem Hintergrund sowohl der Typisierung aller Gemeinden als auch der beiden Betrach-tungsgemeinden ist zu konstatieren, dass beide Variablen der natürlichen Bevölkerungsbewegung nichtgleichberechtigt nebeneinander zur Erklärung einer Residualbevölkerung fungieren müssen. Unter der Beibehaltung der theoretischen Annahmen ist dementsprechend zukünftig von einer Residualbevölkerung mit Schwerpunkt einer hohen Mortalität einerseits und mit Schwerpunkt einer hohen Fertilität andererseits auszugehen. Das bisher in der Literatur benannte Frauendefizit stellt darüber hinaus nur einen Parameter unter mehreren dar und sollte bei nachfolgenden Betrachtungen nicht als alleiniger Indikator dienen.
Unter Berücksichtigung der Ergebnisse sowohl aus beiden Gemeinden als auch aus den Clus-teranalysen wurde ein Modell einerseits zur Entstehung der Residualbevölkerung, andererseits zum Wirken der selektiven Migration generell erstellt. In Abhängigkeit von Alter und Geschlecht und unter Voraussetzung einer langfristig konstanten Wanderungsbewegung konnte so der theoretische Einfluss der räumlichen Bevölkerungsbewegung auf die Bevölkerungsstruktur – und damit indirekt auch auf die natürliche Bevölkerungsbewegung – vereinfacht projiziert werden.
Der ostdeutsche ländlich-periphere Raum ist abschließend als Sonderform des ländlich-peripheren Raums einzuordnen. Die hier gezeigte Residualbevölkerung kann als ein Indikator für – den gesellschaftlichen, kulturellen und wirtschaftlichen Verwerfungen geschuldeten – langfristige Wanderungsverluste eingeordnet werden. Die überproportional ausgeprägte Bedürftigkeit im ländlich-peripheren Raum kann deshalb auch als ein Merkmal der Sesshaftigkeit eingeordnet werden.
Insofern ist die Residualbevölkerung, vor dem Hintergrund der darüber hinaus als perspektivisch ungünstig erachteten Zukunftsaussicht, als Bevölkerungsgruppe eines Raumes abnehmender Entwicklungsstufe zu verstehen. Es ist daher ratsam, einerseits eine Verbesserung der Lebenssituation betroffener Menschen in ländlich-peripheren Räumen zu erwirken und andererseits diesen Herausforderungen raumplanerisch stärkeres Gewicht zu verleihen. Die zukünftige dahingehende Gestaltung ländlich-peripherer Räume in Ostdeutschland bedarf aus Sicht des Autors deshalb mehr an Autarkie sowie flexibler Kreativität.
Background: Huntington’s disease (HD) is a progressive neurodegenerative disorder. The striatum is one of the first brain regions that show detectable atrophy in HD. Previous studies using functional magnetic resonance imaging (fMRI) at 3 tesla (3 T) revealed reduced functional connectivity between striatum and motor cortex in the prodromal period of HD. Neuroanatomical and neurophysiological studies have suggested segregated corticostriatal pathways with distinct loops involving different cortical regions, which may be investigated using fMRI at an ultra-high field (7 T) with enhanced sensitivity compared to lower fields. Objectives: We performed fMRI at 7 T to assess functional connectivity between the striatum and several chosen cortical areas including the motor and prefrontal cortex, in order to better understand brain changes in the striatum-cortical pathways. Method: 13 manifest subjects (age 51 ± 13 years, cytosine-adenine-guanine [CAG] repeat 45 ± 5, Unified Huntington’s Disease Rating Scale [UHDRS] motor score 32 ± 17), 8 subjects in the close-to-onset premanifest period (age 38 ± 10 years, CAG repeat 44 ± 2, UHDRS motor score 8 ± 2), 11 subjects in the far-from-onset premanifest period (age 38 ± 11 years, CAG repeat 42 ± 2, UHDRS motor score 1 ± 2), and 16 healthy controls (age 44 ± 15 years) were studied. The functional connectivity between the striatum and several cortical areas was measured by resting state fMRI at 7 T and analyzed in all participants. Results: Compared to controls, functional connectivity between striatum and premotor area, supplementary motor area, inferior frontal as well as middle frontal regions was altered in HD (all p values <0.001). Specifically, decreased striatum-motor connectivity but increased striatum-prefrontal connectivity were found in premanifest HD subjects. Altered functional connectivity correlated consistently with genetic burden, but not with clinical scores. Conclusions: Differential changes in functional connectivity of striatum-prefrontal and striatum-motor circuits can be found in early and premanifest HD. This may imply a compensatory mechanism, where additional cortical regions are recruited to subserve functions that have been impaired due to HD pathology. Our results suggest the potential value of functional connectivity as a marker for future clinical trials in HD.
Long-term nationally representative caries data in the primary dentition are rare, but nonetheless central to assess needs in caries prevention and treatment. This study evaluated the prevalence and trends of caries levels in the primary dentition of 6- to 7-year-olds in Germany as a whole and its federal states individually. In 2016, employing a randomized cluster selection, 6- to 7-year-old first graders were included in the National German Oral Health Survey performed regularly since 1994/95. Children were examined by 482 calibrated dentists in all 17 German regions using the WHO criteria for the decayed, missing, and filled teeth (dmft) including the assessment of initial carious lesions (it). In total, 151,555 6- to 7-year-olds were examined. Caries prevalence in the primary dentition dropped from 65% in 1994 to 44% in 2016, while the mean caries experience dropped from 2.89 to 1.73 dmft (dt = 0.74, mt = 0.19, ft = 0.80). When initial lesions were included, the mean caries experience increased to idmft = 2.12 (it = 0.38). In 2016, 49.7% of the examined 6- to 7-year-olds were caries-free including initial lesions. The Care Index at the tooth level was 57.5%, and the Significant Caries Index was 4.84 dmft. Depending on the German region, the mean dmft varied considerably, ranging from 1.37 to 2.31. In conclusion, despite the overall caries decline in 6- to 7-year-olds in Germany, only minor caries reductions were observed over the last decade, with a still existing high proportion of untreated dental decay. This calls for more effective preventive and restorative efforts with focus on the primary dentition in Germany.
Objectives: Performing proper toothbrushing is a complicated process for children. Therefore, the aim of this study was to investigate the effect of a smartphone app for improving manual toothbrushing via a gravitation sensor. Methods: In this prospective, controlled, single-blinded, randomized clinical trial, 49 children (mean age 5.1 ± 0.6 years, 27 female) were randomly assigned to test (n = 26) and control (n = 23) groups. All children were provided with manual toothbrushes with an integrated gravitation sensor and they received oral health instructions. Only the children of the test group got an additional smartphone app to visualize and reward proper brushing in form and time. At baseline and recalls after 6 and 12 weeks, plaque and gingival indices (QHI, PBI) were recorded for analysis between the two groups. Results: At baseline, there were no significant differences between the test and control group regarding plaque and gingival indices (QHI: 2.36 ± 0.7 and 2.42 ± 0.8; p = 0.94; PBI: 0.42 ± 0.2 and 0.47 ± 0.3; p = 0.59). At the 6- and 12-week recalls, the test group showed statistically significantly better oral health indices than the controls (6-week recall, QHI: 0.8 ±0.5 and 1.88 ± 0.9; p < 0.001; PBI: 0.08 ± 0.1 and 0.26 ± 0.2; p < 0.001; 12-week recall, QHI: 0.44 ± 0.5 and 1.49 ± 0.7; p < 0.001; PBI: 0.05 ± 0.18 and 0.21 ± 0.1; p < 0.001). Conclusion: The results highlight the enormous possibilities of a toothbrushing application via the smartphone, at least for medium-term oral hygiene improvement in preschool children and even after excluding the app. The long-term effect should also be investigated to exclude the expected novelty effect.
40-Year Longitudinal Caries Development in German Adolescents in the Light of New Caries Measures
(2019)
This study assessed the 40-year longitudinal caries development in German adolescents in the light of the sixth National Oral Health Survey in Children (NOHSC, 2016) employing initial DMFT (IDMFT), Significant Caries Index (SiC) and Specific Affected Caries Index (SaC). On the basis of the current NOHSC (randomized cluster selection using school list or regional community school surveys, 55,956 12-year-old sixth-graders examined by 482 calibrated community/study dentists) DMFT, SiC, a novel IDMFT including initial lesions (IT) and the recently introduced SaC were calculated and also recalculated for national and international surveys from the last 4 decades. In 2016, 78.8% of children were caries-free (DMFT = 0), 65.5% including IT lesions. The mean DMFT was 0.44 (single components: DT = 0.14, MT = 0.02, FT = 0.29, IT = 0.52) showing a clear association with the school type as marker for the socio-economic status. The mean number of affected teeth in children with DMFT >0 was 2.07 (SaC) in comparison to almost 9 teeth in the 1970s. The current care index on the tooth level was 66.3%, leaving only 7.7% of children with restorative treatment needs. Longitudinally, a continuous caries decline of more than 80%, including the risk groups (SiC/SaC), to an internationally extremely low level was observed. In conclusion, the National Oral Health Surveys reveal a continuous caries decline to a very low caries level in 12-year-old 6th-graders in Germany even if IT lesions are included (IDMFT). In spite of proportional reductions in the risk groups (SiC/SaC), the polarized caries distribution according to socio-economic parameters reveals the need for targeted preventive programmes.
Patient-reported outcomes (PROs) refer to any report coming directly from patients about how they function or feel in relation to a health condition or its therapy. PROs have been applied in medicine for the assessment of the impact of clinical phenomena. Self-report scales and procedures for assessing physical pain in adults have been developed and used in clinical trials. However, insufficient attention has been dedicated to the assessment of mental pain. The aim of this paper is to outline the implications that assessment of mental pain may entail in psychiatry and medicine, with particular reference to a clinimetric index. A simple 10-item self-rating questionnaire, the Mental Pain Questionnaire (MPQ), encompasses the specific clinical features of mental pain and shows good clinimetric properties (i.e., sensitivity, discriminant and incremental validity). The preliminary data suggest that the MPQ may qualify as a PRO measure to be included in clinical trials. Assessment of mental pain may have important clinical implications in intervention research, both in psychopharmacology and psychotherapy. The transdiagnostic features of mental pain are supported by its association with a number of psychiatric disorders, such as depression, anxiety, eating disorders, as well as borderline personality disorder. Further, addressing mental pain may be an important pathway to prevent and diminish the opioid epidemic. The data summarized here indicate that mental pain can be incorporated into current psychiatric assessment and included as a PRO measure in treatment outcome studies.
Das Immunsystem des Neugeborenen unterscheidet sich grundlegend von
dem des Erwachsenen. Aufgrund der unvollständig entwickelten adaptiven
Immunantwort sind Neonaten einer erhöhten Infektionsgefahr ausgesetzt,
während sie vorrangig auf das innate Immunsystem bei der Abwehr von
Erregern zurückgreifen müssen. Einen wesentlichen Bestandteil dieser
angeborenen Immunabwehr stellen die neutrophilen Granulozyten dar, die
unter anderem in Form der Phagozytose die Bekämpfung von Pathogenen
im Gewebe realisieren.
Eine weitere, 2004 beschriebene Funktion der Neutrophilen ist die Bildung von „Neutrophil Extracellular Traps“ (NETs). Bei dieser speziellen Form des Zelltods, die auch als NETose bezeichnet wird, nutzen die neutrophilen Granulozyten ihre DNA und intrazelluläre Proteine, um antimikrobiell wirksame, netzförmige Strukturen in den Extrazellularraum auszuwerfen. Diese sind dort in der Lage, Pathogene zu binden und zu zerstören. Ziel dieser Arbeit war, die NETose bei Neugeborenen im Vergleich zu Erwachsenen zu untersuchen und wichtige perinatale Einflussfaktoren auf die NETose zu charakterisieren.
Die Neutrophilen wurden aus Nabelschnurblut isoliert und anschließend
mit entsprechenden Stimuli zur NETose angeregt. Die ausgeworfene DNA
wurde angefärbt, mittels Fluoreszenzmikroskopie analysiert und die
Ergebnisse hinsichtlich Anzahl und Größe der NETs ausgewertet.
In der vorliegenden Studie konnte gezeigt werden, dass die NETose bei
Neugeborenen im Vergleich zu Erwachsenen signifikant vermindert ist.
Darüber hinaus wurde ein Zusammenhang mit dem Gestationsalter
festgestellt, so wiesen unreife gegenüber reifen Neugeborenen ebenfalls eine eingeschränkte NET-Fähigkeit auf. Ferner wurde der Einfluss weiterer Parameter beleuchtet, wie des Geburtsgewichts und des -modus, des Geschlechts oder einer perinatalen Infektion.
Die verminderte Fähigkeit zur NETose ist Teil der unvollständig
entwickelten Immunantwort bei Neugeborenen und könnte so zu deren
Infektionsanfälligkeit beitragen.
Phylogeny of the Koi herpesvirus and development of a vaccine against the Koi herpesvirus disease
(2019)
The aim of this presented dissertation was a stable, live attenuated and protective KHV usable as vaccine. Moreover this vaccine should by cost effective and easy to apply. Differentiation of infected and vaccinated animals was preferred by genetic and / or serological means. After achieving an attenuated virus, whole genome sequencing should be done to examine the genetic of the vaccine as one feature of biosafety. Besides biosafety additional knowledge on the virulence of Alloherpesviruses, especially of KHV was anticipated. Additionally the diagnostics of KHV and KHVD should be improved to increase reliability and to gain more insights into the relationship of different KHVs and hopefully to detect the source of an outbreak.
Lipohypertrophien (LHT) sind Veränderungen des subkutanen Fettgewebes, die durch die Langzeitanwendung von Insulin bei ca. 40 % der Patienten entstehen. Sie waren bisher von fraglicher klinischer Relevanz und teilweise schwierig zu diagnostizieren. Die Veröffentlichungen im Rahmen dieser kumulativen Dissertation untersuchten die pharmakotherapeutische Bedeutung von Lipohypertrophien und untersuchten erstmals die Thermographie als diagnostische Option für LHT. Dabei zeigte sich im euglykämischen Clamp-Versuch eine signifikant reduzierte Bioverfügbarkeit des Insulins nach Injektion in LHT von 78-80 % im Vergleich zur Applikation in gesundes Gewebe. Zwei der dreizehn Probanden zeigten keine Insulinwirkung. Die intraindividuelle Variabilität war signifikant höher in LHT als im gesunden Gewebe. Bei der erstmaligen systematischen Untersuchung von LHT mit einer hochwertigen Wärmebildkamera zeigte sich eine mäßige diagnostische Güte, verglichen mit den ebenfalls teilweise schwierigen Methoden der Inspektion, Palpation und des Ultraschalls. Insbesondere in der Kontrollgruppe war eine klare Abgrenzung von gesundem Gewebe schwierig. Aufgrund der Beeinflussung der Sicherheit, Effektivität und der Effizienz der Pharmakotherapie durch LHT, sollten diese als Injektionsort vermieden werden. Diese Arbeit konnte den Nutzen der Thermographie als diagnostische Option bei LHT zwar nicht klar beweisen, jedoch diesen auch nicht ausschließen.
Der hohe Anteil an inadäquat unter der Diagnose Leiomyom des Uterus operierten uterinen Sarkomen ist hauptsächlich der mangelnden Datenlage zu den uterinen Sarkomen und der schwierigen präoperativen Abgrenzung zu den regelhaften Leiomyomen oder dessen Varianten geschuldet. Die mit einer Morcellation eines uterinen Sarkoms einhergehende Prognoseverschlechterung sollte vermieden werden. Die Zielsetzung der vorliegenden Promotion bestand darin, Charakteristika von regelhaften Leiomyomen des Uterus an einem größeren Patientinnenkollektiv anamnestisch, klinisch und paraklinisch zu definieren. Darüber hinaus wurden die zufällig gefundenen Leiomyomvarianten gesondert betrachtet. Weiterhin erfolgte eine Analyse verschiedener Laborparameter, die laut Literatur zur präoperativen Abgrenzung von benignen und malignen Tumoren geeignet sein sollen. Hierfür wurden LDH-Werte, die neutrophilen Granulozyten/Lymphozyten-Ratio (NLR) und die Lymphozyten/Monozyten-Ratio (LMR) bei Patienten mit regelhaften Leiomyomen analysiert. Die Ergebnisse dieser Arbeit wurden anschließend mit der Promotion von Köller und Riechmann verglichen, die unter ähnlichen Erhebungs- und Auswertungsbedingungen Leiomyomdaten gesammelt haben. Die bereits abgeschlossene Promotion von Dennis und Lehr mit 3786 Patientinnen diente als Basis für die Formulierung der zu erhebenden Variablen. Da diese Arbeit im Rahmen der Promotions- und Forschungsgruppe für genitale Sarkome (PFGS) des Deutschen klinischen Kompetenzzentrums für genitale Sarkome und Mischtumore (DKSM) entstanden ist, wurden zum einen die hier gewonnen Daten dem DKSM zur weiteren Auswertung zur Verfügung gestellt, zum anderen wurden die innerhalb der PFGS erhobenen Leiomyosarkom- Daten wiederum mit den eigenen Leiomyomdaten verglichen. Zweck der Leiomyom- Charakterisierung war es also, mögliche Determinanten der präoperativen Differenzierung zwischen Leiomyomen und uterinen Sarkomen zu definieren.
Zunächst wurden im Rahmen dieser Arbeit von Mai 2011 bis November 2014 alle Patientinnen mit der Operationsdiagnose uterines Leiomyom und der Operationsmethode suprazervicale laparoskopische Hysterektomie, die in der gynäkologischen, ambulant operativen Einrichtung GynVelen operiert wurden, retrospektiv ausgewertet. Als die PFGS begann, die oben genannten Laborwerte bei Leiomyomen und uterinen Sarkomen zu analysieren, wurden je 50 Datensätze im Zeitraum von Februar bis November 2016 (GynVelen) und von Januar bis April 2016 (GynMünster) prospektiv ausgewertet. Insgesamt konnten 199 regelhafte Leiomyome, 96 zellreiche Leiomyome, 4 mitotisch aktive Leiomyome, 2 Lipoleiomyome, 1 Leiomyom mit bizarren Kernen und 1 glattmuskulärer Tumor mit unsicherem malignen Potential (STUMP) erfasst werden.
Signifikante Unterschiede zwischen den regelhaften Leiomyomen und dessen Varianten konnten nicht festgestellt werden. So waren die Patientinnen mit regelhaften Leiomyomen (n=199) im Mittel 44,9 Jahre alt und zeigten eine mittlere Tumorgröße von 4,53 cm, während diese Werte bei den zellreichen Leiomyomen bei 44,56 Jahre und 4,84cm lagen. Die regelhaften Leiomyome waren in 46,22 % der Fälle ein solitärer Tumor, während die zellreichen Leiomyome mit 53,12 % mehrfach als solitärer Tumor vorlagen. Die solitären, zellreichen Leiomyome waren mit im Mittel 1 cm signifikant (p=0,023) größer als die multiplen, zellreichen Leiomyome. Die regelhaften, solitären Leiomyome waren ebenfalls größer als die multiplen (4,99 cm zu 4,19 cm), hier konnte ebenso eine Signifikanz festgestellt werden (p=0,007).
Die Entität des zellreichen Leiomyoms trat in dem dieser Arbeit zugrunde liegendem Patientinnenkollektiv deutlich häufiger auf als in den vergleichbaren Gruppen anderer Promotionsarbeiten der PFGS. Dieses Ergebnis wurde dem zuständigen pathologischen Institut mitgeteilt sowie mögliche Ursachen anschließend erörtert.
Über den Referenzwert erhöhte LDH-Werte, eine erhöhte NLR sowie eine erniedrigte LMR kamen auch bei Leiomyomen vor. Der LDH-Wert lag bei den regelhaften Leiomyomen im Mittel bei 208,77 U/l. Es konnte eine signifikante, positive Korrelation zwischen dem LDH- Wert und der Tumorgröße bzw. dem Alter bei Operation festgestellt werden. Weiter unterschied sich der LDH-Wert bei einer Tumorgröße von < 5 cm und ≥ 5 cm mit einem p=0,03 signifikant. Bei den zellreichen Leiomyomen war der LDH-Wert mit im Mittel 203,22 U/l sogar etwas niedriger als bei den regelhaften Leiomyomen. Eine Signifikanz bestand jedoch weder im Vergleich mit den regelhaften Leiomyomen noch in Bezug des LDH-Werts auf die Tumorgröße bzw. das Alter.
Die NLR lag bei den regelhaften Leiomyomen im Mittel bei 2,2. 50 % der Leiomyome zeigten eine NLR von >2,05, 25 % eine NLR > 2,61 und 5 % > 4,56. Bei den zellreichen Leiomyomen lag die NLR im Mittel bei 2,3. Hier zeigten 50 % eine NLR von > 2,2, 25 % eine NLR von > 2,55 und 5 % eine NLR von > 4,56. Bei beiden Entitäten bestand eine positive Korrelation zwischen der NLR und der Tumorgröße (regelhafte Leiomyome, Korrelationskoeffizient: 0,292, p=0,022; zellreiche Leiomyome, Korrelationskoeffizient: 0,35, p=0,03), bei den zellreichen Leiomyomen konnte darüber hinaus ein hoch signifikanter Unterschied in der NLR bei Tumoren < 5 cm und ≥ 5 cm mit einem p=0,009 festgestellt werden.
Die LMR lag bei den regelhaften Leiomyomen im Mittel bei 4,8 und bei den zellreichen Leiomyomen bei 4,69. Es wurden jeweils negative Korrelationskoeffizienten bei dem Bezug von der LMR auf das Alter bei Operation bzw. der Tumorgröße festgestellt, diese waren jedoch nicht signifikant. Allein die LMR bei Patientinnen mit einem regelhaften Leiomyom unterschied sich signifikant zwischen Patientinnen mit einem Alter von < 35 Jahren und ≥ 35 Jahren (p=0,043).
In der Auswertung der Leiomyomdaten der vorliegenden Promotion und den Daten von Köller und Riechmann konnte ein signifikanter Unterschied (p<0,001) zwischen den Leiomyomen (Krichbaum, n=199; Köller und Riechmann, n=470) und den Leiomyosarkomen der PFGS des DKSM (n=271) bei den Variablen Alter, Tumorgröße, Solitärtumor, Zusatzblutung, Postmenopausestatus, schnelles Tumorwachstum und auffällige Sonographie festgestellt werden.
Diese Variablen scheinen also zur präoperativen Unterscheidung zwischen Leiomyomen und Leiomyosarkomen geeignet zu sein.
Im Ergebnis dieser und der Arbeit von Köller und Riechmann konnte vom DKSM in Zusammenarbeit mit dem Institut für Bioinformatik der Universitätsmedizin Greifswald ein zur Publikation eingereichter LMS-Risiko-Score entwickelt werden, der zur Entscheidung über eine geeignete Operationsmethode bei vermuteten LM verwendet werden kann.
Ein weiteres wesentliches Ergebnis dieser Arbeit ergibt sich aus den erhobenen Werten der neutrophilen Granulozyten/Lymphozyten-Ratio (NLR) und der Lymphozyten/Monozyten- Ratio (LMR). Die NLR lag bei den regelhaften Leiomyomen im Mittel bei 2,2, nur ca. 5 % wiesen eine NLR von ≥ 4,5 auf. Der in der Literatur diskutierte NLR-Grenzwert von ≥ 2,1 bzw. ≥ 2,12 wurde also regelhaft überschritten. Eine NLR von ≥ 4,5 wird somit als neuer Grenzwert zur Überprüfung vorgeschlagen. Die LMR lag bei den regelhaften Leiomyomen im Mittel bei 4,8, allerdings unterschritten immerhin noch 14,75% der ermittelten Werte den in der Literatur diskutierten Grenzwert von < 2,85. Da weniger als 5 % der regelhaften LM eine LMR von <2,3 aufwiesen, wird dieser Wert als neuer Grenzwert zur Überprüfung empfohlen.
Weltweit leiden 4,4% der Weltbevölkerung an einer Depression. Das variable Erscheinungsbild dieser Erkrankung erschwert deren Erforschung. Dass ein besseres Verständnis und die Entwicklung optimaler Therapiemöglichkeiten dieser Erkrankung sehr wichtig sind, zeigen die starke Einschränkung des gesamten Lebensalltags Betroffener (DALYs) und auch die hohe Suizidalität. Es existieren verschiedene ätiologische Theorien zur Depression, wie zum Beispiel die Monoaminmangel-Hypothese, die auf einen Mangel an Neurotransmittern im synaptischen Spalt und deren sekundären Effekte beruht. Neuroendokrine Theorien verweisen auf einen Hyperkortisolismus mit Störung der HPA-Achse und eine Stress-bezogene Ätiologie. Ein andauernder Hyperkortisolismus führt laut der Neutrophin-Hypothese zu Neurotoxizität, zu einer verminderten Neurogenese, Atrophie und Volumenminderung. Bildmorphologische Untersuchungen mittels PET-CT oder fMRT verweisen auf strukturelle und funktionelle Veränderungen bestimmter Hirnregionen bei depressiven Probanden. Auf zellulärer Ebene kann eine veränderte Zellaktivität mittels immunhistochemischer Methoden wie der C-Fos-Färbung dargestellt werden.
Für die vorliegende Untersuchung wurden Hirne von 8 männlichen Ratten untersucht, die zuvor einen Verhaltensversuch der Erlernten Hilflosigkeit zugeführt wurden. Dieser von M. Seligman entwickelte Verhaltensversuch gilt als tierexperimentelles Modell der Depressionsforschung. Durch Selektion wurden Tiere mit angeborener Erlernter Hilflosigkeit gezüchtet (congenitally Learned Helplessness, cLH) und von nicht-hilflosen Tieren unterschieden (congenitally Non Learned Helplessness, cNLH). Tiere mit Erlernter Hilflosigkeit zeigen ein mit dem Menschen vergleichbares depressives Verhalten.
Die Rattenhirne von je 4 cLH- und cNLH-Tieren wurden mit indirekter Immunhistochemie auf ihre C-Fos-Expression untersucht. Dabei wurden die Hirne in 40 μm dicke Scheiben geschnitten und nach Anwendung eines standardisierten Färbeprotokolls 11 Hirnregionen unter Rhodaminfilter mikroskopiert. In einem 200 x 200 μm großen Rahmen wurden die C-Fos-positiven Zellen ausgezählt. Im Vergleich der cLH und cNLH-Hirne ergab sich hierbei eine signifikant geringere C-Fos-Expression der cLH-Tiere in der hippocampalen Regionen CA1 und CA3, dem medialen und centralen Amygdalakern und der Substantia nigra. Kein signifikanter Unterschied fand sich in den hippocampalen Regionen CA2 und dem Gyrus dentatus, dem basolateralen und lateralen Amygdalakern, dem Nucleus accumbens und dem prälimbischen Kortex. Die signifikanten Ergebnisse verweisen auf eine Hypoaktivität bei Depression in bestimmten Hirnregionen. Eine Hypotrophie und Hypoaktivität bestimmter Regionen (z. B. dem Hippocampus) wurde bereits in weiteren Studien beschrieben, während in anderen Regionen (z.B. den Amygdalakernen) eher Hyperaktivität vorbeschrieben wurde. Zusammenfassend konnte gezeigt werden, dass in einigen Hirnregionen eine verminderte Aktivität in Zusammenhang mit der depressiven Erkrankung steht.
Ziel dieser Arbeit war es, die Zusammenhänge zwischen der Identifikation mit der Gruppe der psychisch Kranken, den eigenen stigmatisierenden Haltungen und der Selbststigmatisierung der Patienten bei Aufnahme in eine psychiatrische Klinik und deren Veränderung im Verlauf des Aufenthaltes zu untersuchen. Dazu wurden 70 Patienten auf Psychotherapiestationen und in Tageskliniken kurz nach Aufnahme und nach vier Wochen Aufenthalt in der Klinik anhand von Fragebögen befragt. Die Hypothese, dass mit längerer Behandlung eine stärkere Identifikation mit der Gruppe der psychisch Kranken stattfindet, über positive Vergleiche der In-Group gegenüber der Out-Group stigmatisierende Haltungen psychisch Kranken gegenüber abgebaut und Selbststigmatisierung damit verringert werden kann, ließ sich nicht bestätigen. Stattdessen zeigte sich, dass mit Dauer der Behandlung die Identifikation mit der Gruppe tendenziell abnahm, die eigenen stigmatisierenden Haltungen eher zunahmen und die Selbststigmatisierung dennoch eher abnahm.
Die erste Hypothese, die besagte, dass sich Patienten mit höheren eigenen stigmatisierenden Haltungen auch stärker selbst stigmatisieren, wenn sie sich mit der Gruppe der psychisch Kranken identifizieren, ließ sich zum Teil bestätigen, musste aber präzisiert werden: Patienten, die negativen Stereotypen gegenüber psychisch Kranken zustimmen, stigmatisieren sich selbst stärker; der Drang nach Abgrenzung von psychisch Kranken hat keinen Einfluss auf die Selbststigmatisierung. Patienten, die sich mit der Gruppe der psychisch Kranken identifi-zieren, stigmatisieren sich stärker.
Auch die zweite Hypothese, der zufolge sich Patienten mit stärkeren stigmatisierenden Hal-tungen weniger mit der Gruppe der psychisch Kranken identifizieren, konnte zum Teil bestä-tigt werden, musste jedoch ebenso präzisiert werden: Patienten, deren stigmatisierende Hal-tungen sich im Wunsch nach Abgrenzung von anderen psychisch Kranken äußern, identifizie-ren sich weniger mit der Gruppe der psychisch Kranken. Ob die Patienten gängigen negati-ven Stereotypen über psychisch Kranke zustimmen, beeinflusst nicht ihre Identifikation mit der Gruppe.
Die dritte Hypothese, die besagt, dass die Identifikation mit der Gruppe der psychisch Kran-ken über einen vierwöchigen Aufenthalt in einer psychiatrischen Klinik zunimmt, ließ sich nicht bestätigen. Die Identifikation mit der Gruppe nahm tendenziell eher ab, bei Patienten mit ein bis fünf Voraufenthalten signifikant ab.
Die vierte Hypothese, nach der eine erhöhte Gruppenidentifikation einen negativen Einfluss auf das eigene Stigma hat, die stigmatisierenden Haltungen gegenüber psychisch Kranken im Verlauf abnehmen und damit auch die Selbststigmatisierung abnimmt, ließ sich ebenso teil-weise bestätigen, doch auch hier muss differenziert werden: Patienten, die sich weniger mit der Gruppe der psychisch Kranken identifizieren, haben einen höheren Drang nach Abgren-zung von psychisch Kranken. Dies beeinflusst nicht, ob sie negativen Stereotypen über psy-chisch Kranke zustimmen. Die soziale Distanz, der Drang nach Abgrenzung von psychisch Kranken, nimmt im Verlauf zu; die Zustimmung zu negativen Stereotypen ändert sich unwe-sentlich. Die Selbststigmatisierung nimmt eher ab, bei Patienten mit ein bis fünf Voraufenthal-ten signifikant ab. Die Veränderung der Zustimmung zu negativen Stereotypen korreliert mit der Zunahme der Selbststigmatisierung, obwohl die Zustimmung zu negativen Stereotypen nicht signifikant zunimmt.
Eine entstigmatisierende Wirkung ist durch das therapeutische Milieu im stationären und teil-stationären Bereich also nicht eindeutig zu verzeichnen. Vielmehr zeigt sich, dass der Aufenthalt in einer psychiatrischen Klinik Abgrenzungsprozesse gegenüber anderen Betroffenen in Gang setzt, die eine Zunahme von Selbststigmatisierung verhindern können.
Up to now, indices like the mean dmft/DMFT and the SiC (Significant Caries Index) have been used to depict caries experience in populations with high prevalence. With the caries decline, particularly for populations with low caries levels, these indices reach their statistical limits. This paper aims to introduce a specific term, the Specific affected Caries Index (SaC) for the risk groups in populations with low caries prevalence and to illustrate its use based on the consecutive German National Oral Health Survey (GNOHS) in children. In groups with a caries prevalence less than one-third of the population, many caries-free children (DMFT = 0) are included in the SiC (risk group), which calls for a new way of illustration. Mean caries experience (DMFT), caries prevalence, the SiC and SaC were portrayed for 12-year-olds in the GNOHS from 1994/95 to 2016. The SaC describes the mean caries experience (DMFT) in the group presenting caries experience (DMFT > 0). In 12-year-old 6th graders in Germany, the mean caries experience decreased from 2.4 (1994/95) to 0.4 DMFT (2016), with a recent prevalence of 21.2% (DMFT > 0, 2016). In 2016, the mean number of affected teeth in children with DMFT > 0 (SaC) was 2.1, while the SiC including 12% DMFT-free children in the risk group was 1.3. The SiC fails to reflect the caries severity in children in a population with low caries prevalence. Therefore, the newly introduced term Specific affected Caries Index (SaC) may be used to describe accurately caries experience in caries risk children in populations presenting low caries prevalence.
The present work focusses on the mosquito populations of two zoological gardens in Germany with the aim to better understand mosquito biology of native species and to contribute to a greater awareness of mosquito and mosquito-borne disease agent surveillance in zoos. For this purpose, data on species composition, blood meal patterns and mosquito-borne pathogens were analysed. The investigated zoological gardens differed not only in their sizes and animal stocks, but also in their surrounding environments. The 160 ha Tierpark Berlin is located in a densely populated urban area, while the 15 ha Zoological Garden Eberswalde is surrounded by forest.
To gain an overview about the mosquito fauna of both zoos, adult specimens were caught by aspirating and EVS-trapping during the 2016 season. In addition, larval stages were collected from their breeding sites located in the zoo areas. In total, 2,257 mosquitoes were sampled, belonging to 20 taxa. Seasonal differences between the zoos were documented, both in terms of species composition and the relative abundance of mosquito species collected. As the studied zoos were located in the same climatic region and both locations provided similar breeding sites, differences in species composition were attributed to the entry of mosquitoes from surrounding landscapes. Influencing factors could have been the different sizes of the zoos and variations in the potential host animal populations.
According to the vector potential of most frequently collected taxa in the Zoological Garden Eberswalde (Annulipes Group, Culiseta annulata), TAHV, USUV, WNV, filariae and avian malaria parasites appear to have the highest risk of being transmitted at this location. In the Tierpark Berlin, Aedes vexans was the most frequently collected mosquito species, suggesting a theoretical risk for the transmission of a broader spectrum of pathogens due to covered vector competences. Pathogens such as BATV, SINV, TAHV, USUV and filarial worms could be of major importance regarding transmission risk to zoo animals, as they had previously been found to circulate Germany. In addition, avian malaria parasites represent a considerable risk for susceptible exotic bird species in Berlin.
Since the blood-feeding behaviour of vector-competent mosquito species has a major influence on the transmission of a mosquito-associated pathogen, the analysis of blood meal patterns is crucial to better understand vector-pathogen cycles. Therefore, blood meals of blood-fed mosquitoes caught in 2016 and 2017 by aspirating and EVS-trapping in the Tierpark Berlin and the Zoological Garden Eberswalde were analysed. The aim was to investigate to what extent native mosquito species accept exotic zoo animals, wild native animals and humans as blood hosts. In addition, it was examined whether the collected species are generalists or specialists when selecting vertebrates for blood feeding.
A total of 405 blood-fed mosquitoes from 16 taxa were collected. The genetic analysis of blood meals identified 56 host species, which – in addition to humans – mainly originated from mammals of the zoo animal populations. In agreement with the previous study on the mosquito fauna of the Tierpark Berlin and the Zoological Garden Eberswalde, the analysis of blood meals also showed differences between the two zoos. In the smaller Zoological Garden Eberswalde, a higher number of blood-fed mosquitoes was collected than in the Tierpark Berlin, probably caused by a higher host density in Eberswalde, which may have led to an overall higher mosquito density. However, no differences between both zoos were observed with respect to the blood feeding behaviour of the analysed mosquito species: Mosquitoes of both locations were rather generalistic, although species could be grouped according their blood meals into 'amphibian', 'non-human mammal' and, ‘non-human mammal and human' feeding species. The more random selection of hosts could indicate a low probability of effective pathogen transmission by applying the 'dilution effect'. Notwithstanding, since wild animals have also been accepted as hosts, pathogen transmission by bridge vectors from one vertebrate group to another could be relevant in the sampled zoos.
Adult mosquito specimens collected in 2016 and 2017 were screened for filarial nematodes, avian Haemosporidia and mosquito-borne viruses. Dirofilaria repens was detected in a mosquito from the Zoological Garden Eberswalde. Mosquitoes from Berlin and Eberswalde were tested positive for the nematode species S. tundra. Sindbis virus was found in a mosquito pool collected in the Tierpark Berlin, while no mosquito-associated viruses were detected in specimens collected in the Zoological Garden Eberswalde. Mosquitoes from both zoos were positive for the haemosporidian parasites Haemoproteus sp. and Leucocytozoon sp., and one documentation was made for avian Plasmodium sp. in the Tierpark Berlin.
The identified pathogens have the potential to cause disease in captive and wild animals, and some of them also in humans. Most of the mosquitoes tested positive had been collected in July, suggesting a high infection risk during this month. Since most pathogen detections were made from species belonging to the Cx. pipiens complex, species of this complex seem to be most relevant in the studied zoos when it comes to mosquito-borne pathogen transmission. Although mosquitoes are no proven vectors of most of the avian malaria parasite genera found, evidence for Haemoproteus sp. and Leucozytozoon sp. demonstrated a high prevalence of avian malaria parasites in the zoos.
In summary, the results of the three studies indicate regional differences both in the mosquito species composition and in the occurrence of mosquito-borne pathogens. However, no differences were found between the mosquito communities of both zoos concerning their blood feeding behaviour, suggesting that the general behaviour of the insects is location-independent.
Several potential disease agents were found in the collected mosquitoes, although not at high abundances. Whether these pathogens were found by chance in the two zoos or whether the particular zoo environment is a hot spot of arthropod-borne pathogens cannot be determined with the studies conducted. Nonetheless, it seems clear that zoological gardens are attractive to mosquito females not only in their search for breeding sites, but also when looking for blood hosts and places for mating or resting. These advantageous conditions also attract mosquito species that have their larval habitats outside the zoological gardens, which is why elimination of breeding sites on the zoo premises alone will not necessarily keep away all mosquitoes.
A closer collaboration between zoological gardens and entomologists could be beneficial for both. Zoo officials could benefit from being able to identify potential arthropod vectors on the zoo grounds and receiving information on circulating arthropod-borne disease agents, as well as on the animal species susceptible to those. For entomologists, zoological gardens are ideal research locations, as they provide an environment with a high diversity of habitats and potential blood hosts for haematophagous arthropods in a confined space.
Studying mosquito biology will become even more significant in the future, since in a world that is getting smaller, both potential vectors and pathogens are regularly introduced into areas where they did not occur before. Therefore, it would be desirable if more studies targeting ecological as well as infectiological aspects of vector species in zoological gardens in Germany were carried out.
In der Chirurgie droht ein Ärztemangel, weil in naher Zukunft viele Fachkräfte das
Rentenalter erreichen. Die Akquirierung von Nachwuchskräften gewinnt somit zunehmend
an Bedeutung. Gleichfalls nimmt mit zunehmendem Studienfortschritt das Interesse für
eine Weiterbildung in der Chirurgie ab. Somit rücken die praktischen Kontaktflächen
zwischen den Studierenden und dem Fachbereich Chirurgie in den Blickpunkt.
Insbesondere die Famulatur und das chirurgische Pflichttertial im Praktischen Jahr sind
hier von besonderem Interesse, weil sie den Studierenden erste Einblicke in die spätere
ärztliche Tätigkeit geben.
Gemeinsames Ziel der kumulativen Arbeiten war die Analyse von Angaben aus
studentischer Sicht über die chirurgische Famulatur sowie des Pflichttertials Chirurgie im
Praktischen Jahr (PJ) in Hinblick auf die Zufriedenheit sowie den daraus resultierenden
späteren Weiterbildungswunsch.
Es konnten signifikante statistische Zusammenhänge zwischen der Zufriedenheit mit der
abgeleisteten Famulatur oder des PJ-Tertials sowie der späteren Fachspezifizierung in der
Chirurgie aufgezeigt werden. Die Lehre, welche hauptsächlich von den Assistenzärzten
ausging, bot vor allem in der didaktischen Qualität noch Verbesserungspotential. Die
Verlagerung der Lehre an das Patientenbett und die damit verbundene Einbeziehung der
Studierenden in diagnostische und therapeutische Überlegungen zeigte sich nach unseren
Ergebnissen für die Zufriedenheit und dem Weiterbildungswunsch zum Chirurgen
essentiell.
Dieser Zusammenhang erscheint logisch, jedoch überrascht die Eindeutigkeit der
statistischen Auswertung. Der Bedeutung des Praktischen Jahres und der Famulatur wird
man sich jedoch mehr und mehr bewusst. Neben den allgemeinen Rahmenbedingungen
der studentischen Praktika sind die Lern- und Lehrbedingungen in vielen Bereichen noch
deutlich zu optimieren. Innovative Lehrkonzepte werden von den Studierenden gefordert
und werden in naher Zukunft auch erforderlich sein, wenn man den Nachwuchs für das
Fachgebiet Chirurgie begeistern möchte.
Die Schädelsonographie ist eine nicht-invasive, kosteneffektive und strahlenfreie Bildgebung zur Detektion zerebraler Pathologien des Neugeborenen. Im Rahmen der populationsbasierten Geburtenkohortenstudie „Survey of Neonates in Pomerania“ wurde die Schädelsonographie unabhängig von Empfehlungen der internationalen Literatur durchgeführt. Dadurch konnten Schweregrad, Outcome und Prävalenz der zerebralen Pathologien von asymptomatischen, reifen Neugeborenen in der angehängten Publikation von Weise et al. analysiert werden[2]. Für diese Gruppe ist keine Assoziation von
Auffälligkeiten in der Schädelsonographie mit neurologischen Entwicklungsstörungen zu finden. Daher wird keine Erweiterung der aktuellen Richtlinien oder die Einführung eines zerebralen Ultraschallscreenings für Neugeborenen nicht empfohlen. Die Schädelsonographie ist zur frühzeitigen Detektion von zerebralen Anomalien bei Neugeborenen nach der „American Institute of Ultrasound in Medicine (AIUM) Practice Guideline for the Performance of Neurosonography in Neonates and Infants 2014“, Leijser et al.,
Ment et al. und Ballardini et al. indiziert:
1. Eine Schädelsonographie ist bei Neugeborenen ≤34 SSW zu empfehlen und sollte bei <30 SSW durchgeführt werden.
2. Die Indikationsparameter der AIUM Practice Guideline sind sinnvoll und sollten in eine offizielle Leitlinie integriert werden (siehe Tabelle 2.1).
3. Aufgrund ähnlicher kumulativer Inzidenzen für Schädelsonographiebefunde bei Neugeborenen mit oder ohne Indikation aber stationärer Aufnahme ist die Untersuchung von Neugeborenen bei Aufnahme auf eine Neonatologie zu empfehlen.
4. Die Durchführung der Untersuchung sollte anhand der Richtlinien von Riccabona et al. erfolgen.
5. Dies schließt nicht die reguläre Teilnahme an den U-Untersuchungen aus, welche zur frühzeitigen Detektion neurologischer Entwicklungsstörungen beiträgt.
Evidence is limited regarding whether periodontal treatment improves hemoglobin A1c (HbA1c) among people with prediabetes and periodontal disease, and it is unknown whether improvement of metabolic status persists >3 mo. In an exploratory post hoc analysis of the multicenter randomized controlled trial “Antibiotika und Parodontitis” (Antibiotics and Periodontitis)—a prospective, stratified, double-blind study—we assessed whether nonsurgical periodontal treatment with or without an adjunctive systemic antibiotic treatment affects HbA1c and high-sensitivity C-reactive protein (hsCRP) levels among periodontitis patients with normal HbA1c (≤5.7%, n = 218), prediabetes (5.7% < HbA1c < 6.5%, n = 101), or unknown diabetes (HbA1c ≥ 6.5%, n = 8) over a period of 27.5 mo. Nonsurgical periodontal treatment reduced mean pocket probing depth by >1 mm in both groups. In the normal HbA1c group, HbA1c values remained unchanged at 5.0% (95% CI, 4.9% to 6.1%) during the observation period. Among periodontitis patients with prediabetes, HbA1c decreased from 5.9% (95% CI, 5.9% to 6.0%) to 5.4% (95% CI, 5.3% to 5.5%) at 15.5 mo and increased to 5.6% (95% CI, 5.4% to 5.7%) after 27.5 mo. At 27.5 mo, 46% of periodontitis patients with prediabetes had normal HbA1c levels, whereas 47.9% remained unchanged and 6.3% progressed to diabetes. Median hsCRP values were reduced in the normal HbA1c and prediabetes groups from 1.2 and 1.4 mg/L to 0.7 and 0.7 mg/L, respectively. Nonsurgical periodontal treatment may improve blood glucose values among periodontitis patients with prediabetes (ClinicalTrials.gov NCT00707369).
Hintergrund
Die chronisch venöse Insuffizienz (CVI) ist eines der häufigsten Krankheitsbilder weltweit.
Die Prävalenz der CVI steigt mit zunehmendem Alter und ist aufgrund von Schmerzen,
reduzierter körperlicher Funktion und Mobilität mit einer reduzierten Lebensqualität
verbunden. Symptomatische CVI mit Ulcus cruris venosum als Endstadium indiziert einen
phlebochirurgischen Eingriff um den venösen Reflux auszuschalten und somit eine
Ulcusabheilung zu fördern sowie ein Ulcusrezidiv zu vermeiden. Nach unserem
Kenntnisstand gibt es bisher keine Studie, die in einer Patientenkohorte offen-chirurgische
Eingriffe in Bezug auf die Komplikationsentwicklung, venöse Hämodynamik und
perioperative Beschwerdeentwicklung untersucht. Dies erfolgte in einem retrospektivem,
monozentrischem Studiendesign, an unserer Universitätsklinik in Greifswald.
Methode
Daten von n= 429 Patienten (467 Extremitäten), die einen operativen Eingriff am
Venensystem erhielten, wurden von 2009-2013 eingeschlossen. Art und Anzahl an
Komplikationen wurden auf einen möglichen Einfluss von demographischen Parametern, Co-
Morbiditäten und Medikation und therapieabhängigen Faktoren untersucht. Komplikationen
wurden in die Gruppen: no events (NE) = keine Komplikationen; neglectable adverse events
(NAE) = leichte Komplikationen; non-neglectable adverse events (NNAE) = mittelschwere
Komplikationen und serious adverse events (SAE) = schwere/ lebensbedrohliche
Komplikationen unterteilt.
CVI-bedingte Beschwerden wurden mit Hilfe eines Fragebogens sowie der Dokumentation
zu den Verlaufskontrollen analysiert.
Bei allen Patienten wurden die prä- sowie postoperative Venenfunktion evaluiert, hierbei
wurde zusätzlich eine Subgruppenanalyse hinsichtlich der Komplikationen durchgeführt.
Ergebnisse
In 130 (27,84%) Extremitäten von 467 (von 429 Patienten) wurden postoperative
Komplikationen observiert, hierunter 64 (13,7%) NAE, 66 (14,14%) NNAE and 0 SAE. 29
(6,76%) Patienten entwickelten eine postoperative Wundinfektion (SSI), wobei 4 dieser Patienten (0,9%) eine Sepsis erlitten. Abgesehen von einem Fall mit intraoperativer
Nervenschädigung, die über den Beobachtungszeitraum hinaus bestehen blieb, waren alle
Komplikationen innerhalb von 12 Monaten regredient. Patienten mit mittelschweren
Komplikationen (NAE) hatten einen höheren BMI (p = 0.003), eine höhere
Wahrscheinlichkeit an einem Diabetes mellitus Typ II zu leiden (p <0.001) und häufiger Co-
Morbiditäten, die zur Einnahme von thrombozytenhemmender oder gerinnungshemmender
Medikation führen (p < 0.001). Das metabolische Syndrom als auch die Einnahme von
thrombozytenhemmender oder gerinnungshemmender Medikation konnte als unabhängiger
Risikofaktor für die Komplikationsentwicklung analysiert werden. Patienten, die eine
Stripping-Operation der Vena saphena magna erhielten, hatten ein 8-fach höheres Risiko eine
Muskelvenenthrombose zu entwickeln. Eine Stripping-Operation bis zum distalen
Insuffizenzpunkt war mit einem erhöhten Risiko für postoperative Sensibilitätsstörungen
verbunden. Postoperativ zeigten sich Beschwerden wie Schmerzen (p < 0.001), Schwellung (p
< 0.001) und Juckreiz (p = 0.003) signifikant gebessert. Ungeachtet der
Komplikationsentwicklung zeigte sich eine signifikante Besserung der Venenfunktion nach 6-
Wochen und einem Jahr postoperativ (p < 0.05). Eine Besserung der Venenfunktion ging
einher mit einem Beschwerderückgang.
Schlussfolgerung
Patienten mit metabolischem Syndrom oder einer thrombozytenehmmenden bzw.
gerinnungshemmenden Therapie sollten einen operativen Eingriff unter stationären
Bedingungen erhalten und regelmäßig verlaufskontrolliert werden. Insbesondere Patienten mit
Stripping-Operation der Vena saphena parva sollten eine postoperative Heparinprophylaxe
erhalten. Eine Stripping-Operation bis zum distalen Insuffizienzpunkt war mit einer höheren
Rate an postoperativen Sensibilitätsstörungen verbunden, diese zeigte sich in unseren
Patienten in fast allen Fällen innerhalb von 12 Monaten rückläufig. Ungeachtet der
Komplikationsentwicklung profitierten die Patienten von einem Eingriff da sich sowohl die
Venenfunktion als auch Beschwerden besserten.
In times of recent climate change, mechanisms to deal with different environments (e.g. via dispersal to other habitats, or via in-situ responses such as genetic adaptation or phenotypic plasticity) are essential. In regions showing seasonality, organisms are already adapted to regular and, thus, often predictable environmental changes. One well-known strategy to survive periods of food shortage, especially during the winter, is hibernation. Although hibernation is already an adaptation to overcome unfavourable conditions, the optimal timing of hibernation to match for example food abundance peaks is likely to be influenced by changing climatic conditions, as expected during human-induced global change. Thus, the ability to respond to changes in optimal timing of hibernation can be crucial for organisms. All hibernators are positioned at the slow end of the slow-fast life history continuum. Longevity combined with a low annual reproductive output can result in slow recovery from population crashes and is expected to be associated with slow genetic adaptation. Therefore, it is assumed that phenotypic plasticity, a rather rapid and sometimes reversible process, is a crucial mechanism in long-lived organisms to adapt to changing environments. However, how differences in individual hibernation behaviour influence mortality and whether individuals are plastic with respect to their hibernation behaviour are largely unknown.
Recent studies suggest that climatic change can influence hibernation behaviour in various species differently, in a positive or negative way. Female Columbian ground squirrels (Urocitellus columbianus) delayed their emergence from hibernation with later snow melt and lower spring temperatures. Next to the environmental impact, emergence date showed a moderate heritability in female Columbian ground squirrels. Yellow-bellied marmots (Marmota flaviventris) emerged earlier from hibernation with warmer spring temperatures which resulted in a longer growing period for their offspring and, therefore, higher survival rates. In contrast, in alpine marmots (Marmota marmota) lower snow cover due to higher temperatures and, thus, less isolation led to lower juvenile survival. Negative effects, such as reduced juvenile survival, would be of high concern, especially for long-lived species with a low reproductive output.
Bats are exceptionally long-lived compared to other mammals of the same size and often show a low reproductive output with one offspring per year. This is especially true in the temperate zone where bats, furthermore, are characterized by seasonality and depend on hibernation during winter period to survive food and water shortage. Because bats are of high conservation concern it is of prime importance to understand their ability to respond to different climatic conditions and associated mortality costs.
The basis of this study was a five-year data set of 1047 RFID-tagged individuals from two bat species, Natterer’s bats (Myotis nattereri) and Daubenton’s bats (Myotis daubentonii), that were automatically tracked when entering or leaving the joint hibernaculum, “Brunnen Meyer”, located in north-western Germany. The two species are similar sized, share demographical traits and often occupy the same areas. Nevertheless, they differ in their foraging strategy and activity pattern during hibernation period. Natterer’s bats are able to glean insects from surfaces, even at low temperatures. Daubenton’s bats depend on flying arthropods and, thus, warmer temperatures. And indeed there is evidence that Natterer’s bats are able to hunt during hibernation period, while in Daubenton’s bats a lack of feeding during the hibernation period is suggested. Furthermore, Natterer’s bats are characterized by a higher activity at the hibernaculum throughout the hibernation period, while Daubenton’s bats on average arrive earlier, stay inactive through the winter and leave later in spring.
In both species, the aim was to investigate the impact of their individual hibernation behaviour, precisely the timing of departure in late winter and early spring, on mortality, their adjustment of departure timing to the North Atlantic Oscillation Index (NAO), as well as differences within and between the two species from 2011 until 2015.
To later on estimate the potential mortality costs of departure timing, gaining knowledge about the seasonal survival pattern (winter vs. summer) in the two species was a first necessity. In birds, particularly small species were described as winter-regulated populations with a higher mortality during winter. In contrast, in hibernating mammal species, such as bats, a relatively lower or similar winter survival compared to summer survival was shown. In this study, the analysed data demonstrated that the winter 2010/2011 was exceptionally catastrophic in Natterer’s bats and did not impact Daubenton’s bats. When excluding this catastrophic winter in Natterer’ bats, our results revealed a stable winter-summer-survival difference (higher winter and lower summer survival) in adult Natterer’s and Daubenton’s bats, with inter-annual variation in the level of survival which indicates a potential environmental impact on survival. This winter-summer survival pattern is in line with the survival pattern shown for other hibernators. Juveniles always had a lower survival rate than adult bats in both species. Nevertheless, the extent to which the species differ between seasons and age classes was stronger in Daubenton’s bats. They always showed a slightly higher winter survival and a lower summer survival than Natterer’s bats. Together with the catastrophic winter 2010/2011 in Natterer’s bats, this indicates a species-specific sensitivity to the timing of specific weather events which is in line with their foraging strategies and activity pattern during hibernation period.
With respect to emergence behaviour from the hibernaculum, the results of this study suggest considerable differences among individuals within as well as between bat species. In comparison to Daubenton’s bats, Natterer’s bats tuned their emergence more closely to weather conditions, specifically the NAO, a large scale weather index related to winter severity, and showed individual variation in behavioural plasticity. In Daubenton’s bats only the females responded to changing conditions and left earlier in individually-experienced warmer and milder winters, comparable to Natterer’s bats females. A potential reason might be reproductive advantages for the females resulting in a longer growing period for their offspring. The shown higher winter survival in adult bats of both species indicated already higher energy expenditure outside the hibernaculum. Thus, leaving early, being active and staying outside longer by itself bore a risk (exposure risk effect). Under consideration of longer exposure times, early departing individuals had on top of that an increased risk to die. This was not given in each year, but a species- and year-specific pattern was revealed. Natterer’s bats were only significantly affected by early departure in 2011, while the remaining years show no significant additional risk of leaving early. In Daubenton’s bats, the years 2014 and 2015 were associated with a significantly higher mortality of leaving early. This is in line with the hypothesis that Daubenton’s bats might not be able to hunt for insects leaving too early and do so as a best out of a bad job. Nevertheless, the year-specific pattern suggests that early bats might profit from advantageous weather conditions during early spring.
An additional hint for an environmental impact on early bat survival in at least Daubenton’s bats is that the median proportion of night hours above 3 °C within five days after departure was included in the model with the lowest AIC. However, the effect was not strong enough to be selected as the best model and, therefore, further analyses are needed to investigate this first hint.
In conclusion, the reduced winter survival of juveniles compared to adults highlights the importance of considering age class effects in studies that investigate seasonal survival patterns. The stable species-specific winter-summer-survival difference with a higher winter survival compared to summer survival, as well as the one catastrophic winter in Natterer’s bats underline the importance of including seasonal survival patterns in assessing potential fitness costs of changed behaviour. Furthermore, our results suggest that long-lived hibernating bat species have the potential to plastically adjust to changing climatic conditions, but this potential differs between species. Among-individual differences in emergence together with species-specific mortality costs of early emergence suggest the potential for natural selection to shape hibernation phenology. In summary, our findings suggest species-, population- and group-specific differences in the ability to respond to changing environments and, therefore, underline the necessity to further investigate local responses in various organisms to estimate consequences of recent climate change on a wider range.
Heutige Vertreter der Insekten haben vielfältige Lebensweisen und Verhaltensstrategien entwickelt, wie beispielsweise zur Ernährung, zum Schutz gegen Fressfeinde, zu Reproduktionsstrategien und die Investition in Nachkommen. Um die Evolution dieser Strategien besser zu verstehen, kann die Einbeziehung von Fossilien wertvolle Hinweise liefern. So können fossile Überreste von Organismen oder Strukturen, welche von ihnen zu Lebzeiten verursacht wurden, für eine Rekonstruktion über das erstmalig zeitgeschichtliche Auftreten und der Entwicklung einer Strategie genutzt werden. Da jedoch die Untersuchung des Verhaltens von heute nicht mehr lebenden Organismen nicht möglich ist, können Hinweise dazu nur indirekt geschlussfolgert werden. Im Rahmen dieser Arbeit wurden daher folgende Aspekte näher beleuchtet und für Rekonstruktionen genutzt: (1) Die phylogenetische Position von fossilen Vertreten, (2) Spurenfossilien, (3) Gemeinsame Fossilisation mehrerer Individuen, (4) “Frozen Behaviour“, (5) Fossilisierte Eier und Ei-assoziierte Strukturen, sowie (6) Morphologische Anpassungen als Schwerpunkt der vorliegenden Arbeit. Die Anwendbarkeit und Limitationen der jeweiligen Ansätze wurden im Rahmen von Rekonstruktionen zu Aspekten von Raubverhalten und Reproduktionsstrategien (im Zusammenhang mit der Investition in die Nachkommen) von verschiedenen Vertretern der Arthropoden diskutiert.
Die Insektengruppe Dictyoptera, welche die Gruppen Mantodea und Blattodea umfasst, hat sich als besonders geeignet für die Rekonstruktion von Verhaltensaspekten unter den genannten Aspekten und Ansätzen gezeigt. Heutige Dictyopteren zeigen eine enorme Spannbreite von verschiedenen Lebensweisen, von räuberisch und solitär lebend bei Mantiden, über verschiedene Abstufungen von Sozialverhalten bei Schaben, bis hin zur Eusozialität der Termiten (als Innengruppe der Blattodea). Des Weiteren ist diese Gruppe durch eine bemerkenswerte Autapomorphie gekennzeichnet, die Ablage von Eiern in einer Art kompakten Paket (Oothek). Die Ootheken von Dictyopteren sind sehr robust und wurden, wenn auch selten, fossil gefunden. Die Rekonstruktion des Ursprungs der Fähigkeit,
Ootheken zu bilden, stellt ein Schlüsselmerkmal in der Rekonstruktion der evolutionären Entwicklung der gesamten Gruppe dar. Weitere Betrachtungen im Rahmen dieser Arbeit beleuchten die Entwicklung der Gruppe der Mantiden und deren Spezialisierung auf eine räuberische Lebensweise, wie sie bei heutigen Vertretern zu beobachten ist.
Climate change threatens marine ecosystems by simultaneous alterations and fluctuations in several abiotic factors like temperature, salinity and pH. Therefore, a strong ability to cope with varying environmental factors is indispensable for marine organisms. Especially, larvae of meroplanktonic species will be affected by predicted alterations in environmental conditions as planktonic larval stages are considered the most sensitive stages during life history (Anger 2001).
The European shore crab Carcinus maenas, as an ecological key species, was chosen as a model species to investigate multiple stressor effects on early life history stages of marine meroplanktonic invertebrates. The life cycle of C. maenas is biphasic consisting of five pelagic larval stages (four zoeal and one megalopal stage), followed by benthic juvenile and adult phases. The metamorphic molt from the last zoeal stage to the semi-benthic Megalopa includes dramatic changes in ecology, habitat, behavior, feeding, morphology, and physiology. During life history, zoeal stages of C. maenas are of particular interest in the course of climate change as these stages are more vulnerable than the following developmental stages to alterations in abiotic factors.
The aim of the present thesis was to develop an integrative view on effects of long-term exposure, from hatching to metamorphosis, to increased temperature and hypo-osmotic conditions on early life history stages of C. maenas. We wanted to gain insights into larval responses to climate driven environmental variables, more specifically, on how tolerance to low salinity is affected by increased temperatures.
Consequently, the present study investigated the effect of long-term exposure to twelve different sub-lethal temperature and salinity combinations in an ecological relevant range on larval development of C. maenas. In a multidisciplinary approach, larval responses in performance (survival and developmental duration) and morphology were measured. Furthermore, analysis on larval ontogeny and organogenesis created the foundation for analysis of larval response to multiple stressors in anatomy.
Results of the present thesis demonstrated that despite their different life-styles and external morphology, brachyuran larvae are smaller versions of their adults when regarding their inner organization: the adult bauplan unfolds from organ anlagen compressed into miniature organisms. In addition, they provide an overall picture of seemingly gradual organogenesis across larval development and the metamorphic molt, an insight that contrasts with the abrupt external morphological changes during metamorphosis. Gradual anatomical changes in e.g. osmoregulatory structures like gills and antennal glands allowed for ontogenetic shifts of tolerance to temperature and salinity during zoeal development and successive increase in osmo- and thermoregulatory capability. On the other hand, osmoregulatory structures as seen for adults were underdeveloped during zoeal development and therefore do not qualify for osmoregulatory function for these stages. This potentially explains the higher sensitivity of zoeae to hypo-osmotic conditions.
Early life history stages of C. maenas were affected on all response levels by the tested multiple stressors. The interaction of temperature and salinity was of antagonistic type, resulting in general reduced stress for larval stages. Nevertheless, low salinity had a strong negative impact on survival, while increased temperature caused ann acceleration of development. Furthermore, the size of zoeae of C. maenas was driven by the interaction of temperature and salinity, with extreme conditions, causing diminished growth, thus resulting in smaller larval size. On the other hand, larval shape was only slightly affected by changes of abiotic factors. Volume of the digestive gland and the heart of larvae from long-term exposure to sub-lethal temperatures and salinities showed high variability.
Larval responses were affected by the stressors intensities: moderately high temperatures lessened the negative effects of low salinities, while extreme high temperatures exceeded the ameliorating effect of temperature on stressful salinity conditions. On the other hand, the tolerance to temperature and salinity increased during larval development indicating an ontogenetic shift in response to multiple stressors with development. In addition, performance, morphology, and multiple stressor interaction showed intrapopulation variability among larvae hatched from different females, and between experimental periods.
In conclusion, this study highlighted direct effects of abiotic factors on all investigated response levels in early life history stages of the meroplanktonic larvae of the invertebrate C. maenas. High mortality rates combined with higher sensitivity confirm that planktonic early life history stages are the bottleneck during life history of this species. Nevertheless, early life history stages of C. maenas had the ability to cope with wide ranges of changing environmental factors. The antagonism between temperature and salinity on larval development offers potential for early life history stages to persist in a changing world. Furthermore, anatomical structures allow for slight eurytolerance and potentially for compensation of abiotic stress. Overall, slight increases in temperature, driven by climate change may enable larvae of C. maenas to tolerate exposure to moderately low salinities and, combinedwith intrapopulation variability, potentially allows for population persistence. Summarized, this study emphasizes the importance of testing a wide range of ecologically relevant traits in developing pelagic larvae in order to properly characterize their response to environmental change.
Changes in abundance and phenology of planktonic larvae like the zoeae of C. maenas have major potential to change a species‘ population structure significantly, and furthermore indirectly affect whole community and ecosystem structures. Therefore, this thesis may serve as a bridge to future studies in evolutionary and ecological developmental biology.
Species persistence in the face of rapidly progressing environmental change requires adaptive responses that allow organisms to either cope with the novel conditions in their habitat or to follow their environmental niche in space. A poleward range shift due to global warming induced habitat loss in the south has been predicted for the lesser horseshoe bat, Rhinolophus hipposideros. Theoretical as well as numerous empirical studies link range expansion success to increased dispersal and reproduction rates due to spatial sorting and r-selection resulting from low population densities at the expansion front. R. hipposideros females however are highly philopatric and the species’ life history reflects a K- rather than an r-strategy, encompassing a long life span and limited individual annual reproductive output. I therefore investigated if adaptations in these traits determining range expansion success (dispersal and reproduction) can be observed in this bat species of high conservation concern. Genetic diversity presents a critical factor for adaptive responses to global change, both for range expansion and for coping with novel environmental conditions. I hence explored the genetic diversity levels of European R. hipposideros leading edge populations and their drivers for an assessment of these populations’ evolutionary potential and the development of conservation recommendations.
Comparing range expansion traits between an expanding R. hipposideros metapopulation in Germany and a non-expanding one in France revealed that range expansion was associated with an increase in juvenile survival and fecundity, and no decrease in adult survival. These results demonstrate than an increase in reproduction and growth rates is generally possible in R. hipposideros, indicating a potential adaptation (sensu lato) to range expansion. A positive correlation between adult and juvenile survival in the expanding metapopulation suggests higher resource acquisition in the expanding metapopulation, giving rise to the question if the observed demographic changes have a genetic basis or if they are rather induced by differences in environmental conditions between the two metapopulations. Long-term range expansion success requires adaptive evolutionary changes. The relative contribution of the former and that of undirected changes resulting e.g. from differences in resource availability therefore will have to be investigated in more detail in the future to allow predictions about range expansion dynamics in R. hipposideros.
The number of individuals within a radius of approximately 60 to 90 km around a population (as a measure of connectivity) was identified as the main positive driver of the studied populations’ genetic diversity. Overall genetic diversity levels in German R. hipposideros populations were found to be reduced compared to populations in France as a legacy of demographic bottlenecks resulting from severe population declines in the mid-20th century. This finding is alarming as future range expansion can be expected to entail a further decrease in genetic diversity. The resulting loss of genetic diversity can be expected to be particularly strong in R. hipposideros due to the detected dependence of genetic diversity on connectivity, because range expansion often results in small and patchy populations.
Protecting and ideally re-installing genetic diversity in R. hipposideros leading edge populations therefore presents a conservation goal of utmost importance. To achieve this endeavour, conservation efforts should target the protection of extensive networks of well-connected populations. Geographical concentration of individuals should be avoided and populations in key locations that connect clusters must be protected particularly well to prevent populations from becoming isolated. Continuous, regular monitoring of population trends is also important for a quick registration of disturbances or threats, and the subsequent rapid development of countermeasures to preclude further demographic declines.
The reduced levels of genetic diversity in the German metapopulation precluded a reliable quantification of dispersal rates due to the reduced power of discrimination between individuals. While ongoing re-colonization and the establishment of new maternity colonies provide evidence for increased dispersal in the expanding metapopulation, evaluating the expected range expansion velocity of R. hipposideros in relation to the estimated velocity of global warming induced habitat loss will require the confirmation of the existing preliminary dispersal data by employing more genetic markers.
Trotz stetiger Weiterentwicklung und Anpassung der Fallgruppen durch das Institut für das Entgeltsystem im Krankenhaus (InEK) ist eine kostendeckende Abbildung einiger Krankenhausleistungen im bestehenden DRG-System noch nicht realisiert. In diesem Zusammenhang legt die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselerkrankungen e.V. (DGVS) in den letzten Jahren den Fokus verstärkt auf die sachgerechte Abbildung endoskopischer Leistungen.
Die vorliegende Arbeit untersucht in einem dafür zur Verfügung gestellten Datensatz nach §21 des KHEntgG mit insgesamt jeweils rund einer Million übermittelten Behandlungsfällen für die Abrechnungsjahre 2013 und 2014 u.a. diesen Sachverhalt anhand des Krankheitsbildes „akute Pankreatitis“. Zudem wird das Systemjahr 2016 mit der Datengrundlage des Jahres 2014 unter Anwendung des Fallpauschalenkatalogs des Jahres 2016 simuliert.
Die Betrachtung der Erlös-Kosten-Situation des Krankheitsbildes K85 über alle analysierten DRGs zeigt insgesamt ein Defizit (2013: 917 Tsd. Euro, 2014: 1.175 Tsd. Euro, 2016: 716 Tsd. Euro). Ein Hauptteil dieser Behandlungsfälle wird in der DRG H62B abgebildet (2013: 74 %; 2014: 78 %). Diese DRG weist über alle behandelten Diagnosegruppen im Jahr 2013 insgesamt ein positives Gesamtergebnis auf (110 Tsd. Euro). Dagegen weist sie ein Defizit in den Jahren 2014 (77 Tsd. Euro) und 2016 (175 Tsd. Euro) auf.
Dabei können neben der Liegedauer der Patienten die Kurz-Intensivaufenthalte als Problemfelder ermittelt werden. Zudem konnte eine Fehlabbildung insbesondere von zeit- und personalintensiven endoskopischen Leistungen in den Jahren 2013 und 2014 aufgezeigt werden.
Die durch das InEK erfolgte Veränderung vom Systemjahr 2014 zu 2016 hatte großen Einfluss auf unterschiedliche Bereiche innerhalb der Abbildung der K85 sowie der endoskopischen Leistungen. Im Zuge dieser Veränderungen kam es zu einem Umbau der DRG H41 (2014: H41A-C, 2016: H41A-D). Dabei nimmt die DRG H41D eine bedeutende Rolle innerhalb der sachgerechteren Abbildung der endoskopischen Leistungen ein.
Die Umgestaltung führt zu einer Veränderung in der Verteilung der Behandlungsfälle mit K85 auf die DRGs (DRG H62B: 2014: 78%, 2016: 40%; DRG H41D: 2016: 40%). In der ökonomischen Analyse zeigt sich hier eine Reduktion des Defizits. Zudem sind die endoskopischen Leistungen nun einheitlicher abgebildet.
Insgesamt führte die Weiterentwicklung des DRG-Systems zu einer Verbesserung der Abbildung der endoskopischen Leistungen. Gleichzeitig ergeben sich durch die Neuzuordnung von Behandlungsfällen insbesondere in die entstandene DRG H41D neue Herausforderungen für das Krankheitsbild K85 in unterschiedlichen Bereichen. Daraus resultiert das Erfordernis einer kontinuierlichen Analyse von Problemfeldern, um im Prozess der Weiterentwicklung des DRG-Systems durch das InEK den notwendigen Beitrag zur sachgerechten Abbildung leisten zu können.
Chronische Nierenerkrankungen betreffen in Deutschland ca. 10 Millionen Menschen. Ihr Auftreten ist mit einem Anstieg der kardiovaskulären Mortalität und Letalität assoziiert. Das Vorliegen einer erhöhten Serumharnsäure wurde lange als Folge und nicht als möglicher Risikofaktor für die Entstehung einer chronischen Nierenerkrankung verstanden. Ziel der vorgelegten Arbeit war es, die Assoziation einer erhöhten Serumharnsäure (als kontinuierliche Variable) und Verschlechterung der Nierenfunktion (eGFR, ACR) in einer nierengesunden Population zu untersuchen. Grundlage für die Analyse waren Daten von 4042 nierengesunden Probandinnen und Probanden der „Study of Health in Pomerania“ (SHIP), einer populationsbasierten longitudinalen Beobachtungsstudie in der Allgemeinbevölkerung in Mecklenburg-Vorpommern, die seit 1996 durchgeführt wird. Zur Klärung einer Assoziation wurden multivariate Regressionsmodelle entwickelt und die Abnahme der eGFR und der Anstieg der ACR über eine Beobachtungsdauer von 15 Jahren (SHIP-0 bis SHIP-3) untersucht. Die Regressionsmodelle wurden an Nierengesunden, an Probanden mit unterschiedlich hoher Serumharnsäure und im Phänotyp Hyperurikämie für eGFR und ACR prädiziert. Der Phänotyp Hyperurikämie lag bei Angabe einer Gicht, einer erhöhten Serumharnsäure im Interview / im Studienlabor oder bei Einnahme gichtspezifischer Medikamente vor. Als erhöhte Serumharnsäure galten für Frauen Serumharnsäurewerte > 357 μmol/l und für Männer > 428 μmol/l. Die Ergebnisse im multivariablen Modell zeigten eine inverse Assoziation zwischen eGFR und Phänotyp Hyperurikämie sowie zwischen eGFR und Serumharnsäure als kontinuierlicher Variable. Im Modell Phänotyp Hyperurikämie fiel die eGFR pro Jahr um 1,4 ml/min, bei den Nichtvorliegen des Phänotyps nur um 1,07 ml/min und Jahr. Im Modell „Serumharnsäure als kontinuierliche Variable“ fiel die eGFR umso steiler ab, je höher die Serumharnsäure zum Zeitpunkt SHIP-0 war. Eine signifikante negative Assoziation konnte für das Modell ACR und Phänotyp Hyperurikämie, nicht aber für das Modell ACR und Serumharnsäure als kontinuierliche Variable prädiziert werden. Im Modell ACR und Phänotyp Hyperurikämie stieg die logarithmierte ACR jährlich um 0,030 mg/g Krea. Die klinische Relevanz dieses Anstiegs konnte durch unsere Untersuchung nicht abschließend geklärt werden. Diese Dissertation zeigt eine negative Assoziation von erhöhter Serumharnsäure und der Nierenfunktion bei Nierengesunden. Weitere Untersuchungen sind nötig, um den optimalen Zeitpunkt für einen Therapiebeginn bei erhöhter Serumharnsäure auch in asymptomatischen Individuen festzulegen.
Introduction: Senior urology physicians represent a heterogeneous group covering various clinical priorities and career objectives. No reliable data on gender-specific variations among senior urology physicians are available concerning professional and personal aspects. Methods: The objective of this study was to analyze professional perspectives, professional and personal settings, and individual career goals. A Web-based survey containing 55 items was designed which was available for senior physicians at German urologic centers between February and April 2019. Gender-specific differences were evaluated using bootstrap-adjusted multivariate logistic regression models. Results: One hundred and ninety-two surveys were evaluable including 29 female senior physicians (15.1%). Ninety-five percent would choose urology again as their field of specialization – with no significant gender-specific difference. 81.2% of participants rate the position of senior physician as a desirable career goal (comparing sexes: p = 0.220). Based on multivariate models, male participants self-assessed themselves significantly more frequently autonomously safe performing laparoscopic, open, and endourologic surgery. Male senior physicians declared 7 times more often to run for the position of head of department/full professor. Conclusion: This first study on professional and personal aspects among senior urology physicians demonstrates gender-specific variations concerning self-assessment of surgical expertise and future career goals. The creation of well-orchestrated human resources development strategies especially adapted to the needs of female urologists seems advisable.
Das Ziel der vorliegenden Arbeit war es, den subjektiven Gesundheitszustand von Asylsuchenden in Vorpommern-Greifswald und Berlin sowie deren Inanspruchnahmeverhalten in Bezug auf medizinische Hilfe zu untersuchen. Für Mecklenburg-Vorpommern wurde dieses Thema bisher noch in keiner Arbeit aufgegriffen und an bundeslandübergreifenden Erhebungen fehlt es deutschlandweit. Die hier durchgeführte Befragung in sechs Gemeinschaftsunterkünften in Vorpommern-Greifswald und Berlin ermöglicht zudem einen Vergleich zwischen ländlichen und städtischen Strukturen. Um auch verschiedene Versorgungsvoraussetzungen in den Herkunftsländern aufzugreifen, wurden Farsi-sprechende, das heißt aus Afghanistan und Iran Geflüchtete befragt. Der verwendete Farsi-sprachige Fragebogen ist eigens für diese Arbeit entwickelt worden und beinhaltet unter anderem den Gießener Beschwerdebogen, Items des European Minimum Health-Moduls und des Deutschen Gesundheitssurveys. Die theoretischen Grundlagen zum Inanspruchnahmeverhalten beziehen sich maßgeblich auf Rosenstocks Health Belief-Modell. Damit ergeben sich Hinweise auf die kulturelle Übertragbarkeit dieses Modells auf den persischen Kulturkreis. Trotz hoch eingeschätzter Beeinträchtigung im Alltag durch den eigenen Gesundheitszustand, erfolgen nur durchschnittlich 4,3 Arztbesuche in 12 Monaten. Dabei unterscheiden sich die Verhältnisse bei Hausarztbesuchen von denen bei der Inanspruchnahme von Nothilfe, was die juristische Unterscheidung dieser beiden Bereiche im Asylbewerberleistungsgesetz widerspiegelt. Dieser juristische Rahmen wird als mitentscheidendes Hindernis bei der Inanspruchnahme von hausärztlicher Versorgung erlebt. Als größte Herausforderung ergab sich die kleine Stichprobe (N=66) sowie die kulturelle und sprachliche Differenz. Diese Limitationen sind jedoch vergleichbar mit anderen Arbeiten in diesem Themenfeld.