Refine
Year of publication
- 2019 (363) (remove)
Document Type
- Doctoral Thesis (188)
- Article (172)
- Book (2)
- Final Thesis (1)
Has Fulltext
- yes (363)
Is part of the Bibliography
- no (363)
Keywords
- - (119)
- proteomics (7)
- Biopharmazie (4)
- SHIP (4)
- Streptococcus pneumoniae (4)
- metabolomics (4)
- periodontitis (4)
- <i>Staphylococcus aureus</i> (3)
- Bauchspeicheldrüsenkrebs (3)
- CKD (3)
Institute
- Institut für Biochemie (26)
- Abteilung für Mikrobiologie und Molekularbiologie (23)
- Institut für Pharmazie (20)
- Kliniken und Polikliniken für Innere Medizin (20)
- Institut für Geographie und Geologie (18)
- Institut für Physik (14)
- Institut für Diagnostische Radiologie und Neuroradiologie (13)
- Zoologisches Institut und Museum (13)
- Institut für Botanik und Landschaftsökologie & Botanischer Garten (11)
- Institut für Pharmakologie (10)
Publisher
- MDPI (53)
- Frontiers Media S.A. (29)
- S. Karger AG (20)
- Copernicus (12)
- SAGE Publications (11)
- De Gruyter (9)
- Wiley (9)
- Public Library of Science (PLoS) (7)
- BioMed Central (BMC) (4)
- Nature Publishing Group (4)
Die degenerativ-kalzifizierende Aortenklappenstenose ist das häufigste Herzklappenvitium in der Altersgruppe der über 65-jährigen und tritt mit zunehmendem Alter vermehrt auf. (Vahanian et al. 2012; Stewart et al. 1997). Lange Zeit galt der offen-chirurgische Aortenklappenersatz als einziges kuratives Verfahren in der Behandlung der Aortenklappenstenose. Bei vielen Patienten wird jedoch aufgrund eines sehr hohen Lebensalter oder zahlreicher Komorbiditäten dieser Eingriff abgelehnt (Grube et al. 2006, Iung et al. 2003). Für diese Menschen steht seit wenigen Jahren die perkutane kathetergestützte Aortenklappenimplantation (TAVI) als neue Therapieoption zur Verfügung, welche sich gleichfalls in den letzten Jahren zu einer Therapieoption für Patienten mit niedrigerem Operationsrisiko zu entwickeln scheint (Gaede 2017).
Um die derzeit bestehenden Mortalitäts- und Komplikationsraten nach TAVI weiter zu senken, ist die präoperative Ermittlung von prognoserelevanten Einflussfaktoren von großer Bedeutung.
Für die vorliegende Dissertationsschrift wurden die Ergebnisse von 193 Patienten, die am Klinikum Karlsburg von September 2009 bis Juli 2014 einen transapikalen oder transfemoralen kathetergestützten Aortenklappenersatz (TAVI) erhielten, analysiert und anhand aktueller Literatur diskutiert.
Alle untersuchten Patienten wiesen eine hochgradige Aortenklappenstenose (AÖF ≤ 1,0 cm²) auf und konnten als Hochrisikopatienten angesehen werden. Sie waren im Durchschnitt 79,3 ± 6,0 Jahre alt und besaßen einen logistsichen EuroSCORE von 22,24 ± 16,7%, einen EuroSCORE II von 5,79 ± 5,8% und einen STS Score von 5,50 ± 3,9%. Das präinterventionelle Risikoprofil, sowie die vorab erhobenen echokardiografischen Daten waren mit denen bereits veröffentlichter Studien vergleichbar. In 98% der Interventionen erfolgte eine technisch erfolgreiche Prozedur. Die mittlere OP-Dauer betrug 72,2 ± 21,9 min, die Durchleuchtungszeit 9,2 ± 5,1 min und die verbrauchten Kontrastmittelmenge 94,4 ± 38,8. Die stationäre Aufenthaltsdauer betrug durchschnittlich 13,8 ± 9,1 Tage.
Insgesamt konnte ein sehr gutes 30-Tage-Outcome erzielt werden und damit die TAVI, als vergleichsweise komplikationsarmes und bezogen auf die Kurz- und Langzeitergebnisse gut funktionierendes Verfahren bestätigt werden. Die 30-Tage-Mortalität betrug 5,2% und die 30-Tage-MACCE-Rate 9,3% und ähnelt damit den Ergebnissen der Vergleichsliteratur.
Anhand einer umfangreichen Prädiktoranalyse, die sowohl univariat, als auch multivariat erfolgte, konnten eine periphere arterielle Verschlusskrankheit, eine ACI-Stenose ≥70 %, eine
86
zerebrovaskuläre Insuffizienz, der additive und logistische EuroSCORE, der STS-Score, die OP-Dauer, die Kontrastmittelmenge als Einflussfaktoren auf die 30-Tage-Mortalität ermittelt werden. In der multivariaten Analyse verblieben eine periphere arterielle Verschlusskrankheit, eine ACI-Stenose ≥70 %, eine pulmonale Hypertonie >60 mmHg, ein Diabetes mellitus, die OP-Dauer und die chirurgische Leistenrevision als unabhängige Prädiktoren. Bei Betrachtung der 30-Tage-MACCE-Rate stellten sich in der univariaten Analyse zusätzlich zu den die 30-Tage-Mortalität beeinflussenden Parametern, eine pulmonale Hypertonie >60 mmHg und der EuroSCORE II als signifikante Faktoren heraus. Multivariat konnten eine ACI-Stenose ≥70%, die eingeschränkte linksventrikuläre Ejektionsfraktion, der logistische EuroSCORE und die OP-Dauer als unabhängige Einflussfaktoren der 30-Tage-MACCE-Rate analysiert werden. Durch den Vergleich mit den Ergebnissen bereits veröffentlichter Arbeiten konnten dabei prognoserelevante Faktoren der genannten Endpunkte bestätigt, beziehungsweise neue Einflussfaktoren ermittelt werden.
Die Wirksamkeit und Sicherheit einer Arzneitherapie wird durch zahlreiche pharmakokinetische Prozesse beeinflusst. Neben den durch CYP-450-Enzym vermittelten Biotransformationsvorgängen sind zunehmend Transportprozesse durch Arzneimitteltransporter aus der ABC- sowie SLC-Familie in den Fokus getreten, welche unter anderem in den Membranen der Enterozyten, aber auch in weiteren Organen exprimiert sind. Die Expression und Funktion der Arzneimitteltransporter kann beispielsweise durch Arzneistoffe beeinflusst werden und somit in Arzneimittelwechselwirkungen resultieren. Dass diese Regulationsmechanismen eine hohe Komplexität aufweisen, ist aus einer Vielzahl von klinischen Interaktionsstudien ersichtlich. In diesen führte die Applikation von bekannten Induktoren des Arzneistoffmetabolismus und -transports zu organspezifischen Veränderungen in der Pharmakokinetik der gleichzeitig verabreichten Arzneistoffe.
Ziel dieser Arbeit war es, zu einem besseren Verständnis der Expression und Regulation intestinaler Arzneimitteltransporter beizutragen, um somit Auswirkungen auf die Pharmakokinetik besser vorhersagen zu können. Dies beinhaltete zum einen die Mitarbeit an der Entwicklung und Validierung einer LC-MS/MS-basierten Methode zur Proteinquantifizierung, mit welcher auch in limitierten Gewebemengen die am stärksten exprimierten Membrantransporter ABCB1 (P-gp), ABCC2 (MRP2), ABCG2 (BCRP) und SLC15A1 (PEPT1) quantifiziert werden konnten. Parallel dazu wurden die Prozesse zur mRNA-Isolierung und -Quantifizierung optimiert.
In der präklinischen Forschung wird weitverbreitet das Caco-2-Zellmodell zur Prädiktion der intestinalen Absorption genutzt. Im Rahmen dieser Arbeit sollte das Caco-2-Zellmodell dahingehend untersucht werden, ob es ein geeignetes Modell zur Prädiktion der intestinalen Absorption darstellt, auch in Bezug auf Induktionsvorgänge. In bereits publizierten Arbeiten wurde häufig eine gute Korrelation des Transporterexpressionsmusters auf mRNA-Ebene zwischen Caco-2 und Jejunum gezeigt. Die vorliegenden vergleichenden Ergebnisse zur mRNA- und Proteinexpression von Arzneimitteltransportern zeigten, dass sowohl im Zellmodell als auch im jejunalen Gewebe in Teilen deutliche Diskrepanzen zwischen mRNA und Transporterexpression bestehen. Auf der für die Funktion der Arzneimitteltransporter relevanten Proteinebene zeigten sich für ABCB1, ABCC2 und ABCG2 relativ gute Übereinstimmungen, während die Proteinexpression anderer Transporter, insbesondere OATP2B1, im Zellmodell deutlich abwich. Dies verdeutlicht, dass insgesamt Vorsicht geboten ist in der Prädiktion der intestinalen Absorption mittels Caco-2-Zellmodell, da zudem bereits auf mRNA-Ebene gezeigt worden ist, dass die Expression der Transporter sowohl von dem Zellklon als auch von den Kulturbedingungen anhängig ist. Darüber hinaus wurde in dieser Arbeit gezeigt, dass die Expression der Transporter in dem Zellmodell sowohl auf mRNA- als auch auf Proteinebene zeitlich variabel ist. Somit empfiehlt sich ein noch vorsichtiger Umgang mit Daten zur intestinalen Absorption, welche auf Basis eines Caco-2-Modells mit verkürzter Kultivierungszeit erhoben worden sind. Induktionsprozesse konnten weder auf Ebene der mRNA-Expression oder des Proteingehaltes noch auf Ebene der Funktion in dem Caco-2-Zellmodell durch Inkubation mit prototypischen Induktoren des Arzneistoffwechsels (Carbamazepin, Efavirenz, Johanniskrautextrakt, Rifampicin) simuliert werden.
Weiterhin wurde die Induktion von intestinalen Arzneimitteltransportern in vivo untersucht. Chronische Gabe von Rifampicin führte zu einem Anstieg von ABCB1 und ABCC2 auf mRNA Ebene, welches nur im Fall von ABCB1 (P-gp) auf Proteinebene umgesetzt wurde. Die chronische Applikation von Carbamazepin resultierte ausschließlich in einer Induktion auf mRNA Ebene. Im Vergleich zu Rifampicin war diese jedoch auch geringer ausgeprägt. Der PXR-Ligand Rifampicin kann aufgrund einer hohen intestinalen PXR-Expression eine stärkere Induktion hervorrufen als Carbamazepin, welches präferentiell den nukleären Rezeptor CAR aktiviert. Begünstigt wird dies darüber hinaus dadurch, dass Rifampicin, nicht aber Carbamazepin, einem enterohepatischen Kreislauf unterliegt und Rifampicin somit über einen längeren Zeitraum im Intestinum in einer Konzentration vorliegt, welche notwendig ist, um eine Aktivierung der nukleären Rezeptoren zu erreichen. Regulationsvorgänge durch miRNAs können dafür verantwortlich sein, dass eine erhöhte Expression der mRNA nicht parallel mit einem Anstieg des Proteingehaltes einhergeht. Durch Korrelationsanalysen, in silico-Prädiktion sowie Untersuchungen mittels Reportergen-Assays konnten in der vorliegenden in vivo-Studie drei Interaktionen zwischen miRNAs und mRNAs (ABCB1 - miR-485-3p; ABCC2 - miR-26a-5p; ABCG2 - miR-577) identifiziert werden, welche potentiell den Translationsprozess verhindert bzw. abgeschwächt haben. Korrelationsanalysen mit bereits zuvor erhobenen Daten zur Pharmakokinetik der applizierten probe drugs deuten darauf hin, dass die systemische Verfügbarkeit von Ezetimib und dessen Glukuronid durch intestinales ABCB1 (P-gp), nicht jedoch wie zuvor angenommen durch intestinales ABCC2 (MRP2) beeinflusst wird. Insgesamt konnten nach chronischer Gabe von Rifampicin Korrelationen entlang der Signalkaskade ausgehend von der mRNA-Expression von PXR, über die mRNA Expression von ABCB1, unter Berücksichtigung der Expression der miRNA 485-3p bis hin zum Gehalt und der Funktion von ABCB1 (P-gp) gezeigt werden. Veränderungen des Plasmaspiegels von Talinolol nach chronischer Gabe von Carbamazepin sind hingegen nicht auf Induktionsvorgänge intestinaler Transportprozesse zurückzuführen. Die Ursachen dafür sind u.a. in der Erhöhung der renalen Clearance zu suchen. Zusammengefasst konnte gezeigt werden, dass nukleäre Rezeptoren, miRNAs und die pharmakokinetischen Eigenschaften der Induktoren selbst maßgeblich an der differenziellen Regulation von Transportprozessen beteiligt sind.
Die dynamische Bevölkerungsentwicklung Ostdeutschlands seit 1990 zeigt am Beispiel der Entstehung einer Residualbevölkerung die unterschiedlichen Variationen der Selektivität von Wanderungen: Einer Bevölkerung, die aufgrund langfristig wirkender selektiven Wanderungsverluste im ländlich-peripheren Raum ein spezifisches demographisches Verhalten aufweist.
Der Wanderungsverlust Ostdeutschlands mit über 2,5 Millionen Menschen hat tiefgreifende Auswirkungen auf die alters-, geschlechts- und bildungsspezifische Bevölkerungsstruktur der neuen Bundesländer hinterlassen. Auch wenn die jungen Generationen zumeist das politisch geeinte Deutschland leben, existieren mit Blick auf die vorliegenden demographischen Prozesse und Strukturen bis heute nahezu zwei deutsche Staaten.
Die Entwicklungen sowie die Auswirkungen insbesondere der räumlichen Bevölkerungsbewegung wurden entsprechend dem Stand der Forschung vor dem Hintergrund der Situation Ostdeutschlands vorgestellt und die darauf aufbauenden Forschungsthesen benannt. Das bisher nur theoretische Konstrukt der Residualbevölkerung, die Interdependenz aus natürlicher und räumlicher Bevölkerungsbewegung, wurde anhand von unterschiedlichen demographischen Parametern (u. a. hohe Fertilität, hohe Mortalität, starke Wanderungsverluste, großes Frauendefizit, Überalterung) eingeordnet und damit als messbar definiert.
Am Beispiel Mecklenburg-Vorpommerns konnte anschließend gezeigt werden, wie sich die Bevölkerungsstruktur des ehemals jüngsten Bundeslandes aufgrund der selektiven Migration innerhalb eines Vierteljahrhunderts in das älteste umkehrte. Um diesen Verlauf nachzuvollziehen, wurden auf Gemeindeebene die unterschiedlichen Bewegungsentwicklungen ab 1990 dargestellt: Der Rückgang der Sterblichkeit, der Wiederanstieg der Fertilität sowie der sich manifestierende Wanderungsverlust junger Frauen. Daran anschließend zeigten Strukturberechnungen, wie sowohl das Billeter-Maß als auch Geschlechterproportionen, die umfassenden Auswirkungen der Bewegungen auf den Bevölkerungsstand und dessen Struktur Mecklenburg-Vorpommerns: Einen stetigen Rückgang der Bevölkerungszahlen, ein über-proportionales Frauendefizit in jüngeren Altersjahren und eine fortlaufend beschleunigte Alterung der Bevölkerung.
Vor dem Hintergrund dieser Rahmenbedingungen wurde für die Zeiträume 1990-2001 und 2002-2013 jeweils eine Clusteranalyse durchgeführt, die als Ergebnis eine Typisierung von Gemeinden hinsichtlich einer messbaren Residualbevölkerung ermöglichten. Entsprechend der Vordefinition eines solchen migrationellen Konstruktes konnte für etwa jede fünfte Gemeinde in Mecklenburg-Vorpommern solcherart demographische Bedingungen identifiziert werden. Diese Gemeinden liegen tendenziell im Binnenland und fern der Zentren – eine zentrale Verortung konnte nicht festgestellt werden. Von Gemeinde zu Gemeinde unterschieden sich die demographischen Parameter teils stark, so dass von einflussreichen lokalen (nicht betrachteten) Rahmenbedingungen ausgegangen werden muss.
Dagegen konnten auch Gemeinden ohne residuale Züge identifiziert werden. Etwa jede dritte Gemeinde Mecklenburg-Vorpommerns wies keine Parameter einer Residualbevölkerung auf. Diese Regionen waren vor allem in der Nähe der Zentren und der Küste zu finden. Die verbliebenen Gemeinden zeigten nur kurzfristig oder nur im geringfügigem Maße Indizien für eine solche Bevölkerung – das betraf etwa die Hälfte aller Gemeinden im Land.
Nach der gesamtgemeindlichen Analyse wurde die Bevölkerungs- und Sozialstruktur der dabei betroffenen Gemeinden Strasburg (Um.) im Landkreis Vorpommern-Greifswald und Dargun im Landkreis Mecklenburgische Seenplatte detailliert analysiert. Die Bevölkerungsentwicklung beider Betrachtungsgemeinden entsprach der vieler ostdeutscher Kleinstädte im ländlichen Raum nach der politischen Wende: Während die Gemeinden in der DDR Bevölkerungswachstum erfuhren oder zumindest gleichbleibende Bevölkerungszahlen als regionales Zentrum aufwiesen, verursachte die Abwanderung vor allem junger Menschen und ein manifestierter Sterbeüberschuss nach 1990 stetig rückläufige Zahlen.
In diesen beiden Gemeinden wurden dann nicht gesamtgemeindliche Bevölkerungszahlen analysiert, sondern vielmehr die Zusammensetzung einer Gemeindebevölkerung vor dem Hintergrund ihres Migrationsstatus differenziert. Für den Zeitraum 1979-2014 wurden deshalb anhand dieses Status die Bevölkerungen beider Gemeinden in Sesshafte und Zugezogene unterteilt. Aufgrund der sowohl vorhandenen Sterbe- als auch Geburtsstatistik war es möglich, die natürliche und räumliche Bevölkerungsbewegung der insgesamt fast 22.000 Men-schen direkt herauszuarbeiten. Die sesshafte Bevölkerung repräsentiert dabei die Menschen, die am ehesten dem Typus „Residualbevölkerung“ entsprechen.
Nach Berechnung der Mortalitäten für unterschiedliche Zeiträume ergab sich tendenziell eine höhere Sterblichkeit bzw. geringere Lebenserwartung der Sesshaften gegenüber den Zuzüglern bei Frauen wie Männern. Wurden darüber hinaus die Zugezogenen nach Lebensdauer in den Betrachtungsgemeinden differenziert, ergab bei beiden Geschlechtern eine längere Zugehörigkeit zu den Gemeinden auch eine höhere Sterblichkeit. Damit wurde einerseits die generell höhere Mortalität des ländlich-peripheren Raums gegenüber dem urbanen Raum bestätigt. Andererseits entspricht die höhere Sterblichkeit der sesshaften gegenüber der der nichtsesshaften Bevölkerung den Vorüberlegungen zur Residualbevölkerung.
Darüber hinaus wurde zusätzlich der Parameter „Bedürftigkeit“ berücksichtigt. Hier konnte erwartungsgemäß für beide Betrachtungsgemeinden die höchste Sterblichkeit der von Sozial-leistungen betroffenen Menschen festgestellt werden. Je länger dabei die Bezugsdauer, umso höher war die aufgezeigte Mortalität – dies sogar zumeist vor der sesshaften Bevölkerung. Bezieher von Sozialhilfe waren im Vergleich zu Beziehern von Wohngeld am stärksten betroffen; Unterschiede bei Männern besonders stark vertreten. Die Nichtbezieher wiesen bei beiden Geschlechtern die geringste Sterblichkeit auf.
Neben der Mortalität wurde als zweite Variable der natürlichen Bevölkerungsbewegung die Fertilität der beiden Bevölkerungsgruppen untersucht. Hier ergaben sich jedoch keine signifikanten Unterschiede zwischen beiden Bevölkerungsgruppen
Im Bereich der Periodenfertilität wiesen Zuzügler gegenüber den Sesshaften eine erhöhte Fertilität auf. Berechnungen der Kohortenfertilität ergaben wiederrum eine leicht höhere Fertilität der Sesshaften. Auch eine detaillierte Analyse der Zuzüglerinnen offenbarte kein einheitliches Bild. Mit Blick auf die Bedürftigkeit war festzustellen, dass die Bezieherinnen eine deutlich höhere Fertilität gegenüber Nichtbezieherinnen – unabhängig von der Bezugsdauer – aufwiesen. Im Ergebnis wurde damit zwar die generell höhere Fertilität des ländlich-peripheren Raums gegenüber dem urbanen Raum bestätigt. Die entsprechenden Vorüberlegungen zur Fertilität der sesshaften gegenüber der nichtsesshaften Bevölkerung konnten aber nicht eindeutig verifiziert werden.
Die gesamtheitliche Betrachtung der Gemeindeberechnungen zeigte demzufolge ein zweitgeteiltes Bild: Die Ergebnisse der Mortalität bestätigen die Annahmen zur Residualbevölkerung, die Ergebnisse der Fertilität nur in Teilen. Auch wenn die festgestellten Fertilitäts- und Morta-litätsunterschiede ortsbehaftet sind – sei es durch Umwelteinflüsse vor Ort oder die Art der Menschen zu leben: Je länger die Menschen in Regionen mit einem bestimmten Fertilitäts- und Mortalitätsniveau leben, umso stärker passen sie sich diesem an – in beide Richtungen.
Vor dem Hintergrund sowohl der Typisierung aller Gemeinden als auch der beiden Betrach-tungsgemeinden ist zu konstatieren, dass beide Variablen der natürlichen Bevölkerungsbewegung nichtgleichberechtigt nebeneinander zur Erklärung einer Residualbevölkerung fungieren müssen. Unter der Beibehaltung der theoretischen Annahmen ist dementsprechend zukünftig von einer Residualbevölkerung mit Schwerpunkt einer hohen Mortalität einerseits und mit Schwerpunkt einer hohen Fertilität andererseits auszugehen. Das bisher in der Literatur benannte Frauendefizit stellt darüber hinaus nur einen Parameter unter mehreren dar und sollte bei nachfolgenden Betrachtungen nicht als alleiniger Indikator dienen.
Unter Berücksichtigung der Ergebnisse sowohl aus beiden Gemeinden als auch aus den Clus-teranalysen wurde ein Modell einerseits zur Entstehung der Residualbevölkerung, andererseits zum Wirken der selektiven Migration generell erstellt. In Abhängigkeit von Alter und Geschlecht und unter Voraussetzung einer langfristig konstanten Wanderungsbewegung konnte so der theoretische Einfluss der räumlichen Bevölkerungsbewegung auf die Bevölkerungsstruktur – und damit indirekt auch auf die natürliche Bevölkerungsbewegung – vereinfacht projiziert werden.
Der ostdeutsche ländlich-periphere Raum ist abschließend als Sonderform des ländlich-peripheren Raums einzuordnen. Die hier gezeigte Residualbevölkerung kann als ein Indikator für – den gesellschaftlichen, kulturellen und wirtschaftlichen Verwerfungen geschuldeten – langfristige Wanderungsverluste eingeordnet werden. Die überproportional ausgeprägte Bedürftigkeit im ländlich-peripheren Raum kann deshalb auch als ein Merkmal der Sesshaftigkeit eingeordnet werden.
Insofern ist die Residualbevölkerung, vor dem Hintergrund der darüber hinaus als perspektivisch ungünstig erachteten Zukunftsaussicht, als Bevölkerungsgruppe eines Raumes abnehmender Entwicklungsstufe zu verstehen. Es ist daher ratsam, einerseits eine Verbesserung der Lebenssituation betroffener Menschen in ländlich-peripheren Räumen zu erwirken und andererseits diesen Herausforderungen raumplanerisch stärkeres Gewicht zu verleihen. Die zukünftige dahingehende Gestaltung ländlich-peripherer Räume in Ostdeutschland bedarf aus Sicht des Autors deshalb mehr an Autarkie sowie flexibler Kreativität.
Background: Huntington’s disease (HD) is a progressive neurodegenerative disorder. The striatum is one of the first brain regions that show detectable atrophy in HD. Previous studies using functional magnetic resonance imaging (fMRI) at 3 tesla (3 T) revealed reduced functional connectivity between striatum and motor cortex in the prodromal period of HD. Neuroanatomical and neurophysiological studies have suggested segregated corticostriatal pathways with distinct loops involving different cortical regions, which may be investigated using fMRI at an ultra-high field (7 T) with enhanced sensitivity compared to lower fields. Objectives: We performed fMRI at 7 T to assess functional connectivity between the striatum and several chosen cortical areas including the motor and prefrontal cortex, in order to better understand brain changes in the striatum-cortical pathways. Method: 13 manifest subjects (age 51 ± 13 years, cytosine-adenine-guanine [CAG] repeat 45 ± 5, Unified Huntington’s Disease Rating Scale [UHDRS] motor score 32 ± 17), 8 subjects in the close-to-onset premanifest period (age 38 ± 10 years, CAG repeat 44 ± 2, UHDRS motor score 8 ± 2), 11 subjects in the far-from-onset premanifest period (age 38 ± 11 years, CAG repeat 42 ± 2, UHDRS motor score 1 ± 2), and 16 healthy controls (age 44 ± 15 years) were studied. The functional connectivity between the striatum and several cortical areas was measured by resting state fMRI at 7 T and analyzed in all participants. Results: Compared to controls, functional connectivity between striatum and premotor area, supplementary motor area, inferior frontal as well as middle frontal regions was altered in HD (all p values <0.001). Specifically, decreased striatum-motor connectivity but increased striatum-prefrontal connectivity were found in premanifest HD subjects. Altered functional connectivity correlated consistently with genetic burden, but not with clinical scores. Conclusions: Differential changes in functional connectivity of striatum-prefrontal and striatum-motor circuits can be found in early and premanifest HD. This may imply a compensatory mechanism, where additional cortical regions are recruited to subserve functions that have been impaired due to HD pathology. Our results suggest the potential value of functional connectivity as a marker for future clinical trials in HD.
Long-term nationally representative caries data in the primary dentition are rare, but nonetheless central to assess needs in caries prevention and treatment. This study evaluated the prevalence and trends of caries levels in the primary dentition of 6- to 7-year-olds in Germany as a whole and its federal states individually. In 2016, employing a randomized cluster selection, 6- to 7-year-old first graders were included in the National German Oral Health Survey performed regularly since 1994/95. Children were examined by 482 calibrated dentists in all 17 German regions using the WHO criteria for the decayed, missing, and filled teeth (dmft) including the assessment of initial carious lesions (it). In total, 151,555 6- to 7-year-olds were examined. Caries prevalence in the primary dentition dropped from 65% in 1994 to 44% in 2016, while the mean caries experience dropped from 2.89 to 1.73 dmft (dt = 0.74, mt = 0.19, ft = 0.80). When initial lesions were included, the mean caries experience increased to idmft = 2.12 (it = 0.38). In 2016, 49.7% of the examined 6- to 7-year-olds were caries-free including initial lesions. The Care Index at the tooth level was 57.5%, and the Significant Caries Index was 4.84 dmft. Depending on the German region, the mean dmft varied considerably, ranging from 1.37 to 2.31. In conclusion, despite the overall caries decline in 6- to 7-year-olds in Germany, only minor caries reductions were observed over the last decade, with a still existing high proportion of untreated dental decay. This calls for more effective preventive and restorative efforts with focus on the primary dentition in Germany.
Objectives: Performing proper toothbrushing is a complicated process for children. Therefore, the aim of this study was to investigate the effect of a smartphone app for improving manual toothbrushing via a gravitation sensor. Methods: In this prospective, controlled, single-blinded, randomized clinical trial, 49 children (mean age 5.1 ± 0.6 years, 27 female) were randomly assigned to test (n = 26) and control (n = 23) groups. All children were provided with manual toothbrushes with an integrated gravitation sensor and they received oral health instructions. Only the children of the test group got an additional smartphone app to visualize and reward proper brushing in form and time. At baseline and recalls after 6 and 12 weeks, plaque and gingival indices (QHI, PBI) were recorded for analysis between the two groups. Results: At baseline, there were no significant differences between the test and control group regarding plaque and gingival indices (QHI: 2.36 ± 0.7 and 2.42 ± 0.8; p = 0.94; PBI: 0.42 ± 0.2 and 0.47 ± 0.3; p = 0.59). At the 6- and 12-week recalls, the test group showed statistically significantly better oral health indices than the controls (6-week recall, QHI: 0.8 ±0.5 and 1.88 ± 0.9; p < 0.001; PBI: 0.08 ± 0.1 and 0.26 ± 0.2; p < 0.001; 12-week recall, QHI: 0.44 ± 0.5 and 1.49 ± 0.7; p < 0.001; PBI: 0.05 ± 0.18 and 0.21 ± 0.1; p < 0.001). Conclusion: The results highlight the enormous possibilities of a toothbrushing application via the smartphone, at least for medium-term oral hygiene improvement in preschool children and even after excluding the app. The long-term effect should also be investigated to exclude the expected novelty effect.
40-Year Longitudinal Caries Development in German Adolescents in the Light of New Caries Measures
(2019)
This study assessed the 40-year longitudinal caries development in German adolescents in the light of the sixth National Oral Health Survey in Children (NOHSC, 2016) employing initial DMFT (IDMFT), Significant Caries Index (SiC) and Specific Affected Caries Index (SaC). On the basis of the current NOHSC (randomized cluster selection using school list or regional community school surveys, 55,956 12-year-old sixth-graders examined by 482 calibrated community/study dentists) DMFT, SiC, a novel IDMFT including initial lesions (IT) and the recently introduced SaC were calculated and also recalculated for national and international surveys from the last 4 decades. In 2016, 78.8% of children were caries-free (DMFT = 0), 65.5% including IT lesions. The mean DMFT was 0.44 (single components: DT = 0.14, MT = 0.02, FT = 0.29, IT = 0.52) showing a clear association with the school type as marker for the socio-economic status. The mean number of affected teeth in children with DMFT >0 was 2.07 (SaC) in comparison to almost 9 teeth in the 1970s. The current care index on the tooth level was 66.3%, leaving only 7.7% of children with restorative treatment needs. Longitudinally, a continuous caries decline of more than 80%, including the risk groups (SiC/SaC), to an internationally extremely low level was observed. In conclusion, the National Oral Health Surveys reveal a continuous caries decline to a very low caries level in 12-year-old 6th-graders in Germany even if IT lesions are included (IDMFT). In spite of proportional reductions in the risk groups (SiC/SaC), the polarized caries distribution according to socio-economic parameters reveals the need for targeted preventive programmes.
Patient-reported outcomes (PROs) refer to any report coming directly from patients about how they function or feel in relation to a health condition or its therapy. PROs have been applied in medicine for the assessment of the impact of clinical phenomena. Self-report scales and procedures for assessing physical pain in adults have been developed and used in clinical trials. However, insufficient attention has been dedicated to the assessment of mental pain. The aim of this paper is to outline the implications that assessment of mental pain may entail in psychiatry and medicine, with particular reference to a clinimetric index. A simple 10-item self-rating questionnaire, the Mental Pain Questionnaire (MPQ), encompasses the specific clinical features of mental pain and shows good clinimetric properties (i.e., sensitivity, discriminant and incremental validity). The preliminary data suggest that the MPQ may qualify as a PRO measure to be included in clinical trials. Assessment of mental pain may have important clinical implications in intervention research, both in psychopharmacology and psychotherapy. The transdiagnostic features of mental pain are supported by its association with a number of psychiatric disorders, such as depression, anxiety, eating disorders, as well as borderline personality disorder. Further, addressing mental pain may be an important pathway to prevent and diminish the opioid epidemic. The data summarized here indicate that mental pain can be incorporated into current psychiatric assessment and included as a PRO measure in treatment outcome studies.
Das Immunsystem des Neugeborenen unterscheidet sich grundlegend von
dem des Erwachsenen. Aufgrund der unvollständig entwickelten adaptiven
Immunantwort sind Neonaten einer erhöhten Infektionsgefahr ausgesetzt,
während sie vorrangig auf das innate Immunsystem bei der Abwehr von
Erregern zurückgreifen müssen. Einen wesentlichen Bestandteil dieser
angeborenen Immunabwehr stellen die neutrophilen Granulozyten dar, die
unter anderem in Form der Phagozytose die Bekämpfung von Pathogenen
im Gewebe realisieren.
Eine weitere, 2004 beschriebene Funktion der Neutrophilen ist die Bildung von „Neutrophil Extracellular Traps“ (NETs). Bei dieser speziellen Form des Zelltods, die auch als NETose bezeichnet wird, nutzen die neutrophilen Granulozyten ihre DNA und intrazelluläre Proteine, um antimikrobiell wirksame, netzförmige Strukturen in den Extrazellularraum auszuwerfen. Diese sind dort in der Lage, Pathogene zu binden und zu zerstören. Ziel dieser Arbeit war, die NETose bei Neugeborenen im Vergleich zu Erwachsenen zu untersuchen und wichtige perinatale Einflussfaktoren auf die NETose zu charakterisieren.
Die Neutrophilen wurden aus Nabelschnurblut isoliert und anschließend
mit entsprechenden Stimuli zur NETose angeregt. Die ausgeworfene DNA
wurde angefärbt, mittels Fluoreszenzmikroskopie analysiert und die
Ergebnisse hinsichtlich Anzahl und Größe der NETs ausgewertet.
In der vorliegenden Studie konnte gezeigt werden, dass die NETose bei
Neugeborenen im Vergleich zu Erwachsenen signifikant vermindert ist.
Darüber hinaus wurde ein Zusammenhang mit dem Gestationsalter
festgestellt, so wiesen unreife gegenüber reifen Neugeborenen ebenfalls eine eingeschränkte NET-Fähigkeit auf. Ferner wurde der Einfluss weiterer Parameter beleuchtet, wie des Geburtsgewichts und des -modus, des Geschlechts oder einer perinatalen Infektion.
Die verminderte Fähigkeit zur NETose ist Teil der unvollständig
entwickelten Immunantwort bei Neugeborenen und könnte so zu deren
Infektionsanfälligkeit beitragen.
Phylogeny of the Koi herpesvirus and development of a vaccine against the Koi herpesvirus disease
(2019)
The aim of this presented dissertation was a stable, live attenuated and protective KHV usable as vaccine. Moreover this vaccine should by cost effective and easy to apply. Differentiation of infected and vaccinated animals was preferred by genetic and / or serological means. After achieving an attenuated virus, whole genome sequencing should be done to examine the genetic of the vaccine as one feature of biosafety. Besides biosafety additional knowledge on the virulence of Alloherpesviruses, especially of KHV was anticipated. Additionally the diagnostics of KHV and KHVD should be improved to increase reliability and to gain more insights into the relationship of different KHVs and hopefully to detect the source of an outbreak.
Lipohypertrophien (LHT) sind Veränderungen des subkutanen Fettgewebes, die durch die Langzeitanwendung von Insulin bei ca. 40 % der Patienten entstehen. Sie waren bisher von fraglicher klinischer Relevanz und teilweise schwierig zu diagnostizieren. Die Veröffentlichungen im Rahmen dieser kumulativen Dissertation untersuchten die pharmakotherapeutische Bedeutung von Lipohypertrophien und untersuchten erstmals die Thermographie als diagnostische Option für LHT. Dabei zeigte sich im euglykämischen Clamp-Versuch eine signifikant reduzierte Bioverfügbarkeit des Insulins nach Injektion in LHT von 78-80 % im Vergleich zur Applikation in gesundes Gewebe. Zwei der dreizehn Probanden zeigten keine Insulinwirkung. Die intraindividuelle Variabilität war signifikant höher in LHT als im gesunden Gewebe. Bei der erstmaligen systematischen Untersuchung von LHT mit einer hochwertigen Wärmebildkamera zeigte sich eine mäßige diagnostische Güte, verglichen mit den ebenfalls teilweise schwierigen Methoden der Inspektion, Palpation und des Ultraschalls. Insbesondere in der Kontrollgruppe war eine klare Abgrenzung von gesundem Gewebe schwierig. Aufgrund der Beeinflussung der Sicherheit, Effektivität und der Effizienz der Pharmakotherapie durch LHT, sollten diese als Injektionsort vermieden werden. Diese Arbeit konnte den Nutzen der Thermographie als diagnostische Option bei LHT zwar nicht klar beweisen, jedoch diesen auch nicht ausschließen.
Der hohe Anteil an inadäquat unter der Diagnose Leiomyom des Uterus operierten uterinen Sarkomen ist hauptsächlich der mangelnden Datenlage zu den uterinen Sarkomen und der schwierigen präoperativen Abgrenzung zu den regelhaften Leiomyomen oder dessen Varianten geschuldet. Die mit einer Morcellation eines uterinen Sarkoms einhergehende Prognoseverschlechterung sollte vermieden werden. Die Zielsetzung der vorliegenden Promotion bestand darin, Charakteristika von regelhaften Leiomyomen des Uterus an einem größeren Patientinnenkollektiv anamnestisch, klinisch und paraklinisch zu definieren. Darüber hinaus wurden die zufällig gefundenen Leiomyomvarianten gesondert betrachtet. Weiterhin erfolgte eine Analyse verschiedener Laborparameter, die laut Literatur zur präoperativen Abgrenzung von benignen und malignen Tumoren geeignet sein sollen. Hierfür wurden LDH-Werte, die neutrophilen Granulozyten/Lymphozyten-Ratio (NLR) und die Lymphozyten/Monozyten-Ratio (LMR) bei Patienten mit regelhaften Leiomyomen analysiert. Die Ergebnisse dieser Arbeit wurden anschließend mit der Promotion von Köller und Riechmann verglichen, die unter ähnlichen Erhebungs- und Auswertungsbedingungen Leiomyomdaten gesammelt haben. Die bereits abgeschlossene Promotion von Dennis und Lehr mit 3786 Patientinnen diente als Basis für die Formulierung der zu erhebenden Variablen. Da diese Arbeit im Rahmen der Promotions- und Forschungsgruppe für genitale Sarkome (PFGS) des Deutschen klinischen Kompetenzzentrums für genitale Sarkome und Mischtumore (DKSM) entstanden ist, wurden zum einen die hier gewonnen Daten dem DKSM zur weiteren Auswertung zur Verfügung gestellt, zum anderen wurden die innerhalb der PFGS erhobenen Leiomyosarkom- Daten wiederum mit den eigenen Leiomyomdaten verglichen. Zweck der Leiomyom- Charakterisierung war es also, mögliche Determinanten der präoperativen Differenzierung zwischen Leiomyomen und uterinen Sarkomen zu definieren.
Zunächst wurden im Rahmen dieser Arbeit von Mai 2011 bis November 2014 alle Patientinnen mit der Operationsdiagnose uterines Leiomyom und der Operationsmethode suprazervicale laparoskopische Hysterektomie, die in der gynäkologischen, ambulant operativen Einrichtung GynVelen operiert wurden, retrospektiv ausgewertet. Als die PFGS begann, die oben genannten Laborwerte bei Leiomyomen und uterinen Sarkomen zu analysieren, wurden je 50 Datensätze im Zeitraum von Februar bis November 2016 (GynVelen) und von Januar bis April 2016 (GynMünster) prospektiv ausgewertet. Insgesamt konnten 199 regelhafte Leiomyome, 96 zellreiche Leiomyome, 4 mitotisch aktive Leiomyome, 2 Lipoleiomyome, 1 Leiomyom mit bizarren Kernen und 1 glattmuskulärer Tumor mit unsicherem malignen Potential (STUMP) erfasst werden.
Signifikante Unterschiede zwischen den regelhaften Leiomyomen und dessen Varianten konnten nicht festgestellt werden. So waren die Patientinnen mit regelhaften Leiomyomen (n=199) im Mittel 44,9 Jahre alt und zeigten eine mittlere Tumorgröße von 4,53 cm, während diese Werte bei den zellreichen Leiomyomen bei 44,56 Jahre und 4,84cm lagen. Die regelhaften Leiomyome waren in 46,22 % der Fälle ein solitärer Tumor, während die zellreichen Leiomyome mit 53,12 % mehrfach als solitärer Tumor vorlagen. Die solitären, zellreichen Leiomyome waren mit im Mittel 1 cm signifikant (p=0,023) größer als die multiplen, zellreichen Leiomyome. Die regelhaften, solitären Leiomyome waren ebenfalls größer als die multiplen (4,99 cm zu 4,19 cm), hier konnte ebenso eine Signifikanz festgestellt werden (p=0,007).
Die Entität des zellreichen Leiomyoms trat in dem dieser Arbeit zugrunde liegendem Patientinnenkollektiv deutlich häufiger auf als in den vergleichbaren Gruppen anderer Promotionsarbeiten der PFGS. Dieses Ergebnis wurde dem zuständigen pathologischen Institut mitgeteilt sowie mögliche Ursachen anschließend erörtert.
Über den Referenzwert erhöhte LDH-Werte, eine erhöhte NLR sowie eine erniedrigte LMR kamen auch bei Leiomyomen vor. Der LDH-Wert lag bei den regelhaften Leiomyomen im Mittel bei 208,77 U/l. Es konnte eine signifikante, positive Korrelation zwischen dem LDH- Wert und der Tumorgröße bzw. dem Alter bei Operation festgestellt werden. Weiter unterschied sich der LDH-Wert bei einer Tumorgröße von < 5 cm und ≥ 5 cm mit einem p=0,03 signifikant. Bei den zellreichen Leiomyomen war der LDH-Wert mit im Mittel 203,22 U/l sogar etwas niedriger als bei den regelhaften Leiomyomen. Eine Signifikanz bestand jedoch weder im Vergleich mit den regelhaften Leiomyomen noch in Bezug des LDH-Werts auf die Tumorgröße bzw. das Alter.
Die NLR lag bei den regelhaften Leiomyomen im Mittel bei 2,2. 50 % der Leiomyome zeigten eine NLR von >2,05, 25 % eine NLR > 2,61 und 5 % > 4,56. Bei den zellreichen Leiomyomen lag die NLR im Mittel bei 2,3. Hier zeigten 50 % eine NLR von > 2,2, 25 % eine NLR von > 2,55 und 5 % eine NLR von > 4,56. Bei beiden Entitäten bestand eine positive Korrelation zwischen der NLR und der Tumorgröße (regelhafte Leiomyome, Korrelationskoeffizient: 0,292, p=0,022; zellreiche Leiomyome, Korrelationskoeffizient: 0,35, p=0,03), bei den zellreichen Leiomyomen konnte darüber hinaus ein hoch signifikanter Unterschied in der NLR bei Tumoren < 5 cm und ≥ 5 cm mit einem p=0,009 festgestellt werden.
Die LMR lag bei den regelhaften Leiomyomen im Mittel bei 4,8 und bei den zellreichen Leiomyomen bei 4,69. Es wurden jeweils negative Korrelationskoeffizienten bei dem Bezug von der LMR auf das Alter bei Operation bzw. der Tumorgröße festgestellt, diese waren jedoch nicht signifikant. Allein die LMR bei Patientinnen mit einem regelhaften Leiomyom unterschied sich signifikant zwischen Patientinnen mit einem Alter von < 35 Jahren und ≥ 35 Jahren (p=0,043).
In der Auswertung der Leiomyomdaten der vorliegenden Promotion und den Daten von Köller und Riechmann konnte ein signifikanter Unterschied (p<0,001) zwischen den Leiomyomen (Krichbaum, n=199; Köller und Riechmann, n=470) und den Leiomyosarkomen der PFGS des DKSM (n=271) bei den Variablen Alter, Tumorgröße, Solitärtumor, Zusatzblutung, Postmenopausestatus, schnelles Tumorwachstum und auffällige Sonographie festgestellt werden.
Diese Variablen scheinen also zur präoperativen Unterscheidung zwischen Leiomyomen und Leiomyosarkomen geeignet zu sein.
Im Ergebnis dieser und der Arbeit von Köller und Riechmann konnte vom DKSM in Zusammenarbeit mit dem Institut für Bioinformatik der Universitätsmedizin Greifswald ein zur Publikation eingereichter LMS-Risiko-Score entwickelt werden, der zur Entscheidung über eine geeignete Operationsmethode bei vermuteten LM verwendet werden kann.
Ein weiteres wesentliches Ergebnis dieser Arbeit ergibt sich aus den erhobenen Werten der neutrophilen Granulozyten/Lymphozyten-Ratio (NLR) und der Lymphozyten/Monozyten- Ratio (LMR). Die NLR lag bei den regelhaften Leiomyomen im Mittel bei 2,2, nur ca. 5 % wiesen eine NLR von ≥ 4,5 auf. Der in der Literatur diskutierte NLR-Grenzwert von ≥ 2,1 bzw. ≥ 2,12 wurde also regelhaft überschritten. Eine NLR von ≥ 4,5 wird somit als neuer Grenzwert zur Überprüfung vorgeschlagen. Die LMR lag bei den regelhaften Leiomyomen im Mittel bei 4,8, allerdings unterschritten immerhin noch 14,75% der ermittelten Werte den in der Literatur diskutierten Grenzwert von < 2,85. Da weniger als 5 % der regelhaften LM eine LMR von <2,3 aufwiesen, wird dieser Wert als neuer Grenzwert zur Überprüfung empfohlen.
Weltweit leiden 4,4% der Weltbevölkerung an einer Depression. Das variable Erscheinungsbild dieser Erkrankung erschwert deren Erforschung. Dass ein besseres Verständnis und die Entwicklung optimaler Therapiemöglichkeiten dieser Erkrankung sehr wichtig sind, zeigen die starke Einschränkung des gesamten Lebensalltags Betroffener (DALYs) und auch die hohe Suizidalität. Es existieren verschiedene ätiologische Theorien zur Depression, wie zum Beispiel die Monoaminmangel-Hypothese, die auf einen Mangel an Neurotransmittern im synaptischen Spalt und deren sekundären Effekte beruht. Neuroendokrine Theorien verweisen auf einen Hyperkortisolismus mit Störung der HPA-Achse und eine Stress-bezogene Ätiologie. Ein andauernder Hyperkortisolismus führt laut der Neutrophin-Hypothese zu Neurotoxizität, zu einer verminderten Neurogenese, Atrophie und Volumenminderung. Bildmorphologische Untersuchungen mittels PET-CT oder fMRT verweisen auf strukturelle und funktionelle Veränderungen bestimmter Hirnregionen bei depressiven Probanden. Auf zellulärer Ebene kann eine veränderte Zellaktivität mittels immunhistochemischer Methoden wie der C-Fos-Färbung dargestellt werden.
Für die vorliegende Untersuchung wurden Hirne von 8 männlichen Ratten untersucht, die zuvor einen Verhaltensversuch der Erlernten Hilflosigkeit zugeführt wurden. Dieser von M. Seligman entwickelte Verhaltensversuch gilt als tierexperimentelles Modell der Depressionsforschung. Durch Selektion wurden Tiere mit angeborener Erlernter Hilflosigkeit gezüchtet (congenitally Learned Helplessness, cLH) und von nicht-hilflosen Tieren unterschieden (congenitally Non Learned Helplessness, cNLH). Tiere mit Erlernter Hilflosigkeit zeigen ein mit dem Menschen vergleichbares depressives Verhalten.
Die Rattenhirne von je 4 cLH- und cNLH-Tieren wurden mit indirekter Immunhistochemie auf ihre C-Fos-Expression untersucht. Dabei wurden die Hirne in 40 μm dicke Scheiben geschnitten und nach Anwendung eines standardisierten Färbeprotokolls 11 Hirnregionen unter Rhodaminfilter mikroskopiert. In einem 200 x 200 μm großen Rahmen wurden die C-Fos-positiven Zellen ausgezählt. Im Vergleich der cLH und cNLH-Hirne ergab sich hierbei eine signifikant geringere C-Fos-Expression der cLH-Tiere in der hippocampalen Regionen CA1 und CA3, dem medialen und centralen Amygdalakern und der Substantia nigra. Kein signifikanter Unterschied fand sich in den hippocampalen Regionen CA2 und dem Gyrus dentatus, dem basolateralen und lateralen Amygdalakern, dem Nucleus accumbens und dem prälimbischen Kortex. Die signifikanten Ergebnisse verweisen auf eine Hypoaktivität bei Depression in bestimmten Hirnregionen. Eine Hypotrophie und Hypoaktivität bestimmter Regionen (z. B. dem Hippocampus) wurde bereits in weiteren Studien beschrieben, während in anderen Regionen (z.B. den Amygdalakernen) eher Hyperaktivität vorbeschrieben wurde. Zusammenfassend konnte gezeigt werden, dass in einigen Hirnregionen eine verminderte Aktivität in Zusammenhang mit der depressiven Erkrankung steht.
Ziel dieser Arbeit war es, die Zusammenhänge zwischen der Identifikation mit der Gruppe der psychisch Kranken, den eigenen stigmatisierenden Haltungen und der Selbststigmatisierung der Patienten bei Aufnahme in eine psychiatrische Klinik und deren Veränderung im Verlauf des Aufenthaltes zu untersuchen. Dazu wurden 70 Patienten auf Psychotherapiestationen und in Tageskliniken kurz nach Aufnahme und nach vier Wochen Aufenthalt in der Klinik anhand von Fragebögen befragt. Die Hypothese, dass mit längerer Behandlung eine stärkere Identifikation mit der Gruppe der psychisch Kranken stattfindet, über positive Vergleiche der In-Group gegenüber der Out-Group stigmatisierende Haltungen psychisch Kranken gegenüber abgebaut und Selbststigmatisierung damit verringert werden kann, ließ sich nicht bestätigen. Stattdessen zeigte sich, dass mit Dauer der Behandlung die Identifikation mit der Gruppe tendenziell abnahm, die eigenen stigmatisierenden Haltungen eher zunahmen und die Selbststigmatisierung dennoch eher abnahm.
Die erste Hypothese, die besagte, dass sich Patienten mit höheren eigenen stigmatisierenden Haltungen auch stärker selbst stigmatisieren, wenn sie sich mit der Gruppe der psychisch Kranken identifizieren, ließ sich zum Teil bestätigen, musste aber präzisiert werden: Patienten, die negativen Stereotypen gegenüber psychisch Kranken zustimmen, stigmatisieren sich selbst stärker; der Drang nach Abgrenzung von psychisch Kranken hat keinen Einfluss auf die Selbststigmatisierung. Patienten, die sich mit der Gruppe der psychisch Kranken identifi-zieren, stigmatisieren sich stärker.
Auch die zweite Hypothese, der zufolge sich Patienten mit stärkeren stigmatisierenden Hal-tungen weniger mit der Gruppe der psychisch Kranken identifizieren, konnte zum Teil bestä-tigt werden, musste jedoch ebenso präzisiert werden: Patienten, deren stigmatisierende Hal-tungen sich im Wunsch nach Abgrenzung von anderen psychisch Kranken äußern, identifizie-ren sich weniger mit der Gruppe der psychisch Kranken. Ob die Patienten gängigen negati-ven Stereotypen über psychisch Kranke zustimmen, beeinflusst nicht ihre Identifikation mit der Gruppe.
Die dritte Hypothese, die besagt, dass die Identifikation mit der Gruppe der psychisch Kran-ken über einen vierwöchigen Aufenthalt in einer psychiatrischen Klinik zunimmt, ließ sich nicht bestätigen. Die Identifikation mit der Gruppe nahm tendenziell eher ab, bei Patienten mit ein bis fünf Voraufenthalten signifikant ab.
Die vierte Hypothese, nach der eine erhöhte Gruppenidentifikation einen negativen Einfluss auf das eigene Stigma hat, die stigmatisierenden Haltungen gegenüber psychisch Kranken im Verlauf abnehmen und damit auch die Selbststigmatisierung abnimmt, ließ sich ebenso teil-weise bestätigen, doch auch hier muss differenziert werden: Patienten, die sich weniger mit der Gruppe der psychisch Kranken identifizieren, haben einen höheren Drang nach Abgren-zung von psychisch Kranken. Dies beeinflusst nicht, ob sie negativen Stereotypen über psy-chisch Kranke zustimmen. Die soziale Distanz, der Drang nach Abgrenzung von psychisch Kranken, nimmt im Verlauf zu; die Zustimmung zu negativen Stereotypen ändert sich unwe-sentlich. Die Selbststigmatisierung nimmt eher ab, bei Patienten mit ein bis fünf Voraufenthal-ten signifikant ab. Die Veränderung der Zustimmung zu negativen Stereotypen korreliert mit der Zunahme der Selbststigmatisierung, obwohl die Zustimmung zu negativen Stereotypen nicht signifikant zunimmt.
Eine entstigmatisierende Wirkung ist durch das therapeutische Milieu im stationären und teil-stationären Bereich also nicht eindeutig zu verzeichnen. Vielmehr zeigt sich, dass der Aufenthalt in einer psychiatrischen Klinik Abgrenzungsprozesse gegenüber anderen Betroffenen in Gang setzt, die eine Zunahme von Selbststigmatisierung verhindern können.
Up to now, indices like the mean dmft/DMFT and the SiC (Significant Caries Index) have been used to depict caries experience in populations with high prevalence. With the caries decline, particularly for populations with low caries levels, these indices reach their statistical limits. This paper aims to introduce a specific term, the Specific affected Caries Index (SaC) for the risk groups in populations with low caries prevalence and to illustrate its use based on the consecutive German National Oral Health Survey (GNOHS) in children. In groups with a caries prevalence less than one-third of the population, many caries-free children (DMFT = 0) are included in the SiC (risk group), which calls for a new way of illustration. Mean caries experience (DMFT), caries prevalence, the SiC and SaC were portrayed for 12-year-olds in the GNOHS from 1994/95 to 2016. The SaC describes the mean caries experience (DMFT) in the group presenting caries experience (DMFT > 0). In 12-year-old 6th graders in Germany, the mean caries experience decreased from 2.4 (1994/95) to 0.4 DMFT (2016), with a recent prevalence of 21.2% (DMFT > 0, 2016). In 2016, the mean number of affected teeth in children with DMFT > 0 (SaC) was 2.1, while the SiC including 12% DMFT-free children in the risk group was 1.3. The SiC fails to reflect the caries severity in children in a population with low caries prevalence. Therefore, the newly introduced term Specific affected Caries Index (SaC) may be used to describe accurately caries experience in caries risk children in populations presenting low caries prevalence.
The present work focusses on the mosquito populations of two zoological gardens in Germany with the aim to better understand mosquito biology of native species and to contribute to a greater awareness of mosquito and mosquito-borne disease agent surveillance in zoos. For this purpose, data on species composition, blood meal patterns and mosquito-borne pathogens were analysed. The investigated zoological gardens differed not only in their sizes and animal stocks, but also in their surrounding environments. The 160 ha Tierpark Berlin is located in a densely populated urban area, while the 15 ha Zoological Garden Eberswalde is surrounded by forest.
To gain an overview about the mosquito fauna of both zoos, adult specimens were caught by aspirating and EVS-trapping during the 2016 season. In addition, larval stages were collected from their breeding sites located in the zoo areas. In total, 2,257 mosquitoes were sampled, belonging to 20 taxa. Seasonal differences between the zoos were documented, both in terms of species composition and the relative abundance of mosquito species collected. As the studied zoos were located in the same climatic region and both locations provided similar breeding sites, differences in species composition were attributed to the entry of mosquitoes from surrounding landscapes. Influencing factors could have been the different sizes of the zoos and variations in the potential host animal populations.
According to the vector potential of most frequently collected taxa in the Zoological Garden Eberswalde (Annulipes Group, Culiseta annulata), TAHV, USUV, WNV, filariae and avian malaria parasites appear to have the highest risk of being transmitted at this location. In the Tierpark Berlin, Aedes vexans was the most frequently collected mosquito species, suggesting a theoretical risk for the transmission of a broader spectrum of pathogens due to covered vector competences. Pathogens such as BATV, SINV, TAHV, USUV and filarial worms could be of major importance regarding transmission risk to zoo animals, as they had previously been found to circulate Germany. In addition, avian malaria parasites represent a considerable risk for susceptible exotic bird species in Berlin.
Since the blood-feeding behaviour of vector-competent mosquito species has a major influence on the transmission of a mosquito-associated pathogen, the analysis of blood meal patterns is crucial to better understand vector-pathogen cycles. Therefore, blood meals of blood-fed mosquitoes caught in 2016 and 2017 by aspirating and EVS-trapping in the Tierpark Berlin and the Zoological Garden Eberswalde were analysed. The aim was to investigate to what extent native mosquito species accept exotic zoo animals, wild native animals and humans as blood hosts. In addition, it was examined whether the collected species are generalists or specialists when selecting vertebrates for blood feeding.
A total of 405 blood-fed mosquitoes from 16 taxa were collected. The genetic analysis of blood meals identified 56 host species, which – in addition to humans – mainly originated from mammals of the zoo animal populations. In agreement with the previous study on the mosquito fauna of the Tierpark Berlin and the Zoological Garden Eberswalde, the analysis of blood meals also showed differences between the two zoos. In the smaller Zoological Garden Eberswalde, a higher number of blood-fed mosquitoes was collected than in the Tierpark Berlin, probably caused by a higher host density in Eberswalde, which may have led to an overall higher mosquito density. However, no differences between both zoos were observed with respect to the blood feeding behaviour of the analysed mosquito species: Mosquitoes of both locations were rather generalistic, although species could be grouped according their blood meals into 'amphibian', 'non-human mammal' and, ‘non-human mammal and human' feeding species. The more random selection of hosts could indicate a low probability of effective pathogen transmission by applying the 'dilution effect'. Notwithstanding, since wild animals have also been accepted as hosts, pathogen transmission by bridge vectors from one vertebrate group to another could be relevant in the sampled zoos.
Adult mosquito specimens collected in 2016 and 2017 were screened for filarial nematodes, avian Haemosporidia and mosquito-borne viruses. Dirofilaria repens was detected in a mosquito from the Zoological Garden Eberswalde. Mosquitoes from Berlin and Eberswalde were tested positive for the nematode species S. tundra. Sindbis virus was found in a mosquito pool collected in the Tierpark Berlin, while no mosquito-associated viruses were detected in specimens collected in the Zoological Garden Eberswalde. Mosquitoes from both zoos were positive for the haemosporidian parasites Haemoproteus sp. and Leucocytozoon sp., and one documentation was made for avian Plasmodium sp. in the Tierpark Berlin.
The identified pathogens have the potential to cause disease in captive and wild animals, and some of them also in humans. Most of the mosquitoes tested positive had been collected in July, suggesting a high infection risk during this month. Since most pathogen detections were made from species belonging to the Cx. pipiens complex, species of this complex seem to be most relevant in the studied zoos when it comes to mosquito-borne pathogen transmission. Although mosquitoes are no proven vectors of most of the avian malaria parasite genera found, evidence for Haemoproteus sp. and Leucozytozoon sp. demonstrated a high prevalence of avian malaria parasites in the zoos.
In summary, the results of the three studies indicate regional differences both in the mosquito species composition and in the occurrence of mosquito-borne pathogens. However, no differences were found between the mosquito communities of both zoos concerning their blood feeding behaviour, suggesting that the general behaviour of the insects is location-independent.
Several potential disease agents were found in the collected mosquitoes, although not at high abundances. Whether these pathogens were found by chance in the two zoos or whether the particular zoo environment is a hot spot of arthropod-borne pathogens cannot be determined with the studies conducted. Nonetheless, it seems clear that zoological gardens are attractive to mosquito females not only in their search for breeding sites, but also when looking for blood hosts and places for mating or resting. These advantageous conditions also attract mosquito species that have their larval habitats outside the zoological gardens, which is why elimination of breeding sites on the zoo premises alone will not necessarily keep away all mosquitoes.
A closer collaboration between zoological gardens and entomologists could be beneficial for both. Zoo officials could benefit from being able to identify potential arthropod vectors on the zoo grounds and receiving information on circulating arthropod-borne disease agents, as well as on the animal species susceptible to those. For entomologists, zoological gardens are ideal research locations, as they provide an environment with a high diversity of habitats and potential blood hosts for haematophagous arthropods in a confined space.
Studying mosquito biology will become even more significant in the future, since in a world that is getting smaller, both potential vectors and pathogens are regularly introduced into areas where they did not occur before. Therefore, it would be desirable if more studies targeting ecological as well as infectiological aspects of vector species in zoological gardens in Germany were carried out.
In der Chirurgie droht ein Ärztemangel, weil in naher Zukunft viele Fachkräfte das
Rentenalter erreichen. Die Akquirierung von Nachwuchskräften gewinnt somit zunehmend
an Bedeutung. Gleichfalls nimmt mit zunehmendem Studienfortschritt das Interesse für
eine Weiterbildung in der Chirurgie ab. Somit rücken die praktischen Kontaktflächen
zwischen den Studierenden und dem Fachbereich Chirurgie in den Blickpunkt.
Insbesondere die Famulatur und das chirurgische Pflichttertial im Praktischen Jahr sind
hier von besonderem Interesse, weil sie den Studierenden erste Einblicke in die spätere
ärztliche Tätigkeit geben.
Gemeinsames Ziel der kumulativen Arbeiten war die Analyse von Angaben aus
studentischer Sicht über die chirurgische Famulatur sowie des Pflichttertials Chirurgie im
Praktischen Jahr (PJ) in Hinblick auf die Zufriedenheit sowie den daraus resultierenden
späteren Weiterbildungswunsch.
Es konnten signifikante statistische Zusammenhänge zwischen der Zufriedenheit mit der
abgeleisteten Famulatur oder des PJ-Tertials sowie der späteren Fachspezifizierung in der
Chirurgie aufgezeigt werden. Die Lehre, welche hauptsächlich von den Assistenzärzten
ausging, bot vor allem in der didaktischen Qualität noch Verbesserungspotential. Die
Verlagerung der Lehre an das Patientenbett und die damit verbundene Einbeziehung der
Studierenden in diagnostische und therapeutische Überlegungen zeigte sich nach unseren
Ergebnissen für die Zufriedenheit und dem Weiterbildungswunsch zum Chirurgen
essentiell.
Dieser Zusammenhang erscheint logisch, jedoch überrascht die Eindeutigkeit der
statistischen Auswertung. Der Bedeutung des Praktischen Jahres und der Famulatur wird
man sich jedoch mehr und mehr bewusst. Neben den allgemeinen Rahmenbedingungen
der studentischen Praktika sind die Lern- und Lehrbedingungen in vielen Bereichen noch
deutlich zu optimieren. Innovative Lehrkonzepte werden von den Studierenden gefordert
und werden in naher Zukunft auch erforderlich sein, wenn man den Nachwuchs für das
Fachgebiet Chirurgie begeistern möchte.
Die Schädelsonographie ist eine nicht-invasive, kosteneffektive und strahlenfreie Bildgebung zur Detektion zerebraler Pathologien des Neugeborenen. Im Rahmen der populationsbasierten Geburtenkohortenstudie „Survey of Neonates in Pomerania“ wurde die Schädelsonographie unabhängig von Empfehlungen der internationalen Literatur durchgeführt. Dadurch konnten Schweregrad, Outcome und Prävalenz der zerebralen Pathologien von asymptomatischen, reifen Neugeborenen in der angehängten Publikation von Weise et al. analysiert werden[2]. Für diese Gruppe ist keine Assoziation von
Auffälligkeiten in der Schädelsonographie mit neurologischen Entwicklungsstörungen zu finden. Daher wird keine Erweiterung der aktuellen Richtlinien oder die Einführung eines zerebralen Ultraschallscreenings für Neugeborenen nicht empfohlen. Die Schädelsonographie ist zur frühzeitigen Detektion von zerebralen Anomalien bei Neugeborenen nach der „American Institute of Ultrasound in Medicine (AIUM) Practice Guideline for the Performance of Neurosonography in Neonates and Infants 2014“, Leijser et al.,
Ment et al. und Ballardini et al. indiziert:
1. Eine Schädelsonographie ist bei Neugeborenen ≤34 SSW zu empfehlen und sollte bei <30 SSW durchgeführt werden.
2. Die Indikationsparameter der AIUM Practice Guideline sind sinnvoll und sollten in eine offizielle Leitlinie integriert werden (siehe Tabelle 2.1).
3. Aufgrund ähnlicher kumulativer Inzidenzen für Schädelsonographiebefunde bei Neugeborenen mit oder ohne Indikation aber stationärer Aufnahme ist die Untersuchung von Neugeborenen bei Aufnahme auf eine Neonatologie zu empfehlen.
4. Die Durchführung der Untersuchung sollte anhand der Richtlinien von Riccabona et al. erfolgen.
5. Dies schließt nicht die reguläre Teilnahme an den U-Untersuchungen aus, welche zur frühzeitigen Detektion neurologischer Entwicklungsstörungen beiträgt.
Hintergrund
Die chronisch venöse Insuffizienz (CVI) ist eines der häufigsten Krankheitsbilder weltweit.
Die Prävalenz der CVI steigt mit zunehmendem Alter und ist aufgrund von Schmerzen,
reduzierter körperlicher Funktion und Mobilität mit einer reduzierten Lebensqualität
verbunden. Symptomatische CVI mit Ulcus cruris venosum als Endstadium indiziert einen
phlebochirurgischen Eingriff um den venösen Reflux auszuschalten und somit eine
Ulcusabheilung zu fördern sowie ein Ulcusrezidiv zu vermeiden. Nach unserem
Kenntnisstand gibt es bisher keine Studie, die in einer Patientenkohorte offen-chirurgische
Eingriffe in Bezug auf die Komplikationsentwicklung, venöse Hämodynamik und
perioperative Beschwerdeentwicklung untersucht. Dies erfolgte in einem retrospektivem,
monozentrischem Studiendesign, an unserer Universitätsklinik in Greifswald.
Methode
Daten von n= 429 Patienten (467 Extremitäten), die einen operativen Eingriff am
Venensystem erhielten, wurden von 2009-2013 eingeschlossen. Art und Anzahl an
Komplikationen wurden auf einen möglichen Einfluss von demographischen Parametern, Co-
Morbiditäten und Medikation und therapieabhängigen Faktoren untersucht. Komplikationen
wurden in die Gruppen: no events (NE) = keine Komplikationen; neglectable adverse events
(NAE) = leichte Komplikationen; non-neglectable adverse events (NNAE) = mittelschwere
Komplikationen und serious adverse events (SAE) = schwere/ lebensbedrohliche
Komplikationen unterteilt.
CVI-bedingte Beschwerden wurden mit Hilfe eines Fragebogens sowie der Dokumentation
zu den Verlaufskontrollen analysiert.
Bei allen Patienten wurden die prä- sowie postoperative Venenfunktion evaluiert, hierbei
wurde zusätzlich eine Subgruppenanalyse hinsichtlich der Komplikationen durchgeführt.
Ergebnisse
In 130 (27,84%) Extremitäten von 467 (von 429 Patienten) wurden postoperative
Komplikationen observiert, hierunter 64 (13,7%) NAE, 66 (14,14%) NNAE and 0 SAE. 29
(6,76%) Patienten entwickelten eine postoperative Wundinfektion (SSI), wobei 4 dieser Patienten (0,9%) eine Sepsis erlitten. Abgesehen von einem Fall mit intraoperativer
Nervenschädigung, die über den Beobachtungszeitraum hinaus bestehen blieb, waren alle
Komplikationen innerhalb von 12 Monaten regredient. Patienten mit mittelschweren
Komplikationen (NAE) hatten einen höheren BMI (p = 0.003), eine höhere
Wahrscheinlichkeit an einem Diabetes mellitus Typ II zu leiden (p <0.001) und häufiger Co-
Morbiditäten, die zur Einnahme von thrombozytenhemmender oder gerinnungshemmender
Medikation führen (p < 0.001). Das metabolische Syndrom als auch die Einnahme von
thrombozytenhemmender oder gerinnungshemmender Medikation konnte als unabhängiger
Risikofaktor für die Komplikationsentwicklung analysiert werden. Patienten, die eine
Stripping-Operation der Vena saphena magna erhielten, hatten ein 8-fach höheres Risiko eine
Muskelvenenthrombose zu entwickeln. Eine Stripping-Operation bis zum distalen
Insuffizenzpunkt war mit einem erhöhten Risiko für postoperative Sensibilitätsstörungen
verbunden. Postoperativ zeigten sich Beschwerden wie Schmerzen (p < 0.001), Schwellung (p
< 0.001) und Juckreiz (p = 0.003) signifikant gebessert. Ungeachtet der
Komplikationsentwicklung zeigte sich eine signifikante Besserung der Venenfunktion nach 6-
Wochen und einem Jahr postoperativ (p < 0.05). Eine Besserung der Venenfunktion ging
einher mit einem Beschwerderückgang.
Schlussfolgerung
Patienten mit metabolischem Syndrom oder einer thrombozytenehmmenden bzw.
gerinnungshemmenden Therapie sollten einen operativen Eingriff unter stationären
Bedingungen erhalten und regelmäßig verlaufskontrolliert werden. Insbesondere Patienten mit
Stripping-Operation der Vena saphena parva sollten eine postoperative Heparinprophylaxe
erhalten. Eine Stripping-Operation bis zum distalen Insuffizienzpunkt war mit einer höheren
Rate an postoperativen Sensibilitätsstörungen verbunden, diese zeigte sich in unseren
Patienten in fast allen Fällen innerhalb von 12 Monaten rückläufig. Ungeachtet der
Komplikationsentwicklung profitierten die Patienten von einem Eingriff da sich sowohl die
Venenfunktion als auch Beschwerden besserten.
In times of recent climate change, mechanisms to deal with different environments (e.g. via dispersal to other habitats, or via in-situ responses such as genetic adaptation or phenotypic plasticity) are essential. In regions showing seasonality, organisms are already adapted to regular and, thus, often predictable environmental changes. One well-known strategy to survive periods of food shortage, especially during the winter, is hibernation. Although hibernation is already an adaptation to overcome unfavourable conditions, the optimal timing of hibernation to match for example food abundance peaks is likely to be influenced by changing climatic conditions, as expected during human-induced global change. Thus, the ability to respond to changes in optimal timing of hibernation can be crucial for organisms. All hibernators are positioned at the slow end of the slow-fast life history continuum. Longevity combined with a low annual reproductive output can result in slow recovery from population crashes and is expected to be associated with slow genetic adaptation. Therefore, it is assumed that phenotypic plasticity, a rather rapid and sometimes reversible process, is a crucial mechanism in long-lived organisms to adapt to changing environments. However, how differences in individual hibernation behaviour influence mortality and whether individuals are plastic with respect to their hibernation behaviour are largely unknown.
Recent studies suggest that climatic change can influence hibernation behaviour in various species differently, in a positive or negative way. Female Columbian ground squirrels (Urocitellus columbianus) delayed their emergence from hibernation with later snow melt and lower spring temperatures. Next to the environmental impact, emergence date showed a moderate heritability in female Columbian ground squirrels. Yellow-bellied marmots (Marmota flaviventris) emerged earlier from hibernation with warmer spring temperatures which resulted in a longer growing period for their offspring and, therefore, higher survival rates. In contrast, in alpine marmots (Marmota marmota) lower snow cover due to higher temperatures and, thus, less isolation led to lower juvenile survival. Negative effects, such as reduced juvenile survival, would be of high concern, especially for long-lived species with a low reproductive output.
Bats are exceptionally long-lived compared to other mammals of the same size and often show a low reproductive output with one offspring per year. This is especially true in the temperate zone where bats, furthermore, are characterized by seasonality and depend on hibernation during winter period to survive food and water shortage. Because bats are of high conservation concern it is of prime importance to understand their ability to respond to different climatic conditions and associated mortality costs.
The basis of this study was a five-year data set of 1047 RFID-tagged individuals from two bat species, Natterer’s bats (Myotis nattereri) and Daubenton’s bats (Myotis daubentonii), that were automatically tracked when entering or leaving the joint hibernaculum, “Brunnen Meyer”, located in north-western Germany. The two species are similar sized, share demographical traits and often occupy the same areas. Nevertheless, they differ in their foraging strategy and activity pattern during hibernation period. Natterer’s bats are able to glean insects from surfaces, even at low temperatures. Daubenton’s bats depend on flying arthropods and, thus, warmer temperatures. And indeed there is evidence that Natterer’s bats are able to hunt during hibernation period, while in Daubenton’s bats a lack of feeding during the hibernation period is suggested. Furthermore, Natterer’s bats are characterized by a higher activity at the hibernaculum throughout the hibernation period, while Daubenton’s bats on average arrive earlier, stay inactive through the winter and leave later in spring.
In both species, the aim was to investigate the impact of their individual hibernation behaviour, precisely the timing of departure in late winter and early spring, on mortality, their adjustment of departure timing to the North Atlantic Oscillation Index (NAO), as well as differences within and between the two species from 2011 until 2015.
To later on estimate the potential mortality costs of departure timing, gaining knowledge about the seasonal survival pattern (winter vs. summer) in the two species was a first necessity. In birds, particularly small species were described as winter-regulated populations with a higher mortality during winter. In contrast, in hibernating mammal species, such as bats, a relatively lower or similar winter survival compared to summer survival was shown. In this study, the analysed data demonstrated that the winter 2010/2011 was exceptionally catastrophic in Natterer’s bats and did not impact Daubenton’s bats. When excluding this catastrophic winter in Natterer’ bats, our results revealed a stable winter-summer-survival difference (higher winter and lower summer survival) in adult Natterer’s and Daubenton’s bats, with inter-annual variation in the level of survival which indicates a potential environmental impact on survival. This winter-summer survival pattern is in line with the survival pattern shown for other hibernators. Juveniles always had a lower survival rate than adult bats in both species. Nevertheless, the extent to which the species differ between seasons and age classes was stronger in Daubenton’s bats. They always showed a slightly higher winter survival and a lower summer survival than Natterer’s bats. Together with the catastrophic winter 2010/2011 in Natterer’s bats, this indicates a species-specific sensitivity to the timing of specific weather events which is in line with their foraging strategies and activity pattern during hibernation period.
With respect to emergence behaviour from the hibernaculum, the results of this study suggest considerable differences among individuals within as well as between bat species. In comparison to Daubenton’s bats, Natterer’s bats tuned their emergence more closely to weather conditions, specifically the NAO, a large scale weather index related to winter severity, and showed individual variation in behavioural plasticity. In Daubenton’s bats only the females responded to changing conditions and left earlier in individually-experienced warmer and milder winters, comparable to Natterer’s bats females. A potential reason might be reproductive advantages for the females resulting in a longer growing period for their offspring. The shown higher winter survival in adult bats of both species indicated already higher energy expenditure outside the hibernaculum. Thus, leaving early, being active and staying outside longer by itself bore a risk (exposure risk effect). Under consideration of longer exposure times, early departing individuals had on top of that an increased risk to die. This was not given in each year, but a species- and year-specific pattern was revealed. Natterer’s bats were only significantly affected by early departure in 2011, while the remaining years show no significant additional risk of leaving early. In Daubenton’s bats, the years 2014 and 2015 were associated with a significantly higher mortality of leaving early. This is in line with the hypothesis that Daubenton’s bats might not be able to hunt for insects leaving too early and do so as a best out of a bad job. Nevertheless, the year-specific pattern suggests that early bats might profit from advantageous weather conditions during early spring.
An additional hint for an environmental impact on early bat survival in at least Daubenton’s bats is that the median proportion of night hours above 3 °C within five days after departure was included in the model with the lowest AIC. However, the effect was not strong enough to be selected as the best model and, therefore, further analyses are needed to investigate this first hint.
In conclusion, the reduced winter survival of juveniles compared to adults highlights the importance of considering age class effects in studies that investigate seasonal survival patterns. The stable species-specific winter-summer-survival difference with a higher winter survival compared to summer survival, as well as the one catastrophic winter in Natterer’s bats underline the importance of including seasonal survival patterns in assessing potential fitness costs of changed behaviour. Furthermore, our results suggest that long-lived hibernating bat species have the potential to plastically adjust to changing climatic conditions, but this potential differs between species. Among-individual differences in emergence together with species-specific mortality costs of early emergence suggest the potential for natural selection to shape hibernation phenology. In summary, our findings suggest species-, population- and group-specific differences in the ability to respond to changing environments and, therefore, underline the necessity to further investigate local responses in various organisms to estimate consequences of recent climate change on a wider range.