Doctoral Thesis
Refine
Year of publication
- 2021 (158) (remove)
Document Type
- Doctoral Thesis (158) (remove)
Language
- German (158) (remove)
Has Fulltext
- yes (158)
Is part of the Bibliography
- no (158)
Keywords
- Sepsis (5)
- Epilepsie (4)
- Schlaganfall (4)
- CAP (3)
- Kaltes Plasma (3)
- Kernspintomografie (3)
- Plasma (3)
- Proteomanalyse (3)
- Staphylococcus aureus (3)
- Zahnmedizin (3)
Institute
- Institut für Klinische Chemie und Laboratoriumsmedizin (8)
- Klinik und Poliklinik für Neurologie (8)
- Klinik für Anästhesiologie und Intensivmedizin (7)
- Klinik und Poliklinik für Chirurgie Abt. für Viszeral-, Thorax- und Gefäßchirurgie (7)
- Kliniken und Polikliniken für Innere Medizin (7)
- Institut für Biochemie (6)
- Institut für Community Medicine (6)
- Institut für Diagnostische Radiologie und Neuroradiologie (6)
- Klinik und Poliklinik für Frauenheilkunde u. Geburtshilfe (6)
- Institut für Hygiene und Umweltmedizin (5)
Zink-Transporter 8-Autoantikörper sind auch in Kindern ohne hereditäres Diabetes-Risiko in der Lage, das Erkrankungsrisiko zu stratifizieren, was auf eine ähnliche Pathophysiologie hinweist, und insbesondere in anderweitig als niedrig-risikobehaftet eingestuften und in IA-2A-negativen Individuen diejenigen identifiziert, die manifestieren werden.
ZnT8A sind zudem hilfreich in der Identifizierung eines autoimmun-vermittelten Diabetes mellitus im Erwachsenenalter, insbesondere bei phänotypisch als T2D eingestuften Patient*innen, sodass eine entsprechende Therapie und damit die Prognose sowie das Langzeit-Outcome in diesem Patientenkollektiv positiv beeinflusst werden kann.
Das entsprechend des SNP im kodierenden SLC30A8-Gen getriggerte Reaktionsmuster ist in T1D-Patient*innen und hoch-risikobehafteten Kindern mit überwiegend davon unabhängiger Autoantikörperantwort gegenüber der ZnT8WA-dominierenden Antwort in LADA-Patient*innen deutlich different, was die Hypothese unterschiedlicher Pathomechanismen dieser beiden Diabetesformen unterstützt.
Die zusätzliche Testung von ZnT8QA trägt nicht zu einer zusätzlichen Risikostratifizierung bei, sodass ein kombiniertes ZnT8A-Screening mit einem ZnT8-Arg325-Trp325-Hybridkonstrukt eine deutliche Zeit- und Kostenersparnis ohne Sensitivitätsverlust darstellt.
Für frühgeborene Kinder ist Muttermilch die empfohlene enterale Ernährung mit vielen bereits gut untersuchten positiven Effekten. Jedoch ist der Gehalt an Makronährstoffen zu niedrig, um die Bedürfnisse von Frühgeborenen zu decken. Zusätzlich zeigt native Muttermilch eine hohe inter- und intraindividuelle Variabilität der Makronährstoffe. Die Effizienz der allgemein verbreiteten Standardfortifizierung mit kommerziell erhältlichen Fortifiern ist durch diese Variabilität beeinträchtigt und kann so in einem Großteil der Muttermilchproben zu einer inadäquaten Nährstoffzufuhr führen, die zu niedrig, jedoch auch zu hoch ausfallen kann. Unzureichende Ernährung kann einen negativen Einfluss auf das Wachstum und die Körperzusammensetzung sowie Folgeerkrankungen im Erwachsenenalter haben.
Diese Studie zeigt anhand eines Datensatzes mit realen Messwerten zur Zusammensetzung der Muttermilch in über 3300 Proben, dass die Messung der Makronährstoffe in nativer Muttermilch und die anschließende, darauf basierende Targetfortifizierung mit der individuellen Ergänzung der fehlenden Makronährstoffen zu adäquaten Nährstoffeinträgen führt. Mit diesem Ansatz kann auf die Variabilität der nativen Muttermilch reagiert und die Variation der Makronährstoffeinfuhr signifikant verringert werden. In dieser Arbeit wurden drei verschiedene optimierte Standardfortifier entwickelt. Deren Zusammensetzung erhöht den Makronährstoffeintrag bereits unter Standardfortifizierung, aber noch mehr bei ein oder zwei Muttermilchanalysen pro Woche.
Weiterhin wurde in dieser Arbeit der Einfluss der durch die verschiedenen Fortifizierungsstrategien erzeugten Nährstoffzufuhren auf die Wachstumsraten berechnet, die für Standardfortifizierung ungenügende und für Targetfortifizierung hauptsächlich zufriedenstelle Ergebnisse zeigt.
Verschiedene Kombinationen von Pooling mit bis zu drei Proben oder von Pooling einer größeren Anzahl wie in einer Milchbank zu Verfügung stehenden Proben verringerten nicht die Variabilität der Nährstoffzufuhr. Ebenso zeigte die Gefriertrocknung keine zufriedenstellenden Ergebnisse für alle Makronährstoffkonzentrationen.
Die Ergebnisse dieser Arbeit verdeutlichen, dass standardfortifizierte Muttermilch trotz verschiedener Poolingstrategien keine adäquate Makronährstoffzufuhr für frühgeborene Kinder sicherstellt. Für den klinischen Alltag wird die Bedeutung der Targetfortifizierung deutlich, die mit regelmäßiger Muttermilchanalyse und unter Anwendung optimierter Standardfortifier zufriedenstellend gelingen kann und so zu physiologischen Wachstumsraten führen kann.
Einfluss der Plasmabehandlung auf das transepidermale Penetrationsverhalten von Arzneistoffen
(2021)
Zusammenfassung und Ausblick
Die Forschungshypothese, dass eine Plasmabehandlung der Haut mit kaltem
Atmosphärendruckplasma zu einer lokalen Änderung der physikochemischen Eigenschaften des
Stratum corneum und dessen Struktur und (Barriere-)Funktion führt, konnte bestätigt werden.
Im Rahmen der vorliegenden Arbeit wurden morphologisch sichtbare Hautveränderungen, die
Penetrationseigenschaften verschiedener Substanzen vor und nach Plasmabehandlung sowie
Veränderungen der Lipidzusammensetzung des Stratum corneum auf molekularer Ebene analysiert.
Der wesentliche Erkenntnisgewinn der Arbeit besteht im qualitativen und quantitativen Nachweis der
gefahrlosen durch kaltes Atmosphärendruckplasma vermittelten Penetrationssteigerung von
Substanzen in die Haut mit speziellem Fokus auf das Stratum corneum.
Die Plasmabehandlung der Haut mit einem Plasmajet lockert abhängig von der
Plasmabehandlungszeit das aus Corneozyten und einer interzellulären Lipidmatrix bestehende
Stratum corneum auf. Die aufgelockerte Struktur des Stratum corneum ermöglicht eine beschleunigte
Penetration verschiedener, nach Plasmabehandlung applizierter Substanzen durch die Haut (Kapitel
4.2.). Die Penetrationssteigerung variiert dabei abhängig von den Stoffeigenschaften der
penetrierenden Substanz (zum Beispiel Molekülgröße und Lipophilie).
Die morphologische Auflockerung des Stratum corneum spiegelt sich im nach der Plasmabehandlung
veränderten Ceramid-Profil wieder. Die veränderten Barriereeigenschaften in den obersten Schichten
des Stratum corneum nach einer einminütigen Plasmabehandlung lassen sich über die Interaktion von
plasma-produzierten reaktiven Spezies mit Lipiden der Haut (insbesondere Triacylglycerolen) und
die dadurch vermittelte Bildung von Triacylglycerol-Oxidationsprodukten erklären (Kapitel 4.4.).
Eine Plasmabehandlung hat im Bereich der in der Dermatologie für den kINPen MED empfohlenen
Anwendungsdauer von 15 s/cm² bis 1 min/cm² keine negativen Auswirkungen auf die Haut (keine
gesteigerte Anzahl an Apoptosen im Stratum basale, Möglichkeit der Regeneration des
aufgelockerten Stratum corneum von basal, (Kapitel 4.3.)). Längere Behandlungszeiten von 2
min/cm² bis 5 min/cm² können jedoch zu Apoptosen in für die Zellregeneration bedeutenden
Schichten führen.
Im Gegensatz zu anderen Methoden zur transdermalen Penetrationssteigerung besteht bei der Plasma-
vermittelten Penetrationssteigerung auf Grund der antibakteriellen Plasmaeigenschaften und der
Penetrationsbeschleunigung von ausschließlich kleinen Stoffen (Größe unter 689 nm) ein geringeres
Risiko der Infektion der behandelten Hautbereiche durch die Einwanderung von Bakterien und
Pilzen. Die Plasmabehandlung stellt demnach eine zukunftsträchtige Möglichkeit zur gefahrlosen
Penetrationssteigerung von Arzneistoffen durch die Hautbarriere dar.
Da die in dieser Arbeit gewonnenen Daten in vitro mit Hilfe eines Schweineohrmodells ermittelt
wurden, ermöglichen sie einen ersten Einblick in die Reaktion der gesunden menschlichen Haut auf
die Plasmabehandlung, lassen sich jedoch nicht eins zu eins auf die in vivo-Situation am menschlichen
Körper übertragen. Zudem sollte bei der Plasmabehandlung in vivo beachtet werden, dass es am
menschlichen Körper große intra- und interindividuelle Unterschiede in der Beschaffenheit der
Hautbarriere gibt, welche zu unterschiedlich starken Effekten der Plasmabehandlung führen könnten.
Ein Vergleich der Penetrationseigenschaften weiterer Stoffe mit unterschiedlichen hydro- und
lipophilen Stoffeigenschaften sowie unterschiedlichen Molekülgrößen vor und nach
Plasmabehandlung wäre für weitere Forschungsarbeiten empfehlenswert. Auf diese Weise könnte
erforscht werden, auf welche Substanzen die Plasmabehandlung der Haut den größten Einfluss hat
und es wären weitere Rückschlüsse auf die Form der aufgelockerten Bindungen, sowie auf eine
eventuelle Interaktion modifizierter Stratum corneum-Bestandteile mit der penetrierenden Substanz
möglich. Gleichzeitig könnten die Versuche mit längeren Penetrationszeiten wiederholt werden, um
zu überprüfen, ob tatsächlich eine Rechtsverschiebung des Peaks der Konzentration der penetrierten
Substanzen (siehe Kapitel 3.4. und Kapitel 3.5.) in tiefere Hautbereiche stattfindet.
Ein direkter Vergleich penetrationssteigernder Methoden (beispielsweise Mikronadeln und
Plasmajet) wäre interessant, um die verschiedenen Systeme auch quantitativ vergleichen zu können
und zu analysieren, ob die Vorteile der plasmavermittelten Penetrationssteigerung gegenüber der
Mikronadelmethode durch die Menge an penetrierter Substanz ausgeglichen werden können.
Neben den Lipiden könnte auch die Modifikation weiterer Stratum-corneum-Bestandteile ursächlich
für die veränderten Barriereeigenschaften der Haut nach Plasmabehandlung sein. Interessant wäre
deshalb auch die Untersuchung der Stratum-corneum-Peptide und -Proteine vor und nach
Plasmabehandlung.
Um die Reaktion der Haut in vivo auf die Plasmabehandlung besser vorhersagen zu können und damit
die im Rahmen dieser Arbeit erlangten Erkenntnisse in die klinische Praxis übertragen zu können,
sind weitere Studien nötig. Diese könnten die in vitro-Experimente am Schweineohr beispielsweise
auf ein in vivo-Mäusehautmodell übertragen. An einem frischen Mäusehautmodell wäre auch die
Untersuchung längerer Penetrationszeiten sowie die Geschwindigkeit der Hautregeneration und dem
damit Verbundenen Wiederaufbau der Hautbarriere nach Plasmabehandlung möglich.
Nach einer Verifizierung der Ergebnisse in vivo könnten die im Rahmen dieses Projekts gewonnenen
Erkenntnisse in Zukunft auf den klinischen Alltag übertragen werden. Für Langzeittherapien bei
speziellen Patientengruppen mit Problemen bei der oralen Medikamentenaufnahme (beispielsweise
in Form von Resorptionsstörungen im Magen-Darm-Trakt) oder bei einem starken First-Pass-Effekt
des Medikaments in der Leber ist die transdermale Medikamentenapplikation eine
Ausweichmöglichkeit, welche durch eine vorherige Plasmabehandlung der Haut noch verbessert
werden würde.
Im Rahmen des bereits etablierten medizinischen Anwendungsfelds von kaltem
Atmosphärendruckplasma bei der Behandlung chronischer Wunden könnte eine Plasmabehandlung
der Wundränder und angrenzender gesunder Hautbereiche die Penetration von nach der Behandlung
applizierten wundheilungsfördernden Cremes und Gels im betroffenen Gebiet beschleunigen und so
die Heilungsaussichten noch weiter verbessern.
In der DDR wurde im Leistungssport staatlicherseits ein System entwickelt, welches sich unter anderem durch den Einsatz von leistungssteigernden Substanzen auszeichnete. Diese Substanzen zogen häufig schwere somatische Schäden nach sich. Die Sportler*innen wussten in den meisten Fällen nicht, dass sie diese Mittel erhielten und waren häufig minderjährig. Der Alltag der Sportler*innen war meist durch prekäre physische sowie psychische Trainingsbedingungen geprägt. Auf Grund von Schilderungen der Betroffenen, Berichten von Sporthistoriker*innen und Unterlagen des Ministeriums für Staatssicherheit lässt sich vermuten, dass ein erheblicher Teil der Sportler*innen unter psychischen Erkrankungen leidet. Daher sollte die psychische Verfassung überblickshaft dargestellt werden.
Vor diesem Hintergrund wurden Fragebogenpakete an 1200 Proband*innen verschickt, die sich bis zum Erhebungszeitpunkt ratsuchend an die Doping-Opfer-Hilfe e.V. gewendet hatten. Diese Pakete enthielten jeweils 13 Selbstbeurteilungsskalen zur psychischen Symptomatik bzw. Persönlichkeitsmerkmalen. Die Ergebnisse wurden mit einer nach Alter und Geschlecht parallelisierten Stichprobe (N=255) aus der Allgemeinbevölkerung verglichen.
Auf allen untersuchten Skalen konnten signifikante Unterschiede festgestellt werden. Der Großteil der betroffenen Sportlerinnen und Sportler wies eine klinisch-relevante psychische Belastung auf. Exemplarisch hierfür sind eine hohe Punktprävalenz für Posttraumatische Belastungsstörungen (21,1%) und eine klinisch relevante depressive Symptomatik (65,19%).
Vermutlich konnten die negativen Erlebnisse im Kindes- und Jugendalter auf zwei Arten pathogen wirken. Zum einen konnten sie direkt psychische Erkrankungen auslösen und zum anderen fand eine negative Beeinflussung der Entwicklung statt, welche bei den Betroffenen zu einer erhöhten Vulnerabilität gegenüber späteren Stressereignissen führen konnte. Aufgrund des Querschnittsdesigns der Studie müssen potenziell kausale Zusammenhänge jedoch mit Zurückhaltung diskutiert werden. Eine Berücksichtigung der Sportarten bei weiteren Untersuchungen könnte besondere Risikogruppen darstellen.
Modulation der biologischen Wirkung von MikroRNA-1 mittels chemischer Modifikation des RNA-Moleküls
(2021)
In vielen Malignitäten kann eine Dysregulation von miR beobachtet werden. Die reduzierte Expression dieser kleinen, nicht-codierenden RNA resultiert in verlängertem Tumorüberleben, einer gesteigerten Proliferationsrate, verbesserter Angiogenese und Metastasierung von Tumorzellen [1, 2]. Da miR-1 in ihrer Funktion als Tumorsuppressor mehrere onkogene Signal- und Effektorkaskaden supprimieren kann, ist die Erforschung ihres therapeutischen Potenzials von gesteigertem Interesse [1]. Dies zu realisieren eignen sich Prostatakarzinomzellen in besonderem Maße, da dort endogene miR-1 enorm herunterreguliert ist [157].
Die vorliegende Arbeit untersuchte die miR-1 Re-Expressionstherapie zur Hemmung der Tumorprogression auf molekularer Ebene an Prostatakarzinomzellen mit synthetischen miR-1 Molekülen. Darüber hinaus wurde die synthetische miR-1 durch unterschiedliche Substituenten modifiziert, um zu evaluieren ob diese Modifikationen Einfluss auf die biologische Wirkung auf die untersuchten Prostatakarzinomzelllinien haben. Ein weiterer Fokus lag dabei auf der Fragestellung, ob die Position und die chemischen Eigenschaften der Substituenten selbst einen Einfluss auf die miR-1 Effekte ausüben.
Es konnte gezeigt werden, dass die Wiederherstellung der intrazellulären miR-1 Spiegel durch die unmodifizierte, synthetische miR-1 bereits einen hemmenden Effekt auf das Tumorwachstum hatte. Ausserdem deuten die Ergebnisse darauf hin, dass die chemisch synthetisierte und modifizierte miR-1, der unveränderten, synthetischen miR-1 in ihrer tumorsupprimierenden Funktion überlegen sein kann.
Die antiproliferative Wirksamkeit der modifizierten miR-1 Moleküle hing jedoch eher von der Position, als von der Art des modifizierten Nukleotids ab. Es konnte gezeigt werden, dass, unabhängig vom Substituenten, Modifikationen an vermutlich kritischen Positionen sogar ein gesteigertes Tumorwachstum zur Folge hatten. Substituenten an ungünstigen Positionen konnten zu Reduktion der antiproliferativen Effekte von miR-1-Molekülen und somit sogar zu vermehrten Tumorwachstum führen. Dies bietet die Möglichkeit, durch die Auswahl gut charakterisierter miR mit hohem antiproliferativem Potenzial maßgeschneiderte, synthetisch modifizierte miR für die zukünftige, individualisierte Therapie verschiedener Krebsentitäten zu entwickeln.
Diese Studie liefert einen umfassenden Überblick über die Assoziationen der fünf Adipokine Adiponektin, Chemerin, Galektin-3, Leptin und Resistin mit der Menge unterschiedlicher Fettkompartimente sowie metabolischer Risikofaktoren und Phänotypen. Dafür wurden Daten von 4116 Teilnehmern der bevölkerungsbasierten SHIP-TREND-Studie mittels multivariabler linearer und logistischer Regressionsmodelle analysiert.
Adipöse Teilnehmer weisen verglichen mit normalgewichtigen Probanden höhere Chemerin-, Galektin-3- und Leptinkonzentrationen sowie niedrigere Adiponektinkonzentrationen auf. Der Leberfettgehalt sowie die Menge des subkutanen (SAT)- und viszeralen Fettgewebes (VAT) waren jeweils unabhängig voneinander invers mit der Adiponektinkonzentration assoziiert. Zusätzlich konnten unabhängige positive Assoziationen zwischen dem Leberfettgehalt, der Menge des SAT und der Chemerinkonzentration sowie zwischen SAT und der Galektin-3- und Leptinkonzentration beobachtet werden. Bei körperlich inaktiven Teilnehmern vs. körperlich aktiveren Probanden wurde eine höhere Chemerin- und Leptinkonzentration festgestellt. Darüber hinaus wiesen Raucher vs. Nichtraucher eine höhere Chemerin- und Galektin-3-Konzentration sowie eine niedrigere Leptin- und Adiponektinkonzentration auf. Der Alkoholkonsum war positiv mit dem Adiponektin- und invers mit dem Resistinspiegel assoziiert. Alle untersuchten Adipokine zeigten zudem signifikante Assoziationen mit mindestens einem Lipidmarker auf. Mit Ausnahme von Resistin wurden für alle untersuchten Adipokine signifikante Assoziationen mit dem Glukosestoffwechsel festgestellt. Insgesamt war eine hohe Adiponektinkonzentration mit einem vorteilhaften Stoffwechselprofil verbunden, wohingegen eine hohe Chemerin-, Galektin-3- bzw. Leptinkonzentration mit ungünstigen Stoffwechselbedingungen assoziiert war. Interessanterweise scheint eine hohe Leptinkonzentration aber hauptsächlich auf Übergewicht hinzuweisen, wohingegen eine hohe Adiponektin- oder Chemerinkonzentration mit einem breiteren Spektrum metabolischer Phänotypen assoziiert ist. Galektin-3 und Resistin scheinen dagegen nur eine untergeordnete Rolle in Zusammenhang mit metabolischen Phänotypen zu spielen.
Insgesamt trägt die vorliegende Untersuchung zu einem besseren Verständnis der Assoziationen von Adipokinen mit unterschiedlichen Fettkompartimenten, Verhaltensrisikofaktoren und metabolischen Phänotypen bei. Allerdings ist bisher sehr wenig über das gesamte Spektrum der komplexen Physiologie der Adipokine bekannt. Daher sind weitere Studien erforderlich, um Klarheit in diese Zusammenhänge zu bringen.
Da die Prävalenz von Übergewicht und Adipositas weiterhin ansteigt, wird die Prävention sowie die Behandlung von Adipositas und ihren Folgeerkrankungen in Zukunft eine entscheidende Rolle in der Medizin spielen.
Um jedoch passende Präventionsstrategien und Behandlungsmöglichkeiten zu entwickeln, ist es von großer Bedeutung, die pathophysiologischen Grundlagen dieser Volkskrankheit zu erforschen.
Da die Prävalenz erst in den letzten Jahren deutlich angestiegen ist, gibt es bislang nur wenige Langzeitstudien zu Adipositas und ihrem Effekt auf Hirnparameter.
Die vorliegende Studie verwendet jedoch einen Versuchsaufbau, der es ermöglicht strukturelle Adipositaseffekte des Gehirns über einen Zeitraum von durchschnittlich 4,9 Jahren zu dokumentieren. Gleichzeitig ermöglicht diese Arbeit die Beobachtung langfristiger Auswirkungen polygener Adipositas auf die graue Substanz.
Nach standardisierter Erhebung somatometrischer Daten von 502 Probanden, erfolgte die Durchführung von ebenfalls standardisierten MRT-Untersuchungen des Hirns an zwei Messzeitpunkten, jeweils unter den gleichen Bedingungen. Daraufhin erfolgte die statistische Auswertung dieser Daten unter Verwendung einer Zielregion- sowie Globalanalyse. Eine mögliche altersbedingte Verzerrung wurde durch die Adjustierung an das Alter verhindert. Es konnten strukturelle Unterschiede der grauen Substanz des Gehirns dokumentiert und bestätigt sowie eine mögliche Verbindung zwischen hohen BMI-Werten und einer konsekutiven Hirnatrophie formuliert werden.
Die Ergebnisse liefern erste Hinweise auf einen möglichen kausalen Zusammenhang struktureller Adipositas-Effekte auf das Gehirn.
Im Zuge dieser Arbeit wurde herausgefunden, dass hauptsächlich die kortikale Dicke sowie das Volumen des OFC und des AC-MPFC durch einen höheren Ausgangs-BMI-Wert negativ beeinflusst werden. Allerdings ergibt sich aus den vorliegenden Daten kein Hinweis auf einen Zusammenhang zwischen genetisch bedingter BMI-Erhöhung und Hirnatrophie.
Eine Vielzahl von unterschiedlichen Mechanismen könnten dabei eine mögliche Rolle bei der Entstehung einer Hirnatrophie bei adipösen Personen spielen. Um diese besser zu verstehen, sind weitere Studien notwendig und aufgrund der hohen Prävalenzen sicher auch von medizinischem, aber auch wirtschaftlichem Interesse.
Die ex-vivo Wirkung von Spermin und Spermidin auf T-Lymphozyten bei Patienten mit kognitivem Defizit
(2021)
Demenzerkrankungen stellen die Medizin und die Wissenschaft vor eine der größten Herausforderungen des 21. Jahrhunderts. Aufgrund des Fehlens kausaler Therapien werden neue Therapieansätze dringend für die Bewältigung dieser medizinisch herausfordernden Erkrankung benötigt. Vielversprechende Ergebnisse im Hinblick auf ein neues Therapeutikum liefert eine Klinische Studie (Smart-Age) mit einem polyaminreichen Pflanzenextrakt als Nahrungsergänzungsmittel, eingesetzt bei Patienten mit Subjektiver kognitiver Verschlechterung (engl. Subjective Cognitive Decline).
Da die genauen Wirkmechanismen der Polyamine Spermin und Spermidin auf die kognitive Gesundheit noch unzureichend verstanden sind und das Immunsystem eine zentralen Rolle in der Pathogenese der Alzheimer-Demenz einnimmt, war es das Ziel in der vorliegenden Dissertation die Wirkung der beiden genannten Polyamine auf die Aktivierung und Autophagie von T-Lymphozyten und die Zytokinsekretion von PBMC durchflusszytometrisch, anhand einer Studienkohorte kognitiv beeinträchtigter Patienten (Subjektive kognitive Verschlechterung SCD, milde kognitive Beeinträchtigung MCI, milde Alzheimer-Demenz) (n=22) und gesunder, altersäquivalente Kontrollprobanden (n=12), zu untersuchen.
Die Ergebnisse der Arbeit zeigen, dass Spermin und Spermidin die Aktivierung und die Autophagie von T-Lymphozyten dosisabhängig in der Patienten- und der Kontrollkohorte steigert. Spermin führte zu einer dosisabhängig verminderten Zytokinexpression aller 11 untersuchten Zytokine in der Patienten- und der Kontrollkohorte. Spermidin hingegen führte sowohl zu einer vermehrten als auch einer verminderten Expression einzelner Zytokine im Zellkulturüberstand.
In der vorliegenden explorativen Studie konnte somit erstmals prospektiv der Einfluss der Polyamine Spermin und Spermidin auf die T-Lymphozyten Aktivierung, Autophagie und die Zytokinexpression von Patienten im Frühstadium kognitiver Erkrankungen in in-vitro Experimenten gezeigt werden. Verglichen mit einer Kontrollkohorte kognitiv gesunder, altersentsprechender Probanden zeigten sich ähnliche Effekte von Spermin und Spermidin auf die untersuchten Parameter, wobei für einzelne Parameter der Untersuchung eine höhere Sensitivität der Polyaminbehandlung von T-Lymphozyten kognitiv erkrankter Patienten nachzuvollziehen war.
Die Daten dieser Dissertation liefern somit einen ersten Beitrag zur umfassenden Beleuchtung zellulärer Wirkmechanismen einer Polyaminsubstitution in humanen, peripheren Immunzellen bezüglich kognitiver Gesundheit, um hierdurch neue therapeutische Ansätze zur Behandlung dementieller Erkrankungen zu entwickeln.
Ziel:
Es wurde die Inzidenz knöcherner Hand- und Handgelenkverletzungen im WBCT in einem städtischen Traumazentrum der Maximalversorgung untersucht und die Dunkelziffer der übersehenen Frakturen in der primären radiologischen Diagnostik beschrieben. Außerdem wurden assoziierte Faktoren für das Auftreten und das Übersehen von knöcherner Hand- und Handgelenkverletzungen beleuchtet.
Material und Methoden:
Es handelt sich um eine retrospektive Kohortenstudie mit Screening aller WBCT in einem Zeitraum von insgesamt acht Monaten. Im ersten Schritt wurden die Hände- und Handgelenke in drei Ebenen mit einer Schichtdicke von 1-2mm rekonstruiert und diese durch einen unabhängigen Radiologen begutachtet. Anschließend wurden die primären Befunde mit dem Referenztest, der Reevaluation der WBCT, verglichen. Hieraus wurde die diagnostische Genauigkeit des WBCT im Rahmen der primären Befundung abgeleitet. Beeinflussende Faktoren (GCS, Artefakte, Trauma-Mechanismus, begleitende Verletzungen) wurden ermittelt und ein Algorithmus zur Verbesserung der Detektionsrate entwickelt.
Ergebnisse:
Insgesamt wurden 506 WBCT im genannten Zeitraum von 01/2020 bis 08/2020 in die Studie eingeschlossen. Es zeigten sich in 59 (11,7%) WBCT 92 knöcherne Hand- und Handgelenkverletzungen. Distale intraartikuläre Radiusfrakturen traten am häufigsten auf (n=24, 26,1%) und bei 22 Patienten (37,3%) kam es zu multiplen Verletzungen. 4 Fälle wurden primär korrekt als positiv gewertet, was einer äußerst geringen Sensitivität und einer hohen Spezifität des WBCT bei der Primärbefundung entspricht (Sensitivität 6,8%; 95% CI 1,9 - 16,5; Spezifität 100%; 95% CI 99,2 bis 100,0). Nach zusätzlicher, sekundärer Bildgebung und klinischer Neubewertung wurden 43 weitere positive Fälle (72,9%) identifiziert. Insgesamt 12 Verletzungen blieben unentdeckt (20,3%). Motorradunfälle prädisponierten für knöcherne Hand- und Handgelenkverletzungen (22% vs. 10,1% in einer Polytraumavergleichsgruppe ohne Hand-/Handgelenksfrakturen, p=0,006). In 98% der Fälle kam es zusätzlich zu weiteren Frakturen der Extremitäten, wobei nur 37% der Patienten ohne knöcherne Hand- und Handgelenkverletzungen zusätzliche Extremitätenfrakturen aufwiesen (p<0,001). Weitere Aspekte wie die Vigilanz und das Vorliegen von Artefakten stellten keine signifikanten Beeinflussungsfaktoren dar.
Schlussfolgerung:
Die Prävalenz knöcherner Hand- und Handgelenkverletzungen im WBCT nach einem Polytrauma betrug 11,7% in der Kohorte. 93,2% wurden in der Primäruntersuchung übersehen. Knöcherne Hand- und Handgelenkverletzungen gehen oft mit weiteren Frakturen der Extremitäten einher und treten häufiger nach Motorradunfällen auf. Durch wiederholte klinische Bewertungen und sekundäre radiologische Reevaluierung einer WBCT mit multiplanaren Rekonstruktionen der Hände kann die Zahl der übersehenen Frakturen bei Polytraumapatienten reduziert werden.
Bei einem seit vielen Jahren bekannten erhöhten Risiko für MS-Patient:innen epileptische Anfälle zu erleiden, untersuchten wir eine Gruppe von Patient:innen mit diesen beiden Voraussetzungen. Die epileptischen Anfälle können hier als Folge der MS auftreten, aber auch durch Erkrankungen in der Vorgeschichte der Patient:innen begünstigt werden. Für unsere Studie wählten wir einen retrospektiven populationsbasierten Ansatz.
Die finale Studiengruppe bestand aus 59 Personen mit epileptischen Anfällen und MS aus insgesamt 2285 MS-Patient:innen, die in den Zentren Greifswald und Rostock in diesem Zeitraum behandelt wurden. Es zeigte sich eine Prävalenz epileptischer Anfälle bei Patient:innen mit MS-Diagnose von 2,6%. Eine Aufteilung in zwei Subgruppen mit epileptischen Anfällen vor/nach MS-Diagnose, mit 22 vs. 37 Patient:innen, wurde anschließend durchgeführt. Die Patient:innen in der Subgruppe MS-E Gruppe waren durchschnittlich 9 Jahre älter und wiesen einen höheren EDSS aus, verglichen mit der Subgruppe E-MS. Bei 16,9% der Kohorte wurde der epileptische Anfall rückblickend als erstes MS-Symptom gewertet. In 50,8% der Studienpopulation bestanden epileptogene Risikofaktoren in der Vorgeschichte, mit 40,9% (9/22) vs. 56,8% (21/37) in den Subgruppen vor/nach MS-Diagnose. Die häufigsten konkurrierenden Ursachen bestanden in abgelaufenen Schädel-Hirn-Traumata und cerebralen Ischämien, zusammen in mehr als 30% der Fälle. Die Diagnosestellung der epileptischen Anfälle und Epilepsie erfolgte bei 18,6% ohne EEG-Diagnostik, bei erfolgter EEG-Diagnostik bestanden in 58,3% pathologische EEG-Muster. Bei einem Drittel der Patient:innen erfolgte die Diagnosestellung ohne direkte Beobachtung oder EEG-Auffälligkeiten.
Im Vergleich zur Normalbevölkerung zeigt sich in unserer Studienpopulation eine erhöhte Prävalenz epileptischer Anfälle. Die Bedeutung einer adäquaten Diagnostik der epileptischen Anfälle, auch wenn einmalig aufgetreten, stellt sich in unserer Studie dar. Hierbei ist es entscheidend, dass eine EEG-Diagnostik erfolgt und zusätzlich eine ausführliche semiologische Anamnese. Diese sollte idealerweise von Ärzt:innen oder Neurolog:innen mit epileptologischer Erfahrung durchgeführt werden um die Befunde gut einordnen zu können, am besten im Rahmen eines strukturierten Work-ups. Die epileptischen Anfälle können sowohl vor, als auch nach dem Beginn der MS-Symptomatik auftreten und auch die erste Manifestation der Erkrankung darstellen. Alternative Risikofaktoren für epileptische Anfälle sollten sorgfältig erfragt und dokumentiert werden, die Diagnosestellung und Behandlung einer Epilepsie aber nicht verzögern. Es stellte sich in unserer Kohorte kein signifikanter Unterschied in bestehenden Risikofaktoren zwischen den Sub¬gruppen vor/nach MS-Diagnose heraus. Dies spricht dafür, epileptische Anfälle als einen Teil der MS-Erkrankung zu betrachten, der durch Risikofaktoren aber auch die MS-Erkrankung selbst verursacht werden kann.
Die Sepsis stellt ein hoch komplexes, klinisch heterogenes Krankheitsbild dar, das die Medizin und Wissenschaft auf der ganzen Welt vor große Herausforderungen stellt. Obwohl nahezu jeder erfahrene Intensivmediziner Unterschiede zwischen einem Patienten mit abdomineller Sepsis und einem Patienten mit Urosepsis benennen könnte, haben nur sehr wenige Forschungsgruppen diese Unterschiede
weiter untersucht und beschrieben. Jede Sepsis beginnt in einem anatomischen Fokus der Infektion, der sich fast überall im menschlichen Körper befinden kann. Existieren Unterschiede zwischen Patienten mit unterschiedlichem Sepsisfokus? Ist Sepsis vielleicht nicht gleich Sepsis? Um diese Fragen zu beantworten, hat unsere Arbeitsgruppe über einen Zeitraum von acht Jahren die Daten von 816 Sepsispatienten ausgewertet, deren Fokus ausschließlich im Abdomen, Respirationstrakt, Urogenitaltrakt oder den Knochen und Weichteilen lag. Die Patienten wurden über den gesamten Studienzeitraum konsekutiv eingeschlossen und prospektiv auf das Vorliegen einer Sepsis gescreent. Wir verglichen klinische, mikrobiologische und laborchemische Daten zum Sepsiszeitpunkt zwischen den Fokusgruppen und konnten signifikante Unterschiede in allen drei Bereichen beobachten. Beispielsweise war die Inzidenz für das Auftreten eines septischen Schocks bei Patienten mit abdominellem und urogenitalem Fokus signifikant höher als bei den anderen Gruppen. In Bezug auf die mikrobiologischen Unterschiede waren die Urosepsis und die Knochen- und Weichteilsepsis mit deutlich höheren Blutkulturpositivitäten assoziiert. Außerdem unterschied sich das Erregerspektrum zwischen den Gruppen. Des Weiteren konnten wir Unterschiede in den Laborergebnissen der Patienten zum Sepsiszeitpunkt feststellen. Fast die Hälfte der Patienten mit Urosepsis zeigte pathologisch erhöhte PCT-Werte im Vergleich zu nur 15 % der respiratorischen Gruppe. Weiterhin hatten dreimal so viele Patienten mit Fokus im Bereich Knochen/Weichteile eine Hypoalbuminämie wie Patienten der urogenitalen und pulmonalen Gruppe. Darüber hinaus waren die verschiedenen Sepsisfokusse mit Unterschieden in den SOFA-Scores, SIRS-Kriterien und dem Auftreten von Organdysfunktionen zum Sepsisbeginn assoziiert. Die vorliegende Dissertation liefert eindeutige Hinweise auf klinische, laborchemische und mikrobiologische Unterschiede zwischen Sepsispatienten mit verschiedenen Sepsisfokussen zum Beginn der Sepsis. In großen randomisierten Studien sollte den deutlichen Unterschieden zwischen den verschiedenen Sepsisfokussen möglicherweise mehr Aufmerksamkeit geschenkt werden, damit therapeutische Ansätze, welche nur einer Subgruppe helfen, mit ausreichender Fallzahl herausgearbeitet werden können.
Zusammenfassend wurde festgestellt, dass eine Epilepsie im Kindes- und Jugendalter eine insgesamt gute Prognose hat. Von den untersuchten 666 Patienten wurden 65,3 % der Patienten während des Studienzeitraumes anfallsfrei, 29,1 % zeigten eine klinische Besserung.
Den größten prognostischen Vorhersagewert hatte dabei das EEG. Wurde ein normales EEG erreicht, dann wurden auch 96,0 % klinisch anfallsfrei oder verbesserten sich. Ebenfalls betrachtet wurden die initialen EEGs. Es stellte sich heraus, dass Patienten ohne Allgemeinveränderungen im initialen EEG einen besseren Therapieerfolg aufwiesen (85,6 % anfallsfrei oder verbessert).
An zweiter Stelle steht der mentale Status. Kinder mit einer normalen Intelligenz zeigten ein besseres Outcome als Kinder mit einer Lern- oder geistigen Behinderung. Eine IQ-Wert-Veränderung nach Medikamenteneinnahme konnte nicht nachgewiesen werden.
Ebenfalls einen signifikanten Einfluss hatte die Anzahl der Versuche. Die besten Ergebnisse wurden nach dem ersten Versuch erzielt. Mit steigender Versuchszahl verringerte sich der prozentuale Erfolg, aber auch mit mehr als 4 Versuchen konnten noch Verbesserungen oder auch Anfallsfreiheit erzielt werden.
Es zeigte sich, dass auch die Ätiologie einen gewissen Voraussagewert hat. Patienten mit einer idiopathischen Epilepsie hatten eine bessere Prognose als Kinder mit symptomati-schen oder kryptogenen Anfällen. Dabei spielte auch die Art der Epilepsie eine große Rolle, denn darauf bezieht sich die medikamentöse Behandlung. Die besten Ergebnisse zeigten sich bei den benignen Partialepilepsien (90,1% anfallsfrei oder verbessert), den Absencen (65,2 % anfallsfrei oder verbessert) und den primären Grand mal Anfällen (71,4 % anfallsfrei oder verbessert). Schlechter zu behandeln waren die fokalen und die sekundären Grand Mal Anfälle und die größten Schwierigkeiten fand man bei den syndromalen Epilepsien wie BNS-Anfällen und das Lennox-Gastaut Syndrom.
Die am häufigsten verwendeten Medikamente waren Valproat, Lamotrigin, Sultiam, Topi-ramat und Levetiracetam. Eine besonders gute Wirksamkeit zeigte bei Absencen Ethosu-ximid (74,1 % anfallsfrei oder verbessert), bei den benignen Partialepilepsien Sultiam (94,9 % anfallsfrei oder verbessert), bei fokalen Anfällen Oxcarbazepin (71,5 % anfallsfrei oder verbessert) und bei Grand mal Epilepsien Valproat (76,5 % anfallsfrei oder verbessert). Valproat besitzt ein breites Wirkspektrum und führte bei fast allen Anfallsarten zur klinischen Verbesserung oder Anfallsfreiheit. Allerdings zeigte es auch die meisten Nebenwirkungen (31,6 % aller Nebenwirkungen) zu denen Gewichtszunahme, negative Verhaltensänderungen und Sedierung zählten. Insgesamt sind traten in 21,7 % aller medikamentösen Therapieversuchen Nebenwirkungen auf.
Auch die Anzahl der Medikamente spielt eine Rolle bezüglich Prognose und Erfolg. Die besten Ergebnisse zeigten sich unter einer Monotherapie (98,6 % der Patienten mit einer Monotherapie wurden anfallsfrei oder verbesserten sich).
Die neuen Antiepileptika (69,7 % anfallsfrei oder verbessert) haben einen ähnlichen Be-handlungserfolg wie die alten Antiepileptika (71,6 % anfallsfrei oder verbessert). Bei einigen Anfallsarten sind die neuen Medikamente eine Verbesserung 68, 69, 70, 71 und zeigen vor allem einen Vorteil im Nebenwirkungsprofil. Allerdings bestehen noch Lücken in der Zulassung und sie haben höhere Therapiekosten. Vigabatrin wird vor allem bei BNS Anfällen und cortikalen Dysplasien angewendet. Lamotrigin sticht durch das breite Anwendungsspektrum mit wenig Nebenwirkungen hervor. Levetiracetam zeigt im EEG positive Resultate und auch klinisch vor allem bei Grand Mal Anfällen. Es hat keine Interaktionen und im Gegensatz zu Valproat kaum Teratogenität. Oxcarbazepin ist durch weniger Nebenwirkungen bei fokalen Anfällen eine gute Alternative. Aber trotz der höheren Nebenwirkungen sind die alten Antiepileptika unverzichtbar. Sultiam ist weiterhin das Medikament der ersten Wahl bei benignen Partialepilepsien mit einem sehr guten Erfolg.
Es wurde festgestellt, dass in der Kinder- und Jugendklinik der Universitätsmedizin Greifswald eine weitgehend gute Einstellung der Epilepsie erfolgen konnte. Ein Teil der Patienten konnte aber trotz mehrerer Versuche und Medikamente bis zum Ende des Studienzeitpunktes nicht zufriedenstellend behandelt werden. Dies und auch die bestehenden Nebenwirkungen zeigen, dass eine stetige Weiterentwicklung der antikonvulsiven Therapie wichtig ist und angestrebt werden sollte.
Therapeutische Antikörper können unerwartete Wirkungen verursachen, wenn das Zielantigen nicht nur auf den Zielzellen exprimiert wird. Ein gegen das CD38-Antigen gerichteter Antikörper, Daratumumab (DARA), wurde für die Behandlung des multiplen Myeloms entwickelt. Allerdings beeinträchtigt dieser Antikörper erheblich die Verträglichkeitsuntersuchungen zwischen Blutkonserve und Patientenplasma vor der Transfusion von Erythrozytenkonzentraten.
CD38 wird auch auf Erythrozyten (RBCs) exprimiert. Durch die Bindung von DARA an die Spendererythrozyten wird im indirekten Antihumanglobulintest (IAT) eine in vitro Unverträglichkeit mit allen Testerythrozyten angezeigt. Dies wird dadurch verursacht, dass das erforderliche Antihumanglubulin (AHG) humanes IgG bindet, unabhängig davon, welches Zielantigen dieser Antikörper hat. Infolgedessen können Agglutinationen durch transfusionsrelevante Antikörper im Patientenplasma von DARA-induzieretn Agglutinationen nicht unterschieden werden, wodurch das Risiko für akute hämolytische Transfusionsreaktionen steigt.
Daraus ergab sich die Fragestellung für meine Arbeit – eine Modifikation für den IAT zu finden, der diese Interferenz auflöst. Ich habe zwei neue Strategien verfolgt: i) die Adsorption von DARA aus dem Patientenplasma mit CD38-exprimierenden peripheren Blutzellen, ii) die Blockung der DARA-Bindungsstelle auf Erythrozyten, ohne dass die Bindung von transfusionsrelevanten erythrozytären Antikörpern behindert wird.
Für den ersten Ansatz konnte ich PBMCs als die Zellen identifizieren, die die höchste CD38 Expression zeigten. Leider konnte die Inkubation von DARA-gespiktem Plasma selbst nach mehreren Adsorptionsschritten die Interferenz im IAT nicht vollständig beseitigen. Auch die Durchführung der Methode erwies sich als nicht praktikabel für ein Routine-Diagnostiklabor. Für den zweiten Ansatz habe ich mit Hilfe von Pepsin F(ab‘)2 Fragmente von DARA hergestellt um damit die DARA-Bindungsstelle auf den Erythrozyten zu blockieren, damit das AHG nur an gebundene transfusionsrelevante Antikörper bindet. Die Zugabe von DARA F(ab´)2 Fragmenten zu den Testerythrozyten konnte die DARA-induzierten Agglutinationen im IAT verhindern und im Plasma vorhandene erythrozytäre Alloantikörper sichtbar und differenzierbar machen. Weiterhin konnte ich nachweisen, dass die Zugabe von DARA (Fab´)2 Fragmenten nicht die Sensitivität der Teste im Gelzentrifugationstest und im Capture® beeinträchtigt. Experimente mit Plasma von Myelom-Patienten vor und nach der DARA-Infusion bestätigten die Ergebnisse. Die Verwendung von F(ab‘)2 Fragmenten ist ein vielversprechendes Verfahren, um Interferenzen von therapeutischen Antikörpern im IAT der prätransfusionellen Diagnostik aufzulösen - nicht nur für Daratumumab.
Hintergrund: Das gemeinsame Auftreten von verhaltensbasierten Risikofaktoren, speziell das Tabakrauchen, der gesundheitsriskante Alkoholkonsum, Übergewicht/Adipositas und mangelnde körperliche Aktivität stellt eine enorme Herausforderung für die öffentliche Gesundheit dar. Aktuell ist deren Verbreitung sowie deren soziodemografische Prädiktoren bei Krankenhauspatient*innen mit nicht-übertragbaren Erkrankungen unzureichend beschrieben.
Ziel: Zum einen untersuchte diese Arbeit die Verbreitung der vier verhaltensbasierten Risikofaktoren bei Krankenhauspatient*innen. Zum anderen wurden soziodemografische Prädiktoren der verhaltensbasierten Risikofaktoren bei Krankenhauspatient*innen mit nicht-übertragbaren Erkrankungen, d.h. mit kardiovaskulären Erkrankungen, Krebserkrankungen, chronischen Erkrankungen des Atmungssystems sowie Diabetes mellitus Typ II, untersucht.
Methode: An einem Universitätsklinikum in Vorpommern wurde über 17 Monate hinweg ein systematisches Patientenscreening hinsichtlich derer verhaltensbasierten Risikofaktoren sowie soziodemografischen Faktoren durchgeführt. Insgesamt konnten 5.762 Patient*innen im Alter von 18 bis 64 Jahren in die Studie eingeschlossen werden. Zur Feststellung der Verbreitung von verhaltensbasierten Risikofaktoren wurden Häufigkeiten sowie 95%-Konfidenzintervalle ermittelt. Zur Untersuchung von Prädiktoren verhaltensbasierter Risikofaktoren wurden logistische Regressionen durchgeführt.
Ergebnisse: Von allen Krankenhauspatient*innen litten über die Hälfte an nicht-übertragbaren Erkrankungen (n=3.214, 55,7 %). Insgesamt wiesen in allen vier untersuchten Fachabteilungen des Krankenhauses 96,2 % der Patient*innen (58,6 % männlich) mindestens einen und 71,4 % zwei oder mehr verhaltensbasierte Risikofaktoren auf. In der Subgruppe der Krankenhauspatient*innen mit nicht-übertragbaren Erkrankungen waren die Häufigkeiten vergleichbar. Über fast alle Erkrankungsgruppen hinweg zeigte sich, dass es bei den verhaltensbasierten Risikofaktoren zu einem eher homogenen Auftreten hinsichtlich ihrer soziodemografischen Prädiktoren kam.
Diskussion: Es besteht ein ausgesprochener Bedarf an systematischen Screening- sowie Interventionsmaßnahmen bei Krankenhauspatient*innen hinsichtlich ihrer verhaltensbasierten Risikofaktoren. Dabei sollten v.a. multiple Risikoverhaltensmuster gleichzeitig adressiert werden. Maßnahmen zur Prävention sollten zielgruppenorientiert entwickelt und umgesetzt werden, wobei soziodemografische Unterschiede bei verhaltensbasierten Risikofaktoren zu berücksichtigen sind. Im Sinne der Primär-, Sekundär- sowie Tertiärprävention sollte das Auftreten nicht-übertragbarer Erkrankungen bei bislang noch nicht erkrankten Patient*innen verhindert und der Behandlungserfolg sowie die Prognose bei bereits erkrankten Patient*innen verbessert werden.
Die gestörte Glukosetoleranz (engl. impaired glucose tolerance, IGT) ist eines der präsymptomatischen Zustände des Typ-2-Diabetes mellitus (T2DM) und erfordert zur Diagnose einen oralen Glukosetoleranztest (oGTT). Ziele dieser Arbeit waren:
1) die Identifikation einer Metabolitsignatur zur Vorhersage einer IGT,
2) die pathophysiologische Einordnung der bedeutendsten Assoziationen und
3) die Identifizierung von Untergruppen innerhalb der IGT-Population, um so erste
Hinweise auf eine Patientenstratifizierung anhand objektivierbarer Metabolitmarker im
Blut zu erlangen.
Dazu dienten Metabolomdaten basierend auf Massenspektrometrie und Kernspinresonanzspektroskopie von 827 Teilnehmern der Study of Health in Pomerania (SHIP)-TREND. Durch einen targeted und non-targeted Anlayseansatz konnte ein breites Spektrum an Metaboliten erfasst und mithilfe statistischer und bioinformatischer Methoden die Assoziationen zum oGTT-Outcome, zur 2-Stunden Insulinkonzentration und daraus abgeleitet zur IGT, ausgewertet werden. Aus über 100 assoziierten Molekülen konnten beteiligte Stoffwechselwege, wie etwa der Katabolismus von verzweigtkettigen Aminosäuren und Veränderungen im Lipoprotein- und Fettstoffwechsel herausgearbeitet werden. Zudem konnte eine integrative Signatur zur Vorhersage einer IGT abgeleitet werden. Es wurde ein verbessertes IGT-Prädiktionsmodell etabliert, welches auf einer Kombination von Metaboliten und klinischen Merkmalen basiert. Diese Befunde sind jedoch in klinischen Studien zu prüfen. Über Verfahren des maschinellen Lernens konnten zwei Cluster innerhalb der IGT-Population identifiziert werden. Die IGT-Cluster spiegeln möglicherweise unterschiedlich fortgeschrittene IGT-Stadien oder verschiedene Ätiopathogenesen wider. Metabolitsignaturen könnten demnach gegebenenfalls eine frühzeitige Patientenstratifizierung ermöglichen. Somit wären bereits IGT-Patienten einem Risikoprofil zuzuordnen, was eine zuverlässigere T2DM- Risikoprognose erlauben würde. Durch rechtzeitige Präventivmaßnahmen bei IGT-betroffenen Personen könnte die Manifestation eines T2DM unter Umständen verhindert werden.
Die hier vorgestellten Befunde sind jedoch als vorläufig zu betrachten und bedürfen einer Replikation in unabhängigen Studien. Die Subtypen-Klassifizierung sollte idealerweise in einer längsschnittlichen Follow-up-Studie examiniert werden, um eine tatsächliche klinische Relevanz zu belegen. Von besonderer Bedeutung wäre dabei die Untersuchung der IGT-Cluster im Follow-up hinsichtlich eines Ansprechens auf allgemeine Interventionsmaßnahmen wie z.B. Lebensstiländerungen aber auch hinsichtlich einer spontanen IGT-Regredienz oder Progression zu einem T2DM und damit einhergehenden Komplikationen.
Die Grundlamelle der mittleren Nasenmuschel – dreidimensionale Struktur und klinische Anatomie
(2021)
Die Basallamelle der mittleren Nasenmuschel (3BL) ist eine anatomische Landmarkenstruktur, welche in der endoskopischen transnasalen Schädelbasischirurgie verstanden werden muss. Sie besteht aus einem vorderen vertikalen und einem hinteren horizontalen Anteil und erscheint in ihrer einfachsten Darstellung – wenn man sie von der Seite betrachtet – „L“-förmig. In dieser Studie analysierten wir ihre dreidimensionale (3D) Morphologie sowie Variationen mit Fokus auf eine präzise und systematische Beschreibung der angewandten Anatomie.
Digitale Volumentomographien (DVT) von 25 Erwachsenen, 19 Kadaver und 6 Schädeln (insgesamt: 100 Kopfhälften) wurden mit der 3DSlicer-Software untersucht und somit 3D-Modelle der 3BL erstellt. Wir haben eine geometrische Klassifizierung der Form der 3BL eingeführt, basierend auf Segmenten. Wir analysierten ihre Parameter und Beziehung zu benachbarten anatomischen Strukturen.
Bei seitlicher Betrachtung gab es kein konsistentes „L“-förmiges Erscheinungsbild der 3BL, wie es sonst oft zitiert wird. Zur Beschreibung der 3BL wurde eine Klassifikation von 9 Segmentarten verwendet. Die 3BL hatten durchschnittlich 2,95 ± 0,70 Segmente (Median: 3), am häufigsten war die Horizontalplatte (23,05 % aller Segmente), danach die konkav-konvexe Platte (22,71 %) und die Sigmaplatte (22,37 %). Weitere Arten waren selten. Wir identifizierten eine Horizontalplatte in 68 % der Basallamellen, während 32 % der 3BL vertikal gerichtet waren. Die sigma – konkav-konvex – horizontale trisegmentale 3BL war der häufigste Phänotyp (27 %). Insgesamt war das sigma – konkav-konvexe Muster in 42 % erkennbar. 87 % der 3BL hafteten an der Bulla ethmoidalis.
Die Segmentierungsmethode erschien geeignet, die Morphologie der 3BL adäquat zu beschreiben. Diese Studie kann helfen, durch die Klassifizierung der anatomischen Variationen die intraoperative Orientierung während der Siebbeindissektion zu verbessern.
Diese kumulative Doktorarbeit fasst unsere kürzlich erschienene Publikation zusammen [1].
Die Messung der endexspiratorischen Ammoniakkonzentration bei Patienten mit terminaler Niereninsuffizienz während der Dialyse stellt eine neue nicht-invasive Methode zur Evaluation des Dialyseerfolges dar.
Ziel dieser Studie ist es die endexspiratorische Ammoniakkonzentration von Patienten mit terminaler Niereninsuffizienz während der Dialyse zu messen, um einen signifikanten Abfall der endexspiratorischen Ammoniakkonzentration während des Dialysevorganges nachzuweisen. Des Weiteren gilt es Einflussfaktoren auf die endexspiratorische Ammoniakkonzentration vor der Dialyse zu finden sowie eine mögliche positive Korrelation zwischen der endexspiratorischen Ammoniakkonzentration und der Harnstoffkonzentration im Blut zu untersuchen.
Insgesamt wurden 45 Dialysepatienten (22 Frauen, 23 Männer) im Alter zwischen
dem 28. und dem 85. Lebensjahren für diese Studie rekrutiert. Es erfolgte eine standardisierte Befragung der Patienten bezüglich ihrer Vorerkrankungen und kardiovaskulären Risikofaktoren. Die restlichen relevanten Diagnosen wurden aus den Krankenunterlagen entnommen. Neben der Messung der endexspiratorischen Ammoniakkonzentration erfolgten laborchemische Bestimmungen der Ammoniakkonzentration im EDTA-Blut ebenfalls vor und nach der Dialyse. Auch weitere Laborparameter, wie Aspartataminotransferase, Alaninaminotransferase, Gamma-Glutamyl-Transferase, Harnstoff, Kreatinin sowie Hämoglobin HbA1c wurden mitbestimmt. Die Analyse der endexspiratorischen Ammoniakkonzentration erfolgte mittels des durchstimmbaren Infrarotdiodenlasers unter der Anwendung der Absorptionsspektroskopie als eine hoch sensitive und selektive Methode zur Bestimmung der organischen Atembestandteile.
Die Ergebnisse dieser Studie zeigen einen signifikanten Abfall der endexspiratorischen Ammoniakkonzentrationen im Verlauf der Dialyse (mediane Werte: von 236,3 ppb
auf 120,6 ppb (p < 0,001)). Beim genaueren Betrachten des individuellen Verlaufs von Dialysepatienten fällt auf, dass 18 Patienten mit einer hohen endexspiratorischen Ammoniakkonzentration vor der Dialyse (über 300 ppb) einen deutlichen Abfall (> 100 ppb) im Verlauf der Behandlung aufweisen. Von den Patienten, bei denen vor der Dialyse ein niedriger Atemammoniakspiegel (< 300 ppb) erfasst wurde, zeigten sich bei fünf Probanden ein deutlichen Abfall, bei elf Probanden ein geringerer Abfall (< 100 ppb), bei vier Probanden keine signifikante Veränderung (±10 ppb) und bei sieben Teilnehmern eine Erhöhung der endexspiratorischen Ammoniakkonzentration während der Dialyse.
Die statistische Analyse ergab weiterhin eine deutlich positive Korrelation zwischen den Ammoniakkonzentrationen im Blut vor der Dialyse mit den Blutammoniakwerten nach der Dialyse und eine mäßig positive Korrelation zwischen den endexspiratorischen Ammoniakkonzentrationen vor der Dialyse mit den Ammoniakspiegel im Atem nach der Dialyse. Eine schwach positive Korrelation wurde zwischen den endexspiratorischen Ammoniakwerten nach der Dialyse mit den Blutammoniakwerten nach der Dialyse gefunden. Die lineare Regressionsanalyse ergab eine signifikante Assoziation von Nephrektomie und Restdiurese mit den endexspiratorischen Ammoniakwerten, welche vor der Dialyse gemessen wurden. Damit wird verdeutlich, das nephrektomierte Patienten und Patienten mit einer höheren Restdiurese einen deutlichen Abfall der endexspiratorischen Ammoniakkonzentrationen während der Dialyse aufzeigten und somit vermehrt von der Dialyse als Behandlung profitieren.
In Anlehnung an die Ergebnisse dieser Studie, dass im Verlauf der Dialyse ein signifikanter Abfall der endexspiratorischen Ammoniakkonzentration vorliegt, wird eine klinische Etablierung der nicht-invasiven Ammoniakkonzentrationsmessung vor und nach der Dialyse als eine gute Möglichkeit der Überwachung einer Dialysesitzung empfohlen. Aus unserer Sicht sollte am besten die Messung nicht offline mittels Sammelns der Atemproben im Tedlar-Beutel, sondern durch direktes Ausatmen in das Messsystem erfolgen, um den Verlust von an der Oberfläche des Beutels haftenden Ammoniaks zu verhindern. Falls jedoch die offline Methode bevorzugt werden sollte, müsste gewährleistet werden, dass die Atemgasproben so schnell wie möglich analysiert werden, um die Messgenauigkeit zu stärken.
Hand- und Unterarmverletzungen zählen zu den häufig übersehenen Verletzungen bei Polytraumapatienten. Sie sind selten lebensbedrohlich, können jedoch zu dauerhafter Funktionseinschränkung und Einbußen an Lebensqualität führen. Goldstandard für die Diagnostik von Patienten mit Verdacht auf Polytrauma ist ein CT von Kopf, Hals und Körperstamm. Ein einheitliches Protokoll zur Lagerung der Arme ist dabei bisher nicht etabliert. Die Lagerung der Arme wurde bisher vornehmlich nicht im Hinblick auf den Nutzen für die Diagnostik von Verletzungen in diesem Bereich, sondern auf ihre negativen Auswirkungen wie vermehrte abdominelle Bildartefakte und erhöhte Strahlenbelastung betrachtet. Mittel der Wahl zur Diagnostik von Handfrakturen ist gemäß aktueller S3-Leitlinie das konventionelle Röntgen.
Diese Studie stellt unseres Wissens die erste systematische Untersuchung des diagnostischen Potentials des PCT für Hand- und Unterarmfrakturen bei Polytraumapatienten dar. An zwei überregionalen Traumazentren wurden demografische, klinische und Bildgebungsdaten von 426 intubierten Patienten mit der Arbeitsdiagnose Polytrauma analysiert, von denen 66 (15,5 %) Hand- oder Unterarmfrakturen aufwiesen. Rund 75 % der Hand- und Unterarmfrakturen wurden bereits im initialen PCT diagnostiziert. Bei weiteren 14 % erfolgte die Diagnose mittels konventioneller Röntgenaufnahmen innerhalb der ersten 24 Stunden nach Aufnahme. 12 % der Frakturen wurden nach mehr als 24 Stunden, bis zu 40 Tage nach Aufnahme, diagnostiziert. Klinisch auffällige Frakturen sowie solche, die in vollständig abgebildeten Regionen lagen, wurden signifikant häufiger im PCT diagnostiziert, auch wenn fast alle Frakturen selbst im Scanfeld enthalten waren. Eine besonders vollständige Abbildung der oberen Extremität wurde bei Lagerung der Hände auf dem Abdomen beobachtet.
Diese Ergebnisse zeigen eindrücklich, dass das PCT schon jetzt zur frühzeitigen Diagnostik von Hand- und Unterarmfrakturen geeignet ist, insbesondere bei Lagerung der Hände auf dem Abdomen. Vor allem klinisch unauffällige Frakturen, die entsprechend den Leitlinien keine weitere Diagnostik erfahren würden, können durch eine aufmerksame Befundung frühzeitig identifiziert und einer adäquaten Therapie zugeführt werden. Auf Basis der technischen Weiterentwicklungen hinsichtlich Strahlendosis und Bildartefakte sowie der neuen Erkenntnisse hinsichtlich des diagnostischen Potentials des PCT bei Hand- und Unterarmfrakturen sollte die PCT-Diagnostik auch die obere Extremität mit einbeziehen und könnte zusätzliche Röntgenaufnahmen in Zukunft obsolet werden lassen.
Palliative Sedierung (PS) kommt zum Einsatz, wenn schwere Symptome am Ende des Lebens anderweitig nicht gelindert werden können und nimmt in der Palliativmedizin einen immer höheren Stellenwert ein. Es ist nur wenig über die Aufklärung der Patienten und die Durchführung der PS in Deutschland bekannt.
Ziel der Arbeit war es, in einer beobachtenden prospektiven Querschnittsstudie Daten zur Vorbereitung und zum Ablauf der PS auf der Palliativstation und im Hospiz der Universitätsmedizin Greifswald sowie im Rahmen einer spezialisierten ambulanten Palliativversorgung (SAPV) über ein Jahr zu erheben. Dazu wurden in den einzelnen Institutionen einheitliche Aufklärungs- und Dokumentationsbögen eingeführt.
Im Erhebungszeitraum wurden 1124 Patienten behandelt. Insgesamt erhielten 5,25% (n=59) der Patienten eine PS. Es wurden Unterschiede in der Häufigkeit zwischen den Institutionen festgestellt (Palliativstation: 7,65%; Hospiz: 1,85%; SAPV: 4,59%). Sedierte Patienten auf der Palliativstation waren signifikant jünger als nicht sedierte (65,6 vs. 71,1 Jahre) und lebten signifikant häufiger in einer festen Partnerschaft. Die meistgenannte Indikation zur PS war Unruhe, gefolgt von Angst, Delir und fehlender Lebensqualität. Oft war es der Wunsch des Patienten und seiner Angehörigen, eine PS zu starten. Ging es um die Fragen nach dem Beginn der PS, der Tiefe und der Medikation, wurde der Patient deutlich seltener in den Entscheidungsprozess einbezogen als seine Angehörigen. Durchschnittlich dauerten die PS ca. vier Tage mit einer Spannweite von vier Stunden bis 23 Tage. Das am häufigsten genutzte Sedativum war Midazolam, selten in Kombination mit anderen Sedativa. Oft wurden zur Symptomreduktion weitere Medikamente (z.B. Analgetika, Antiemetika, Antipsychotika) verabreicht.
Viele Aspekte sind in den Leitlinien nicht einheitlich definiert und werden in der Literatur kontrovers diskutiert, z.B. psychische Symptome als Indikation für eine PS, künstliche Nahrungs- und Flüssigkeitszufuhr während der PS, sowie die angemessene Tiefe und Beurteilung einer PS. Die Ergebnisse dieser Arbeit zeigen, worauf die Behandler bei der Planung einer PS besonderes Augenmerk legen sollten. Eine frühzeitige Aufklärung des Patienten und seiner Familie mit einer klaren Abgrenzung der PS von der Sterbehilfe ist neben der ständigen Weiterbildung aller Palliativmediziner und Pflegekräfte äußerst wichtig.
Background: Highly accurate detection of intracranial hemorrhages (ICH) on head computed tomography (HCT) scans can prove challenging at high-volume centers. This study aimed to determine the number of additional ICHs detected by an artificial intelligence (AI) algorithm and to evaluate reasons for erroneous results at a level I trauma center with teleradiology services.
Methods: In a retrospective multi-center cohort study, consecutive emergency non-contrast HCT scans were analyzed by a commercially available ICH detection software (AIDOC, Tel Aviv, Israel). Discrepancies between AI analysis and initial radiology report (RR) were reviewed by a blinded neuroradiologist to determine the number of additional ICHs detected and evaluate reasons leading to errors.
Results: 4946 HCT (05/2020-09/2020) from 18 hospitals were included in the analysis. 205 reports (4.1%) were classified as hemorrhages by both radiology report and AI. Out of a total of 162 (3.3%) discrepant reports, 62 were confirmed as hemorrhages by the reference neuroradiologist. 33 ICHs were identified exclusively via RRs. The AI algorithm detected an additional 29 instances of ICH, missed 12.4% of ICH and overcalled 1.9%; RRs missed 10.9% of ICHs and overcalled 0.2%. Many of the ICHs missed by the AI algorithm were located in the subarachnoid space (42.4%) and under the calvaria (48.5%). 85% of ICHs missed by RRs occurred outside of regular working-hours. Calcifications (39.3%), beam-hardening artifacts (18%), tumors (15.7%), and blood vessels (7.9%) were the most common reasons for AI overcalls. ICH size, image quality, and primary examiner experience were not found to be significantly associated with likelihood of incorrect AI results.
Conclusion: Complementing human expertise with AI resulted in a 12.2% increase in ICH detection. The AI algorithm overcalled 1.9% HCT.
Trial registration: German Clinical Trials Register (DRKS-ID: DRKS00023593).