Volltext-Downloads (blau) und Frontdoor-Views (grau)
  • search hit 1 of 1
Back to Result List

Bitte verwenden Sie diesen Link, wenn Sie dieses Dokument zitieren oder verlinken wollen: https://nbn-resolving.org/urn:nbn:de:gbv:9-001354-1

Information Dependency and Its Applications

  • Independence is a basic concept of probability theory and statistics. In a lot of fields of sciences, dependency of different variables is gained lots of attention from scientists. A measure, named information dependency, is proposed to express the dependency of a group of random variables. This measure is defined as the Kullback-Leibler divergence of a joint distribution with respect to a product-marginal distribution of these random variables. In the bivariate case, this measure is known as mutual information of two random variables. Thus, the measure information dependency has a strong relationship with the Information Theory. The thesis aims to give a thorough study of the information dependency from both mathematical and practical viewpoints. Concretely, we would like to research three following problems: 1. Proving that the information dependency is a useful tool to express the dependency of a group of random variables by comparing it with other measures of dependency. 2. Studying the methods to estimate the information dependency based on the samples of a group of random variables. 3. Investigating how the Independent Component Analysis problem, an interesting problem in statistics, can be solved using information dependency.
  • Unabhängigkeit ist ein grundlegendes Konzept in Wahrscheinlichkeitstheorie und Statistik. Wir führen ein Maß ein, das sogenannte "Informationsmaß", um die Abhängigkeit einer Gruppe von Zufallsvariablen zu erfassen. Dieses Maß ist definiert als die Kullback-Leibler-Divergenz einer multivariaten Verteilung in Bezug auf die Produktverteilung der Marginalverteilungen. Im bivariaten Fall ist dieses Maß bekannt als die "gemeinsame Information" beider Zufallsvariablen. Somit hat das "Informationsmaß" eine starke Beziehung zur Informationstheorie.

Download full text files

Export metadata

Additional Services

Search Google Scholar

Statistics

frontdoor_oas
Metadaten
Author: Trung Kien Le
URN:urn:nbn:de:gbv:9-001354-1
Title Additional (English):Information Dependency and Its Applications
Title Additional (German):Informationsabhängigkeit und ihre Anwendungen
Advisor:Prof. Dr. Christoph Bandt
Document Type:Doctoral Thesis
Language:English
Date of Publication (online):2012/12/04
Granting Institution:Ernst-Moritz-Arndt-Universität, Mathematisch-Naturwissenschaftliche Fakultät (bis 31.05.2018)
Date of final exam:2012/11/28
Release Date:2012/12/04
GND Keyword:Informationsabhängigkeit, konsistente Schätzung, stichprobenabhängige Partitionsregel, Darbellay-Vajda Partitionsregel, Unabhängigkeitanalyse
Faculties:Mathematisch-Naturwissenschaftliche Fakultät / Institut für Mathematik und Informatik
DDC class:500 Naturwissenschaften und Mathematik / 510 Mathematik