Header logo is


2017


no image
Elements of Causal Inference - Foundations and Learning Algorithms

Peters, J., Janzing, D., Schölkopf, B.

Adaptive Computation and Machine Learning Series, The MIT Press, Cambridge, MA, USA, 2017 (book)

ei

PDF [BibTex]

2017


PDF [BibTex]


no image
New Directions for Learning with Kernels and Gaussian Processes (Dagstuhl Seminar 16481)

Gretton, A., Hennig, P., Rasmussen, C., Schölkopf, B.

Dagstuhl Reports, 6(11):142-167, 2017 (book)

ei pn

DOI [BibTex]

DOI [BibTex]

2012


no image
Experimentelle Induktion beeinträchtigter Aufmerksamkeit im Kontext des seductive detail Effekts

Wirzberger, M.

University of Hagen, 2012 (thesis)

Abstract
Die vorliegende Arbeit untersucht ausgehend von der Cognitive Theory of Multimedia Learning (CTML) einen aufmerksamkeitsbezogenen Erklärungsansatz für den seductive detail Effekt. Dieser Effekt resultiert aus dem Einfügen interessanter, jedoch irrelevanter Informationen in einen Lerntext, die die Lernleistung beeinträchtigen. Im Besonderen steht hier die Hypothese im Fokus, dass sich seductive details stärker auswirken, wenn bereits eine Beeinträchtigung der Aufmerksamkeit vorliegt. Im Rahmen einer experimentellen Erhebung mit 53 Studierenden wurde anhand eines 2x2-faktoriellen, multivariaten Designs die Anwesenheit von seductive details (durch seduktive Textpassagen), sowie beeinträchtigter Aufmerksamkeit (durch die Einblendung ablenkender Systemmitteilungen), gezielt manipuliert und deren Effekt auf die Behaltens- und Verstehensleistung, sowie die Lernzeit erfasst. In den Analysen zeigte sich eine signifikante Verlängerung der Lernzeit durch das Einfügen seduktiver Textpassagen, und darüber hinaus wurde auch ein moderierender Einfluss des bestehenden Aufmerksamkeitsniveaus deutlich. Weder die Behaltens- noch die Verstehensleistung verringerte sich jedoch signifikant durch das Hinzufügen von seductive details oder die Induktion beeinträchtigter Aufmerksamkeit, und auch eine signifikante Wechselwirkung zwischen beiden Aspekten wurde nicht deutlich. Daher wird abschließend die Relevanz komplexer statistischer Analyseverfahren zur weiteren Erhellung der zugrundeliegenden Wirkmechanismen diskutiert.

re

DOI [BibTex]

2000


no image
Advances in Large Margin Classifiers

Smola, A., Bartlett, P., Schölkopf, B., Schuurmans, D.

pages: 422, Neural Information Processing, MIT Press, Cambridge, MA, USA, October 2000 (book)

Abstract
The concept of large margins is a unifying principle for the analysis of many different approaches to the classification of data from examples, including boosting, mathematical programming, neural networks, and support vector machines. The fact that it is the margin, or confidence level, of a classification--that is, a scale parameter--rather than a raw training error that matters has become a key tool for dealing with classifiers. This book shows how this idea applies to both the theoretical analysis and the design of algorithms. The book provides an overview of recent developments in large margin classifiers, examines connections with other methods (e.g., Bayesian inference), and identifies strengths and weaknesses of the method, as well as directions for future research. Among the contributors are Manfred Opper, Vladimir Vapnik, and Grace Wahba.

ei

Web [BibTex]

2000


Web [BibTex]