Survey
* Your assessment is very important for improving the workof artificial intelligence, which forms the content of this project
* Your assessment is very important for improving the workof artificial intelligence, which forms the content of this project
Reading and Discussion Course on Statistical Learning and Data Mining Dozent: Betreuer: Prof. Dr. Fabian Theis Raum: 02.08.039 Tel.: +49 89 289-17961, Email: [email protected] Dr. Christiane Dargatz Raum: 02.08.039 Tel.: +49 89 289-17961, Email: [email protected] Homepage: http://www-m12.ma.tum.de/lehre/ReadingCourse_SS11/index.html Termin für Vorbesprechung: erste Vorlesungswoche (siehe Homepage) Raum: siehe Homepage Verwendbarkeit: Masterstudiengang Mathematik Voraussetzungen: Statistik: Grundlagen, Stochastik 1 und 2 mit Statistikpraktikum, Softwaregrundkenntnisse in MATLAB und R Übungen: keine ECTS: 3 (Vergabe nach Präsentation sowie aktiver Beteiligung an den Diskussionen) Teilnehmerzahl: begrenzt auf 10 Sprache: Deutsch/Englisch Inhalt: Im Zeitalter ständig wachsender Computerresourcen und Speichermöglichkeiten wird die Analyse riesiger Datensätze immer wichtiger. Dies ist in den verschiedensten Bereichen, wie etwa auf Finanzmärkten, im Marketing, in der Biologie oder auch der Medizin, von größtem Interesse. Eine Methode zur Aufarbeitung dieser Datensätze ist das sogenannte statistische Lernen bzw. die statistische Datenanalyse. Der Kurs behandelt hierzu sowohl unüberwachte als auch überwachte Methoden. Zu jenen gehören u.a. Principal Component und Independent Component Analysen, Cluster Algorithmen (k-means Algorithmus, Gaußsche Mischmodelle, hierarchisches Clustern), lineare und Kernel Methoden zur Klassifizierung, Support Vector Maschinen, neuronale Netze, aber auch Expectation Maximization und Bootstrapping Algorithmen. Da der Forschungsschwerpunkt unserer Gruppe (http://www.helmholtz-muenchen.de/en/cmb/) auf der Modellierung biologischer Systeme liegt, werden wir, wenn angebracht, die Methoden an Beispielen aus der Biologie oder der Biomedizin illustrieren. Ziele und Ablauf: Die TeilnehmerInnen sollen sich durch angeleitetes Selbststudium mit einer wissenschaftlichen Arbeitsweise vertraut machen. Dazu bearbeitet jede/r Studierende wöchentlich selbständig ein Buchkapitel. Jeweils eine Person fasst das Thema in einem ca. 30-45 minütigen Vortrag zusammen, welcher unter anderem als Diskussionsgrundlage dienen soll. Neben der fachlichen Thematik liegt das Ziel des Kurses vor allem in der Stärkung der Diskussionsfähigkeit. Reading and Discussion Course on Statistical Learning and Data Mining Themen: Topic 1: Overview of Supervised Learning Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapters 1-2. Topic 2: Linear Methods for Regression Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapter 3. Topic 3: Linear Methods for Classification Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapter 4. Topic 4: Basis Expansions and Regularization Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapter 5. Topic 5: Kernel Smoothing Methods Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapter 6. Topic 6: Model Assessment and Selection Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapter 7. Topic 7: Model Inference and Averaging Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapter 8. Topic 8: Neural Networks Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapter 11. Topic 9: Support Vector Machines Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapter 12. Topic 10: Prototype Methods, Nearest-Neighbors and Introduction to Unsupervised Learning Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapters 13, 14.1 & 14.3. Topic 11: Principal and Independent Component Analysis Literature: T. Hastie, R. Tibshirani, J. H. Friedman; The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer-Verlag, New York, 2009 – Chapters 14.5 & 14.6. A. Hyvärinen, J. Karhunen, and E. Oja; Independent Component Analysis, John Wiley & Sons, Inc., New York, 2001 – Chapters 6.1, 6.3, 6.5, 7.1-7-3.