Im Sommersemester 2016 habe ich die Vorlesung Mustererkennung von Professor Beyerer (Leiter des Lehrstuhl für Interaktive Echtzeitsysteme und Fraunhofer IOSB) besucht. Die Vorlesung befasst sich ausschließlich mit Merkmalsextraktion und Klassifikation, alle vorhergehenden Schritte in Mustererkennungssystemen werden in anderen Vorlesungen behandelt. Somit liegt der Fokus auf der mathematischen Schätztheorie.
Fast alle Themen hat Prof. Beyerer mathematisch hergeleitet und so versucht, ein tiefgehendes Verständnis für die Methoden der Mustererkennung zu vermitteln, anstatt nur bloße “Kochrezepte” vorzustellen. Das hat mir sehr gut gefallen, ist aber nicht jedermanns Sache - heißt nämlich auf der anderen Seite, dass man recht tief in die Wahrscheinlichkeitstheorie und lineare Algebra eintaucht und sich mit Herleitungen plagen muss. Außerdem ist die Vorlesung dadurch sehr umfangreich und erfordert viel Nachbereitung. Wen das nicht abschreckt, dem sei die Vorlesung empfohlen.
Vorlesung
Mir hat auch sehr gut gefallen, dass die Vorlesung aufgezeichnet wird und anschließend übers Internet wiedergegeben werden kann (Audio + Folien). Zur Prüfungsvorbereitung war das sehr nützlich. Ich habe einen Mitschrieb von der Vorlesung angefertigt, wer den haben möchte, schreibe mir eine Mail (siehe Impressum). Die Prüfung ist seit 2015 schriftlich.
Wer zusätzliche Literatur sucht, dem sei das Buch Pattern Classification von Duda, Hart und Stork ans Herz gelegt. Professor Beyerer verwendet viele Beispiele aus dem Buch, dort kann man sich die Erklärung noch mal in Ruhe durchlesen.
Inhalt
Zunächst wird definiert, was ein Merkmal ausmacht, wie Merkmale miteinander verglichen werden können und wie die Merkmalsanzahl reduziert werden kann. Anschließend wird die Bayes’sche Entscheidungstheorie vorgestellt, um zu zeigen, wie optimale Entscheidungen getroffen werden.
In den nächsten Kapiteln der Vorlesung werden Methoden vorgestellt, um aus (klassifizierten) Lernstichproben auf deren Verteilungen \(p(m|\omega)\) zu schließen. Dazu werden parametrische Ansätze behandelt (Verteilung bekannt, es werden nur die Parameter geschätzt, beispielsweise \(\mu\) und \(\sigma\) einer Normalverteilung). Außerdem werden auch nicht-parametrische Ansätze vorgestellt, in denen die komplette Verteilungsfunktion aus der Stichprobe geschätzt wird.
Im letzten Teil der Vorlesung werden noch spezielle Klassifikatoren behandelt, die basierend auf den geschätzten Klassenbedingten Wahrscheinlichkeiten aus den vorigen Kapiteln (\(p(m|\omega)\)) besonders gute Ergebnisse liefern, das heißt möglichst nah ans theoretische Maximum der Klassifikationsleistung kommen. Bekannte Vertreter sind Perzeptrons und neuronale Netze, K-Nearest-Neigbour und Support Vector Machines. Außerdem werden Verfahren behandelt, um verschiedene Klassifikatoren zu kombinieren und so die Leistung zu steigern.
ähnliche Vorlesungen
Wem diese Vorlesung gefallen hat, der könnte sich auch für folgende Vorlesungen der Informatik- sowie der Elektrotechnik-Fakultät interessieren:
- Automatische Sichtprüfung und Bildverarbeitung, ebenfalls von Prof. Beyerer
- Angewandte Informationstheorie von Herrn Jäkel (CEL)
- Nachrichtentechnik 2 von Herrn Jäkel (CEL) - Hier geht es auch um Schätztheorie
- Neuronale Netze von Prof. Waibel