Curse of dimensionality

Moderator: Moderatoren

Antworten
Niklas
Beiträge: 26
Registriert: Do 31. Jul 2008, 07:03

Curse of dimensionality

Beitrag von Niklas » Mo 27. Sep 2010, 11:09

Hallo zusammen,
kann hier vielleicht nochmal jemand erklären was genau am "Curse of dimensionality" schlecht / gut ist. Auf den Folien findet sich ja nur der Satz
Eine steigende Anzahl von Dimensionen der Beobachtungsvektoren erfordert exponentiell ansteigende Anzahl von Trainingsdaten!
Aber warum genau erfordert eine steigende Anzahl von Dimensionen mehr Trainingsdaten. Mal abgesehen davon, dass es Platzverschwedung ist und unnötig Speicher- und Rechenleistung benötigt, wenn der Beobachtungsraum zu 80% leer ist fällt mir kein weiterer Kritikpunkt auf.

Danke schonmal
niklas

IriZ
Beiträge: 469
Registriert: Sa 19. Apr 2008, 20:35

Re: Curse of dimensionality

Beitrag von IriZ » Mo 27. Sep 2010, 13:57

Genau das wurde ich gefragt...:)
So wirklich erklären konnte ich es auch nicht, aber Herr Aach meinte, dass auch bei unendlich viel Speicherplatz und unendlich guter Rechenleistung der leere Beobachtungsraum das Problem darstellt. Je mehr Dimensionen, desto mehr Trainingsdaten braucht man um überhaupt ein wenig Informationen aus den Daten ziehen zu können. Wenn du dich an die Gummibärchen erinnerst, dort war der Farbraum sehr leer, nachdem die Daten von einer Tüte Gummibärchen drin waren. Wenn mehr Dimensionen da sind, steigt der Bedarf an Trainingsdaten exponentiel an um auch nur annähernd abschätzen zu können, wie sich irgendwas verhält.
Schwammige Erklärung, aber was besseres fällt mir grad nicht ein. Frag nochmal nach, wenn du was genauer wissen willst :)

Antworten

Zurück zu „Mustererkennung in Bilddaten“