pokaz koszyk
rozwiń menu
tylko:  
Tytuł książki:

Klasyfikator Hierarchiczny z nakładającymi się grupami klas

Autor książki:

Igor T. Podolak

Dane szczegółowe:
Wydawca: Wydawnictwo Uniwersytetu Jagiellońskiego
Rok wyd.: 2012
Oprawa: miękka
Ilość stron: 148 s.
Wymiar: 176x250 mm
EAN: 9788323334446
ISBN: 978-83-233-3444-6
Data: 2013-02-05
Cena wydawcy: 37.80 złpozycja niedostępna

Opis książki:

W czasach, gdy ilość i rozmiar danych stają się ogromne, istnieje duże zapotrzebowanie na podejścia do klasyfikacji, które będą skuteczne w rozwiązywaniu takich problemów. W niniejszej pracy przedstawiono algorytmy i związane z nimi zagadnienia wielopoziomowego, hierarchicznego klasyfikatora. Nowością w zaproponowanym ujęciu jest schemat podziału na podzadania przez podział przestrzeni rozpoznawanych klas obiektów. Algorytm wykorzystuje w tym celu wiedzę zdobytą przez mało dokładnie nauczone, "słabe" klasyfikatory. Ich słabość pozwala na szybkie nauczanie niewymagające wielu doświadczeń. Taki mechanizm umożliwia budowę silnego klasyfikatora na kolejnych dodawanych poziomach. Autor prezentuje podstawowe zasady hierarchicznej klasyfikacji, nowe definicje słabego klasyfikatora, szczegółowy opis modelu oraz doświadczenia pokazujące skuteczność podejścia. Książka przedstawia oryginalne rezultaty, które częściowo już znalazły swoje miejsce w literaturze światowej we wcześniejszych publikacjach autora. Z recenzji prof. Leszka Rutkowskiego (Politechnika Częstochowska) W monografii został przedstawiony oryginalny model klasyfikatora, który może być wykorzystany jako skuteczne narzędzie klasyfikacji obrazów. Z recenzji prof. Mariusza Flasińskiego (Uniwersytet Jagielloński) Dr Igor Podolak jest informatykiem pracującym na Wydziale Matematyki i Informatyki Uniwersytetu Jagiellońskiego w Krakowie. Specjalizuje się w problematyce sztucznej inteligencji, a szczególnie w zagadnieniach klasyfikacji z wykorzystaniem złożonych systemów.

Książka "Klasyfikator Hierarchiczny z nakładającymi się grupami klas" - Igor T. Podolak - oprawa miękka - Wydawnictwo Uniwersytetu Jagiellońskiego. Książka posiada 148 stron i została wydana w 2012 r.

Spis treści:

Spis rysunków VII
Spis tabel IX
Wprowadzenie XI

Wstęp 1

1. Podział zadania klasyfikacji 9
1.1. Klasyfikator 10
1.2. Podział przestrzeni klas 10
1.2.1. Losowa symulacja klasyfikatora dla podproblemu 15
1.2.2. Symulacja z wykorzystaniem prawa Bayesa 17
1.2.3. Wykorzystanie ewaluacji ryzyka w rzeczywistym problemie 19
1.3. Wykorzystanie słabych klasyfikatorów 24

2. Klasyfikator Hierarchiczny HCOC 33
2.1. Podział przestrzeni wyjściowej klas 33
2.1.1. Klastry i ich nakładanie się 37
2.2. Definicja HCOC 38
2.2.1. Macierz klastrowania F 40
2.3. Ewaluacja klasyfikatora HCOC 46
2.3.1. Agregacja wyników klasyfikacji w modelach złożonych 46
2.3.2. Wagi klastrów HCOC 47
2.3.3. Ewaluacja poddrzew 49
2.3.4. Zależność wag klastrów od składowych klas 55
2.4. HCOC jako rozwiązanie zadania przez podział 57
2.4.1. Klasyfikacja przykładów 60
2.5. Nauczanie pojedynczych węzłów 63
2.6. Zadanie klastrowania 65
2.6.1. Rozszerzenie algorytmu klastrowania aglomeratywnego 66
2.6.2. Bayesowskie podejście do klastrowania 67
2.6.3. Urównoleglenie klastrowania przy wykorzystaniu algorytmu Rosnacego Gazu Neuronowego GNG 70
2.6.4. Wykorzystanie metod genetycznych dla klastrowania 73
2.6.5. Inne funkcje dopasowania 74
2.6.6. Alternatywne klastrowanie dla lasu drzew decyzyjnych 76
2.6.7. Problem zapewnienia różnorodności klasyfikatorów 77
2.7. Zbieżność nauczania HCOC 79
2.7.1. HCOC jako złożony klasyfikator 79
2.7.2. Błąd HCOC a słabość klasyfikatorów bazowych 84
2.7.3. Zależność błędu HCOC od błędu generalizacji 84

3. Eksperymenty i doświadczenia 89
3.1. Eksperyment Mixture of Gaussians dla wielu klas wyjściowych 89
3.2. Rozpoznawanie przedmiotów z bazy COIL i porównanie z innym modelem hierarchicznym 93
3.3. Zbiory porównawcze z repozytoriów 94
3.4. Klasyfikacja tekstur 94
3.5. Zastosowania w teorii automatów 96
3.6. Rozpoznawanie twarzy 99
3.7. Ekstrakcja reguł 102
Zakończenie 107

Dodatek A. Problemy nauczania maszynowego 109
A.1. Nadzorowane nauczanie maszynowe 109
A.2. Atrybuty przykładów uczących 109
A.3. Funkcje kosztu i ryzyka 110
A.4. Klasyfikatory „monolityczne” 111
A.5. Klasyfikatory złożone 113
A.6. Agregacja wyników 115
A.7. Sposoby selekcji końcowej klasy 117
A.8. Podejścia przy aglomeratywnym klastrowaniu 117
A.9. Algorytm GNG 118
A.10.Niektóre miary różnorodności 118
A.11.Rozkład Beta 120
A.12.Rozkład Dirichleta 121
A.13.Walidacja krzyżowa i błąd Err(0.632) 122

Bibliografia 125
Skorowidz pojęc 135