META-UCZENIE W INTELIGENCJI OBLICZENIOWEJ

Spis treści

50.40

Na stanie

Spis treści

1 Wprowadzenie
2 Od algorytmów uczących się do algorytmów meta-uczenia
3 Podstawy meta-uczenia
3.1 Kroswalidacja używana do uczenia maszyn
3.1.1 Quasi-gradientowy algorytm ważenia cech
3.1.1.1 Przykłady rezultatów uzyskanych algorytmem ważenia cech
3.1.2 Zmodyfikowany algorytm uczenia maszyn wektorów wsparcia
3.2 Komitety maszyn i meta-uczenie
3.2.1 K -klasyfikatorów
3.2.2 K2 -klasyfikatorów
3.2.3 Podstawowe typy modułów decyzyjnych komitetów klasyfikujących
3.2.4 Boosting i AdaBoost
3.2.5 Arcing
3.2.6 RegionBoost
3.2.7 Grading
3.2.8 Stacking
3.2.9 Heterogeniczne komitety z kompetencją
3.2.9.1 Komitety homo-czy heterogeniczne?
3.2.9.2 Moduły decyzyjne
3.2.9.3 Sposoby korzystania z kompetencji maszyn
3.2.9.4 Komitety kroswalidacyjne i ich rola w estymacji globalnej kompetencji
3.2.9.5 Wyznaczenie kompetencji lokalnej
3.2.9.6 Ważona lokalna kompetencja
3.2.9.7 Kompetencja lokalna i komitety kroswalidacyjne
3.2.9.8 Lokalna ważona kompetencja z komitetami kroswali-dacyjnymi
3.2.9.9 Łączenie globalnej i lokalnej kompetencji w jednym komitecie maszyn
3.2.9.10 Analiza rezultatów użycia omawianych komitetów
3.2.10 System sieci neuronowych z meta-uczeniem topologii
3.2.11 Inne podejścia do budowy komitetów: miary różnorodności
3.3 Meta uczenie w oparciu o meta-charakterystyki
3.3.1 Pierwsze charakterystyki problemów
3.3.2 AST, czyli narzędzie wyboru algorytmu
3.3.3 System NOEMON i modyfikacje
3.3.4 Statyczne rankingi oparte o meta-wiedzę
3.3.5 Ranking skupiający
3.3.6 Inne podejścia oparte o charakterystyki danych
3.4 Inne metody meta-uczenia
3.4.1 Meta-uczenie przez Landmarking
3.4.2 Przeszukiwania wokół metod minimalno-odległościowych
3.4.3 System GAME
3.4.4 Systemy typu Inteligentnych Asystentów Danych
3.4.4.1 System IDEA
3.4.4.2 System GLS
3.5 O niewystarczalności różnych koncepcji meta-uczenia
3.5.1 Analiza algorytmów selekcji instancji
3.5.2 Analiza algorytmów ważenia cech w oparciu o metody rankingowe
3.5.2.1 Wybrane metody rankingów cech
3.5.2.2 Schematy transformacji rankingów w wektory wag
3.5.2.3 Analiza metod ważenia cech
4 Uniwersalna architektura systemu inteligencji obliczeniowej
4.1 Elementy systemu inteligencji obliczeniowej
4.1.1 Maszyna
4.1.2 Wejścia i wyjścia maszyn
4.1.3 Konfiguracja maszyny
4.1.3.1 Deklaracje wejść i wyjść maszyny
4.1.3.2 Deklarowanie konfiguracji podmaszyn
4.1.3.3 Deklaracja typu losowości
4.1.3.4 Unikalne identyfikatory konfiguracji i ich rola
4.1.3.5 Deklaracje innych elementów konfiguracji
4.1.4 Wiązanie wejść — definiowanie powiązań wejść ze źródłami danych
4.1.5 Struktura konfiguracji maszyny a struktura maszyny
4.1.6 Konteksty maszyn
4.1.7 Maszyna schemat
4.1.8 Maszyna repeater
4.1.9 Szablony maszyn
4.1.10 Uniwersalne repozytoria
4.2 Unifikacja maszyn i mechanizm podwójnej pamięci podręcznej maszyn
4.2.1 Określenie zadania unifikacji
4.2.2 Pamięć podręczna maszyn i proces unifikacji
4.2.3 Funkcjonalności pamięci podręcznej maszyn
4.2.4 Przykład użycia mechanizmu unifikacji
4.2.5 Unifikacja skrośna
4.3 Dyskowy system pamięci podręcznej
4.3.1 Struktura dyskowej pamięci podręcznej
4.3.2 Opis struktur danych wspomagających efektywną realizacje pamięci podręcznej
4.3.3 Realizacja operacji na pamięci podręcznej
4.4 Nadzorowanie procesów losowych i ich wpływu na proces unifikacji
4.4.1 Typy losowości maszyn
4.4.2 Sterowanie typami losowości
4.4.3 Przykład pracy systemu automatycznego sterowania losowością maszyn
4.5 Proces tworzenia maszyny i system kolejkowania zadań
4.5.1 Zlecenie tworzenia maszyn i mechanizm oczekiwania wykonania uczenia grup maszyn
4.5.1.1 Limitery
4.5.1.2 Mechanizm realizacji zadań dla grupy zleceń
4.5.2 Etapy tworzenia maszyny
4.5.3 Kontrola gotowości wejść
4.5.4 System unifikacji maszyn
4.5.5 Spooler zadań
4.5.5.1 Hierachiczny system priorytetów zadań uczenia
4.5.5.2 Funkcje dodawania zadania i pobierania zadania
4.5.5.3 Periodyczna kontrola limiterów
4.5.6 Klaster spoolerów zadań
4.6 System zbierania i analizy wyników
4.6.1 Deponowanie rezultatów opisujących procesy adaptacji maszyn, repozytoria rezultatów maszyn i komentatory
4.6.1.1 Komentatory
4.6.2 System zapytań do zbierania rezultatów z repozytoriów
4.6.2.1 Kwalifikatory maszyn
4.6.2.2 Kwalifikatory etykiet
4.6.2.3 M-kolekcja, czyli wynik systemu zapytań
4.6.2.4 Przykłady zapytań
4.6.3 Transformacje m-kolekcji
4.6.3.1 Transformacje testów statystycznych
4.6.3.2 Transformacje manipulujące na m-kolekcjach i przykłady ich użycia
4.6.3.3 Transformacje algebraiczne na kolekcjach
4.6.4 Inne własności systemu inteligencji obliczeniowej
5 Uniwersalna maszyna optymalizacji meta-parametrów (UMOM)
5.1 Uniwersalna maszyna optymalizacyjna (UMOM)
5.1.1 Scenariusze optymalizacyjne i ich funkcje
5.1.2 Algorytm optymalizacji UMOM
5.2 Realizacje scenariuszy optymalizacyjnych
5.3 Ontologia metod optymalizacji maszyn uczących
5.3.1 Automatyczny dobór scenariusza dla elementów konfiguracji maszyn
5.3.2 Automatyczny dobór scenariusza dla całej konfiguracji maszyn
5.3.3 Metody wyznaczania meta-wiedzy dla optymalizacji maszyną UMOM
6 Konstrukcje zaawansowanych algorytmów meta-uczenia
6.1 Ogólny schemat algorytmów meta-uczenia
6.2 Problem określania konfiguracji meta-uczenia
6.2.1 Startowa postać przestrzeni przeszukiwania
6.2.2 Definicja celu meta-uczenia
6.2.3 Definicja kryterium stopu dla algorytmu meta-uczenia
6.2.4 Repozytoria z początkowym stanem meta-wiedzy
6.3 Funkcyjna forma opisu przestrzeni przeszukiwania w meta-uczeniu
6.3.1 Dekompzycja problemu uczenia
6.3.2 Dynamiczne określanie przestrzeni maszyn dla meta-uczenia poprzez grafy generatorów
6.3.2.1 Graf generatorów i generator konfiguracji maszyn
6.3.2.2 Dekompozycja statyczna i dynamiczna
6.3.2.3 Zbiorowy generator konfiguracji maszyn
6.3.2.4 Szablonowy generator konfiguracji maszyn
6.3.3 Zaawansowane generatory i dekompozycja dynamiczna
6.3.3.1 Zaawansowany generator konfiguracji komitetów korzystający z meta-wiedzy
6.3.3.2 Generatory rozszerzania bazy cech i mechanizm abstrahowania
6.3.3.3 Podsumowanie własności generatorów konfiguracji maszyn
6.4 Elementy głównego algorytmu meta-uczenia
6.4.1 Inicjalizacja algorytmu meta-uczenia
6.4.2 Startowanie zadań testowych
6.4.3 Analiza zakończonego zadania testowego, mechanizm kwarantanny
6.4.3.1 Moduł atrakcyjności maszyn
6.4.3.2 Mechanizm kwarantanny
6.4.4 Interpretacja rezultatów meta-uczenia
6.5 Aproksymacja złożoności maszyn uczących
6.5.1 Złożoność i jej związki z meta-uczeniem
6.5.1.1 Złożoność Kolmogorova i Levina
6.5.1.2 Od uniwersalnego przeszukiwania Levina do meta-uczenia sterowanego złożonością
6.5.1.3 Złożoność maszyn i optymalne szeregowanie zadań testowych
6.5.1.4 Miara złożoności i mechanizm kwarantanny
6.5.1.5 Złożoność i korekta atrakcyjności maszyny
6.5.1.6 Czynniki wpływające na całokształt złożoności maszyny i rola zadania testowego
6.5.2 Meta-ewaluatory
6.5.2.1 Elementy ewaluatora maszyny
6.5.2.2 Elementy ewaluatora klasyfikatora
6.5.2.3 Elementy ewaluatora aproksymatora
6.5.2.4 Evaluator transformera danych
6.5.2.5 Ewaluator metryki
6.5.2.6 Ewaluator danych
6.5.2.7 Inne ewaluatory
6.5.3 Ewaluatory uczące się i moduł aproksymatorów złożoności
6.5.3.1 Konstrukcja ewaluatorów uczących się i moduł aproksymatorów złożoności
6.5.3.2 Rozszerzona funkcjonalność EvaluatorBase
6.5.3.3 Warstwy i poziomy modułu aproksymacji złożoności
6.5.3.4 Określanie środowiska służącego do zbierania danych uczących aproksymatory
6.5.3.5 Konstrukcja i uczenie meta-ewaluatorów
6.5.4 Przykłady meta-ewaluatorów
6.5.4.1 Ewaluator maszyn k najbliższych sąsiadów
6.5.4.2 Ewaluator dla maszyny typu Boosting
6.5.4.3 Ewaluator maszyny NaiveBayes
6.5.4.4 Ewaluator maszyny testu klasyfikatora
6.5.4.5 Ewaluator metryki
6.5.4.6 Ewaluator komitetu k-klasyfikatorów
6.5.4.7 Ewaluator uniwersalnej maszyny optymalizacji meta-parametrów
6.6 Typy meta-wiedzy
6.7 Analiza działania algorytmu meta-uczenia
6.7.1 Konfiguracja meta-uczenia
6.7.1.1 Określenie szablonu konfiguracji testu
6.7.1.2 Zapytanie określające jakość testu
6.7.1.3 Kryterium stopu
6.7.1.4 Przestrzeń przeszukiwania — graf generatorów
6.7.2 Zbiory danych użyte do testów
6.7.3 Prezentacja i analiza wyników
A Metody testowania algorytmów inteligencji obliczeniowej
A.l Poprawność klasyfikacji i błąd klasyfikacji
A.2 Definicje dotyczące poprawności klasynkacji oparte o elementy macierzy konfuzji
A.3 Krzywa ROC i wartość AUC
A.4 Kroswalidacja
A.4.1 Kryterium wyboru maszyn a średnia poprawność
A.5 Wykorzystywanie testów statystycznych do porównywania maszyn uczących
A.5.1 Porównanie dwóch maszyn z użyciem testu studenta, testu Manna-Whitneya i testu Wilcoxona
A.5.2 Porównywanie klasyfikatorów za pomocą testu McNemara . . . 369 A.5.3 Wykorzystanie testów statystycznych do porównywanie wielu maszyn uczących dla wielu zbiorów danych
B Tabele porównawcze dla porównania metod selekcji instancji
Bibliografia

Autor

ISBN

978-83-60434-97-0

Liczba stron

Rok wydania

Wydawca

Opinie

Na razie nie ma opinii o produkcie.

Napisz pierwszą opinię o „META-UCZENIE W INTELIGENCJI OBLICZENIOWEJ”