SZTUCZNA INTELIGENCJA DLA INŻYNIERÓW METODY OGÓLNE

39.00

Na stanie

Autorami poszczególnych rozdziałów opracowania są wykładowcy Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, którzy aktywnie biorą udział w rozwoju sztucznej inteligencji. Planując zakres i treść książki, z szerokiej gamy metod i zagadnień autorzy wybrali te, które uważają za szczególnie istotne i mające zastosowanie w ramach całego obszaru SI – również w obrębie innych, nieomówionych tutaj metod. W rozdziale pierwszym znajdują się informacje o historii, charakterze i o zastosowaniach sztucznej inteligencji. Rozdział drugi traktuje o podstawowym (nie tylko dla sztucznej inteligencji) zagadnieniu przeszukiwania przestrzeni stanów w poszukiwaniu rozwiązań zadanego problemu. Towarzyszy temu omówienie metod optymalizacji, które wskazują najlepsze rozwiązanie z punktu widzenia przyjętego kryterium. Tematem kolejnego rozdziału jest uczenie maszynowe. Rozdział czwarty został poświęcony architekturom sztucznych sieci neuronowych, w tym sieciom głębokim. W rozdziale piątym znajduje się prezentacja i dyskusja dotycząca wzajemnych związków etyki i sztucznej inteligencji, ze szczególnym naciskiem na konieczność przedstawiania wyników działania systemów SI w sposób zrozumiały dla człowieka. Każdy rozdział jest opatrzony notą bibliograficzną, która podaje pozycje rozszerzające omówiony materiał.

Książka może służyć jako podręcznik i wsparcie dydaktyczne wykładów z zakresu SI oraz jako materiał referencyjny dla przedstawionych w niej metod i algorytmów.

SPIS TREŚCI

O książce v
Notacja vii
1 O sztucznej inteligencji 1
Jarosław Chudziak, Tomasz Gambin, Piotr Gawrysiak, Mieczysław Muraszkiewicz
2 Przeszukiwanie i optymalizacja 21
Rafał Biedrzycki, Wiktor Daszczuk, Robert Nowak, Paweł Wawrzyński
2.1 Wstęp 21
2.2 Metody klasyczne w SI  23
2.2.1 Metoda Newtona 23
2.2.2 Metoda Levenberga  24
2.2.3 Metoda gradientu prostego  24
2.2.4 Metoda stochastycznego najszybszego spadku 27
2.3 Przeszukiwanie przestrzeni stanów  29
2.3.1 Strategie ślepe 30
2.3.2 Strategie heurystyczne  35
2.3.3 Gry dwuosobowe, algorytm MiniMax  38
2.4 Algorytmy ewolucyjne i inne metaheurystyki  43
2.4.1 Algorytm genetyczny 43
2.4.2 Algorytm ewolucyjny 45
2.4.3 Strategia ewolucyjna ES(1 + 1) 48
2.4.4 Strategie ewolucyjne ES(μ + λ), ES(μ, λ) 50
2.4.5 Inne metaheurystyki 51
2.5 Uwagi bibliograficzne 59
3 Uczenie maszynowe 61
Paweł Cichosz
3.1 Systemy uczące się  61
3.1.1 W stronę definicji uczenia się  61
3.1.2 Rodzaje informacji trenującej  62
3.1.3 Wprowadzenie do uczenia indukcyjnego 63
3.2 Drzewa decyzyjne 71
3.2.1 Drzewa decyzyjne jako reprezentacja modelu  71
3.2.2 Zstępująca budowa drzewa  74
3.2.3 Kryterium stopu 75
3.2.4 Kryterium wyboru podziału 76
3.2.5 Przycinanie drzewa  79
3.2.6 Predykcja probabilistyczna  81
3.2.7 Drzewa regresji  82
3.2.8 Właściwości drzew decyzyjnych 83
3.3 Modele liniowe  83
3.3.1 Regresja liniowa  84
3.3.2 Klasyfikacja liniowo-progowa 88
3.3.3 Regresja logistyczna 92
3.3.4 Obsługa atrybutów dyskretnych 97
3.3.5 Klasyfikacja wieloklasowa  97
3.3.6 Właściwości modeli liniowych  98
3.4 Naiwny klasyfikator bayesowski 99
3.4.1 Wnioskowanie bayesowskie  99
3.4.2 Estymacja prawdopodobieństw 100
3.4.3 Prawdopodobieństwa zerowe i prawie zerowe  101
3.4.4 Atrybuty ciągłe 102
3.4.5 Predykcja 104
3.4.6 Właściwości naiwnego klasyfikatora bayesowskiego 105
3.5 Las losowy 105
3.5.1 Modele zespołowe 106
3.5.2 Tworzenie modeli bazowych 107
3.5.3 Łączenie predykcji  107
3.5.4 Budowa lasu losowego  108
3.5.5 Predykcja lasu losowego 110
3.5.6 Ocena predykcyjnej użyteczności atrybutów  111
3.5.7 Właściwości lasów losowych 112
3.6 Algorytm SVM  112
3.6.1 Udoskonalenie klasyfikacji liniowo-progowej 113
3.6.2 Maksymalizacja marginesu klasyfikacji 114
3.6.3 Twardy margines 116
3.6.4 Miękki margines 118
3.6.5 Postać dualna 120
3.6.6 Funkcje jądrowe  123
3.6.7 Właściwości algorytmu SVM 125
3.7 Ocena jakości modeli 125
3.7.1 Miary jakości klasyfikacji 125
3.7.2 Miary jakości regresji 132
3.7.3 Procedury oceny 134
3.8 Elementy teorii uczenia się 137
3.8.1 Klasy pojęć i przestrzenie modeli  138
3.8.2 PAC-nauczalność 139
3.8.3 PAC-uczenie się dla algorytmów spójnych 142
3.8.4 Uczenie agnostyczne 144
3.8.5 Wymiar Vapnika-Chervonenkisa 146
3.8.6 Podsumowanie wniosków z teorii  148
3.9 Uwagi bibliograficzne 149
4 Sieci neuronowe 151
Karol Piczak, Paweł Wawrzyński
4.1 Perceptron wielowarstwowy 151
4.1.1 Model neuronu  151
4.1.2 Perceptron dwuwarstwowy  153
4.1.3 Własność uniwersalnej aproksymacji  154
4.1.4 Perceptron wielowarstwowy 154
4.2 Uczenie sieci neuronowej 156
4.2.1 Uczenie jako rozwiązanie problemu optymalizacji 156
4.2.2 Skalowanie wejść i wyjść, inicjacja wag 158
4.2.3 Wsteczna propagacja gradientu 158
4.2.4 Algorytmy optymalizacji 162
4.3 Rekurencyjne sieci neuronowe  165
4.3.1 Uczenie rekurencyjnej sieci neuronowej 167
4.3.2 Sieci LSTM  167
4.3.3 Sieci GRU 169
4.4 Hiperparametry struktury i procesu uczenia sieci  170
4.4.1 Funkcje aktywacji neuronów 171
4.4.2 Inicjacja wag 174
4.4.3 Normalizacja 175
4.4.4 Dobór wielkości sieci 176
4.4.5 Wczesne zatrzymanie uczenia  177
4.4.6 Regularyzacja 177
4.4.7 Inne techniki poprawy generalizacji 179
4.5 Modele splotowe  180
4.5.1 Operacja splotu  181
4.5.2 Warstwy splotowe 181
4.5.3 Złożone architektury splotowe  188
4.6 Uwagi bibliograficzne 195
5 O związkach etyki i sztucznej inteligencji 197
Katarzyna Budzyńska, Mieczysław Muraszkiewicz
5.1 Wybrane dylematy i problemy  197
5.2 Sztuczna inteligencja godna zaufania  201
5.3 Uwagi bibliograficzne 205
6 Podsumowanie 207
Jarosław Arabas, Mieczysław Muraszkiewicz, Robert Nowak
Bibliografia 211
Skorowidz 21


			
Autor

ISBN

978-83-8156-356-7

Liczba stron

Rok wydania

Wydawca

Opinie

Na razie nie ma opinii o produkcie.

Napisz pierwszą opinię o „SZTUCZNA INTELIGENCJA DLA INŻYNIERÓW METODY OGÓLNE”

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *