Autor: Norbert Jankowski
ISBN: 83-87674-65-6
Ilość stron: 314
Data wydania: 2003
Sztuczne sieci neuronowe nawiązują koncepcyjnie do sposobu działania mózgu. Cechą ontogenicznych sieci neuronowych jest ich zdolność do kontroli swojej struktury i złożoności, dzięki czemu mogą elastycznie dopasowywać się do zadanego problemu.
W książce przedstawiono wiele typów sieci ontogenicznych, które korzystając z różnych algorytmów uczenia mogą zwiększać lub zmniejszać swoją strukturę oraz wpływać na funkcje realizowane przez neurony.
Metody kontroli złożoności struktury sieci neuronowych w istotny sposób wpływają na ostateczne możliwości tych sieci. Duży wpływ na możliwości i złożoność sieci neuronowych mają też neurony, a dokładniej funkcje jakie one realizują. Opisano różnorodne funkcje, które mogą być realizowane przez neurony. Zaprezentowano wybrane algorytmy uczenia sieci radialnych funkcji bazowych (RBF).
Jeden z rozdziałów książki poświęcono metodom typu support vector machines (SVM), czyli maszynom wektorów podpierających. Przedstawiono także szereg metod budowania komitetów modeli, w tym takich modeli, które nadzorują swoje podmodele. Opisano metody przygotowywania danych, używane techniki porównywania algorytmów uczenia i sposoby interpretacji rezultatów.
Rozdziały:
1. Funkcje transferu 1.1. Funkcje realizowane przez neuron 1.2. Funkcje aktywacji 1.3. Funkcje wyjścia 1.4. Funkcje transferu
2. Sieci z radialnymi funkcjami bazowymi (RBF) 2.1. Sieci z radialnymi funkcjami bazowymi i regularyzacją 2.2. Uogólniona sieć z radialnymi funkcjami bazowymi (GRBF) 2.3. Metody inicjalizacji i uczenia bez nadzoru sieci typu RBF 2.4. Uczenie z nadzorem sieci RBF 2.5. Rozszerzenia sieci RBF 2.6. Porównywanie sieci RBF z sieciami MLP 2.7. Probabilistyczne sieci neuronowe
3. Support Vector Machines (SVM) 3.1. Funkcje jądrowe 3.2. Konstrukcja optymalnej hiperpłaszczyzny 3.3. Konstrukcja hiperpłaszczyzny dla przypadków nieseparowalnych 3.4. v-SVC 3.5. Problem regresji 3.6. Problem regresji dla v-SVM 3.7. Optymalizacja problemów programowania kwadratowego 3.8. Zbieżność algorytmów dekompozycji QP 3.9. SVM a RBF 3.10. Meta-SVM
4. Ontogeniczne modele sieci neuronowych 4.1. Modele zmniejszające strukturę 4.2. Modele o strukturach rozrastających się 4.3. Sieć IncNet ze statystyczną kontrolą złożoności sieci 4.4. Sieć neuronowa optymalnych funkcji transferu
5. Komitety modeli 5.1. K-klasyfikatorów 5.2. K2-klasyfikatorów 5.3. Maszyna liniowa 5.4. Sposoby podejmowania decyzji przez komitet 5.5. Bootstrap Aggregating 5.6. Boosting i AdaBoost 5.7. Inne komitety 5.8. Komitety heterogeniczne 5.9. Komitety z lokalną kompetencją
6. Wstępne i końcowe przetwarzanie danych 6.1. Transformacje danych 6.2. Wartości nietypowe i brakujące 6.3. Metody selekcji i ważenia cech 6.4. Regularyzacja danych 6.5. Przedziały ufności jako narzędzie analizy danych i wizualizacji wyników
7. Zastosowanie sieci neuronowych 7.1. Techniki porównywania różnych modeli 7.2. Medyczne zastosowania sieci IncNet 7.3. Aproksymacja
8. Zakończenie Ilustracje kolorowe
Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę --- Pozycja niedostępna.---
|