ksiazki24h.pl
wprowadź własne kryteria wyszukiwania książek: (jak szukać?)
Twój koszyk:   0 zł   zamówienie wysyłkowe >>>
Strona główna > opis książki

METODY I TECHNIKI SZTUCZNEJ INTELIGENCJI


RUTKOWSKI L.

wydawnictwo: PWN , rok wydania 2009, wydanie I

cena netto: 59.20 Twoja cena  56,24 zł + 5% vat - dodaj do koszyka

Podręcznik prezentuje nowoczesne podejście do obliczeń inteligentnych. Przedstawiono w nim rys historyczny rozwoju sztucznej inteligencji, jej zastosowania w życiu codziennym człowieka oraz prognozę dalszego jej rozwoju.

Omawia szeroki zakres inteligentnych struktur decyzyjnych i algorytmów uczenia maszynowego – przedstawia metody wnioskowania wykorzystujące zbiory przybliżone, zbiory rozmyte, sieci neuronowe oraz algorytmy uczenia propagacji wstecznej, najmniejszych kwadratów, ewolucyjne oraz algorytmy grupowania danych. Autorowi udało się optymalnie wyważyć treść książki uzyskując doskonałą proporcję pomiędzy wysokim poziomem teoretycznym opisu, a łatwością przyswojenia prezentowanych metod. Książka jest napisana przystępnie i klarownie. Zrozumienie i przyswojenie treści znacznie ułatwia wiele przykładów ilustrujących wprowadzane koncepcje teoretyczne.

(dr hab. inż. Wojciech Jędruch, Politechnika Gdańska)

Walorem dydaktycznym drugiego wydania są dodane przez Autora po każdym rozdziale zadania do samodzielnego rozwiązania.


Leszek Rutkowski

Prof. dr hab. inż.; profesor Politechniki Częstochowskiej oraz Wyższej Szkoły Humanistyczno-Ekonomicznej w Łodzi; członek PAN i Prezes Polskiego Towarzystwa Sieci Neuronowych.

W 2004 roku uzyskał niezwykle prestiżowy stopień Fellow IEEE. Specjalizuje się w zagadnieniach inteligencji obliczeniowej – nowej gałęzi nauki na styku informatyki, automatyki, biocybernetyki i elektroniki, mającej szerokie zastosowania. Jest autorem m.in. 17 artykułów opublikowanych w różnych seriach renomowanego czasopisma IEEE Transactions oraz monografii wydanych w Polsce, USA, Niemczech i Rosji.


Spis treści:

 

Przedmowa do wydania drugiego
Przedmowa
1. Wstęp

2. Wybrane zagadnienia sztucznej inteligencji
2.1. Wprowadzenie
2.2. Rys historyczny sztucznej inteligencji
2.3. Systemy ekspertowe
2.4. Robotyka
2.5. Przetwarzanie mowy i języka naturalnego
2.6. Heurystyki i strategie poszukiwań
2.7. Kognitywistyka
2.8. Inteligencja mrówek
2.9. Sztuczne życie
2.10. Boty
2.11. Perspektywy rozwoju sztucznej inteligencji
2.12. Uwagi

3. Metody reprezentacji wiedzy z wykorzystaniem zbiorów przybliżonych
3.1. Wprowadzenie
3.2. Pojęcia podstawowe
3.3. Aproksymacja zbioru
3.4. Aproksymacja rodziny zbiorów
3.5. Analiza tablic decyzyjnych
3.6. Zastosowanie programu LERS
3.7. Uwagi
Zadania

4. Metody reprezentacji wiedzy z wykorzystaniem zbiorów rozmytych typu 1
4.1. Wprowadzenie
4.2. Podstawowe pojęcia i definicje teorii zbiorów rozmytych
4.3. Operacje na zbiorach rozmytych
4.4. Zasada rozszerzania
4.5. Liczby rozmyte
4.6. Normy trójkątne i negacje
4.7. Relacje rozmyte i ich właściwości
4.8. Przybliżone wnioskowanie
4.8.1. Podstawowe reguły wnioskowania w logice dwuwartościowej
4.8.2. Podstawowe reguły wnioskowania w logice rozmytej
4.8.3. Reguły wnioskowania dla modelu Mamdaniego
4.8.4. Reguły wnioskowania dla modelu logicznego
4.9. Rozmyte systemy wnioskujące
4.9.1. Baza reguł
4.9.2. Blok rozmywania
4.9.3. Blok wnioskowania
4.9.4. Blok wyostrzania
4.10. Zastosowania zbiorów rozmytych
4.10.1. Rozmyta metoda Delphi
4.10.2. Ważona rozmyta metoda Delphi
4.10.3. Rozmyta metoda PERT
4.10.4. Podejmowanie decyzji w otoczeniu rozmytym
4.11. Uwagi
Zadania

5. Metody reprezentacji wiedzy z wykorzystaniem zbiorów rozmytych typu 2
5.1. Wprowadzenie
5.2. Podstawowe definicje
5.3. Ślad niepewności
5.4. Osadzone zbiory rozmyte
5.5. Podstawowe operacje na zbiorach rozmytych typu 2
5.6. Relacje rozmyte typu 2
5.7. Redukcja typu
5.8. Rozmyte systemy wnioskujące typu 2
5.8.1. Blok rozmywania
5.8.2. Baza reguł
5.8.3. Blok wnioskowania
5.9. Uwagi
Zadania

6. Sieci neuronowe i algorytmy ich uczenia
6.1. Wprowadzenie
6.2. Neuron i jego modele
6.2.1. Budowa i działanie pojedynczego neuronu
6.2.2. Perceptron
6.2.3. Model Adaline
6.2.4. Model neuronu sigmoidalnego
6.2.5. Model neuronu Hebba
6.3. Sieci jednokierunkowe wielowarstwowe
6.3.1. Budowa i działanie sieci
6.3.2. Algorytm wstecznej propagacji błędów
6.3.3. Algorytm wstecznej propagacji błędów z członem momentum
6.3.4. Algorytm zmiennej metryki
6.3.5. Algorytm Levenberga–Marquardta
6.3.6. Rekurencyjna metoda najmniejszych kwadratów
6.3.7. Dobór architektury sieci
6.4. Sieci rekurencyjne
6.4.1. Sieć Hopfielda
6.4.2. Sieć Hamminga
6.4.3. Sieci wielowarstwowe ze sprzężeniem zwrotnym
6.4.4. Sieć BAM
6.5. Sieci samoorganizujące sie z konkurencją
6.5.1. Sieci typu WTA
6.5.2. Sieci typu WTM
6.6. Sieci typu ART
6.7. Sieci radialne
6.8. Probabilistyczne sieci neuronowe
6.9. Uwagi
Zadania

7. Algorytmy ewolucyjne
7.1. Wprowadzenie
7.2. Problemy optymalizacji a algorytmy ewolucyjne
7.3. Rodzaje algorytmów zaliczanych do algorytmów ewolucyjnych
7.3.1. Klasyczny algorytm genetyczny
7.3.2. Strategie ewolucyjne
7.3.3. Programowanie ewolucyjne
7.3.4. Programowanie genetyczne
7.4. Zaawansowane techniki w algorytmach ewolucyjnych
7.4.1. Eksploracja i eksploatacja
7.4.2. Metody selekcji
7.4.3. Skalowanie funkcji przystosowania
7.4.4. Szczególne procedury reprodukcji
7.4.5. Metody kodowania
7.4.6. Rodzaje krzyżowań
7.4.7. Rodzaje mutacji
7.4.8. Inwersja
7.5. Algorytmy ewolucyjne w projektowaniu sieci neuronowych
7.5.1. Algorytmy ewolucyjne do uczenia wag sieci neuronowych
7.5.2. Algorytmy ewolucyjne do określania topologii sieci neuronowej
7.5.3. Algorytmy ewolucyjne do uczenia wag i określania topologii sieci neuronowej
7.6. Algorytmy ewolucyjne a systemy rozmyte
7.6.1. Systemy rozmyte do kontroli ewolucji
7.6.2. Ewolucja systemów rozmytych
7.7. Uwagi
Zadania

8. Metody grupowania danych
8.1. Wprowadzenie
8.2. Podziały ostre i rozmyte
8.3. Miary odległości
8.4. Algorytm HCM
8.5. Algorytm FCM
8.6. Algorytm PCM
8.7. Algorytm Gustafsona–Kessela
8.8. Algorytm FMLE
8.9. Kryteria jakości grupowania
8.10. Ilustracja działania algorytmów grupowania danych
8.11. Uwagi
Zadania

9. Systemy neuronowo-rozmyte typu Mamdaniego, logicznego i Takagi–Sugeno
9.1. Wprowadzenie
9.2. Opis wykorzystywanych problemów symulacyjnych
9.2.1. Polimeryzacja
9.2.2. Modelowanie statycznej funkcji nieliniowej
9.2.3. Modelowanie nieliniowego obiektu dynamicznego
9.2.4. Modelowanie smaku ryżu
9.2.5. Rozpoznawanie gatunku wina
9.2.6. Klasyfikacja kwiatu irysa
9.3. Systemy neuronowo-rozmyte typu Mamdaniego
9.3.1. Systemy typu A
9.3.2. Systemy typu B
9.3.3. Systemy typu Mamdaniego w zadaniach modelowania
9.4. Systemy neuronowo-rozmyte typu logicznego
9.4.1. Systemy typu M1
9.4.2. Systemy typu M2
9.4.3. Systemy typu M3
9.5. Systemy neuronowo-rozmyte typu Takagi–Sugeno
9.5.1. Systemy typu M1
9.5.2. Systemy typu M2
9.5.3. Systemy typu M3
9.6. Algorytmy uczenia systemów neuronowo-rozmytych
9.7. Ocena działania systemów neuronowo-rozmytych
9.7.1. Kryteria oceny modeli z uwzględnieniem ich złożoności
9.7.2. Metoda linii izokryterialnych
9.8. Uwagi
Zadania

10. Elastyczne systemy neuronowo-rozmyte
10.1. Wprowadzenie
10.2. Miękkie normy trójkątne
10.3. Parametryzowane normy trójkątne
10.4. Przełączane normy trójkątne
10.5. Systemy elastyczne
10.6. Algorytmy uczenia
10.6.1. Operatory podstawowe
10.6.2. Funkcje przynależności
10.6.3. Funkcje zakresowe
10.6.4. H-funkcje
10.7. Przykłady symulacyjne
10.7.1. Polimeryzacja
10.7.2. Modelowanie smaku ryżu
10.7.3. Klasyfikacja kwiatu irysa
10.7.4. Rozpoznawanie gatunku wina
10.8. Uwagi
Zadania
Literatura
Skorowidz


452 strony, oprawa miękka

Po otrzymaniu zamówienia poinformujemy,
czy wybrany tytuł polskojęzyczny lub anglojęzyczny jest aktualnie na półce księgarni.

 
Wszelkie prawa zastrzeżone PROPRESS sp. z o.o. 2012-2022