In presentation the idea of automatically generated web interface for remote laboratory is presented. The concept is based on suitably prepared set of metadata, that is used to generate web client. In presented solution each remote experiment, sends metadata concerning user interface just before experiment session is started.
Main advantages of this solution include: easier deployment and decreased development costs. This concept can be applied for various e-learning areas. The working example of such interface is shown and discussed.
In presentation the idea of automatically generated web interface for remote laboratory is presented. The concept is based on suitably prepared set of metadata, that is used to generate web client. In presented solution each remote experiment, sends metadata concerning user interface just before experiment session is started.
Main advantages of this solution include: easier deployment and decreased development costs. This concept can be applied for various e-learning areas. The working example of such interface is shown and discussed.
This document describes sequential and parallel quicksort algorithms. Sequential quicksort has average complexity of O(n log n) but worst case of O(n^2). Parallel quicksort partitions the array, sorts subarrays in parallel threads, and waits for threads to complete to improve performance over sequential quicksort. It uses a queue to store threads if processors are busy and chooses split keys through various methods like first element or median. New threads are only created if the subarray size is above a minimum to reduce overhead.
This document describes sequential and parallel quicksort algorithms. Sequential quicksort has average complexity of O(n log n) but worst case of O(n^2). Parallel quicksort partitions the array, sorts subarrays in parallel threads, and waits for threads to complete to improve performance over sequential quicksort. It uses a queue to store threads if processors are busy and chooses split keys through various methods like first element or median. New threads are only created if the subarray size is above a minimum to reduce overhead.
4. Przyczyny I
Skomplikowane zadania uczące
Podzielenie zadania na podzadania
Niezależna realizacja przez odrębne sieci
Niska efektywność finalnego systemu
5. Przyczyny II
Problem zmieniającego się celu
Problem stada
Problem douczania –
– katastroficzna interferencja
Problem doboru liczby i liczności warstw
ukrytych
8. Sieci typu ART
Słaba efektywność w dużych systemach
Słaba efektywność dla zaszumionych
danych
Obiecujące rezultaty sieci hybrydowych
opartych na przetwarzaniu rozmytym
Fuzzy ARTMAP
FasArt
PROBART
10. Plan prezentacji
Problem
Sieci typu ART
Algorytmy konstrukcyjne
Incremental Class Learning
Moduły sieciowe
Wzorce
Implementacja
Bibliografia
11. Algorytmy konstrukcyjne
Start z małej sieci
Powiększanie sieci i zmniejszanie błędu
w trakcie uczenia
Zmiana niektórych neuronów i ich wag
Zamrażanie
Algorytmy:
UPSTART
Kieszonkowy
Kaskadowej korelacji
13. Plan prezentacji
Problem
Sieci typu ART
Algorytmy konstrukcyjne
Incremental Class Learning
Moduły sieciowe
Wzorce
Implementacja
Bibliografia
14. Incremental Class Learning
Kolejna nauka podproblemów
Zamrażanie kluczowych struktur
Wykorzystanie dotychczasowych rezultatów
nauki do bieżącego problemu
Odpowiednie połączenie reprezentacji w celu
otrzymania rozwiązania wyjściowego
15. ICL – ważne czynniki
Dekompozycja problemu w efektywny
sposób na podproblemy
Zwarta struktura reprezentująca podproblem
Określenie istotnych neuronów i zamrożenie
wag połączeń wchodzących
Wykorzystanie w razie potrzeby do uczenia
dotychczas zamrożonych neuronów
16. ICL - podsumowanie
Coraz mniejszy wysiłek naukowy
Połączenie cech algorytmów
konstrukcyjnych i rozwiązań modułowych
Start ze wszystkimi połączeniami
Podproblemy nie są uczone niezależnie
Możliwość dzielenia części struktur dla
różnych podproblemów
Zwarta struktura sieci
17. Czasowo-przestrzenna
reprezentacja wzorców uczących
Zalety
Inwariancja względem osi czasu
Dopuszczalna różna długość wzorców
(względem osi czasu)
Uproszczenie architektury sieci
Przebieg ramki
Ustawienie okna i normalizacja wag
Znalezienie zwycięzcy w warstwie ukrytej
Poprawa wag (zamrożenie) i ich normalizacja
Przesunięcie okna itd.
35. Bibliografia
J. Mańdziuk, L. Shastri , Incremental Class Learning
Approach and Its Application to Handwritten Digits
Recognition, w: „Raport Techniczny TR-97-026”,
International Computer Science Institute, Berkeley, CA,
USA, 1997
A. Waibel, Consonant Recognition by Modular
Construction of Large Phonemic Time-Delay Neural
Networks, w: „Advances in Neural Information Processing
Systems 1”, D.S. Touretzky (ed.), Morgan Kaufmann,
1989
S. Osowski, Sieci neuronowe w ujęciu algorytmicznym,
WNT, Warszawa, 1996
J. Korbicz, A. Obuchowicz, D. Uciński, Sztuczne sieci
neuronowe. Podstawy i zastosowania, Akademicka
Oficyna Wydawnicza PLJ, Warszawa, 1994