ΠΕΡΙΕΧΟΜΕΝΑ ΜΑΘΗΜΑΤΟΣ
1) Εισαγωγή
1.1) Η δομή του ανθρώπινου εγκεφάλου
1.2) Η λειτουργία ενός νευρώνα
1.2.1) Συναρτήσεις Ενεργοποίησης
1.2.2) Σκοπός του Νευρώνα
1.2.3) Perceptron
2) Νευρώνες και Λογικές Πύλες
2.1) Το πρόβλημα του OR
2.2) Το πρόβλημα του AND
2.3) Προβλήματα Λογικών Πυλών
3) Γραμμική Διαχωρισιμότητα
3.1) Ορισμοί
3.2) Παραδείγματα
Β) Μεθοδολογία
1) Γραφική Επίλυση
2) Επίλυση με Ανισώσεις
Γ) Ασκήσεις
1) Ασκήσεις Κατανόησης
2) Εφαρμογές
ΠΕΡΙΕΧΟΜΕΝΑ ΜΑΘΗΜΑΤΟΣ
1) Εισαγωγή
1.1) Η δομή του ανθρώπινου εγκεφάλου
1.2) Η λειτουργία ενός νευρώνα
1.2.1) Συναρτήσεις Ενεργοποίησης
1.2.2) Σκοπός του Νευρώνα
1.2.3) Perceptron
2) Νευρώνες και Λογικές Πύλες
2.1) Το πρόβλημα του OR
2.2) Το πρόβλημα του AND
2.3) Προβλήματα Λογικών Πυλών
3) Γραμμική Διαχωρισιμότητα
3.1) Ορισμοί
3.2) Παραδείγματα
Β) Μεθοδολογία
1) Γραφική Επίλυση
2) Επίλυση με Ανισώσεις
Γ) Ασκήσεις
1) Ασκήσεις Κατανόησης
2) Εφαρμογές
A.Θεωρία
1) Εκπαίδευση ΤΝΔ
1.1) Εισαγωγή
1.2) Μάθηση με Επίβλεψη
1.3) Μάθηση χωρίς Επίβλεψη
1.4) Μάθηση με Ενίσχυση
2) Εκπαίδευση ενός νευρώνα
2.1) Ο κανόνας μάθησης Δέλτα
2.2) Ο αλγόριθμος του κανόνα μάθησης δέλτα
2.3) Παράδειγμα εκπαίδευσης με τον κανόνα μάθησης δέλτα
2.4) Παρατηρήσεις
Β.Ασκήσεις
1) Εισαγώγή
1.1) Σχήμα Απόδειξης Αναγωγής
1.2) Αναγωγές της Προτασιακής Λογικής
2) Το πρόβλημα INDEPENDENT-SET είναι NP-πλήρες
2.1) INDEPENDENT-SET ανήκει στο NP
2.2) 3SAT ανάγεται στο INDEPENDENT-SET
3) Το πρόβλημα CLIQUE είναι NP-πλήρες
3.1) CLIQUE ανήκει στο NP
3.2) INDEPENDENT-SET ανάγεται στο CLIQUE
4) Το πρόβλημα VERTEX-COVER είναι NP-πλήρες
4.1) VERTEX-COVER ανήκει στο NP
4.2) INDEPENDENT-SET ανάγεται στο VERTEX-COVER
5) Το πρόβλημα SUBGRAPH-ISOMORPHISM είναι NP-πλήρες
5.1) SUBGRAPH-ISOMORPHISM ανήκει στο NP
5.2) CLIQUE ανάγεται στο SUBGRAPH-ISOMORPHISM
Ασκήσεις
1) To (n/2)-CLIQUE είναι NP-πλήρες
2) Το KITE είναι NP-πλήρες
3) Το k-DENSEST-SUBGRAPH είναι NP-πλήρες
4) Το k-LIGHTEST-SUBGRAPH είναι NP-πλήρες
1) Απληστοι Αλγόριθμοι
1.1) Συντομότερο Μονοπάτι σε Γράφο
1.1.1) Ο αλγόριθμος του Dijkstra
1.2) Ελάχιστο Συνδετικό Δένδρο
1.2.1) Ο αλγόριθμος του Prim
1.2.2) Ο αλγόριθμος του Kruskal
1.3) Ελαχιστοποίηση Νομισμάτων με Ρέστα
Εφαρμογές
1) Επιστροφή χρηματικού ποσού για ρέστα
2) Άπληστος Αλγόριθμος για Χρωματισμό Γραφήματος
A.Θεωρία
1) Εκπαίδευση ΤΝΔ
1.1) Εισαγωγή
1.2) Μάθηση με Επίβλεψη
1.3) Μάθηση χωρίς Επίβλεψη
1.4) Μάθηση με Ενίσχυση
2) Εκπαίδευση ενός νευρώνα
2.1) Ο κανόνας μάθησης Δέλτα
2.2) Ο αλγόριθμος του κανόνα μάθησης δέλτα
2.3) Παράδειγμα εκπαίδευσης με τον κανόνα μάθησης δέλτα
2.4) Παρατηρήσεις
Β.Ασκήσεις
1) Εισαγώγή
1.1) Σχήμα Απόδειξης Αναγωγής
1.2) Αναγωγές της Προτασιακής Λογικής
2) Το πρόβλημα INDEPENDENT-SET είναι NP-πλήρες
2.1) INDEPENDENT-SET ανήκει στο NP
2.2) 3SAT ανάγεται στο INDEPENDENT-SET
3) Το πρόβλημα CLIQUE είναι NP-πλήρες
3.1) CLIQUE ανήκει στο NP
3.2) INDEPENDENT-SET ανάγεται στο CLIQUE
4) Το πρόβλημα VERTEX-COVER είναι NP-πλήρες
4.1) VERTEX-COVER ανήκει στο NP
4.2) INDEPENDENT-SET ανάγεται στο VERTEX-COVER
5) Το πρόβλημα SUBGRAPH-ISOMORPHISM είναι NP-πλήρες
5.1) SUBGRAPH-ISOMORPHISM ανήκει στο NP
5.2) CLIQUE ανάγεται στο SUBGRAPH-ISOMORPHISM
Ασκήσεις
1) To (n/2)-CLIQUE είναι NP-πλήρες
2) Το KITE είναι NP-πλήρες
3) Το k-DENSEST-SUBGRAPH είναι NP-πλήρες
4) Το k-LIGHTEST-SUBGRAPH είναι NP-πλήρες
1) Απληστοι Αλγόριθμοι
1.1) Συντομότερο Μονοπάτι σε Γράφο
1.1.1) Ο αλγόριθμος του Dijkstra
1.2) Ελάχιστο Συνδετικό Δένδρο
1.2.1) Ο αλγόριθμος του Prim
1.2.2) Ο αλγόριθμος του Kruskal
1.3) Ελαχιστοποίηση Νομισμάτων με Ρέστα
Εφαρμογές
1) Επιστροφή χρηματικού ποσού για ρέστα
2) Άπληστος Αλγόριθμος για Χρωματισμό Γραφήματος
El documento describe varios resúmenes de documentos en 3 oraciones o menos. Resume la información sobre un documento que habla sobre la generación de resúmenes automáticos de textos mediante el aprendizaje profundo y las redes neuronales recurrentes. Explica que el modelo puede generar resúmenes concisos que capturan la información clave del documento original en pocas oraciones.
This document discusses a series of steps involving summarizing information from a document into 3 sentences or less. It begins by introducing the topic of expertly summarizing documents into concise summaries. It then provides an example document to summarize. The response provides a 3 sentence summary of the key details and essential information from the example document.
ΠΕΡΙΕΧΟΜΕΝΑ ΜΑΘΗΜΑΤΟΣ
1) Εισαγωγή
1.1) Η δομή του ανθρώπινου εγκεφάλου
1.2) Η λειτουργία ενός νευρώνα
1.2.1) Συναρτήσεις Ενεργοποίησης
1.2.2) Σκοπός του Νευρώνα
1.2.3) Perceptron
2) Νευρώνες και Λογικές Πύλες
2.1) Το πρόβλημα του OR
2.2) Το πρόβλημα του AND
2.3) Προβλήματα Λογικών Πυλών
3) Γραμμική Διαχωρισιμότητα
3.1) Ορισμοί
3.2) Παραδείγματα
Β) Μεθοδολογία
1) Γραφική Επίλυση
2) Επίλυση με Ανισώσεις
Γ) Ασκήσεις
1) Ασκήσεις Κατανόησης
2) Εφαρμογές
ΓΛΩΣΣΑ C++ - ΜΑΘΗΜΑ 3 - ΚΛΑΣΕΙΣ ΚΑΙ ΔΕΙΚΤΕΣ (4δ)Dimitris Psounis
ΠΕΡΙΕΧΟΜΕΝΑ ΜΑΘΗΜΑΤΟΣ
Α. Θεωρία
1.Διαχείριση Μνήμης
1.1.Στατική Δέσμευση Μνήμης
1.2.Στατική Δέσμευση Μνήμης για Συνήθεις Μεταβλητές
1.3.Στατική Δέσμευση Μνήμης για Αντικείμενα
2.Δυναμική Δέσμευση Μνήμης
2.1.Δείκτες (Υπενθύμιση από C)
2.2.Οι τελεστές new και delete
2.3.Δυναμική Δέσμευση για Συνήθεις Μεταβλητές
2.4.Δυναμική Δέσμευση για Αντικείμενα
2.5.Δυναμική Δέσμευση και Κατασκευαστές
3.Κλάσεις που περιέχουν δείκτες
3.1.Παράδειγμα κλάσης που περιέχει δείκτες
3.2.…και ένα πρόβλημα (χωρίς λύση για την ώρα)
4..Δυναμική Δέσμευση Μνήμης για Πίνακες
4.1.Μονοδιάστατοι πίνακες
4.2.Παράδειγμα δέσμευσης μνήμης για μονοδιάστατους πίνακες
4.3.Διδιάστατοι πίνακες
4.4.Παράδειγμα δέσμευσης μνήμης για διδιάστατους πίνακες
B. Ασκήσεις
ΠΕΡΙΕΧΟΜΕΝΑ ΜΑΘΗΜΑΤΟΣ
Α. Θεωρία
1.Διαχείριση Μνήμης
1.1.Στατική Δέσμευση Μνήμης
1.2.Στατική Δέσμευση Μνήμης για Συνήθεις Μεταβλητές
1.3.Στατική Δέσμευση Μνήμης για Αντικείμενα
2.Δυναμική Δέσμευση Μνήμης
2.1.Δείκτες (Υπενθύμιση από C)
2.2.Οι τελεστές new και delete
2.3.Δυναμική Δέσμευση για Συνήθεις Μεταβλητές
2.4.Δυναμική Δέσμευση για Αντικείμενα
2.5.Δυναμική Δέσμευση και Κατασκευαστές
3.Κλάσεις που περιέχουν δείκτες
3.1.Παράδειγμα κλάσης που περιέχει δείκτες
3.2.…και ένα πρόβλημα (χωρίς λύση για την ώρα)
4..Δυναμική Δέσμευση Μνήμης για Πίνακες
4.1.Μονοδιάστατοι πίνακες
4.2.Παράδειγμα δέσμευσης μνήμης για μονοδιάστατους πίνακες
4.3.Διδιάστατοι πίνακες
4.4.Παράδειγμα δέσμευσης μνήμης για διδιάστατους πίνακες
B. Ασκήσεις
Α. Θεωρία
1. Κλάσεις
1.1 Γενικά
1.2 Ορισμός Κλάσης
1.3 Δημόσια (public) στοιχεία της κλάσης
1.4 Ιδιωτικά (private) στοιχεία της κλάσης
1.5 Παράδειγμα (προδιαγραφές)
2 Περισσότερα για τις κλάσεις
2.1 Ορισμός Συναρτήσεων έξω από την Κλάση
2.2 Παρουσίαση Ιδιωτικών – Δημόσιων Μέλων μιας κλάσης
2.3 Χωρισμός σε Αρχεία
3. Ειδικές Μεθόδοι Κλάσεων
3.1 Γενικά
3.2 Κατασκευαστής (constructor)
3.3 Καταστροφέας (destructor)
3.4 Ελεγκτές Πρόσβασης (accessors)
B. Ασκήσεις
Η ΓΛΩΣΣΑ C++ - ΜΑΘΗΜΑ 2 - ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΚΛΑΣΕΙΣ (4 διαφ)Dimitris Psounis
Α. Θεωρία
1. Κλάσεις
1.1 Γενικά
1.2 Ορισμός Κλάσης
1.3 Δημόσια (public) στοιχεία της κλάσης
1.4 Ιδιωτικά (private) στοιχεία της κλάσης
1.5 Παράδειγμα (προδιαγραφές)
2 Περισσότερα για τις κλάσεις
2.1 Ορισμός Συναρτήσεων έξω από την Κλάση
2.2 Παρουσίαση Ιδιωτικών – Δημόσιων Μέλων μιας κλάσης
2.3 Χωρισμός σε Αρχεία
3. Ειδικές Μεθόδοι Κλάσεων
3.1 Γενικά
3.2 Κατασκευαστής (constructor)
3.3 Καταστροφέας (destructor)
3.4 Ελεγκτές Πρόσβασης (accessors)
B. Ασκήσεις
ΠΕΡΙΕΧΟΜΕΝΑ ΜΑΘΗΜΑΤΟΣ
Α. Θεωρία
1. Η Γλώσσα C++
1.1. Γενικά
1.2. Ιστορία – Εκδόσεις
1.3. Η αναγκαιότητα της C
1.4. Μεταγλωττιστές
2. Hello World!
2.1. Πηγαίος Κώδικας
2.2. Σχόλια
2.3. Βιβλιοθήκη iostream
2.4. main, block κώδικα, return
2.5 Είσοδος/Έξοδος
2.5.1. Έξοδος με την cout
2.5.2. Οδηγία using
2.5.3. Περισσότερα για την cout
2.5.4. Είσοδος με την cin
3. Στοιχεία της C
3.1. Μεταβλητές
3.2. Σταθερές
3.3. Τελεστές και η Δομή Ελέγχου
3.4. Δομές Επανάληψης
3.5. Συναρτήσεις
3.5.1. Πολυμορφισμός Συναρτήσεων
3.6. Πίνακες
3.7. Συμβολοσειρές
3.8. Δείκτες
B.Ασκήσεις
Εφαρμογή 1
Εφαρμογή 2
Εφαρμογή 3
C++ - ΜΑΘΗΜΑ 1 - ΕΙΣΑΓΩΓΗ ΚΑΙ ΣΧΕΣΗ ΜΕ ΤΗ C (4sl/p)Dimitris Psounis
ΠΕΡΙΕΧΟΜΕΝΑ ΜΑΘΗΜΑΤΟΣ
Α. Θεωρία
1. Η Γλώσσα C++
1.1. Γενικά
1.2. Ιστορία – Εκδόσεις
1.3. Η αναγκαιότητα της C
1.4. Μεταγλωττιστές
2. Hello World!
2.1. Πηγαίος Κώδικας
2.2. Σχόλια
2.3. Βιβλιοθήκη iostream
2.4. main, block κώδικα, return
2.5 Είσοδος/Έξοδος
2.5.1. Έξοδος με την cout
2.5.2. Οδηγία using
2.5.3. Περισσότερα για την cout
2.5.4. Είσοδος με την cin
3. Στοιχεία της C
3.1. Μεταβλητές
3.2. Σταθερές
3.3. Τελεστές και η Δομή Ελέγχου
3.4. Δομές Επανάληψης
3.5. Συναρτήσεις
3.5.1. Πολυμορφισμός Συναρτήσεων
3.6. Πίνακες
3.7. Συμβολοσειρές
3.8. Δείκτες
B.Ασκήσεις
Εφαρμογή 1
Εφαρμογή 2
Εφαρμογή 3
1. ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑΟΠΙΣΘΟΔΙΑΔΟΣΗ ΤΟΥ ΛΑΘΟΥΣ (1 από 4: ΑΡΧΙΚΟΠΟΙΗΣΗ)
Συνεπώς:
Χρησιμοποιείται ένα πρότυπο εισόδου
Είσοδος:
x1=0.1
x2=0.6
Εκφώνηση: Δίνεται ένα πολυεπίπεδο ΤΝΔ τοπολογίας 2-1-2 με τη
συνδεσμολογία όπως φαίνεται στο παρακάτω σχήμα.
Για την εκπαίδευσή του χρησιμοποιείται η μέθοδος οπισθοδιάδοσης
του σφάλματος με ρυθμό εκπαίδευσης n=1, χωρίς χρήση ορμής
(momentum).
Η συνάρτηση ενεργοποίησης σε όλους τους νευρώνες είναι η
σιγμοειδής συνάρτηση S, όπου:
Σε κάποια στιγμή εκπαίδευσής του για την εκμάθηση του προτύπου
[0.1,0.6] με επιθυμητή έξοδο [0.0, 1.0] τα βάρη των συνδέσεων και οι
τιμές των κατωφλίων έχουν πάρει τις τιμές που δίνονται στον Πίνακα
1. Θεωρείστε ότι τα κατώφλια είναι συνάψεις με είσοδο –1 και
βάρος ίσο με την τιμή του κατωφλίου. Να κάνετε τις πράξεις με
ακρίβεια 3 δεκαδικών ψηφίων.
Να πραγματοποιήσετε έναν πλήρη κύκλο εκπαίδευσης (προς τα
εμπρός και προς τα πίσω πέρασμα)
x
e
xS −
+
=
1
1
)(
Πίνακας 1
Βάρος Τιµή Βάρος Τιµή
w13 = 0,5 w30 = θ3 0,4
w14 = 0,5 w40 = θ4 0,4
w23 = 0,4 w50 = θ5 0,4
w25 = 0,4
w 34 = 0,3
w 35 = 0,3
Επιθυμητή Έξοδος:
d4=0.0
d5=1.0
Αρχικοποίηση:
• Αρχικοποιούμε τα διανύσματα:
• Για κάθε πρότυπο 1,…,K: Κατασκευάζουμε το
διάνυσμα: , , … , και αρχικοποιούμε
την επιθυμητή έξοδο:
• Δίνουμε αρίθμηση στους κόμβους (αν αυτή δεν υπάρχει
ήδη)
• Πρέπει να υπάρχει μία τοπολογική ταξινόμηση
στους κόμβους (δηλαδή να μην υπάρχει ακμή από
κόμβο σε προηγούμενό του κόμβο)
• Αρχικοποιούμε τις τιμές των βαρών σύμφωνα με την
εκφώνηση.
• Εντοπίζουμε την συνάρτηση ενεργοποίησης για κάθε κόμβο
καθώς και την παραγωγό της (θα είναι κάποια συνεχής
συνάρτηση)
• Δίνουμε τιμή στην παράμετρο μάθησης η: 0<η<1 (από
εκφώνηση)
Πραγματοποιούμε κύκλους εκπαίδευσης διαδοχικά για τα
πρότυπα.
2. p είναι ο συνολικός αριθμός
εισόδων του νευρώνα j
Υπολογίζεται το δυναμικό του
νευρώνα ως άθροισμα των
γινομένων βαρών-εισόδων
Συμπεριλαμβάνεται η
είσοδος κατωφλίου (αν
υπάρχει)
ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑΟΠΙΣΘΟΔΙΑΔΟΣΗ ΤΟΥ ΛΑΘΟΥΣ (2 από 4: ΕΜΠΡΟΣ)
ΠΡΟΣ ΤΑ ΕΜΠΡΟΣ ΠΕΡΑΣΜΑ:
Οι νευρώνες εξετάζονται κατά
την αύξουσα αρίθµηση:
j=1….N
• Για κάθε νευρώνα
εισόδου θέτουµε ως
την είσοδο που παράγει.
• Για κάθε υπολογιστικό
νευρώνα j (κρυφό και
εξόδου):
Υπολόγισε το δυναµικό
ως: ∑
Υπολόγισε την έξοδο
από την συνάρτηση
ενεργοποίησης:
φ
• Συµβολίζουµε µε την
έξοδο µόνο των
νευρώνων εξόδου
• Για κάθε νευρώνα εξόδου:
Υπολόγισε το σφάλµα:
(επιθυµητή µείον
παραγµατική)
ΠΡΟΣ ΤΑ ΕΜΠΡΟΣ ΠΕΡΑΣΜΑ
ΝΕΥΡΩΝΑΣ 1 (νευρώνας εισόδου)
Η είσοδος μεταφέρεται στην έξοδο, άρα y1=x1=0.1
ΝΕΥΡΩΝΑΣ 2 (νευρώνας εισόδου)
Η είσοδος μεταφέρεται στην έξοδο, άρα y2=x2=0.6
ΝΕΥΡΩΝΑΣ 3 (Κρυφός Νευρώνας)
Δυναμικό: ∙ ∙ ∙ 1
0,5 ∙ 0,1 0,4 ∙ 0,6 0,4 ∙ 1 0.11
Ενεργοποίηση: y3=φ
!"# #$.%% 0.473
ΝΕΥΡΩΝΑΣ 4 (Νευρώνας Εξόδου)
Δυναμικό: ( ( ∙ ( ∙ ( ∙ 1
0,5 ∙ 0,1 0,3 ∙ 0,473 0,4 ∙ 1 0.208
Ενεργοποίηση: y4=φ ( !"# #$.+$, 0.448
ΝΕΥΡΩΝΑΣ 5 (Νευρώνας Εξόδου)
Δυναμικό: - - ∙ - ∙ - ∙ 1
0,3 ∙ 0.473 0,4 ∙ 0,6 0,4 ∙ 1 0.018
Ενεργοποίηση: y5=φ - !"# #$.$%, 0.496
Συνεπώς η έξοδος των νευρώνων
είναι:
Υπολογισμός Σφάλματος για τους νευρώνες εξόδου:
Νευρώνας 4: ( ( ( 0 0.448 0.448
Νευρώνας 5: - - - 1 0.496 0.504
Άρα τα σφάλματα στους νευρώνες εξόδου είναι:
3. Δw12 3 4 ∙ 5 3 ∙ 67 3
w12 3 w12 3 Δw12 3 1
Το δ για τους κρυφούς
νευρώνες υπολογίζεται ως
το γινόµενο
(Παράγωγος της
ενεργοποίησης) x
[άθροισµα (δ*βάρος) για
κάθε έξοδο του νευρώνα]
ΠΡΟΣ ΤΑ ΠΙΣΩ ΠΕΡΑΣΜΑ
ΝΕΥΡΩΝΑΣ 5 (νευρώνας εξόδου)
Υπολογισμός Τοπικής Κλίσης:
6- - ∙ 89
- - ∙ - 1 - 0.504 ∙ 0.496 1 0.496
0.126
Διορθώσεις στα Βάρη των Ακμών:
Δ - 4 ∙ ∙ 6- 1 ∙ 0,473 ∙ 0,126 0,060
Δ - 4 ∙ ∙ 6- 1 ∙ 0,6 ∙ 0,126 0,076
Δ - 4 ∙ 1 ∙ 6- 1 ∙ 1 ∙ 0,126 0,126
Υπολογισμός των νέων βαρών:
- - Δ - 0,3 0,060 0,360
- - Δ - 0,4 0,076 0,476
- - Δ - 0,4 0,126 0,274
ΝΕΥΡΩΝΑΣ 4 (νευρώνας εξόδου)
Υπολογισμός Τοπικής Κλίσης:
…
Διορθώσεις στα Βάρη των Ακμών:
…
Υπολογισμός των νέων βαρών:
…
ΝΕΥΡΩΝΑΣ 3 (κρυφός νευρώνας)
Υπολογισμός Τοπικής Κλίσης:
6 89
∙ ( ∙ 6( - ∙ 6- 1 ∙ ( ∙ 6( - ∙ 6-
0,473 1 0,473 ∙ 0,3 ∙ 0,111 0,3 ∙ 0,126 0,001
Διορθώσεις στα Βάρη των Ακμών:
Δ 4 ∙ ∙ 6 1 ∙ 0,6 ∙ 0,001 0,001
Δ 4 ∙ ∙ 6 1 ∙ 0,1 ∙ 0,001 0
Δ 4 ∙ 1 ∙ 6 1 ∙ 1 ∙ 0,001 0,001
Υπολογισμός των νέων βαρών:
Δ 0,4 0,001 0,401
Δ 0,5 0 0,5
Δ 0,4 0,001 0,399
ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑΟΠΙΣΘΟΔΙΑΔΟΣΗ ΤΟΥ ΛΑΘΟΥΣ (3 από 4: ΠΙΣΩ)
ΠΡΟΣ ΤΑ ΠΙΣΩ ΠΕΡΑΣΜΑ:
Α. ΥΠΟΛΟΓΙΣΜΟΣ ΤΟΠΙΚΩΝ
ΚΛΙΣΕΩΝ
Οι νευρώνες εξετάζονται κατά την
φθίνουσα αρίθµηση j=N, N-1,…,1
Υπολογισµός της τοπικής κλίσης
δ για κάθε υπολογιστικό νευρώνα:
Για τους νευρώνες εξόδου
6 3 ∙ 89
Για τους νευρώνες κρυφού
επιπέδου:
6 3 89
∙ ; 6< 3 ∙ < 3
<
Για τους νευρώνες εισόδου: ∆εν
γίνεται υπολογισµός τοπικής
κλίσης
Β. ∆ΙΟΡΘΩΣΕΙΣ ΣΤΑ ΒΑΡΗ
ΤΩΝ ΑΚΜΩΝ
∆ιορθώσεις σε όλα τα βάρη:
Υπολογισµός ∆ιόρθωσης των
Βαρών των ακµών:
Δw 3 4 ∙ 6 3 ∙ 3
Υπολογισµός των βαρών:
w 3 1 w 3 Δw 3
65 3
89
1 1 ∙ =67 3 ∙ 57 3
6> 3 ∙ 5> 3 6? 3 ∙ 5? 3 @
Το δ για τους νευρώνες
εξόδου υπολογίζεται ως το
γινόµενο
(Σφάλµα του νευρώνα)x
(Την παράγωγο της συνάρτησης
ενεργοποίησης)
4. ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑΟΠΙΣΘΟΔΙΑΔΟΣΗ ΤΟΥ ΛΑΘΟΥΣ (4 από 4: ΠΡΟΣΘΕΤΑ)
ΚΡΙΤΗΡΙΟ ΤΕΡΜΑΤΙΣΜΟΥ:
Το δίκτυο παράγει τις επιθυμητές εξόδους ή έχουν ένα σφάλμα μικρότερο από κριτήριο που έχουμε θέσει.
Το σφάλμα παρέμεινε ίδιο σε δύο διαδοχικούς κύκλους εκπαίδευσης
Εκτελέσαμε τον αλγόριθμο για ένα συγκεκριμένο αριθμό βημάτων.
Όνομα Συνάρτηση Παράγωγος
Σιγμοειδής 8 =
!"#AB
89
C8 1 8
Γραμμική 8 x 8′ =1
Υπερβολική Εφαπτομένη
8
1 FGH
1 FGH
8′ =
G
=1 8 @
Γραμμική με συντελεστή 8 αx 8′ =J
Ημίτονο 8 sin x 8′ =cos
Συνημίτονο 8 cos x 8′ = sin
ΠΙΝΑΚΑΣ (ΓΝΩΣΤΩΝ) ΠΑΡΑΓΩΓΩΝ: