SlideShare a Scribd company logo
1 of 31
Künstliche Intelligenz und visuelle Erzählungen: Comicanalyse
Hauptseminar im Sommersemester 2019
17.04.2019 – Künstliche Intelligenz, Machine Learning, Frameworks
Institut für Digital Humanities | Universität zu Köln | Prof. Dr. Øyvind Eide, Dr. Jan G. Wieners
 Machinelles Lernen (Machine Learning)
 Methoden:
 Reinforcement Learning
 Unsupervised Learning
 Supervised Learning
 (Künstliche) Neuronale Netze
 Sitzungsaufgabe
 Arbeitsaufträge zum 24.04.2019
Überblick 17.04.2019
Lektüretipp: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
Bewertungsalgorithmus
Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
Manuelle Klassifikation
Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
Machine Learning
Lernverfahren
 Supervised Learning – Überwachtes Lernen
 Unsupervised Learning – Unüberwachtes Lernen
 Reinforcement Learning / Verstärkendes Lernen
Reinforcement Learning
Reinforcement Learning
Reinforcement Learning
Endlicher Markov-Entscheidungsprozess
Verlauf von Entscheidungen, bei dem die
Belohnung des Agenten einzig von dem Zustand
der Umwelt und der Aktion des Agenten
abhängt. Definiert als Tupel 𝑆, 𝐴, 𝑃, 𝑅, 𝛾 mit:
• 𝑆 = 𝑠1, 𝑠2, … , 𝑠 𝑛 : Zustandsraum, d.h. die
möglichen Zustände der Umwelt; 𝑠𝑡 ∈ 𝑆
repräsentiert den Zustand der Agentenumwelt
zum Zeitpunkt 𝑡.
Endlicher Markov-Entscheidungsprozess
Verlauf von Entscheidungen, bei dem die
Belohnung des Agenten einzig von dem Zustand
der Umwelt und der Aktion des Agenten
abhängt. Definiert als Tupel 𝑆, 𝐴, 𝑃, 𝑅, 𝛾 :
• 𝑆 = 𝑠1, 𝑠2, … , 𝑠 𝑛 : Zustandsraum, d.h. die
möglichen Zustände der Umwelt; 𝑠𝑡 ∈ 𝑆
repräsentiert den Zustand der Agentenumwelt
zum Zeitpunkt 𝑡.
• 𝐴: Menge der Entscheidungen bzw.
Zugmöglichkeiten, die dem Agenten zu jedem
Umweltzustand 𝐴(𝑠) zur Verfügung stehen.
Endlicher Markov-Entscheidungsprozess
𝑆, 𝐴, 𝑃, 𝑅, 𝛾 :
• 𝑎 𝑡 ∈ 𝐴(𝑠𝑡): von dem Agenten ausgeführte Aktion zum
Zeitpunkt 𝑡.
• Übergangsfunktion 𝑃 𝑠, 𝑎, 𝑠′
: führt die Umwelt in ihrem
Zustand 𝑠 aufgrund der Handlung 𝑎 des Agenten zu
einem neuen möglichen Nachfolgezustand 𝑠′.
• 𝑅(𝑠, 𝑎, 𝑠′
): Belohnungsfunktion, Feedback, das der Agent
aufgrund seiner Handlung erhält.
• Diskontierungsfaktor 𝛾 mit 0 ≤ 𝛾 ≤ 1 lässt sich dazu
verwenden, um das Lernverhalten des Agenten
feinzujustieren. Dient dazu, künftige Belohnungen
gegenüber zeitnahen Belohnungen abzuschwächen.
𝜋∗
(𝑠) → 𝑎∗
|𝑠
Entscheidungsbäume, Monte Carlo Simulation
Monte Carlo Spielbaumsuche
Unsupervised Learning vs.
Supervised Learning
https://www.youtube.com/watch?v=cfj6yaYE86U
Künstliche Neuronale Netze
Künstliches Neuronales Netz (KNN)
Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
Neuron, Aktivierungsfunktionen
Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
/
Arbeitsaufträge 17.04.2019
 Diskutieren Sie in Ihrer Gruppe einen sinnvollen
Anwendungsfall für KI / Machine Learning und die
Analyse von Comics / Graphic Novels.
 Entwickeln Sie in Ihrer Gruppe eine Projektidee:
 Womit möchten Sie sich beschäftigen?
 Welche Forschungsfragen möchten Sie fokussieren?
Arbeitsaufträge zum 24.04.2019
 Lesen Sie die folgenden Kapitel in ix Developer (Winter
2018): „Machine Learning. Verstehen, verwenden,
verifizieren“:
 Marcel Tilly: „Künstliche neuronale Netze in Theorie und Praxis
– Das Gehirn des Rechners“ (S. 16-20)
 Marcel Tilly: „ Am Anfang war das Neuron“ (S. 21-23)
 Sara Bertram: „Ene, mene, muh –und raus bist du“ (S. 52-56)
 Entscheiden Sie sich für ein Machine-Learning
Framework (z.B. TensorFlow, Keras, etc.)
 Installieren Sie Ihr Framework und experimentieren Sie
anhand der Tutorials.
 Bereiten Sie eine kurze Präsentation über Ihre
Projektidee vor.

More Related Content

More from Institute for Digital Humanities, University of Cologne

More from Institute for Digital Humanities, University of Cologne (20)

Bit sosem 2016-wieners-sitzung-09_bild-i-kompression
Bit sosem 2016-wieners-sitzung-09_bild-i-kompressionBit sosem 2016-wieners-sitzung-09_bild-i-kompression
Bit sosem 2016-wieners-sitzung-09_bild-i-kompression
 
Bit sosem 2016-wieners-sitzung-08_semantic-web
Bit sosem 2016-wieners-sitzung-08_semantic-webBit sosem 2016-wieners-sitzung-08_semantic-web
Bit sosem 2016-wieners-sitzung-08_semantic-web
 
Bit sosem 2016-wieners-sitzung-07_rechnerkommunikation-ii
Bit sosem 2016-wieners-sitzung-07_rechnerkommunikation-iiBit sosem 2016-wieners-sitzung-07_rechnerkommunikation-ii
Bit sosem 2016-wieners-sitzung-07_rechnerkommunikation-ii
 
Bit sosem 2016-wieners-sitzung-06_rechnerkommunikation
Bit sosem 2016-wieners-sitzung-06_rechnerkommunikationBit sosem 2016-wieners-sitzung-06_rechnerkommunikation
Bit sosem 2016-wieners-sitzung-06_rechnerkommunikation
 
Bit sosem 2016-wieners-sitzung-05_zellulaere-automaten-conway
Bit sosem 2016-wieners-sitzung-05_zellulaere-automaten-conwayBit sosem 2016-wieners-sitzung-05_zellulaere-automaten-conway
Bit sosem 2016-wieners-sitzung-05_zellulaere-automaten-conway
 
Bit sosem 2016-wieners-sitzung-04_theoretische-informatik
Bit sosem 2016-wieners-sitzung-04_theoretische-informatikBit sosem 2016-wieners-sitzung-04_theoretische-informatik
Bit sosem 2016-wieners-sitzung-04_theoretische-informatik
 
Bit sosem 2016-wieners-sitzung-03_algorithmen
Bit sosem 2016-wieners-sitzung-03_algorithmenBit sosem 2016-wieners-sitzung-03_algorithmen
Bit sosem 2016-wieners-sitzung-03_algorithmen
 
Bit sosem 2016-wieners-sitzung-02_datenstrukturen
Bit sosem 2016-wieners-sitzung-02_datenstrukturenBit sosem 2016-wieners-sitzung-02_datenstrukturen
Bit sosem 2016-wieners-sitzung-02_datenstrukturen
 
Bit sosem 2016-wieners-sitzung-01_auffrischung
Bit sosem 2016-wieners-sitzung-01_auffrischungBit sosem 2016-wieners-sitzung-01_auffrischung
Bit sosem 2016-wieners-sitzung-01_auffrischung
 
Bit sosem 2016-wieners-sitzung-00_themenueberblick
Bit sosem 2016-wieners-sitzung-00_themenueberblickBit sosem 2016-wieners-sitzung-00_themenueberblick
Bit sosem 2016-wieners-sitzung-00_themenueberblick
 
Bit wisem 2015-wieners-sitzung-13_Zusammenfassung II
Bit wisem 2015-wieners-sitzung-13_Zusammenfassung IIBit wisem 2015-wieners-sitzung-13_Zusammenfassung II
Bit wisem 2015-wieners-sitzung-13_Zusammenfassung II
 
Bit wisem 2015-wieners-sitzung-12_Zusammenfassung I
Bit wisem 2015-wieners-sitzung-12_Zusammenfassung IBit wisem 2015-wieners-sitzung-12_Zusammenfassung I
Bit wisem 2015-wieners-sitzung-12_Zusammenfassung I
 
Bit wisem 2015-wieners-sitzung-11_Software-Entwicklung II: Entwurfsmuster
Bit wisem 2015-wieners-sitzung-11_Software-Entwicklung II: EntwurfsmusterBit wisem 2015-wieners-sitzung-11_Software-Entwicklung II: Entwurfsmuster
Bit wisem 2015-wieners-sitzung-11_Software-Entwicklung II: Entwurfsmuster
 
Bit wisem 2015-wieners-sitzung-10_Programmiersprachen
Bit wisem 2015-wieners-sitzung-10_ProgrammiersprachenBit wisem 2015-wieners-sitzung-10_Programmiersprachen
Bit wisem 2015-wieners-sitzung-10_Programmiersprachen
 
Bit wisem 2015-wieners-sitzung-09_Software-Entwicklung
Bit wisem 2015-wieners-sitzung-09_Software-EntwicklungBit wisem 2015-wieners-sitzung-09_Software-Entwicklung
Bit wisem 2015-wieners-sitzung-09_Software-Entwicklung
 
Bit wisem 2015-wieners-sitzung-08_Betriebssysteme: Metaphern, Datei- und Ress...
Bit wisem 2015-wieners-sitzung-08_Betriebssysteme: Metaphern, Datei- und Ress...Bit wisem 2015-wieners-sitzung-08_Betriebssysteme: Metaphern, Datei- und Ress...
Bit wisem 2015-wieners-sitzung-08_Betriebssysteme: Metaphern, Datei- und Ress...
 
Bit wisem 2015-wieners-sitzung-08_Hausaufgaben zu den De Morganschen Gesetzen
Bit wisem 2015-wieners-sitzung-08_Hausaufgaben zu den De Morganschen GesetzenBit wisem 2015-wieners-sitzung-08_Hausaufgaben zu den De Morganschen Gesetzen
Bit wisem 2015-wieners-sitzung-08_Hausaufgaben zu den De Morganschen Gesetzen
 
Basisinformationstechnologie I WiSem 2015 / 2016 | 07_Rechnertechnologie III:...
Basisinformationstechnologie I WiSem 2015 / 2016 | 07_Rechnertechnologie III:...Basisinformationstechnologie I WiSem 2015 / 2016 | 07_Rechnertechnologie III:...
Basisinformationstechnologie I WiSem 2015 / 2016 | 07_Rechnertechnologie III:...
 
Archäoinformatik II, Wintersemester 2015 / 2016 -- User stories und User Stor...
Archäoinformatik II, Wintersemester 2015 / 2016 -- User stories und User Stor...Archäoinformatik II, Wintersemester 2015 / 2016 -- User stories und User Stor...
Archäoinformatik II, Wintersemester 2015 / 2016 -- User stories und User Stor...
 
Basisinformationstechnologie I WiSem 2015 / 2016 | 06_Rechnertechnologie II: ...
Basisinformationstechnologie I WiSem 2015 / 2016 | 06_Rechnertechnologie II: ...Basisinformationstechnologie I WiSem 2015 / 2016 | 06_Rechnertechnologie II: ...
Basisinformationstechnologie I WiSem 2015 / 2016 | 06_Rechnertechnologie II: ...
 

Künstliche Intelligenz und visuelle Erzählungen: Comicanalyse | 17.04.2019 | Machine Learning

  • 1. Künstliche Intelligenz und visuelle Erzählungen: Comicanalyse Hauptseminar im Sommersemester 2019 17.04.2019 – Künstliche Intelligenz, Machine Learning, Frameworks Institut für Digital Humanities | Universität zu Köln | Prof. Dr. Øyvind Eide, Dr. Jan G. Wieners
  • 2.  Machinelles Lernen (Machine Learning)  Methoden:  Reinforcement Learning  Unsupervised Learning  Supervised Learning  (Künstliche) Neuronale Netze  Sitzungsaufgabe  Arbeitsaufträge zum 24.04.2019 Überblick 17.04.2019
  • 3. Lektüretipp: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
  • 4. Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
  • 5. Bewertungsalgorithmus Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
  • 6. Manuelle Klassifikation Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
  • 8. Lernverfahren  Supervised Learning – Überwachtes Lernen  Unsupervised Learning – Unüberwachtes Lernen  Reinforcement Learning / Verstärkendes Lernen
  • 12. Endlicher Markov-Entscheidungsprozess Verlauf von Entscheidungen, bei dem die Belohnung des Agenten einzig von dem Zustand der Umwelt und der Aktion des Agenten abhängt. Definiert als Tupel 𝑆, 𝐴, 𝑃, 𝑅, 𝛾 mit: • 𝑆 = 𝑠1, 𝑠2, … , 𝑠 𝑛 : Zustandsraum, d.h. die möglichen Zustände der Umwelt; 𝑠𝑡 ∈ 𝑆 repräsentiert den Zustand der Agentenumwelt zum Zeitpunkt 𝑡.
  • 13. Endlicher Markov-Entscheidungsprozess Verlauf von Entscheidungen, bei dem die Belohnung des Agenten einzig von dem Zustand der Umwelt und der Aktion des Agenten abhängt. Definiert als Tupel 𝑆, 𝐴, 𝑃, 𝑅, 𝛾 : • 𝑆 = 𝑠1, 𝑠2, … , 𝑠 𝑛 : Zustandsraum, d.h. die möglichen Zustände der Umwelt; 𝑠𝑡 ∈ 𝑆 repräsentiert den Zustand der Agentenumwelt zum Zeitpunkt 𝑡. • 𝐴: Menge der Entscheidungen bzw. Zugmöglichkeiten, die dem Agenten zu jedem Umweltzustand 𝐴(𝑠) zur Verfügung stehen.
  • 14. Endlicher Markov-Entscheidungsprozess 𝑆, 𝐴, 𝑃, 𝑅, 𝛾 : • 𝑎 𝑡 ∈ 𝐴(𝑠𝑡): von dem Agenten ausgeführte Aktion zum Zeitpunkt 𝑡. • Übergangsfunktion 𝑃 𝑠, 𝑎, 𝑠′ : führt die Umwelt in ihrem Zustand 𝑠 aufgrund der Handlung 𝑎 des Agenten zu einem neuen möglichen Nachfolgezustand 𝑠′. • 𝑅(𝑠, 𝑎, 𝑠′ ): Belohnungsfunktion, Feedback, das der Agent aufgrund seiner Handlung erhält. • Diskontierungsfaktor 𝛾 mit 0 ≤ 𝛾 ≤ 1 lässt sich dazu verwenden, um das Lernverhalten des Agenten feinzujustieren. Dient dazu, künftige Belohnungen gegenüber zeitnahen Belohnungen abzuschwächen.
  • 16.
  • 17.
  • 18.
  • 19.
  • 21.
  • 26. Künstliches Neuronales Netz (KNN) Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
  • 27. Neuron, Aktivierungsfunktionen Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
  • 28. Quelle: iX Developer (Winter 2018): Machine Learning – Verstehen, verwenden, verifizieren.
  • 29. /
  • 30. Arbeitsaufträge 17.04.2019  Diskutieren Sie in Ihrer Gruppe einen sinnvollen Anwendungsfall für KI / Machine Learning und die Analyse von Comics / Graphic Novels.  Entwickeln Sie in Ihrer Gruppe eine Projektidee:  Womit möchten Sie sich beschäftigen?  Welche Forschungsfragen möchten Sie fokussieren?
  • 31. Arbeitsaufträge zum 24.04.2019  Lesen Sie die folgenden Kapitel in ix Developer (Winter 2018): „Machine Learning. Verstehen, verwenden, verifizieren“:  Marcel Tilly: „Künstliche neuronale Netze in Theorie und Praxis – Das Gehirn des Rechners“ (S. 16-20)  Marcel Tilly: „ Am Anfang war das Neuron“ (S. 21-23)  Sara Bertram: „Ene, mene, muh –und raus bist du“ (S. 52-56)  Entscheiden Sie sich für ein Machine-Learning Framework (z.B. TensorFlow, Keras, etc.)  Installieren Sie Ihr Framework und experimentieren Sie anhand der Tutorials.  Bereiten Sie eine kurze Präsentation über Ihre Projektidee vor.