SlideShare a Scribd company logo
1 of 34
Download to read offline
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Filozofia Informacji, Wykład IV - Semantyczna
teoria informacji (cz. 2).
Artur Machlarz

17 stycznia 2014

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Plan wykładu

1

Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

2

Krytyka teorii BHC w pracach L. Floridiego
Tzw. paradoks teorii BHC
Informatywność praw logicznych

3

Krytyka teorii BHC w pracy Hintikki

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Logiczna funkcja m

Właściwa teoria informacji semantycznej i określenie miary
informatywności w teorii BHC zaczyna się wraz z wyborem funkcji
określającej interpretację prawdopodobieństwa, które pojawia się w
definicji miary informatywności. W teorii BHC funkcja ta musi określać a
priori tę wartość dla wszystkich elementów L. Do tego celu służy w teorii
BHC pojęcie m-funkcji właściwej.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Logiczna funkcja m

Pojęcie m-funkcji pochodzi z Carnapa Logical Foundations of Probability
(Chicago 1950). Funkcja ta określa wartość aprioryczną
prawdopodobieństwa statycznego alternatywnych stanów rzeczy w danej
dziedzinie. Prawdopodobieństwo w przypadku m-funkcji w teorii
informacji jest rozłożone symetrycznie na wszystkie logicznie możliwe
stany rzeczy tak, że suma wartości m-funkcji dla całego zbioru jest równa
1.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Logiczna funkcja m - definicja

Ta funkcja jest zdefiniowana logicznie, jako spełniająca szereg warunków:
Musi być większa niż 0 dla dowolnej klasy opisów stanów.
Suma wszystkich m-wartości = 1.
Dla dowolnego L-fałszywego zdania j, m(j) = 0.
Dla dowolnego nie-L-fałszywego zdania j, m(j) = sumie m-wartości
dla klasy opisów stanów w R(j).
Pozostałe własności - na wykładzie.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Logiczna funkcja m - uwagi

M-funkcja właściwa jest logiczną funkcją rozkładającą po równo
prawdopodobieństwo na wszystkie elementy zbioru. Nie uwzględnia się
przy tym żadnego rodzaju realnych warunków typu:
stopień potwierdzenia,
częstotliwość występowania,
inne dowody wspierające poszczególne elementy zbioru,
a tym bardziej wiarygodność źródła...
Interesują nas wyłącznie syntaktyczne możliwości naszego języka. To one
wyznaczają ilość możliwych stanów rzeczy - jednoznacznie określają całą
semantykę.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

cont - definicja

Przy użyciu m-funkcji defniuje się nastęnie miarę treści (cont):
cont(i) = mp (∼ i)
Innymi słowy: treści jest tyle, ile wynosi prawdopodobieństwo zdań
będących dopełnieniem zakresu zdania i.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

cont - własności

Najważniejsze własności cont:
1

cont(i)

0

cont(i) = 0 wtw i jest L-prawdziwe,
cont(i) = 1 wtw i jest L-fałszywe,
1 > cont(i) > 0 wtw i jest faktualne.
cont(i.j) = cont(i) + cont (j) wtw i oraz j są L-rozłączne, czyli
dedukcyjnie niezależne.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

cont - jeszcze jedna ciekawa własność

Kolejna własność cont:
Dla dowolnych dwóch zdań bazowych Bi oraz Bj z różnymi prostymi
predykatami, cont(Bj /Bi ) = 1/2cont(Bi ). Np. cont(Da/Za) = 1/4.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

cont - jeszcze jedna ciekawa własność

Kolejna własność cont:
Dla dowolnych dwóch zdań bazowych Bi oraz Bj z różnymi prostymi
predykatami, cont(Bj /Bi ) = 1/2cont(Bi ). Np. cont(Da/Za) = 1/4.
Ćwiczenie: jaki sens ma ta własność?

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

cont - jeszcze jedna ciekawa własność

Kolejna własność cont:
Dla dowolnych dwóch zdań bazowych Bi oraz Bj z różnymi prostymi
predykatami, cont(Bj /Bi ) = 1/2cont(Bi ). Np. cont(Da/Za) = 1/4.
Ćwiczenie: jaki sens ma ta własność? Jeśli odbiorca otrzymuje n-ilość
kolejno następujących po sobie zdań bazowych, z n-ilością odmiennych
predykatów, to wartość cont pierwszego wyniesie 1/2, drugiego: 1/4,
trzeciego: 1/8 itd.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

cont - czego brakuje?
Czy potrzebujemy czegoś jeszcze?
1

Zgodnie z przedostatnią z wymienionych własności, wartości treści i
oraz j są dodawalne o ile i oraz j są rozłączne: nie implikują tych
samych zdań. Ten warunek jest jednak dla BHC niewystarczający.
Wg BHC należy uwzględnić ich indukcyjną a nie dedukcyjną
niezależność.

2

Jeśli weźmiemy zdania bazowe traktowane jako niezależne
dedukcyjnie i indukcyjnie, to własność wymieniona jako ostatnia,
wydaje się nieadekwatna, bo nie powinna zależeń od idealnego
odbiorcy.

Wyjaśnienie: niezależność indukcyjna polega tutaj na tym, że
prawdopodobieństwo warunkowe zdań bazowych i/j będzie równe
bezwzględnemu prawdopodobieństwu i.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

inf - definicja

inf (funkcja pomiaru ilości informacji przypadającej na zdanie):
1
inf (i) = log 1−cont(i)

ewentualnie:
1
inf (i) = log cont(−i)

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

inf - warunek dodawalnośi

Funkcja cont nie spełnia warunku dodawalności, który to warunek jest
spełniony przez inf:
inf (i.j) = inf (i) + inf (j) wtw i oraz j są indukcyjnie niezależne.
Dowolne dwa zdania bazowe, mają wspólny zakres: np. alternatywę tych
zdań, która logicznie wynika tak z jednego jak i z drugiego. Nie są zatem
rozłączne logicznie, są zaś niezależne indukcyjnie.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Funkcja inf - własności

Najważniejsze pozostałe własności inf:
0 ≤ inf (i) ≤ ∞
inf(i) = 0 wtw i jest L-prawdziwe
inf(i) = ∞ wtw i jest L-fałszywe
inf(i) ma dodatnią skończoną wartość wtw i jest faktualne.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Czym różnią się cont i inf?

inf spełnia warunek dodawalności.
inf dla kontrtautologii uzyskuje wartość maksymalną - tzn.
nieskończoną (dla cont maximum jest 1).
L-rozłączność (czyli dedukcyjną niezależność) w cont zastępuje
indukcyjna niezależność w inf.
dla dowolnego zdania atomowego cont=1/2, inf=1.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Zastosowanie teorii BHC

Według Bar Hillela:
teoria informacji semantycznej w zarysowanym kształcie może być
rozszerzona w kierunku teorii pragmatycznej a ograniczenie do
zamkniętego systemu językowego da się “z łatwością” pokonać.
zarysowana teoria może być wartościowa dla teorii projektowania
eksperymentów (DOE) oraz
teorii testów.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Przykład teoretycznego zastosowania BHC
Według Bar Hillela inf może służyć jako definicja informatywności
hipotezy w świetle określonego stopnia potwierdzenia:
1
inf (h, e) = log cp (h,e) ,

gdzie nowa funkcja konfirmacji c mająca postać prawdopodobieństwa
warunkowego cp (h, e) określająca stopień potwierdzenia hipotezy h w
świetle potwierdzenia e może być zdefiniowana przez m-funkcję właściwą
przy pomocy prawdopodobieństwa warunkowego:
cp (h, e) =

Artur Machlarz

mp (e.h)
mp (e)

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Przykład teoretycznego zastosowania BHC

To twierdzenie pokazuje silną zależność między relatywną miarą
informacji nowej wiadomości h ze względu na dowód e - tzn. względne
prawdopodobieństwo indukcyjne hipotezy h w kontekście dowodu e. h i e
mogą być ewentualnie interpretowane jako (nowa) wiadomość i wiedza.
Widać wyraźnie, że wartość informacyjna inf(h/e) jest tym większa, im
mniej prawdopodobne jest h ze względu na dowód e.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Przykład teoretycznego zastosowania BHC

Funkcja konfirmacji wyraża stopień potwierdzenia jakiegoś zdania przez
inne zdania. Przykład dla języka L2 :
2
załóżmy, że p(e) = 1/2 a p(h) = 1/8 ;
wtedy: cp (h, e) =

3
4

- załóżmy, że h oraz e nie są L-rozłączne;

a zatem inf (h, e) = log 1 = 0, 422
3
4

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Przykład teoretycznego zastosowania BHC

Funkcja konfirmacji wyraża stopień potwierdzenia jakiegoś zdania przez
inne zdania. Przykład dla języka L2 :
2
załóżmy, że p(e) = 1/2 a p(h) = 1/8 ;
wtedy: cp (h, e) =

3
4

- załóżmy, że h oraz e nie są L-rozłączne;

a zatem inf (h, e) = log 1 = 0, 422
3
4

Stopień potwierdzenia c jest zatem wyznaczony przez związek logiczny
między e oraz h.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Oczekiwana wartość informacyjna wyniku eksperymentu
Wg BHC możemy na podstawie teorii informacji semantycznej a priori
np. określić wartość informacyjną oczekiwanych danych wyjściowych
przeprowadzanego eksperymentu. Załóżmy, że:
możliwe dane wyjściowe projektowanego eksperymentu to zdania:
h1 , h2 , ..., hn - są one rozłączne a ich alternatywa jest L-prawdziwa.
Zbiór tych zdań oznaczmy jako H.
m-funkcja jest zdefiniowana dla wszystkich zdań hi ∈ H - mamy
ustalony rozkład prawdopodobieństwa.
w ramach BHC możemy podać uogólnioną wartość informatywności
zbioru możliwych wyjściowych danych eksperymentu, których
wartość nie będzie oparta na rozkładzie prawdopodobieństwa
wyznaczonym wyłącznie przez m-funkcję właściwą, ale na
prawdopodobieństwie warunkowym względem stopnia potwierdzenia
n

c(hp , e) ∗ inf (hp /e)

przez e: est(in, H, e) =
p=1

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Oczekiwana wartość informacyjna wyniku eksperymentu przykład

Wartość informacyjna wyniku eksperymentu - przykład:
przyjmijmy, że: L2 , h1 = Dc, h2 = Zc, H = {h1 , h2 }, e = Da.Db.
3
Zatem:
cont ∗ (h1 /e) = 0, 1
cont ∗ (h2 /e) = 0, 2. Zatem:
est(cont ∗ , H, e) =
∗

est(inf , H, e) =

2
3

2
3

1
3 ∗ 0, 2 = 0, 133
2
1
1
3 + 3 ∗ 3 = 0, 918

∗ 0, 1 +

∗ Log

Artur Machlarz

oraz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC

Podsumowanie teorii BHC

Pytania kontrolne:
Jaki jest przedmiot tej teorii?
Jaki jest cel Bar-Hillela i Carnapa?
Jak określona jest miara informatywności i jaki jest jej sens?
Do czego może mieć zastosowanie teoria BHC?

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Tzw. paradoks teorii BHC
Informatywność praw logicznych

Problem informatywności praw logicznych - Carnap i
Bar-Hillel

W ramach teorii BHC tautologie i kontrtautologie również posiadają
wartość informacyjną:
wartość informacyjna tautologii = 0
wartość informacyjna kontrtautologii = ∞
Maksymalna wartość informacyjna kontrtautologii może być uznana za
wysoce nieintuicyjną.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Tzw. paradoks teorii BHC
Informatywność praw logicznych

Paradoks teorii BHC w ujęciu BHC

Wyjaśnienie Bar Hillela i Carnapa:

Może się to wydawać dziwne, że zdania sprzeczne (czyli takie,
których żaden idealny odbiorca nie mógłby zaakceptować)
okazują się zdaniami zawierającymi najwięcej informacji. Należy
jednak podkreślić, że informacja semantyczna nie implikuje
prawdziwości zdania. Zdania fałszywe mogą być w wysokim
stopniu informatywne. Zdania sprzeczne (kontrtautologie)
są zbyt informatywne, żeby mogły być prawdziwe.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Tzw. paradoks teorii BHC
Informatywność praw logicznych

Paradoks teorii BHC w ujęciu Floridiego

Wysoka wartość informacyjna zdań, które nie mówią kompletnie nic o
rzeczywistości jest konsekwencją, której na gruncie definicji przyjętych w
BHC nie da się ominąć. Dla Floridiego jest to konsekwencja, której
wartość urasta w filozofii informacji do rangi paradoksu Gettiera w teorii
wiedzy. Staje się ona dla Floridiego jednym z istotnych argumentów za
przyjęciem prawdziwościowo określonej definicji informacji.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Tzw. paradoks teorii BHC
Informatywność praw logicznych

O czym mówimy na zajęciach z logiki?

Problem informatywności praw logicznych pojawiał się także w innych
kontekstach, np.:
Wittgenstein: “Zdania pokazują, co mówią: tautologia i sprzeczność
pokazują, że nie mówią nic. (...) Tautologia i sprzeczność są
bezsensowne (...) (Nie wiem np. nic o pogodzie, gdy wiem tylko, że
pada lub nie pada.) (...) Tautologia i sprzeczność nie są obrazami
rzeczywistości. Nie przedstawiają one żadnej możliwej sytuacji.
Pierwsza dopuszcza bowiem każdą możliwą sytuację a druga nie
dopuszcza żadnej.” (Tractatus logico-philosophicus, 4.461, 4.462)
Tautologie i kontrtautologie nie są informatywne: nie obrazują bowiem
rzeczywistości.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Tzw. paradoks teorii BHC
Informatywność praw logicznych

O czym mówimy na zajęciach z logiki?

Problem informatywności praw logicznych w teorii Dretskego i Floridiego:
Dretske: sygnał jest informatywny a informacja pełni funkcję
wiedzotwórczą dzięki “prawom naturalnym” i “prawom logiki”.
Zarówno prawa logiki jak i prawa naturalne, jako odnoszące się do
pewnego typu zdarzeń we wszelkich kontekstach, mają zerową
wartość informacyjną.
Floridi: tautologie i kontrtautologie stanowią graniczne przykłady
relacji infonu do określonej sytuacji. Niezależnie od tego, czy infon
jest potwierdzany przez dowolną czy żadną sytuację, wartość
informacyjna takiego infonu wynosi 0.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Tzw. paradoks teorii BHC
Informatywność praw logicznych

O czym mówimy na zajęciach z logiki?

Naturalnie nie wszyscy uznają prawa logiczne za pozbawione znaczenia:
w szczególności należy zwrócić uwagę na rozwiązanie
zaproponowane przez Jaakko Hintikkę w kategoriach logiki
epistemicznej będącej prostym przekształceniem logiki modalnej K.
oraz tzw. algorytmiczną teorię informacji.
Więcej na ten temat w: Manuel E. Bremer Do Logical Truths Carry
Information?, w: “Minds and Machines” Volume 13 Issue 4, November
2003 oraz na następnym wykładzie.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Przedmiot krytyki Jaakko Hintikki
Hintikka poddaje krytyce interpretację pojęcia prawdopodobieństwa w
teorii BHC. Wg Hintikki w teorii BHC znaleźć można przynajmniej dwie
trudności związane z interpretacją pojęcia prawdopodobieństwa:
1

w teorii BHC jesteśmy zainteresowani jedynie różnymi alternatywami
i czysto logicznym prawdopodobieństwem; informacja nie ma nic
wspólnego ze stanem wiedzy lub przekonaniami. Tymczasem
informacja niesiona przez hipotezę jest prawdopodobieństwem a
posteriori - czymś, co może być wzmocnione przez np. już
przeprowadzone obserwacje w stopniu zależnym od ich ilości.

2

funkcja m dopuszcza trudną do utrzymania konsekwencję: przy
rozszerzeniu teorii BHC, przy nieskończonym uniwersum, zdania
ogólne mają prawdopodobieństwo zerowe.

3

ponadto przyjęty w BHC język jest zbyt ubogi nawet dla języków
naukowych, w których pojawia się więcej niż tylko predykaty
jednoargumentowe i stałe indywiduowe.
Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Przedmiot krytyki Jaakko Hintikki

Szczegółowa analiza Hintikki propozycji rozwiązania problemu oraz
kategorie informacji głębokiej i powierzchniowej zostaną przedstawione na
kolejnym wykładzie.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Literatura

Duża część tego wykładu oparta jest na tekstach Bar-Hillela
zamieszczonych w wyborze:
Language and Information. Selected Essays in their Theory and
Application. Massachusetts 1964.
Polecam także:
Halina Mortimer Logika indukcji, Warszawa 1982.

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki

Dziękuję za uwagę i zapraszam do stawiania pytań!
Artur Machlarz
e-mail: artur.machlarz@uni.opole.pl
www: http://www.uni.opole.pl/∼machlarz

Artur Machlarz

Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).

More Related Content

Viewers also liked

Wprowadzenie do filozofii I
Wprowadzenie do filozofii IWprowadzenie do filozofii I
Wprowadzenie do filozofii IArtur Machlarz
 
Teoria informacji pragmatycznej
Teoria informacji pragmatycznejTeoria informacji pragmatycznej
Teoria informacji pragmatycznejArtur Machlarz
 
Sceptycyzm filozofia średniowieczna
Sceptycyzm filozofia średniowiecznaSceptycyzm filozofia średniowieczna
Sceptycyzm filozofia średniowiecznaArtur Machlarz
 
Strukturalizm de Saussure
Strukturalizm de SaussureStrukturalizm de Saussure
Strukturalizm de SaussureArtur Machlarz
 
Platońska teoria idei
Platońska teoria ideiPlatońska teoria idei
Platońska teoria ideiArtur Machlarz
 
Filozofia podział filozofii filozofia archaiczna
Filozofia podział filozofii filozofia archaicznaFilozofia podział filozofii filozofia archaiczna
Filozofia podział filozofii filozofia archaicznaArtur Machlarz
 
August Comte i program pozytywizmu
August Comte i program pozytywizmuAugust Comte i program pozytywizmu
August Comte i program pozytywizmuArtur Machlarz
 
Filozofia Eleatów i Demokryta
Filozofia Eleatów i DemokrytaFilozofia Eleatów i Demokryta
Filozofia Eleatów i DemokrytaArtur Machlarz
 
Filozofia Arystotelesa
Filozofia ArystotelesaFilozofia Arystotelesa
Filozofia ArystotelesaArtur Machlarz
 
Wprowadzenie do filozofii nowożytnej
Wprowadzenie do filozofii nowożytnejWprowadzenie do filozofii nowożytnej
Wprowadzenie do filozofii nowożytnejArtur Machlarz
 

Viewers also liked (16)

Wolna informacja
Wolna informacjaWolna informacja
Wolna informacja
 
Wprowadzenie do filozofii I
Wprowadzenie do filozofii IWprowadzenie do filozofii I
Wprowadzenie do filozofii I
 
Teoria informacji pragmatycznej
Teoria informacji pragmatycznejTeoria informacji pragmatycznej
Teoria informacji pragmatycznej
 
Krytyka hermeneutyki
Krytyka hermeneutykiKrytyka hermeneutyki
Krytyka hermeneutyki
 
Sceptycyzm filozofia średniowieczna
Sceptycyzm filozofia średniowiecznaSceptycyzm filozofia średniowieczna
Sceptycyzm filozofia średniowieczna
 
Strukturalizm de Saussure
Strukturalizm de SaussureStrukturalizm de Saussure
Strukturalizm de Saussure
 
Platońska teoria idei
Platońska teoria ideiPlatońska teoria idei
Platońska teoria idei
 
Zwrot jezykowy
Zwrot jezykowyZwrot jezykowy
Zwrot jezykowy
 
Relatywizm językowy
Relatywizm językowyRelatywizm językowy
Relatywizm językowy
 
Filozofia podział filozofii filozofia archaiczna
Filozofia podział filozofii filozofia archaicznaFilozofia podział filozofii filozofia archaiczna
Filozofia podział filozofii filozofia archaiczna
 
Kartezjusz
KartezjuszKartezjusz
Kartezjusz
 
Immanuel Kant
Immanuel KantImmanuel Kant
Immanuel Kant
 
August Comte i program pozytywizmu
August Comte i program pozytywizmuAugust Comte i program pozytywizmu
August Comte i program pozytywizmu
 
Filozofia Eleatów i Demokryta
Filozofia Eleatów i DemokrytaFilozofia Eleatów i Demokryta
Filozofia Eleatów i Demokryta
 
Filozofia Arystotelesa
Filozofia ArystotelesaFilozofia Arystotelesa
Filozofia Arystotelesa
 
Wprowadzenie do filozofii nowożytnej
Wprowadzenie do filozofii nowożytnejWprowadzenie do filozofii nowożytnej
Wprowadzenie do filozofii nowożytnej
 

Semantyczna teoria informacji 2

  • 1. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2). Artur Machlarz 17 stycznia 2014 Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 2. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Plan wykładu 1 Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC 2 Krytyka teorii BHC w pracach L. Floridiego Tzw. paradoks teorii BHC Informatywność praw logicznych 3 Krytyka teorii BHC w pracy Hintikki Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 3. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Logiczna funkcja m Właściwa teoria informacji semantycznej i określenie miary informatywności w teorii BHC zaczyna się wraz z wyborem funkcji określającej interpretację prawdopodobieństwa, które pojawia się w definicji miary informatywności. W teorii BHC funkcja ta musi określać a priori tę wartość dla wszystkich elementów L. Do tego celu służy w teorii BHC pojęcie m-funkcji właściwej. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 4. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Logiczna funkcja m Pojęcie m-funkcji pochodzi z Carnapa Logical Foundations of Probability (Chicago 1950). Funkcja ta określa wartość aprioryczną prawdopodobieństwa statycznego alternatywnych stanów rzeczy w danej dziedzinie. Prawdopodobieństwo w przypadku m-funkcji w teorii informacji jest rozłożone symetrycznie na wszystkie logicznie możliwe stany rzeczy tak, że suma wartości m-funkcji dla całego zbioru jest równa 1. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 5. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Logiczna funkcja m - definicja Ta funkcja jest zdefiniowana logicznie, jako spełniająca szereg warunków: Musi być większa niż 0 dla dowolnej klasy opisów stanów. Suma wszystkich m-wartości = 1. Dla dowolnego L-fałszywego zdania j, m(j) = 0. Dla dowolnego nie-L-fałszywego zdania j, m(j) = sumie m-wartości dla klasy opisów stanów w R(j). Pozostałe własności - na wykładzie. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 6. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Logiczna funkcja m - uwagi M-funkcja właściwa jest logiczną funkcją rozkładającą po równo prawdopodobieństwo na wszystkie elementy zbioru. Nie uwzględnia się przy tym żadnego rodzaju realnych warunków typu: stopień potwierdzenia, częstotliwość występowania, inne dowody wspierające poszczególne elementy zbioru, a tym bardziej wiarygodność źródła... Interesują nas wyłącznie syntaktyczne możliwości naszego języka. To one wyznaczają ilość możliwych stanów rzeczy - jednoznacznie określają całą semantykę. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 7. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC cont - definicja Przy użyciu m-funkcji defniuje się nastęnie miarę treści (cont): cont(i) = mp (∼ i) Innymi słowy: treści jest tyle, ile wynosi prawdopodobieństwo zdań będących dopełnieniem zakresu zdania i. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 8. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC cont - własności Najważniejsze własności cont: 1 cont(i) 0 cont(i) = 0 wtw i jest L-prawdziwe, cont(i) = 1 wtw i jest L-fałszywe, 1 > cont(i) > 0 wtw i jest faktualne. cont(i.j) = cont(i) + cont (j) wtw i oraz j są L-rozłączne, czyli dedukcyjnie niezależne. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 9. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC cont - jeszcze jedna ciekawa własność Kolejna własność cont: Dla dowolnych dwóch zdań bazowych Bi oraz Bj z różnymi prostymi predykatami, cont(Bj /Bi ) = 1/2cont(Bi ). Np. cont(Da/Za) = 1/4. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 10. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC cont - jeszcze jedna ciekawa własność Kolejna własność cont: Dla dowolnych dwóch zdań bazowych Bi oraz Bj z różnymi prostymi predykatami, cont(Bj /Bi ) = 1/2cont(Bi ). Np. cont(Da/Za) = 1/4. Ćwiczenie: jaki sens ma ta własność? Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 11. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC cont - jeszcze jedna ciekawa własność Kolejna własność cont: Dla dowolnych dwóch zdań bazowych Bi oraz Bj z różnymi prostymi predykatami, cont(Bj /Bi ) = 1/2cont(Bi ). Np. cont(Da/Za) = 1/4. Ćwiczenie: jaki sens ma ta własność? Jeśli odbiorca otrzymuje n-ilość kolejno następujących po sobie zdań bazowych, z n-ilością odmiennych predykatów, to wartość cont pierwszego wyniesie 1/2, drugiego: 1/4, trzeciego: 1/8 itd. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 12. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC cont - czego brakuje? Czy potrzebujemy czegoś jeszcze? 1 Zgodnie z przedostatnią z wymienionych własności, wartości treści i oraz j są dodawalne o ile i oraz j są rozłączne: nie implikują tych samych zdań. Ten warunek jest jednak dla BHC niewystarczający. Wg BHC należy uwzględnić ich indukcyjną a nie dedukcyjną niezależność. 2 Jeśli weźmiemy zdania bazowe traktowane jako niezależne dedukcyjnie i indukcyjnie, to własność wymieniona jako ostatnia, wydaje się nieadekwatna, bo nie powinna zależeń od idealnego odbiorcy. Wyjaśnienie: niezależność indukcyjna polega tutaj na tym, że prawdopodobieństwo warunkowe zdań bazowych i/j będzie równe bezwzględnemu prawdopodobieństwu i. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 13. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC inf - definicja inf (funkcja pomiaru ilości informacji przypadającej na zdanie): 1 inf (i) = log 1−cont(i) ewentualnie: 1 inf (i) = log cont(−i) Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 14. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC inf - warunek dodawalnośi Funkcja cont nie spełnia warunku dodawalności, który to warunek jest spełniony przez inf: inf (i.j) = inf (i) + inf (j) wtw i oraz j są indukcyjnie niezależne. Dowolne dwa zdania bazowe, mają wspólny zakres: np. alternatywę tych zdań, która logicznie wynika tak z jednego jak i z drugiego. Nie są zatem rozłączne logicznie, są zaś niezależne indukcyjnie. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 15. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Funkcja inf - własności Najważniejsze pozostałe własności inf: 0 ≤ inf (i) ≤ ∞ inf(i) = 0 wtw i jest L-prawdziwe inf(i) = ∞ wtw i jest L-fałszywe inf(i) ma dodatnią skończoną wartość wtw i jest faktualne. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 16. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Czym różnią się cont i inf? inf spełnia warunek dodawalności. inf dla kontrtautologii uzyskuje wartość maksymalną - tzn. nieskończoną (dla cont maximum jest 1). L-rozłączność (czyli dedukcyjną niezależność) w cont zastępuje indukcyjna niezależność w inf. dla dowolnego zdania atomowego cont=1/2, inf=1. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 17. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Zastosowanie teorii BHC Według Bar Hillela: teoria informacji semantycznej w zarysowanym kształcie może być rozszerzona w kierunku teorii pragmatycznej a ograniczenie do zamkniętego systemu językowego da się “z łatwością” pokonać. zarysowana teoria może być wartościowa dla teorii projektowania eksperymentów (DOE) oraz teorii testów. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 18. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Przykład teoretycznego zastosowania BHC Według Bar Hillela inf może służyć jako definicja informatywności hipotezy w świetle określonego stopnia potwierdzenia: 1 inf (h, e) = log cp (h,e) , gdzie nowa funkcja konfirmacji c mająca postać prawdopodobieństwa warunkowego cp (h, e) określająca stopień potwierdzenia hipotezy h w świetle potwierdzenia e może być zdefiniowana przez m-funkcję właściwą przy pomocy prawdopodobieństwa warunkowego: cp (h, e) = Artur Machlarz mp (e.h) mp (e) Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 19. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Przykład teoretycznego zastosowania BHC To twierdzenie pokazuje silną zależność między relatywną miarą informacji nowej wiadomości h ze względu na dowód e - tzn. względne prawdopodobieństwo indukcyjne hipotezy h w kontekście dowodu e. h i e mogą być ewentualnie interpretowane jako (nowa) wiadomość i wiedza. Widać wyraźnie, że wartość informacyjna inf(h/e) jest tym większa, im mniej prawdopodobne jest h ze względu na dowód e. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 20. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Przykład teoretycznego zastosowania BHC Funkcja konfirmacji wyraża stopień potwierdzenia jakiegoś zdania przez inne zdania. Przykład dla języka L2 : 2 załóżmy, że p(e) = 1/2 a p(h) = 1/8 ; wtedy: cp (h, e) = 3 4 - załóżmy, że h oraz e nie są L-rozłączne; a zatem inf (h, e) = log 1 = 0, 422 3 4 Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 21. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Przykład teoretycznego zastosowania BHC Funkcja konfirmacji wyraża stopień potwierdzenia jakiegoś zdania przez inne zdania. Przykład dla języka L2 : 2 załóżmy, że p(e) = 1/2 a p(h) = 1/8 ; wtedy: cp (h, e) = 3 4 - załóżmy, że h oraz e nie są L-rozłączne; a zatem inf (h, e) = log 1 = 0, 422 3 4 Stopień potwierdzenia c jest zatem wyznaczony przez związek logiczny między e oraz h. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 22. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Oczekiwana wartość informacyjna wyniku eksperymentu Wg BHC możemy na podstawie teorii informacji semantycznej a priori np. określić wartość informacyjną oczekiwanych danych wyjściowych przeprowadzanego eksperymentu. Załóżmy, że: możliwe dane wyjściowe projektowanego eksperymentu to zdania: h1 , h2 , ..., hn - są one rozłączne a ich alternatywa jest L-prawdziwa. Zbiór tych zdań oznaczmy jako H. m-funkcja jest zdefiniowana dla wszystkich zdań hi ∈ H - mamy ustalony rozkład prawdopodobieństwa. w ramach BHC możemy podać uogólnioną wartość informatywności zbioru możliwych wyjściowych danych eksperymentu, których wartość nie będzie oparta na rozkładzie prawdopodobieństwa wyznaczonym wyłącznie przez m-funkcję właściwą, ale na prawdopodobieństwie warunkowym względem stopnia potwierdzenia n c(hp , e) ∗ inf (hp /e) przez e: est(in, H, e) = p=1 Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 23. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Oczekiwana wartość informacyjna wyniku eksperymentu przykład Wartość informacyjna wyniku eksperymentu - przykład: przyjmijmy, że: L2 , h1 = Dc, h2 = Zc, H = {h1 , h2 }, e = Da.Db. 3 Zatem: cont ∗ (h1 /e) = 0, 1 cont ∗ (h2 /e) = 0, 2. Zatem: est(cont ∗ , H, e) = ∗ est(inf , H, e) = 2 3 2 3 1 3 ∗ 0, 2 = 0, 133 2 1 1 3 + 3 ∗ 3 = 0, 918 ∗ 0, 1 + ∗ Log Artur Machlarz oraz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 24. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki cont i inf jako miara informatywności Własności cont i inf - porównanie Zastosowanie teorii BHC Podsumowanie teorii BHC Podsumowanie teorii BHC Pytania kontrolne: Jaki jest przedmiot tej teorii? Jaki jest cel Bar-Hillela i Carnapa? Jak określona jest miara informatywności i jaki jest jej sens? Do czego może mieć zastosowanie teoria BHC? Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 25. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Tzw. paradoks teorii BHC Informatywność praw logicznych Problem informatywności praw logicznych - Carnap i Bar-Hillel W ramach teorii BHC tautologie i kontrtautologie również posiadają wartość informacyjną: wartość informacyjna tautologii = 0 wartość informacyjna kontrtautologii = ∞ Maksymalna wartość informacyjna kontrtautologii może być uznana za wysoce nieintuicyjną. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 26. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Tzw. paradoks teorii BHC Informatywność praw logicznych Paradoks teorii BHC w ujęciu BHC Wyjaśnienie Bar Hillela i Carnapa: Może się to wydawać dziwne, że zdania sprzeczne (czyli takie, których żaden idealny odbiorca nie mógłby zaakceptować) okazują się zdaniami zawierającymi najwięcej informacji. Należy jednak podkreślić, że informacja semantyczna nie implikuje prawdziwości zdania. Zdania fałszywe mogą być w wysokim stopniu informatywne. Zdania sprzeczne (kontrtautologie) są zbyt informatywne, żeby mogły być prawdziwe. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 27. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Tzw. paradoks teorii BHC Informatywność praw logicznych Paradoks teorii BHC w ujęciu Floridiego Wysoka wartość informacyjna zdań, które nie mówią kompletnie nic o rzeczywistości jest konsekwencją, której na gruncie definicji przyjętych w BHC nie da się ominąć. Dla Floridiego jest to konsekwencja, której wartość urasta w filozofii informacji do rangi paradoksu Gettiera w teorii wiedzy. Staje się ona dla Floridiego jednym z istotnych argumentów za przyjęciem prawdziwościowo określonej definicji informacji. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 28. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Tzw. paradoks teorii BHC Informatywność praw logicznych O czym mówimy na zajęciach z logiki? Problem informatywności praw logicznych pojawiał się także w innych kontekstach, np.: Wittgenstein: “Zdania pokazują, co mówią: tautologia i sprzeczność pokazują, że nie mówią nic. (...) Tautologia i sprzeczność są bezsensowne (...) (Nie wiem np. nic o pogodzie, gdy wiem tylko, że pada lub nie pada.) (...) Tautologia i sprzeczność nie są obrazami rzeczywistości. Nie przedstawiają one żadnej możliwej sytuacji. Pierwsza dopuszcza bowiem każdą możliwą sytuację a druga nie dopuszcza żadnej.” (Tractatus logico-philosophicus, 4.461, 4.462) Tautologie i kontrtautologie nie są informatywne: nie obrazują bowiem rzeczywistości. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 29. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Tzw. paradoks teorii BHC Informatywność praw logicznych O czym mówimy na zajęciach z logiki? Problem informatywności praw logicznych w teorii Dretskego i Floridiego: Dretske: sygnał jest informatywny a informacja pełni funkcję wiedzotwórczą dzięki “prawom naturalnym” i “prawom logiki”. Zarówno prawa logiki jak i prawa naturalne, jako odnoszące się do pewnego typu zdarzeń we wszelkich kontekstach, mają zerową wartość informacyjną. Floridi: tautologie i kontrtautologie stanowią graniczne przykłady relacji infonu do określonej sytuacji. Niezależnie od tego, czy infon jest potwierdzany przez dowolną czy żadną sytuację, wartość informacyjna takiego infonu wynosi 0. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 30. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Tzw. paradoks teorii BHC Informatywność praw logicznych O czym mówimy na zajęciach z logiki? Naturalnie nie wszyscy uznają prawa logiczne za pozbawione znaczenia: w szczególności należy zwrócić uwagę na rozwiązanie zaproponowane przez Jaakko Hintikkę w kategoriach logiki epistemicznej będącej prostym przekształceniem logiki modalnej K. oraz tzw. algorytmiczną teorię informacji. Więcej na ten temat w: Manuel E. Bremer Do Logical Truths Carry Information?, w: “Minds and Machines” Volume 13 Issue 4, November 2003 oraz na następnym wykładzie. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 31. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Przedmiot krytyki Jaakko Hintikki Hintikka poddaje krytyce interpretację pojęcia prawdopodobieństwa w teorii BHC. Wg Hintikki w teorii BHC znaleźć można przynajmniej dwie trudności związane z interpretacją pojęcia prawdopodobieństwa: 1 w teorii BHC jesteśmy zainteresowani jedynie różnymi alternatywami i czysto logicznym prawdopodobieństwem; informacja nie ma nic wspólnego ze stanem wiedzy lub przekonaniami. Tymczasem informacja niesiona przez hipotezę jest prawdopodobieństwem a posteriori - czymś, co może być wzmocnione przez np. już przeprowadzone obserwacje w stopniu zależnym od ich ilości. 2 funkcja m dopuszcza trudną do utrzymania konsekwencję: przy rozszerzeniu teorii BHC, przy nieskończonym uniwersum, zdania ogólne mają prawdopodobieństwo zerowe. 3 ponadto przyjęty w BHC język jest zbyt ubogi nawet dla języków naukowych, w których pojawia się więcej niż tylko predykaty jednoargumentowe i stałe indywiduowe. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 32. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Przedmiot krytyki Jaakko Hintikki Szczegółowa analiza Hintikki propozycji rozwiązania problemu oraz kategorie informacji głębokiej i powierzchniowej zostaną przedstawione na kolejnym wykładzie. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 33. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Literatura Duża część tego wykładu oparta jest na tekstach Bar-Hillela zamieszczonych w wyborze: Language and Information. Selected Essays in their Theory and Application. Massachusetts 1964. Polecam także: Halina Mortimer Logika indukcji, Warszawa 1982. Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
  • 34. Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd. Krytyka teorii BHC w pracach L. Floridiego Krytyka teorii BHC w pracy Hintikki Dziękuję za uwagę i zapraszam do stawiania pytań! Artur Machlarz e-mail: artur.machlarz@uni.opole.pl www: http://www.uni.opole.pl/∼machlarz Artur Machlarz Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).