Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Metody numeryczne metody prohaviistyczne.
1. Metody Numeryczne
i
Metody Probabilistyczne.
Metody interakcyjne
Statystyka korelacje
2. Iteracyjna metoda Aitkena
• Istnieje metoda obliczania wartości wielomianu Lagrange'a w zadanym
punkcie, bez obliczania samego wielomianu interpolacyjnego. Służy do
tego iteracyjna metoda Aitkena.
• by obliczyd wartośd wielomianu interpolacyjnego opartego na n węzłach w
dowolnym punkcie a różnym od węzłów, należy obliczyd wartośd .
Wszystkie wyniki niezbędnych obliczeo wygodnie jest umieścid w macierzy
trójkątnej wraz z węzłami oraz ich wartościami (schemat taki nazywamy
schematem Aitkena). Rozwiązanie takie jest dogodne zarówno podczas
rachunków ręcznych, jak i maszynowych, gdyż podczas obliczania każdej
wartości zawsze korzystamy z wartości położonych na lewo w tym samym
rzędzie i powyższych
3. Metoda Gaussa-Seidla
• – iteracyjna metoda numeryczna rozwiązywania układów równao
liniowych. Stosowana jest głównie do rozwiązywania ogromnych
układów równao postaci , w których jest macierzą przekątniowo
dominującą. Równania tego typu, obejmujące tysiące a nawet
miliony niewiadomych, występują powszechnie w numerycznych
metodach rozwiązywania eliptycznych równao różniczkowych
cząstkowych, np. równania Laplace'a. Nazwa metody upamiętnia
niemieckich matematyków: Carla Friedricha Gaussa i Philippa
Ludwiga von Seidla
• Obecnie metoda Gaussa-Seidla ma charakter czysto akademicki. Dla
małych układów równao dużo szybsze są metody bezpośrednie, np.
metoda eliminacji Gaussa, natomiast dla ogromnych układów
równao lepszą zbieżnośd zapewniają metody nadrelaksacyjne oraz
wielosiatkowe (ang. multigrid).
4. Metoda Warda - Hale’a
• jest metodą iteracyjną, umożliwiającą rozwiązanie równao
sieci elektroenergetycznej w oparciu o układ równao
nieliniowych wiążących ze sobą i w każdym węźle.
Odpowiednio zależnie od rodzaju węzła wybiera się także
zmienne niezależne i zależne oraz przyjmuje częśd wielkości
za znane. Podstawą rozpoczęcia procesu rozwiązywania
równao jest przyjęcie rozwiązania wyjściowego
(przybliżenie zerowe), z którego wyznacza się rozwiązania
po pierwszym kroku iteracyjnym. Rozwiązanie to jest
rozwiązaniem wyjściowym drugiego kroku iteracyjnego itd.
Jeżeli proces iteracyjny jest zbieżny to kolejne rozwiązania
są coraz dokładniejsze, proces przerywa się, gdy różnica
między kolejnymi krokami iteracyjnymi jest dostatecznie
mała.
5. Metoda Jacobiego
• jest metodą iteracyjną i pozwala nam obliczyd
układ n równao z n niewiadomymi Ax = b.
Wektor x0 będący początkowym przybliżeniem
rozwiązania układu będzie dany (zwykle
przyjmuje się go jako wektor złożony z samych
zer). Kolejne przybliżenia będziemy obliczad
według następującego wzoru:
x(n+1)=Mx+Nb
6. Współczynnik korelacji
• liczba określająca w jakim stopniu zmienne są
współzależne. Jest miarą korelacji dwu (lub więcej)
zmiennych. Istnieje wiele różnych wzorów określanych jako
współczynniki korelacji. Większośd z nich jest
normalizowana tak, żeby przybierała wartości od -1
(zupełna korelacja ujemna), przez 0 (brak korelacji) do +1
(zupełna korelacja dodatnia).
• Najczęściej stosowany jest współczynnik korelacji r
Pearsona. W przypadku rozkładu dalekiego od
dwuwymiarowego normalnego lub istnienia w próbie
obserwacji odstających współczynnik korelacji Pearsona
może fałszywie wskazywad na nieistniejącą korelację. Wady
tej nie mają współczynniki rangowe, które z kolei mają
mniejszą efektywnośd dla rozkładów bliskich normalnemu.
7. Korelacja między zmiennymi X i Y
• jest miarą siły liniowego związku między tymi zmiennymi.
• Analizę związku korelacyjnego między badanymi cechami rozpoczynamy zawsze od
sporządzenia wykresu. Wykresy, które reprezentują obrazowo związek pomiędzy zmiennymi,
nazywane są wykresami rozrzutu (scatterplot). Wzrokowa ocena ułatwia określenie siły i
rodzaju zależności. Przyjmijmy, że zbiorowośd jest badana ze względu na dwie zmienne X i Y, a
wartości tych zmiennych w populacji lub próbie n- elementowej są zestawione w postaci
dwóch szeregów szczegółowych lub rozdzielczych. W prostokątnym układzie współrzędnych
na osi odciętych zaznaczamy wartości jednej zmiennej, a na osi rzędnych - wartości drugiej
zmiennej. Punkty odpowiadające poszczególnym wartościom cech tworzą korelacyjny wykres
rozrzutu. Rzadko się zdarza, że zaznaczone punkty leżą dokładnie na linii prostej (pełna
korelacja); częściej spotykana konfiguracja składa się z wielu zaznaczonych punktów leżących
mniej więcej wzdłuż konkretnej krzywej (najczęściej linii prostej). Taka sytuacja przedstawiona
jest jako przypadek 1. Przy silnie skorelowanych zmiennych odnosimy wrażenie, jakby te
punkty równocześnie się poruszały. Gdy korelacja staje się coraz słabsza, wówczas punkty
zaczynają się rozpraszad i przesuwad, tworząc w pewnym momencie bezkształtną chmurę
punktów (brak korelacji). Taka sytuacja ma miejsce w przypadku 3. na rysunku 1. Korelacja
dodatnia występuje wtedy, gdy wzrostowi wartości jednej zmiennej odpowiada wzrost
średnich wartości drugiej zmiennej (przypadek 1. na rys. 1). Korelacja ujemna występuje
wtedy, gdy wzrostowi wartości jednej zmiennej odpowiada spadek średnich wartości drugiej
zmiennej (przypadek 2. na rys. 1).
9. • Podstawy statystyki dla prowadzących badania naukowe
• Większośd zjawisk w otaczającym nas świecie występuje w różnorodnych związkach. Odnosi się to również
do zjawisk biologiczno-medycznych. O powiązaniach między nimi mówią prawa botaniki, zoologii, fizjologii,
biochemii i innych nauk. Statystyka dostarcza narzędzi, które pozwalają te powiązania zweryfikowad.
Statystyczny opis umożliwia lepsze ich zrozumienie i modyfikowanie. Często słyszymy stwierdzenie: "rak
płuc jest powiązany z paleniem papierosów". Oznacza to, że im więcej papierosów się pali, tym bardziej
prawdopodobne jest zachorowanie na raka. Mówimy, że im więcej jednego, tym więcej drugiego. Zamiast
używad nieprecyzyjnych słów (więcej, mało itp.) statystycy wolą w ocenie używad liczb. Dlatego powstała
matematyczna teoria korelacji i regresji, stanowiąca narzędzie dokładnego określania stopnia powiązania
zmiennych ze sobą. Podstawowym problemem statystyki jest stwierdzenie, czy między zmiennymi zachodzi
jakiś związek i czy jest on bardziej czy mniej ścisły. Analiza regresji i korelacji to jedna z najważniejszych i
najszerzej stosowanych metod statystycznych. Poświęcimy im więc kilka najbliższych odcinków, a
zaczniemy od korelacji.
• Dwie zmienne mogą byd powiązane zależnością funkcyjną lub zależnością statystyczną (korelacyjną).
Związek funkcyjny odznacza się tym, że każdej wartości jednej zmiennej niezależnej (będziemy ją oznaczad
jako X) odpowiada tylko jedna, jednoznacznie określona wartośd zmiennej zależnej (Y). Wiadomo na
przykład, że obwód kwadratu jest funkcją jego boku (O = 4a).
• Związek statystyczny polega na tym, że określonym wartościom jednej zmiennej odpowiadają ściśle
określone średnie wartości drugiej zmiennej. Można zatem obliczyd, jak się zmieni (średnio biorąc) wartośd
zmiennej zależnej Y w zależności od wartości zmiennej niezależnej X. Oczywiście najpierw na podstawie
analizy merytorycznej należy logicznie uzasadnid występowanie związku, a dopiero potem przystąpid do
określenia siły i kierunku zależności. Znane są bowiem w literaturze badania zależności (nawet istotnej
statystycznie) między liczbą zajętych gniazd bocianich a liczbą urodzeo na danym obszarze czy między
liczbą zarejestrowanych odbiorników TV a liczbą chorych umysłowo. Zwródmy też uwagę, że liczbowe
stwierdzenie występowania zależności nie zawsze oznacza występowanie związku przyczynowo-
skutkowego między badanymi zmiennymi. Współwystępowanie dwóch zjawisk może również wynikad z
bezpośredniego oddziaływania na nie jeszcze innego, trzeciego zjawiska.
• W analizie korelacji badacz jednakowo traktuje obie zmienne - nie wyróżniamy zmiennej zależnej i
niezależnej. Korelacja między X i Y jest taka sama, jak między Y i X. Mówi nam ona, na ile obie zmienne
zmieniają się równocześnie w sposób liniowy. Precyzyjna definicja zaś brzmi:
10. • Rys. 1. Korelacyjne wykresy rozrzutu; 1 - korelacja liniowa dodatnia, 2 - korelacja
liniowa ujemna, 3 - brak korelacji, 4 - korelacja krzywoliniowa
• Siłę współzależności dwóch zmiennych można wyrazid liczbowo za pomocą wielu
mierników. Najbardziej popularny jest współczynnik korelacji liniowej Pearsona,
oznaczony symbolem rXY i przyjmujący wartości z przedziału *-1, 1+. Należy zwrócid
uwagę, że współczynnik korelacji Pearsona wyliczamy wówczas, gdy obie zmienne
są mierzalne i mają rozkład zbliżony do normalnego, a zależnośd jest prostoliniowa
(stąd nazwa). Przy interpretacji współczynnika korelacji liniowej Pearsona należy
więc pamiętad, że wartośd współczynnika bliska zeru nie zawsze oznacza brak
zależności, a jedynie brak zależności liniowej.
• Znak współczynnika korelacji informuje nas o kierunku korelacji, natomiast jego
bezwzględna wartośd - o sile związku. Oczywiście rXY jest równe rYX. Jeśli rXY = 0,
oznacza to zupełny brak związku korelacyjnego między badanymi zmiennymi X i Y
(przypadek 3. na rys. 1). Im wartośd bezwzględna współczynnika korelacji jest
bliższa jedności, tym zależnośd korelacyjna między zmiennymi jest silniejsza. Gdy
rXY = I1I, to zależnośd korelacyjna przechodzi w zależnośd funkcyjną (funkcja
liniowa).
• W analizie statystycznej zwykle przyjmuje się następującą skalę:
• rXY = 0 zmienne nie są skorelowane
• 0 <rXY <0,1 korelacja nikła
• 0,1 =<rXY <0,3 korelacja słaba
• 0,3 =<rXY <0,5 korelacja przeciętna
• 0,5 =<rXY <0,7 korelacja wysoka
• 0,7 =<rXY <0,9 korelacja bardzo wysoka
• 0,9 =<rXY <1 korelacja prawie pełna.
11. • W programie STATISTICA do analizy korelacji
służy opcja Macierze korelacji w module
PODSTAWOWE STATYSTYKI I TABELE.