Mediana - jest to wartosc srodkowa zbioru liczb np. (5,3,2,6,4) to Mediana jest liczba 2
Wartosc minimalna - jest to najmniejsza wartosc w zbiorze
Wartosc maksymalna - jest to najwieksza wartosc w zbiorze
poniedziałek, 14 stycznia 2013
niedziela, 13 stycznia 2013
Wektory i własności własne
Wektory i wartości własne – wielkości opisujące endomorfizm danej
przestrzeni liniowej; wektor własny przekształcenia można rozumieć jako
wektor, którego kierunek nie ulega zmianie po przyłożeniu do niego
endomorfizmu; wartość własna odpowiadająca temu wektorowi to skala
podobieństwa tych wektorów.
Najczęściej przekształcenie liniowe wyraża się jako macierz, która działa na wektory; wówczas stosuje się nazwy wektor własny macierzy, wartość własna macierzy. W innych teoriach przekształcenia i elementy przestrzeni liniowej mogą mieć inne nazwy. Mówi się wtedy przykładowo o stanach własnych operatora, funkcjach własnych funkcjonału itp.
Najczęściej przekształcenie liniowe wyraża się jako macierz, która działa na wektory; wówczas stosuje się nazwy wektor własny macierzy, wartość własna macierzy. W innych teoriach przekształcenia i elementy przestrzeni liniowej mogą mieć inne nazwy. Mówi się wtedy przykładowo o stanach własnych operatora, funkcjach własnych funkcjonału itp.
Prawdopodobieństwo warunkowe
W wielu przypadkach, informacja o zajściu zdarzenia B ma pewien wpływ na
wartość obliczonego prawdopodobieństwa zdarzenia A. Zdarzenie
polegające na zajściu zdarzenia A przy założeniu, że zaszło zdarzenie B,
oznaczamy symbolem A|B, prawdopodobieństwo tego zdarzenia P(A|B)
nazywamy prawdopodobieństem warunkowym
Prawdopodobieństwem zajścia zdarzenia A pod warunkiem, że zdarzenie B zajdzie, nazywamy liczbę
P(A|B)=P(A∩B) / P(B)
gdzie A, B ⊂ Ω, P(B) > 0.
Z definicje tej wynika, że P(A|B) ≥ 0, P(B|B) = 1, oraz dla każdej pary wykluczających się zdarzeń A, C ⊂ B
P(A ∪ C|B) = P(A|B) + P(C|B)
Zatem funkcja przyporządkowująca każdemu zdarzeniu A ⊂ B liczbę P(A|B) jest prawdopodobieństwem określonym na zdarzeniach w zbiorze B.
Ze wzoru na prawdopodobieństwo warunkowe otrzymujemy wzór na prawdopodobieństwo iloczynu zdarzeń:
Jeżeli A, B ⊂ Ω, P(B) > 0, to P(A ∩ B) = P(A|B) · P(B)
Prawdopodobieństwem zajścia zdarzenia A pod warunkiem, że zdarzenie B zajdzie, nazywamy liczbę
P(A|B)=P(A∩B) / P(B)
gdzie A, B ⊂ Ω, P(B) > 0.
Z definicje tej wynika, że P(A|B) ≥ 0, P(B|B) = 1, oraz dla każdej pary wykluczających się zdarzeń A, C ⊂ B
P(A ∪ C|B) = P(A|B) + P(C|B)
Zatem funkcja przyporządkowująca każdemu zdarzeniu A ⊂ B liczbę P(A|B) jest prawdopodobieństwem określonym na zdarzeniach w zbiorze B.
Ze wzoru na prawdopodobieństwo warunkowe otrzymujemy wzór na prawdopodobieństwo iloczynu zdarzeń:
Jeżeli A, B ⊂ Ω, P(B) > 0, to P(A ∩ B) = P(A|B) · P(B)
Wielkie układy równań liniowych
Wielkie układy równań liniowych
Wraz z coraz większymi modelami pojawiającymi się w praktyce obliczeniowej, coraz częściej zachodzi potrzeba rozwiązywania zadań algebry liniowej, w której macierze są co prawda wielkiego wymiaru, ale najczęściej rozrzedzone, to znaczy jest w nich bardzo dużo zer. Bardzo często zdarza się, że macierz wymiaru N ma tylko O(N) niezerowych elementów. Wykorzytanie tej specyficznej własności macierzy nie tylko prowadzi do algorytmów istotnie szybszych od ich analogów dla macierzy gęstych (to znaczy takich, które (w założeniu) mają N^2 elementów), ale wręcz są jedynym sposobem na to, by niektóre zadania w ogóle stały się rozwiązywalne przy obecnym stanie techniki obliczeniowej!
Jednym ze szczególnie ważnych źródeł układów równań z macierzami rozrzedzonymi są np. równania różniczkowe cząstkowe (a więc np. modele pogody, naprężeń w konstrukcji samochodu, przenikania kosmetyków do głębszych warstw skóry, itp.).
Modele wielostanowych systemów kolejkowych (np. routera obsługującego wiele komputerów) także prowadzą do gigantycznych układów równań z macierzami rozrzedzonymi o specyficznej strukturze.
Z reguły zadania liniowe wielkiego wymiaru będą miały strukturę macierzy rozrzedzonej, gdyż najczęściej związki pomiędzy niewiadomymi w równaniu nie dotyczą wszystkich, tylko wybranej grupy.
Przykład: Macierz z kolekcji Boeinga
Spójrzmy na macierz sztywności dla modelu silnika lotniczego, wygenerowaną swego czasu w zakładach Boeinga i pochodzącą z dyskretyzacji pewnego równania różniczkowego cząstkowego. Pochodzi z kolekcji Tima Davisa. Jest to mała macierz, wymiaru 8032 (w kolekcji spotkasz równania z milionem i więcej niewiadomych).
Wraz z coraz większymi modelami pojawiającymi się w praktyce obliczeniowej, coraz częściej zachodzi potrzeba rozwiązywania zadań algebry liniowej, w której macierze są co prawda wielkiego wymiaru, ale najczęściej rozrzedzone, to znaczy jest w nich bardzo dużo zer. Bardzo często zdarza się, że macierz wymiaru N ma tylko O(N) niezerowych elementów. Wykorzytanie tej specyficznej własności macierzy nie tylko prowadzi do algorytmów istotnie szybszych od ich analogów dla macierzy gęstych (to znaczy takich, które (w założeniu) mają N^2 elementów), ale wręcz są jedynym sposobem na to, by niektóre zadania w ogóle stały się rozwiązywalne przy obecnym stanie techniki obliczeniowej!
Jednym ze szczególnie ważnych źródeł układów równań z macierzami rozrzedzonymi są np. równania różniczkowe cząstkowe (a więc np. modele pogody, naprężeń w konstrukcji samochodu, przenikania kosmetyków do głębszych warstw skóry, itp.).
Modele wielostanowych systemów kolejkowych (np. routera obsługującego wiele komputerów) także prowadzą do gigantycznych układów równań z macierzami rozrzedzonymi o specyficznej strukturze.
Z reguły zadania liniowe wielkiego wymiaru będą miały strukturę macierzy rozrzedzonej, gdyż najczęściej związki pomiędzy niewiadomymi w równaniu nie dotyczą wszystkich, tylko wybranej grupy.
Przykład: Macierz z kolekcji Boeinga
Spójrzmy na macierz sztywności dla modelu silnika lotniczego, wygenerowaną swego czasu w zakładach Boeinga i pochodzącą z dyskretyzacji pewnego równania różniczkowego cząstkowego. Pochodzi z kolekcji Tima Davisa. Jest to mała macierz, wymiaru 8032 (w kolekcji spotkasz równania z milionem i więcej niewiadomych).
Układy równań liniowych
Układ równań liniowych – koniunkcja pewnej liczby (być może nieskończonej) równań liniowych, czyli równań pierwszego rzędu.
Teoria układów równań liniowych jest działem algebry liniowej leżącej u podstaw nowoczesnej matematyki. Algorytmami obliczeniowymi zajmuje się dział nazywany numeryczna algebra liniowa, same zaś metody odgrywają ważną rolę w inżynierii, fizyce, chemii, informatyce i ekonomii. Częstokroć aproksymuje (przybliża) się bardziej skomplikowane układy równań nieliniowych (opisujące modele matematyczne, czy symulacje komputerowe) dużo prostszymi układami równań liniowych (tzw. linearyzacja).
Układy równań liniowych rozpatruje się najczęściej nad ciałami (np. liczbami wymiernymi, rzeczywistymi, czy zespolonymi); choć ma to sens już w przypadku pierścieni (np. liczb całkowitych), to rozwiązywanie takich układów nastręcza znacznie więcej trudności (w szczególności oznacza to badanie modułów zamiast przestrzeni liniowych, zob. uogólnienia). W dalszej części przyjmuje się, że wszystkie współczynniki należą do ustalonego ciała.
Teoria układów równań liniowych jest działem algebry liniowej leżącej u podstaw nowoczesnej matematyki. Algorytmami obliczeniowymi zajmuje się dział nazywany numeryczna algebra liniowa, same zaś metody odgrywają ważną rolę w inżynierii, fizyce, chemii, informatyce i ekonomii. Częstokroć aproksymuje (przybliża) się bardziej skomplikowane układy równań nieliniowych (opisujące modele matematyczne, czy symulacje komputerowe) dużo prostszymi układami równań liniowych (tzw. linearyzacja).
Układy równań liniowych rozpatruje się najczęściej nad ciałami (np. liczbami wymiernymi, rzeczywistymi, czy zespolonymi); choć ma to sens już w przypadku pierścieni (np. liczb całkowitych), to rozwiązywanie takich układów nastręcza znacznie więcej trudności (w szczególności oznacza to badanie modułów zamiast przestrzeni liniowych, zob. uogólnienia). W dalszej części przyjmuje się, że wszystkie współczynniki należą do ustalonego ciała.
Statystyka opisowa
Statystyka opisowa zajmuje się wstępnym opracowaniem wyników pomiarów
(próbki) bez posługiwania się rachunkiem prawdopodobieństwa. Nie
wyciągamy wniosków dotyczących populacji generalnej.
Interpolacja trygonometryczna
Interpolacja trygonometryczna jest metodą
przybliżania funkcji za pomocą wielomianu trygonometrycznego (szeregu
Fouriera). Interpolacja za pomocą wielomianu trygonometrycznego daje
szczególnie dobre rezultaty przy przybliżaniu funkcji okresowych, gdyż
metody używające klasycznych wielomianów, z faktu, że nie posiadają
okresowości, dawały duże błędy przy przybliżaniu tego typu funkcji. |
Interpolacja
Interpolacja jest to metoda numeryczna
polegająca na wyznaczaniu w danym przedziale tzw. funkcji
interpolacyjnej. Przyjmuje ona w tym przedziale z góry zadane wartości w
ustalonych punktach, nazywanych węzłami. Interpolacja stosowana jest
często w naukach doświadczalnych, gdzie dysponuje się zazwyczaj
skończoną liczbą danych do określenia zależności między wielkościami
oraz w celu uproszczenia skomplikowanych funkcji, np. podczas całkowania
numerycznego. Interpolacja jest szczególnym przypadkiem metod
numerycznych typu aproksymacja.
Celem interpolacji jest znalezienie funkcji odpowiedniej klasy przechodzącej przez dany zestaw punktów (węzłów) w przestrzeni dwu- lub więcej wymiarowej.
Interpolacja ma zastosowanie w:
• szacowaniu określonych wielkości w punktach pośrednich,
• prowadzeniu gładkich krzywych lub powierzchni przez punkty pomiarowe lub z symulacji (funkcje sklejane),
• algorytmach numerycznych, np. znajdowaniu miejsc zerowych funkcji, różniczkowaniu i całkowaniu numerycznym.
Rodzaje interpolacji:
• liniowa,
• trygonometryczna,
• wielomianowa.
Celem interpolacji jest znalezienie funkcji odpowiedniej klasy przechodzącej przez dany zestaw punktów (węzłów) w przestrzeni dwu- lub więcej wymiarowej.
Interpolacja ma zastosowanie w:
• szacowaniu określonych wielkości w punktach pośrednich,
• prowadzeniu gładkich krzywych lub powierzchni przez punkty pomiarowe lub z symulacji (funkcje sklejane),
• algorytmach numerycznych, np. znajdowaniu miejsc zerowych funkcji, różniczkowaniu i całkowaniu numerycznym.
Rodzaje interpolacji:
• liniowa,
• trygonometryczna,
• wielomianowa.
Statystyka - przykładowe zadanie
Pewien wyrób pakuje się w opakowaniach po 50 sztuk. Prawdopodobieństwo wystąpienia w opakowaniu sztuk wadliwych wynosi:
0 sztuk 0,5
1 sztuki 0,3
2 sztuki 0,2
Obliczyć prawdopodobieństwo losowego wybrania z opakowania 10 sztuk bez wad.
Rozwiązanie:
Oznaczenia:
B - wylosowanie 10 bez wad
A0 - w paczce nie ma wadliwych sztuk
A1 - w paczce jest jedna wadliwa sztuka
A2 - w paczce są dwie wadliwe sztuki
P(A0) = 0,5
P(A1) = 0,3
P(A2) = 0,2
P(B | A0) = 1
0 sztuk 0,5
1 sztuki 0,3
2 sztuki 0,2
Obliczyć prawdopodobieństwo losowego wybrania z opakowania 10 sztuk bez wad.
Rozwiązanie:
Oznaczenia:
B - wylosowanie 10 bez wad
A0 - w paczce nie ma wadliwych sztuk
A1 - w paczce jest jedna wadliwa sztuka
A2 - w paczce są dwie wadliwe sztuki
P(A0) = 0,5
P(A1) = 0,3
P(A2) = 0,2
P(B | A0) = 1
Metody probabilistyczne i statystyka - zmienna losowa
Zmienną losową nazywamy dowolną funkcję o wartościach rzeczywistych, określoną na zbiorze zdarzeń elementarnych.
Zmienną losową nazywamy dyskretną, gdy przyjmuje wartości ze zbioru dyskretnego, tzn. takiego, który jest albo skończony, albo przeliczalny, to jest taki, którego elementy można ponumerować kolejnymi liczbami naturalnymi.
Uwaga! Zmienna losowa przyjmująca wszystkie możliwe wartości z odcinka nie może być dyskretna.
Zmienną losową nazywamy dyskretną, gdy przyjmuje wartości ze zbioru dyskretnego, tzn. takiego, który jest albo skończony, albo przeliczalny, to jest taki, którego elementy można ponumerować kolejnymi liczbami naturalnymi.
Uwaga! Zmienna losowa przyjmująca wszystkie możliwe wartości z odcinka nie może być dyskretna.
Metody probabilistyczne i statystyka - korelacje
Pojęcie korelacji:
Korelacja (współzależność cech) określa wzajemne powiązania pomiędzy wybranymi zmiennymi.
Rodzaje korelacji
Ze względu na sposób analizy oraz charakter analizowanych zmiennych wyróżniamy:
- korelację prostą – badającą związek zachodzący pomiędzy dwoma cechami lub
zjawiskami,
- korelację cząstkową – informującą o związku dwóch cech z wyłączeniem trzeciej zmiennej,
- korelację wieloraką – informującą o związku jednej cechy z kilkoma ujętymi łącznie.
Siła związków korelacyjnych:
- poniżej 0,2 - korelacja słaba (praktycznie brak związku),
- 0,2 – 0,4 - korelacja niska (zależność wyraźna),
- 0,4 – 0,6 - korelacja umiarkowana (zależność istotna),
- 0,6 – 0,8 - korelacja wysoka (zależność znaczna),
- 0,8 – 0,9 - korelacja bardzo wysoka (zależność bardzo duża),
- 0,9 – 1,0 - zależność praktycznie pełna.
Korelacja (współzależność cech) określa wzajemne powiązania pomiędzy wybranymi zmiennymi.
Rodzaje korelacji
Ze względu na sposób analizy oraz charakter analizowanych zmiennych wyróżniamy:
- korelację prostą – badającą związek zachodzący pomiędzy dwoma cechami lub
zjawiskami,
- korelację cząstkową – informującą o związku dwóch cech z wyłączeniem trzeciej zmiennej,
- korelację wieloraką – informującą o związku jednej cechy z kilkoma ujętymi łącznie.
Siła związków korelacyjnych:
- poniżej 0,2 - korelacja słaba (praktycznie brak związku),
- 0,2 – 0,4 - korelacja niska (zależność wyraźna),
- 0,4 – 0,6 - korelacja umiarkowana (zależność istotna),
- 0,6 – 0,8 - korelacja wysoka (zależność znaczna),
- 0,8 – 0,9 - korelacja bardzo wysoka (zależność bardzo duża),
- 0,9 – 1,0 - zależność praktycznie pełna.
Metody numeryczne. Metody iteracyjne
Metody iteracyjne służą do przybliżonego rozwiązywania układów równań.
Rozwiązanie otrzymuje się w wyniku pewnego postępowania sekwencyjnego,
przy czym w każdym jego kroku uzyskuje się przybliżenie szukanego
rozwiązania.
Punktem wyjścia jest odgadnięte pierwsze przybliżenie niewiadomych H, np. ,
które można zapisać jako wektor «H«(0). Pierwszy krok algorytmu prowadzi do nowego wektora «H»(1).Po k krokach otrzymuje się wektor «H»(k) i następny krok prowadzi do «H»(k+1).
Aby iteracja miała sens, proces musi być zbieżny, to znaczy kolejne wyrazy ciągu «H»(k) muszą zdążać do ścisłego rozwiązania wyjściowego układu równań, gdy k zdąża do nieskończoności.
Przykład metody iteracyjnej:
Punktem wyjścia jest odgadnięte pierwsze przybliżenie niewiadomych H, np. ,
które można zapisać jako wektor «H«(0). Pierwszy krok algorytmu prowadzi do nowego wektora «H»(1).Po k krokach otrzymuje się wektor «H»(k) i następny krok prowadzi do «H»(k+1).
Aby iteracja miała sens, proces musi być zbieżny, to znaczy kolejne wyrazy ciągu «H»(k) muszą zdążać do ścisłego rozwiązania wyjściowego układu równań, gdy k zdąża do nieskończoności.
Przykład metody iteracyjnej:
Przykład funkcji statystycznej
KOWARIANCJA
Zwraca wartość kowariancji, tzn. średniej iloczynów odchyleń każdej pary punktu danych. Kowariancji należy używać do określania zależności pomiędzy dwoma zbiorami danych. Na przykład można wtedy sprawdzić, czy większe przychody związane są z wyższym poziomem wykształcenia.
Składnia
KOWARIANCJA(tablica1;tablica2)
Tablica1 to pierwszy zakres komórek zawierających liczby całkowite.
Tablica2 to drugi zakres komórek zawierających liczby całkowite.
Spostrzeżenia
Argumenty muszą być liczbami albo nazwami, tablicami lub odwołaniami, które zawierają liczby.
Jeśli tablica lub odwołanie zawiera tekst, wartości logiczne lub puste komórki, to wartości te są ignorowane. Komórki o wartości zero są jednak włączane do obliczeń.
Jeśli argumenty tablica1 i tablica2 mają różną liczbę punktów danych, funkcja KOWARIANCJA zwraca wartość błędu #N/D!.
Jeśli argumenty tablica1 lub tablica2 są puste, funkcja KOWARIANCJA zwraca wartość błędu #DZIEL/0!.
Zwraca wartość kowariancji, tzn. średniej iloczynów odchyleń każdej pary punktu danych. Kowariancji należy używać do określania zależności pomiędzy dwoma zbiorami danych. Na przykład można wtedy sprawdzić, czy większe przychody związane są z wyższym poziomem wykształcenia.
Składnia
KOWARIANCJA(tablica1;tablica2)
Tablica1 to pierwszy zakres komórek zawierających liczby całkowite.
Tablica2 to drugi zakres komórek zawierających liczby całkowite.
Spostrzeżenia
Argumenty muszą być liczbami albo nazwami, tablicami lub odwołaniami, które zawierają liczby.
Jeśli tablica lub odwołanie zawiera tekst, wartości logiczne lub puste komórki, to wartości te są ignorowane. Komórki o wartości zero są jednak włączane do obliczeń.
Jeśli argumenty tablica1 i tablica2 mają różną liczbę punktów danych, funkcja KOWARIANCJA zwraca wartość błędu #N/D!.
Jeśli argumenty tablica1 lub tablica2 są puste, funkcja KOWARIANCJA zwraca wartość błędu #DZIEL/0!.
Metody numeryczne
Metody numeryczne
– metody rozwiązywania problemów matematycznych za pomocą operacji na
liczbach. Otrzymywane tą drogą wyniki są na ogół przybliżone, jednak
dokładność obliczeń może być z góry określona i dobiera się ją zależnie
od potrzeb.
Metody numeryczne wykorzystywane są wówczas gdy badany problem nie ma w ogóle rozwiązania analitycznego (danego wzorami), lub korzystanie z takich rozwiązań jest uciążliwe ze względu na ich złożoność.
W szczególności dotyczy to:
- całkowania,
- znajdowania miejsc zerowych wielomianów stopnia większego niż 2 (korzystanie ze wzorów na dokładne wartości pierwiastków równań stopnia 3 i stopnia 4 jest niepraktyczne, dla równań stopnia wyższego niż 4 wzorów już nie ma),
- rozwiązywania układów równań liniowych w przypadku większej liczby równań i niewiadomych,
- rozwiązywania równań różniczkowych i układów takich równań,
- znajdowania wartości i wektorów własnych (zob. równanie własne)
aproksymacji, czyli przybliżaniu nieznanych funkcji (np. pomiarów zjawisk fizycznych).
Źródło: wikipedia.pl
Metody numeryczne wykorzystywane są wówczas gdy badany problem nie ma w ogóle rozwiązania analitycznego (danego wzorami), lub korzystanie z takich rozwiązań jest uciążliwe ze względu na ich złożoność.
W szczególności dotyczy to:
- całkowania,
- znajdowania miejsc zerowych wielomianów stopnia większego niż 2 (korzystanie ze wzorów na dokładne wartości pierwiastków równań stopnia 3 i stopnia 4 jest niepraktyczne, dla równań stopnia wyższego niż 4 wzorów już nie ma),
- rozwiązywania układów równań liniowych w przypadku większej liczby równań i niewiadomych,
- rozwiązywania równań różniczkowych i układów takich równań,
- znajdowania wartości i wektorów własnych (zob. równanie własne)
aproksymacji, czyli przybliżaniu nieznanych funkcji (np. pomiarów zjawisk fizycznych).
Źródło: wikipedia.pl
Metody probabilistyczne i statystyka
Przedmiotem zainteresowania probabilistyki oraz statystyki jest rachunek prawdopodobieństwa oraz statystyka.
Teoria prawdopodobieństwa (także rachunek prawdopodobieństwa lub probabilistyka) – dział matematyki zajmujący się zdarzeniami losowymi. Rachunek prawdopodobieństwa zajmuje się badaniem abstrakcyjnych pojęć matematycznych stworzonych do opisu zjawisk, które nie są deterministyczne: zmiennych losowych w przypadku pojedynczych zdarzeń oraz procesów stochastycznych w przypadku zdarzeń powtarzających się (w czasie). Jako matematyczny fundament statystyki, teoria prawdopodobieństwa odgrywa istotną rolę w sytuacjach, w których konieczna jest analiza dużych zbiorów danych. Jednym z największych osiągnięć fizyki dwudziestego wieku było odkrycie probabilistycznej natury zjawisk fizycznych w skali mikroskopijnej, co zaowocowało powstaniem mechaniki kwantowej.
Matematyczna teoria prawdopodobieństwa sięga swoimi korzeniami do analizy gier losowych podjętej w siedemnastym wieku przez Pierre de Fermata oraz Blaise Pascala. Z tego powodu, początkowo teoria prawdopodobieństwa zajmowała się niemal wyłącznie zjawiskami dyskretnymi i używała metod kombinatorycznych. Zmienne ciągłe zostały wprowadzone do teorii prawdopodobieństwa znacznie później. Za początek stworzenia współczesnej teorii prawdopodobieństwa powszechnie uważa się jej aksjomatyzację, której w 1933 dokonał Andriej Kołmogorow. Współczesna teoria prawdopodobieństwa jest ściśle związana z teorią miary.
Pomimo że wynik pojedynczego rzutu monetą lub kością do gry często z praktycznego punktu widzenia można uważać za nieprzewidywalny, jeżeli eksperyment taki powtórzony zostaje wielokrotnie, mogą pojawić się pewne prawidłowości i wzory statystyczne, które można badać i przewidzieć. Dwa przykłady takich prawidłowości, i kluczowe osiągnięcia rachunku prawdopodobieństwa, to prawo wielkich liczb oraz centralne twierdzenie graniczne.
Statystyka (niem. Statistik, „badanie faktów i osób publicznych”, z łac. [now.] statisticus, „polityczny, dot. polityki”, od status, „państwo, stan”) – nauka, której przedmiotem zainteresowania są metody pozyskiwania i prezentacji, a przede wszystkim analizy danych opisujących zjawiska, w tym masowe.
Duża część nauki zajmuje się obserwacją otaczającego nas świata lub też posługuje się eksperymentem dla potwierdzenia swoich teorii. Takie badanie przebiega zazwyczaj według schematu: zebranie dużej ilości danych, ich analiza i interpretacja. Badaczowi potrzebny jest wtedy zestaw narzędzi - sprawdzonych metod, które umożliwią mu operowanie na dużych zbiorach danych. Tworzeniem i rozwijaniem takich użytecznych narzędzi zajmuje się właśnie statystyka.
Źródło: wikipedia.pl
Subskrybuj:
Posty (Atom)