Probabilistyczne metody statystyczne. Metody statystyczne

Szczególnie interesująca jest ilościowa ocena ryzyka przedsiębiorczego za pomocą metod statystyki matematycznej. Głównymi narzędziami tej metody oceny są:

§ prawdopodobieństwo wystąpienia zmienna losowa ,

§ oczekiwanie matematyczne lub średnia wartość badanej zmiennej losowej,

§ wariancja,

§ odchylenie standardowe (średniokwadratowe),

§ współczynnik zmienności ,

§ rozkład prawdopodobieństwa badanej zmiennej losowej.

Aby podjąć decyzję, musisz znać wielkość (stopień) ryzyka, które mierzy się dwoma kryteriami:

1) średnia wartość oczekiwana (oczekiwanie matematyczne),

2) wahania (zmienność) możliwego wyniku.

Średnia oczekiwana wartość to Średnia ważona zmienna losowa, która jest związana z niepewnością sytuacji:

,

gdzie jest wartością zmiennej losowej.

Średnia wartość oczekiwana mierzy przeciętny wynik, którego oczekujemy.

Wartość średnia jest uogólnioną cechą jakościową i nie pozwala na podjęcie decyzji na korzyść określonej wartości zmiennej losowej.

Aby podjąć decyzję, konieczne jest zmierzenie fluktuacji wskaźników, czyli wyznaczenie miary zmienności możliwego wyniku.

Wahania możliwego wyniku to stopień odchylenia wartości oczekiwanej od wartości średniej.

W tym celu w praktyce stosuje się zwykle dwa ściśle powiązane ze sobą kryteria: „rozproszenie” i „odchylenie standardowe”.

Dyspersja - średnia ważona kwadratów rzeczywistych wyników ze średniej oczekiwanej:

odchylenie standardowe jest pierwiastkiem kwadratowym z wariancji. Jest to wielkość wymiarowa i jest mierzona w tych samych jednostkach, w których mierzona jest badana zmienna losowa:

.

Dyspersja i odchylenie standardowe służą jako miara bezwzględnej fluktuacji. Do analizy zwykle stosuje się współczynnik zmienności.

Współczynnik zmienności to stosunek odchylenia standardowego do średniej wartości oczekiwanej pomnożony przez 100%

lub .

Na współczynnik zmienności nie mają wpływu wartości bezwzględne badanego wskaźnika.

Za pomocą współczynnika zmienności można porównać nawet fluktuacje cech wyrażonych w różnych jednostkach miary. Współczynnik zmienności może wahać się od 0 do 100%. Im większy stosunek, tym większe wahania.


V statystyki ekonomiczne taki szacunek różne wartości Współczynnik zmienności:

do 10% - słaba fluktuacja, 10 - 25% - umiarkowana, powyżej 25% - duża.

W związku z tym im wyższe wahania, tym większe ryzyko.

Przykład. Właściciel małego sklepu na początku każdego dnia kupuje na sprzedaż jakiś łatwo psujący się produkt. Jednostka tego produktu kosztuje 200 UAH. Cena sprzedaży - 300 UAH. za jednostkę. Z obserwacji wiadomo, że zapotrzebowanie na ten produkt w ciągu dnia może wynosić 4, 5, 6 lub 7 jednostek z odpowiednimi prawdopodobieństwami 0,1; 0,3; 0,5; 0.1. Jeśli produkt nie zostanie sprzedany w ciągu dnia, to na koniec dnia zawsze będzie kupowany w cenie 150 UAH. za jednostkę. Ile sztuk tego produktu powinien kupić właściciel sklepu na początku dnia?

Rozwiązanie. Zbudujmy macierz zysku dla właściciela sklepu. Policzmy zysk, jaki uzyska właściciel, jeśli np. kupi 7 sztuk produktu, a sprzeda w ciągu 6 dnia i na koniec dnia jedną sztukę. Każda jednostka sprzedanego w ciągu dnia produktu daje zysk w wysokości 100 UAH, a na koniec dnia - strata 200 - 150 = 50 UAH. Zatem zysk w tym przypadku wyniesie:

Podobnie prowadzi się obliczenia dla innych kombinacji podaży i popytu.

Oczekiwany zysk obliczany jest jako matematyczne oczekiwanie możliwych wartości zysku dla każdego wiersza skonstruowanej macierzy, z uwzględnieniem odpowiednich prawdopodobieństw. Jak widać, wśród oczekiwanych zysków największy to 525 UAH. Odpowiada zakupowi przedmiotowego produktu w ilości 6 sztuk.

Aby uzasadnić ostateczną rekomendację zakupu wymaganej liczby jednostek produktu, obliczamy wariancję, odchylenie standardowe i współczynnik zmienności dla każdej możliwej kombinacji podaży i popytu na produkt (każdy wiersz macierzy zysku):

400 0,1 40 16000
400 0,3 120 48000
400 0,5 200 80000
400 0,1 40 16000
1,0 400 160000
350 0,1 35 12250
500 0,3 150 75000
500 0,5 250 125000
500 0,1 50 25000
1,0 485 2372500
300 0,1 30 9000
450 0,3 135 60750
600 0,5 300 180000
600 0,1 60 36000
1,0 525 285750

W odniesieniu do zakupu 6 sztuk produktu przez właściciela sklepu w porównaniu do 5 i 4 sztuk nie jest to oczywiste, gdyż ryzyko przy zakupie 6 sztuk produktu (19,2%) jest większe niż przy zakupie 5 sztuk (9,3 %), a nawet więcej niż przy zakupie 4 jednostek (0%).

Dzięki temu mamy wszystkie informacje o oczekiwanych zyskach i ryzykach. I zdecyduj, ile jednostek produktu musisz kupić każdego ranka dla właściciela sklepu, biorąc pod uwagę jego doświadczenie, apetyt na ryzyko.

Naszym zdaniem właścicielowi sklepu należy doradzić, aby codziennie rano kupował 5 sztuk produktu, a jego średni oczekiwany zysk wyniesie 485 UAH. a jeśli porównamy to z zakupem 6 sztuk produktu, w którym średni oczekiwany zysk to 525 UAH, czyli 40 UAH. więcej, ale ryzyko w tym przypadku będzie 2,06 razy większe.

W jaki sposób wykorzystywane są statystyki prawdopodobieństwa i statystyki matematyczne? Dyscypliny te są podstawą metod probabilistyczno-statystycznych podejmowanie decyzji. Aby korzystać z ich aparatu matematycznego, potrzebujesz zadań podejmowanie decyzji wyrazić w kategoriach modeli probabilistyczno-statystycznych. Zastosowanie określonej metody probabilistyczno-statystycznej podejmowanie decyzji składa się z trzech etapów:

  • przejście od rzeczywistości ekonomicznej, zarządczej, technologicznej do abstrakcyjnego schematu matematyczno-statystycznego, czyli budowa modelu probabilistycznego układu sterowania, procesu technologicznego, procedury decyzyjne, w szczególności zgodnie z wynikami kontroli statystycznej itp.;
  • przeprowadzanie obliczeń i wyciąganie wniosków środkami czysto matematycznymi w ramach modelu probabilistycznego;
  • interpretacja wniosków matematycznych i statystycznych w odniesieniu do prawdziwa sytuacja oraz podjęcie odpowiedniej decyzji (np. o zgodności lub niezgodności jakości produktu z ustalonymi wymaganiami, konieczności dostosowania procesu technologicznego itp.), w szczególności wniosku (o proporcji wadliwych jednostek produktów w partia, na określonym rodzaju prawa dystrybucji kontrolowane parametry proces technologiczny itp.).

Statystyka matematyczna wykorzystuje pojęcia, metody i wyniki teorii prawdopodobieństwa. Rozważ główne problemy budowania modeli probabilistycznych podejmowanie decyzji w sytuacjach ekonomicznych, zarządczych, technologicznych i innych. Za aktywne i poprawne korzystanie z dokumentów normatywno-technicznych i instrukcyjno-metodycznych dotyczących metod probabilistyczno-statystycznych podejmowanie decyzji wymagana jest wcześniejsza wiedza. Trzeba więc wiedzieć, w jakich warunkach ten lub inny dokument powinien być stosowany, jakie informacje wstępne są niezbędne do jego wyboru i zastosowania, jakie decyzje należy podjąć na podstawie wyników przetwarzania danych itp.

Przykłady zastosowania teorii prawdopodobieństwa i statystyki matematycznej. Rozważmy kilka przykładów, kiedy modele probabilistyczno-statystyczne są dobrym narzędziem do rozwiązywania problemów gospodarczych, menedżerskich, przemysłowych, ekonomicznych i narodowych. Na przykład w powieści A.N. „Wędrując przez męki” Tołstoja (tom 1) mówi: „warsztat daje dwadzieścia trzy procent małżeństwa, trzymasz się tej liczby” – powiedział Strukow do Iwana Iljicza.

Powstaje pytanie, jak rozumieć te słowa w rozmowie kierowników fabryk, skoro jedna jednostka produkcji nie może być wadliwa o 23%. Może być dobry lub wadliwy. Być może Strukov sprawił, że duża partia zawiera około 23% wadliwych jednostek. Wtedy pojawia się pytanie, co oznacza „o”? Niech 30 na 100 przebadanych sztuk produktów okaże się wadliwych, czy na 1000-300, czy na 100000-30000 itd., czy Strukovowi należy zarzucić kłamstwo?

Albo inny przykład. Moneta używana w dużej ilości musi być „symetryczna”, tj. gdy jest rzucany, średnio w połowie przypadków herb powinien wypadać, aw połowie przypadków - krata (fraki, liczba). Ale co oznacza „średnia”? Jeśli w każdej serii wydasz wiele serii po 10 rzutów, często zdarzają się serie, w których moneta wypada 4 razy z herbem. W przypadku monety symetrycznej nastąpi to w 20,5% serii. A jeśli jest 40 000 herbów na 100 000 rzutów, czy monetę można uznać za symetryczną? Procedura podejmowanie decyzji opiera się na teorii prawdopodobieństwa i statystyce matematycznej.

Rozważany przykład może wydawać się niewystarczająco poważny. Jednak tak nie jest. Losowanie ma szerokie zastosowanie w organizacji przemysłowych eksperymentów wykonalności, np. przy przetwarzaniu wyników pomiaru wskaźnika jakości (momentu tarcia) łożysk w zależności od różnych czynników technologicznych (wpływ środowiska konserwatorskiego, sposoby przygotowania łożysk przed pomiarem , wpływ obciążenia łożyska w procesie pomiarowym itp.).P.). Załóżmy, że konieczne jest porównanie jakości łożysk w zależności od wyników ich przechowywania w różnych olejach konserwujących, tj. w składzie oleje i . Planując taki eksperyment, pojawia się pytanie, które łożyska należy umieścić w składzie oleju, a które w składzie oleju, ale w taki sposób, aby uniknąć subiektywizmu i zapewnić obiektywność decyzji.

Odpowiedź na to pytanie można uzyskać poprzez losowanie. Podobny przykład można podać w przypadku kontroli jakości dowolnego produktu. Pobieranie próbek ma na celu określenie, czy skontrolowana partia produktów spełnia określone wymagania. Na podstawie wyników kontroli próbki wyciąga się wniosek dotyczący całej partii. W takim przypadku bardzo ważne jest unikanie subiektywizmu w tworzeniu próbki, tj. konieczne jest, aby każda jednostka produktu w kontrolowanej partii miała takie samo prawdopodobieństwo wybrania do próbki. V warunki pracy dobór jednostek produktu w próbie odbywa się zwykle nie drogą losowania, ale za pomocą specjalnych tabel liczb losowych lub za pomocą komputerowych generatorów liczb losowych.

Podobne problemy z zapewnieniem obiektywności porównania pojawiają się przy porównywaniu różnych schematów. organizacja produkcji, wynagrodzenia, podczas przetargów i konkursów, selekcji kandydatów na wolne stanowiska itp. Wszędzie potrzebujesz loterii lub podobnych procedur. Wyjaśnijmy na przykładzie wyodrębnienia najsilniejszych i drugich najsilniejszych drużyn przy organizacji turnieju według systemu olimpijskiego (przegrany zostaje wyeliminowany). Niech silniejsza drużyna zawsze wygrywa ze słabszą. Jasne jest, że najsilniejsza drużyna na pewno zostanie mistrzem. Druga najsilniejsza drużyna dotrze do finału wtedy i tylko wtedy, gdy przed finałem nie rozegra żadnych meczów z przyszłym mistrzem. Jeśli taki mecz jest planowany, to druga najsilniejsza drużyna nie dotrze do finału. Ten, kto planuje turniej, może albo „wyeliminować” drugą najsilniejszą drużynę z turnieju z wyprzedzeniem, gromadząc ją w pierwszym spotkaniu z liderem, albo zapewnić jej drugie miejsce, zapewniając spotkania ze słabszymi drużynami aż do finału. Aby uniknąć subiektywności, losuj. W przypadku turnieju 8-drużynowego prawdopodobieństwo, że dwie najsilniejsze drużyny spotkają się w finale wynosi 4/7. W związku z tym, z prawdopodobieństwem 3/7, druga najsilniejsza drużyna opuści turniej przed terminem.

W każdym pomiarze jednostek produktu (za pomocą suwmiarki, mikrometru, amperomierza itp.) występują błędy. Aby dowiedzieć się, czy występują błędy systematyczne, konieczne jest powtarzanie pomiarów jednostki produkcyjnej, której charakterystyka jest znana (na przykład standardowa próbka). Należy pamiętać, że oprócz błędu systematycznego występuje również błąd przypadkowy.

W związku z tym pojawia się pytanie, jak na podstawie wyników pomiarów stwierdzić, czy występuje błąd systematyczny. Jeżeli zanotujemy tylko, czy błąd uzyskany podczas kolejnego pomiaru jest dodatni czy ujemny, to problem ten można sprowadzić do poprzedniego. Rzeczywiście porównajmy pomiar z rzuceniem monetą, błąd dodatni - z utratą herbu, ujemny - z kratką (błąd zerowy przy wystarczającej liczbie podziałek skali prawie nigdy nie występuje). Wtedy sprawdzenie braku systematycznego błędu jest równoznaczne ze sprawdzeniem symetrii monety.

Celem tych rozważań jest sprowadzenie problemu sprawdzania braku systematycznego błędu do problemu sprawdzania symetrii monety. Powyższe rozumowanie prowadzi do tzw. „kryterium znaków” w statystyce matematycznej.

W statystycznej regulacji procesów technologicznych, w oparciu o metody statystyki matematycznej, opracowywane są zasady i plany statystycznej kontroli procesów, mające na celu terminowe wykrycie zaburzenia procesów technologicznych, podjęcie działań w celu ich dostosowania i zapobieżenia uwolnieniu produktów, które nie spełniają ustalonych wymagań. Działania te mają na celu zmniejszenie kosztów produkcji i strat związanych z dostawami produktów o niskiej jakości. Dzięki statystycznej kontroli akceptacji, opartej na metodach statystyki matematycznej, plany kontroli jakości opracowywane są poprzez analizę próbek z partii produktów. Trudność polega na umiejętności poprawnego budowania modeli probabilistyczno-statystycznych podejmowanie decyzji na podstawie których można odpowiedzieć na powyższe pytania. W statystyce matematycznej opracowano w tym celu modele probabilistyczne i metody testowania hipotez, w szczególności hipotezy, że proporcja wadliwych jednostek produkcyjnych jest równa pewnej liczbie, na przykład (przypomnijmy słowa Strukowa z powieści AN Tołstoj).

Zadania oceniające. W wielu sytuacjach o charakterze zarządczym, przemysłowym, gospodarczym, narodowym pojawiają się problemy różnego rodzaju - problemy szacowania cech i parametrów rozkładów prawdopodobieństwa.

Rozważ przykład. Niech partia N lamp elektrycznych przejdzie do kontroli. Z tej partii wybrano losowo próbkę n lamp elektrycznych. Powstaje szereg naturalnych pytań. Jak na podstawie wyników badań elementów próbki określić średnią żywotność lamp elektrycznych iz jaką dokładnością można oszacować tę charakterystykę? Jak zmieni się dokładność, jeśli pobrana zostanie większa próbka? Po jakiej liczbie godzin można zagwarantować, że co najmniej 90% lamp elektrycznych będzie działać dłużej niż godziny?

Załóżmy, że podczas testowania próbki z ilością lamp elektrycznych lampy elektryczne okazały się wadliwe. Wtedy pojawiają się następujące pytania. Jakie limity można określić dla liczby wadliwych lamp elektrycznych w partii, poziomu wadliwości itp.?

Lub w analizie statystycznej dokładności i stabilności procesów technologicznych konieczna jest ocena takich wskaźniki jakości, jako średnia kontrolowany parametr oraz stopień jego rozprzestrzeniania się w rozważanym procesie. Zgodnie z teorią prawdopodobieństwa, wskazane jest, aby jego matematyczne oczekiwanie wykorzystać jako średnią wartość zmiennej losowej oraz wariancję, odchylenie standardowe lub współczynnik zmienności. Rodzi to pytanie: jak oszacować te cechy statystyczne na podstawie danych z próby iz jaką dokładnością można to zrobić? Istnieje wiele podobnych przykładów. Tutaj ważne było pokazanie, w jaki sposób teoria prawdopodobieństwa i statystyka matematyczna mogą być wykorzystane w zarządzaniu produkcją przy podejmowaniu decyzji z zakresu statystycznego zarządzania jakością produktu.

Co to są „statystyki matematyczne”? Pod statystyka matematyczna rozumieć „dziedzinę matematyki poświęconą matematycznym metodom zbierania, systematyzowania, przetwarzania i interpretacji danych statystycznych, a także wykorzystywania ich do wniosków naukowych lub praktycznych. Zasady i procedury statystyki matematycznej opierają się na teorii prawdopodobieństwa, co sprawia, że na podstawie dostępnego materiału statystycznego można ocenić trafność i rzetelność wniosków uzyskanych w każdym zagadnieniu” [2.2], s. 326]. Jednocześnie dane statystyczne odnoszą się do informacji o liczbie obiektów w mniej lub bardziej obszernym zbiorze, które mają określone cechy.

W zależności od rodzaju rozwiązywanych problemów statystyka matematyczna jest zwykle podzielona na trzy sekcje: opis danych, estymacja i testowanie hipotez.

W zależności od rodzaju przetwarzanych danych statystycznych statystyka matematyczna podzielona jest na cztery obszary:

  • statystyka jednowymiarowa (statystyka zmiennych losowych), w której wynik obserwacji opisany jest liczbą rzeczywistą;
  • wielowymiarowa analiza statystyczna, gdzie wynik obserwacji obiektu opisany jest kilkoma liczbami (wektorem);
  • statystyka procesów losowych i szeregów czasowych, gdzie wynikiem obserwacji jest funkcja;
  • statystyka obiektów o charakterze nienumerycznym, w której wynik obserwacji ma charakter nienumeryczny, np. jest zbiorem ( figura geometryczna), zamówienia lub uzyskane w wyniku pomiaru na podstawie jakościowej.

Historycznie jako pierwsze pojawiały się pewne obszary statystyki obiektów nieliczbowych (w szczególności problemy szacowania odsetka małżeństw i testowania hipotez na jego temat) oraz statystyki jednowymiarowe. Aparat matematyczny jest dla nich prostszy, dlatego na swoim przykładzie zwykle demonstrują główne idee statystyki matematycznej.

Tylko te metody przetwarzania danych, czyli tzw. statystyki matematyczne są oparte na dowodach, które opierają się na probabilistycznych modelach odpowiednich rzeczywistych zjawisk i procesów. Mówimy o modelach zachowań konsumenckich, występowaniu zagrożeń, funkcjonowaniu urządzeń technologicznych, uzyskiwaniu wyników eksperymentu, przebiegu choroby itp. Model probabilistyczny rzeczywistego zjawiska należy uznać za skonstruowany, jeśli rozważane wielkości i zależności między nimi są wyrażone w kategoriach teorii prawdopodobieństwa. Korespondencja z probabilistycznym modelem rzeczywistości, tj. uzasadnia się jego adekwatność, w szczególności stosując metody statystyczne do testowania hipotez.

Niesamowite metody przetwarzania danych mają charakter eksploracyjny, można je wykorzystać jedynie we wstępnej analizie danych, ponieważ nie pozwalają na ocenę trafności i rzetelności wniosków uzyskanych na podstawie ograniczonego materiału statystycznego.

probabilistyczne i metody statystyczne mają zastosowanie wszędzie tam, gdzie możliwe jest zbudowanie i uzasadnienie probabilistycznego modelu zjawiska lub procesu. Ich stosowanie jest obowiązkowe, gdy wnioski wyciągnięte z danych próbki są przenoszone na całą populację (na przykład z próbki na całą partię produktów).

W konkretnych zastosowaniach są używane jako probabilistyczne metody statystyczne szerokie zastosowanie, jak i specyficzne. Na przykład w dziale zarządzanie produkcją, poświęconym statystycznym metodom zarządzania jakością produktu, stosuje się stosowaną statystykę matematyczną (w tym projektowanie eksperymentów). Za pomocą jego metod Analiza statystyczna dokładność i stabilność procesów technologicznych oraz statystyczna ocena jakości. Specyficzne metody obejmują metody statystycznej kontroli akceptacji jakości produktu, statystyczną regulację procesów technologicznych, ocenę i kontrolę niezawodności itp.

Takie stosowane dyscypliny probabilistyczno-statystyczne, jak teoria niezawodności i teoria kolejek, są szeroko stosowane. Treść pierwszego z nich wynika z nazwy, drugi zajmuje się badaniem systemów takich jak centrala telefoniczna, która odbiera połączenia w losowych porach - wymagania abonentów wybierających numery na swoich telefonach. Czas trwania doręczenia tych wymagań, tj. czas trwania rozmów jest również modelowany przez zmienne losowe. Wielki wkład w rozwój tych dyscyplin wniósł członek korespondent Akademii Nauk ZSRR A.Ya. Chinchin (1894-1959), akademik Akademii Nauk Ukraińskiej SSR B.V. Gnedenko (1912-1995) i inni krajowi naukowcy.

Krótko o historii statystyki matematycznej. Statystyka matematyczna jako nauka zaczyna się od prac słynnego niemieckiego matematyka Carla Friedricha Gaussa (1777-1855), który w oparciu o teorię prawdopodobieństwa zbadał i uzasadnił metoda najmniejsze kwadraty , stworzony przez niego w 1795 roku i używany do przetwarzania danych astronomicznych (w celu udoskonalenia orbity mniejszej planety Ceres). Jego imieniem nazywa się często jeden z najpopularniejszych rozkładów prawdopodobieństwa, normalny, aw teorii procesów losowych głównym przedmiotem badań są procesy Gaussa.

V późny XIX v. - początek XX wieku. duży wkład w statystykę matematyczną wnieśli angielscy badacze, przede wszystkim K. Pearson (1857-1936) i R.A. Fisher (1890-1962). W szczególności Pearson opracował kryterium „chi-kwadrat” do testowania hipotez statystycznych, a Fisher – analiza wariancji, teoria planowania eksperymentu, metoda największej wiarygodności estymacji parametrów.

W latach 30. XX wieku. rozwinął się Polak Jerzy Neumann (1894-1977) i Anglik E. Pearson ogólna teoria testowanie hipotez statystycznych, a matematycy radzieccy akademik A.N. Kołmogorowa (1903-1987) i członek korespondent Akademii Nauk ZSRR N.V. Smirnow (1900-1966) położył podwaliny pod statystykę nieparametryczną. W latach czterdziestych XX wieku. Rumuński A. Wald (1902-1950) zbudował teorię spójnej analizy statystycznej.

Obecnie statystyki matematyczne szybko się rozwijają. Tak więc w ciągu ostatnich 40 lat można wyróżnić cztery fundamentalnie nowe obszary badań [ [ 2.16 ] ]:

  • opracowywanie i wdrażanie metod matematycznych do planowania eksperymentów;
  • opracowanie statystyki obiektów o charakterze nienumerycznym jako niezależny kierunek w stosowanej statystyce matematycznej;
  • opracowanie metod statystycznych odpornych na niewielkie odchylenia od stosowanego modelu probabilistycznego;
  • szerokie wdrożenie prac nad tworzeniem pakietów oprogramowania komputerowego przeznaczonych do statystycznej analizy danych.

Metody probabilistyczno-statystyczne i optymalizacja. Idea optymalizacji przenika współczesną stosowaną statystykę matematyczną i inne metody statystyczne. Mianowicie metody planowania eksperymentów, statystyczna kontrola akceptacji, statystyczna regulacja procesów technologicznych itp. Z drugiej strony sformułowania optymalizacyjne w teorii podejmowanie decyzji np. stosowana teoria optymalizacji jakości produktów oraz wymagania norm przewidują szerokie zastosowanie metod probabilistyczno-statystycznych, przede wszystkim stosowanej statystyki matematycznej.

W zarządzaniu produkcją, w szczególności przy optymalizacji jakości produktów i wymagań normatywnych, szczególnie ważne jest stosowanie metody statystyczne na początkowym etapie koło życia produkty, tj. na etapie badań przygotowanie opracowań eksperymentalnych konstrukcji (opracowanie obiecujących wymagań dla produktów, projekt wstępny, zakres zadań do opracowania eksperymentalnego projektu). Wynika to z ograniczonych informacji dostępnych w początkowej fazie cyklu życia produktu oraz konieczności przewidywania możliwości technicznych i sytuacji ekonomicznej na przyszłość. Metody statystyczne powinna być stosowana na wszystkich etapach rozwiązywania problemu optymalizacyjnego - przy skalowaniu zmiennych, opracowywaniu modeli matematycznych funkcjonowania produktów i systemów, przeprowadzaniu eksperymentów techniczno-ekonomicznych itp.

W problemach optymalizacyjnych, w tym optymalizacji jakości produktu i wymagań norm, wykorzystywane są wszystkie obszary statystyki. Mianowicie - statystyki zmiennych losowych, wielowymiarowych Analiza statystyczna, statystyka procesów losowych i szeregów czasowych, statystyka obiektów o charakterze nienumerycznym. Wybór metody statystycznej do analizy konkretnych danych powinien być dokonany zgodnie z zaleceniami [

Część 1. Podstawy statystyki stosowanej

1.2.3. Istota probabilistyczno-statystycznych metod podejmowania decyzji

W jaki sposób podejścia, idee i wyniki teorii prawdopodobieństwa i statystyki matematycznej są wykorzystywane w podejmowaniu decyzji?

Bazą jest probabilistyczny model rzeczywistego zjawiska lub procesu, tj. model matematyczny, w którym relacje obiektywne są wyrażane w kategoriach teorii prawdopodobieństwa. Prawdopodobieństwo służy przede wszystkim do opisu niepewności, które należy wziąć pod uwagę przy podejmowaniu decyzji. Dotyczy to zarówno niepożądanych szans (ryzyka), jak i atrakcyjnych („szczęśliwa szansa”). Niekiedy celowo wprowadza się do sytuacji losowość, na przykład podczas losowania, losowego wyboru jednostek do kontroli, przeprowadzania loterii czy badań konsumenckich.

Teoria prawdopodobieństwa pozwala obliczyć inne prawdopodobieństwa, które są interesujące dla badacza. Na przykład przez prawdopodobieństwo wypadnięcia herbu można obliczyć prawdopodobieństwo, że co najmniej 3 herby wypadną podczas 10 rzutów monetą. Takie wyliczenie opiera się na modelu probabilistycznym, zgodnie z którym rzuty monetą opisane są schematem niezależnych prób, dodatkowo herb i krata są jednakowo prawdopodobne, a zatem prawdopodobieństwo każdego z tych zdarzeń wynosi ½. Bardziej złożony jest model, który zamiast rzutu monetą rozważa sprawdzenie jakości jednostki wyjściowej. Odpowiedni model probabilistyczny opiera się na założeniu, że kontrolę jakości różnych jednostek produkcyjnych opisuje schemat niezależnych testów. W przeciwieństwie do modelu rzucania monetą konieczne jest wprowadzenie nowego parametru - prawdopodobieństwa rże produkt jest wadliwy. Model zostanie w pełni opisany, jeśli założymy, że wszystkie jednostki produkcyjne mają takie samo prawdopodobieństwo wadliwości. Jeśli to ostatnie założenie jest fałszywe, to liczba parametrów modelu wzrasta. Na przykład możemy założyć, że każda jednostka produkcyjna ma swoje prawdopodobieństwo, że jest wadliwa.

Omówmy model kontroli jakości ze wspólnym prawdopodobieństwem defektu dla wszystkich jednostek produktu r. Aby „osiągnąć liczbę” podczas analizy modelu, konieczna jest wymiana r do określonej wartości. W tym celu konieczne jest wyjście poza ramy modelu probabilistycznego i zwrócenie się do danych uzyskanych podczas kontroli jakości. Statystyka matematyczna rozwiązuje problem odwrotny w odniesieniu do teorii prawdopodobieństwa. Jego celem jest wyciągnięcie wniosków na temat prawdopodobieństw leżących u podstaw modelu probabilistycznego na podstawie wyników obserwacji (pomiary, analizy, testy, eksperymenty). Na przykład na podstawie częstotliwości występowania wadliwych produktów podczas kontroli można wyciągnąć wnioski dotyczące prawdopodobieństwa wadliwości (patrz powyżej twierdzenie Bernoulliego). Na podstawie nierówności Czebyszewa wyciągnięto wnioski dotyczące zgodności częstości występowania wadliwych produktów z hipotezą, że prawdopodobieństwo wadliwości ma określoną wartość.

Zatem zastosowanie statystyki matematycznej opiera się na probabilistycznym modelu zjawiska lub procesu. Wykorzystywane są dwie równoległe serie pojęć – te związane z teorią (model probabilistyczny) i te związane z praktyką (próbka wyników obserwacyjnych). Na przykład prawdopodobieństwo teoretyczne odpowiada częstotliwości znalezionej w próbce. Oczekiwanie matematyczne (szereg teoretyczny) odpowiada średniej arytmetycznej z próby (szereg praktyczny). Charakterystyki próby są z reguły szacunkowymi wartościami teoretycznymi. Jednocześnie wielkości związane z szeregiem teoretycznym „są w umysłach badaczy”, odnoszą się do świata idei (według starożytnego greckiego filozofa Platona) i nie są dostępne do bezpośredniego pomiaru. Badacze dysponują jedynie wybiórczymi danymi, za pomocą których próbują ustalić interesujące ich właściwości teoretycznego modelu probabilistycznego.

Dlaczego potrzebujemy modelu probabilistycznego? Faktem jest, że tylko za jego pomocą można przenieść właściwości ustalone na podstawie wyników analizy określonej próbki na inne próbki, a także na całą tak zwaną populację ogólną. Termin „populacja” jest używany w odniesieniu do dużej, ale skończonej populacji badanych jednostek. Na przykład o sumie wszystkich mieszkańców Rosji lub ogółu wszystkich konsumentów kawy rozpuszczalnej w Moskwie. Celem badań marketingowych lub socjologicznych jest przeniesienie oświadczeń otrzymanych od próby setek lub tysięcy osób do kilkumilionowej populacji ogólnej. W kontroli jakości partia produktów pełni rolę ogólnej populacji.

Aby przenieść wnioski z próby na większą populację, potrzebne są pewne założenia dotyczące związku cech próby z cechami tej większej populacji. Założenia te oparte są na odpowiednim modelu probabilistycznym.

Oczywiście możliwe jest przetwarzanie przykładowych danych bez korzystania z takiego czy innego modelu probabilistycznego. Na przykład możesz obliczyć przykładową średnią arytmetyczną, obliczyć częstotliwość spełnienia określonych warunków itp. Jednak wyniki obliczeń będą dotyczyły tylko określonej próbki, przenoszenie uzyskanych za ich pomocą wniosków na inny zestaw jest błędne. Ta czynność jest czasami określana jako „analiza danych”. W porównaniu z metodami probabilistyczno-statystycznymi analiza danych ma ograniczoną wartość poznawczą.

Istotą probabilistyczno-statystycznych metod podejmowania decyzji jest więc wykorzystanie modeli probabilistycznych opartych na estymacji i testowaniu hipotez za pomocą charakterystyk próby.

Podkreślamy, że logika wykorzystania cech próbki do podejmowania decyzji na podstawie modeli teoretycznych polega na jednoczesnym stosowaniu dwóch równoległych szeregów pojęć, z których jeden odpowiada modelom probabilistycznym, a drugi próbkom danych. Niestety, w wielu źródłach literackich, zwykle przestarzałych lub napisanych w duchu nakazowym, nie ma rozróżnienia między cechami wybiórczymi a teoretycznymi, co prowadzi czytelników do dezorientacji i błędów w praktycznym stosowaniu metod statystycznych.

Poprzedni

Zjawiska życia, podobnie jak wszystkie zjawiska świata materialnego w ogóle, mają dwie nierozerwalnie powiązane strony: jakościową, odbieraną bezpośrednio zmysłami, i ilościową, wyrażaną liczbami za pomocą liczenia i miary.

Podczas badań różne zjawiska natury, stosowane są jednocześnie zarówno wskaźniki jakościowe, jak i ilościowe. Niewątpliwie dopiero w jedności strony jakościowej i ilościowej najpełniej ujawnia się istota badanych zjawisk. Jednak w rzeczywistości należy użyć jednego lub drugiego wskaźnika.

Niewątpliwie metody ilościowe, bardziej obiektywne i dokładne, mają przewagę nad jakościowymi cechami obiektów.

Same wyniki pomiarów, choć mają znaną wartość, są jednak niewystarczające, aby wyciągnąć z nich niezbędne wnioski. Dane cyfrowe gromadzone w procesie testów masowych to tylko surowy materiał faktograficzny, który wymaga odpowiedniej obróbki matematycznej. Bez przetwarzania – uporządkowania i usystematyzowania danych cyfrowych nie jest możliwe wydobycie zawartych w nich informacji, ocena rzetelności poszczególnych wskaźników sumarycznych oraz weryfikacja wiarygodności obserwowanych między nimi różnic. Praca ta wymaga od specjalistów pewnej wiedzy, umiejętności poprawnego uogólniania i analizy danych zebranych w eksperymencie. Systemem tej wiedzy jest treść statystyki - nauki, która zajmuje się głównie analizą wyników badań w teoretycznych i stosowanych dziedzinach nauki.

Należy pamiętać, że statystyka matematyczna i teoria prawdopodobieństwa to nauki czysto teoretyczne, abstrakcyjne; badają agregaty statystyczne bez względu na specyfikę ich elementów składowych. Metody statystyki matematycznej i leżąca u jej podstaw teoria prawdopodobieństwa mają zastosowanie w najróżniejszych dziedzinach wiedzy, w tym w humanistyce.

Badanie zjawisk odbywa się nie na pojedynczych obserwacjach, które mogą okazać się przypadkowe, nietypowe, nie do końca wyrażające istotę tego zjawiska, ale na zbiorze jednorodnych obserwacji, który dostarcza pełniejszej informacji o badanym obiekcie. Pewien zestaw stosunkowo jednorodnych przedmiotów, połączonych zgodnie z jedną lub inną cechą wspólnego badania, nazywa się statystycznym

agregat. Zestaw łączy w sobie pewną liczbę jednorodnych obserwacji lub rejestracji.

Elementy tworzące zbiór nazywamy jego członkami lub wariantami. . Opcje są pojedynczymi obserwacjami lub wartościami liczbowymi cechy. Jeśli więc oznaczymy cechę jako X (dużą), to jej wartości lub warianty oznaczymy przez x (mała), czyli x 1 , x 2 itd.

Całkowita liczba opcji składających się na ten zestaw nazywana jest jego objętością i jest oznaczona literą n (mała).

Gdy badamy cały zbiór obiektów jednorodnych jako całość, nazywamy to zbiorem ogólnym, ogólnym.Przykładem takiego ciągłego opisu zbioru mogą być narodowe spisy ludności, czyli łączny ewidencja statystyczna zwierząt w kraj. Oczywiście pełne badanie populacji ogólnej dostarcza najpełniejszych informacji o jej stanie i właściwościach. Dlatego naturalne jest, że badacze starają się połączyć jak najwięcej obserwacji w agregacie.

Jednak w rzeczywistości rzadko trzeba uciekać się do ankiety przeprowadzonej wśród wszystkich członków populacji ogólnej. Po pierwsze dlatego, że praca ta wymaga dużo czasu i pracy, a po drugie nie zawsze jest wykonalna z wielu powodów i różnych okoliczności. Zatem zamiast ciągłego badania populacji ogólnej, zwykle badana jest jakaś jej część, zwana populacją próbną lub próbą. Jest to model, według którego ocenia się całą populację ogólną. Na przykład, aby poznać średni wzrost populacji poborowej w danym regionie lub dystrykcie, wcale nie jest konieczne mierzenie wszystkich rekrutów mieszkających na danym obszarze, ale wystarczy zmierzyć część z nich.

1. Próba musi być dość reprezentatywna lub typowa, tj. tak, aby składał się głównie z tych opcji, które najpełniej odzwierciedlają ogólną populację. Dlatego, aby rozpocząć przetwarzanie przykładowych danych, są one dokładnie sprawdzane i usuwane są wyraźnie nietypowe opcje. Na przykład, analizując koszt produktów wytwarzanych przez przedsiębiorstwo, należy wykluczyć koszty w tych okresach, w których przedsiębiorstwo nie było w pełni wyposażone w komponenty lub surowce.

2. Próbka musi być obiektywna. Podczas tworzenia próbki nie można działać arbitralnie, uwzględniać w jej składzie tylko te opcje, które wydają się typowe, i odrzucać całą resztę. Próba łagodna jest wykonywana bez uprzedzeń, metodą loterii lub loterii, gdy żadna z opcji w populacji ogólnej nie ma żadnej przewagi nad innymi - spaść lub nie wpaść w populację próby. Innymi słowy próbka powinna być wykonana zgodnie z zasadą doboru losowego, bez wpływu na jej skład.

3. Próbka musi być jednorodna jakościowo. Nie można uwzględnić w tej samej próbce danych uzyskanych w różnych warunkach, na przykład kosztu produktów uzyskanych przy różnej liczbie pracowników.

6.2. Grupowanie wyników obserwacji

Zwykle wyniki eksperymentów i obserwacji wpisuje się w postaci liczb w kartach rejestracyjnych lub dzienniku, a czasem po prostu na kartkach papieru - uzyskuje się oświadczenie lub rejestr. Takie początkowe dokumenty z reguły zawierają informacje nie o jednym, ale o kilku znakach, zgodnie z którymi poczyniono obserwacje. Dokumenty te służą jako główne źródło tworzenia próbek. Zwykle robi się to w ten sposób: na osobnej kartce papieru z pierwotnego dokumentu, tj. indeks karty, dziennik lub oświadczenie, wypisywane są wartości liczbowe atrybutu, na podstawie którego utworzona jest populacja. Warianty w takim zestawie są zwykle przedstawiane w postaci losowej masy liczb. Dlatego pierwszym krokiem do przetworzenia takiego materiału jest jego uporządkowanie, jego usystematyzowanie – pogrupowanie wariantu w tabele statystyczne lub serie.

Jedną z najczęstszych form grupowania danych z próby są tabele statystyczne. Mają one wartość ilustracyjną, pokazującą pewne ogólne wyniki, położenie poszczególnych elementów w ogólnym szeregu obserwacji.

Inną formą grupowania pierwotnego danych z próby jest metoda rangowania, tj. położenie opcji w określonej kolejności - poprzez zwiększanie lub zmniejszanie wartości atrybutu. W efekcie otrzymujemy tzw. szereg rankingowy, który pokazuje, w jakim stopniu iw jaki sposób dana cecha jest zróżnicowana. Na przykład istnieje próbka o następującym składzie:

5,2,1,5,7,9,3,5,4,10,4,5,7,3,5, 9,4,12,7,7

Widać, że znak zmienia się od 1 do 12 niektórych jednostek. Wymienione w kolejności rosnącej:

1,2,3,3,4,4,4,5,5,5,5,7,7,7,7,9,9,10,12.,

W efekcie uzyskano szeregowy szereg wartości cechy zmiennej.

Oczywiste jest, że przedstawiona tutaj metoda rankingu ma zastosowanie tylko do małych próbek. Przy dużej liczbie obserwacji ranking staje się trudniejszy, ponieważ serial jest tak długi, że traci sens.

Przy dużej liczbie obserwacji zwyczajowo próba uszeregowana jest w postaci podwójnego rzędu, tj. ze wskazaniem częstości lub częstości poszczególnych wariantów serii rankingowej. Taki podwójny szereg uszeregowanych wartości cechy nazywamy szeregiem wariacyjnym lub szeregiem dystrybucyjnym. Najprostszym przykładem szeregu wariacyjnego mogą być dane uszeregowane powyżej, jeśli są one ułożone w następujący sposób:

Wartości funkcji

(opcje) 1 2 3 4 5 7 9 10 12

powtarzalność

(opcjonalnie) częstotliwości 1 1 2 3 5 4 2 1 1

Szeregi zmienności pokazują częstość występowania poszczególnych wariantów w danej populacji, ich rozkład, co ma duże znaczenie, pozwalające ocenić wzorce zmienności i zakres zmienności cech ilościowych. Konstrukcja szeregów wariacyjnych ułatwia obliczenie wskaźników sumarycznych – średniej arytmetycznej oraz wariancji lub rozrzutu wokół ich wartości średniej – wskaźników charakteryzujących dowolną populację statystyczną.

Szeregi wariacyjne są dwojakiego rodzaju: przerywany i ciągły. Nieciągły szereg wariacyjny uzyskuje się przez rozłożenie wielkości dyskretnych, które zawierają znaki zliczania. Jeśli znak zmienia się w sposób ciągły, tj. może przyjąć dowolną wartość od minimalnego do maksymalnego wariantu populacji, to ten ostatni rozkłada się w sposób ciągły seria wariacji.

Aby skonstruować szereg wariacyjny cechy dyskretnie zmieniającej się, wystarczy umieścić cały zbiór obserwacji w postaci szeregu uszeregowanego, wskazującego częstości poszczególnych wariantów. Jako przykład podajemy dane pokazujące rozkład wielkości 267 części (tabela 5.4)

Tabela 6.1. Rozkład części według rozmiaru.

Aby zbudować serię wariacji o ciągle zmieniających się cechach, należy podzielić całą wariację od wariantu minimalnego do maksymalnego na oddzielne grupy lub przedziały (od-do), zwane klasami, a następnie rozdzielić wszystkie warianty populacji między te klasy . W efekcie otrzymamy podwójną serię wariacyjną, w której częstotliwości nie odnoszą się już do poszczególnych konkretnych opcji, ale do całego przedziału, tj. Częstotliwości okazują się nie wariantem, ale klasami.

Podział zmienności ogólnej na klasy przeprowadza się na skali przedziału klasowego, który powinien być taki sam dla wszystkich klas szeregu zmienności. Wartość przedziału klasy oznaczona jest przez i (od słowa przedziałum - przedział, odległość); określa to następujący wzór

, (6.1)

gdzie: i – przedział klas, przyjmowany jako liczba całkowita;

- maksymalne i minimalne opcje próbki;

lg.n jest logarytmem liczby klas, na które podzielona jest próbka.

Liczba klas ustalana jest arbitralnie, ale biorąc pod uwagę fakt, że liczba klas jest w pewnym stopniu zależna od liczebności próby: im większa liczebność próby, tym więcej klas powinno być i odwrotnie - przy mniejszych liczebnościach próba mniejsza liczbę zajęć. Doświadczenie pokazuje, że nawet w małych próbkach, gdy trzeba grupować opcje w postaci serii wariacyjnej, nie należy ustawiać mniej niż 5-6 klas. Jeśli jest 100-150 opcji, liczbę zajęć można zwiększyć do 12-15. Jeśli populacja składa się z 200-300 opcji, jest podzielona na 15-18 klas itp. Oczywiście zalecenia te są bardzo warunkowe i nie można ich zaakceptować jako ustalonej zasady.

Przy podziale na klasy, w każdym konkretnym przypadku, należy wziąć pod uwagę szereg różnych okoliczności, aby przetwarzanie materiału statystycznego dało jak najdokładniejsze wyniki.

Po ustaleniu przedziału klasowego i podzieleniu próbki na klasy następuje podział wariantu na klasy i określenie liczby odmian (częstotliwości) każdej klasy. W efekcie otrzymujemy szereg wariacyjny, w którym częstotliwości nie odnoszą się do poszczególnych opcji, ale do określonych klas. Suma wszystkich częstości szeregu wariacyjnego powinna być równa liczebności próby, czyli

(6.2)

gdzie:
- znak podsumowania;

p to częstotliwość.

n to wielkość próbki.

Jeśli nie ma takiej równości, to popełniono błąd podczas publikowania wariantu według klasy, który należy wyeliminować.

Zazwyczaj do wysłania wariantu według klasy kompilowana jest tabela pomocnicza, w której znajdują się cztery kolumny: 1) klasy według tego atrybutu (od - do); 2) - średnia wartość zajęć, 3) publikowanie opcji według zajęć, 4) częstotliwość zajęć (patrz Tabela 6.2.)

Publikowanie opcji według klasy wymaga dużo uwagi. Ta sama opcja nie może być zaznaczona dwukrotnie lub te same opcje należą do różnych klas. Aby uniknąć błędów w rozkładzie opcji według klas, zaleca się nie szukać tych samych opcji w agregacie, ale rozłożyć je na klasy, co nie jest tym samym. Zignorowanie tej zasady, co zdarza się w pracy niedoświadczonych badaczy, zajmuje dużo czasu podczas publikowania wariantu, a co najważniejsze prowadzi do błędów.

Tabela 6.2. Opcja publikowania według klasy

Ograniczenia klasowe

Klasa oznacza (x)

Częstotliwości klas (p), %

absolutny

względny

Po zakończeniu zamieszczania opcji i policzeniu ich liczby dla każdej klasy, otrzymujemy ciągłą serię wariacji. Musi zostać przekształcona w nieciągłą serię wariacyjną. Aby to zrobić, jak już wspomniano, bierzemy pół sumy skrajnych wartości klas. Na przykład mediana pierwszej klasy, równa 8,8, otrzymuje się w następujący sposób:

(8,6+9,0):2=8,8.

Druga wartość (9,3) tej kolumny obliczana jest w podobny sposób:

(9,01+9,59):2=9,3 itd.

Wynikiem jest nieciągła seria zmienności pokazująca rozkład według badanej cechy (tabela 6.3.)

Tabela 6.3. Seria wariacji

Grupowanie danych z próby w postaci szeregów wariacyjnych ma dwojaki cel: po pierwsze, jako operacja pomocnicza, jest konieczne przy obliczaniu wskaźników sumarycznych, a po drugie, szeregi rozkładowe pokazują wzór zmienności cech, co jest bardzo ważne . Aby wyraźniej wyrazić ten wzór, zwykle przedstawia się serię wariacji graficznie w postaci histogramu (ryc. 6.1.)


Rysunek 6.1 Rozkład przedsiębiorstw według liczby zatrudnionych

wykres słupkowy przedstawia rozkład wariantu z ciągłą zmiennością cechy. Prostokąty odpowiadają klasom, a ich wysokość to liczba opcji zawartych w każdej klasie. Jeśli obniżymy prostopadłe do osi odciętych z punktów środkowych wierzchołków prostokątów histogramu, a następnie połączymy te punkty ze sobą, otrzymamy wykres ciągłej zmienności, zwany wielokątem lub gęstością rozkładu.

Prowadząc badania psychologiczne i pedagogiczne ważna rola przypisane do matematycznych metod modelowania procesów i przetwarzania danych eksperymentalnych. Do metod tych należą przede wszystkim tzw. probabilistyczno-statystyczne metody badawcze. Wynika to z faktu, że na zachowanie zarówno pojedynczej osoby w procesie jej działania, jak i osoby w zespole istotny wpływ ma wiele czynników losowych. Losowość nie pozwala na opisanie zjawisk w ramach modeli deterministycznych, gdyż objawia się niedostateczną regularnością zjawisk masowych, a co za tym idzie nie pozwala na wiarygodną prognozę wystąpienia określonych zdarzeń. Jednak podczas badania takich zjawisk ujawniają się pewne prawidłowości. Nieregularność tkwiąca w zdarzeniach losowych, przy dużej liczbie testów, z reguły jest kompensowana pojawieniem się wzorca statystycznego, stabilizacją częstości występowania zdarzeń losowych. Dlatego dane zdarzenia losowe mieć pewne prawdopodobieństwo. Istnieją dwie zasadniczo różne metody probabilistyczno-statystyczne badań psychologiczno-pedagogicznych: klasyczna i nieklasyczna. Wydajmy analiza porównawcza te metody.

Klasyczna metoda probabilistyczno-statystyczna. Klasyczna probabilistyczno-statystyczna metoda badawcza oparta jest na teorii prawdopodobieństwa i statystyce matematycznej. Metoda ta jest stosowana w badaniu zjawisk masowych o charakterze losowym, obejmuje kilka etapów, z których główne są następujące.

1. Budowa probabilistycznego modelu rzeczywistości na podstawie analizy danych statystycznych (określenie prawa rozkładu zmiennej losowej). Oczywiście, im wyraźniej, im większa objętość materiału statystycznego, wyrażane są wzorce masowych zjawisk losowych. Uzyskane podczas eksperymentu dane próbne są zawsze ograniczone i ściśle rzecz biorąc mają charakter losowy. W związku z tym ważną rolę przywiązuje się do uogólniania wzorców uzyskanych na próbie i ich dystrybucji do całej ogólnej populacji obiektów. W celu rozwiązania tego problemu przyjmuje się pewną hipotezę o naturze wzorca statystycznego, który przejawia się w badanym zjawisku, np. hipoteza, że ​​badane zjawisko jest zgodne z prawem normalna dystrybucja. Taka hipoteza nazywana jest hipotezą zerową, która może okazać się błędna, dlatego wraz z Hipoteza zerowa wysunięto również alternatywną lub konkurencyjną hipotezę. Sprawdzenie zgodności uzyskanych danych eksperymentalnych z tą lub inną hipotezą statystyczną przeprowadza się za pomocą tzw. nieparametrycznych testów statystycznych lub testów dobroci dopasowania. Obecnie powszechnie stosuje się kryteria Kołmogorowa, Smirnowa, kwadratu omega i inne kryteria dobroci dopasowania. Główną ideą tych kryteriów jest pomiar odległości między funkcją rozkład empiryczny oraz w pełni znaną teoretyczną funkcję dystrybucji. Metodologia testowania hipotez statystycznych jest rygorystycznie opracowana i nakreślona w wielu pracach dotyczących statystyki matematycznej.

2. Przeprowadzanie niezbędnych obliczeń metodami matematycznymi w ramach modelu probabilistycznego. Zgodnie z przyjętym probabilistycznym modelem zjawiska dokonuje się obliczeń charakterystycznych parametrów, takich jak np. matematyczne oczekiwanie lub wartość średnia, wariancja, odchylenie standardowe, moda, mediana, wskaźnik asymetrii itp.

3. Interpretacja wniosków probabilistyczno-statystycznych w odniesieniu do sytuacji rzeczywistej.

Obecnie klasyczna metoda probabilistyczno-statystyczna jest dobrze rozwinięta i szeroko stosowana w badaniach naukowych różne obszary naturalne, techniczne i nauki społeczne. Szczegółowy opis istota tej metody i jej zastosowanie do rozwiązania specyficzne zadania można znaleźć w wielu źródłach literackich, na przykład w.

Nieklasyczna metoda probabilistyczno-statystyczna. Nieklasyczna probabilistyczno-statystyczna metoda badawcza różni się od klasycznej tym, że jest stosowana nie tylko do masowych, ale także do pojedynczych zdarzeń, które są zasadniczo losowe. Metoda ta może być skutecznie wykorzystana w analizie zachowań jednostki w procesie wykonywania określonej czynności, na przykład w procesie zdobywania wiedzy przez uczniów. Rozważymy cechy nieklasycznej probabilistyczno-statystycznej metody badań psychologiczno-pedagogicznych na przykładzie zachowań uczniów w procesie przyswajania wiedzy.

Po raz pierwszy w pracy zaproponowano probabilistyczno-statystyczny model zachowań uczniów w procesie przyswajania wiedzy. Dalszy rozwój ten model został wykonany w pracy. Nauczanie jako rodzaj aktywności, której celem jest nabywanie wiedzy, umiejętności i zdolności przez osobę, zależy od poziomu rozwoju świadomości ucznia. Struktura świadomości obejmuje takie procesy poznawcze jak odczuwanie, percepcja, pamięć, myślenie, wyobraźnia. Analiza tych procesów wskazuje, że posiadają one elementy przypadkowości ze względu na losowy charakter stanów psychicznych i somatycznych jednostki oraz fizjologicznych, psychologicznych i informacyjnych szumów podczas pracy mózgu. To ostatnie doprowadziło do odmowy zastosowania modelu deterministycznego układu dynamicznego w opisie procesów myślenia na rzecz modelu losowego układu dynamicznego. Oznacza to, że determinizm świadomości urzeczywistnia się przez przypadek. Z tego możemy wywnioskować, że wiedza ludzka, będąca właściwie wytworem świadomości, również ma charakter przypadkowy, a zatem do opisu zachowania każdego ucznia w procesie przyswajania wiedzy można zastosować metodę probabilistyczno-statystyczną.

Zgodnie z tą metodą uczeń identyfikowany jest przez funkcję rozkładu (gęstość prawdopodobieństwa), która określa prawdopodobieństwo przebywania w jednym obszarze przestrzeni informacyjnej. W procesie uczenia się funkcja dystrybucji, z którą utożsamiany jest uczeń, ewoluuje, przestrzeń informacyjna. Każdy uczeń ma indywidualne właściwości i dozwolona jest niezależna lokalizacja (przestrzenna i kinematyczna) jednostek względem siebie.

Na podstawie prawa zachowania prawdopodobieństwa napisano system równania różniczkowe, które są równaniami ciągłości, które wiążą zmianę gęstości prawdopodobieństwa w jednostce czasu w przestrzeni fazowej (przestrzeni współrzędnych, prędkości i przyspieszeń różnych rzędów) z rozbieżnością przepływu gęstości prawdopodobieństwa w rozważanej przestrzeni fazowej. Przeprowadzono analizę rozwiązań analitycznych szeregu równań ciągłości (funkcji dystrybucji) charakteryzujących zachowania poszczególnych uczniów w procesie uczenia się.

Podczas prowadzenia badania eksperymentalne zachowania uczniów w procesie przyswajania wiedzy, stosuje się skalowanie probabilistyczno-statystyczne, według którego skala pomiarowa jest systemem uporządkowanym , gdzie A jest jakimś kompletnie uporządkowanym zbiorem obiektów (jednostek), które mają interesujące nas cechy (system empiryczny z relacjami); Ly - przestrzeń funkcjonalna (przestrzeń funkcji dystrybucji) z relacjami; F jest operacją homomorficznego odwzorowania A w podsystemie Ly; G - grupa przekształceń dopuszczalnych; f jest operacją odwzorowania rozkładów z podsystemu Ly na układy numeryczne z relacjami przestrzeni n-wymiarowej M. Skalowanie probabilistyczno-statystyczne służy do znajdowania i przetwarzania eksperymentalnych rozkładów i obejmuje trzy etapy.

1. Znalezienie eksperymentalnych funkcji dystrybucji na podstawie wyników zdarzenia kontrolnego, na przykład egzaminu. Typowy widok poszczególnych funkcji dystrybucji znalezionych przy użyciu dwudziestopunktowej skali przedstawiono na rys. 1. Technika znajdowania takich funkcji jest opisana w.

2. Odwzorowanie funkcji dystrybucji na przestrzeń liczbową. W tym celu obliczane są momenty poszczególnych funkcji rozkładu. W praktyce z reguły wystarczy ograniczyć się do definicji momentów pierwszego rzędu ( matematyczne oczekiwanie), drugiego rzędu (dyspersja) i trzeciego rzędu charakteryzująca asymetrię dystrybuanty.

3. Ranking studentów według poziomu wiedzy na podstawie porównania momentów różnych rzędów ich poszczególnych funkcji rozkładu.

Ryż. 1. Typowa forma indywidualnych funkcji dystrybucyjnych studentów, którzy zdali egzamin w dniu fizyka ogólna różne oceny: 1 - ocena tradycyjna „2”; 2 - tradycyjna ocena „3”; 3 - tradycyjna ocena „4”; 4 - ocena tradycyjna „5”

Bazując na addytywności poszczególnych rozkładów w, wyznaczono eksperymentalne rozkłady przepływu studentów (rys. 2).


Ryż. Rys. 2. Ewolucja pełnej funkcji rozkładu przepływu studentów, aproksymowana liniami gładkimi: 1 - po pierwszym roku; 2 - po drugim kursie; 3 - po trzecim kursie; 4 - po czwartym kursie; 5 - po piątym kursie

Analiza danych przedstawionych na ryc. 2 pokazuje, że podczas poruszania się po przestrzeni informacyjnej funkcje dystrybucji zacierają się. Wynika to z faktu, że matematyczne oczekiwania funkcji dystrybucji jednostek poruszają się z różnymi prędkościami, a same funkcje są rozmyte na skutek dyspersji. Dalszą analizę tych funkcji dystrybucji można przeprowadzić w ramach klasycznej metody probabilistyczno-statystycznej.

Omówienie wyników. Analiza klasycznych i nieklasycznych metod probabilistyczno-statystycznych badań psychologicznych i pedagogicznych wykazała, że ​​istnieje między nimi istotna różnica. Jak wynika z powyższego, polega ona na tym, że metoda klasyczna ma zastosowanie tylko do analizy zdarzeń masowych, natomiast metoda nieklasyczna ma zastosowanie zarówno do analizy zdarzeń masowych, jak i pojedynczych. Pod tym względem metodę klasyczną można warunkowo nazwać masową metodą probabilistyczno-statystyczną (MBSM), a metodę nieklasyczną - indywidualną metodą probabilistyczno-statystyczną (IMSM). W 4] pokazano, że żadna z klasycznych metod oceny wiedzy uczniów w ramach probabilistyczno-statystycznego modelu jednostki nie może być zastosowana do tych celów.

Na przykładzie pomiaru kompletności wiedzy studentów rozważymy cechy wyróżniające metody IMSM i IVSM. W tym celu przeprowadzimy eksperyment myślowy. Załóżmy, że jest duża liczba absolutnie identyczne w psychice i Charakterystyka fizyczna uczniowie z tego samego środowiska i niech bez interakcji ze sobą jednocześnie uczestniczą w tym samym proces poznawczy, doświadczając absolutnie tego samego ściśle deterministycznego efektu. Następnie, zgodnie z klasycznymi wyobrażeniami o przedmiotach pomiaru, wszyscy studenci powinni otrzymać te same oceny kompletności wiedzy przy dowolnej dokładności pomiaru. Jednak w rzeczywistości, przy wystarczająco dużej dokładności pomiarów, oceny kompletności wiedzy uczniów będą się różnić. Nie jest możliwe wyjaśnienie takiego wyniku pomiarów w ramach IMSM, gdyż wstępnie zakłada się, że wpływ na absolutnie identycznych uczniów, którzy nie wchodzą ze sobą w interakcje, ma charakter ściśle deterministyczny. Klasyczna metoda probabilistyczno-statystyczna nie uwzględnia faktu, że determinizm procesu poznania realizuje się poprzez losowość, tkwiącą w każdej jednostce poznającej otaczający świat.

Przypadkowy charakter zachowań ucznia w procesie przyswajania wiedzy jest uwzględniany przez IVSM. Zastosowanie indywidualnej metody probabilistyczno-statystycznej do analizy zachowań rozważanej wyidealizowanej grupy uczniów pokazałoby, że nie da się dokładnie wskazać miejsca każdego ucznia w przestrzeni informacyjnej, można jedynie powiedzieć o prawdopodobieństwach przebywania w jednym lub inny obszar przestrzeni informacyjnej. W rzeczywistości każdy uczeń jest identyfikowany przez indywidualną funkcję rozkładu, a jego parametry, takie jak oczekiwanie matematyczne, wariancja itp., są indywidualne dla każdego ucznia. Oznacza to, że poszczególne funkcje dystrybucji będą w różne obszary przestrzeń informacyjna. Przyczyna takiego zachowania uczniów tkwi w przypadkowym charakterze procesu poznania.

Jednak w wielu przypadkach wyniki badań uzyskane w ramach MVSM mogą być również interpretowane w ramach IVSM. Załóżmy, że nauczyciel przy ocenie wiedzy ucznia posługuje się pięciopunktową skalą pomiaru. W tym przypadku błąd w ocenie wiedzy wynosi ±0,5 punktu. Dlatego też, gdy uczeń otrzymuje wynik, powiedzmy, 4 punkty, oznacza to, że jego wiedza mieści się w przedziale od 3,5 punktu do 4,5 punktu. W rzeczywistości położenie jednostki w przestrzeni informacyjnej jest w tym przypadku określone przez rozkład prostokątny, którego szerokość jest równa błędowi pomiaru ±0,5 punktu, a oszacowanie jest oczekiwaniem matematycznym. Ten błąd jest tak duży, że nie pozwala na zaobserwowanie prawdziwej postaci funkcji rozkładu. Jednak pomimo tak przybliżonego przybliżenia funkcji rozkładu, badanie jej ewolucji pozwala na uzyskanie ważnych informacji zarówno o zachowaniu jednostki, jak i grupy uczniów jako całości.

Na wynik pomiaru kompletności wiedzy ucznia wpływa bezpośrednio lub pośrednio świadomość nauczyciela (miernika), który również charakteryzuje się przypadkowością. W procesie pomiarów pedagogicznych w rzeczywistości dochodzi do interakcji dwóch losowych układów dynamicznych, które identyfikują zachowanie ucznia i nauczyciela w tym procesie. Rozważono współdziałanie podsystemu studenta z podsystemem wydziału i pokazano, że prędkość przemieszczania się matematycznego oczekiwania poszczególnych funkcji rozkładu poszczególnych studentów w przestrzeni informacyjnej jest proporcjonalna do funkcji wpływu kadry dydaktycznej i odwrotnie proporcjonalna do funkcja bezwładności charakteryzująca odporność na zmianę położenia matematycznego oczekiwania w przestrzeni (analogicznie do prawa Arystotelesa w mechanice).

Obecnie, pomimo znacznych postępów w rozwoju teorii i praktyczne podstawy pomiarów w prowadzeniu badań psychologicznych i pedagogicznych, problem pomiarów jako całości jest wciąż daleki od rozwiązania. Wynika to przede wszystkim z faktu, że wciąż brakuje informacji o wpływie świadomości na proces pomiaru. Podobna sytuacja rozwinęła się przy rozwiązywaniu problemu pomiarowego w mechanice kwantowej. Tak więc w artykule, rozważając problemy pojęciowe teorii pomiarów kwantowych, mówi się, że trudno jest rozwiązać niektóre paradoksy pomiarów w mechanice kwantowej bez bezpośredniego włączenia świadomości obserwatora do teoretycznego opisu pomiaru kwantowego. Dalej mówi się, że „… jest to zgodne z założeniem, że świadomość może umożliwić pewne zdarzenie, nawet jeśli zgodnie z prawami fizyki ( mechanika kwantowa) prawdopodobieństwo tego zdarzenia jest niewielkie. Dokonajmy ważnego doprecyzowania sformułowania: świadomość danego obserwatora może uprawdopodobniać, że zobaczy to wydarzenie.

Udostępnij znajomym lub zachowaj dla siebie:

Ładowanie...