P. 1
statistika_izpiski

statistika_izpiski

|Views: 5,390|Likes:
Published by api-19506446

More info:

Published by: api-19506446 on Nov 22, 2009
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

03/18/2014

pdf

text

original

STATISTIKA DR. LIDIJA Z.

STIRN

1

Kazalo: 1. STATISTIKA-......................................................................................................................................................4 2. VRSTE SPREMENLJIVK (izražajo vrednost).....................................................................................................4 3. STATISTIČNE SPREMENLJIVKE ALI ZNAKI: .............................................................................................4 4. ATRIBUTIVNE SPREMENLJIVKE: .................................................................................................................5 5. NUMERIČNE SPREMENLJIVKE: ....................................................................................................................5 6. OZNAČEVANJE SPREMENLJIVK: .................................................................................................................5 7. UREJANJE STATISTIČNIH PODATKOV: ......................................................................................................5 8. RANŽIRNA VRSTA IN RANG: ........................................................................................................................5 9. FREKVENČNA PORAZDELITEV KVANTITATIVNIH SPREMENLJIVK: .................................................6 10. PRIKAZOVANJE STATISTIČNIH PODATKOV ...........................................................................................6 11. GRAFIKON, HISTOGRAM- ............................................................................................................................6 12. SREDNJE VREDNOSTI- ..................................................................................................................................6 13. MEDIANA- ........................................................................................................................................................7 14. MODUS: ............................................................................................................................................................7 15. ARITMETIČNA SREDINA ALI POVPREČJE- ..............................................................................................7 (literatura)Kvadratična sredina: ................................................................................................................................7 (literatura)Harmonična sredina: ...............................................................................................................................7 (literatura)Geometrična sredina:................................................................................................................................7 16. MERE VARIACIJE: (mere variranja)................................................................................................................8 VARIANCA IN STANDARDNA DEVIACIJA: ....................................................................................................8 Koeficient variacije :.................................................................................................................................................8 17. KVANTILNI RAZMIKI: ...................................................................................................................................9 18. MERE ASIMETRIJE: (literatura).......................................................................................................................9 MERE SPLOŠČENOSTI: ........................................................................................................................................9 19. VERJETNOST:...................................................................................................................................................9 20.TEORETIČNE PORAZDELITVE: ..................................................................................................................10 NORMALNA PORAZDELITEV...........................................................................................................................10 Standardizirana normalna porazdelitev: .................................................................................................................11 STUDENTOVA PORAZDELITEV t : ..................................................................................................................11 F PORAZDELITEV: (literatura)............................................................................................................................11 χ 2 PORAZDELITEV: (literatura).........................................................................................................................11 BINOMSKA PORAZDELITEV : .........................................................................................................................12 21. VZORČENJE IN VZORCI : ............................................................................................................................12 NAKLJUČNI VZOREC : ......................................................................................................................................12 VZORČNA PORAZDELITEV ARITMETIČNIH SREDIN : ..............................................................................13 VZORČNA PORAZDELITEV RAZLIK DVEH POVPREČIJ:............................................................................14 22. POSKUŠANJE DOMNEV...............................................................................................................................14 OSNOVNA IN NIČELNA DOMNEVA................................................................................................................14 STATISTIČNA ZNAČILNOST REZULTATOV:................................................................................................14 NAPAKE PRI PREISKUŠANJU DOMNEV.........................................................................................................14 23. PARAMETIČNI IN NEPARAMETRIČNI TESTI:........................................................................................15 KAJ JE ZNAČILNO ZA PARAMETRIČNE TESTE. NAŠTEJ KATERE POZNAŠ IN OPIŠI..........................15 KAJ SO NEPARAMETRIČNI TESTI. NAŠTEJ TISTE, KI JIH POZNAŠ IN OPIŠI.........................................15 POSTOPEK pri preizkušanju domnev:...................................................................................................................15 24. ANALIZA KVANTITATIVNIH SPREMENLJIVK.......................................................................................16 OCENA POVPREČJA POPULACIJE...................................................................................................................16 OCENA POVP. Z VELIKIM VZORCEM.............................................................................................................16 OCENA POVP Z MAJHNIM VZORCEM............................................................................................................16 25. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEM VZORCA IN POPULACIJE S TESTOM »z« (str.79)..............................................................................................................................................................17 26. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEM VZORCA IN POPULACIJE S TESTOM »t« (str.80)...............................................................................................................................................................17 27. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEMA DVEH NEODVISNIH VZORCEV...17 RAZLIKA MED POVPREČJEM DVEH VELIKIH VZORCEV (str. 82):...........................................................17 RAZLIKA MED POVPREČJEM DVEH VELIKIH VZORCEV (str. 82) (test F):..............................................17 28. WILCOXONOV TEST Z VSOTO RANGOV/FREKVENČNIH RANGOV.................................................18 POVPREČNA RAZLIKA PRI PARNIH, MED SEBOJ ODVOSNIH VZORCIH...............................................18 29. ANALIZA PARNIH PODATKOV S TESTOM »T«.......................................................................................18

2

30. ANALIZA Z WILCOXONOVIM TESTOM PREDZNAČENIH RANGOV.................................................18 31. PRIMERJAVA VEČ VZORCEV.....................................................................................................................19 a. ANALIZA VARIANCE (F porazdelitev)...........................................................................................................19 b. KRUKAL-WALLISOV TEST...........................................................................................................................19 32. TEST HI-KVADRAT.......................................................................................................................................19 33. KOLERACIJA IN REGRESIJA.......................................................................................................................20 34. KOEFICIENT KOLERACIJE PO PEARSONU..............................................................................................20 35. KAJ JE LINEARNI PROGRAM.KAKO IZ PRIMARNEGA DOBIMO DUALNI PROGRAM. KAJ POMENI, ČE NEKA DUALNA SPREM. ENAKA 0...........................................................................................21 36. KAJ JE MATRIČNA IGRA Z VSOTO NIČ. KAKO IŠČEMO OPTIMALNO STRATEGIJO ZA OBA IGRALCA, ČE IMA MATRIKA SEDLO IN KAKO ČE GA NIMA. KAJ JE CENA IGRE...............................21 37. MREŽNO PLANIRANJE RAZLOŽI POJMA KRITIČNA POT IN KRITIČNA ..........................................21 AKTIVNOST....................................................................................................................................................21 38. KAJ POMENI KRATICA DDDP RAZLOŽI KATERI SO OSNOVNI ELEMENTI DDDP IN OPIŠI RAZLIKO MED DDDP IN MREŽNIM PLANIRANJEM....................................................................................22 39. METODA SIMPLEX-......................................................................................................................................22 40. NAŠTEJ VSE PRINCIPE ODLOČANJA ZA PRIMER HEVRISTIČNEGA ODLOČANJA VSAKEGA OPIŠITE..................................................................................................................................................................22 41. SISTEM LINEARNIH ENAČB.......................................................................................................................23 42. SISTEM LINEARNIH NEENAČB..................................................................................................................23 43. MATRIKA........................................................................................................................................................23

3

1. STATISTIKAje veda, ki kvantitativno proučuje masovne pojave v naravi in družbi ter tako z metodami, ki so njej lastne, odkriva zakonitosti teh pojavov. Kot znanost je del matematike. Proučuje množične pojave. Zaradi prilagojenosti statističnih metod problemom stroke govorimo ponavadi o statistikah v posameznih vejah znanosti oz. strokah (ekonomiji, družboslovju…) kot ločenih vejah statistike. Statistika nam po eni strani pomaga zbirati, urejati in prikazovati statistične podatke, ta del imenujemo deskriptivna statistika (starejši del), v tem stoletju pa so se razvile tudi statistične analize, ki omogočajo sklepanje tudi iz podatkov, na majhnih skupinah – to je analitična statistika Imamo vzorec in populacijo. Kadar imamo veliko vzorcev vzamemo en del iz množice. Množice imajo veliko elementov. Elemente merimo. Imamo statistične znake. To so lastnosti elementov. OSNOVNI POJMI: - enota – statistična enota je posamezen preučevani element (npr. ljudje), na enotah merimo in dobimo podatke Populacija N – je množica vseh preučevanih elementov oz. statističnih enot. Pogoji, ki populacijo načno opredeljujejo so vsebinski, časovni in krajevni (opisane – realne populacije, umišljene hipotetične populacije) vzorec n– je podmnožica populacije vzorčenja, torej je to le del populacije, izbran za študij določenih značilnosti te populacije. Numerične opisne mere – npr. Povprečje in standardno deviacijo izračunane za populacijo imenujemo parametre populacije, iste mere izračunane za vzorec pa statistike spremenljivka (statistične spremenljivke/statistični znaki)– to je lastnost enote (teža, višina, dohodek..), imamo oznake x, y, z vsaka od spremenljivk ima svojo vrednost x1=1, x2=2. Spremenljivke so različne. 2. VRSTE SPREMENLJIVK (izražajo vrednost) Opisne ali atributivne spremenljivke (se ne izražajo v številkah), včasih imajo atributivni znaki nominalen značaj , znake lahko razlikujemo, ne moremo jih pa urediti po logičnem zaporedju, so lahko samo dve vrednosti ( dihotomno lastnost-oboleli/neoboleli) oz. kategorije, včasih več. Nominalno spremenljivko lahko opišeš ji daš ime (npr. spol), so opredljena z imenom in številke ne pomenijo njihove vrednosti. Drugi atributivni znaki pa imajo vrednosti, ki se dajo urediti v logičnem zaporedju ali po stopnjah kvalitete pojma – tu govorimo o ordinalnosti statističnega znaka. Te lahko uredimo po kvaliteti od najboljše do najslabše, možnosti za statistično analizo takih spremenljivk je več kot pri atributivnih znakih s samo nominalnem značajem. Ordinalne spremenljivke so opredeljene tako z imenom kot tudi s številom (npr. odlično 5). Možnost za statistično analizo so ordinalne spremenljivke bolj primerne od niminalnih. številske, numerične (starost, teža,..). Numerične spremenljivke (NS) imenujemo tiste spremenljivke, katerih vrednost je izražena s številkami. NS pa delimo na zvezne ali kontinuirne oziroma kvantitativne spremenljivke in na nezvezne ali diskontinuirne oziroma kvantalne spremenljivke. Nezvezne imajo vrednosti podane samo s celimi števili, ugotavljamo jih v glavnem s štetjem (npr. število opravljenih izpitov…). Zvezne NS pa dobimo v glavnem z merjenjem in imajo lahko neke enote katere koli vrednosti znotraj določenega razmika., vrednosti niso nujno omejena na cela števila kot pri nezveznih numeričnih znakih. Vsi numerični znaki imajo poleg nominalnega tudi ordinalni značaj. VRSTE SPREMENLJIVK (tip merjenja) nominalne (spol, barva, ..) ordinalne (odličen, prav dober,…) intervalne (temperatura od do,..) razmernostne spremenljivke (razmerje: starejši, mlajši) Statistične podatke lahko prikazujemo tabelarično ali grafično. Tabelo (sestavljajo stolpci in vrstice); morajo biti razumljive in pregledne. Grafikoni- prikazovanje podatkov zahteva ponavadi nekaj več trenda in spretnosti kot tabelarična. Za izdelavo najpogosteje uporabljamo aritmetično lestvico. (histogram, frekvenčni poligon, stolpčni diagram, strukturni stolpec-krog, linijski diagram) 3. STATISTIČNE SPREMENLJIVKE ALI ZNAKI: čeprav so si posamezne enote v populaciji enake s stališča opredeljenih pogojev, imajo poleg tega niz značilnosti, po katerih se med seboj razlikujejo moški, ženska, starost. Od teh značilnosti vsakokrat izberemo eno ali mogoče nekaj takih, ki so kakorkoli povezane z vsebino raziskovalnega problema in jih jasno definiramo.

4

Tako izbrane in definirane značilnosti imenujemo statistične spremenljivke ali statistične znake. Statističnih spremenljivk je več vrst. Statistične spremenljivke so atributivne in numerične. 4. ATRIBUTIVNE SPREMENLJIVKE: ali opisne so tiste, katerih vrednost opisujemo z besedami. Lahko imamo tudi atributivne znake, ki imajo samo dve vrednosti, ki se dajo urediti oziroma razvrstiti v logično zaporedje, pogosto po velikosti ali po stopnjah kvalitete.V takem primeru govorimo o originalnosti statističnega znaka. 5. NUMERIČNE SPREMENLJIVKE: so tiste, katerih vrednost izražamo s številkami. Numerične spremenljivke delimo na nezvezne ali diskontirne oziroma kvantalne in na in na zvezne ali kontinuirne oziroma kvantitativne spremenljivke. Nezvezne numerične spremenljivke imajo vrednosti podane samo s celimi števili, ugotavljamo pa jih s štetjem. Zvezne numerične oziroma kvantitativne spremenljivke dobimo v glavnem z merjenjem. Teoretično ima lahko kvantitativna spremenljivka neke enote katerokoli vrednost znotraj določenega razreda. Omejuje jih le natančnost metode, s katero smo spremenljivko merili. 6. OZNAČEVANJE SPREMENLJIVK: Vsak statistična spremenljivka ima lahko več možnih vrednosti dihotomnih (dve) do neskončnosti pri zveznih NS. Vsaka statistična spremenljivka lahko označimi x, y, kadar pa želimo označiti, da gre za katero koli jo označimo xi, kjer je i=1-n. Zbiranje statističnih podatkov: statistične podatke lahko pridobimo na različne načine, pri tem je potrebno paziti, da so podatki točni zanesljivi oziroma da je čim manj napak. Do kakšnih napak pri zbiranju podatkov lahko pride je odvisno glede na vrsto podatkov in na način pridobivanja. Vedno pa napake lahko razdelimo v dve skupini v slučajne ( premajhne natančnosti merskih metod ali malomarnosti zbirateljev podatkov-preveliki, premajhni, te napake povečujejo variranje podatkov, na končni rezultat pa ponavadi ne vplivajo saj se pri velikem številu – in + med seboj izničijo) in v sistematične ( te pa so posledica konstantnih vzrokov, ki sistematično delujejo na vrednost posamezne enote in vedno v isto smer, tu pa se z večanjem števila enot napaka ne izniči, ampak se sumira – popolno spremenijo sliko/napačne odločitve- potrebno jih je preprečevati) napake. 7. UREJANJE STATISTIČNIH PODATKOV: če je podatkov malo, urejanje in obdelava ne predstavlja problema. Kadar je podatkov veliko, je teže dobiti pregled nad njimi, v takem primeru podatke najprej grupiramo, uredimo po skupinah. Čeprav je na videz preprosta naloga, je pogosto zelo težka in zahteva precej pozornosti, saj se pri grupiranju lahko mnoge značilnosti posameznih enot popolnoma skrijejo. Grupiranje je odvisno od vrste statistične spremenljivke. a)Urejanje atributivnih spremenljivk AS: pri teh AS grupiramo enote v skupine, ki jih imenujemo kategorija. (npr. spol, zakonski stan…) Kadar ima AS le nekaj vrednosti, vsako vrednost znaka vzamemo kot posebno kategorijo, nato pa podatke sortiramo po posameznih kategorijah (frekvenca kategorije). Včasih pa imajo AS mnogo vrednosti – mnogo kategorij. Posamezne vrednosti teh AS pogosto označujemo z več izrazi, večkrat so nejasne tudi meje med njimi (nedoločene) in se lahko med seboj prekrivajo. Zato je potrebno vrednosti AS, ki niso jasno razmejene in opredeljene, točno opredeliti ter določiti povezanost in odnose med njimi – to je klasifikacija. (lahko je tudi mednarodna klasifikacija). Zato je najbolje, če je za to možno uporabiti že izdelano klasifikaciji. Klasifikacije so ponavadi urejene hierarhično po decimalnem načelu, za tako klasifikacijo je značilno, da vsaka kategorija - od splošnih proti specifičnim- vsebuje več kategorij nižjega reda. Decimalne klasifikacije so hierarhične klasifikacije, kjer imamo na vsakem nivoju največ deset skupin (od 0-9), vsaka od teh skupin pa je podrobneje razdeljena še na 10 skupin nižjega reda. b)UREJANJE NUMERIČNIH SPREMENLJIVK: kadar gre za nezvezne ali kvartalne spremenljivke, ki imajo ponavadi majhno število različnih vrednosti (celih števil) in ponavadi njihovo število različnih vrednosti vzamemo vsako vrednost kot svoj razred, če jih je več, nekaj vrednosti združimo v en razred. Kadar so spremenljivke zvezne, jih lahko uredimo v ranžirno vrsto in jim določimo frekvenčno porazdelitev. 8. RANŽIRNA VRSTA IN RANG: kadar imamo opraviti s kvantitativnimi spremenljivkami in je podatkov malo, bomo dobili pregled nad vrednostmi spremenljivke že z ureditvijo enot po velikosti znaka od najmanjše do največje vrednosti. Tako dobimo ranžirno vrsto. Vsaki enoti oziroma vrednosti v ranžirni vrsti nato damo zaporedno številko, ki jo imenujemo rang. Kadar imamo več enot z isto vrednostjo, seštejemo range, ki bi jih enote dobile in vsoto delimo s številom teh enot. Rrang v splošnem bolje označuje položaj enote v statistični masi kot pa sama vrednost znaka, vendar ga moramo navajati vedno skupaj s številom vseh enot v ranžirni vrsti, sicer je brez pomena (9 med 10-mi, je drugače kot 9 med 1000-mi). Razlike v rangih ne ustrezajo razliki med posameznimi vrednostmi spremenljivk. Prednost rangov je tudi v tem, da jih lahko uporabljamo pri atributivnih spremenljivkah (ordinalnega značaja) –možnost kvatitativnega proučevanja.

5

9. FREKVENČNA PORAZDELITEV KVANTITATIVNIH SPREMENLJIVK: kadar imamo veliko kvantitativnih podatkov, urejanje v ranžirno vrsto ne zadostuje, ampak dobimo pregled nad njimi le, če podatke uredimo v skupine, ki jih imenujemo razredi. Ker so podatki kontinuirani, moramo razrede in njihove meje določiti sami. To napravimo tako, da najprej ugotovimo razliko med najvišjo in najnižjo vrednostjo podatkov, kar imenujemo variacijski razmik, razpon ali variacijsko skupino (R=xmax-xmin). Nato se odločimo za primerno število razredov in z njimi delimo celotni variacijski razmak. Tako dobimo razredni interval ali razredno širino, praviloma so enaki. Razredov naj bo med 10in 20 odvisno od števila enot, če je razredov preveč, ne dobimo dobrega pregleda nad podatki, če jih je premalo skrijejo bistvo (kadar smo v dilemi se odločimo za večja število, saj jih kasneje lahko združimo). Začetek prvega razreda postavimo nekaj pod najmanjšo vrednostjo, konec pa nekaj nad največjo vrednostjo spremenljivk in s tem primerno zaokrožimo razredne intervale. (na začetku in na koncu so lahko razredi izjemoma odprti –določena samo ena meja; ni sredine). Meje naj bodo določene s natančnostjo osnovnih podatkov in ne bolj natančno. Biti morajo natančno določene tako, da vemo za vsako vrednost spremenljivke v kateri razred spada. Sredina razreda (xi) je zelo pomembna, ker nam rabi kot cenilka povprečne vrednosti spremenljivke vseh enot v tem razredu. Pri določanju sredine razreda moramo paziti na prave meje meje razreda, ki se pogosto razlikujejo od navedenih v tabeli in so odvisne od zaokroževanja podatkov pri meritvah. Število podatkov, razvrščenih v isti razred, imenujemo absolutna frekvenca tega razreda (fi). Takšno ureditev statističnih podatkov imenujemo frekvenčna porazdelitev. Absolutna frekvenca ni odvisna le od tega, za kateri razred gre, ampak tudi od skupnega števila podatkov. Strukturni delež posameznega razreda v celotni statistični masi imenujemo relativna frekvenca (fio ozi. f%→fo= fi/n). Včasih potrebujemo tudi komulativno frekvenčno porazdelitev. Kumulativna frekvenca Fi razreda nam pove, koliko enot ima vrednost pod spodnjo mejo ustreznega razreda (Fi+1= Fi+fi). Potem poznamo še relativno komulativno frekvenco (Fio+1 = Fio + fo). 10. PRIKAZOVANJE STATISTIČNIH PODATKOV prikazujemo lahko tabelarično ali grafično, vsak ima svoje vrednosti in pomanjkljivosti, ki jih je treba pri izbiri med obema načinoma upoštevati. Tabela ima prednost v tem, da podatke prikazuje s poljubno natančnostjo in jih je lažje pripraviti kot grafikon. Grafikon je manj zahteven (natančen) kot tabela in nazorneje (neposredno) prikazuje podatke in njihovo povezanost. Tabelo sestavljajo vrstice in stolpci, ki se sekajo v poljih. Vsebina po vrsticah je podana v čelu tabele, po stolpcih pa v glavi tabele, na desnem robu in na dnu imamo zbirni stolpec oz. vrstico. Morajo biti razumljive in pregledne, v naslovu mora biti vse pojasnjeno. Vsa polja v tabeli morajo biti zapolnjena. 11. GRAFIKON, HISTOGRAMs katerim prikazujemo kvantitativne spremenljivke, urejene v frekvenčno porazdelitev (spodnja/zgornja meja), spada med površinske diagrame, pri katerih je frekvenca enot v vsakem razredu prikazana s površino ustreznega stolpca v grafikonu. Če so razredi intervala enaki, je frekvenca vsakega razreda sorazmerna višini stolpca. Če pa so razredni intervali različni, je potrebno pri risanju stolpcov to upoštevati. Podatke urejene v frekvenčno porazdelitev lahko prikažemo tudi s frekvenčnim poligonom. Narišemo ga tako, da nad sredino vsakega razreda nanesemo točko v višini, kin ustreza frekvenci tega razreda, nato dobljene točke po vrsti zvežemo z daljicami (uporablja se redkeje kot histogram)-prednost bolje so vrednosti razmeščene znotraj razredov in laže se prikaže več frekvenčnih porazdelitev v enem grafu. Med površinske diagrame spada tudi stolpični diagram, stolpci katerih površina je sorazmerna velikosti podatkov. Strukture lahko prikazujemo s strukturnim stolpcem ali s strukturnimi krogi. Strukturni stolpci so podobni stopničastemu diagramu, le da je stolpič, ki predstavlja celoto, razdeljen v sorazmerju strukturnimi deleži. Linijski-črtni diagram se pogosto uporablja pri časovni statističnih vrstah. Tu so podatki podani v času, ker se dani podatki nanašajo na čas, so od časa tudi odvisni. i ks = (Sk/So). 100 – indeks s stalno osnovo (So=prva vrednost-prvi člen); ikp= (Sk/Sk-1).100 – indeks s premično osnovo; kk= (Sk/Sk-1) – koeficient dinamike (1> raste,1< pada); Tk= ikp-100 – tempo rasti. Torej časovne podatke lahko prikazujemo tudi z indeksi. Z ogivo prikazujemo grafično komulativno frekvenco (x=spodnja meja(xmin), y=komulitiva (Fi)) Torej nalogo začnemo lahko reševati z ražirno vrsto ali pa z razredi oziroma frekvenčno porazdelitvijo. 12. SREDNJE VREDNOSTIvrednosti numeričnih statističnih spremenljivk pri homogenih populacijah varirajo okrog neke srednje vrednosti. V statistiki je pomembno ugotoviti, okrog katerega središča (razreda) se gostijo vrednosti spremenljivk posameznih enot, ker s to vrednostjo, če je potrebno, predstavimo celotno populacijo ali vzorec. Meril za srednjo vrednost je več, aritmetična sredina, mediana, nekoliko manj pa modus. V določenih razmerah so vse tri mere identične, vendar ima vsaka med njimi prednosti in pomanjkljivosti. Druge mere srednje vrednosti so kvadratična, geometrična sredina, harmonična sredina. Če se srednja vrednost uporablja za opis populacije jo

6

imenujemo parameter, srednjo vrednost vzorca, ki je pomembna predvsem za oceno ustreznega parametra populacije pa imenujemo statistika. (literatura)Kvantilni rang : je število, ki nam pove koliko % je manjših od tega števila, ki ga imenujemo kvantil, in koliko % je večjih, če je npr. kvantilni rang Px= 0,25, pomeni da je 25 % manjših in 75 % večjih od kvantilnega ranga. Kvantili : Xp, kjer imajo p vrednosti od 0-1, Kvantili so: 1.Kvartili:→X0,25 (prvi); X0,5 (drugi); X 0,75 (tretji);… 2.Decili:→X 0,1; …; X 0,9; 3. Centili: → X 0,01; …; X 0,99 Px= (Rx-0,5)/N – kvantilni rang, Rx= Fo+(fo. (Xp-xomin)/io) – rang Xp-ja; Xp=xomin+(io. (Rx-Fo)/fo) – kvantil; Rx=Px.N+0,5; Fo≤ Rx≤ F1; io=je razredni interval z največjo frekvenco 13. MEDIANAali centralna vrednost je tista vrednost spremenljivke od katere ima polovica enot manjših, polovica pa večjih vrednosti spremenljivk. Če je število enot liho, je mediana enaka vrednosti srednje enote v ranžirni vrsti, če pa je število enot sodo je mediana povprečje srednjega para podatkov. Medijano računamo takrat, ko imamo ranžirno vrsto in rang (od najmanjšega do največjega). (npr. Me=X 0,5 (peti decil, drugi kvartal; namesto Px=0,1 imamo X 0,5, računamo kot v nalogi kvantil – zvezek) Me = medijana→ Me= xomin+(io. (Rx-Fo)/fo) Mediana je neobčutljiva za spremembe posameznih vrednosti, če pri tem enota ostane v isti polovici ranžirne vrste. V statističnem pomenu je mediana manjšega pomena kot aritmetična sredina, v nekaterih primerih pa je zelo primerna srednja vrednost in bolje predstavlja statistično maso kot aritmetična sredina (kadar je statistična masa porazdeljena nesimetrično). Če so podatki urejeni v frekvenčni tabeli, lahko mediano le ocenimo, ocena temelji na domnevi, da so enote v razredu enakomerno porazdeljene od ene do druge meje. 14. MODUS: je najpogostejša vrednost spremenljivke oziroma mesto največje gostitve podatkov. Pomanjkljivost modusa kot srednje vrednosti je v tem, da ga lahko ugotovimo le za razmeroma veliko populacijo. Pri manjših vzorcih ga ni mogoče ugotavljati, zato je statistično praktično neuporaben, operiramo z njim predvsem v zvezi z opisom populacij. Imeti moramo frekvenčno porazdelitev. Postopek izračuna: najprej poiščemo razred z največjo frekvenco fo, nato izberemo en razred spodaj f -1 in en razred zgoraj f+1, nato izračunamo d-1=fo-f-1 in d+1=fo-f+1; nato pa še modus: Mo=xomin+io.d-1/(d-1+d+1) 15. ARITMETIČNA SREDINA ALI POVPREČJEuporabljamo jo najbolj pogosto. Dobimo jo, če seštejemo vrednosti spremenljivke vseh enot in vsoto delimo s številom enot. Nanjo torej vpliva vrednost statističnega znaka vsake enote. Aritmetična sredina predstavlja nekakšno težišče podatkov, saj vsota razlik odklon navzgor enaka tisti navzdol(vsota obeh je enaka 0). Iz vsote kvadratov odklonov od aritmetične sredine je izpeljana varianca, pomembna mera za variabilnost podatkov. µ = aritmetična sredina za populacijo, x =aritmetična sredina za vzorec. x =

∑x ; x = ∑x . f
i

i

n

n

,

xi=sredina posameznega razreda, fi=absolutna frekvenca ustreznega razreda, formule so za populacijo enake. Druga formula je v primeru če imamo razrede. V primeru popolne asimetrije : Mo=Me= x V primeru asimetrije v DESNO velja : Mo<Me< x ; v primeru LEVO : x <Me<Mo (literatura)Kvadratična sredina: v statistiki se uporablja za varianco.

K =

1 . n

∑x

2 k

podatki ; K =

1 . n

∑x

2 k

.f

i

frekvenca ; K =

1 . n

∑x

2 i

.

f i frekvenca / s

xk=podatki podani ranžirne vrste v prvi formuli, v drugi ga v frekvenčne razrede (v razredu enaki podatki), xi=sredina posameznega razreda. (literatura)Harmonična sredina: Dobimo jo lahko tudi iz aritmetične sredina, tako, da izračunamo najprej aritmetično sredino harmonična pa je njena recipročna vrednost→H=1/aritmetična sredina. Uporablja se predvsem pri izračunih - koliko proizvodov na uro? oziroma proizvodno storilnost.

H =

n 1 1 1 + + ... + x1 x 2 xn
harmonična sredina

(literatura)Geometrična sredina: uporablja se verižnih indeksih: 7

G=

n

x1 .x 2 ... x n

PRAVILO: H<G< x <K 16. MERE VARIACIJE: (mere variranja) Podatek o srednji vrednosti sam še ne zadošča za natančnejšo opredelitev mase. Potrebno je namreč vedeti tudi, koliko posamezni podatki odstopajo od te vrednosti in s tem oceniti, koliko srednja vrednost res predstavlja statistično maso. Srednja vrednost, ki je rezultat delovanja splošnih opredeljujočih pogojev populacije, namreč toliko bolje predstavlja statistično maso, kolikor manjši je vpliv posameznih dejavnikov¸npr. napaka aparature, delovna razmerja, nečistoča…-so majhne in zanemerljive) in kolikor manjše je variiranje podatkov posledica tega vpliva. Torej je srednja vrednost toliko bolj reprezentivna, kolikor je manjše variiranje. Zato obstaja več mer za variacijo. VARIANCA IN STANDARDNA DEVIACIJA: varianca je osnovna mera variacije, podobno kot aritmetična sredina, osnovna vrednost za srednjo vrednost. Varianca je povprečje kvadratov, odklonov posameznih vrednosti od aritmetične sredine, je za statistično analizo zelo pomembna. Kot opisni parameter nima pravega smisla(kvadrat), varianca se grafično ne da predstaviti. Zato za opisni parameter uporabljamo variacije uporabljamo kvadratni koren iz variacije, ki jo imenujemo standardna deviacija ali standardni odklon. Mi bomo varianco populacije označili z σ 2 in standardni odklon (deviacijo) pa σ ; varianco pri vzorcu s2 in standardni odklon s. (literatura)

σ =
2

∑( x − µ)
n

2

, populacija ; s =
2

∑( x − x )
n −1

2

, vzorec

Imenovalec v enačbi za vzorec je zmanjšan za eno, ker je le tako varianca vzorca lahko nepristranska ocena variance populacije. Vemo pa, da se varianca vzorca prav največkrat uporablja prav v ta namen. Poznamo tudi naslednji način izračuna, ki je manj zamuden.

σ =
2

∑x

2

(∑ x)
n

2

n

, populacija ; s =
2

∑x

2

(∑ x)
n

2

Kadar pa imamo podatke urejene v frekvenčni tabeli pa dodamo se absolutno frekvenco fi in x ne pomeni več posamezne vrednosti temveč sredino posameznega razreda xi.

n −1

, vzorec

σ =
2

∑ f .( x
i

i

−µ

)

2

n

, populacija ; s =
2

∑ f .( x
i

i

−x

)

2

Po tem postopku je seveda le ocena prave variance, ki bi jo izračunali iz posameznih podatkov, ocena je nekoliko prevelika, ker temelji na domnevi, da so podatki v posameznem razredu enakomerno porazdeljeni okoli sredine razreda – kar ne drži popolnoma. Zato je ta napaka čim večja tem večji je intervalni razredni interval (i) – veliko podatkov, vendar v splošnem ni velika. To popravimo s Sheppardovim popravkom (i2/12) : σ 2 pop=σ 2 – i2/12 Standardno deviacijo /odklon dobimo tako, da izračunamo kvadratni koren variance: σ = σ 2 ; s = s 2 Analiza variante temelji na dejstvu, da varianca nekega vzorca, vzetega iz iste populacije, predstavlja nepristransko oceno variance populacije. (literatura) x aritmetična sredina vzorca ocenjuje (dobra cenilka) aritmetično sredino populacije µ . x je nepristranska cenilka µ , povprečno vrednost dobro povprečuje vzorec σ 2 x pristranska cenilka σ 2 populacije s2 je nepristranska cenilka za σ 2 Koeficient variacije : pogosto želimo primerjati variiranje različnih spremenljivk, ki so med seboj v vsebinski zvezi, ne moremo primerjati absolutnih mer variacije, ker imajo spremenljivke različne enote mere ali pa različne vrednosti podatkov z istimi enotami mere. Vseh teh težav se rešimo, če podamo mero variacije v odnosu na ustrezno σ s srednjo vrednost : KV = .100 ; populacija ; KV = .100 ; vzorec µ x

n −1

, vzorec

8

17. KVANTILNI RAZMIKI: Varianca in standardna variacija se uporabljata kot meri variranja skupaj z aritmetično sredino kot srednjo vrednostjo. Kadar so podatki nesimetrično porazdeljeni in uporabljamo za srednjo vrednost mediano in ne aritmetične sredine, je varianca neustrezna mera variranja. Takrat je bolje uporabiti za mero variiranja kvartilni razmik ali razmik, v katerem je določen odstotek vseh podatkov. Kvartili centili in decili so oblike kvantilov. Npr. kvartili so trije in delijo ranžirno vrsto na štiri enake dele ter srednji kvartil obenem tudi mediana. Kvartilni razmik je razmik med spodnjim in zgornjim kvartilom(Q=Q3-Q1=X0,75-X0,25) in obsega srednjo polovico podatkov, četrtina jih je pod spodnjim in četrtina nad zgornjim kvartilom. Decilni razmik : D=D9-D1=X0,9-X0,1 –zajema 80%, 10% spod , 10% nad Med njimi se najbolj uporabljajo centili, ki jih je 99 in razdelijo niz po velikosti na 100 delov in kjer je v vsakem delu enaka frekvenca podatkov Centili delijo podatke na v ranžirni vrsti na sto skupin in vsak centil obsega 1% podatkov, če npr. odštejemo zgornje in spodnje tri centile dobimo 94 % vseh podatkov. Računanje kvantilnih razmikov je možno samo pri sorazmerno velikem številu podatkov. Variacijski razmik: je razlika med največjim in najmanjšim podatkom: R=xmax-xmin. Ta mera variacije ima v primerjavi z varianco precej pomanjkljivosti, saj je odvisna samo od skrajnih vrednosti, pove pa nič o variranju podatkov, saj te vrednosti nanjo ne vplivajo. Odkloni posameznih enot od aritmetične sredine tudi ne dajejo uporabne mere za variacijo, saj je njihova vsota enaka nič. (vsota pozitivnih odklonov od AS je enak vsoti negativnih odklonov-(x- x )=0). Če pa bi vzeli absolutne vrednosti odklonov bi dobili povprečni absolutni odklon od aritmetične sredine– absolutne vrednosti odklonov bi delili s številom enot n : AD x = 1/n .∑  x- x  povprečni absolutni odklon, večje so vrednosti bolj je variabilni je odklon Poznamo tudi povprečni absolutni odklon od mediane : ADMe= 1/n .∑  x-Me 18. MERE ASIMETRIJE: (literatura) Tu poznamo naslednje koeficiente glede na modus, mediano in kvartil. -koeficient asimetrije glede na modus : KA Mo = -koeficient asimetrije glede na mediano : KA Me = -koeficient asimetrije glede na kvartil :

x − Mo

KAQ =

( Q3 − Me) − ( Me − Q1 )
Q3 − Q1

σ 3. x − Me σ

(

)

-asimetrija:

A=

Pravilo: če so vsi zgoraj pozitivni je asimetrija v Desno; -Če so vsi zgoraj negativni je asimetrija v Levo; -če je nič je simetrija. MERE SPLOŠČENOSTI: koeficient sploščnosti : KS = 1,9.

3 1  .∑ x − x  n  3 σ

(

)

Q3 − Q1 , koničasto KS<1, ploščato KS>1; D9 − D1

-kurtoza ali eksces : meri sploščenost

b=

19. VERJETNOST: Pri večini dogodkov govorimo, da se pojavljajo z večjo ali manjšo verjetnostjo. Verjetnost posameznih dogodkov računamo z verjetnostnim računom. Tudi metode za statistično analizo podatkov, dobljenih na vzorcih, in sklepanje o lastnostih populacije temelje na verjetnostnem računu. Verjetnost nekega dogodka, kot jo razumemo v statistiki, je pravzaprav relativna frekvenca tega dogodka v naključno izbranem zaporedju opazovanj, kadar je število opazovanj zelo veliko in raste čez vse meje. Verjetnost zato izrazimo podobno kot relativno frekvenco s kvocientom med številom pričakovanih dogodkov in celotnim številom dogodkov oziroma opazovanj. Ta kvocient označimo s črko p in ima vrednost med 0 in 1. 0 pomeni dogodek ni mogoč. 1 pomeni, da je dogodek zanesljiv. V praksi nikoli ne dobimo 0 ali 1, pač pa govorimo, da se p bliža 0 in, da je dogodek praktično nemogoč. In, da se bliža 1, da je praktično zanesljiv. Verjetnost včasih izražamo tudi z ulomkom ali z odstotkom.

4 1  .∑ x − x  n  4 σ

(

)

9

Verjetnost komplementarnega dogodka, torej verjetnost, da pričakovanega dogodka ne bo, je enaka 1, zmanjšana za verjetnost pričakovanega dogodka.→v statistiki to imenujemo tudi riziko ozi. tveganje. Seštevanje :Verjetnost več dogodkov lahko med seboj seštevamo, kadar gre za dogodke, ki se med seboj izključujejo. V takem primeru je verjetnost, da bo nastopil eden ali drug dogodek enaka vsoti verjetnosti vsakega posameznega dogodka. (verjetnost ali ali → +). Vsota verjetnosti vseh dogodkov, ki se med seboj izključujejo je enaka 1. Množenje: Kadar so dogodki med seboj neodvisni, je verjetnost, da se skupaj pojavi več dogodkov, enaka produktu verjetnosti vsakega teh dogodkov. (npr. mečemo dve kocki hkrati) (hkrati → x). Kadar si neodvisni dogodki lahko sledijo na več kot en način, je skupna verjetnost vseh načinov enaka vsoti verjetnosti vsakega od možnih načinov. (npr. dve kocki na prvi 3 na drugi 6 oz. na prvi 6 in na drugi 3 : p= 1/6 .1/6 +1/6 .1/6 = 1/18 20.TEORETIČNE PORAZDELITVE: Sedaj smo govorili o stvarnih porazdelitvah spremenljivk – frekvenčna porazdelitev. Poleg teh pa poznamo tudi teoretične porazdelitve,med katerim je najbolj pomembna normalna porazdelitev, porazdelitev t (studentova) in binomska porazdelitev. Razen teh bomo spoznali še porazdelitev χ 2 in porazdelitev F. Teoretične porazdelitve so pomembne, saj predstavljajo pravzaprav matematično idealizacijo stvarnih porazdelitev, če te zadoščajo istim zahtevam kot teoretične. Pogosto pa je da stvarne porazdelitve v določeni populaciji ne poznamo v celoti, lahko jo pa ocenimo, da je podobna eni od teoretičnih porazdelitev. V tem primeru lahko zakonitosti, ki veljajo za teoretično porazdelitev, uporabimo tudi pri stvarnih porazdelitvi populacije. Še važnejša pa je uporaba teoretičnih porazdelitev kot verjetnostnih porazdelitev pri vzorčenju. Posamezne slučajnostne spremenljivke v pravilno izbranem vzorcu se namreč porazdeljujejo v določene teoretične porazdelitve, ki jih v takem primeru imenujemo tudi verjetnostne porazdelitve. Verjetnost posameznih vrednosti spremenljivke je tu prikazana kot funkcija te vrednosti, vsota verjetnosti za vrednosti spremenljivk vseh enot mora biti ena (kvocient) ali 100% (odstotki). NORMALNA PORAZDELITEV • je najpomembnejša teoretična porazdelitev in jo imenujemo normalna ali Gaussova porazdelitev in spada med zvezne porazdelitve • če si zamislimo, da imamo populacijo z velikim številom enot in večje število razredov, bi frekvenčni poligon dobil obliko unimodalne, zvonaste, bolj ali manj simetrične oblike, ki bi bila podobna normalni krivulji. Torej je normalna porazdelitev – normalna krivulja simetrična in zvonaste oblike. • pomen normalne porazdelitve je posebno v tem, da ima ključno vlogo pri mnogih metodah za statistično analizo podatkov in to celo takih, ki so dobljeni na vzorcih iz populacije, katere porazdelitev se občutno razlikuje od normalne. Poleg tega je normalna porazdelitev osnova za nekatere druge teoretične porazdelitve – npr. porazdelitev t; Večina teoretičnih porazdelitev (binomska, t) v določenih razmerah asimptotično prehajajo v normalno porazdelitev. • normalna krivulja je podana z dvema parametroma z aritmetično sredino in s standardno deviacijo (odklonom). Aritmetična sredina določa, kje na številčnici premica normalne porazdelitve leži, standardna deviacija pa , kakšno širino obsega. Čeprav imajo normalne porazdelitve različne parametre – različne aritmetične sredine in standardne deviacije, so si med seboj podobne in imajo določene skupne lastnosti. • Zaradi simetričnosti je polovica posameznih vrednosti vedno pod vrednostjo aritmetične sredine in polovica nad njo, ne glede na velikost parametrov je relativna frekvenca vedno 0,6826 → (glede na različne stopnje zaupanja je razmik med standardnima deviacijama 68,26% (5%), 95,44% (1%), 99,73 % (0,1%)). • Te značilnosti normalne porazdelitve nam pomagajo pri računanju verjetnosti za vrednosti spremenljivk, če je njihova porazdelitev podobna normalni. • Pri kvantitativnih (zvezne-numerične-merjenje) spremenljivkah ne moremo govoriti o verjetnostni ene same spremenljivke (odvisne od natančnega merjenja), za kvantalnih (nezvezne – numerične-štetje) oz. atributivnih (opisne)spremenljivkah pa lahko napovemo verjetnost posamezne vrednosti ali kategorije. Kvantitativne spremenljivke so odvisne od natančnega merjenja, vrednosti znotraj intervala, zaokroževanje. • metode slone na dejstvu, da se povprečje vzorcev vzetih iz iste populacije porazdelijo normalno, čeprav sama populacija iz katere ti vzorci izhajajo ni normalno porazdeljena - Z = normirani ali standardizirani odklon - a = x ali µ ; zveza med frekvenco in verjetnostjo → p= f/n - spremenljivka X je poljubna→X∼ N(µ , σ ) ali X∼ N(a, σ ) pri populaciji, spremenljivka X je poljubna→X∼ N( x ,

σx

n

) ali X∼ N(a,

σx

n

) pri vzorcu, σ pop≠ σ x , torej

standardni odklon populacije pristranska cenilka standardnemu odklonu vzorca,

10

-

pri deležu je a= x = p (delež v %) in velja → N(p,

p.(1 − p ) ), n
2 σ 12 σ 2 + ), n1 n 2

če nas zanima razlika med podatki in porazdelitev je normalna, velja: → N(0,

0 = x1 - x 2 P (x1<X<x2) = Φ ((x2-a)/σ )-Φ ((x1-a)/σ ) N normalna porazdelitev ((x2-a)/σ ) zgornja meja ((x1-a)/σ ) spodnja meja Standardizirana normalna porazdelitev: - Z = normirani ali standardizirani odklon N(a,σ ) - Z ∼ N (0, 1) → α /2 + α /2 + 1 -α = 1; α = stopnja tveganja (da pademo izven); 1- α = stopnja zaupanja; da dobimo verjetnost med –Z in +Z je 1-α ; α je lahko 5%, 1 % ali 0,1 %. - P (0<Z1-α <Zo) = Φ (Zo); P (a<Zα <b) = Φ (b) -Φ (a); Φ (∞ ) = 0,5 in Φ (-Z) = - Φ (Z) Če pri normalni porazdelitvi odklonov posameznih vrednosti od aritmetične sredine ne izražamo več v enotah mere statistične spremenljivke, ampak vzamemo za enoto kar ustrezno standardno deviacijo, dobimo novo enoto za merjenje teh odklonov, to je tako imenovani standardizirani odklon → označujemo ga s črko »z«

Z=

Če je porazdelitev vrednosti Z, ki ima aritmetično sredino enako nič in standardni odklon eni, s pomočjo te porazdelitve lahko dajemo splošne podatke o katerikoli normalni porazdelitvi, pri tem si pomagamo s tabelami, ki nam povedo odnos med verjetnostjo in deležem površine pod krivuljo, ki jo ta vrednost omejuje. S tem načinom lahko ugotovimo, npr. kolikšen delež populacije ima večje oziroma manjše vrednosti, kolikšen delež populacije ima vrednost spremenljivke znotraj določenega razmika, kolikšen delež enot je v populaciji pod določeno vrednostjo in kolikšen nad njo. Zα : Z0,05=1,96; Z0,01=2,58; Z0,001=3,29 α /2 + α /2 + 1 -α = 1→ dvostransko gledanje α + 1 -α = 1→ enostransko gledanje STUDENTOVA PORAZDELITEV t : standardizirana normalna porazdelitev se torej zelo uspešno uporablja, kadar gre za realne populacije, katere parametri so nam poznani. Ponavadi imamo samo podatke o vzorcih in njihove statistike nam rabijo za oceno parametrov populacije. Ta ocena pa je nezanesljiva čim manjši vzorec je. V takem primeru namesto normalne porazdelitve uporabljamo studentovo porazdelitev, oziroma porazdelitev t-e porazdelitev . Studentova porazdelitev je modifikacija normalne porazdelitve, ki omogoča sklepanje o parametrih populacije tudi z oceno, dobljenih na majhnih vzorcih (n<30):

x−µ σ

za populacijo Z =

x−x s

za vzorec - (n>30);

t=

x−µ s

studentova porazdelitev t za majhne vzorce (n<30),

torej porazdelitev t je podobna normalni porazdelitvi, razlika med njima je odvisna od velikosti vzorca, kot ocena za standardni odklon. Merilo za velikost vzorca so stopinje prostosti (m) in ki so vedno enake imenovalcu v enačbi za ustrezno oceno standardnega odklona, če gre za oceno standardnega odklona populacije, bo m = n – 1.Za vsako stopnjo prostosti oz. velikost vzorca je porazdelitev t nekoliko drugačna, vse so podobne normalni, le da je proti obema skrajnima vrednostima delež celotne površine pri njih večji kot pri normalni porazdelitvi, ta razlika je čim večja tem nižji je m. Ko se število prostosti povečuje, se porazdelitev t vse bolj približuje normalni. Podobno kot pri normalni porazdelitvi so tudi tukaj podatki o porazdelitvi t podani v tabelah, ampak ne o krivuljah v celoti, ampak samo kritične vrednosti t pri različnih stopnjah tveganja (α ) in različne stopnje prostosti (m). Pri 30 stopinjah prostosti je tista meja, kjer velja, da od nje naprej navzgor lahko razliko zanemarimo. Kadar n<30 uporabimo studentovo porazdelitev t, če pa je n>30 pa normalno porazdelitev z. tα (m =1-30) tu imamo en parameter F PORAZDELITEV: (literatura) Uporablja se pri variancah, odvisna je od parametrov m1 in m2: F (m1, m2) χ 2 PORAZDELITEV: (literatura) χ 2 (m) če je parameter večji od 30 preide v normalno.

11

BINOMSKA PORAZDELITEV : Binomska porazdelitev je nezvezna verjetnostna porazdelitev, pove verjetnost pr, kar pomeni, da bomo dobili določeno število r pričakovanih dogodkov v nizu n neodvisnih opazovanj, kadar imamo pri vsakem opazovanju samo dva možna dogodka oz. vrednosti znaka (dihitomnost znaka). Kadar je verjetnost pričakovanega dogodka v populaciji π znana i se ne spreminja od opazovanja do opazovanja, označimo verjetnost pričakovanega dogodka v populaciji s π (v vzorcu s p) Tu gre za dihotomne spremenljivke z dvema možnima vrednostima (npr. učinkuje, neučinkuje), npr,. na dveh bolnikih so možni so trije izidi – učinkuje pri obeh, pri enem, pri nobenem. -pri obeh: π =0,9; pr=2 = 0,9.0,9=0,81 (neodvisni – x) -pri enem: π =0,9; pr=1 = 0,9.0,1 + 0,9.0,1=0,18 (neodvisni – x, izključujeta - +)) -pri nobenem: π =0,9; pr=0 = 0,1.0,1=0,01 (neodvisni – x) -Σ p=1 2 skupni izraz za zgoraj navedeni izračun je : [π + (1 − π ) ] = 1 za dve opazovanji,

[π + (1 − π ) ] n = 1 za n število opazovanj,

Važno je če se število opazovanj veča, se binomska porazdelitev približuje normalni porazdelitvi. Približevanje je tem hitrejše, čim bolj se verjetnost dogodka v populaciji približuje vrednosti 0,5. (slika str.55), kadar je zmnožek verjetnosti v populaciji in števila opazovanj enak ali večji od pet (n.π ≥ 5) je binomska porazdelitev že tako podobna normalni, da razliko lahko zanemarimo. 21. VZORČENJE IN VZORCI : Predavanje: -vsi vzorci morajo imeti enake možnosti in pogoje, da so izbrani -vzorčenje je lahko z vračanjem in brez vračanja -vzorci veliki –nekaj 1000 enot, majhni vzorci – nekaj 100 enot Kako pridemo do elementov vzorca(literatura): a. s številčenjem (1,2…): -sistematično izbiranje oz sistematični vzorec (1,5,10…) -loterijski sistem -tablica slučajnih številk (str.58/59) b. večstopenjsko izbiranje: -npr. prva stopnja regija, druga, občina, tretja območje, četrta vas.. -imeti moramo več elementov pri izbiri (bolj so pristranski, več jih mora biti) -kadar so zelo heterogeni, so vzorci zelo različni (npr. študenti, srednješolci, osnovnošolci – heterogena skupina , Stratificirano) c. kvotno vzorčenje: -npr. ne samo ženske -določen procent žensk, starih,… N (neznano) n (znano) x (to je točkovna ocena) je nepristranska cenilka za µ σ x oz. s (to je točkovna ocena) je nepristranska cenilka za σ σ x 2 oz. s2 (to je točkovna ocena) je nepristranska cenilka za σ 2 Knjiga: V glavnem imamo pri raziskovanju le redko opravka s populacijami, večinoma delamo samo z deli teh populacij – vzorci. Delo z vzorci pa je vedno hitrejše in mnogo cenejše kot delo s celimi populacijami, zato vzorčenje postalo pomembno orodje statistikov na raznih področjih znanosti. Torej delamo z umišljenimi populacijami, kjer število enot neznano, parametrov hipotetičnih populacij tudi ne poznamo in jih ocenimo edino z vzorčenjem. Da bi iz vzorca lahko sklepali o celotni populaciji, mora biti čimbolj reprezentiven za populacijo. Zato je pravilno vzorčenje zelo pomembno. Dobro pa je da na podlagi rezultatov še intuitivno sklepamo, če so dobljeni rezultati na vzorcu reprezentivni tudi za populacijo. Vedeti pa moramo, da sklepanje iz vzorca o populaciji je vedno povezano z večjim ali manjšim tveganjem. Tveganje pa lahko ocenim z verjetnostnim računom, samo v primeru, če so enote vzorca izbrane po slučajnostnem načelu –vzorec naključen. NAKLJUČNI VZOREC : Tu je omogočeno, da imajo vse enote enako možnost priti v vzorec in da nobena lastnost enote ne vpliva na njen izbor- nepristranost vzorca. Včasih imamo lahko pri vzorčenju pristranost očitno, včasih neopazno, zato nepristranost lahko zagotovimo samo s predpisanimi postopki pri izbiri vzorca (npr. žreb, metanje kovanca ali uporaba tablic naključnih števil). Uporaba tablic naključnih števil: 12

-enote, iz katerih želimo izbrati vzorec, oštevilčimo, iz njih tabele naključnih števil nato izberemo številke vzorca (tabela C – tabela naključnih števil). Jemljemo vedno po toliko števil skupaj, kot ima mest zaporedna številka zadnje enote v masi. (npr. vzorec 10 med 70-timi), izberemo določeni blok in začnemo izbirati naključna števila (prvi dve), ki ustrezajo številom 1-70 do naključno deset izbranih. Poleg naključnega vzorca poznamo še alternativne oblike naključnega vzorca – sistematični vzorec, stratificirani vzorec in vzorec v več stopnjah. Sistematični vzorec uporabljamo, kadar so podatki o enotah oz. posameznikih v populaciji že urejeni v seznamih, kartotekah ali kako drugače. Prvo enoto izberemo po slučajnostnem načelu, vse drugo pa po vzorčni shemi, ki smo jo postavili (npr. želimo imeti vzorec po eno enoto od petdesetih, prvo izberemo iz tabliv naključnih števil, nato pa vsako petdeseto –39, 89, 139,…). Tako vzorčenje je naključno, pristransko pa je le v primeru, če se interval (npr. 50) sovpada s katerim od dejavnikov. Stratificiran (heterogen) vzorec dobimo, če pri populaciji, razdeljeni na sloje, jemljemo naključni vzorec določene velikosti iz vsakega sloja posebej. Izbira slojev je odvisna od problema, ki ga raziskujemo (spol, starost, izobrazba, poklic…). S stratificiranim vzorcem je ocena parametra natančnejša, poleg tega pa lahko ocenjujemo tudi parametre vsakega sloja posebej. Vzorčenje v več stopnjah poteka tako, da najprej izberemo med enotami prve stopnje, nato pa iz izbranih enot prve stopnje izberemo enote druge stopnje, ki jih nato vključimo v opazovanje (npr. najprej delovne organizacije, nato pa izmed temi organizacijami izberemo vzorec delavcev). Pri obeh mora biti izbor naključen. Tako vzorčenje je hitro in preprosto. Da bi lahko izračunali potrebno velikost vzorca za oceno povprečja populacije, bi torej potrebovali podatke o standardnem odklonu populacije, tega pa ponavadi ne poznamo. (Kasneje Str.130 in 75) VZORČNA PORAZDELITEV ARITMETIČNIH SREDIN : x aritmetična sredina vzorca s standardni odklon vzorca Te vrednosti v populaciji imenujemo parametre v vzorcu pa statistike, ki jih rabimo za oceno parametrov (aritmetične sredine in standardnega odklona). Da bi lahko iz aritmetičnih sredin vzorcev ocenjevali aritmetično sredino populacij, moramo vedeti, kakšna je porazdelitev povprečij vzorcev, izbranih iz te populacije (kakšna je vzorčna porazdelitev). To porazdelitev bomo bolje razumeli, če si predstavljamo, da iz znane populacije izbiramo naključne vzorce s po »n« enotami, vsakemu od teh določimo aritmetično sredino, nato enote vrnemo v populacijo. Postopek ponavljamo, da dobimo vrsto povprečij naključnih vzorcev z »n« enotami. In če sedaj ta povprečja vzamemo kot spremenljivke in jih uredimo kot v frekvenčno porazdelitev, dobimo vzorčno porazdelitev povprečij. Praktično tega ne bomo delali, saj postopek ne bi imel smisla, pomembno je samo poznati lastnosti, tako umišljene porazdelitve, saj nam to dovoljuje sklepati iz enega samega vzorca, kot v praksi tudi ponavadi je. Aritmetična sredina vzorčne porazdelitve povprečij je enaka aritmetični sredini populacije. 1. µ x =µ

σx =

σ = SE standardni odklon vzorčne porazdelitve povprečij, ki je sorazmeren s standardnim odklonom n

populacije in obratno sorazmeren s korenom števila enot v vzorcu . Standardni odklon vzorčne porazdelitve povprečij imenujemo tudi standardni pogrešek ocene povprečij in ga označujemo z SE. Ker je vzorčna porazdelitev povprečij normalna (2.), veljajo tudi zanjo značilnosti normalne porazdelitve (Gausova krivulja), prav ta značilnost, pa nam dovoljuje, da z uporabo standardnega pogreška ocenimo interval, v katerem lahko z določeno verjetnostjo pričakujemo povprečje populacije. Tretja značilnost vzorčne porazdelitve povprečij je ta, da je porazdelitev približno normalna tudi takrat, ko populacija sama ni normalno porazdeljena, če so le vzorci dovolj veliki. To je zelo pomembna lastnost vzorčne porazdelitve povprečij, saj pomeni, da lahko uporabimo normalno porazdelitev pri statističnem sklepanju tudi takrat, pri katerih populacija ni normalno porazdeljena. Za razliko od prvih dveh , ki sta pričakovani (aritmetična sredina vzorčne porazdelitve povprečij=aritmetični sredini populacije; vzorčne porazdelitev povprečij ima značilnost normalno porazdelitev), nas tretja preseneča. Kako velik mora biti vzorec, da lahko pričakujemo normalno vzorčno porazdelitev povprečij tudi pri populaciji, ki ni normalno porazdeljena, je odvisno od velikosti odstopa od normalne porazdelitve, čim večja je razlika, tem večji mora biti vzorec.

Zx =

x−µ σ n

standardizirani odklon za vzorčno porazdelitev povprečij

13

Standardizirana vzorčna porazdelitev povprečij pa nam lahko koristi kot verjetnostna porazdelitev. Pri statični analizi podatkov tako ocenjujemo verjetnost, da bi iz znane populacije izbrali vzorec, ki bi imel povprečje v določenem razmiku vrednosti. VZORČNA PORAZDELITEV RAZLIK DVEH POVPREČIJ: Tu primerjamo dva vzorca, od katerih je eden tretiran drugi pa je prvemu v kontrolo. Za ocenjevanje razlik med njima moramo poznati glavne značilnosti vzorčne porazdelitve razlik dveh povprečij. Umišljeni poskus: iz ene populacije izberemo dva slučajna vzorca x1 z n1 številom enot in x2 z n2 enotami. Enot v obeh vzorcih je lahko enako ni pa nujno. Povprečje drugega vzorca odštejemo od prvega in dobimo razliko: x 1 - x 2. Enote obeh vzorcev vrnemo v populacijo in vse zopet večkrat ponovimo. Če razlike obeh povprečij vzamemo za spremenljivko in jih frekvenčno uredimo, dobimo vzorčno porazdelitev razlik povprečij dveh vzorcev z n1 in n2 enotami. Tudi tukaj velja enako kot za vzorčno porazdelitev povprečij, je pomembna samo zato, ker na omogoča analizirati rezultate, iz ene same razlike dveh povprečij. Vzorčna porazdelitev razlike dveh povprečij je normalna. Aritmetična sredina je enaka nič. Varianca te porazdelitve je vsota variance povprečij prvega vzorca in variance povprečij drugega vzorca. Standardni odklon razlik povprečij dveh vzorcev je:

σ x1− x 2 =

2 σ 12 σ 2 + n1 n2

standardni odklon razlik povprečij dveh vzorcev

Standardni odklon vzorčne porazdelitve razlik povprečij dveh vzorcev imenujemo tudi standardni pogrešek ocene razlik dveh povprečij dveh vzorcev, tudi ta ima značilnosti normalne porazdelitve.

Z x1− x 2 =

x1 − x 2
2 σ 12 σ 2 + n1 n2

standardizirani odklon vzorčne porazdelitve razlik dveh povprečij

22. POSKUŠANJE DOMNEV Ugotovili smo, da iz naključnih vzorcev lahko ocenjujemo parametre populacije, iz katere so vzorci izbrani. Vzorci pa nam ne koristijo samo za ocenjevanje parametrov populacije, ampak tudi za preverjanje domnev, ki jih postavljamo pri statistični analizi rezultatov znanstvenega ali strokovnega dela. OSNOVNA IN NIČELNA DOMNEVA • domneva, kakršna je pravkar opisana imenujemo tudi osnovna domneva in jo označujemo z H1 • osnovni priredimo nasprotno domnevo, ko jo imenujemo ničelna in jo označujemo z Ho. • Ker si osnovna in ničelna domneva nasprotujeta, ima zavrnitev ničelne domneve za posledico sprejetje osnovne domneve. (zavrnemo ničelno, sprejmemo osnovno oz. ne zavrnemo ničelne in ne sprejmemo osnovne) • Ničelno domnevo preskušamo z izračunom STATISTIČNA ZNAČILNOST REZULTATOV: V najpogosteje izberemo vrednosti 0,05, 0,01 in 0,001 kot zgornjo meje tveganja, pri kateri zavračamo ničelno domnevo. Torej govorimo o 5%, 1% in 0,1% stopnji tveganosti. Katero izberemo je odvisno od narave podatkov in problema, ki ga obravnava osnovna domneva (odločitev strokovno utemeljena). Izhajati moramo iz posledic, kaj je če osnovno domnevo ne sprejmemo in je bila pravilna in obratno. Ko se odločimo o stopnji tveganosti pri zavračanju ničelne domneve, se moramo odločiti, ali bomo uporabili enosmerni ali dvosmerni test. O tem se odločamo že pri postavljanju osnovne in ničelne domneve. Če pri ničelni domnevi uporabimo znaka ><, s tem določimo tudi smer testa in sicer naj bi bil enosmeren, kadar pa ničelna domneva trdi samo, da ni ≠ , nas smer ne zanima in zato uporabimo dvosmerni test. Praktično je ta odločitev zelo pomembna in je ne smemo prepustiti formalnemu postavljanju ničelne domneve, če namreč uporabimo enosmerni test, bo isti rezultat značilen pri pol manjšem tveganju, kot če bi uporabili dvosmerni test. NAPAKE PRI PREISKUŠANJU DOMNEV • ničelno domnevo zavrnemo, kadar je verjetnost, da je pravilna dovolj majhna. • Vedeti pa moramo, če to verjetnost postavimo še tako nizko, je pri sklepanju vendarle vedno nekaj tveganja, da bomo ničelno domnevo zavrnili, čeprav v resnici drži. Napako, ki bi jo naredili imenujemo napako prve vrste, njeno verjetnost pa označujemo z α . Verjetnost napake prve vrste je v naprej določena s stopnjo tveganja pri sklepanju (α ). Napak prve vrste je majhna. Napako pa je možno tudi narediti tako, da bi ničelno domnevo sprejeli, čeprav v resnici ne drži in zavrnili osnovno domnevo. To pa je napaka druge vrste, njeno verjetnost pa označujemo z β . Medtem, ko verjetnost za napako prve vrste izberemo sami v naprej, pa napak druge vrste odvisna od več dejavnikov. Nanjo vplivajo trije faktorji: porazdelitev relavantnega parametra obeh alternativnih populacij (npr. razlika med povprečji), velikost vzorca (večje število enot-manjši β ) je in stopnja tveganosti (večji je α – manjši je β ).

14

Ker v splošnem parametrov obeh alternativnh populacij ne poznamo, faktorja za verjetnost napake druge vrste skoraj nikoli ne poznamo, kljub temu lahko na njega vplivamo z dovolj velikim vzorce in α . Vedeti pa moramo, če se odločimo za dovolj majhno napako prve vrste, s tem se povečuje možnost napake druge vrste – pomembne rezultate pripisujemo naključju → α naj ne bo premajhen, če to ni potrebno. Kot vidimo, je pri sklepanju nevarnejša napaka druge vrste, saj je njena verjetnost zelo velika in je ponavadi ne moremo oceniti, med tem ko je verjetnost za napako prve vrste znana. Torej če ničelno domnevo zavrnemo, lahko naredimo napako prve vrste, če pa ničelno sprejmemo in s tem zavrnemo osnovno, lahko tvegamo s napako druge vrste. Tej nevarnosti se izognemo tako, da v primeru, ko je tveganje preveliko, naredimo→ničelne domneve ne zavrnemo in osnovne ne sprejmemo. Torej v tem primeru ostane osnovna domneva , ki jo statistično preverjamo – nepotrjena ne pa ovržena. Verjetnost, da z določenim testom ne bomo naredili napake druge vrste 1 - β , imenujemo moč testa (odkriva statistične značilnosti). To pomeni verjetnost, da bomo z testom zavrnili ničelno domnevo, kadar ni pravilna in jo je treba zavrniti 23. PARAMETIČNI IN NEPARAMETRIČNI TESTI: Večina metod za statistično analizo podatkov temelji na nekaterih predpostavkah v zveti z porazdelitvijo populacije. Najprej predpostavimo, da je vzorec vzet iz normalno porazdeljene populacije, nato pa s statistično metodo ugotovimo povprečje , varianco, standardni odklon. S temi metodami torej preverjamo domneve o parametrih populacije in jih zato imenujemo parametrične metode. V zadnjih leti pa se vse bolj uveljavljajo tudi metode, ki ne temelje na predpostavki o normalni ali drugačni porazdelitvi populacije. Ker z njimi ne preskušamo domnev o statističnih parametrih populacije jih imenujemo neparametrične statistične metode ali testi. Parametrični testi: Pomanjkljivost parametričnih testov je predvsem v tem, da je ponavadi predpostavka o normalni porazdelitvi populacije le slabo utemeljena, negotovost in možnost napake, ki izvira iz tega, sta lahko precejšni, posebno kadar iz vzorca ocenjujemo parametre populacije. Nevarnost je manjša, kadar metoda temelji na vzorčni porazdelitvi povprečij ( ta je pri dovolj velikem vzorcu normalna, če tudi populacija ni normalno porazdeljena). Po drugi strani pa imajo parametrične metode večjo moč odkrivanja statističnih značilnosti, in so primernejša za analizo podatkov, ki zahtevajo več vzorcev ali skupin, ter oceno mej in intervalov. Neparametriči testi: ena od prednosti neparametričnih testov je predvsem v hitrem in preprostem računanju. Ta je še posebno izrazita pri majhnih vzorcih, kjer je rangiranje naglo. Velika možnost uporabe računalnikov in osebnih kalkulatorjev so to prednost neparmetričnih testov nekoliko zmanjšale. Glavna prednost neparametričnih testov je v njihovi neobčutljivosti za obliko porazdelitve populacije, z njimi lahko tudi analiziramo podatke, kjer spremenljivke sploh niso kvantitativne, saj zadostuje, da so spremenljivke ordinalnega značaja in da jih lahko rangiramo. Pomanjkljivosti teh testov pa so predvsem v tem, da je njihova moč manjša kot moč parametričnih testov, kar pomeni večjo verjetnost, da bo statistična značilnost nekega rezultata ostala neodkrita. So primerni za oceno značilnosti, manj pa oceno mej in intervala zaupanja. Torej se za analizo uporabljajo tako parametrični kot neparametrični testi, v določenih primerih prevladujejo eni v drugih drugi. KAJ JE ZNAČILNO ZA PARAMETRIČNE TESTE. NAŠTEJ KATERE POZNAŠ IN OPIŠI. Z parametričnimi testi preverjamo domneve o parametrih populacije in jih zato imenujemo parametrične metode. Parametrični testi: z-test, t-test, HI-kvadrat, F-test. Pomanjkljivosti parametričnih testov je predvsem v tem, da je ponavadi predpostavka o normalni porazdelitvi populacije, le slabo utemeljena. Parametrični testi imajo večjo moč odkrivanja statističnih značilnosti in so primernejše za analizo podatkov; ki zahtevajo več vzorcev ali skupin ter za oceno mej in intervalov zaupanja. KAJ SO NEPARAMETRIČNI TESTI. NAŠTEJ TISTE, KI JIH POZNAŠ IN OPIŠI. Ho: razlik ni; H: razlike so Prednost neprarametričnih testov je predvsem v hitrem in preprostem računanju. Ta prednost je še posebej izrazita pri majhnih vzorcih, kjer je rangiranje naglo. Glavna prednost neparam. testov je v njihovi neobčutljivosti za obliko porazdelitve populacije. Z njimi lahko analiziramo tudi podatke, kjer spremenljivke sploh niso kvantitativne, saj zadostuje, da so spremenljivke ordinalnega značaja in da jih lahko rangiramo. Pomanjkljivosti teh testov pa so predvsem v tem, da je njihova moč manjša kot moč parametričnih testov kar pomeni večjo verjetnost, da bo statistična značilnost nekega rezultata ostala neodkrita. Ti testi so predvsem primerni za oceno značilnost, manj za oceno mej in intervala zaupanja. POSTOPEK pri preizkušanju domnev: • podatke najprej pretehtamo in presodimo, katera metoda bi bila najprimernejša za analizo problema. • Izbira prave metode je ena ključnih odločitev pri statistični analizi (izbira prave metode je ponavadi izbrana že pri načrtovanju raziskav in predvideli tudi ustrezno zbiranje pdatkov)

15

• Najprej je potrebno oceniti, kakšno vrsto podatkov imamo ali gre za kvantitativne, zvezne spremenljivke ali za atributivne oziroma kvantalne. • Pomembno je tudi, da problem razčlenimo • Ko izberemo metodo, postavimo osnovno domnevo in nato ničelno domnevo. • Določimo tveganje pri katerem bomo zavrnili ničelno domnevo, ustrezno temu določimo kritične meje in kritično območje iz ustreznih tabel poiščemo kritično vrednost za izbrani test pri določenem tveganju, če ni utemeljenih vzrokov, uporabljamo vedno dvosmerni test • Podatke, ki jih želimo analizirati vstavimo v ustrezni izraz in izračunamo vrednost izraza • Če dobljena vrednost pade v kritično območje, zavrnemo ničelno domnevo in sprejmemo osnovno domnevo ( v tem primeru pravimo, da so rezultati statistično značilni) • Če pa je vrednost zunaj tega območja ničelne domneve ne moremo zavrniti, in osnovna domneva ostane nepotrjena (ne sprejmemo). 24. ANALIZA KVANTITATIVNIH SPREMENLJIVK • za njihovo analizo uporabljamo, kot smo že menili dve vrsti metod: parametrične in neparametrične. • Parametrične metode uporabljamo predvsem tam, kjer vemo ali vsaj lahko predpostavljamo, da gre za normalno porazdelitev • S to analizo iščemo odgovore na vprašanja kakšno je povprečje populacije, če poznamo povprečje vzorca, naključno izbranega iz te populacije, ali je razlika med vzorcem in znano populacijo značilna, ali se dva naključno izbrana vzorca med seboj značilno razlikujeta. OCENA POVPREČJA POPULACIJE Kadar aritmetične sredine populacije ne poznamo, jo lahko ocenimo iz vzorca, ki smo vzeli iz te populacije. Glede na lastnost vzorčne porazdelitve aritmetičnih sredin, vemo, da je porazdelitev normalna s povprečjem, ki je enako povprečju populacije, in s standardnim odklonom, ki ga imenuje tudi standardni pogrešek ocene povprečja populacije (SE). Iz lastnosti normalne porazdelitve sledi s 95% verjetnostjo, da se povprečje posameznega vzorca, vzetega iz znane populacije, ne odmika od povprečja populacije za več kot 1,96 navzgor ali navzdol ali pa tudi obratno (kar velja za vzorec velja tudi populacijo). Iz tega sledi, da bi iz povprečja danega vzorca lahko ocenili povprečje populacije, tu pa ocena povprečja ni podana z eno vrednostjo ampak z intervalom –intervalom zaupanja, v katerem je z določeno verjetnostjo pravo povprečje: interval zaupanja x -z.SE<µ < x + z.SE Takšno oceno lahko imenujemo tudi intervalno oceno povprečja-pogosto uporabljamo točkovo oceno. Povprečje vzorca vzamemo kot točkovno oceno za povprečje populacije, z odklonom zaupanja (z. SE ) pa povemo, za koliko se z določenim tveganjem ocena povprečja največ odmika od pravega povprečja populacije. Ocenjevanje povprečja in računanje intervala zaupanja ali odklona zaupanja nima smisla, če poznamo populacijo in njegovo povprečje in ga ni potrebno ocenjevati iz vzorca.→ smisel samo kadar je populacija neznana. V takem primeru pri računanju standardnega pogreška namesto standardnega odklona populacije uporabimo standardni odklon vzorca. Dobljena vrednost ni standardni pogrešek σ x ampak le ocena s x , ki ravno tako označujemo z SE (standardni pogrešek). Ocena standardnega odklona je tem bolj zanesljiva, čim večji je vzorec →odvisnost od velikosti. OCENA POVP. Z VELIKIM VZORCEM • več kot 30 enot tu se uporablja test Z, to pomeni, da standardni odklon vzorca lahko vzamemo za oceno standardnega odklona populacije. • uporabimo standardizirano normalno porazdelitev – z, SE =

s standardni pogrešek za vzorec n

• interval zaupanja x -z.SE<µ < x + z.SE OCENA POVP Z MAJHNIM VZORCEM • kadar je vzorec majhen (n<30), postane njegov standardni odklon nezanesljiva ocena standardnega odklona populacije. Zanesljivost je tem večja, čim manjši je vzorec, zato za določanje mej uporabljamo test – t • x -t.SE<µ < x + t.SE interval zaupanja pri n<30 Popravek z N : • v intervalu uporabljamo tudi popravek

N −n , ne uporabimo ga kadar je N velik in, če elemente N −1
N −n N −1
interval zaupanja s popravkom

vračamo, če N niznan, kadar pa je N majhen in ga ne vračamo pa ga upoštevamo :
x -z.SE.

N −n <µ < x + z.SE. N −1

16

25. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEM VZORCA IN POPULACIJE S TESTOM »z« (str.79) Vemo, da sta redko znana povprečje in standardni odklon populacije, zato primerjava z znano populacijo ni prav pogost primer v statističnih analizah. Preizkus temelji na vzorčni porazdelitvi aritmetičnih sredin pri isti populaciji (vzorčna porazdelitev str. 9). Tu Ho trdi, da je povprečje populacije µ , iz katere je vzet vzorec, enako povprečju znane populacije in da je morebitna razlika naključna: Ho : µ = µ o Domnevo preverjamo tako, da ugotovimo kakšna je verjetnost, da bi iz znane populacije po naključju izbrali vzorec, katerega povprečje potem primerjamo. Če je verjetnost manjša kot stopnja tveganja, za katero smo se odločili→ Ho zavrnemo in H1 sprejmemo, ki trdi vzorec ne izhaja iz znane populacije in da se od nje značilno razlikuje. Tu uporabimo enačbo :

Zx =

x−µ σ n

( standardizirani odklon za vzorčno porazdelitev povprečij ) in z test

26. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEM VZORCA IN POPULACIJE S TESTOM »t« (str.80) Kadar želimo analizirati razliko med povprečjem vzorca in populacije, katere standardni odklon nam ni znana, bi morali uporabiti standardni odklon vzorca kot nepristransko cenilko standardnega odklona populacije, ker je pri majhnem vzorcu ta ocena nezanesljiva, za preizkus ne moremo uporabiti normalne porazdelitve temveč porazdelitev »t« z m= n-1 (stopnja prostosti). Ničelna domneva je podobna kot v prejšnjem primeru

t=

x−µ s n

( standardizirani odklon za vzorčno porazdelitev povprečij ) in t test

27. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEMA DVEH NEODVISNIH VZORCEV Primerjanje dveh neodvisnih vzorcev je zelo pogost postopek, ponavadi je eden v od vzorcev kontrolni drugi tretiran z neko z nekim postopkom. Preizkus temelji na vzorčni porazdelitvi dveh povprečij (str. 10). Ničelna domneva trdi, da oba vzorca izvirata iz iste populacije in ni resnične razlike med obema povprečjema oz. da je morebitna razlika samo posledica naključja: Ho : µx1−x 2 = 0 , to domnevo preverjamo z računanjem, kolikšna je verjetnost, da bi dobili tako razliko med povprečjema obeh vzorcev, kakršno smo v resnici dobili, če bi bila oba vzorca vzeta iz iste populacije, če je ta verjetnost manjša od kot stopnja tveganja, zavrnemo Ho in sprejmemo H1, ki trdi, da se povprečij obeh vzorcev značilno razlikujeta. Ker ponavadi ne poznamo standardnega odklona populacije iz kater po ničelni domnevi izhajata vzorca, moramo za njeno oceno vzeti standardni odklon vzorcev, glede na velikost jih delimo: RAZLIKA MED POVPREČJEM DVEH VELIKIH VZORCEV (str. 82): Vzorca morata biti dovolj velika n>30, lahko njuna standardna odklona vzamemo za dovolj zanesljivo oceno standardnega odklona populacije. Domnevo preizkusimo s pomočjo standardizirane normalne porazdelitve razlik povprečij:

Z x1− x 2 =

x1 − x 2
2 s12 s 2 + n1 n2

standardizirani odklon vzorčne porazdelitve razlik dveh povprečij pri dveh

velikih vzorcih RAZLIKA MED POVPREČJEM DVEH VELIKIH VZORCEV (str. 82) (test F): Vzorca morata biti majhna n<30, tu standardna odklona postaneta nezanesljivo oceno standardnega odklona populacije, tem bolj , čim manjša sta, zato tu ne moremo narediti preskus domneve na normalni porazdelitvi temveč s »t« testom. V tem primeru test »t« sloni še na dodatni predpostavki, računati je namreč potrebno skupni standardni odklon za oba vzorca, to pa smemo storiti samo, če se varianci obeh vzorcev med seboj ne razlikujeta . Predpostavko o enakih variancah moramo preveriti s testom F. Test F uporabljamo predvsem pri analizi variance. Značilnosti testa: vrednost F je pravzaprav razmerje med med večjo in manjšo varianco, odvisna je od velikosti obeh vzorcev (n) oz. stopinj prostosti (m) : m1=n1-1 in m2=n2-

17

1. Kritične vrednosti te porazdelitve pri najbolj pogostih stopnjah tveganja in različnih stopnjah prostosti so ponavadi podane v tabelah (knjiga »D« -kritične vrednosti pri F pri 5% tveganju). Pri preizkušanju ničelne domneve o razliki med povprečjema dveh majhnih neodvisnih vzorcev uporabljamo enačbo:

t= s.

x1 − x 2 1 1 , kjer je »s« skupni standardni odklon za oba vzorca in jo računamo po enačbi: + n1 n2

s=

∑( x

1

− x1

n1 + n2 − 2

) + ∑( x
2

2

− x2

)

2

oz.

s=

∑x

2 1

(∑ x )
1

+∑x − n1 n1 + n2 − 2
2 2

2

(∑ x )
2

2

n2

t 〈 tα (n1 + n2 − 2)

jih seštejemo ker sta dva vzorca (stopinje prostosti m= n1 + n2 –2)

28. WILCOXONOV TEST Z VSOTO RANGOV/FREKVENČNIH RANGOV - da izhajata oba vzorca iz iste populacije, torej imamo opravka z dvema neodvisnima vzorcema, domnevo, da vzorca izhajata iz iste populacije preizkušamo s testom vsote rangov po Wilcoxonu. - ta test je neparametričen - hipoteza je ravno obratna kot pri parametričnih; Ho ni razlik, H1 razlike so očitne; tabela H pri p=0,05, če je vsota rangov manjšega vzorca enaka ali manjša kot prvo število iz tabele oziroma enaka ali večja od drugega števila iz tabele, se vzorca razlikujejata pri 5% stopnji tveganja. (n1-število enot v manjšem vzorcu; n2-število enot v večjem vzorcu). - podatke x1, x2 uredimo v ranžirno vrsto in nato rangiramo ne glede na to kateremu vzorcu pripadajo, nato seštejemo range vseh enot manjšega vzorca , tako da dobimo vsoto njihovih rangov T1 (vsota rangov manjšega vzorca) - rangiranje pomeni urediti vrednosti po velikosti v ranžirno vrsto - če je kateri od vzorcev večji od števil, ki so zajeta v tabeli, lahko značilnost razlik v vsoti rangov preizkusimo s pomočjo normalne porazdellitve (binomna k normalni):

z=

2.Ti − ni .( n1 + n2 + 1) − 2 n1 .n2 .( n1 + n2 + 1) 3

, Ti je vsota rangov enega od vzorcev( vseeno kateri), ni pa število enot v

istem vzorcu POVPREČNA RAZLIKA PRI PARNIH, MED SEBOJ ODVOSNIH VZORCIH Doslej imeli kvantitativne spremenljivke in med seboj neodvisne vzorce. Vemo pa, da imamo velikokrat opraviti s parnimi vzorci (odvisnimi) , en podatek v prvem vzorcu ima par v druge vzorcu in jih primerjamo. Parne podatke dobimo v navzkrižnih poskusih z istimi subjekti, ki jih enkrat tretiramo, drugič pa nam rabijo za kontrolo. 29. ANALIZA PARNIH PODATKOV S TESTOM »T« Analiza je preprosta, upoštevamo le razliko med posameznimi pari (d), povprečno razliko v vzorcu - d , povprečno razliko v populaciji µ d. Ho trdi, da je pri populaciji povprečje razlik med obema enako nič. Torej gre test aritmetične sredine enega vzorca :

d t= ; sd n

sd =

∑d

2

(∑ d )
n

2

n−1

m=n-1; n= število parov (tabela B) 30. ANALIZA Z WILCOXONOVIM TESTOM PREDZNAČENIH RANGOV - razlike pri posameznem paru, v bistvu je ta test alternativa za t test pri analizi parnih podatkov

18

-

test je neparametričen, Ho trdi, de je mediana razlik med pri parih v celotni populaciji enaka nič (bizti med parnimi meritvami približno enako število pozitivnih in negativnih razlik) podatke uredimo v ranžirno vrsto in določimo rang, obravnavamo samo tiste, ki imajo razliko nato skupaj seštejemo podatke, ki imajo predznak + (T+)in predznak - (T-), če bi Ho držala bi morale biti približno enaki. Kritične vrednosti, pri katerih lahko z določeno stopnjo tveganja zavrnemo Ho, so v tabeli G (tabela velja za manjšo od vsot obeh rangov). Če je manjša vsota rangov, ki smo jo tako dobili, manjša od kritične vrednosti T, Ho zavrnemo

31. PRIMERJAVA VEČ VZORCEV Tu analiziramo več vzorcev. Na prvi pogled se zdi, da bi lahko vzeli po dva in dva vzorca in s testom t, testom z ali alternativnim neparametričnem testom poskušali značilnost razlik med njima – to je nepravilno. Zato je v takem primeru nujna več vzročna analiza, to najpogosteje primerjamo z analizo variance ali z alternativnim nepararmetričnim Krukal-Walilisovim testom. a. ANALIZA VARIANCE (F porazdelitev) Analiza variance temelji na dejstvu, da varianca vsakega vzorca vzetega iz populacije, predstavlja nepristransko oceno variance populacije. Vzorčno porazdelitev razmerij teh varianc imenujemo tudi porazdelitev F. Analiza variance je parametrična analiza, zato jo lahko uporabljamo samo pri normalnih populacijah, poleg tega se variance med seboj ne smejo preveč razlikovati. Bistvo analize variance je v tem, da se celotno varianco vseh enot iz vseh vzorcev razstavimo na komponente, iz katerih je sestavljen. Ho trdi, da vsi vzorci izhajajo iz populacije z enakim povprečjem in, da varianca med skupinami ni večja od variance znotraj teh skupin. Kritične vrednosti porazdelitve F pri 5% tveganju dobimo v tabeli D, če dobljena vrednost F presega kritično vrednost, zavrnemo ničelno domnevo, sprejmemo sklep, da vzorci izhajajo iz različnih populaci. b. KRUKAL-WALLISOV TEST • za večvzorčno analizo enega samega faktorja, • to je neparametričen test z značilnimi prednostmi in pomanjkljivostmi te skupine testov, • uporabljamo lahko tudi kadar podatki ne izvirajo iz normalne distribuirane populacije in kadar so variance vzorcev niso homogene • postopek podoben kot pri Wilcoxonovem testu vsote rangov, • podatke rangiramo ne glede nato iz katere skupine je posamezna enota, range seštejemo in podatke vnesemo v izraz:

H =
Tv =

Tv2 12 ∑ n − 3.( n + 1) , n je število vseh enot, nv je število enot v posameznem vzorcu in Tv je n.( n + 1) v
n(n +1) 2

vsota rangov v posameznem vzorcu, izračunane vsote rangov preverimo z enačbo:

Če so vzorci dovolj veliki, večji kot po pet enot, postane porazdelitev H tako podobna hi-kvadrat, da lahko za oceno značilnosti uporabljamo kar tabele hi-kvadrat z m=k-1, ke je število skupin. Iz tabele F pri 5% tveganju in pri določenih stopinjah prostosti izberemo kritično vrednost, če je H presega od kritične vrednosti, lahko Ho zavrnemo. 32. TEST HI-KVADRAT Se uporablja pri statistični obdelavi podatkov, kadar želimo vedeti ali se ugotovljene frekvence razlikujejo od frekvenc, ki bi jih pričakovali na temelju analize. Za vsako kategorijo najprej izračunamo razliko med ugotovljeno in pričakovano frekvenco, nato pa razmerje med kvadratom te razlike in pričakovano frekvenco. Oblika porazdelitve je odvisna od stopinj prostosti (določene s številom neodvisnih spremenljivk). Stopnje prostosti so dane s številom polj v kontigenčni tabeli. Uporablja se pri analizi podatkov enega, dveh ali več vzorcev, kadar so podatki dani s številom. Pomembno je tudi, da je vseh enot vsaj 40 ali več in da mora biti pričakovano frekvenco vedno večja od ena in 80 % kategorij imeti pričak.frekvenco pet ali več. Da bi temu ustregli moramo včasih več polj kontigenčne tabele zdužiti. Kadar pa je vsaj ena pričak.frekvenca pod pet, moramo opraviti popravek za zveznost Yotesovim popravkom (zmanjšati za –0,5 ne glede na predznak). ANALIZA ENEGA VZORCA

19

Stopinje prostosti dobimo kot številko kategorij naj kot ena: m=k-1. Ker sta samo dve kategoriji, imamo eno stopinjo prostosti (nujen Yotesov popravek) X2= dobimo da seštejemo vrednosti fu fp (fu – fp) (fu – fp)k (fu – fp)˛k (fu – fp)˛k fp m= k- 1 dano - 40% od vseh udeleženih v nalogi

na koncu obe kategoriji seštejemo = X2

ANALIZA DVEH ALI VEČ VZORCEV Kadar imamo podatke prikazati v tabeli s štirimi polji, ki jo imenujemo 2x2 kontigenčna tabela. Stopinje prostosti dobimo tako, da od števila vrstic odštejemo ena in od števila stolpcev ena in to pomnožimo. Določimo ničelno domnevo (da med kofeinom in budnostjo ni zveze) ali pri tem izračunamo kakšno frekvenco bi pričakovali, če bi ta trditev držala. Pričakovano frekvenco pa dobimo tako, da za vsako polje v tabeli pomnožimo vsoto v ustrezni vrstici z vsoto v ustreznem stolpcu ter zmnožek delimo s skupno vsoto vseh enot. a ba+b c d c+d Če pa je tabela večja kot 2x2 m=v-1*s-1 stopinje prostosti Izračunamo pričakovano frekvenco tako, da vzamemo seštevek vseh skupnih enot delimo z vsoto vrstice krat vsota skupaj delimo z vsoto v stolpcu in pomnožimo z vso vsoto. 33. KOLERACIJA IN REGRESIJA gre za medsebojno zvezo dveh spremenljivk x in y, ugotavljamo povezanost obeh spremenljivk, in kakšne vrste je

METODA KOLERACIJE- poskušamo kvantificirati stopnjo povezanosti obeh spremenljivk LINEARNA REGRESIJA-naloga je določiti enačbo krivulje, ki se najbolj prilega podatkom dveh spremenljivk pri istih enotah, če so podatki prikazani na koleracijskem diagramu. Y = a + bx = y + b (x – x) KOLERACIJA- ne pomeni, da sta spremenljivki med seboj povezani kot vzrok in posledica. Nasprotno, zelo pogosto sta obe spremenljivki odvisni od nekega tretjega dejavnika, katerega pogosto niti ne poznamo. Se razlikuje glede na smeri, zato govorimo o pozitivni in negativni. Pozitivna je kadar vrednost ene spremenljivke narašča z vrednostjo druge; negativna pa je če vrednost ene spremenljivke pada, če vrednost druge narašča. Je lahko pa tudi večja ali manjša. 34. KOEFICIENT KOLERACIJE PO PEARSONU • uporabljamo kadar sta spremenljivki približno normalno porazdeljeni • označujemo ga z r in je enak razmerju med kovarianco Cxy in zmnožkom standardnih deviacij. Kovarianca je povprečni produkt odklonov dveh naključnih spremenljivk. Enačba za koeficient koleracije: Ima vrednost med –1 (max.neg.koleracija) in +1 (max.poz.koleracija) Če pa je 0-pa pomeni, da med spremenljivkami ni povezanosti. Koeficient koleracije je merilo za stopnjo povezanosti in pove samo, da kako velika je koleracija, nikakor pa ne pove, če je povezanost značilna ali ne. Ocenjujemo jo s testom T pri m=n-2 stopinjah prostosti.

20

35. KAJ JE LINEARNI PROGRAM.KAKO IZ PRIMARNEGA DOBIMO DUALNI PROGRAM. KAJ POMENI, ČE NEKA DUALNA SPREM. ENAKA 0. linearni program je vsak program, pri katerem spremenljivke zadoščajo pogojem negotovosti, sistemu linearnih neenačb in za katere ima linearna funkcija, definirana na konveksni množici, ki jo določajo te neeačbe, ekstrem . Rešitev linearnega prog. je ena ekstremna točka konveksne množice, ali dve ekstremni točki (v tem primeru tudi celotna spojnica dveh točk) ali pa rešitve ni (kon.množica je v tem primeru prazna). K vsakemu linernemu prog. lahko priredimo dualni prog.. Pri tem velja, da iz primarnega dobimo dualnega tako, da matriko koeficientov v neenačbah transportiramo, neenačaje obrnemo, maximum zamenjamo z minimumom, koeficient ciljne funkcije postanejo omejitve v neenačbah, omejitve pa koeficienti ciljne funkcije dualnega programa. V dualnem lin.programu imamo toliko spremenljivk kot imamo v primarnem omejitev, saj vsaki omejitvi prim.lin.prog. pripada ena dualna sprem. Linearni program rešujemo, če imamo dve neznanki grafično, če pa imamo tri neznanke z metodo simplex. Glede na vsebino lin.prig. ločimo lin.prog. proizvodnih, mešalnih in transportnih problemov. 36. KAJ JE MATRIČNA IGRA Z VSOTO NIČ. KAKO IŠČEMO OPTIMALNO STRATEGIJO ZA OBA IGRALCA, ČE IMA MATRIKA SEDLO IN KAKO ČE GA NIMA. KAJ JE CENA IGRE. Matrična igra ali stateška igra, pri kateri gre za odločitve, kjer nastopata dva odločevalca. Vsak odločevalec izbere odločitev neodvisno od drugega odločevalca v sistemu, s čimer vpliva na rezultat oz. korist, ki jo doseže drugi odločevalec z izbiro svoje alternative. Kadar se interes enega odloč. križa z interesom drugega imenujemo to konfliktna situacija. Konfliktno situacijo primerjamo s potekom strateških iger npr. šaha. Odločevalec A ima na razpolago toliko alternativ kot ima matrika plačil vrstic in odločevalec B ima toliko alternativ na razpolago kolikor ima matrika plačil stolpcev. Strateška igra s sedlom: kadar je maximinj=aik=minmaxij=aik; SEDLO pove katero čisto strategijo naj odločevalca A oz. B izbereta in vrednost, ki jo A najmanj dobi in B največ plača. (to je čista strategija). Omega je cena igre. Čista stateg. je takrat, kadar je srateg.odločevalca enaka 1, vse ostale pa so nič. Npr:(0,1,0) sicer pa je mešana stategija. V matričnih igrah s sedlom je optimalna strategija za oba odločevalca vedno čista strategija. Strateška igra brez sedla: v tem primeru govorimo o mešani strategiji igralcev. Matrična igra nima sedla npr. če je maxmin=0=minmax=3. Matriko potem reduciramo, tako da poiščemo za oba odločevalca prevladujoče alternative in nato s pomočjo minmax pravila poiščemo optimalno strategijo za odločevalca A in B. Eksistirane alternative uporabimo, ostale pa z reduciramo. Nato ugotovimo ali obstoji sedlo, vendar pravilo velja, da tudi v reducirani matriki ni sedla, poiščemo mešano strategijo in ceno igre. V matrični igri brez sedla je vedno optimalna mešana strategija. CENA IGRE- ima naslednji pomen; če odločevalec A izbere alternativo a*i (alternativa v vrstici – maxminai ), si s tem zagotovi, da bo zanesljivo dobil najmanj ω , odločevalec B pa mu s pravilno izbiro lahko vselej prepreči, da ne bo dobil več kot ω . Odločevalec B pa si s podobnim razmišljanjem, to je z izbiro alternative b*j(alternativa v stolpcu – minmaxai), zagotovi, da ne plača več kot ω . Tako odločevalca A in B lahko dosežeta neke vrste ravnovesja. Q ravnovesju govorimo takrat, kadar odločevalca opravita več potez kar pa je povezano s pojmom strategija.

37. MREŽNO PLANIRANJE RAZLOŽI POJMA KRITIČNA POT IN KRITIČNA AKTIVNOST Mrežno planiranje se ukvarja s kontrolo in vodenjem procesov ter njihovim stroškovnim planiranjem. Vse metode mrežnega planiranja temeljijo na algebri., matematični statistiki in teoriji grafov. Mrežni plan je končen ovrednoten graf brez zank in krožnih poti z enim vhodom in enih izhodom. Vozlišče grafa imenujemo v mrežnem planiranju dogodek. povezavo pa dejavnost (aktivnost) Vrednost povezave imenujemo trajanje aktivnost, maksimalno pot od vhoda mrežnega plana do izhoda mrežnega plana imenujemo KRITIČNA POT. To poiščemo tako, da rešimo sistem rekuzijskih enačb, s tem da začnemo v izhodu mrežnega plana in gremo proti njegovemu vhodu. Problem mrežnega plana rešujemo po metodi CMP tako, da najprej naredimo analizo strukture in potem še časovno analizo. Strukturna analiza pomeni izdelavo seznama aktivnosti, izdelavo pregleda povezanosti aktivnosti in izdelavo mrežnega načrta. S časovno analizo pa ugotovimo trajanje aktivnosti in kritično pot.

21

38. KAJ POMENI KRATICA DDDP RAZLOŽI KATERI SO OSNOVNI ELEMENTI DDDP IN OPIŠI RAZLIKO MED DDDP IN MREŽNIM PLANIRANJEM Kratica DDDP pomeni diskretno deterministično dinamično programiranje. Z dinamičnim programiranjem lahko glede na izbran kriterij poiščemo optimalno vodenje procesa, ki se odvija v več fazah. Pri več faznih procesih se moramo v vsaki fazi odločiti, kako naj vodimo nadaljnji del procesa. Vseh odločitev ne določimo hkrati, pač pa zaporedno drugo za drugo (zaradi tega pravimo, da je problem dinamičen) in pri tem iščemo tako zaporedje odločitev, ki nam da glede na izbran kriterij optimalen učinek. Obravnavali bomo le procese, ki imajo končno število faz in vse množice, ki v procesu nastopajo bodo diskretne in končne (zaradi tega pravimo, da je programiranje diskretno). Vsak problem, ki ga lahko rešimo v fazah je dinamičen problem. V vsaki fazi sprejmemo odločitev in odločitev vpliva na vse ostale. Poiskati moramo tako odločitev, da bo posledica optimalna. Sestavljena je iz več faz: • faza: povemo iz koliko faz oz. korakov je sestavljen proces • faza: v vsakem trenutku imamo stanje Xij • faza: v vsakem stanju imamo na razpolago končno množico odločitev dxij • faz: enačba prehoda • faza: donesek oz. dobiček • faza: grafično ponazorimo z grafom • faza: optimiziramo s kontitativnimi metodami Beleman (od leve proti desni) • na koncu še sledi komentar RAZLIKA: DDDP upošteva faze, ima lahko več končnih stanj, vrednost končnega stanja je lahko 0 ali ni enaka nič, iščemo retrogradno min ali max. 0 so stanja, imamo prehod, optimalna politika. Mrežno planiranje-nima faz, nujno imamo en končni dogodek, kjer se proces konča, vrednost končnega stanja je vedno nič, iščemo samo max. 0 so dogodki, imamo aktivnost, kritična pot. 39. METODA SIMPLEXtemelji na zamenjavi vektorjev v bazi. Lin.program vsebuje neenačbe in tudi enačbe. Če so neenačbe moramo najprej iz neenačb narediti enačbe. To naredimo tako, da uvedemo dopolnilne spremenljivke. Če želimo reševati po sistemu simpleks se zahteva reševanje s kanonskim sistemom enačb. To je, da obstoji vsaki enačbi natančno ena spremenljivka, ki ima v tej enačbi koeficient 1, v ostalih enačbah pa je pri tej spremenljivki koeficient 0. Da bomo imeli kanonski sistem enačb vpeljemo še umetne spremenljivke. Tako definiranega lin.prog. je možna rešitev vektor x, ki zadošča pogojem nenegotovosti ter vsem omejitvenim enačbam oz. neenačbam. Optimalna možna rešitev tega lin.prog. pa je tak vektor x, ki zadošča pogojem nenegotovosti, vsem omejitvenim enačbam ter za katerega ima namenska funkcija max. oz. min. Možna rešitev se imenuje NEBAZNA, če ima vektor x več kot m pozitivnih komponent in se sistem imenuje bazna NEDEGENERIRANA rešitev lin.prog. če ima vektor x manj kot m pozitivnih komponent. Bistvo je, da najdemo eno ekstremno točko, nato hodimo od ene ekstremne točke do druge toliko časa dokler je pri max ciljno funk. še možno povečat oz. pri min zmanjšat. Iz ene točke v drugo pridemo da zamenjamo en vektor v fazi. 40. NAŠTEJ VSE PRINCIPE ODLOČANJA ZA PRIMER HEVRISTIČNEGA ODLOČANJA VSAKEGA OPIŠITE. Realni problem odločanja, tako tudi problemi poslovnega odločanja so izredno kompleksni in zapleteni. V njih nastopajo razni kvantitativni in kvalitativni dejavniki ter deterministični in statistični procesi. Pri njihovem obravnavanju si pomagamo tako, da originalnemu problemu priredimo odekvaten model, ki je bolj enostaven in nekako simbolično prikazuje relacije med posameznimi dejavniki sistema. V zvezi z oblikovanjem modelov v grobem ločimo naslednje faze: postavimo problem poslovnega odločanja, oblikovanje modela, iskanje rešitve, preverjanje modela in ocena rešitve, uvajanje modela v prakso in kontrola njegove pravilnosti. Pri hevrističnem odločanju gre za sprejemanje odločitev v razmerah negotovosti. 1) MINIMAX pravilo: nič ne tvegamo, zanimajo nas najmanjši rezultati in kot optimalno odločitev izberemo tisto pri kateri je rezultat izbran izmed najmanjših, največji. ai = aj ? minUik = minUjk

22

k

k

2) MAXMAX pravilo: po katerem veliko tvegamo. Tu nas zanimajo največji rezultati in kot optimalno odločitev izberemo tisto, pri kateri je rezultat, izbran izmed največjih, najmanjši. ai = aj ? maxUik = maxUjk
k k

3) HURWICZOV PRINCIP- kjer k najboljšemu rezultatu vzamemo najslabšega in se nato odločimo na osnovi konveksne linearne kombinacije obeh. (je linerna sestava na osnovi konveksne linearne kombinacije in vsak koeficient je element iz intervala [0,1] Čim večji je α tem večji je optimizem tistega, ki sprejme odločitve. H(a1)= αmaxÌUik + (1-α)minUjk; α= 0,4
k

4) LAPLACEVO pravilo- kjer seštejemo vse rezultate, ki pripadajo odločitvi in kot optimalno odločitev izberemo tisto, pri kateri je vsota rezultatov največja. a1 = aj ? ∑Uik = ∑Ujk
k k

5) BAYESOVO pravilo ENAKIH VERJETNOSTI: ki upošteva enake verjetnosti za nastop kateregakoli možnega stanja. Po Bayesovem pravilu enakih verjetnosti štejemo za najbolj ugodno tisto odločitev, pri kateri je aritmetična sredina rezultatov največja. E(a1) = ∑Uik · pik (1/3=n; ali dano 0,45=s) 6) MINIMAX pravilo priložnostnih izgub: - v osnovni preglednici poiščemo največje število (maximum) in ga prikažemo kot št. 0, nato pa vsa ostala podana števila odštejemo od tega maximuma. - tu nas zanima, kakšne so posledice če ne sprejmemo optimalne odločitve. Če se odločevalec ne odloči za optimalno odločitev, nekaj izgubi, kar je sicer imel priložnost dobiti.. To izgubo imenujemo priložnostna izguba. Za vsako odločitev poiščemo maxsimalno priložnostno izgubo in kot optimalno odločitev izberemo tisto, pri kateri je priložnostna izguba izbrana izmed največjih, najmanjša. 41. SISTEM LINEARNIH ENAČB Uredimo spremenljivke, na voljo imamo več enačb z več neznankami, za rešitev uporabimo metodo z rangi, določimo rang osnovne matrike in rang naše matrike, ki ju rešujemo, če sta med seboj enaka je sistem homogen. Homogen pomeni ena rešitev, če ne se pa takšen problem ne da rešiti zato ga uporabimo pri PARAMERTRIČNEM PROGRAMIRANJU in dobimo nov sistem enačb, ki je homogen. 42. SISTEM LINEARNIH NEENAČB Rešitev je konveksna množica za katero velja, če izberemo dve poljubni točki v tej množici leži njuna daljica znotraj množice. Rešitev je celotna daljica in je konveksna linearna sestava in jo zapišemo kot pA. Rešitve so tri: konveksna množica ima lahko neskončno mnogo točk in sistem linearnih neenačb ima neskončno mnogo rešitev,; konveksna množica ima eno samo rešitev, SLN ima eno rešitev,;konveksna množica je prazna SLE nima rešitve. Vrste: ekstremne, neekstremne.

43. MATRIKA - seštevanje, odštevanje, množenje matrike s skalarjem, množenje matrike z matriko. - inverzna matrika A-1 = 1/detA d -b -c a A*X = B X*A = B X = A-1B X = BA-1 - enotska matrika 1 0 0 1

23

Kranj, 2002 RO

24

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->