Chebyshovs sætning hvad det består af, applikationer og eksempler



den Chebyshovs sætning (eller Chebyshovs ulighed) er et af de vigtigste klassiske resultater af sandsynlighedsteorien. Det giver mulighed for at estimere sandsynligheden for en hændelse, der er beskrevet i form af en tilfældig variabel X, ved at give os en dimension, der ikke afhænger af fordelingen af ​​den tilfældige variabel, men på variansen af ​​X.

Sætningen er opkaldt efter den russiske matematiker Chebyshev Pafnuty (også skrevet som Chebychev eller Tchebycheff), som, på trods af ikke at være den første til at formulere denne sætning, var den første til at give en demonstration i 1867.

Denne ulighed, eller dem, der ved deres egenskaber kaldes Chebyshov-ulighed, anvendes hovedsagelig til at approximere sandsynligheder ved hjælp af beregning af dimensioner.

indeks

  • 1 Hvad består den af??
  • 2 Anvendelser og eksempler
    • 2.1 Bindende sandsynligheder
    • 2.2 Demonstration af grænsestrukturerne
    • 2.3 Prøvestørrelse
  • 3 Ujævnheder skriver Chebyshov
  • 4 referencer

Hvad består det af??

I undersøgelsen af ​​sandsynlighedsteorien sker det, at hvis vi kender distributionsfunktionen af ​​en tilfældig variabel X, kan vi beregne dens forventede værdi - eller matematisk forventning E (X) - og dens varians Var (X), så længe som nævnte beløb eksisterer. Den gensidige er imidlertid ikke nødvendigvis sandt.

Det vil sige, vel vidende E (X) og Var (X) kan ikke nødvendigvis få fordelingsfunktionen for X, så mængder P (| X |> k) for nogle k> 0, er meget vanskeligt at opnå. Men takket være Chebyshovs ulighed er det muligt at estimere sandsynligheden for den tilfældige variabel.

Chebyshovs sætning fortæller os, at hvis vi har en tilfældig variabel X over et prøverum S med en sandsynlighedsfunktion p, og hvis k> 0, så:

Ansøgninger og eksempler

Blandt de mange applikationer, som Chebyshovs sætning besidder, kan følgende nævnes:

Forbindelse af sandsynligheder

Dette er den mest almindelige anvendelse og bruges til at give en øvre grænse for P (| X-E (X) | ≥k) hvor k> 0, kun variansen og forventning af den tilfældige variabel X, uden at kende sandsynlighedsfunktionen.

Eksempel 1

Antag at antallet af produkter fremstillet i et firma i løbet af en uge er en tilfældig variabel med i gennemsnit 50.

Hvis vi ved, at variansen i en produktionsuge er lig med 25, hvad kan vi så sige om sandsynligheden for, at produktionen i denne uge vil variere med mere end 10 fra gennemsnittet?

opløsning

Anvendelse af Chebyshovs ulighed skal vi:

Herfra kan vi indse, at sandsynligheden for, at antallet af genstande i produktionsugen er større end 10 til gennemsnittet højst er 1/4.

Demonstration af grænse sætninger

Ujævnigheden af ​​Chebyshov spiller en vigtig rolle i demonstrationen af ​​de vigtigste grænsesætninger. Som et eksempel har vi følgende:

Svag lov af store tal

Denne lov fastslår, at der gives en sekvens X1, X2, ..., Xn, ... af uafhængige tilfældige variabler med samme gennemsnitlige fordeling E (Xi) = μ og varians Var (X) = σ2, og en kendt gennemsnitsprøve af:

Så for k> 0 skal du:

Eller ækvivalent:

show

Først skal vi lægge mærke til følgende:

Da X1, X2, ..., Xn er uafhængige følger det følgende:

Derfor er det muligt at bekræfte følgende:

Derefter skal vi ved hjælp af Chebyshovs sætning:

Endelig er sætningen resultatet af, at grænsen til højre er nul, når n har tendens til uendelig.

Det skal bemærkes, at denne test kun blev gjort for det tilfælde, hvor varianten af ​​Xi eksisterer; det vil sige, det afviger ikke. Således bemærker vi, at sætningen altid er sand, hvis E (Xi) eksisterer.

Chebyshovs grænse sætning

Hvis X1, X2, ..., Xn, ... er en række uafhængige tilfældige variabler, således at der er nogle C< infinito, tal que Var(Xn) ≤ C para todo n natural, entonces para cualquier k>0:

show

Da rækkefølgen af ​​afvigelser er ensartet afgrænset, har vi Var (Sn) ≤ C / n, for alle naturlige n. Men vi ved det:

Ved at gøre n tendens til uendelig, følgende resultater:

Da en sandsynlighed ikke kan overstige værdien 1, opnås det ønskede resultat. Som følge af denne sætning kunne vi nævne Bernoullis særlige tilfælde.

Hvis et eksperiment gentages n gange uafhængigt med to mulige resultater (succes og fiasko), hvor p er sandsynligheden for succes ved hvert forsøg, og X er den stokastiske variabel, der repræsenterer antallet af succeser, så for hver k> 0 du skal:

Prøveformat

I form af varians, ulighed Chebyshev tillader os at finde en prøvestørrelse n, som er tilstrækkelig til at sikre, at sandsynligheden for, at | Sn-μ |> = k forekommer, er så lille som ønsket, hvilket tillader en tilnærmelse til gennemsnittet.

Lad X1, X2, ... Xn være en prøve af uafhængige tilfældige variabler af størrelse n og lad os antage at E (Xi) = μ og dens varians σ2. På grund af Chebyshovs ulighed er vi nødt til at:

eksempel

Antag at X1, X2, ... Xn er en prøve af uafhængige tilfældige variabler med Bernoulli-distributionen, så de tager værdien 1 med sandsynlighed p = 0,5.

Hvad skal prøveens størrelse være for at kunne garantere, at sandsynligheden for, at forskellen mellem det aritmetiske gennemsnitlige Sn og dets forventede værdi (overstiger mere end 0,1) er mindre end eller lig med 0. 01?

opløsning

Vi har det E (X) = μ = p = 0.5 og at Var (X) = σ2= p (1-p) = 0,25. For ulykken af ​​Chebyshov, for enhver k> 0 skal vi:

Nu tager vi k = 0,1 og δ = 0,01, vi skal:

På den måde konkluderes det, at en prøvestørrelse på mindst 2500 er nødvendig for at sikre, at sandsynligheden for hændelsen | Sn - 0.5 |> = 0,1 er mindre end 0,01.

Ujævnheder skriver Chebyshov

Der er forskellige uligheder forbundet med ulighed af Chebyshov. En af de mest kendte er Markov ulighed:

I dette udtryk er X en ikke-negativ tilfældig variabel med k, r> 0.

Markov ulighed kan tage forskellige former. For eksempel, lad Y være en nonnegativ tilfældig variabel (så P (Y> = 0) = 1) og antage at E (Y) = μ eksisterer. Antag også at (E (Y))r= μr eksisterer for et helt tal r> 1. derefter:

En anden ulighed er Gauss, som fortæller os, at der gives en unimodal tilfældig variabel X med mode ved nul, så for k> 0,

referencer

  1. Kai Lai Chung Elementær Problemer Theory med Stokastiske Processer. Springer-Verlag New York Inc
  2. Kenneth.H. Rosen. Diskret matematik og dens applikationer. S.A.MCGRAW-HILL / INTERAMERICANA DE ESPAÑA.
  3. Paul L. Meyer. Sandsynlighed og statistiske applikationer. Inc. MEXICAN ALHAMBRA.
  4. Seymour Lipschutz Ph.D. 2000 Diskret matematik Løst Problemer. McGraw-Hill.
  5. Seymour Lipschutz Ph.D. Teori og Problemer med Problemer. McGraw-Hill.