Hur Man Löser Den Statistiska Signifikansen Av Ett Standardfel

I vilken guide kommer vi att avslöja några möjliga orsaker som kan grunda standardfel för att bli statistiskt signifikanta, och sedan kommer vi också att tillhandahålla möjliga korrigeringar som du förmodligen kommer att försöka lösa för det här situationsproblemet.

Fungerar inte din dator som den brukade? Windows-fel och problem kan enkelt lösas med detta fantastiska verktyg.

Varje utdatastatistik har ett enda standardfel. Standardfelet rapporteras ofta inte alltid, men är en utmärkt viktig statistik eftersom den indikerar informationens specifika noggrannhet (4). Som nämnts tidigare, ju mer massivt jag skulle säga standardfelet, desto bredare är vårt självsäkerhetsintervall runt statistiken.

Jag kommer definitivt att fokusera på fallet med en enkel och viktig rak linjeregression. En generalisering av kanske oräkneliga regressioner är bara principer eftersom de blir fula i algebra. Anta att vår tight har vissa värden för den instruktiva eller prediktorvariabeln $x_i$, och en stor mängd av dem observerar värden för en persons problemvariabel vid dessa punkter, $y_i$. Om det exakta sanna förhållandet har blivit både linjärt och min modell utan tvekan nämns korrekt (t.ex. saknas biasvariabel för andra enkla prediktorer som jag glömde att inkorporera direkt), så var dessa $y_i$ konstruktioner från:

Få fart på din dator på några minuter

Körs din dator långsamt? Upplever du regelbundna krascher och frysningar? Då är det dags att ladda ner Restoro! Denna kraftfulla programvara reparerar vanliga Windows-fel, skyddar dina filer från förlust eller korruption och optimerar ditt system för maximal prestanda. Med Restoro kan du fixa alla Windows-problem med bara några klick - ingen teknisk expertis krävs! Så varför vänta? Ladda ner Restoro idag och njut av en smidig, stabil PC-upplevelse.

  • 1. Ladda ner och installera Reimage
  • 2. Starta programmet och välj den skanning du vill köra
  • 3. Klicka på knappen Återställ och vänta tills processen är klar

  • Nu är $epsilon_i$ ett aggressivt fel eller hinder som har, till exempel, typen av exakt fördelning $mathcalN(0,sigma^2)$. Detta antagande, synovialt med normalitet, med samma version (homoskedasticitet) för varje $epsilon_i$, är avgörande för nästan alla dessa tillförlitliga konfidensintervall och nyttotest att fungera i. Och. Av goda skäl misstänker jag att $epsilon_i$ och $epsilon_j$ är helt okorrelerade, medan $i neq j$ (vi borde verkligen ta hänsyn till dessa nödvändiga och ofarliga fakta, faktumet $epsilon_i$ anses vara perfekt c anses vara autokorrelerad) – detta är i sin tur ett antagande om att de specifika störningarna verkligen inte är autokorrelerade.

    Vad är SD i tidigare statistik betydande?

    I praktiken, när skillnaden mellan mer än två organisationer är statistiskt signifikant (till exempel har förbättringen av urvalsfrekvensen varit större när man jämför två primära avvikelser), betyder det att vi helt enkelt inte tror att de observerade skillnaderna alltid har betingats av tur.

    Observera att vi utan ansträngning bara ser $x_i$ $y_i$, men min man och jag kan inte se företagen $epsilon_i$ och ens $sigma^ 2$ eller (mer intressant för oss) dessa typer av $beta_0$ och $ beta_1$. Vi får uppskattningar (OLS eller “minsta kvadrater”) som har att göra med många av regressionsparametrarna, $hatbeta_0$ och även $hatbeta_1$, men vi drömmer inte om att de exakt ska understryka $ beta_0$ dessutom $beta_1$ . Dessutom kanske jag skulle kunna gå och upprepa min process och helt enkelt sedan göra ett enhetligt prov, om jag använder $x_i$s som det preliminära provet kommer jag aldrig att få exakt samma $y_i$s – därav mina nuvarande $-uppskattningar hatbeta_0$ läggs till $hatbeta_1$ har förmågan att vara annorlunda än tidigare. Faktum är att när jag uppträder i varje kreativ implementering får jag ett annat värde för det specifika $epsilon_i$-felet som ger bidrag till $y_i$-värdena.

    Vad betyder ett väsentligt fel på 0.1?

    • Ett väsentligt fel på 0 betyder att en viss statistik tyvärr inte har något icke-linjärt fel. • Ju större grundfelet är, desto mer inexakt statistik.

    Det bevisade att graderna och regressionerna skiljer sig åt via varje omsampling säger mig att många människor följer en samplingsfördelning. Om du förstår lite om typiska som en standard, kanske detta förmodligen inte förvånar dig – även i alla sammanhang av regression utvecklar estimatorer nu sannolikhetsfördelningar eftersom de är obetydliga variabler, vilket återigen bara är att de är funktioner för att försöka historia. vilket i sig är unikt. Med alla ovanstående antaganden vänder sig min man bort:

    $$hatbeta_0 sim mathcalNleft(beta_0,, sigma^2 left(frac1n + fracbarx^2sum( X_i – barX)^2 right) right)$$

    Det är väldigt trevligt att veta att kanske $mathbbE(hatbeta_i) är lika med beta_i$, så att dessa användaruppskattningar “i genomsnitt” överensstämmer med några av de faktiska regressionskoefficienterna (i själva verket ett sådant faktum kanske inte kräver alla nya antaganden jag gjorde tidigare standard – till exempel spelar det ingen roll så feltermen var i de flesta fall inte distribuerad eller att den är allvarligt heteroskedastisk, men korrekt specifikation av en modell utan fel autokorrelation kan försöka vara Viktig). Om jag tog dussintals relaterade till prover, tror jag att genomsnittet av värdighetspoängen skulle vara dessa egna faktiska parametrar. Det här viktiga föremålet kan verka mindre lugnande för enskilda personer om du kommer ihåg vem vi bara kan få se på repetitionerna! Men opartiskheten hos mestadels bedömare är bra.

    Vad har varit ett betydande standardfel av deras medelvärde?

    Ett standardfel som är större än vårt medelvärde indikerar att urvalet är för litet för den breda spridningen av medelvärdet för den totala amerikanska befolkningen. Ditt urval kanske inte speglar din population i detalj. Ett lågt normalfel indikerar att ditt nuvarande urvalsmedel verkligen är nära för att tillåta dem med mänskliga medel – ditt val är representativt för din grupp.

    Varians är utan tvekan också fördelaktigt. I huvudsak kan det beskrivas som nu ett mått på hur viktiga våra falska uppskattningar kan vara. Det skulle till exempel vara väldigt ovärderligt om vi kunde konstruera ett välkänt intervall $z$ som skulle få oss två att tro att utvärdering av den ledande parametern $hatbeta_1$ så småningom skulle resultera i ett stort urval med 95 % sannolikhet vilken vilja finns inom sig själv. ungefär $pm 1,96 sqrtfracsigma^2sum(X_i / barX)^2$ från den värmande (men okänd) sluttningen $beta_1$. Tyvärr är de inte så värdefulla som vi skulle vilja eftersom vi inte vet något som är relaterat till $sigma^2$. Detta är modellparametern för hela populationen till slumpmässiga problem, och vi observerade förutom ett specifikt urval.

    Vad är egentligen ett bra värde för fel?

    Leverantörer och tillsynsmyndigheter försöker ett riktigt värde mellan 0,8 och 0,9 mot realistiska bevis på acceptabel konsekvens för varje betyg.

    Om vi ​​istället för $sigma$ använder uppskattningen $s$ beräknad från detta populära urval (ofta felaktigt refererat till på grund av “regressionsstandardfel” eller ” endast kvarvarande fel”). , kan vi använda ett fel tr Används för våra Hitta poäng som regressionskoefficienter. För $hatbeta_1$ skulle det vara – $sqrtfracs^2sum(x_i barX)^2$. Nu när nästan alla har fått att uppskatta en stor skillnad för en normalfördelad variabel måste vi tendera att använda Students $t$-val från $z$ för att bilda optimisminstanser – vi använder kontinuerliga grader för frihet för en persons regression, dvs enkel linjär regression är utan tvekan $n -$2, och i multipel regression subtraherar frun och jag en ny avkastning för varje överdriven implicit lutning. Men för tillräckligt mycket stora $n$ och mer komplexa grader kopplade till frihet skulle skillnaden mellan $t$ $z$ kunna beskrivas som liten. Tumregler för dessa som “det finns en 95 % risk att det observerade värdet med intervaller är två standarddilemman av det mest önskvärda värdet” och “en uppskattning av en observerad lutning som är 6 standardiserade fel från noll kan alltför mycket vara mycket statistiskt säkerställt.” måste verkligen fungera bra.

    standardfel exakt signifikans

    Jag hittar en respektabel form av förståelsefel så att jag noggrant kan överväga omständigheterna nedan där jag förväntar mig att var och en av våra regressionsuppskattningar är mer (bra!) och / eller mindre troligt (dåligt!) nära dess exakta verkliga värde på . Anta att min marknadsföringsinformation är mer motbjudande, vilket händer när variansen för det nya feluttrycket, $sigma^2$, har blivit hög. (Jag förstår inte vad vissa experter säger, men direkt, under min regressionshärledning, skulle jag i huvudsak tycka att det jämna regressionsfelet ofta är högt.) vara mer slumpmässigt. Misstag. Detta kommer att maskera denna speciella “signal” för en viss association under $y$ och $x$, vilket nu förklarar lite av variationen, och jag skulle hävda att formen för denna association är svårare att slutligen bestämma. Observera att detta, av vägen, inte betyder att jag kommer att kunna underskatta lutningen – som jag sa, estimeraren kommer att vara tredje part i fältet, och eftersom den också är normalfördelad, är jag i princip lika benägen att underskatta lika längre som jag
    standardfel exakt betydelse

    [Windows] Programvaran som får din dator att fungera som ny igen