Regresjonsanalyse

Frå Wikipedia – det frie oppslagsverket
Gå til: navigering, søk

Regresjonsanalyse er innan statistikk ein kvantitativ analyse av samanhengar mellom ein avhengig variabel og ein eller fleire uavhengige variablar. I motsetnad til korrelasjonsanalyse som berre påviser i kva grad det er korrelasjon mellom variablar, så kan regresjonsanalyse vise i kva for ei grad ein variabel samvarierer med ein annan variabel.

Formelen som blir nytta i forskingsmetodar for utrekning av dette er Y=a+bX i univariasjon, då og deterministisk.

  • Y= effektvariabelen,
  • a= konstanten, altså den verdien i gjennomsnitt Y ville vert dersom X=0
  • b er stigingstalet, eller òg kalla hellingskoeffisienten. b seier kor mykje i gjennomsnitt verdien til Y aukar eller minkar med endringa til ei eining i x. Til dømes alderen aukar med 1 år.

Regresjonsanalysen når han er ikkje-deterministisk: Y=a+bx+e, der e er eit restledd som tek med alle variasjonar som resten av modellen ikkje forklarar.

I matematikk syner omgrepet regresjon eller meir nøyaktig regresjonsanalyse, metodar for kurvetilpassing av innsamla data. Kurvetilpassinga kan skje i ein eller fleire dimensjonar, og dataa inneheld i dei fleste tilfella målefeil. Kurvetilpassinga kan uttrykkjast matematisk som: y=f(x)+e \quad i ein dimensjon,

y=f(x_1,x_2,...,x_n)+e \quad i n dimensjoner,

der y er den målte verdien i eit gjeve punkt spesifisert ved ein eller fleire uavhengige variable x. f er funksjonen ein ønsker å finne og e er feilen eller residualet til målefeilen.

Ein skil mellom lineær regresjon og ikkje-lineær regresjon.

Kjelder[endre | endre wikiteksten]