logo

Lineær regresjon i maskinlæring

Maskinlæring er en gren av kunstig intelligens som fokuserer på utvikling av algoritmer og statistiske modeller som kan lære av og forutsi data. Lineær regresjon er også en type maskinlæringsalgoritme mer spesifikt en overvåket maskinlæringsalgoritme som lærer av de merkede datasettene og kartlegger datapunktene til de mest optimaliserte lineære funksjonene. som kan brukes til prediksjon på nye datasett.

Først av alt bør vi vite hva overvåket maskinlæringsalgoritmer er. Det er en type maskinlæring hvor algoritmen lærer fra merkede data. Merkede data betyr datasettet hvis respektive målverdi allerede er kjent. Veiledet læring har to typer:

  • Klassifisering : Den forutsier klassen til datasettet basert på den uavhengige inngangsvariabelen. Klasse er de kategoriske eller diskrete verdiene. som om bildet av et dyr er en katt eller hund?
  • Regresjon : Den forutsier de kontinuerlige utdatavariablene basert på den uavhengige inngangsvariabelen. som prediksjon av boligpriser basert på forskjellige parametere som boligalder, avstand fra hovedveien, beliggenhet, område, etc.

Her vil vi diskutere en av de enkleste regresjonstypene, dvs. Lineær regresjon.



Innholdsfortegnelse

Hva er lineær regresjon?

Lineær regresjon er en type overvåket maskinlæring algoritme som beregner det lineære forholdet mellom den avhengige variabelen og en eller flere uavhengige funksjoner ved å tilpasse en lineær ligning til observerte data.

Når det bare er en uavhengig funksjon, er den kjent som Enkel lineær regresjon , og når det er mer enn én funksjon, er det kjent som Multippel lineær regresjon .

På samme måte, når det bare er én avhengig variabel, vurderes den Univariat lineær regresjon , mens når det er mer enn én avhengig variabel, er det kjent som Multivariat regresjon .

Hvorfor er lineær regresjon viktig?

Tolkbarheten av lineær regresjon er en bemerkelsesverdig styrke. Modellens ligning gir klare koeffisienter som belyser virkningen av hver uavhengig variabel på den avhengige variabelen, og letter en dypere forståelse av den underliggende dynamikken. Dens enkelhet er en dyd, siden lineær regresjon er gjennomsiktig, enkel å implementere og fungerer som et grunnleggende konsept for mer komplekse algoritmer.

Lineær regresjon er ikke bare et prediktivt verktøy; den danner grunnlaget for ulike avanserte modeller. Teknikker som regularisering og støttevektormaskiner henter inspirasjon fra lineær regresjon, og utvider nytten. I tillegg er lineær regresjon en hjørnestein i antagelsestesting, som gjør det mulig for forskere å validere viktige antakelser om dataene.

Typer lineær regresjon

Det er to hovedtyper av lineær regresjon:

Enkel lineær regresjon

Dette er den enkleste formen for lineær regresjon, og den involverer bare én uavhengig variabel og én avhengig variabel. Ligningen for enkel lineær regresjon er:
y=eta_{0}+eta_{1}X
hvor:

  • Y er den avhengige variabelen
  • X er den uavhengige variabelen
  • β0 er skjæringspunktet
  • β1 er skråningen

Multippel lineær regresjon

Dette involverer mer enn én uavhengig variabel og én avhengig variabel. Ligningen for multippel lineær regresjon er:
y=eta_{0}+eta_{1}X+eta_{2}X+………eta_{n}X
hvor:

  • Y er den avhengige variabelen
  • X1, X2, …, Xp er de uavhengige variablene
  • β0 er skjæringspunktet
  • β1, β2, …, βn er bakkene

Målet med algoritmen er å finne beste Fit Line ligning som kan forutsi verdiene basert på de uavhengige variablene.

I regresjon er sett med poster tilstede med X- og Y-verdier, og disse verdiene brukes til å lære en funksjon, så hvis du vil forutsi Y fra en ukjent X, kan denne innlærte funksjonen brukes. I regresjon må vi finne verdien av Y, så det kreves en funksjon som forutsier kontinuerlig Y i tilfelle regresjon gitt X som uavhengige egenskaper.

Hva er den beste Fit Line?

Vårt primære mål ved bruk av lineær regresjon er å finne den best passende linjen, noe som innebærer at feilen mellom de predikerte og faktiske verdiene bør holdes på et minimum. Det vil være minst feil i best-fit-linjen.

Den beste tilpasningslinjeligningen gir en rett linje som representerer forholdet mellom de avhengige og uavhengige variablene. Helningen på linjen angir hvor mye den avhengige variabelen endres for en enhetsendring i den eller de uavhengige variablene.

Lineær regresjon i maskinlæring

Lineær regresjon


Her kalles Y en avhengig eller målvariabel og X kalles en uavhengig variabel også kjent som prediktoren til Y. Det finnes mange typer funksjoner eller moduler som kan brukes til regresjon. En lineær funksjon er den enkleste typen funksjon. Her kan X være en enkelt funksjon eller flere funksjoner som representerer problemet.

Lineær regresjon utfører oppgaven å forutsi en avhengig variabelverdi (y) basert på en gitt uavhengig variabel (x)). Derfor er navnet lineær regresjon. I figuren over er X (input) arbeidserfaringen og Y (output) er lønnen til en person. Regresjonslinjen er den linjen som passer best for modellen vår.

Vi bruker kostnadsfunksjonen til å beregne de beste verdiene for å få den beste tilpasningslinjen siden ulike verdier for vekter eller koeffisienten av linjer resulterer i ulike regresjonslinjer.

Hypotesefunksjon i lineær regresjon

Som vi har antatt tidligere at vår uavhengige funksjon er erfaringen, dvs. X og den respektive lønnen Y er den avhengige variabelen. La oss anta at det er et lineært forhold mellom X og Y, så kan lønnen forutsies ved å bruke:

freddie mercury født

hat{Y} = heta_1 + heta_2X

ELLER

hat{y}_i = heta_1 + heta_2x_i

Her,

  • y_i epsilon Y ;; (i= 1,2, cdots , n) er etiketter til data (overvåket læring)
  • x_i epsilon X ;; (i= 1,2, cdots , n) er inngangsuavhengige treningsdata (univariat – én inngangsvariabel (parameter))
  • hat{y_i} epsilon hat{Y} ;; (i= 1,2, cdots , n) er de predikerte verdiene.

Modellen får den beste regresjonstilpasningslinjen ved å finne den beste θ1og θ2verdier.

  • Jeg 1 : avskjære
  • Jeg 2 : koeffisient av x

Når vi finner den beste θ1og θ2verdier, får vi den linjen som passer best. Så når vi endelig bruker modellen vår for prediksjon, vil den forutsi verdien av y for inngangsverdien til x.

Hvordan oppdatere θ 1 og θ 2 verdier for å få den best passende linjen?

For å oppnå best-fit regresjonslinjen, har modellen som mål å forutsi målverdienhat{Y} slik at feilforskjellen mellom den predikerte verdienhat{Y} og den sanne verdien Y er minimum. Så det er veldig viktig å oppdatere θ1og θ2verdier, for å nå den beste verdien som minimerer feilen mellom den anslåtte y-verdien (pred) og den sanne y-verdien (y).

minimizefrac{1}{n}sum_{i=1}^{n}(hat{y_i}-y_i)^2

Kostnadsfunksjon for lineær regresjon

De kostnadsfunksjon eller tapsfunksjon er ingenting annet enn feilen eller forskjellen mellom den forutsagte verdienhat{Y} og den sanne verdien Y.

I lineær regresjon er Mean Squared Error (MSE) kostnadsfunksjonen brukes, som beregner gjennomsnittet av kvadratfeilene mellom de predikerte verdienehat{y}_i og de faktiske verdiene{y}_i . Hensikten er å bestemme de optimale verdiene for avskjæringen heta_1 og koeffisienten til inngangsfunksjonen heta_2 gir den best passende linjen for de gitte datapunktene. Den lineære ligningen som uttrykker dette forholdet erhat{y}_i = heta_1 + heta_2x_i .

MSE-funksjonen kan beregnes som:

ext{Cost function}(J) = frac{1}{n}sum_{n}^{i}(hat{y_i}-y_i)^2

Ved å bruke MSE-funksjonen brukes den iterative prosessen med gradientnedstigning for å oppdatere verdiene til heta_1 & heta_2 . Dette sikrer at MSE-verdien konvergerer til de globale minima, noe som indikerer den mest nøyaktige tilpasningen av den lineære regresjonslinjen til datasettet.

Denne prosessen innebærer kontinuerlig justering av parameterne ( heta_1) og ( heta_2) basert på gradientene beregnet fra MSE. Sluttresultatet er en lineær regresjonslinje som minimerer de totale kvadratiske forskjellene mellom de predikerte og faktiske verdiene, og gir en optimal representasjon av det underliggende forholdet i dataene.

Gradientnedstigning for lineær regresjon

En lineær regresjonsmodell kan trenes ved hjelp av optimaliseringsalgoritmen gradient nedstigning ved å iterativt modifisere modellens parametere for å redusere gjennomsnittlig kvadratfeil (MSE) av modellen på et treningsdatasett. For å oppdatere θ1og θ2verdier for å redusere kostnadsfunksjonen (minimere RMSE-verdien) og oppnå den best passende linjen modellen bruker Gradient Descent. Tanken er å starte med tilfeldig θ1og θ2verdier og deretter iterativt oppdatere verdiene, og nå minimumskostnad.

En gradient er ikke annet enn en derivert som definerer effektene på utgangene av funksjonen med litt variasjon i innganger.

La oss skille kostnadsfunksjonen (J) med hensyn til heta_1

egin {aligned} {J}’_{ heta_1} &=frac{partial J( heta_1, heta_2)}{partial heta_1} &= frac{partial}{partial heta_1} left[frac{1}{n} left(sum_{i=1}^{n}(hat{y}_i-y_i)^2 ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(frac{partial}{partial heta_1}(hat{y}_i-y_i) ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(frac{partial}{partial heta_1}( heta_1 + heta_2x_i-y_i) ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(1+0-0 ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}(hat{y}_i-y_i) left(2 ight ) ight] &= frac{2}{n}sum_{i=1}^{n}(hat{y}_i-y_i) end {aligned}

La oss skille kostnadsfunksjonen (J) med hensyn til heta_2

egin {aligned} {J}’_{ heta_2} &=frac{partial J( heta_1, heta_2)}{partial heta_2} &= frac{partial}{partial heta_2} left[frac{1}{n} left(sum_{i=1}^{n}(hat{y}_i-y_i)^2 ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(frac{partial}{partial heta_2}(hat{y}_i-y_i) ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(frac{partial}{partial heta_2}( heta_1 + heta_2x_i-y_i) ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(0+x_i-0 ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}(hat{y}_i-y_i) left(2x_i ight ) ight] &= frac{2}{n}sum_{i=1}^{n}(hat{y}_i-y_i)cdot x_i end {aligned}

Å finne koeffisientene til en lineær ligning som passer best til treningsdataene er målet for lineær regresjon. Ved å bevege seg i retning av Mean Squared Error negative gradient i forhold til koeffisientene, kan koeffisientene endres. Og den respektive skjæringspunktet og koeffisienten til X vil være ifalpha er læringsraten.

Gradient Nedstigning

egin{aligned} heta_1 &= heta_1 – alpha left( {J}’_{ heta_1} ight) &= heta_1 -alpha left( frac{2}{n}sum_{i=1}^{n}(hat{y}_i-y_i) ight) end{aligned} egin{aligned} heta_2 &= heta_2 – alpha left({J}’_{ heta_2} ight) &= heta_2 – alpha left(frac{2}{n}sum_{i=1}^{n}(hat{y}_i-y_i)cdot x_i ight) end{aligned}

Forutsetninger om enkel lineær regresjon

Lineær regresjon er et kraftig verktøy for å forstå og forutsi oppførselen til en variabel, men den må oppfylle noen få betingelser for å være nøyaktige og pålitelige løsninger.

  1. Linearitet : De uavhengige og avhengige variablene har en lineær sammenheng med hverandre. Dette innebærer at endringer i den avhengige variabelen følger endringer i de uavhengige variablene på en lineær måte. Dette betyr at det skal være en rett linje som kan trekkes gjennom datapunktene. Hvis forholdet ikke er lineært, vil ikke lineær regresjon være en nøyaktig modell.
  2. Selvstendighet : Observasjonene i datasettet er uavhengige av hverandre. Dette betyr at verdien av den avhengige variabelen for en observasjon ikke er avhengig av verdien av den avhengige variabelen for en annen observasjon. Hvis observasjonene ikke er uavhengige, vil ikke lineær regresjon være en nøyaktig modell.
  3. Homoskedastisitet : På tvers av alle nivåer av de uavhengige variablene er variansen til feilene konstant. Dette indikerer at mengden av de uavhengige variablene ikke har noen innvirkning på variansen til feilene. Hvis variansen til residualene ikke er konstant, vil lineær regresjon ikke være en nøyaktig modell.

    Homoscedastisitet i lineær regresjon

  4. Normalitet : Restene skal være normalfordelte. Dette betyr at restene skal følge en klokkeformet kurve. Hvis residualene ikke er normalfordelt, vil ikke lineær regresjon være en nøyaktig modell.

Forutsetninger om multippel lineær regresjon

For multippel lineær regresjon gjelder alle fire forutsetningene fra enkel lineær regresjon. I tillegg til dette, nedenfor er noen flere:

  1. Ingen multikollinearitet : Det er ingen høy korrelasjon mellom de uavhengige variablene. Dette indikerer at det er liten eller ingen korrelasjon mellom de uavhengige variablene. Multikollinearitet oppstår når to eller flere uavhengige variabler er sterkt korrelert med hverandre, noe som kan gjøre det vanskelig å bestemme den individuelle effekten av hver variabel på den avhengige variabelen. Hvis det er multikollinearitet, vil ikke multippel lineær regresjon være en nøyaktig modell.
  2. Additivitet: Modellen antar at effekten av endringer i en prediktorvariabel på responsvariabelen er konsistent uavhengig av verdiene til de andre variablene. Denne antakelsen innebærer at det ikke er noen interaksjon mellom variabler i deres effekter på den avhengige variabelen.
  3. Funksjonsvalg: Ved multippel lineær regresjon er det viktig å nøye velge de uavhengige variablene som skal inkluderes i modellen. Å inkludere irrelevante eller overflødige variabler kan føre til overfitting og komplisere tolkningen av modellen.
  4. Overmontering: Overtilpasning oppstår når modellen passer treningsdataene for tett, og fanger opp støy eller tilfeldige svingninger som ikke representerer det sanne underliggende forholdet mellom variablene. Dette kan føre til dårlig generaliseringsytelse på nye, usynlige data.

Multikollinearitet

Multikollinearitet er et statistisk fenomen som oppstår når to eller flere uavhengige variabler i en multippel regresjonsmodell er sterkt korrelert, noe som gjør det vanskelig å vurdere de individuelle effektene av hver variabel på den avhengige variabelen.

Å oppdage multikollinearitet inkluderer to teknikker:

  • Korrelasjonsmatrise: Å undersøke korrelasjonsmatrisen blant de uavhengige variablene er en vanlig måte å oppdage multikollinearitet på. Høye korrelasjoner (nær 1 eller -1) indikerer potensiell multikollinearitet.
  • VIF (Varians Inflation Factor): VIF er et mål som kvantifiserer hvor mye variansen til en estimert regresjonskoeffisient øker hvis prediktorene dine er korrelert. En høy VIF (vanligvis over 10) antyder multikollinearitet.

Evalueringsmålinger for lineær regresjon

En rekke evalueringstiltak kan brukes til å bestemme styrken til en hvilken som helst lineær regresjonsmodell. Disse vurderingsmålene gir ofte en indikasjon på hvor godt modellen produserer de observerte resultatene.

De vanligste målingene er:

Mean Square Error (MSE)

Mean Squared Error (MSE) er en evalueringsmetrikk som beregner gjennomsnittet av kvadrerte forskjeller mellom de faktiske og anslåtte verdiene for alle datapunktene. Forskjellen er kvadratisk for å sikre at negative og positive forskjeller ikke opphever hverandre.

MSE = frac{1}{n}sum_{i=1}^{n}left ( y_i – widehat{y_{i}} ight )^2

Her,

  • n er antall datapunkter.
  • ogJeger den faktiske eller observerte verdien for ithdatapunkt.
  • widehat{y_{i}} er den anslåtte verdien for ithdatapunkt.

MSE er en måte å kvantifisere nøyaktigheten til en modells spådommer. MSE er sensitiv for uteliggere da store feil bidrar betydelig til den totale poengsummen.

Gjennomsnittlig absolutt feil (MAE)

Gjennomsnittlig absolutt feil er en evalueringsmetrik som brukes til å beregne nøyaktigheten til en regresjonsmodell. MAE måler den gjennomsnittlige absolutte forskjellen mellom de predikerte verdiene og faktiske verdier.

Matematisk uttrykkes MAE som:

MAE =frac{1}{n} sum_{i=1}^{n}|Y_i – widehat{Y_i}|

Her,

  • n er antall observasjoner
  • OGJegrepresenterer de faktiske verdiene.
  • widehat{Y_i} representerer de predikerte verdiene

Lavere MAE-verdi indikerer bedre modellytelse. Det er ikke følsomt for uteliggere da vi vurderer absolutte forskjeller.

Root Mean Squared Error (RMSE)

Kvadratroten av residualenes varians er Root Mean Squared Feil . Den beskriver hvor godt de observerte datapunktene samsvarer med de forventede verdiene, eller modellens absolutte tilpasning til dataene.


I matematisk notasjon kan det uttrykkes som:
RMSE=sqrt{frac{RSS}{n}}=sqrtfrac{{{sum_{i=2}^{n}(y^{actual}_{i}}- y_{i}^{predicted})^2}}{n}
I stedet for å dele hele antallet datapunkter i modellen med antall frihetsgrader, må man dele summen av de kvadrerte residualene for å få et objektivt estimat. Deretter blir denne figuren referert til som Residual Standard Error (RSE).

I matematisk notasjon kan det uttrykkes som:
RMSE=sqrt{frac{RSS}{n}}=sqrtfrac{{{sum_{i=2}^{n}(y^{actual}_{i}}- y_{i}^{predicted})^2}}{(n-2)}

RSME er ikke en like god metrikk som R-kvadrat. Root Mean Squared Error kan svinge når enhetene til variablene varierer siden verdien er avhengig av variablenes enheter (det er ikke et normalisert mål).

Bestemmelseskoeffisient (R-kvadrat)

R-kvadrat er en statistikk som indikerer hvor mye variasjon den utviklede modellen kan forklare eller fange opp. Det er alltid i området fra 0 til 1. Generelt, jo bedre modellen samsvarer med dataene, desto større er R-kvadratnummeret.
I matematisk notasjon kan det uttrykkes som:
R^{2}=1-(^{frac{RSS}{TSS}})

  • Restsum av kvadrater (RSS): The summen av kvadrater av residuet for hvert datapunkt i plottet eller dataene er kjent som restsummen av kvadrater, eller RSS. Det er en måling av forskjellen mellom resultatet som ble observert og det som ble forventet.
    RSS=sum_{i=2}^{n}(y_{i}-b_{0}-b_{1}x_{i})^{2}
  • Total sum av kvadrater (TSS): Summen av datapunktenes feil fra svarvariabelens gjennomsnitt er kjent som totalsummen av kvadrater, eller TSS.
    TSS= sum_{}^{}(y-overline{y_{i}})^2

R kvadratmetrikk er et mål på andelen varians i den avhengige variabelen som er forklart de uavhengige variablene i modellen.

Justert R-Squared Error

Justert R2måler andelen varians i den avhengige variabelen som forklares med uavhengige variabler i en regresjonsmodell. Justert R-kvadrat redegjør for antall prediktorer i modellen og straffer modellen for å inkludere irrelevante prediktorer som ikke bidrar vesentlig til å forklare variansen i de avhengige variablene.

Matematisk, justert R2er uttrykt som:

Adjusted , R^2 = 1 – (frac{(1-R^2).(n-1)}{n-k-1})

Her,

  • n er antall observasjoner
  • k er antall prediktorer i modellen
  • R2er koeeficient for besluttsomhet

Justert R-firkant bidrar til å forhindre overtilpasning. Det straffer modellen med ytterligere prediktorer som ikke bidrar vesentlig til å forklare variansen i den avhengige variabelen.

Python-implementering av lineær regresjon

Importer de nødvendige bibliotekene:

Python3 import pandas as pd import numpy as np import matplotlib.pyplot as plt import matplotlib.axes as ax from matplotlib.animation import FuncAnimation>

Last inn datasettet og separer input- og målvariabler

Her er lenken til datasettet: Datasettkobling

Python3 url = 'https://media.techcodeview.com data = pd.read_csv(url) data # Drop the missing values data = data.dropna() # training dataset and labels train_input = np.array(data.x[0:500]).reshape(500, 1) train_output = np.array(data.y[0:500]).reshape(500, 1) # valid dataset and labels test_input = np.array(data.x[500:700]).reshape(199, 1) test_output = np.array(data.y[500:700]).reshape(199, 1)>

Bygg den lineære regresjonsmodellen og plott regresjonslinjen

Trinn:

  • I foroverforplantning brukes lineær regresjonsfunksjon Y=mx+c ved først å tildele tilfeldig verdi av parameteren (m & c).
  • Vi har skrevet funksjonen for å finne kostnadsfunksjonen, dvs. gjennomsnittet
Python3 class LinearRegression: def __init__(self): self.parameters = {} def forward_propagation(self, train_input): m = self.parameters['m'] c = self.parameters['c'] predictions = np.multiply(m, train_input) + c return predictions def cost_function(self, predictions, train_output): cost = np.mean((train_output - predictions) ** 2) return cost def backward_propagation(self, train_input, train_output, predictions): derivatives = {} df = (predictions-train_output) # dm= 2/n * mean of (predictions-actual) * input dm = 2 * np.mean(np.multiply(train_input, df)) # dc = 2/n * mean of (predictions-actual) dc = 2 * np.mean(df) derivatives['dm'] = dm derivatives['dc'] = dc return derivatives def update_parameters(self, derivatives, learning_rate): self.parameters['m'] = self.parameters['m'] - learning_rate * derivatives['dm'] self.parameters['c'] = self.parameters['c'] - learning_rate * derivatives['dc'] def train(self, train_input, train_output, learning_rate, iters): # Initialize random parameters self.parameters['m'] = np.random.uniform(0, 1) * -1 self.parameters['c'] = np.random.uniform(0, 1) * -1 # Initialize loss self.loss = [] # Initialize figure and axis for animation fig, ax = plt.subplots() x_vals = np.linspace(min(train_input), max(train_input), 100) line, = ax.plot(x_vals, self.parameters['m'] * x_vals + self.parameters['c'], color='red', label='Regression Line') ax.scatter(train_input, train_output, marker='o', color='green', label='Training Data') # Set y-axis limits to exclude negative values ax.set_ylim(0, max(train_output) + 1) def update(frame): # Forward propagation predictions = self.forward_propagation(train_input) # Cost function cost = self.cost_function(predictions, train_output) # Back propagation derivatives = self.backward_propagation( train_input, train_output, predictions) # Update parameters self.update_parameters(derivatives, learning_rate) # Update the regression line line.set_ydata(self.parameters['m'] * x_vals + self.parameters['c']) # Append loss and print self.loss.append(cost) print('Iteration = {}, Loss = {}'.format(frame + 1, cost)) return line, # Create animation ani = FuncAnimation(fig, update, frames=iters, interval=200, blit=True) # Save the animation as a video file (e.g., MP4) ani.save('linear_regression_A.webp'false'>Python3 #Example usage linear_reg = LinearRegression() parameters, loss = linear_reg.train(train_input, train_output, 0,0001, 20) Output : Iteration = 1, Loss = 9130.407560462196 Iteration = 1107s.9s , Tap = 140,31580932842422 Iterasjon = 1, Tap = 23,795780526084116 Iterasjon = 2, Tap = 9,753848205147605 Iterasjon = 3, Tap = 8,061641745006835 Iterasjon = 4, Tap = 11,857, 7,857. 8331350515579015 Iterasjon = 6, Tap = 7,830172502503967 Iterasjon = 7, Tap = 7,829814681591015 Iterasjon = 8 , Tap = 7,829770758846183 Iterasjon = 9, Tap = 7,829764664327399 Iterasjon = 10, Tap = 7,829763128602258 Iterasjon = 11, Tap = 72,829, 7,829. 829761222379141 Iterasjon = 13, Tap = 7,829760310486438 Iterasjon = 14, Tap = 7,829759399646989 Iterasjon = 15, Tap = 7,829758489015161 Iterasjon = 16, Tap = 7,829757578489033 Iterasjon = 17, Tap = 7,829756668056319 Iterasjon = 18, Tap = 55,577, 8,577 29754847466484 Iterasjon = 20, Tap = 7,829753937309139 Lineær regresjonslinjeDen lineære regresjonslinjen gir verdifull innsikt i forholdet mellom de to variablene. Den representerer den best passende linjen som fanger opp den generelle trenden for hvordan en avhengig variabel (Y) endres som respons på variasjoner i en uavhengig variabel (X). Positiv lineær regresjonslinje: En positiv lineær regresjonslinje indikerer en direkte sammenheng mellom den uavhengige variabelen (X) og den avhengige variabelen (Y). Dette betyr at når verdien av X øker, øker også verdien av Y. Helningen til en positiv lineær regresjonslinje er positiv, noe som betyr at linjen skråner oppover fra venstre til høyre. Negativ lineær regresjonslinje : En negativ lineær regresjonslinje indikerer en invers sammenheng mellom den uavhengige variabelen (X) og den avhengige variabelen (Y). Dette betyr at når verdien av X øker, synker verdien av Y. Helningen til en negativ lineær regresjonslinje er negativ, noe som betyr at linjen skråner nedover fra venstre til høyre. Regulariseringsteknikker for lineære modeller Lassoregresjon (L1-regularisering) Lassoregresjon er en teknikk som brukes for å regularisere en lineær regresjonsmodell, den legger til en straff term til den lineære regresjonsmålfunksjonen for å forhindre overtilpasning. Den objektive funksjonen etter å ha brukt lasso-regresjon er: det første leddet er tapet med minste kvadrater, som representerer kvadratforskjellen mellom predikerte og faktiske verdier. det andre leddet er L1-regulariseringsleddet, det straffer summen av absolutte verdier av regresjonskoeffisienten θj. Ridge-regresjon (L2-regularisering) Ridge-regresjon er en lineær regresjonsteknikk som legger til et regulariseringsledd til det standard lineære målet. Igjen er målet å forhindre overtilpasning ved å straffe stor koeffisient i lineær regresjonsligning. Det er nyttig når datasettet har multikollinearitet der prediktorvariabler er sterkt korrelerte. Den objektive funksjonen etter å ha brukt ryggregresjon er: det første leddet er tapet med minste kvadrater, som representerer den kvadratiske forskjellen mellom predikerte og faktiske verdier. det andre leddet er L1-regulariseringsleddet, det straffer summen av kvadratet av verdiene til regresjonskoeffisienten θj. Elastic Net Regression Elastic Net Regression er en hybrid regulariseringsteknikk som kombinerer kraften til både L1 og L2 regularisering i lineær regresjonsmål. det første leddet er minste kvadratstap. andre ledd er L1-regularisering og tredje er ryggregresjon.???? er den generelle regulariseringsstyrken. α kontrollerer blandingen mellom L1- og L2-regularisering. Anvendelser av lineær regresjonLineær regresjon brukes i mange forskjellige felt, inkludert finans, økonomi og psykologi, for å forstå og forutsi oppførselen til en bestemt variabel. For eksempel, i finans, kan lineær regresjon brukes til å forstå forholdet mellom et selskaps aksjekurs og dets inntjening eller for å forutsi den fremtidige verdien av en valuta basert på tidligere resultater. Fordeler og ulemper ved lineær regresjon Fordeler med lineær regresjonLineær regresjon er en relativt enkel algoritme, som gjør den lett å forstå og implementere. Koeffisientene til den lineære regresjonsmodellen kan tolkes som endringen i den avhengige variabelen for en endring på én enhet i den uavhengige variabelen, og gir innsikt i forholdet mellom variabler. Lineær regresjon er beregningsmessig effektiv og kan håndtere store datasett effektivt. Den kan trenes raskt på store datasett, noe som gjør den egnet for sanntidsapplikasjoner.Lineær regresjon er relativt robust for uteliggere sammenlignet med andre maskinlæringsalgoritmer. Outliers kan ha en mindre innvirkning på den generelle modellens ytelse.Lineær regresjon fungerer ofte som en god grunnlinjemodell for sammenligning med mer komplekse maskinlæringsalgoritmer.Lineær regresjon er en veletablert algoritme med en rik historie og er allment tilgjengelig i ulike maskinlæringsalgoritmer. biblioteker og programvarepakker. Ulemper ved lineær regresjonLineær regresjon antar en lineær sammenheng mellom de avhengige og uavhengige variablene. Hvis sammenhengen ikke er lineær, kan det hende at modellen ikke fungerer godt. Lineær regresjon er følsom for multikollinearitet, som oppstår når det er høy korrelasjon mellom uavhengige variabler. Multikollinearitet kan blåse opp variansen til koeffisientene og føre til ustabile modellprediksjoner. Lineær regresjon forutsetter at funksjonene allerede er i en passende form for modellen. Funksjonsteknikk kan være nødvendig for å transformere funksjoner til et format som effektivt kan brukes av modellen. Lineær regresjon er utsatt for både overtilpasning og undertilpasning. Overtilpasning oppstår når modellen lærer treningsdataene for godt og ikke klarer å generalisere til usynlige data. Undertilpasning oppstår når modellen er for enkel til å fange opp de underliggende sammenhengene i dataene. Lineær regresjon gir begrenset forklaringskraft for komplekse sammenhenger mellom variabler. Mer avanserte maskinlæringsteknikker kan være nødvendig for dypere innsikt. KonklusjonLineær regresjon er en grunnleggende maskinlæringsalgoritme som har vært mye brukt i mange år på grunn av sin enkelhet, tolkning og effektivitet. Det er et verdifullt verktøy for å forstå sammenhenger mellom variabler og lage spådommer i en rekke applikasjoner. Det er imidlertid viktig å være klar over dens begrensninger, slik som antakelsen om linearitet og følsomhet for multikollinearitet. Når disse begrensningene vurderes nøye, kan lineær regresjon være et kraftig verktøy for dataanalyse og prediksjon. Lineær regresjon – ofte stilte spørsmål (FAQs) Hva betyr lineær regresjon på enkel måte? Lineær regresjon er en overvåket maskinlæringsalgoritme som forutsier en kontinuerlig målvariabel basert på en eller flere uavhengige variabler. Den antar et lineært forhold mellom de avhengige og uavhengige variablene og bruker en lineær ligning for å modellere dette forholdet. Hvorfor bruker vi lineær regresjon? Lineær regresjon brukes ofte til: Forutsi numeriske verdier basert på inputfunksjoner Forutsi fremtidige trender basert på historiske data Identifisere korrelasjoner mellom variabler Forstå virkningen av ulike faktorer på et bestemt utfallHvordan bruke lineær regresjon?Bruk lineær regresjon ved å tilpasse en linje for å forutsi forholdet mellom variabler , forstå koeffisienter og lage spådommer basert på inngangsverdier for informert beslutningstaking. Hvorfor kalles det lineær regresjon? Lineær regresjon er oppkalt etter bruken av en lineær ligning for å modellere forholdet mellom variabler, som representerer en rett linjetilpasning til datapunktene. Hva er eksempler på lineær regresjon? Å forutsi boligpriser basert på kvadratmeter, estimere eksamensresultater fra studietimer og forutsi salg ved å bruke annonseringsutgifter er eksempler på lineær regresjonsapplikasjoner.>