En maskinlæringsmodell er definert som en matematisk representasjon av resultatet av treningsprosessen. Maskinlæring er studiet av forskjellige algoritmer som kan forbedres automatisk gjennom erfaring og gamle data og bygge modellen. En maskinlæringsmodell ligner på dataprogramvare designet for å gjenkjenne mønstre eller atferd basert på tidligere erfaring eller data. Læringsalgoritmen oppdager mønstre i treningsdataene, og den sender ut en ML-modell som fanger opp disse mønstrene og gir spådommer på nye data.
La oss forstå et eksempel på ML-modellen der vi lager en app for å gjenkjenne brukerens følelser basert på ansiktsuttrykk. Så, å lage en slik app er mulig ved hjelp av maskinlæringsmodeller, der vi vil trene en modell ved å mate bilder av ansikter med forskjellige følelser merket på dem. Når denne appen brukes til å bestemme brukerens humør, leser den alle matede data og bestemmer deretter hvilken som helst brukers humør.
Derfor kan vi med enkle ord si at a maskinlæringsmodell er en forenklet representasjon av noe eller en prosess. I dette emnet vil vi diskutere forskjellige maskinlæringsmodeller og deres teknikker og algoritmer .
Hva er maskinlæringsmodell?
Machine Learning-modeller kan forstås som et program som er opplært til å finne mønstre i nye data og lage spådommer. Disse modellene er representert som en matematisk funksjon som tar forespørsler i form av inngangsdata, gjør spådommer på inngangsdata og deretter gir et utdata som svar. Først trenes disse modellene over et sett med data, og deretter får de en algoritme for å resonnere over data, trekke ut mønsteret fra feeddata og lære av disse dataene. Når disse modellene er trent, kan de brukes til å forutsi det usynlige datasettet.
Det finnes ulike typer maskinlæringsmodeller basert på ulike forretningsmål og datasett.
Klassifisering av maskinlæringsmodeller:
Basert på ulike forretningsmål og datasett finnes det tre læringsmodeller for algoritmer. Hver maskinlæringsalgoritme setter seg inn i en av de tre modellene:
- Veiledet læring
- Uovervåket læring
- Forsterkende læring
Veiledet læring er videre delt inn i to kategorier:
- Klassifisering
- Regresjon
Uovervåket læring er også delt inn i følgende kategorier:
- Gruppering
- Foreningsregel
- Dimensjonsreduksjon
1. Overvåkede maskinlæringsmodeller
Supervised Learning er den enkleste maskinlæringsmodellen for å forstå hvor inngangsdata kalles treningsdata og har en kjent etikett eller resultat som utdata. Så det fungerer etter prinsippet om input-output-par. Det krever å lage en funksjon som kan trenes ved hjelp av et treningsdatasett, og deretter brukes den på ukjente data og gir en viss prediktiv ytelse. Veiledet læring er oppgavebasert og testet på merkede datasett.
Vi kan implementere en veiledet læringsmodell på enkle problemer i det virkelige livet. For eksempel har vi et datasett bestående av alder og høyde; deretter kan vi bygge en overvåket læringsmodell for å forutsi personens høyde basert på deres alder.
Supervised Learning-modeller er videre klassifisert i to kategorier:
Regresjon
I regresjonsproblemer er utgangen en kontinuerlig variabel. Noen vanlige regresjonsmodeller er som følger:
a) Lineær regresjon
Lineær regresjon er den enkleste maskinlæringsmodellen der vi prøver å forutsi én utdatavariabel ved å bruke én eller flere inputvariabler. Representasjonen av lineær regresjon er en lineær ligning, som kombinerer et sett med inngangsverdier (x) og predikert utgang (y) for settet med disse inngangsverdiene. Det er representert i form av en linje:
Y = bx + c.
Hovedmålet med den lineære regresjonsmodellen er å finne den beste tilpasningslinjen som passer best til datapunktene.
Lineær regresjon utvides til multippel lineær regresjon (finn et plan som passer best) og polynomregresjon (finn kurven som passer best).
b) Beslutningstre
java har neste
Beslutningstrær er de populære maskinlæringsmodellene som kan brukes til både regresjons- og klassifiseringsproblemer.
Et beslutningstre bruker en trelignende struktur av beslutninger sammen med deres mulige konsekvenser og utfall. I dette brukes hver intern node til å representere en test på et attributt; hver gren brukes til å representere resultatet av testen. Jo flere noder et beslutningstre har, jo mer nøyaktig blir resultatet.
Fordelen med beslutningstrær er at de er intuitive og enkle å implementere, men de mangler nøyaktighet.
Beslutningstrær er mye brukt i operasjonsforskning, spesielt innen beslutningsanalyse, strategisk planlegging , og hovedsakelig innen maskinlæring.
c) Tilfeldig skog
Random Forest er ensemblelæringsmetoden, som består av et stort antall beslutningstrær. Hvert beslutningstre i en tilfeldig skog forutsier et utfall, og spådommen med flertall av stemmene anses som utfallet.
En tilfeldig skogmodell kan brukes for både regresjons- og klassifikasjonsproblemer.
For klassifiseringsoppgaven tas utfallet av den tilfeldige skogen fra flertallet av stemmene. Mens i regresjonsoppgaven er resultatet hentet fra gjennomsnittet eller gjennomsnittet av spådommene generert av hvert tre.
d) Nevrale nettverk
Nevrale nettverk er undergruppen av maskinlæring og er også kjent som kunstige nevrale nettverk. Nevrale nettverk er bygd opp av kunstige nevroner og utformet på en måte som ligner den menneskelige hjernens struktur og virkemåte. Hvert kunstig nevron kobles til mange andre nevroner i et nevralt nettverk, og slike millioner av tilkoblede nevroner skaper en sofistikert kognitiv struktur.
Nevrale nettverk består av en flerlagsstruktur som inneholder ett inngangslag, ett eller flere skjulte lag og ett utgangslag. Ettersom hvert nevron er forbundet med et annet nevron, overfører det data fra ett lag til det andre nevronet i de neste lagene. Til slutt når data det siste laget eller utgangslaget i det nevrale nettverket og genererer utdata.
Nevrale nettverk er avhengige av treningsdata for å lære og forbedre nøyaktigheten. Imidlertid kan et perfekt trent og nøyaktig nevralt nettverk raskt gruppere data og bli et kraftig maskinlærings- og AI-verktøy. Et av de mest kjente nevrale nettverkene er Googles søkealgoritme.
Klassifisering
Klassifikasjonsmodeller er den andre typen Supervised Learning-teknikker, som brukes til å generere konklusjoner fra observerte verdier i kategorisk form. For eksempel kan klassifiseringsmodellen identifisere om e-posten er spam eller ikke; en kjøper vil kjøpe produktet eller ikke, osv. Klassifiseringsalgoritmer brukes til å forutsi to klasser og kategorisere produksjonen i forskjellige grupper.
Ved klassifisering utformes en klassifiseringsmodell som klassifiserer datasettet i forskjellige kategorier, og hver kategori tildeles en etikett.
Det er to typer klassifiseringer innen maskinlæring:
Noen populære klassifiseringsalgoritmer er som nedenfor:
a) Logistisk regresjon
Logistisk regresjon brukes til å løse klassifiseringsproblemene i maskinlæring. De ligner på lineær regresjon, men brukes til å forutsi de kategoriske variablene. Den kan forutsi utgangen i enten Ja eller Nei, 0 eller 1, True eller False, osv. Men i stedet for å gi de eksakte verdiene, gir den sannsynlige verdier mellom 0 og 1.
b) Støtte Vector Machine
Support vector machine eller SVM er den populære maskinlæringsalgoritmen, som er mye brukt for klassifiserings- og regresjonsoppgaver. Men spesifikt brukes det til å løse klassifiseringsproblemer. Hovedmålet til SVM er å finne de beste beslutningsgrensene i et N-dimensjonalt rom, som kan segregere datapunkter i klasser, og den beste beslutningsgrensen er kjent som Hyperplane. SVM velger ekstremvektoren for å finne hyperplanet, og disse vektorene er kjent som støttevektorer.
c) Naive Bayes
Naiv Bayes er en annen populær klassifiseringsalgoritme som brukes i maskinlæring. Det kalles slik som det er basert på Bayes teorem og følger den naive (uavhengige) antagelsen mellom funksjonene som er gitt som:
Hver naive Bayes-klassifikator antar at verdien til en spesifikk variabel er uavhengig av enhver annen variabel/funksjon. For eksempel hvis en frukt må klassifiseres basert på farge, form og smak. Så gul, oval og søt vil bli gjenkjent som mango. Her er hver funksjon uavhengig av andre funksjoner.
2. Maskinlæringsmodeller uten tilsyn
Unsupervised Machine learning-modeller implementerer læringsprosessen i motsetning til overvåket læring, noe som betyr at den gjør det mulig for modellen å lære fra det umerkede opplæringsdatasettet. Basert på det umerkede datasettet, forutsier modellen resultatet. Ved å bruke uovervåket læring lærer modellen skjulte mønstre fra datasettet av seg selv uten tilsyn.
Uovervåket læringsmodeller brukes hovedsakelig til å utføre tre oppgaver, som er som følger:
Clustering er en uovervåket læringsteknikk som innebærer å gruppere eller famle datapunktene inn i forskjellige klynger basert på likheter og forskjeller. Objektene med flest likheter forblir i samme gruppe, og de har ingen eller svært få likheter fra andre grupper.
Klyngealgoritmer kan brukes mye i ulike oppgaver som f.eks Bildesegmentering, Statistisk dataanalyse, Markedssegmentering , etc.
Noen ofte brukte Clustering-algoritmer er K-betyr Clustering, hierarkisk Clustering, DBSCAN , etc.
Assosiasjonsregellæring er en uovervåket læringsteknikk, som finner interessante relasjoner mellom variabler i et stort datasett. Hovedmålet med denne læringsalgoritmen er å finne avhengigheten til ett dataelement av et annet dataelement og kartlegge disse variablene tilsvarende slik at det kan generere maksimal fortjeneste. Denne algoritmen brukes hovedsakelig i Market Basket analyse, gruvedrift av nettbruk, kontinuerlig produksjon , etc.
Noen populære algoritmer for læring av assosiasjonsregler er Apriori-algoritme, Eclat, FP-vekstalgoritme.
Antall funksjoner/variabler som er tilstede i et datasett er kjent som dimensjonaliteten til datasettet, og teknikken som brukes for å redusere dimensjonaliteten er kjent som dimensjonalitetsreduksjonsteknikken.
Selv om flere data gir mer nøyaktige resultater, kan det også påvirke ytelsen til modellen/algoritmen, for eksempel problemer med overtilpasning. I slike tilfeller brukes dimensjonalitetsreduksjonsteknikker.
' Det er en prosess for å konvertere datasettet med høyere dimensjoner til datasett med mindre dimensjoner, for å sikre at det gir lignende informasjon .'
Ulike dimensjonalitetsreduksjonsmetoder som f.eks som PCA (Principal Component Analysis), Singular Value Decomposition, etc.
Forsterkende læring
I forsterkende læring lærer algoritmen handlinger for et gitt sett med tilstander som fører til en måltilstand. Det er en tilbakemeldingsbasert læringsmodell som tar tilbakemeldingssignaler etter hver tilstand eller handling ved å samhandle med omgivelsene. Denne tilbakemeldingen fungerer som en belønning (positiv for hver god handling og negativ for hver dårlig handling), og agentens mål er å maksimere de positive belønningene for å forbedre ytelsen.
Oppførselen til modellen i forsterkende læring ligner på menneskelig læring, ettersom mennesker lærer ting ved erfaringer som tilbakemeldinger og samhandler med omgivelsene.
Nedenfor er noen populære algoritmer som kommer under forsterkende læring:
Den tar sikte på å lære policyen som kan hjelpe AI-agenten til å ta den beste handlingen for å maksimere belønningen under en spesifikk omstendighet. Den inneholder Q-verdier for hvert tilstand-handling-par som indikerer belønningen for å følge en gitt tilstandsbane, og den prøver å maksimere Q-verdien.
Trening av maskinlæringsmodeller
Når maskinlæringsmodellen er bygget, trenes den opp for å få de riktige resultatene. For å trene en maskinlæringsmodell trenger man en enorm mengde forhåndsbehandlet data. Her betyr forhåndsbehandlede data data i strukturert form med reduserte nullverdier osv. Hvis vi ikke leverer forhåndsbehandlede data, så er det store sjanser for at modellen vår kan yte forferdelig.
Hvordan velge den beste modellen?
I avsnittet ovenfor har vi diskutert forskjellige maskinlæringsmodeller og algoritmer. Men et mest forvirrende spørsmål som kan oppstå for enhver nybegynner: 'hvilken modell skal jeg velge?'. Så svaret er at det hovedsakelig avhenger av forretningskravet eller prosjektkravet. Bortsett fra dette avhenger det også av tilknyttede attributter, volumet på tilgjengelig datasett, antall funksjoner, kompleksitet osv. Men i praksis anbefales det at vi alltid starter med den enkleste modellen som kan brukes på den aktuelle problem og deretter gradvis øke kompleksiteten og teste nøyaktigheten ved hjelp av parameterinnstilling og kryssvalidering.
Forskjellen mellom maskinlæringsmodell og algoritmer
Et av de mest forvirrende spørsmålene blant nybegynnere er maskinlæringsmodeller, og algoritmer er de samme? Fordi i ulike tilfeller innen maskinlæring og datavitenskap, brukes disse to begrepene om hverandre.
Svaret på dette spørsmålet er nei, og maskinlæringsmodellen er ikke det samme som en algoritme. På en enkel måte, en ML-algoritme er som en prosedyre eller metode som kjører på data for å oppdage mønstre fra den og generere modellen. Samtidig, a Maskinlæringsmodell er som et dataprogram som genererer utdata eller forutsier . Mer spesifikt, når vi trener en algoritme med data, blir den en modell.
Machine Learning Model = Model Data + Prediction Algorithm