Vad är Boosting?

Boosting är en algoritm som hjälper till att minska varians och förspänning i en maskininlärningsensemble. Algoritmer Algoritmer (Algos) Algoritmer (Algos) är en uppsättning instruktioner som introduceras för att utföra en uppgift. Algoritmer introduceras för att automatisera handel för att generera vinster med en frekvens som är omöjlig för en mänsklig näringsidkare hjälper till att omvandla svaga elever till starka elever. genom att kombinera N antal elever.

BoostingKälla: Sirakorn [CC BY-SA]

Boosting kan också förbättra modellförutsägelser för inlärningsalgoritmer. De svaga eleverna korrigeras sekventiellt av sina föregångare och under tiden omvandlas de till starka elever.

Former av Boosting

Boosting kan ha flera former, inklusive:

1. Adaptiv förstärkning (Adaboost)

Adaboost syftar till att kombinera flera svaga elever för att bilda en enda stark inlärare. Adaboost koncentrerar sig på svaga elever, som ofta är beslutsträd med endast en splittring och ofta kallas beslutsstubbar. Den första beslutstubben i Adaboost innehåller observationer som vägs lika.

Tidigare fel korrigeras och alla observationer som klassificerats felaktigt tilldelas mer vikt än andra observationer som inte hade något fel i klassificeringen. Algoritmer från Adaboost används populärt i regressions- och klassificeringsförfaranden. Ett fel som noterats i tidigare modeller justeras med viktning tills en korrekt prediktor görs.

2. Gradient Boosting

Gradient boosting, precis som alla andra ensemble maskininlärningsprocedurer, ger sekventiellt prediktorer till ensemblen och följer sekvensen för att korrigera föregående prediktorer för att komma fram till en korrekt prediktor i slutet av proceduren. Adaboost korrigerar sina tidigare fel genom att justera vikterna för varje felaktig observation i varje iteration, men gradientförstärkning syftar till att passa in en ny prediktor i de återstående fel som begåtts av föregående prediktor.

Gradient boosting använder gradientnedstigningen för att hitta utmaningarna i elevernas förutsägelser som tidigare använts. Det tidigare felet markeras och genom att kombinera en svag elev till nästa elev minskas felet betydligt över tiden.

3. XGBoost (Extreme Gradient Boosting)

XGBoostimg implementerar beslutsträd med förbättrad lutning, förbättrad prestanda och hastighet. Implementeringen av lutningsförstärkta maskiner är relativt långsam på grund av modellutbildningen som måste följa en sekvens. De saknar därför skalbarhet Skalbarhet Skalbarhet kan falla i både ekonomiska och affärsstrategiska sammanhang. I båda fallen står det för enhetens förmåga att motstå tryck på grund av deras långsamhet.

XGBoost är beroende av prestanda hos en modell och beräkningshastighet. Det ger olika fördelar, till exempel parallellisering, distribuerad databehandling, cache-optimering och out-of-core-dator.

XGBoost ger parallellisering i trädbyggnad genom användning av CPU-kärnor under träning. Den distribuerar också datoranvändning när den tränar stora modeller med maskinkluster. Out-of-core-databehandling används för större datamängder som inte kan passa i den vanliga minnesstorleken. Cache-optimering används också för algoritmer och datastrukturer för att optimera användningen av tillgänglig hårdvara.

För- och nackdelar med att öka

Som ensemblemodell kommer boosting med en lättläst och tolkad algoritm, vilket gör dess förutsägelsestolkningar lätta att hantera. Förutsägelsefunktionen är effektiv genom användning av dess klonmetoder, såsom bagging Bagging (Bootstrap Aggregation) Ensemble maskininlärning kan huvudsakligen kategoriseras i bagging och boosting. Baggingstekniken är användbar för både regression och statistisk eller slumpmässig skog och beslutsträd. Boosting är en fjädrande metod som lätt täcker övermontering.

En nackdel med att öka är att den är känslig för outliers eftersom varje klassificerare är skyldig att fixa felen hos föregångarna. Således är metoden för beroende av avvikare. En annan nackdel är att metoden är nästan omöjlig att skala upp. Detta beror på att varje uppskattning baserar sin korrekthet på tidigare prediktorer, vilket gör proceduren svår att effektivisera.

Vad är alternativträd?

Alternativträd är ersättare för beslutsträd. De representerar ensemble klassificerare samtidigt som de får en enda struktur. Skillnaden mellan optionsträd och beslutsträd är att de förstnämnda inkluderar både alternativnoder och beslutsnoder, medan de senare endast inkluderar beslutsnoder.

Klassificeringen av en instans kräver att den filtreras ner genom trädet. En beslutsnod krävs för att välja en av filialerna, medan en alternativnod krävs för att ta hela gruppen av filialer. Detta innebär att man med en alternativnod slutar med flera löv som skulle behöva kombineras i en klassificering för att sluta med en förutsägelse. Därför krävs omröstning i processen, där en majoritetsröstning betyder att noden har valts som förutsägelse för den processen.

Ovanstående process gör det klart att alternativnoderna inte bör ha två alternativ eftersom de kommer att förlora rösten om de inte kan hitta en bestämd vinnare. Den andra möjligheten är att ta genomsnittet av sannolikhetsuppskattningar från olika vägar genom att följa tillvägagångssätt som Bayesian-metoden eller icke-viktad metod för medelvärden.

Alternativträd kan också utvecklas från att modifiera befintliga beslutsträdstudenter eller skapa en alternativnod där flera delningar är korrelerade. Varje beslutsträd inom en tillåten toleransnivå kan omvandlas till optionsträd.

Fler resurser

Finance är den officiella leverantören av Certified Banking & Credit Analyst (CBCA) ™ CBCA ™ Certification Certified Banking & Credit Analyst (CBCA) ™ ackreditering är en global standard för kreditanalytiker som täcker ekonomi, redovisning, kreditanalys, kassaflödesanalys, förbundsmodellering, återbetalning av lån och mer. certifieringsprogram, utformat för att förvandla vem som helst till en ekonomisk analytiker i världsklass.

För att fortsätta lära dig och utveckla dina kunskaper om ekonomisk analys, rekommenderar vi starkt ytterligare finansresurser nedan:

  • Fintech (Financial Technology) Fintech (Financial Technology) Termen fintech avser synergin mellan ekonomi och teknik, som används för att förbättra affärsverksamheten och leverera finansiella tjänster
  • Kvantitativ ekonomi Kvantitativ ekonomi Kvantitativ finansiering är användningen av matematiska modeller och extremt stora datamängder för att analysera finansmarknader och värdepapper. Vanliga exempel inkluderar (1) prissättning av derivatinstrument som optioner och (2) riskhantering, särskilt när det gäller portföljförvaltning
  • Spoofing Spoofing Spoofing är en störande algoritmisk handelspraxis som handlar om att lägga bud att köpa eller erbjuda att sälja terminkontrakt och annullera buden eller erbjudandenen innan affären genomförs. Övningen avser att skapa en falsk bild av efterfrågan eller falsk pessimism på marknaden.
  • Software Engineer Lönarhandbok Software Engineer Lönarhandbok I denna programvarutekniker löneguide täcker vi flera programvaruteknikerjobb och deras motsvarande mittpunktslön för 2018. En programvarutekniker är en professionell som tillämpar principer för programvaruteknik i processerna för design, utveckling, underhåll, testning och utvärdering av programvara som används i datorn

Rekommenderas

Stängdes Crackstreams ner?
2022
Är MC ledningscentral säker?
2022
Lämnar Taliesin en kritisk roll?
2022