Bevezetés az együttes módszerekbe a gépi tanulásban

Ebben a cikkben bemutatjuk az Ensemble Methods in Machine Learning módszereit. Az együttes tanulás a különféle gépi tanulási technikák kombinációja egy prediktív modellbe a predikció javítása érdekében. Az együttes tanulását úgy szerezték meg, hogy csökkentsék a prediktív adatok varianciáját. Az ilyen típusú tanulás célja a modell torzulásának minimalizálása. Az együttes tanulás egy többmodell rendszer, amelyben a különféle osztályozók vagy technikák stratégiailag kombinálva vannak, hogy a komplex probléma statisztikáit jobb pontossággal osztályozzák vagy megjósolják. Az ilyen tanulás célja a modellből való rossz választás valószínűségének minimalizálása. Meghatározza a modell által hozott döntésbe vetett bizalmat. Az együttes tanulása során megvalósult az optimális tulajdonságok kiválasztásának ötlete.

Az együttes módszer típusai a gépi tanulásban

Az együttes módszer segít létrehozni több modellt, majd egyesíti azokat jobb eredmények elérése érdekében; egyes együttes módszereket a következő csoportokba sorolunk:

1. Szekvenciális módszerek

Az ilyen Ensemble módszerben vannak olyan szekvenciálisan generált alaptanulók, akikben az adattól való függőség található. Az alaptanuló minden más adata bizonyos mértékben függ a korábbi adatoktól. Tehát a korábbi félrecímkézett adatokat annak súlya alapján hangoltuk be, hogy az egész rendszer teljesítményét javítsuk.

Példa : Fokozás

2. Párhuzamos módszer

Az ilyen Ensemble módszernél az alaptanulót párhuzamos sorrendben állítják elő, amelyben nincs az adattól való függőség. Az alaptanuló minden adatát önállóan generálják.

Példa : egymásra rakás

3. Homogén együttes

Egy ilyen együttes módszer ugyanazon típusú osztályozók kombinációja. De az adatkészlet az egyes osztályozóknál eltérő. Ez lehetővé teszi a kombinált modell pontosabb működését az egyes modellek eredményeinek összesítése után. Az ilyen típusú együttes módszer nagyszámú adatkészlettel működik. A homogén módszernél a funkcióválasztási módszer azonos a különböző edzési adatok esetében. Számítási szempontból drága.

Példa: A népszerű módszerek, mint például a csomagolás és a szedés, a homogén együttesbe kerülnek.

4. Heterogén együttes

Egy ilyen együttes módszer különféle típusú osztályozók vagy gépi tanulási modellek kombinációja, amelyben az egyes osztályozók ugyanazon adatokra épülnek. Ez a módszer működik kis adatkészleteknél. Heterogén esetben a funkcióválasztási módszer ugyanazon edzési adatok esetében eltérő. Ennek az együttes módszernek a teljes eredményét az egyesített modellek összes eredményének átlagolásával kell elérni.

Példa : egymásra rakás

Az együttes módszerek műszaki osztályozása

Az alábbiakban az Ensemble Methods műszaki osztályozása található:

1. Csomagolás

Ez az együttes módszer két gépi tanulási modellt kombinál, azaz a rendszerindítást és az aggregálást egyetlen együttes modellgé. A csomagolási módszer célja a modell nagy szóródásának csökkentése. A döntési fák varianciája és alacsony torzulása van. A nagy adatkészlet (mondjuk 1000 minta) almintája (mondjuk, hogy mindegyik 10 alminta 100 adatmintát hordoz). A több döntési fákat az egyes alminták képzési adataira építik fel. Miközben az almintákba bevont adatokat megcáfolják a különböző döntési fákról, csökken az aggodalom, hogy az egyes döntési fákra a képzési adatok túlzottan illeszkedjenek. A modell hatékonysága érdekében az egyes döntési fákat mélyen termesztik, és tartalmaznak almintába felvett képzési adatokat. Az egyes döntési fák eredményeit összesítik, hogy megértsék a végső előrejelzést. Az összesített adatok varianciája csökkenni fog. A modell előrejelzésének pontossága a zacskózás módszerében az alkalmazott döntési fa számától függ. A mintaadatok különböző almintáit véletlenszerűen választják ki pótlással. Minden fa kimenete magas korrelációval rendelkezik.

2. Fokozás

A fellendítő együttes kombinálja a különféle azonos típusú osztályozókat is. A növelés az egyik olyan szekvenciális együttes módszer, amelyben az egyes modellek vagy osztályozók olyan funkciók alapján futnak, amelyeket a következő modell felhasznál majd. Ily módon a növelési módszer erősebb tanulói modellt hoz létre a gyenge tanulók modelljeiből, súlyuk átlagolásával. Más szavakkal: egy erősebb képzésű modell a több gyengén kiképzett modelltől függ. A gyenge tanuló vagy a kopással kiképzett modell olyan modell, amely kevésbé korrelál a valódi osztályozással. De a következő gyenge tanuló valamivel szorosabban korrelál a valódi osztályozással. Az ilyen különféle gyenge tanulók kombinációja olyan erős tanulót eredményez, amely jól korrelál a valódi osztályozással.

3. Halmozás

Ez a módszer kombinálja a több osztályozást vagy regressziós technikát egy meta-osztályozó vagy metamodell felhasználásával. Az alsóbb szintű modelleket a teljes képzési adatkészlettel képzik, majd az kombinált modellt az alacsonyabb szintű modellek eredményeivel képzik. A növeléstől eltérően minden alacsonyabb szintű modellt párhuzamos képzésen vesznek át. Az alsóbb szintű modellekből származó előrejelzéseket bemenetelként használják a következő modellhez, mint edzési adatkészlet, és olyan halomot képeznek, amelyben a modell felső rétege jobban képzett, mint a modell alsó rétege. A felső rétegű modell jó előrejelzési pontossággal rendelkezik, és alsóbb szintű modellek alapján épültek fel. A verem tovább növekszik, amíg a legjobb előrejelzés minimális hibával meg nem történik. A kombinált modell vagy metamodell előrejelzése a különböző gyenge modellek vagy alsó rétegű modellek előrejelzésén alapul. Középpontjában a kevésbé torzító modell előállítása áll.

4. Véletlenszerű erdő

A véletlenszerű erdő kissé különbözik a csomagolástól, mivel mély fákat használ, amelyeket a csomagtartó-mintákra helyeznek. Az egyes húzókimenetek kombinálva vannak a variancia csökkentése érdekében. Az egyes fák növekedése közben ahelyett, hogy az adatkészlet megfigyelése alapján létrehoznánk egy bootstrap mintát, a tulajdonságok alapján is mintát veszünk, és csak egy véletlenszerű részmintát használunk az ilyen minta felépítésére. Más szavakkal, az adatkészlet mintavétele olyan tulajdonságok alapján történik, amelyek csökkentik a különböző kimenetek korrelációját. A véletlenszerű erdő jó a hiányzó adatok eldöntésére. Véletlenszerű erdő: a minta egy részének véletlenszerű kiválasztása, amely csökkenti a kapcsolódó predikciós értékek megszerzésének esélyét. Minden fa szerkezete eltérő. A véletlenszerű erdő enyhén növeli az erdő torzulását, de a különböző fák kevésbé kapcsolódó előrejelzésének átlagolása miatt a kapott variancia csökken, és összességében jobb teljesítményt nyújt.

Következtetés

Az együttes többmodell megközelítését olyan mély tanulási modellek valósítják meg, amelyekben az összetett adatokat az osztályozó ilyen különféle kombinációi segítségével tanulmányozták és dolgozták fel a jobb előrejelzés vagy osztályozás érdekében. Az együttes tanulásában az egyes modellek előrejelzésének nem összefüggőbbnek kell lennie. Ez a modell torzítását és szórását a lehető legalacsonyabb szinten tartja. A modell hatékonyabb lesz, és minimális hiba mellett megjósolja a kimenetet. Az együttes egy felügyelt tanulási algoritmus, mivel a modellt korábban az adatkészlettel képzik a predikció elkészítéséhez. Az együttesek tanulásánál a nagy pontosság elérése érdekében az összetevők osztályozóinak számának meg kell egyeznie az osztály címkéivel.

Ajánlott cikkek

Ez egy útmutató az összeszerelési módszereknek a gépi tanuláshoz. Itt tárgyaljuk az együttes módszer fontos típusait a gépi tanulásban, valamint a műszaki osztályozást. A további javasolt cikkeken keresztül további információkat is megtudhat -

  1. Bevezetés az együttes technikájába
  2. Gépi tanulás életciklusának előnyei
  3. Gépi tanulási algoritmusok
  4. A 24 legnépszerűbb gépi tanulási interjúkérdés

Kategória: