A vesztes funkciók áttekintése a gépi tanulásban

Csakúgy, mint a tanárok irányítanak minket, függetlenül attól, hogy jól teljesítünk-e vagy sem az akadémiainkban, a veszteség funkciók ugyanazt a munkát végzik. Ez egy módszer annak felmérésére, hogy algoritmusunk mennyire modellezi az adatokat. A modern gépi tanulásban az veszteségfüggvények képezik az értékelés fő forrását. Amikor megváltoztatja az algoritmust a modell javítása érdekében, a veszteségfüggvény értéke megmondja, hogy halad-e vagy sem. Elsődleges célunk a veszteségfunkció optimalizálással történő csökkentése. Ebben a cikkben megvitatjuk a veszteségfüggvények működését és a veszteségfüggvények különféle típusait.

Hogyan működnek a veszteségfunkciók?

A „veszteség” szó kimondja a büntetést a várt eredmény elérésének elmulasztása miatt. Ha a modellünk szerint a várt értéknél a vártnál nagyobb eltérés van, akkor a veszteség függvény a kimenetet nagyobb számmal adja meg, és ha az eltérés kicsi és sokkal közelebb van a várt értékhez, akkor kisebb számot ad ki.

Ez egy példa, amikor megpróbáljuk előre jelezni a ház eladási árát a metróvárosokban.

Előre látható

Értékesítési ár (lakban)

Tényleges

Értékesítési ár (lakban)

Eltérés (veszteség)
Bangalore: 45 0 (Az összes előrejelzés helyes)
Pune: 35
Chennai: 40
Bangalore: 40Bangalore: 45 5 lakh Bangalore, 2 lakh Chennai
Pune: 35Pune: 35
Chennai: 38Chennai: 40
Bangalore: 43 2 lakh Bangalore, 5 lakh for, Pune2 lakh Chennai számára,
Pune: 30
Chennai: 45

Fontos megjegyezni, hogy az eltérés nagyságának nincs jelentősége, itt a lényeg az, hogy a modellünk által megjósolt érték helyes vagy rossz. A veszteség függvényei eltérnek attól a problémától függően, amelyre a gépi tanulást alkalmazzák. A költségfüggvény egy másik kifejezés, amelyet felváltva használunk a veszteségfüggvényre, de kissé más jelentéssel bír. A veszteségfüggvény egyetlen képzési példára vonatkozik, míg a költségfüggvény az átlagos veszteség a teljes vonat-adatkészlethez képest.

A gépi tanulás veszteségfunkcióinak típusai

Az alábbiakban bemutatjuk a gépi tanulásban a veszteségfüggvény különféle típusait, amelyek a következők:

1) Regressziós veszteség függvények:

A lineáris regresszió e funkció alapvető fogalma. A regressziós veszteség függvények lineáris kapcsolatot hoznak létre egy függõ változó (Y) és a független változó (X) között, ezért igyekszünk illeszteni a legjobb sort a térben ezekre a változókra.

Y = X0 + X1 + X2 + X3 + X4 … + Xn

X = független változók

Y = függő változó

  • Átlagos négyzet hibavesztés:

Az MSE (L2 hiba) az aktuális és a modell által előre jelzett értékek közti négyzetkülönbséget méri. A kimenet egy szám, amely az értékek halmazához tartozik. Célunk az MSE csökkentése a modell pontosságának javítása érdekében.

Vegyük figyelembe a lineáris egyenletet, y = mx + c, az MSE-t levezethetjük az alábbiak szerint:

MSE = 1 / N ∑i = 1 - n (y (i) - (mx (i) + b)) 2

Itt N az összes adatpont száma, 1 / N ∑i = 1 - n középérték, y (i) pedig a tényleges érték, mx (i) + b pedig a becsült érték.

  • Átlagos négyzet logaritmikus hibavesztés (MSLE):

Az MSLE a tényleges és a becsült érték arányát méri. Bevezet egy aszimmetriát a hibagörbébe. Az MSLE csak a tényleges és a becsült értékek százalékos különbségéről gondoskodik. Jó választás veszteségfüggvényként, ha előre akarjuk jósolni a ház eladási árait, a pékség eladási árait, és az adatok folyamatosak.

Itt a veszteség kiszámítható a log-transzformált tényleges és előrejelzett értékek közötti négyzetkülönbségek megfigyelt adatainak átlagaként, amely megadható:

L = 1nnΣi = 1 (log (y (i) +1) -log (y (i) +1)) 2

  • Átlagos abszolút hiba (MAE):

A MAE kiszámítja a tényleges és a várható változók közötti abszolút különbségek összegét. Ez azt jelenti, hogy méri a hibák átlagos nagyságát egy előrejelzett értékek halmazában. Az átlagos négyzetes hibát könnyebben lehet megoldani, de az abszolút hiba használata robusztusabb a túlmutatóknál. A külsõ értékek azok az értékek, amelyek rendkívül eltérnek a többi megfigyelt adatponttól.

A MAE kiszámítható:

L = 1nnΣi = 1||y (i) - y (i) ||

2) Bináris osztályozási veszteségfunkciók:

Ezeket a veszteségfüggvényeket az osztályozási modell teljesítményének mérésére szolgálják. Ebben az adatpontokhoz az egyik címke tartozik, azaz 0 vagy 1. Ezenkívül az alábbiak szerint osztályozhatók:

  • Bináris kereszt-entrópia

Ez egy alapértelmezett veszteségfunkció a bináris osztályozási problémákhoz. A kereszt-entrópia veszteség kiszámítja egy osztályozási modell teljesítményét, amely 0 és 1 közötti valószínűségi értéket ad ki. A kereszt-entrópia veszteség növekszik, amikor a várható valószínűség eltér az aktuális címkétől.

  • Zsanér veszteség

A zsanérveszteség a kereszt-entrópia alternatívájaként használható, amelyet eredetileg egy támogató vektor-gépi algoritmushoz fejlesztettek ki. A zsanérvesztés akkor működik a legjobban, ha osztályozási problémát alkalmazunk, mivel a célértékek a (-1, 1) sorozatban vannak. Ez lehetővé teszi a további hibák hozzárendelését, ha a jel különbség van a tényleges és a becsült értékek között. Így jobb teljesítményt eredményez, mint a kereszt-entrópia.

  • Négyzetes zsanérvesztés

A zsanérveszteség kiterjesztése, amely egyszerűen kiszámítja a csuklópánt veszteségének négyzetét. Csökkenti a hiba funkciót, és számszerűen megkönnyíti a munkát. Megtalálja az osztályozási határvonalat, amely meghatározza a különféle osztályok adatpontjai közötti maximális eltérést. A négyzetes zsanérveszteség ideális az IGEN vagy NEM típusú döntési problémákhoz, ahol a valószínűségi eltérés nem gond.

3) Többosztályú osztályozási veszteségfunkciók:

A többosztályú osztályozás olyan prediktív modellek, amelyekben az adatpontok kettőnél több osztályhoz vannak hozzárendelve. Minden osztályhoz egyedi értéket rendelnek 0 és (Number_of_classes - 1) között. Erősen ajánlott kép- vagy szöveges osztályozási problémák esetén, amikor az egyetlen papír több témával foglalkozhat.

  • Több osztályú kereszt-entrópia

Ebben az esetben a célértékek 0 és n között vannak, azaz (0, 1, 2, 3 … n). Olyan pontszámot számít, amely átlagos különbséget vesz a tényleges és a várható valószínűségi értékek között, és a pontszámot a lehető legjobb pontosság elérése érdekében minimalizálják. A több osztályú kereszt-entrópia az alapértelmezett veszteségfüggvény a szöveges osztályozási problémák esetén.

  • Ritka többosztályú kereszt-entrópia

Egy forró kódolási folyamat megkönnyíti a többosztályú kereszt-entrópiát számos adatpont kezelésekor. A ritka kereszt-entrópia ezt a problémát úgy oldja meg, hogy a hiba kiszámítását elvégzi egy forró kódolás nélkül.

  • Kullback Leibler eltérési veszteség

A KL divergencia veszteség kiszámítja a valószínűség-eloszlás és az alap-eloszlás közötti eltérést, és megállapítja, hogy mennyi információ veszik el bitekben. A kimenet nem negatív érték, amely meghatározza, hogy milyen szoros a két valószínűség-eloszlás. A KL eltérésének valószínűségi szempontból történő leírására a valószínűségi arányt használjuk.

Ebben a cikkben kezdetben megértettük, hogy a veszteségfüggvények hogyan működnek, majd tovább vizsgáltuk a veszteségfüggvények átfogó listáját, a használt esetek példáival együtt. Ennek gyakorlati megértése azonban előnyösebb, ezért próbáljon meg többet olvasni és megvalósítsa. Ez alaposan tisztázza kétségeit.

Ajánlott cikkek

Ez egy útmutató a gépi tanulás veszteségfunkcióihoz. Itt tárgyaljuk, hogyan működnek a veszteségfunkciók, és a veszteségtípusokat a gépi tanulásban. Lehet, hogy megnézi a következő cikkeket is, ha többet szeretne megtudni -

  1. Gépi tanulási módszerek
  2. Bevezetés a gépi tanulásba
  3. Big Data Technologies
  4. Big Data Analytics szoftver
  5. Ismerje meg a hiperparaméter kategóriáit
  6. Gépi tanulás életciklusa A 8 legfontosabb szakasz

Kategória: