Kategoriese kruisentropie is 'n verliesfunksie wat in multi-klas klassifikasie take gebruik word. Dit is take waar 'n voorbeeld slegs aan een uit baie moontlike kategorieë kan behoort, en die model moet besluit watter een. Formeel is dit ontwerp om die verskil tussen twee waarskynlikheidsverdelings te kwantifiseer.
Waarom gebruik kruisentropie in plaas van MSE?
Eerste, kruis-entropie (of softmax-verlies, maar kruis-entropie werk beter) is 'n beter maatstaf as MSE vir klassifikasie, omdat die besluitgrens in 'n klassifikasietaak groot is(in vergelyking met regressie). … Vir regressieprobleme sal jy amper altyd die MSE gebruik.
Wat is die verskil tussen yl kruisentropie en kategoriese kruisentropie?
Die enigste verskil tussen yl kategoriese kruisentropie en kategoriese kruisentropie is die formaat van ware etikette. Wanneer ons 'n enkel-etiket, multi-klas klassifikasie probleem het, is die etikette wedersyds eksklusief vir elke data, wat beteken dat elke data-invoer net aan een klas kan behoort.
Hoe interpreteer jy kategoriese kruisentropieverlies?
Kruisentropie neem toe soos die voorspelde waarskynlikheid van 'n steekproef van die werklike waarde afwyk. Daarom, om 'n waarskynlikheid van 0.05 te voorspel wanneer die werklike etiket 'n waarde van 1 het, verhoog die kruisentropieverlies. dui die voorspelde waarskynlikheid tussen 0 en 1 vir daardie steekproef aan.
Waarom is kruisentropie goed?
Algehele, soos ons kan sien, is die kruisentropie bloot 'n manier om die waarskynlikheid van 'n model te meet. Die kruisentropie is nuttig aangesien dit kan beskryf hoe waarskynlik 'n model is en die foutfunksie van elke datapunt. Dit kan ook gebruik word om 'n voorspelde uitkoms te beskryf in vergelyking met die ware uitkoms.