Kategoryczna entropia krzyżowa to funkcja straty używana w zadaniach klasyfikacji wieloklasowej. Są to zadania, w których przykład może należeć tylko do jednej z wielu możliwych kategorii, a model musi zdecydować, w której z nich. Formalnie jest przeznaczony do ilościowego określenia różnicy między dwoma rozkładami prawdopodobieństwa.
Dlaczego używać entropii krzyżowej zamiast MSE?
Po pierwsze, entropia krzyżowa (lub strata softmax, ale entropia krzyżowa działa lepiej) jest lepszą miarą niż MSE dla klasyfikacji, ponieważ granica decyzyjna w zadaniu klasyfikacyjnym jest duża(w porównaniu z regresją). … W przypadku problemów z regresją prawie zawsze używałbyś MSE.
Jaka jest różnica między rzadką entropią krzyżową a kategoryczną entropią krzyżową?
Jedyną różnicą między rzadką kategoryczną entropią krzyżową a kategoryczną entropią krzyżową jest format prawdziwych etykiet. Kiedy mamy problem z pojedynczą etykietą, wieloklasową klasyfikacją, etykiety wykluczają się wzajemnie dla wszystkich danych, co oznacza, że każdy wpis danych może należeć tylko do jednej klasy.
Jak zinterpretować kategoryczną utratę entropii krzyżowej?
Entropia krzyżowa wzrasta, gdy przewidywane prawdopodobieństwo próbki odbiega od rzeczywistej wartości. Dlatego przewidywanie prawdopodobieństwa 0,05, gdy rzeczywista etykieta ma wartość 1, zwiększa stratę entropii krzyżowej. oznacza przewidywane prawdopodobieństwo od 0 do 1 dla tej próbki.
Dlaczego entropia krzyżowa jest dobra?
Ogólnie rzecz biorąc, jak widzimy, entropia krzyżowa jest po prostu sposobem pomiaru prawdopodobieństwa modelu. Entropia krzyżowa jest użyteczna, ponieważ może opisać prawdopodobieństwo modelu i funkcję błędu każdego punktu danych. Można go również użyć do opisania przewidywanego wyniku w porównaniu z wynikiem rzeczywistym.