W skrócie, nie możesz przeprowadzić wstecznej propagacji błędów, jeśli nie masz funkcji celu. Nie możesz mieć funkcji celu, jeśli nie masz miary między wartością przewidywaną a wartością oznaczoną (rzeczywistą lub uczącą). Tak więc, aby osiągnąć „uczenie się bez nadzoru”, możesz zrezygnować z możliwości obliczania gradientu.
Jakie są ograniczenia propagacji wstecznej?
Wady algorytmu propagacji wstecznej:
Opiera się na danych wejściowych do wykonania określonego problemu. Wrażliwe na złożone/zaszumione dane. Potrzebuje pochodnych funkcji aktywacji na czas projektowania sieci.
Jak naprawić propagację wsteczną?
Proces wstecznej propagacji w głębokiej sieci neuronowej
- Wprowadź wartości. X1=0,05. …
- Waga początkowa. W1=0,15 w5=0,40. …
- Wartości stronniczości. b1=0,35 b2=0,60.
- Wartości docelowe. T1=0,01. …
- Przejście do przodu. Aby znaleźć wartość H1 najpierw mnożymy wartość wejściową z wag jako. …
- Przejście wstecz w warstwie wyjściowej. …
- Przejście wstecz w warstwie ukrytej.
Czy propagacja wsteczna jest efektywna?
Propagacja wsteczna jest wydajna, dzięki czemu możliwe jest trenowanie sieci wielowarstwowych zawierających wiele neuronów przy jednoczesnym aktualizowaniu wag w celu zminimalizowania strat.
Jaki problem rozwiązuje propagacja wsteczna podczas pracy z sieciami neuronowymi?
Podczas dopasowywania sieci neuronowej obliczana jest propagacja wsteczna gradientfunkcja straty w odniesieniu do wag sieci dla pojedynczego przykładu wejścia-wyjścia i robi to wydajnie, w przeciwieństwie do naiwnego bezpośredniego obliczenia gradientu w odniesieniu do każdej wagi indywidualnie.