Stručně řečeno, nemůžete provádět zpětnou propagaci, pokud nemáte objektivní funkci. Nemůžete mít objektivní funkci, pokud nemáte míru mezi předpokládanou hodnotou a označenou hodnotou (aktuální nebo tréninková data). Abyste tedy dosáhli „učení bez dozoru“, možná budete mít možnost vypočítat gradient.
Jaká jsou omezení zpětného šíření?
Nevýhody algoritmu zpětného šíření:
Při řešení konkrétního problému se spoléhá na vstup. Citlivé na složitá/šumová data. Potřebuje deriváty aktivačních funkcí pro dobu návrhu sítě.
Jak opravíte zpětné šíření?
Proces zpětné propagace v hluboké neuronové síti
- Zadejte hodnoty. X1=0,05. …
- Počáteční hmotnost. W1=0,15 w5=0,40. …
- Hodnoty zkreslení. b1=0,35 b2=0,60.
- Cílové hodnoty. T1=0,01. …
- Přesměrování. Abychom našli hodnotu H1, nejprve vynásobíme vstupní hodnotu z vah jako. …
- Zpětný průchod na výstupní vrstvě. …
- Zpětný průchod ve skryté vrstvě.
Je zpětná propagace efektivní?
Zpětná propagace je efektivní, takže je možné trénovat vícevrstvé sítě obsahující mnoho neuronů a zároveň aktualizovat váhy, aby se minimalizovaly ztráty.
Jaký problém řeší backpropagation při práci s neuronovými sítěmi?
Při montáži neuronové sítě počítá backpropagation gradientztrátová funkce s ohledem na váhy sítě pro jeden příklad vstupu a výstupu, a dělá to efektivně, na rozdíl od naivního přímého výpočtu gradientu s ohledem na každou váhu jednotlivě.