Stochastický gradientný zostup
SGD alebo Stochastický gradientný zostup je algoritmus používaný v strojovom a hlbokom učení na nájdenie parametrov modelu, ktoré najlepšie zodpovedajú predpovedaným a skutočným výstupom. Jeho hlavným cieľom je minimalizácia stratovosti a chybovosti siete. Využíva sa v oblasti trénovania strojového učenia pod dohľadom.
SGD vyberá náhodné trénovacie vzorky na aktualizáciu váh, preto sa môže pokladať za náhodný. Výhodou je to vtedy, keď je dataset veľký, proteže nie vždy je využitý celý pre jednu etapu. Tento algoritmus je vhodný najmä pre situácie v ktorých sú dáta šírené alebo prichádzajúce postupne.
Napíšte nám svoj dotaz
Máte problém tykajúci sa danej témy a potrebujete k nemu riešenie?
Čím konkrétnejšie nám opíšete svoju situáciu alebo potrebu, tým efektívnejšie Vám budeme môcť pomôcť. Tešíme sa na Vašu správu!