Мы используем Cookies Этот веб-сайт использует cookie-файлы, чтобы предлагать вам наиболее актуальную информацию. Просматривая этот веб-сайт, Вы принимаете cookie-файлы.
L'algorisme del gradient estocàstic (amb acrònim anglès SGD), també conegut per gradient descendent incremental, és un mètode iteractiu per a optimitzar una funció objectiu derivable.