\(\bigg(\frac{\partial h}{\partial r}\bigg)^2\)
en \(J\)
willen we minimaliseren door \(\theta\)
te optimaliseren. We gebruiken een gradient descent methode en bepalen dus de gradiënt van de functie \(\bigg(\frac{\partial h}{\partial r}\bigg)^2 + J\)
: met name \(\frac{\partial \bigg(\frac{\partial h}{\partial r}\bigg)^2 + J}{\partial \theta}\)
.Die is
\(2 \frac{\partial^2 h}{\partial \theta \partial r} \frac{\partial h}{\partial r} + \frac{\partial J}{\partial \theta}\)
Dit is hetzelfde als
\(2 \frac{\partial^2 h}{\partial r ^2} \frac{\partial h}{\partial \theta} + \frac{\partial J}{\partial \theta}\)
Dit is hetzelfde als
\(2 \frac{\partial^2 h}{\partial r ^2} \frac{\partial h}{\partial \theta} + \frac{\partial J}{\partial h} \frac{\partial h}{\partial \theta}\)
Dit is hetzelfde als
\( \bigg(2 \frac{\partial^2 h}{\partial r ^2} + \frac{\partial J}{\partial h} \bigg) \frac{\partial h}{\partial \theta}\)
Zijn er hier stappen die niet goed zijn of die je niet zomaar mag zetten?