Formule
Le notebook montre la séquence forward_t → log_loss_t → loss.backward(). Sans regarder, expliquer ce que fait précisément backward() au moment où on l'appelle, et où les gradients sont stockés ensuite (quel attribut de quel objet).
Le notebook montre la séquence forward_t → log_loss_t → loss.backward(). Sans regarder, expliquer ce que fait précisément backward() au moment où on l'appelle, et où les gradients sont stockés ensuite (quel attribut de quel objet).