Question: Explain the difference between batch gradient descent and stochastic gradient descent.Answer: Batch gradient descent updates the model parameters using the entire dataset, while stochastic gradient descent updates the parameters using one randomly selected data point at a time. Mini-batch gradient descent is a compromise, using a small subset of the data for each update. |
Сохранить для повторения
Добавьте этот элемент в закладки, отметьте как сложный или поместите в набор для повторения.
Войдите, чтобы сохранять закладки, сложные вопросы и наборы для повторения.
Это полезно? Да Нет
Самое полезное по оценкам пользователей:
- Explain the concept of feature engineering.
- What is the purpose of regularization in machine learning?
- Explain the term \'hyperparameter\' in the context of machine learning.
- What is the purpose of the activation function in a neural network?
- Explain the term \'precision\' in the context of classification.