Математический анализ для машинного обучения и науки о данных (Курс 2)
Оригинал: Course 2 - Calculus for Machine Learning and Data Science
Скачать курс по Машинное обучение. Математический анализ для машинного обучения и науки о данных (Курс 2)
Нужен архив курса целиком?
Мы отправим ссылку на полный архив с оригиналом, переводом и материалами. Просто напишите администратору info@russiancourses.net и укажите, что именно нужно (можем поделиться вариантами отдельно).
Пропущены номера уроков?
Если в нумерации есть паузы, значит часть занятий текстовые или в виде файлов. Их можно найти в разделе «Материалы курса»: скачайте архив, чтобы получить все конспекты и дополнительные задания.
Превью: 1.1. Введение в курс
Превью: 1.1. Введение в курс
Это первый урок бесплатного курса "Математический анализ для машинного обучения и науки о данных (Курс 2)". Зарегистрируйтесь для доступа ко всем 60 урокам курса.
Раздел
О курсе
- 🔢 Аналитически оптимизировать функции, используемые в машинном обучении, с помощью свойств производных и градиентов
- ⚙️ Приближённо оптимизировать функции, применяя градиентный спуск и метод Ньютона
- 📊 Визуально интерпретировать процесс дифференцирования различных типов функций
- 🧠 Выполнять градиентный спуск в нейронных сетях с разными функциями активации и стоимости
- 🧮 Оптимизации функций
- 📈 Понимании градиентных методов и их геометрической интерпретации
- 🐍 Программировании и математическом моделировании на Python
- 🔍 Анализе поведения нейронных сетей и их функций потерь
- 🎓 3 модуля обучения с обновлённым контентом 2024 года
- 💻 Практические лабораторные задания на Python
- 📉 Визуализации, помогающие интуитивно понять, как работает оптимизация
- 📜 Сертификат, подтверждающий ваши навыки в области прикладной математики
Сводка
Информация о курсе
materials.zip
-
1. 1.1. Введение в курс
Оригинал: 1.1. Course Introduction
RU -
2. 1.2. Заметка о программировании
Оригинал: 1.2. A Note on Programming Experience
RU -
3. 1.4. Мотивация к изучению Machine Learning
Оригинал: 1.4. Machine Learning Motivation
RU -
4. 1.5. Введение в Деривативы
Оригинал: 1.5. Introduction to Derivatives
RU -
5. 1.6. Производные и касательные
Оригинал: 1.6. Derivatives and Tangents
RU -
6. 1.7. Наклоны, Максимумы и Минимумы
Оригинал: 1.7. Slopes, Maxima, And Minima
RU -
7. 1.10. Обозначение производной
Оригинал: 1.10. Derivative Notation
RU -
8. 1.11. Некоторые общие производные и прямые
Оригинал: 1.11. Some Common Derivatives Lines
RU -
9. 1.12. Некоторые общие производные и квадратичные функции
Оригинал: 1.12. Some Common Derivatives Quadratics
RU -
10. 1.13. Некоторые общие производные и многочлены высокой степени
Оригинал: 1.13. Some Common Derivatives Higher Degree Polynomials
RU -
11. 1.14. Некоторые общие производные и другие степени функций
Оригинал: 1.14. Some Common Derivatives Other Power Functions
RU -
12. 1.16. Обратная функция и её производная
Оригинал: 1.16. The Inverse Function and Its Derivative
RU -
13. 1.17. Производная тригонометрических функций
Оригинал: 1.17. Derivative Of Trigonometric Functions
RU -
14. 1.18. Суть экспоненциальной функции E
Оригинал: 1.18. Meaning Of The Exponential E
RU -
15. 1.19. Производная e в степени x
Оригинал: 1.19. The Derivative Of Ex
RU -
16. 1.20. Производная от логарифма X
Оригинал: 1.20. The Derivative of Log X
RU -
17. 1.21. Существование производной
Оригинал: 1.21. Existence Of The Derivative
RU -
18. 1.22. Свойства производной и умножение на скаляр
Оригинал: 1.22. Properties Of The Derivative Multiplication By Scalars
RU -
19. 1.23. Свойства производной: правило суммы
Оригинал: 1.23. Properties of the Derivative: The Sum Rule
RU -
20. 1.24. Свойства производной: правило произведения
Оригинал: 1.24. Properties of the Derivative: The Product Rule
RU -
21. 1.25. Свойства производной и правило цепочки
Оригинал: 1.25. Properties Of The Derivative The Chain Rule
RU -
22. 1.29. Введение в оптимизацию
Оригинал: 1.29. Introduction to Optimization
RU -
23. 1.30. Оптимизация квадратного отклонения: задача одной линии электропередачи
Оригинал: 1.30. Optimization of Squared Loss The One Powerline Problem
RU -
24. 1.31. Оптимизация квадратных потерь: задача трёх линий электропередач
Оригинал: 1.31. Optimization Of Squared Loss The Three Powerline Problem
RU -
25. 1.31. Оптимизация квадратичных потерь: задача двух линий электропередач
Оригинал: 1.31. Optimization of Squared Loss: The Two Powerline Problem
RU -
26. 1.32. Оптимизация Log Loss. Часть 1
Оригинал: 1.32. Optimization Of Log Loss Part 1
RU -
27. 1.33. Оптимизация Log Loss часть 2
Оригинал: 1.33. Optimization Of Log Loss Part 2
RU -
28. 1.38. Заключение
Оригинал: 1.38. Conclusion
RU -
29. 2.1. Касательные плоскости
Оригинал: 2.1. Tangent Planes
RU -
30. 2.2. Частные производные Часть 1
Оригинал: 2.2. Partial Derivatives Part 1
RU -
31. 2.3. Частные производные, часть 2
Оригинал: 2.3. Partial Derivatives Part 2
RU -
32. 2.4. Градиенты
Оригинал: 2.4. Gradients
RU -
33. 2.5. Градиенты и Максима Минима
Оригинал: 2.5. Gradients and Maxima Minima
RU -
34. 2.6. Оптимизация с градиентами: пример
Оригинал: 2.6. Optimization With Gradients An Example
RU -
35. 2.7. Оптимизация с помощью градиентов: аналитический метод
Оригинал: 2.7. Optimization With Gradients Analytical Method
RU -
36. 2.10. Оптимизация с помощью градиентного спуска в одномерном случае. Часть 1
Оригинал: 2.10. Optimization Using Gradient Descent In One Variable Part 1
RU -
37. 2.11. Оптимизация с использованием Gradient Descent для одной переменной, часть 2
Оригинал: 2.11. Optimization Using Gradient Descent In One Variable Part 2
RU -
38. 2.12. Оптимизация с использованием градиентного спуска в одной переменной Часть 3
Оригинал: 2.12. Optimization Using Gradient Descent In One Variable Part 3
RU -
39. 2.14. Оптимизация с помощью градиентного спуска в двух переменных Часть 1
Оригинал: 2.14. Optimization Using Gradient Descent In Two Variables Part 1
RU -
40. 2.15. Оптимизация методом градиентного спуска для двух переменных. Часть 2
Оригинал: 2.15. Optimization Using Gradient Descent in Two Variables Part 2
RU -
41. 2.17. Оптимизация с помощью градиентного спуска и метода наименьших квадратов
Оригинал: 2.17. Optimization Using Gradient Descent Least Squares
RU -
42. 2.18. Оптимизация с использованием градиентного спуска. МНК с множественными наблюдениями
Оригинал: 2.18. Optimization Using Gradient Descent Least Squares With Multiple Observations
RU -
43. 2.21. Заключение
Оригинал: 2.21. Conclusion
RU -
44. 3.1. Регрессия с Перцептроном
Оригинал: 3.1. Regression With A Perceptron
RU -
45. 3.2. Регрессия с функцией потерь персептрона
Оригинал: 3.2. Regression With A Perceptron Loss Function
RU -
46. 3.3. Регрессия с Перцептроном и Градиентным Спуском
Оригинал: 3.3. Regression With A Perceptron Gradient Descent
RU -
47. 3.5. Классификация с Перцептроном
Оригинал: 3.5. Classification With A Perceptron
RU -
48. 3.6. Классификация с перцептроном. Сигмоидальная функция
Оригинал: 3.6. Classification With a Perceptron. The Sigmoid Function
RU -
49. 3.7. Классификация с перцептроном и градиентным спуском
Оригинал: 3.7. Classification With A Perceptron Gradient Descent
RU -
50. 3.8. Классификация с перцептроном, вычисление производных
Оригинал: 3.8. Classification With A Perceptron Calculating The Derivatives
RU -
51. 3.10. Классификация с нейронной сетью
Оригинал: 3.10. Classification With A Neural Network
RU -
52. 3.11. Классификация с использованием нейронной сети и минимизация Log Loss
Оригинал: 3.11. Classification With A Neural Network Minimizing Log Loss
RU -
53. 3.12. Градиентный спуск и обратное распространение
Оригинал: 3.12. Gradient Descent And Backpropagation
RU -
54. 3.14. Метод Ньютона
Оригинал: 3.14. Newtons Method
RU -
55. 3.15. Метод Ньютона: пример
Оригинал: 3.15. Newton's Method An Example
RU -
56. 3.16. Вторая производная
Оригинал: 3.16. The Second Derivative
RU -
57. 3.18. Гессиан
Оригинал: 3.18. The Hessian
RU -
58. 3.19. Гессианы и выпуклость
Оригинал: 3.19. Hessians and Concavity
RU -
59. 3.20. Метод Ньютона для переменных
Оригинал: 3.20. Newton's Method For Variables
RU -
60. 3.25. Заключение
Оригинал: 3.25. Conclusion
RU