Russian Courses

🎙️ Курсы на английском — смотрите с русской или оригинальной озвучкой и субтитрами

🎓

Единая подписка на два сервиса

Оформите PRO подписку на сайте Learn Free Courses и получите доступ ко всем премиум курсам здесь + безлимитный перевод видео на Udemy через расширение Udemy Translator.

Оформить подписку

Что вы получаете:

  • Все премиум курсы с русской озвучкой
  • Материалы, субтитры, конспекты
  • Безлимитный перевод видео (Udemy Translator PRO)
  • Одна подписка — два сервиса

📋 Как активировать:

  1. Оформите подписку на сайте Learn Free Courses
  2. Скопируйте API ключ из профиля на том сайте
  3. Вставьте ключ в настройках профиля здесь
Бесплатно

Математический анализ для машинного обучения и науки о данных (Курс 2)

Оригинал: Course 2 - Calculus for Machine Learning and Data Science

4 ч 21 мин Машинное обучение 60 уроков Уроки на русском языке 🎤 Новый перевод

Скачать курс по Машинное обучение. Математический анализ для машинного обучения и науки о данных (Курс 2)

Нужен архив курса целиком?

Мы отправим ссылку на полный архив с оригиналом, переводом и материалами. Просто напишите администратору info@russiancourses.net и укажите, что именно нужно (можем поделиться вариантами отдельно).

Пропущены номера уроков?

Если в нумерации есть паузы, значит часть занятий текстовые или в виде файлов. Их можно найти в разделе «Материалы курса»: скачайте архив, чтобы получить все конспекты и дополнительные задания.

Превью: 1.1. Введение в курс

Превью: 1.1. Введение в курс

Это первый урок бесплатного курса "Математический анализ для машинного обучения и науки о данных (Курс 2)". Зарегистрируйтесь для доступа ко всем 60 урокам курса.

Раздел

О курсе

4 ч 21 мин 60 уроков Машинное обучение
Освойте основы математического анализа, лежащие в основе алгоритмов машинного обучения 📈

Calculus for Machine Learning and Data Science — это второй курс из программы Mathematics for Machine Learning and Data Science, созданной DeepLearning.AI под руководством Луиса Серрано. Курс объясняет, как применять концепции анализа — производные, градиенты и оптимизацию — в машинном обучении на практике с помощью Python.
Вы научитесь:

  • 🔢 Аналитически оптимизировать функции, используемые в машинном обучении, с помощью свойств производных и градиентов
  • ⚙️ Приближённо оптимизировать функции, применяя градиентный спуск и метод Ньютона
  • 📊 Визуально интерпретировать процесс дифференцирования различных типов функций
  • 🧠 Выполнять градиентный спуск в нейронных сетях с разными функциями активации и стоимости
Почему это важно:

Без глубокого понимания основ анализа невозможно эффективно обучать модели. Производные и градиенты — ключ к тому, как алгоритмы обучаются на данных и находят оптимальные решения. Этот курс поможет вам интуитивно понять математическую механику, стоящую за процессом обучения моделей, и применять её на практике.
Вы приобретёте навыки в:

  • 🧮 Оптимизации функций
  • 📈 Понимании градиентных методов и их геометрической интерпретации
  • 🐍 Программировании и математическом моделировании на Python
  • 🔍 Анализе поведения нейронных сетей и их функций потерь
Курс включает:

  • 🎓 3 модуля обучения с обновлённым контентом 2024 года
  • 💻 Практические лабораторные задания на Python
  • 📉 Визуализации, помогающие интуитивно понять, как работает оптимизация
  • 📜 Сертификат, подтверждающий ваши навыки в области прикладной математики
Рекомендуется: базовые знания школьной математики (функции, алгебра) и основы программирования (циклы, функции, условия, структуры данных). Все задания выполняются в Python, при этом курс знакомит с ключевыми библиотеками машинного обучения.
Итог: по завершении курса вы сможете проектировать и оптимизировать функции для моделей машинного обучения, понимать математические принципы обучения нейросетей и уверенно применять аналитические методы для улучшения производительности алгоритмов.

Сводка

Информация о курсе

Категория

Машинное обучение

Длительность

261 мин

  • 1. 1.1. Введение в курс

    Оригинал: 1.1. Course Introduction

    RU
  • 2. 1.2. Заметка о программировании

    Оригинал: 1.2. A Note on Programming Experience

    RU
  • 3. 1.4. Мотивация к изучению Machine Learning

    Оригинал: 1.4. Machine Learning Motivation

    RU
  • 4. 1.5. Введение в Деривативы

    Оригинал: 1.5. Introduction to Derivatives

    RU
  • 5. 1.6. Производные и касательные

    Оригинал: 1.6. Derivatives and Tangents

    RU
  • 6. 1.7. Наклоны, Максимумы и Минимумы

    Оригинал: 1.7. Slopes, Maxima, And Minima

    RU
  • 7. 1.10. Обозначение производной

    Оригинал: 1.10. Derivative Notation

    RU
  • 8. 1.11. Некоторые общие производные и прямые

    Оригинал: 1.11. Some Common Derivatives Lines

    RU
  • 9. 1.12. Некоторые общие производные и квадратичные функции

    Оригинал: 1.12. Some Common Derivatives Quadratics

    RU
  • 10. 1.13. Некоторые общие производные и многочлены высокой степени

    Оригинал: 1.13. Some Common Derivatives Higher Degree Polynomials

    RU
  • 11. 1.14. Некоторые общие производные и другие степени функций

    Оригинал: 1.14. Some Common Derivatives Other Power Functions

    RU
  • 12. 1.16. Обратная функция и её производная

    Оригинал: 1.16. The Inverse Function and Its Derivative

    RU
  • 13. 1.17. Производная тригонометрических функций

    Оригинал: 1.17. Derivative Of Trigonometric Functions

    RU
  • 14. 1.18. Суть экспоненциальной функции E

    Оригинал: 1.18. Meaning Of The Exponential E

    RU
  • 15. 1.19. Производная e в степени x

    Оригинал: 1.19. The Derivative Of Ex

    RU
  • 16. 1.20. Производная от логарифма X

    Оригинал: 1.20. The Derivative of Log X

    RU
  • 17. 1.21. Существование производной

    Оригинал: 1.21. Existence Of The Derivative

    RU
  • 18. 1.22. Свойства производной и умножение на скаляр

    Оригинал: 1.22. Properties Of The Derivative Multiplication By Scalars

    RU
  • 19. 1.23. Свойства производной: правило суммы

    Оригинал: 1.23. Properties of the Derivative: The Sum Rule

    RU
  • 20. 1.24. Свойства производной: правило произведения

    Оригинал: 1.24. Properties of the Derivative: The Product Rule

    RU
  • 21. 1.25. Свойства производной и правило цепочки

    Оригинал: 1.25. Properties Of The Derivative The Chain Rule

    RU
  • 22. 1.29. Введение в оптимизацию

    Оригинал: 1.29. Introduction to Optimization

    RU
  • 23. 1.30. Оптимизация квадратного отклонения: задача одной линии электропередачи

    Оригинал: 1.30. Optimization of Squared Loss The One Powerline Problem

    RU
  • 24. 1.31. Оптимизация квадратных потерь: задача трёх линий электропередач

    Оригинал: 1.31. Optimization Of Squared Loss The Three Powerline Problem

    RU
  • 25. 1.31. Оптимизация квадратичных потерь: задача двух линий электропередач

    Оригинал: 1.31. Optimization of Squared Loss: The Two Powerline Problem

    RU
  • 26. 1.32. Оптимизация Log Loss. Часть 1

    Оригинал: 1.32. Optimization Of Log Loss Part 1

    RU
  • 27. 1.33. Оптимизация Log Loss часть 2

    Оригинал: 1.33. Optimization Of Log Loss Part 2

    RU
  • 28. 1.38. Заключение

    Оригинал: 1.38. Conclusion

    RU
  • 29. 2.1. Касательные плоскости

    Оригинал: 2.1. Tangent Planes

    RU
  • 30. 2.2. Частные производные Часть 1

    Оригинал: 2.2. Partial Derivatives Part 1

    RU
  • 31. 2.3. Частные производные, часть 2

    Оригинал: 2.3. Partial Derivatives Part 2

    RU
  • 32. 2.4. Градиенты

    Оригинал: 2.4. Gradients

    RU
  • 33. 2.5. Градиенты и Максима Минима

    Оригинал: 2.5. Gradients and Maxima Minima

    RU
  • 34. 2.6. Оптимизация с градиентами: пример

    Оригинал: 2.6. Optimization With Gradients An Example

    RU
  • 35. 2.7. Оптимизация с помощью градиентов: аналитический метод

    Оригинал: 2.7. Optimization With Gradients Analytical Method

    RU
  • 36. 2.10. Оптимизация с помощью градиентного спуска в одномерном случае. Часть 1

    Оригинал: 2.10. Optimization Using Gradient Descent In One Variable Part 1

    RU
  • 37. 2.11. Оптимизация с использованием Gradient Descent для одной переменной, часть 2

    Оригинал: 2.11. Optimization Using Gradient Descent In One Variable Part 2

    RU
  • 38. 2.12. Оптимизация с использованием градиентного спуска в одной переменной Часть 3

    Оригинал: 2.12. Optimization Using Gradient Descent In One Variable Part 3

    RU
  • 39. 2.14. Оптимизация с помощью градиентного спуска в двух переменных Часть 1

    Оригинал: 2.14. Optimization Using Gradient Descent In Two Variables Part 1

    RU
  • 40. 2.15. Оптимизация методом градиентного спуска для двух переменных. Часть 2

    Оригинал: 2.15. Optimization Using Gradient Descent in Two Variables Part 2

    RU
  • 41. 2.17. Оптимизация с помощью градиентного спуска и метода наименьших квадратов

    Оригинал: 2.17. Optimization Using Gradient Descent Least Squares

    RU
  • 42. 2.18. Оптимизация с использованием градиентного спуска. МНК с множественными наблюдениями

    Оригинал: 2.18. Optimization Using Gradient Descent Least Squares With Multiple Observations

    RU
  • 43. 2.21. Заключение

    Оригинал: 2.21. Conclusion

    RU
  • 44. 3.1. Регрессия с Перцептроном

    Оригинал: 3.1. Regression With A Perceptron

    RU
  • 45. 3.2. Регрессия с функцией потерь персептрона

    Оригинал: 3.2. Regression With A Perceptron Loss Function

    RU
  • 46. 3.3. Регрессия с Перцептроном и Градиентным Спуском

    Оригинал: 3.3. Regression With A Perceptron Gradient Descent

    RU
  • 47. 3.5. Классификация с Перцептроном

    Оригинал: 3.5. Classification With A Perceptron

    RU
  • 48. 3.6. Классификация с перцептроном. Сигмоидальная функция

    Оригинал: 3.6. Classification With a Perceptron. The Sigmoid Function

    RU
  • 49. 3.7. Классификация с перцептроном и градиентным спуском

    Оригинал: 3.7. Classification With A Perceptron Gradient Descent

    RU
  • 50. 3.8. Классификация с перцептроном, вычисление производных

    Оригинал: 3.8. Classification With A Perceptron Calculating The Derivatives

    RU
  • 51. 3.10. Классификация с нейронной сетью

    Оригинал: 3.10. Classification With A Neural Network

    RU
  • 52. 3.11. Классификация с использованием нейронной сети и минимизация Log Loss

    Оригинал: 3.11. Classification With A Neural Network Minimizing Log Loss

    RU
  • 53. 3.12. Градиентный спуск и обратное распространение

    Оригинал: 3.12. Gradient Descent And Backpropagation

    RU
  • 54. 3.14. Метод Ньютона

    Оригинал: 3.14. Newtons Method

    RU
  • 55. 3.15. Метод Ньютона: пример

    Оригинал: 3.15. Newton's Method An Example

    RU
  • 56. 3.16. Вторая производная

    Оригинал: 3.16. The Second Derivative

    RU
  • 57. 3.18. Гессиан

    Оригинал: 3.18. The Hessian

    RU
  • 58. 3.19. Гессианы и выпуклость

    Оригинал: 3.19. Hessians and Concavity

    RU
  • 59. 3.20. Метод Ньютона для переменных

    Оригинал: 3.20. Newton's Method For Variables

    RU
  • 60. 3.25. Заключение

    Оригинал: 3.25. Conclusion

    RU