Применение нейросетевых моделей в обучении с подкреплением

Бесплатный вебинар, приуроченный к старту курса «Reinforcement Learning»

13 июня | 20:00 МСК
Открытый урок курса
Reinforcement Learning
как применять нейросети для решения задач обучения с подкреплением.
На вебинаре разберем:
Этот вебинар будет полезен
ML инженерам, аналитикам данных, аналитикам-разработчиков
Узнаете в чем проявляются недостатки классических алгоритмов и как нейросети помогают их решить. Посмотрим как реализовать алгоритм Q-learning на базе нейросети и какие возможности перед нами открывает это решение. Поговорим о различных видах функции потерь и сформируем реализацию для алгоритма DQN (Deep Q-learning). В заключении расмотрим какие дополнительные условия предъявляются к архитектуре нейросети, моделироующей поведение агента в алгоритме DQN.
В результате вебинара:
Спикер
Более 15 лет занимался прикладной математикой и мат. моделированием в НИИгазэкономика ПАО Газпром.

Руководил командой 20+ человек, решающей прикладные задачи, вывод готовых моделей в продакшн и поддержку решений у клиента.

Разрабатывал модель развития и прогнозирования технического состояния газотранспортной системы ПАО Газпром.

Образование:
кандидат наук физико-математических наук, Теоретическая физика, Московский государственный университет (МГУ)

Otus Certified Educator
Игорь Стурейко
Все участники вебинара получат
Запись открытого вебинара
Бесплатный урок
курса
Сертификат со скидкой на покупку курса
Запишитесь на мероприятие
И мы пришлем вам напоминание перед стартом вебинара, чтобы ничего не пропустить
13 июня | 20:00 МСК