Доступно

Машинное обучение: из грязи в Kaggle-князи [Udemy] [Центр digital-профессий ITtensive]

Тема в разделе "Курсы по программированию", создана пользователем floki, 25 мар 2020.

Цена: 899р.-88%
Взнос: 104р.
100%

Основной список: 34 участников

Статус обсуждения:
Комментирование ограничено.
  1. 25 мар 2020
    #1
    floki
    floki ОргОрганизатор

    Складчина: Машинное обучение: из грязи в Kaggle-князи [Udemy] [Центр digital-профессий ITtensive]

    Машинное обучение: из грязи в Kaggle-князи
    Регрессия, классификация, нейросети, ансамбли, обучение с подкреплением, понижение размерности

    Описание
    Большой практический курс по всем аспектам машинного обучения на Python в решении задач соревнования Kaggle. Курс состоит из 3 больших частей:

    Регрессия и предсказание данных
    Рассмотрим все практические аспекты применения линейной регрессии для предсказания числовых показателей энергопотребления ASHRAE.
    • Особенности процесса анализа данных (ETL): загрузка, очистка, объединение наборов данных с pandas.

    • Проведение исследовательского анализа данных для поиска зависимостей: EDA.

    • Использование sklearn для линейной регрессии.

    • Интерполяция и экстраполяция данных.

    • Расчет метрики качества RMSLE для моделей линейной регрессии.

    • Оптимизация линейной регрессии: выбор наилучших параметров и гиперпараметров.

    • Оптимизация потребления памяти при работе с большими данными.

    • Запасные модели линейной регрессии.

    • Ансамбли линейной регрессии для уточнения предсказания.

    • Экспорт и импорт данных, включая промежуточные.
    Кластеризация и классификация
    Отработаем прикладные подходы к кластеризации и классификации данных с помощью машинного обучения для страхового скоринга Prudential.
    • Метрики классификации: точность, полнота, F1, квадратичная каппа и матрица неточностей.

    • Очистка данных и оптимизация потребления памяти.

    • Кластеризация данных и метод ближайших соседей.

    • Простая и иерархическая логистическая регрессия.

    • Метод ближайших соседей и поиск оптимальной модели.

    • Метод опорных векторов: SVM.

    • Дерево принятия решения и случайный лес (бэггинг).

    • XGBosot и градиентный бустинг.

    • LightGBM и CatBoost

    • Ансамбль стекинга для голосования и выбора лучшего результата.
    Нейросети и глубокое обучение
    Разберем сегментацию и классификацию изображений облаков с помощью сверточных, пирамидальных, остаточных и полносвязных нейронных сетей.
    • Метрики точности: оценка F1 и коэффициент Дайса.

    • Очистка данных и обработка изображений.

    • Загрузка и сохранение моделей и данных в HDF5.

    • Двухслойный и многослойный перцептрон.

    • Нейросети со сверточными слоями и слоями подвыборки.

    • Функции активации, инициализация и оптимизаторы нейросетей.

    • Преобразование и дополнение (аугментация) бинарных данных.

    • LeNet, AlexNet, GoogLeNet.

    • VGG, Inception, ResNet, DenseNet.

    • Сегментация изображений с MobileNet, Unet, PSPNet и FPN.

    • Ансамбль нейросетей.
    Для кого этот курс:
    • Аналитики Python, изучающие машинное обучение
    • Программисты больших данных
    • Исследователи больших данных
     
    Последнее редактирование: 6 авг 2020
    1 человеку нравится это.
  2. Последние события

    1. skladchik.com
      Складчина доступна.
      4 апр 2020
    2. skladchik.com
      Взнос составляет 52р.
      4 апр 2020
    3. skladchik.com
      Складчина активна.
      4 апр 2020
    4. bcaacapsing
      bcaacapsing участвует.
      4 апр 2020

    Последние важные события

    1. skladchik.com
      Складчина доступна.
      4 апр 2020
    2. skladchik.com
      Взнос составляет 52р.
      4 апр 2020
    3. skladchik.com
      Складчина активна.
      4 апр 2020
    4. skladchik.com
      Сбор взносов начинается 04.04.2020.
      2 апр 2020
Статус обсуждения:
Комментирование ограничено.