Машинное обучение. Наука и искусство построения алгоритмов, которые извлекают знания из данных

Флах Питер

Код товара: 2008445
(0 оценок)Оценить
ОтзывНаписать отзыв
ВопросЗадать вопрос
1 / 5
PDF
2 357
3 625
Доставим в
г. Москва
Планируемая дата
2 июня (Вс)
Курьером
Л-Пост
бесплатно от 10 000 ₽
В пункт выдачи
от 155 ₽
бесплатно от 10 000 ₽
Точная стоимость доставки рассчитывается при оформлении заказа
Издательство:
Оригинальное название:
Machine Learning. The Art and Science of Algorithms that Make Sense of Data
Год издания:
2015 г.
Переводчик:

Описание

Характеристики

Перед вами один из самых интересных учебников по машинному обучению - разделу искусственного интеллекта, изучающего методы построения моделей, способных обучаться, и алгоритмов для их построения. Автор воздал должное невероятному богатству предмета и не упустил из вида объединяющих принципов. Читатель с первых страниц погружается в машинное обучение в действии, но без не нужных на первых порах технических деталей. По мере изучения предмета тщательно подобранные примеры, сопровождаемые иллюстрациями, постепенно усложняются.
В книге описан широкий круг логических, геометрических и статистических моделей, затрагиваются и такие находящиеся на переднем крае науки темы, как матричная факторизация и анализ РХП. Особое внимание уделено важнейшей роли признаков. Устоявшаяся терминология дополняется введением в рассмотрение новых полезных концепций. В конце каждой главы приводятся ссылки на дополнительную литературу с авторскими комментариями. Книга ясно написана и хорошо организована. Начав с основ, автор умело ведет читателя, знакомя его с полезными фактами и подробно описывая ряд методов машинного обучения. Приводится также псевдокод ключевых алгоритмов. Благодаря всему этому книга задает новый стандарт изучения такой сложной дисциплины как машинное обучение.
количество томов
1
количество страниц
400 стр.
переплет
Твёрдый переплёт
размеры
245x172x25 мм
страна изготовления
Россия
цвет
Синий
тип бумаги
офсетная (60-220 г/м2)
формат
70x100/16 (170x240 мм)
ISBN
978-5-97060-273-7
стандарт
возрастная категория
18+ (нет данных)
вес
код в Майшоп
2008445
язык
русский

Содержание

Предисловие
Как читать эту книгу
Благодарности
Пролог: пример машинного обучения
1. Ингредиенты машинного обучения
1.1 Задачи: проблемы, решаемые методами
машинного обучения
В поисках структуры
Оценка качества решения задачи
1.2. Модели: результат машинного обучения
Геометрические модели
Вероятностные модели
Логические модели
Группировка и ранжирование
1.3 Признаки: рабочая лошадка машинного
обучения
Два способа использования признаков
Отбор и преобразование признаков
Взаимодействие между признаками
1.4 Итоги и перспективы
Что будет в книге дальше
2 Бинарная классификация и родственные задачи
2.1 Классификация
Оценка качества классификации
Наглядное представление качества
классификации
2.2 Оценивание и ранжирование
Оценка и визуализация качества ранжирования
Преобразование ранжировщика в классификатор
2.3. Оценивание вероятностей классов
Качество оценивания вероятностей классов
Преобразование ранжировщиков в оценки
вероятностей классов
2.4 Бинарная классификация и родственные
задачи: итоги
и дополнительная литература
3 За пределами бинарной классификации
3.1 Когда классов больше двух
Многоклассовая классификация
Многоклассовые оценки и вероятности
3.2 Регрессия
3.3 Обучение без учителя и дескриптивные
модели
Прогностическая и дескриптивная кластеризация
Другие дескриптивные модели
3.4 За пределами бинарной классификации: итоги и
литература
для дальнейшего чтения
4 Концептуальное обучение
4.1 Пространство гипотез
Наименьшее обобщение
Внутренняя дизъюнкция
4.2 Пути в пространстве гипотез
Наиболее общие непротиворечивые гипотезы
Замкнутые концепты
4.3. За пределами конъюнктивных концептов
Применение логики первого порядка
4.4 Обучаемость
4.5 Концептуальное обучение: итоги и литература
для дальнейшего чтения
5 Древовидные модели
5.1 Решающие деревья
5.2 Деревья ранжирования и оценивания
вероятностей
Чувствительность к асимметричному
распределению по классам
5.3 Обучение деревьев как уменьшение дисперсии
Деревья регрессии
Кластеризующие деревья
5.4 Древовидные модели: итоги и литература для
дальнейшего чтения
6. Модели на основе правил
6.1. Обучение упорядоченных списков правил
Списки правил для ранжирования и оценивания
вероятностей
6.2. Обучение неупорядоченных множеств правил
Применение множеств правил для ранжирования и
оценивания
вероятностей
Более пристальный взгляд на перекрытие правил
6.3. Обучение дескриптивных моделей на основе
правил
Обучение правил для выявления подгрупп
Добыча ассоциативных правил
6.4 Обучение правил первого порядка
6.5 Модели на основе правил: итоги и литература
для дальнейшего чтения
7. Линейные модели
7.1. Метод наименьших квадратов
Многомерная линейная регрессия
Регуляризованная регрессия
Применение регрессии по методу наименьших
квадратов к задаче
классификации
7.2 Перцептрон
7.3 Метод опорных векторов
Метод опорных векторов с мягким зазором
7.4 Получение вероятностей от линейных
классификаторов
7.5 За пределами линейности - ядерные методы
7.6 Линейные модели: итоги и литература для
дальнейшего чтения
8. Метрические модели
8.1 Так много дорог
8.2 Соседи и эталоны
8.3 Классификация по ближайшему соседу
8.4 Метрическая кластеризация
Алгоритм K средних
Кластеризация вокруг медоидов
Силуэты
8.5 Иерархическая кластеризация
8.6 От ядер к расстояниям
8.7 Метрические модели: итоги и литература для
дальнейшего чтения
9. Вероятностные модели
9.1 Нормальное распределение и его
геометрические интерпретации
9.2 Вероятностные модели для категориальных
данных
Использование наивной байесовской модели для
классификации
Обучение наивной байесовской модели
9.3 Дискриминантное обучение путем оптимизации
условного правдоподобия
9.4 Вероятностные модели со скрытыми
переменными
EM-алгоритм
Гауссовы смесовые модели
9.5 Модели на основе сжатия
9.6 Вероятностные модели: итоги и литература
для дальнейшего чтения
10. Признаки
10.1 Виды признаков
Вычисления с признаками
Категориальные, порядковые и количественные
признаки
Структурированные признаки
10.2. Преобразования признаков
Задание порога и дискретизация
Нормировка и калибровка
Неполные признаки
10.3. Конструирование и отбор признаков
Преобразование и разложение матриц
10.4. Признак: итоги и литература для
дальнейшего чтения
11Ансамбли моделей
11.1 Баггинг и случайные леса
11.2 Усиление
Обучение усиленных правил
11.3. Карта ансамблевого ландшафта
Смещение, дисперсия и зазоры
Другие ансамблевые методы
Метаобучение
11.4 Ансамбли моделей: итоги и литература для
дальнейшего чтения
12 . Эксперименты в машинном обучении
12.1 Что измерять
12.2 Как измерять
12.3 Как интерпретировать
Интерпретация результатов, полученных на
нескольких наборах
данных
12.4. Эксперименты в машинном обучении: итоги и
литература
для дальнейшего чтения
Эпилог: что дальше?
Что нужно запомнить
Библиография
Предметный указатель

Отзывы

Вопросы

Поделитесь своим мнением об этом товаре с другими покупателями — будьте первыми!

Дарим бонусы за отзывы!

За какие отзывы можно получить бонусы?
  • За уникальные, информативные отзывы, прошедшие модерацию
Как получить больше бонусов за отзыв?
  • Публикуйте фото или видео к отзыву
  • Пишите отзывы на товары с меткой "Бонусы за отзыв"
Правила начисления бонусов
Задайте вопрос, чтобы узнать больше о товаре
Если вы обнаружили ошибку в описании товара «Машинное обучение. Наука и искусство построения алгоритмов, которые извлекают знания из данных» (авторы: Флах Питер), то выделите её мышкой и нажмите Ctrl+Enter. Спасибо, что помогаете нам стать лучше!
Ваш населённый пункт:
г. Москва
Выбор населённого пункта