Публикации по теме 'deep-learning'
Как я обучал модель CNN на большом наборе данных с ограниченными ресурсами: постепенное обучение в действии
Обучение сверточной нейронной сети (CNN) на большом наборе данных с ограниченными ресурсами может оказаться сложной задачей. Будучи студентом последнего курса компьютерной инженерии, я столкнулся с этой проблемой во время работы над своим выпускным проектом. Загрузка всего набора данных в память была возможна, но обучение модели сразу с использованием этих данных было невозможно из-за требований к памяти. Это привело к сбою моей машины и сделало невозможным обучение модели. Чтобы..
Представление Мощность функций
В этой статье рассматривается содержание, обсуждаемое в модуле Сила функций представления Курса глубокого обучения , и все изображения взяты из одного и того же модуля.
До сих пор мы видели три модели: MP Neuron , Perceptron и Sigmoid Neuron , но ни одна из них не могла работать с нелинейно разделимыми данными.
В этой статье мы обсудим силу представления функций, которая поможет нам понять, почему нам нужны сложные функции в качестве нашей модели.
Нам нужно найти непрерывные..
Многомерное вменение с помощью цепных уравнений для определения пропущенного значения | MICE-алгоритм | Итеративный Импутер
Содержание:
∘ Итеративный вменитель/MICE: ∘ Предположения: ∘ Отсутствует совершенно случайно: ∘ Отсутствует случайно: ∘ Отсутствует, не случайно случайное: ∘ Как это работает? ∘ Реализация
Итеративный ввод/MICE:
MICE означает многомерное вменение с помощью цепных уравнений. Это довольно известный подход к заполнению пропущенных значений. Алгоритмы MICE используются при определенных предположениях.
Предположения:
Существует три категории недостающих данных...
Рекуррентные нейронные сети (RNN) в генерации текста
Введение
Рекуррентная нейронная сеть — это класс искусственных нейронных сетей (ИНС), в которых соединения между узлами образуют направленный или неориентированный граф вдоль временной последовательности. Как правило, сеть применяется к входному сигналу, для которого вход кодируется до добавления в сеть, которая затем применяется к выходному сигналу. Это имеет следующие основные преимущества: сеть сконфигурирована для работы на высокой скорости (накладные или низкоскоростные), сеть не..
Исследовательские работы для чтения по задачам о ранцах
Эволюционные алгоритмы ограничения влияния неопределенности для задачи о рюкзаке со стохастической прибылью (arXiv)
Автор: Анета Нойманн , Юэ Се , Фрэнк Нойманн
Аннотация: Эволюционные алгоритмы широко используются для ряда задач стохастической оптимизации для решения сложных реальных задач оптимизации. Мы рассматриваем задачу о рюкзаке, где прибыль связана с неопределенностью. Такая стохастическая настройка отражает важные сценарии реального мира, когда прибыль, которую..
Феномены глубокого обучения. Просто так получилось.
Несколько дней назад я был удивлен, узнав, что Facebook открыл свое оборудование искусственного интеллекта под названием Big Sur. Прошло совсем немного времени после того, как Google выпустила свою библиотеку с открытым исходным кодом для глубокого обучения под названием Tensor Flow. Но самые удивительные новости о глубоком обучении появились всего два дня назад Илон Маск и его коллеги основали новую некоммерческую компанию под названием OpenAI. Как будто эти ребята действительно серьезно..
Новое исследование по распознаванию именованных объектов, часть 2 (искусственный интеллект)
Расширение таксономии для распознавания именованных объектов (arXiv)
Автор: Картикеян К , Йогарши Вьяс , Джи Ма , Джованни Паолини , Неха Анна Джон , Шуай Ван , Яссин Бенаджиба , Витторио Кастелли , Дэн Рот , Мигель Бальестерос
Аннотация: Обучение модели распознавания именованных сущностей (NER) часто включает в себя исправление таксономии типов сущностей. Однако требования развиваются, и нам может понадобиться модель NER для распознавания дополнительных типов..