Публикации по теме 'deep-learning'


Как я обучал модель CNN на большом наборе данных с ограниченными ресурсами: постепенное обучение в действии
Обучение сверточной нейронной сети (CNN) на большом наборе данных с ограниченными ресурсами может оказаться сложной задачей. Будучи студентом последнего курса компьютерной инженерии, я столкнулся с этой проблемой во время работы над своим выпускным проектом. Загрузка всего набора данных в память была возможна, но обучение модели сразу с использованием этих данных было невозможно из-за требований к памяти. Это привело к сбою моей машины и сделало невозможным обучение модели. Чтобы..

Представление Мощность функций
В этой статье рассматривается содержание, обсуждаемое в модуле Сила функций представления Курса глубокого обучения , и все изображения взяты из одного и того же модуля. До сих пор мы видели три модели: MP Neuron , Perceptron и Sigmoid Neuron , но ни одна из них не могла работать с нелинейно разделимыми данными. В этой статье мы обсудим силу представления функций, которая поможет нам понять, почему нам нужны сложные функции в качестве нашей модели. Нам нужно найти непрерывные..

Многомерное вменение с помощью цепных уравнений для определения пропущенного значения | MICE-алгоритм | Итеративный Импутер
Содержание: ∘ Итеративный вменитель/MICE: ∘ Предположения: ∘ Отсутствует совершенно случайно: ∘ Отсутствует случайно: ∘ Отсутствует, не случайно случайное: ∘ Как это работает? ∘ Реализация Итеративный ввод/MICE: MICE означает многомерное вменение с помощью цепных уравнений. Это довольно известный подход к заполнению пропущенных значений. Алгоритмы MICE используются при определенных предположениях. Предположения: Существует три категории недостающих данных...

Рекуррентные нейронные сети (RNN) в генерации текста
Введение Рекуррентная нейронная сеть — это класс искусственных нейронных сетей (ИНС), в которых соединения между узлами образуют направленный или неориентированный граф вдоль временной последовательности. Как правило, сеть применяется к входному сигналу, для которого вход кодируется до добавления в сеть, которая затем применяется к выходному сигналу. Это имеет следующие основные преимущества: сеть сконфигурирована для работы на высокой скорости (накладные или низкоскоростные), сеть не..

Исследовательские работы для чтения по задачам о ранцах
Эволюционные алгоритмы ограничения влияния неопределенности для задачи о рюкзаке со стохастической прибылью (arXiv) Автор: Анета Нойманн , Юэ Се , Фрэнк Нойманн Аннотация: Эволюционные алгоритмы широко используются для ряда задач стохастической оптимизации для решения сложных реальных задач оптимизации. Мы рассматриваем задачу о рюкзаке, где прибыль связана с неопределенностью. Такая стохастическая настройка отражает важные сценарии реального мира, когда прибыль, которую..

Феномены глубокого обучения. Просто так получилось.
Несколько дней назад я был удивлен, узнав, что Facebook открыл свое оборудование искусственного интеллекта под названием Big Sur. Прошло совсем немного времени после того, как Google выпустила свою библиотеку с открытым исходным кодом для глубокого обучения под названием Tensor Flow. Но самые удивительные новости о глубоком обучении появились всего два дня назад Илон Маск и его коллеги основали новую некоммерческую компанию под названием OpenAI. Как будто эти ребята действительно серьезно..

Новое исследование по распознаванию именованных объектов, часть 2 (искусственный интеллект)
Расширение таксономии для распознавания именованных объектов (arXiv) Автор: Картикеян К , Йогарши Вьяс , Джи Ма , Джованни Паолини , Неха Анна Джон , Шуай Ван , Яссин Бенаджиба , Витторио Кастелли , Дэн Рот , Мигель Бальестерос Аннотация: Обучение модели распознавания именованных сущностей (NER) часто включает в себя исправление таксономии типов сущностей. Однако требования развиваются, и нам может понадобиться модель NER для распознавания дополнительных типов..