Публикации по теме 'deep-learning'


Обработка запросов AJAX в Django
Обработка запросов AJAX в Django Оглавление Введение Обработка запросов AJAX в Django Заключение Введение Запрос AJAX (асинхронный JavaScript и XML) — это метод, используемый в веб-разработке для отправки и получения данных с веб-сервера без необходимости полного обновления страницы. Вместо загрузки новой веб-страницы, когда пользователь взаимодействует с веб-сайтом, AJAX позволяет динамически обновлять определенные части веб-страницы, часто в ответ на действия пользователя,..

Как развивается теория игр, часть 1 (расширенная статистика)
Существование и уникальность равновесия Нэша в теории игр среднего поля (arXiv) Автор: : Даниэль Блок , Мойзес Рейес Ривас Аннотация: В недавних и прошлых работах выпуклость обычно предполагается для каждой отдельной части функционала действия, чтобы продемонстрировать существование и единственность равновесия Нэша на некотором интервале [0, T] (это означало что каждый гессиан предполагался неотрицательным). В частности, было наложено определенное допущение для..

Работа с синтаксическим разбором, часть 2 (машинное обучение)
Полезен ли контролируемый синтаксический анализ для понимания языка? Эмпирическое исследование (arXiv) Автор : Горан Главаш , Иван Вулич Аннотация: Традиционный НЛП долгое время проводил (контролировал) синтаксический анализ, необходимый для успешного понимания семантического языка (LU) более высокого уровня. Однако недавнее появление сквозных нейронных моделей с самоконтролем посредством языкового моделирования (LM) и их успех в широком спектре задач LU ставит под сомнение это..

Что ж, вы читаете эту строчку, значит, заголовок был для вас слишком интересным. Но это также означает, что вам, как и мне, любопытно ...
Развитие машинного обучения для изучения человеческого тела. Является ли это возможным?

Основные параметры нейронной сети
Параметры относятся к регулируемым значениям, которые используются для оптимизации производительности сети. Эти значения обычно являются весами и смещениями нейронов сети, и они корректируются в процессе обучения, чтобы минимизировать функцию потерь и повысить точность прогнозов сети. Процесс корректировки этих значений известен как оптимизация и обычно выполняется с использованием алгоритма оптимизации, такого как стохастический градиентный спуск (SGD) или метод Адама. Существует..

Как работает коллективное принятие решений, часть 5 (машинное обучение)
Разрыв связей при коллективном принятии решений (arXiv) Автор : Даниэла Бубболони , Мишель Гори Аннотация: Многие классические соответствия социальных предпочтений (социальный выбор с несколькими победителями) являются решающими только тогда, когда рассматриваются две альтернативы и нечетное число людей. Таким образом, они обычно допускают несколько решительных уточнений, каждое из которых, естественно, интерпретируется как решающее правило. В этой статье мы выявляем условия, при..

Работа с выпуклой онлайн-оптимизацией, часть 4 (машинное обучение)
Проксимальные алгоритмы для сглаженной выпуклой онлайн-оптимизации с прогнозами (arXiv) Автор: Спандан Сенапати , Ашвин Шенай , Кетан Раджават . Аннотация: В этой статье мы рассматриваем задачу сглаженной выпуклой онлайн-оптимизации (SOCO) с прогнозами, где учащийся имеет доступ к конечному окну просмотра вперед с изменяющимися во времени затратами на стадии, но получает штраф за изменение своих действий на каждой стадии. На основе концепции переменного проксимального градиентного..