Публикации по теме 'deep-learning'


Вывод проектора для встраивания TensorBoard на новый уровень
TensorBoard Projector позволяет графически представлять низкоразмерные вложения. Здесь я покажу вам, как вместо отображения точки вы можете визуализировать изображение, к которому относится встраивание. Встраивающий проектор TensorBoard - это очень мощный инструмент для анализа данных, особенно для интерпретации и визуализации встраиваемых изображений с низкой размерностью. Для этого, во-первых, он применяет алгоритм уменьшения размерности к входным вложениям между UMAP, T-SNE, PCA..

Как работает многообразное обучение, часть 2 (машинное обучение)
1.IAN: повторяющиеся адаптивные окрестности для многообразного обучения и оценки размерности ( arXiv ) Автор: Лучано Дибалла , Стивен В. Цукер Выдержка . Использование предположения о многообразии в машинном обучении требует знания геометрии и размеров многообразия, а теория определяет, сколько образцов требуется. Однако в приложениях данные ограничены, выборка может быть неравномерной, а свойства множества неизвестны и (возможно) нечисты; это означает, что районы должны..

Как работает стохастическое сопоставление, часть 2 (расширенная статистика)
Идеальная выборка моделей стохастического сопоставления с отказом (arXiv) Автор: Томас Масанет , Паскаль Мойаль Аннотация: В этой статье мы представляем небольшую вариацию алгоритма Кендалла «Доминируемая связь из прошлого» (DCFTP) для ограниченных цепей Маркова. Он основан на управлении (обычно немонотонной) стохастической рекурсией (обычно монотонной). Мы показываем, что этот алгоритм особенно подходит для моделей стохастического сопоставления с ограниченным терпением,..

Варианты использования Contrastive Loss part5 (машинное обучение)
Использование положительного сопоставления контрастных потерь с единицами лицевого действия для уменьшения систематической ошибки при распознавании выражений лица (arXiv) Автор: Варша Суреш , Десмонд С. Онг . Аннотация: модели машинного обучения автоматически изучают отличительные признаки из данных и, следовательно, подвержены изучению сильно коррелированных предубеждений, таких как использование защищенных атрибутов, таких как пол и раса. Большинство существующих подходов к..

Как неравенство Брунна-Минковского используется в машинном обучении, часть 1
От неравенства Брунна-Минковского к классу обобщенных неравенств типа Пуанкаре для крутильной жесткости (arXiv) Автор: Ниуфа Фан , Цзинжун Ху , Лейна Чжао . Аннотация: В данной статье мы выдвигаем аргумент, который ведет от неравенства Брунна-Минковского к классу неравенств типа Пуанкаре для крутильной жесткости на границе выпуклого тела класса C2+ в $\rnnn$ 2. Неравенство обратного логарифма Брунна-Минковского (arXiv). Автор : Дунмэн Си Аннотация: Во-первых, мы предлагаем..

Оптимизация гиперпараметров — Что, почему и как?
Эта статья изначально была размещена на нашем веб-сайте компании . Flexday Solutions LLC — это команда лидеров мнений в области искусственного интеллекта, машинного обучения и облачных решений. . Введение Математическая модель может описать природное явление при наличии соответствующего набора данных. Такая модель всегда содержит некоторые параметры, которые должны быть определены для данного набора точек данных. Например, известная линейная модель наименьших квадратов,..

Работа с концепцией степенного закона, часть 4 (Статистика)
Семейство потенциалов со степенным изломом хвостов (arXiv) Автор: Авинаш Харе , Авад Саксена . Аннотация: Мы приводим примеры большого класса одномерных теорий поля высшего порядка с кинковыми решениями, которые асимптотически имеют степенной хвост либо на одном, либо на обоих концах. В некоторых случаях мы предоставляем аналитические решения для изломов, но в основном предоставляем неявные решения. Мы также приводим примеры семейства потенциалов с двумя кинками, оба из которых..