1. Беспристрастное попарное обучение на основе неявной обратной связи для рекомендательных систем без предвзятого контроля отклонений (arXiv)

Автор: Ижэнь, Хунъян Тан, Цзянпэн Ронг, Сивэнь Чжу.

Аннотация: Вообще говоря, обучение модели для рекомендательных систем может быть основано на двух типах данных, а именно на явной обратной связи и неявной обратной связи. Более того, из-за его общедоступности мы видим широкое распространение неявных данных обратной связи, таких как сигнал щелчка. В основном есть две проблемы для применения неявной обратной связи. Во-первых, неявные данные включают только положительную обратную связь. Поэтому мы не уверены, действительно ли элементы, с которыми не взаимодействовали, являются отрицательными или положительными, но не отображаются для соответствующего пользователя. Более того, актуальность редких предметов обычно недооценивается, так как положительных отзывов о редких предметах собирается гораздо меньше, чем о популярных. Для преодоления таких трудностей ранее предлагались как точечные, так и парные решения для непредвзятого обучения релевантности. Поскольку парное обучение хорошо подходит для задач ранжирования, предложенный ранее алгоритм беспристрастного парного обучения уже обеспечивает современную производительность. Тем не менее, существующий несмещенный метод попарного обучения страдает высокой дисперсией. Чтобы получить удовлетворительную производительность, неотрицательная оценка используется для практического контроля отклонения, но вносит дополнительное смещение. В этой работе мы предлагаем беспристрастный метод попарного обучения, названный UPL, с гораздо меньшей дисперсией для изучения действительно беспристрастной рекомендательной модели. Обширные автономные эксперименты с реальными наборами данных и онлайн-тестирование A/B демонстрируют превосходную производительность предложенного нами метода.

2. Функция отучения от обучения для генеративных моделей с помощью неявной обратной связи (arXiv)

Автор: Saemi Moon, Seunghyuk Cho, Dongwoo Kim.

Аннотация: Мы решаем проблему отучения признаков от предварительно обученной генеративной модели изображения. В отличие от обычной задачи отучения, где целью отучения является подмножество тренировочного набора, мы стремимся отучить конкретную функцию, например прическу, от изображений лица из предварительно обученных генеративных моделей. Поскольку целевой признак представлен только в локальной области изображения, отмена изучения всего изображения из предварительно обученной модели может привести к потере других деталей в оставшейся области изображения. Чтобы указать, какие функции следует отучить, мы разрабатываем неявный механизм обратной связи, в котором пользователь может выбирать изображения, содержащие целевую функцию. Из неявной обратной связи мы идентифицируем скрытое представление, соответствующее целевому признаку, а затем используем представление, чтобы отучить генеративную модель. Наша структура обобщается для двух известных семейств генеративных моделей: GAN и VAE. С помощью экспериментов с наборами данных MNIST и CelebA мы показываем, что целевые функции успешно удаляются, сохраняя точность исходных моделей.