Обзор: масштабируемые подходы к совместной фильтрации для больших систем рекомендаций

Габор Такач, Иштван Пиласи, Боттян Немет, Домонкос Тикк

В этой статье представлены некоторые методы матричной факторизации для совместной фильтрации. Для решения задач оптимизации используется градиентный спуск, аналогичный методу Саймона Фанка.

Самый простой алгоритм представлен инкрементным одновременным MF (ISMF), который вычисляет матрицы P и Q, представляющие пользователей и элементы соответственно. Каждая строка p в P представляет пользователя, а каждый столбец q в Q представляет элемент. Прогнозируемый рейтинг вычисляется как p·q, а затем вычисляются ошибка и среднеквадратичное отклонение. После этого метода выводятся несколько других для решения некоторых конкретных задач. RISMF предлагается, чтобы избежать переобучения путем регуляризации. BRISMF позволяет добавлять предвзятость к пользователям и элементам, чтобы устранить разницу между тенденциями разных пользователей (например, разные средние оценки). Можно ли также принудительно использовать полуположительные и положительные матрицы, а также обновить скорость обучения с помощью метода импульса. Затем обсуждается метод создания пояснений к рекомендациям на основе двухмерных визуализаций. Наконец, он предлагает метод для подхода на основе соседей, который более эффективен, чем базовые линии на основе памяти.

В методе BRISMF функции смещения включаются путем фиксации первого столбца P и второй строки Q. Нет никакого объяснения, почему это так, и выборы кажутся очень произвольными. А также не объясняется, как выбирается это смещение, так как оно фиксируется во время обучения, выглядит важным параметром для выбора.

При полуположительном и положительном создании матриц признаков значения p и q обнуляются, чтобы избежать отрицательных значений. При этом не происходит потери информации? Поскольку значение должно продолжать уменьшаться, оно застрянет на нуле, что не приведет к получению информации при градиентном спуске.

В 2D-визуализации этот метод предлагается для получения пояснений к рекомендациям. Тем не менее, мне непонятно, зачем понадобилась эта 2D-параметризация. С обычными матрицами P и Q можно сравнивать векторы и вычислять сходство в 1 измерении и получать объяснения, аналогичные 2D (рис. 2), но в 1 измерении меньше, как на рис. 1. Очевидно, что Настройка 2D позволяет получить более точные объяснения, но в этом случае 3D-версия также будет лучше.