Публикации по теме 'large-language-models'


Привет, мир, Falcon 180B
4-битное квантование и Multi-GPU TLDR TII’s Falcon 180B выпущен для HuggingFace (открытый доступ для исследований и коммерческого использования, предварительно обученная модель работает лучше, чем Llama2–70b, поэтому интересно посмотреть на производительность после тонкой настройки). Для загрузки с 4-битным квантованием требуется 2 80 ГБ A100 ( больше требований к оборудованию , здесь мы используем Azure Standard_NC48ads_A100_v4). Время вывода в 10+ раз медленнее, чем у llama-2–13b (..

Как построить сквозной конвейер RAG с помощью API Unstructured
Допустим, у вас есть много PDF-файлов в вашем облачном хранилище Google (GCS) и вы хотите использовать векторную базу данных, чтобы дать вашей большой языковой модели (LLM) больше контекста для более точных и актуальных ответов, вам сначала нужно извлечь, очистить и преобразовать эти PDF-файлы в формат, понятный LLM (например, JSON). Библиотека Unstructured может помочь. Unstructured.io предлагает мощный набор инструментов, который обрабатывает этапы приема и предварительной обработки..

Внимание — это все, что вам нужно: начиная с основ
Если вы дошли до этой статьи, возможно, это потому, что вы очарованы всем повальным увлечением LLM и хотите начать понимать, как все это работает. В этой статье я попытаюсь рассмотреть несколько концепций, которые дают представление о том, как мы пришли к тому, что мы имеем сегодня, а также кратко пройдусь по статье «Внимание — это все, что вам нужно». Бумага связана ниже, если вы хотели бы проверить это самостоятельно! В современном машинном обучении предложения разбиваются на токены или..