У меня возникла идея проверить насколько различается скорость инференса LLM моделей не только в сравнении CPU и GPU, но и между младшими моделями со старшими прУ меня возникла идея проверить насколько различается скорость инференса LLM моделей не только в сравнении CPU и GPU, но и между младшими моделями со старшими пр

Запуск модели gpt-oss на 20 и 120 миллиардов параметров, на процессоре Core I9 для решения непростой задачи без GPU

2026/02/19 23:36
3м. чтение

У меня возникла идея проверить насколько различается скорость инференса LLM моделей не только в сравнении CPU и GPU, но и между младшими моделями со старшими при обработке без использования GPU.
Для сравнения я выбрал модель gpt-oss:20b (размер модели 14Гб) и gpt-oss:120b (размер модели 65Гб). Запустил тест моделей я на компьютере с процессором Intel Core I9 14900K и 192Гб оперативной памяти.

Для теста я задал каверзную задачку:

И пациентом стала модель gpt-oss:20b (может быть запущена на ПК с 32Гб оперативки). В результате мне пришлось ждать почти 35 минут, я даже в магазин успел съездить. Но спустя эти 35 минут я получил неверный ответ, скрины ниже.

3d1977625d9297f5809f43714406631b.png0a8ace9e3a5028646e5347ab833998f8.png

Далее я сказал что результат не верен, следующий ответ она думала 23 минуты, но увы, так же неправильно.

2d55008afae7aed11d286af2f1fec0ab.png

но уже даже составила таблицу.

7e93b38033c00eb883065d7f3d77449d.png

В итоге потратив час на модель gpt-oss:20b и не добившись правильного ответа со второй попытки, я приступил к тесту gpt-oss:120b чисто на CPU, памяти для запуска потребовалось 65Гб, немало и простой ПК даже с 64Гб не сможет запустить эту модель к сожалению. И я приготовился ждать долго. Однако мой шаблон был сломан, спустя всего 17 минут, gpt-oss:120b выдала верный результат.

74d93711630a8ed1d95dd95d1e7c020f.pngc7691c06a6c81320b8ef045fe0393e0d.png

Таким образом получилось что модель объемом 65 гигабайт, решила задачу правильно в 2 раза быстрей чем ее младшая модель.

Но результат был еще интересней когда я запустил эту же задачу но уже используя GPU RTX4090 48Gb, в моей системе их 2 штуки с общим объемом VRAM 96Гб.
Так вот gpt-oss:20b решила эту проблему примерно за 3 минуты, но самое главное правильно используя только одну видеокарту.
Далее я запустил тест модели gpt-oss:120b на GPU, правильное решение заняло всего полторы минуты.

Что мы получили в итоге:

модели с малым числом параметров обучения занимают немного места в памяти и могут запускаться даже на условно простых ПК только на CPU, но, они при этом выдают неправильные результаты и требуют очень много времени (более 30 минут на первый запрос). Модели с большим числом параметров обучения (gpt-oss:120b) выдают верный результат всего за 17 минут та подобной задаче.


А вот при запуске моделей на GPU, gpt-oss:20b выдала правильный ответ за 3 минуты используя только один ускоритель, а модель gpt-oss:120b выдала верный результат за полторы минуты, но уже используя 2 GPU.

Но при использовании GPU в моем тесте младшая модель решила задачу правильно с первого раза за 3 минуты. Но старшая модель, объемом более чем 4 раза, решила задачу всего за полторы минуты.

PS. Получается что работа LLM зависит как от объема, так и источника обработки. И CPU инференс LLM сильно проигрыват.

Возможно более простые задачи небольшие LLM решают с хорошей точностью даже на обычных ноутбуках с достаточным объемом памяти. Но вот чуть более сложные задачи я думаю без использования GPU сложно решить.

Буду рад услышать от читателей интересные идеи по тестированию различных моделей на обычных ПК и их сравнение с результатами обработки на мощных системах.

Источник

Возможности рынка
Логотип NodeAI
NodeAI Курс (GPU)
$0.02404
$0.02404$0.02404
-5.27%
USD
График цены NodeAI (GPU) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Anthropic заявила, что подаст в суд, чтобы оспорить определение Пентагона о "риске цепи поставок".

Anthropic заявила, что подаст в суд, чтобы оспорить определение Пентагона о "риске цепи поставок".

PANews сообщило 28 февраля, что Anthropic заявила о добросовестных переговорах с Министерством обороны США и что два исключения в области безопасности
Поделиться
PANews2026/02/28 09:30
Утверждение республиканцев о том, что Трамп «оправдан» Биллом Клинтоном, опровергнуто экспертом

Утверждение республиканцев о том, что Трамп «оправдан» Биллом Клинтоном, опровергнуто экспертом

Бывший помощник прокурора США Эли Хониг разрушил иллюзию республиканцев относительно их утверждения о том, что президент Дональд Трамп оправдан по преступлениям, связанным с Джеффри
Поделиться
Alternet2026/02/28 09:15
OpenAI, как сообщается, планирует привлечь еще $10 миллиардов, что потенциально может оценить компанию в $850 миллиардов.

OpenAI, как сообщается, планирует привлечь еще $10 миллиардов, что потенциально может оценить компанию в $850 миллиардов.

PANews сообщило 28 февраля, что, согласно данным The Information, OpenAI, после получения обязательств по финансированию на сумму до $110 млрд от Amazon, Nvidia и SoftBank
Поделиться
PANews2026/02/28 09:35