671 млрд параметров в архитектуре Mixture-of-Experts. Превосходит GPT-4o и Claude 3.5 Sonnet в большинстве тестов при значительно меньшей стоимости обучения.

Универсальная модель для широкого спектра задач — от кода до аналитики.
Написание, отладка и объяснение кода на 50+ языках. Особенно силён в Python, JavaScript, C++ и SQL.
Обрабатывает до 128 000 токенов. Может анализировать целые книги, кодовые базы или юридические документы.
Отлично понимает русский, английский, китайский и другие языки. Переводит с сохранением смысла и стиля.
Высокоскоростная генерация благодаря архитектуре MoE — на токен активируется только 37B из 671B параметров.
Интерпретирует структурированные данные, строит выводы, объясняет статистику.
Поддерживает длинные многоходовые диалоги с сохранением контекста разговора.
| Бенчмарк | DeepSeek V3 | GPT-4o | Claude 3.5 Sonnet |
|---|---|---|---|
| MATH-500 | 90.2% | 76.6% | 78.3% |
| HumanEval (Код) | 82.6% | 90.2% | 92.0% |
| MMLU | 88.5% | 88.7% | 88.3% |
| GPQA Diamond | 59.1% | 53.6% | 65.0% |
| LiveCodeBench | 40.5% | 32.9% | 38.9% |
Бесплатно, без регистрации. Откройте чат прямо сейчас.