Meta: Llama 4 Maverick
Llama 4 Maverick 17b Instruct (128e)-это мультимодальная модель с высокой пропускной способностью от Meta, построенная на архитектуре смеси экспертов (MOE) с 128 экспертами и 17 миллиардами активных параметров за переход (всего 400B).
Описание
Llama 4 Maverick 17b Instruct (128e)-это мультимодальная модель с высокой пропускной способностью от Meta, построенная на архитектуре смеси экспертов (MOE) с 128 экспертами и 17 миллиардами активных параметров за переход (всего 400B).
Архитектура
- Модальность:
- text+image->text
- Входные модальности:
- text, image
- Выходные модальности:
- text
- Токенизатор:
- Llama4
Контекст и лимиты
- Длина контекста:
- 1048576 токенов
- Макс. токенов ответа:
- 16384 токенов
- Модерация:
- Отключена
Ценообразование (RUB)
- Запрос:
- ₽
- Изображение:
- ₽
- Веб-поиск:
- ₽
- Внутреннее рассуждение:
- ₽
- Prompt (1K токенов):
- ₽
- Completion (1K токенов):
- ₽
Параметры по умолчанию
- Temperature:
- 0
Комментарии пользователей