Meta: Llama 4 Maverick
Llama 4 Maverick 17B Instruct (128E) es un modelo de lenguaje multimodal de alta capacidad a partir de Meta, basado en una arquitectura de mezcla de expertos (MOE) con 128 expertos y 17 mil millones de parámetros activos por avance (400B total).
Description
Llama 4 Maverick 17B Instruct (128E) es un modelo de lenguaje multimodal de alta capacidad a partir de Meta, basado en una arquitectura de mezcla de expertos (MOE) con 128 expertos y 17 mil millones de parámetros activos por avance (400B total).
ArchitectureАрхитектура
- Modality:
- text+image->text
- InputModalities:
- text, image
- OutputModalities:
- text
- Tokenizer:
- Llama4
ContextAndLimits
- ContextLength:
- 1048576 Tokens
- MaxResponseTokens:
- 16384 Tokens
- Moderation:
- Disabled
PricingRUB
- Request:
- ₽
- Image:
- ₽
- WebSearch:
- ₽
- InternalReasoning:
- ₽
- Prompt1KTokens:
- ₽
- Completion1KTokens:
- ₽
DefaultParameters
- Temperature:
- 0
UserComments