Meta: Llama 4 Scout
Llama 4 Scout 17b инструкт (16e)-это языковая модель смеси экспертов (MOE), разработанная Meta, активируя 17 миллиардов параметров из общего числа 109b.
Description
Llama 4 Scout 17b инструкт (16e)-это языковая модель смеси экспертов (MOE), разработанная Meta, активируя 17 миллиардов параметров из общего числа 109b.
ArchitectureАрхитектура
- Modality:
- text+image->text
- InputModalities:
- text, image
- OutputModalities:
- text
- Tokenizer:
- Llama4
ContextAndLimits
- ContextLength:
- 327680 Tokens
- MaxResponseTokens:
- 16384 Tokens
- Moderation:
- Disabled
PricingRUB
- Request:
- ₽
- Image:
- ₽
- WebSearch:
- ₽
- InternalReasoning:
- ₽
- Prompt1KTokens:
- ₽
- Completion1KTokens:
- ₽
DefaultParameters
- Temperature:
- 0
UserComments