Meta: Llama 4 Scout

Llama 4 Scout 17b инструкт (16e)-это языковая модель смеси экспертов (MOE), разработанная Meta, активируя 17 миллиардов параметров из общего числа 109b.

Description

Llama 4 Scout 17b инструкт (16e)-это языковая модель смеси экспертов (MOE), разработанная Meta, активируя 17 миллиардов параметров из общего числа 109b.

ArchitectureАрхитектура

Modality:
text+image->text
InputModalities:
text, image
OutputModalities:
text
Tokenizer:
Llama4

ContextAndLimits

ContextLength:
327680 Tokens
MaxResponseTokens:
16384 Tokens
Moderation:
Disabled

PricingRUB

Request:
Image:
WebSearch:
InternalReasoning:
Prompt1KTokens:
Completion1KTokens:

DefaultParameters

Temperature:
0
StartChatWith Meta: Llama 4 Scout

UserComments