OpenAI: GPT-3.5 Turbo 16k

Эта модель предлагает в четыре раза длину контекста GPT-3.5-Turbo, что позволяет ей поддерживать приблизительно 20 страниц текста в одном запросе за более высокую стоимость.

Описание

Эта модель предлагает в четыре раза длину контекста GPT-3.5-Turbo, что позволяет ей поддерживать приблизительно 20 страниц текста в одном запросе за более высокую стоимость.

Архитектура

Модальность:
text->text
Входные модальности:
text
Выходные модальности:
text
Токенизатор:
GPT

Контекст и лимиты

Длина контекста:
16385 токенов
Макс. токенов ответа:
4096 токенов
Модерация:
Включена

Ценообразование (RUB)

Запрос:
Изображение:
Веб-поиск:
Внутреннее рассуждение:
Prompt (1K токенов):
Completion (1K токенов):

Параметры по умолчанию

Temperature:
0
Начать чат с OpenAI: GPT-3.5 Turbo 16k

Комментарии пользователей