Интерфейс перевода больших моделей
Универсальный интерфейс для больших моделей
Использование нескольких интерфейсов больших моделей одновременно?
Если вам нужно просто чередовать несколько разных ключей API, достаточно разделить их символом |.
Но иногда требуется одновременно использовать разные API-адреса/prompt/модели/параметры для сравнения результатов перевода. Метод следующий:
- Нажмите кнопку "+" вверху
- Появится окно, выберите "Универсальный интерфейс для больших моделей" и дайте ему имя. Это создаст копию текущих настроек и API универсального интерфейса.
- Активируйте скопированный интерфейс и настройте его отдельно. Скопированный интерфейс может работать параллельно с оригинальным, позволяя использовать разные настройки.
Описание параметров
Адрес API-интерфейса
Большинство
адресов API-интерфейсов
распространённых платформ больших моделей можно выбрать из выпадающего списка, но некоторые могут отсутствовать. Для интерфейсов, которые не указаны в списке, пожалуйста, укажите их вручную, ознакомившись с документацией платформы.API Key
API Key
можно получить на платформе. Если добавлено несколько ключей, система автоматически будет перебирать их по очереди и корректировать их приоритет на основе ошибок.model
Для большинства платформ после заполнения
адреса API-интерфейса
иAPI Key
можно нажать кнопку обновления рядом с полемmodel
, чтобы получить список доступных моделей.Если платформа не поддерживает автоматическое получение списка моделей, а нужная модель отсутствует в списке по умолчанию, укажите её вручную, следуя официальной документации API.
Потоковый вывод
При включении содержимое будет выводиться постепенно, по мере генерации модели. В противном случае весь текст отобразится только после завершения генерации.
Скрывать процесс размышления
При включении содержимое, заключённое в теги <think>, отображаться не будет. Если скрытие процесса размышления активно, будет показываться текущий прогресс.
Количество прикрепляемого контекста
Система будет прикреплять указанное количество предыдущих исходных текстов и переводов к запросу для улучшения качества перевода. Если установлено значение 0, эта функция отключается.
- Оптимизация кэширования — для таких платформ, как DeepSeek, запросы с попаданием в кэш тарифицируются по сниженной цене. Активация этой функции оптимизирует формат прикрепляемого контекста для увеличения вероятности попадания в кэш.
Пользовательский system prompt / Пользовательское user message / prefill
Различные способы управления выводом модели. Можно настроить по своему усмотрению или оставить значения по умолчанию.
В пользовательских системных подсказках и сообщениях можно использовать поля для ссылок на некоторую информацию:
{sentence}
: Текущий текст для перевода{srclang}
и{tgtlang}
: Исходный язык и целевой язык. Если в подсказке используется только английский язык, они будут заменены на английский перевод названий языков. В противном случае они будут заменены на перевод названий языков на текущем языке интерфейса.{contextOriginal[N]}
и{contextTranslation[N]}
и{contextTranslation[N]}
: N элементов исторического текста, перевода и обоих. N не связано с «количеством сопроводительных контекстов» и должно быть заменено на целое число при вводе.
Temperature / max tokens / top p / frequency penalty
Для некоторых моделей на некоторых платформах параметры, такие как
top p
иfrequency penalty
, могут не поддерживаться интерфейсом, или параметрmax tokens
может быть устаревшим и заменен наmax completion tokens
. Активирование или деактивирование переключателя может решить эти проблемы.reasoning effort
Для платформы Gemini параметр автоматически преобразуется в
thinkingBudget
по следующим правилам:минимальный -> 0 (отключение мышления, но не применимо к модели Gemini-2.5-Pro), низкий -> 512, средний -> -1 (включение динамического мышления), высокий -> 24576.
Другие параметры
Выше перечислены только основные параметры. Если платформа поддерживает другие полезные параметры, их можно добавить вручную в формате «ключ-значение».
Популярные платформы больших моделей
Крупномасштабные платформы моделей в Европе и Америке
Крупномасштабные платформы моделей в Китае
Оффлайн большая модель
Также можно использовать такие инструменты как llama.cpp, ollama для развертывания модели, после чего ввести адрес и модель.
也可以使用Kaggle之类的平台来把模型部署到云端,这时可能会需要用到SECRET_KEY,其他时候可以无视SECRET_KEY参数。