大規模モデル翻訳インターフェース
大規模モデルの汎用インターフェース
複数の大規模モデルインターフェースを同時に使用するには?
異なる複数のキーをローテーションしたいだけなら、|
で区切るだけでOKです。
しかし、複数の異なるAPIインターフェースアドレス、プロンプト、モデル、パラメータなどを同時に使用して翻訳効果を比較したい場合もあります。その方法は以下の通りです:
- 上の「+」ボタンをクリックします。
- ウィンドウがポップアップします。大規模モデルの汎用インターフェースを選択し、名前を付けます。これにより、現在の大規模モデル汎用インターフェースの設定とAPIが複製されます。
- 複製されたインターフェースをアクティブにし、個別に設定できます。複製されたインターフェースは元のインターフェースと一緒に実行でき、複数の異なる設定を使用して実行できます。
パラメータ説明
APIインターフェースアドレス
主要な大規模モデルプラットフォームの
APIインターフェースアドレス
は、ドロップダウンリストから選択可能ですが、一部抜けている場合があります。リストにないインターフェースについては、各プラットフォームのドキュメントを参照して手動で入力してください。API Key
API Key
は各プラットフォームで取得できます。複数のキーを追加した場合、自動的にローテーションされ、エラーフィードバックに基づいてキーの重みが調整されます。モデル
ほとんどのプラットフォームでは、
APIインターフェースアドレス
とAPI Key
を入力後、モデル
横の更新ボタンをクリックすると、利用可能なモデルリストを取得できます。プラットフォームがモデル取得インターフェースをサポートしておらず、デフォルトリストに使用したいモデルがない場合は、API公式ドキュメントを参照して手動でモデル名を入力してください。
ストリーミング出力
有効にすると、モデルの出力内容をストリーミング形式で逐次表示します。無効の場合は、モデルの出力が完了してから一括で表示されます。
思考プロセスを非表示
有効にすると、
<think>
タグで囲まれた内容を表示しません。ただし、思考の進捗状況は表示されます。付帯コンテキスト数
翻訳を最適化するため、指定した数の過去の原文と翻訳を大規模モデルに提供します。0に設定するとこの機能は無効になります。
- キャッシュヒットを最適化 - DeepSeekなどのプラットフォームでは、キャッシュヒットした入力に対して低価格で課金されます。有効にすると、付帯コンテキストの形式を最適化し、キャッシュヒット率を向上させます。
カスタムsystem prompt / カスタムuser message / プリフィル
出力内容を制御するためのいくつかの方法です。好みに応じて設定するか、デフォルトのまま使用できます。
カスタムシステムプロンプトとユーザーメッセージ内では、いくつかの情報をフィールドを使って参照できます:
{sentence}
:現在翻訳するテキスト{srclang}
と{tgtlang}
:ソース言語とターゲット言語。プロンプトで英語のみが使用されている場合、これらは言語名の英語訳に置き換えられます。それ以外の場合は、現在のUI言語の言語名訳に置き換えられます。{contextOriginal[N]}
と{contextTranslation[N]}
と{contextTranslation[N]}
:N件の履歴原文、翻訳文、両方。Nは「付随するコンテキストの数」とは関係なく、入力時に整数に置き換えてください。{DictWithPrompt[XXXXX]}
: このフィールドは「固有名詞翻訳」のエントリを参照できます。一致するエントリがない場合、翻訳内容を破壊しないようにこのフィールドはクリアされます。XXXXX
は、LLMに与えられたエントリを使用して翻訳を最適化するように導くプロンプトであり、ユーザーが定義することも、カスタムユーザーメッセージを無効にしてデフォルトのプロンプトを使用することもできます。
Temperature / max tokens / top p / frequency penalty
一部のプラットフォームの一部のモデルでは、
top p
やfrequency penalty
などのパラメータがインターフェースで受け入れられない場合があります。また、max tokens
パラメータが廃止され、代わりにmax completion tokens
に変更されている場合もあります。これらの問題は、スイッチをオンまたはオフにすることで解決できます。reasoning effort
Geminiプラットフォームでは、このオプションをGeminiの
thinkingBudget
に自動的にマッピングします。マッピングルールは次の通りです:minimal->0(思考無効、ただしGemini-2.5-Proモデルでは適用不可)、low->512、medium->-1(動的思考を有効)、high->24576。
その他のパラメータ
上記は一般的なパラメータのみを提供しています。使用するプラットフォームで有用な未記載のパラメータがある場合は、手動でキーと値を追加してください。
一般的な大規模モデルプラットフォーム
欧米の大規模モデルプラットフォーム
中国の大規模モデルプラットフォーム
オフライン大規模モデル
llama.cpp、ollamaなどのツールを使用してモデルをデプロイし、アドレスとモデルを入力することができます。
Kaggleなどのプラットフォームを使用してモデルをクラウドにデプロイすることもできます。この場合、SECRET_KEYを使用する必要があるかもしれません。そうでなければ、SECRET_KEYパラメータを無視することができます。