OpenAI
- gpt-5
- gpt-4.1
- o4 / o4-mini
inchatでは用途や目的に応じて、複数のLLM(大規模言語モデル)を選択できます。
管理画面からモデルを切り替えることができ、運用中の変更にも対応しています。
OpenAI
Anthropic
実際の運用では、以下のような「使い分け」も可能です。
・社内FAQ:ライトモデル
・顧客向けFAQ:高性能モデル
・営業支援:高性能モデル
・EC・大量アクセス:ライトモデル(応答速度重視)
モデルの違いは「できる・できない」ではなく、「どの程度余裕をもって応答できるか」の違いです。
いずれのモデルも、FAQへの回答 / マニュアルや資料の参照 / 業務用途でのQ&A、といった用途には十分対応できる性能を備えています。
モデル選択は「最高性能を使うべきか」ではなく、 「用途とコストのバランスで選ぶもの」と考えるのが適切です。
ライトモデル
日常業務・高頻度利用に最適な、
コストと速度を重視したケース向け。
特長
想定用途
代表的なモデル
多くの業務用途ではこのカテゴリで十分な精度が出ます。
質問と回答が明確な、FAQ・問合せ対応に適したモデル。
高性能モデル
文章表現・文脈理解に余裕があり、
品質を重視するケース向け。
特長
想定用途
代表的なモデル
ライトモデルとの差は「余裕」と「安定感」であり、必須ではなく 必要な場面だけ使う位置づけです。
文章量の多い資料を扱うケースにも適したモデル。
1
まず用途(FAQ / 長文)で考える
2
次にコスト・頻度でライト / 高性能を選ぶ
運用途中でモデルを切り替えられるため、最初はライトモデルから始め、 必要に応じて高性能モデルを使うという運用を推奨しています。
高性能なモデルほど、トークン消費量が増える傾向があるため、用途に応じた使い分けが重要です。
モデル選択までサポートします