使用すべきモデル
使用する LLM を選ぶときには、コスト、可用性、パフォーマンス、機能など、多くの要素を考慮する必要があります。 一般には、次のガイドをお勧めします。
gpt-35-turbo:このモデルは経済的でパフォーマンスが良く、ChatGPT という名前にもかかわらず、チャットや会話を超えた幅広いタスクに使用できます。
gpt-35-turbo-16k、gpt-4 または gpt-4-32k:これらのモデルは、4,096 を超えるトークンを生成する必要がある場合や、より大きなプロンプトをサポートする必要がある場合に適しています。 ただし、これらのモデルはコストが高く、速度が遅くなる可能性や、可用性が制限される可能性があります。
埋め込みモデル:タスクに検索、クラスタリング、推奨事項、異常検出が含まれる場合は、埋め込みモデルを使う必要があります。 コンピューターは、埋め込みを形成する数値のベクトルを簡単に利用できます。 埋め込みは、テキストの一部分のセマンティックな意味を高い情報密度で表現したものです。 ベクトル空間内の 2 つの埋め込み間の距離は、セマンティックな類似性と相関します。 たとえば、2 つのテキストが類似している場合、それらのベクトル表現も類似しています。
DALL-E:このモデルは、テキスト プロンプトから画像を生成します。 DALL-E は、出力がテキストではなく画像であるため、他の言語モデルとは異なります。
Whisper:このモデルは、英語のオーディオとテキストの大規模なデータセットでトレーニングされています。 Whisper は、オーディオ ファイルの文字起こしなどの音声テキスト変換機能に最適化されています。 英語以外の言語の音声を含むオーディオ ファイルの文字起こしに使用できますが、モデルの出力は英語のテキストになります。 Whisper を使うと、オーディオ ファイルを一度に 1 つずつすばやく文字起こししたり、他の言語の音声を英語に翻訳したり、出力をガイドするためにモデルにプロンプトを提供したりできます。