Quel modèle utiliser
Il existe de nombreux facteurs, notamment le coût, la disponibilité, les performances et la capacité, à prendre en compte lors du choix du modèle LLM à utiliser. Généralement, nous recommandons les guides suivants :
gpt-35-turbo : Ce modèle est économique, fonctionne bien et, malgré le nom ChatGPT, peut être utilisé pour un large éventail de tâches au-delà de la conversation.
gpt-35-turbo-16k, gpt-4 ou gpt-4-32k : Ces modèles constituent un bon choix si vous devez générer plus de 4 096 jetons ou prendre en charge des invites plus volumineuses. Toutefois, ces modèles sont plus coûteux, peuvent être plus lents, et avoir une disponibilité limitée.
Modèles d’incorporations : Si vos tâches incluent la recherche, le clustering, les recommandations et la détection d’anomalie, vous devez utiliser un modèle d’incorporation. Les ordinateurs peuvent facilement utiliser un vecteur de nombres qui forment l’incorporation. L’incorporation est une représentation dense en informations de la signification sémantique d’un texte. La distance entre deux incorporations dans l’espace vectoriel est corrélée avec la similarité sémantique. Par exemple, si deux textes sont similaires, leurs représentations doivent également être similaires.
DALL-E : Ce modèle génère des images à partir d’invites de texte. DALL-E diffère d’autres modèles de langage, car sa sortie est une image, et non du texte.
Whisper : Ce modèle est entraîné sur un jeu de données volumineux d’audio et de texte en anglais. Whisper est optimisé pour les capacités de reconnaissance vocale, telles que la transcription de fichiers audio. Il peut être utilisé pour transcrire des fichiers audio qui contiennent de la parole dans des langues autres que l’anglais, mais la sortie du modèle est du texte en anglais. Utilisez Whisper pour transcrire rapidement des fichiers audio un par un, traduire de l’audio à partir d’autres langues en anglais, ou fournir votre invite au modèle afin de guider la sortie.