Aktualisierungen der Ollama-Integration
Die .NET.NET Aspire Community Toolkit 9.0-Version der Ollama-Integrationen führt zu erheblichen Änderungen. Diese Updates verbessern die Funktionalität und verbessern die Integration mit dem .NET.NET Aspire API-Design.
Die Version wurde eingeführt
.NET .NET Aspire Community Toolkit 9.0 GA
Vorheriges Verhalten
Die Ollama-Integration umfasst sowohl Hosting- als auch client-Integrationsupdates, die beide in den folgenden Abschnitten ausführlich behandelt werden.
Ollama Hosting-Dienst
Die Ollama-Hostingressource wurde als Referenz für andere Ressourcen bereitgestellt, und sie würde Modellinformationen als eine Reihe von Umgebungsvariablen bereitstellen. Die Verbindungszeichenfolge war nur der HTTP-Endpunkt und nicht in einem echten "Verbindungszeichenfolgenformat".
OllamaSharp client
Unterstützt v3 der Bibliothek, jedoch nicht die Microsoft.Extensions.AI
(M.E.AI)-Schnittstellen.
Neues Verhalten
Das neue Verhalten enthält die folgenden Updates.
Modelle als Ressourcen
In früheren Versionen wurden Modelle zur Ressource Ollama hinzugefügt, und Sie mussten diese Ressource als Referenz übergeben. Bei diesem Ansatz sind Problemumgehungen erforderlich, um das Standardmodell festzulegen und zu identifizieren. In Version 9.0 haben wir das OllamaModelResource
eingeführt. Diese Ressource kann als Referenz weitergegeben werden und stellt Verbindungsinformationen für Clients bereit, über welches Modell sie verwenden sollen.
Neues Verbindungszeichenfolgenformat
Ursprünglich war die "Verbindungszeichenfolge" aus einer Ollama-Ressource nur der HTTP-Endpunkt. Um jedoch das -Modell als Ressource--Funktion besser zu unterstützen, erstellen die Ressourcen eine "echte" Verbindungszeichenfolge von Endpoint=<...>;Model=<...>
. Der Model
Teil ist nur eingeschlossen, wenn Sie die OllamaModelResource
verwenden.
OllamaSharp 4 und Microsoft.Extensions.AI
OllamaSharp wurde auf eine neue Hauptversion aktualisiert und unterstützt jetzt die Schnittstellen von Microsoft.Extensions.AI. Sie können entweder das IOllamaApiClient
(native OllamaSharp client) registrieren oder die Registrierung über M.E.AI IChatClient und IEmbeddingGenerator<TInput,TEmbedding> vornehmen (je nach Modelltyp). Die Verwendung dieser neuen Schnittstellen macht den Code zwischen LLM/SLM-Optionen tragbarer.
API-Veralterungen und Entfernungen
Bei allen Umgestaltungen werden einige APIs veraltet oder entfernt.
Art der kompatibilitätsbrechenden Änderung
Diese Änderung ist eine binär inkompatible und Verhaltensänderung.
Grund für Änderung
Die Änderungen zielen darauf ab, die Bibliothek funktionaler und besser in das .NET.NET Aspire API-Design zu integrieren.
Empfohlene Aktion
Upgrade auf .NET.NET Aspire 9.0.