Wartungsrichtlinie für generative KI-Modelle
In diesem Artikel wird die Modellwartungsrichtlinie für die Foundation-Modell-APIs pay-per-token und Foundation Model Fine-Tuning-Angebote beschrieben.
Um weiterhin die neuesten Modelle zu unterstützen, aktualisieren Databricks möglicherweise unterstützte Modelle oder eingestellt ältere Modelle für die Foundation-Modell-APIs pay-per-token und Foundation Model Fine-Tuning-Angebote.
Modelldeaktivierungsrichtlinie
Die folgende Einstellungsrichtlinie gilt nur für unterstützte Chat- und Abschlussmodelle in den Foundation-Modell-APIs pay-per-token und Foundation Model Fine-Tuning-Angebote.
Wenn ein Modell eingestellt wird, ist es nicht mehr für die Verwendung verfügbar und wird aus den angegebenen Featureangeboten entfernt. Databricks führt die folgenden Schritte aus, um Kunden über ein Modell zu informieren, das für den Ruhestand festgelegt ist:
- Auf der Modellkarte auf der Seite Bereitstellung des Databricks-Arbeitsbereichs wird eine Warnmeldung angezeigt, die angibt, dass die Ausmusterung des Modells geplant ist.
- Eine Warnmeldung wird im Dropdownmenü für die Feinabstimmung des Foundation-Modells auf der Registerkarte "Experimente" angezeigt, die angibt, dass das Modell für den Ruhestand geplant ist.
- Die entsprechende Dokumentation enthält eine Benachrichtigung, die angibt, dass das Modell für den Ruhestand geplant ist und der Starttermin nicht mehr unterstützt wird.
Nachdem Benutzer über die bevorstehende Modellrentierung benachrichtigt wurden, wird Databricks das Modell in drei Monaten eingestellt. Während dieses dreimonatigen Zeitraums können Kunden:
- Wählen Sie die Migration zu einem bereitgestellten Durchsatzendpunkt aus, um das Modell über das Enddatum des Lebenszyklus fortzusetzen.
- Migrieren Sie vorhandene Workflows, um empfohlene Ersatzmodelle zu verwenden.
Am Einstellungsdatum wird das Modell aus dem Produkt entfernt, und die entsprechende Dokumentation wird aktualisiert, um die Verwendung eines Ersatzmodells zu empfehlen.
Eine Liste der derzeit eingestellten Modelle und die geplanten Deaktivierungstermine finden Sie unter eingestellte Modelle.
Modellupdates
Möglicherweise werden von Databricks inkrementelle Updates für Modelle mit tokenbasierter Bezahlung bereitgestellt, um Optimierungsmöglichkeiten zu bieten. Wenn ein Modell upgedatet wird, bleibt die Endpunkt-URL gleich, aber die Modell-ID im Antwortobjekt ändert sich, um das Datum der Aktualisierung widerzuspiegeln. Wenn ein Update für meta-llama/Meta-Llama-3.1-405B
am 04.03.2024 bereitgestellt wird, wird der Modellname im Antwortobjekt auf meta-llama/Meta-Llama-3.1-405B-030424
aktualisiert. Databricks verwaltet einen Versionsverlauf der Updates, den Sie einsehen können.
Eingestellte Modelle
In den folgenden Abschnitten werden aktuelle und bevorstehende Modelleinstellungen für die Foundation-Modell-APIs pay-per-token und Foundation Model Fine-Tuning-Angebote zusammengefasst.
Foundation Model Fine-Tuning-Ausfälle
In der folgenden Tabelle sind eingestellte Modellfamilien, deren Deaktivierungsdaten und empfohlene Ersatzmodellfamilien für die Verwendung für Foundation Model Fine-Tuning-Workloads aufgeführt. Databricks empfiehlt, Ihre Anwendungen vor dem angegebenen Einstellungsdatum zu migrieren, um Ersatzmodelle zu verwenden.
Modellfamilie | Deaktivierungstermin | Empfohlene Ersatzmodellfamilie |
---|---|---|
Meta Llama-3 | 13. Dezember 2024 | Meta Llama-3.1 |
Meta Llama-2 | 13. Dezember 2024 | Meta Llama-3.1 |
Code Llama | 13. Dezember 2024 | Meta Llama-3.1 |
Foundation Model-APIs Stilllegungen auf der Basis von Token
Die folgende Tabelle zeigt Modelleinstellungen sowie ihre Einstellungstermine und die empfohlenen Ersatzmodelle für die Verwendung mit Foundation Model-APIs für Pay-per-Token-Workloads. Databricks empfiehlt, Ihre Anwendungen vor dem angegebenen Einstellungsdatum zu migrieren, um Ersatzmodelle zu verwenden.
Wichtig
Am 23. Juli 2024 ersetzte Meta-Llama-3.1-70B-Instruct die Unterstützung für Meta-Llama-3-70B-Instruct in Pay-per-Token-Endpunkten von Foundation Model-APIs.
Modell | Deaktivierungstermin | Empfohlenes Ersatzmodell |
---|---|---|
Meta-Llama-3-70B-Instruct | 23. Juli 2024 | Meta-Llama-3.1-70B-Instruct |
Meta-Llama-2-70B-Chat | 30. Oktober 2024 | Meta-Llama-3.1-70B-Instruct |
MPT 7B Instruct | 30. August 2024 | Mixtral-8x7B |
MPT 30B Instruct | 30. August 2024 | Mixtral-8x7B |
Wenn Sie langfristige Unterstützung für eine bestimmte Modellversion benötigen, empfiehlt Databricks die Verwendung des bereitgestellten Durchsatzes von Foundation Model-APIs für Ihre Bereitstellungsworkloads.