KI Services in Fabric (Vorschau)
Wichtig
Dieses Feature befindet sich in der Vorschau.
Azure KI Services unterstützen Entwickelnde und Organisationen bei der schnellen Erstellung intelligenter, hochmoderner, marktreifer und verantwortungsbewusster Anwendungen mit vorgefertigten und anpassbaren APIs und Modellen. Früher als Azure Cognitive Services bezeichnet, befähigen Azure KI Services Entwickelnde auch dann, wenn sie keine direkten KI- oder Data Science-Skills oder Wissen haben. Das Ziel von Azure KI Services ist es, Entwicklern zu helfen, Anwendungen zu entwickeln, die sehen, hören, sprechen, verstehen und sogar schlussfolgern können.
Fabric bietet zwei Optionen für die Verwendung von Azure KI Services:
Vorab erstellte KI-Modelle in Fabric (Vorschau)
Fabric ist nahtlos in Azure KI Services integriert, sodass Sie Ihre Daten ohne Voraussetzungen mit vorkonfigurierten KI-Modellen anreichern können. Wir empfehlen diese Option, da Sie Ihre Fabric-Authentifizierung für den Zugriff auf KI-Dienste verwenden können, und die gesamte Nutzung wird über Ihre Fabric-Kapazität abgerechnet. Diese Option befindet sich derzeit in der öffentlichen Vorschau mit eingeschränkten KI Services.
Fabric bietet Azure OpenAI Service, Text Analyticsund Azure AI Translator standardmäßig mit Unterstützung für SynapseML und die RESTful-API. Sie können auch die OpenAI Python Library verwenden, um auf den Azure OpenAI Service in Fabric zuzugreifen. Für weitere Informationen über verfügbare Modelle besuchen Sie unter vorkonfigurierte KI-Modelle in Fabric.
Bring Your Own Key (BYOK)
Sie können Ihre KI-Dienste in Azure bereitstellen und Ihren eigenen Schlüssel verwenden, um sie über Fabric zu nutzen. Wenn die vorgefertigten KI-Modelle die gewünschten KI-Dienste noch nicht unterstützen, können Sie BYOK (Bring Your Own Key) weiterhin verwenden.
Wenn Sie mehr darüber erfahren möchten, wie Sie Azure KI Services mit BYOK verwenden, besuchen Sie Azure KI Services in SynapseML mit eigenem Schlüssel.
Vorkonfigurierte KI-Modelle in Fabric (Vorschau)
Hinweis
Vorgefertigte KI-Modelle stehen derzeit in der Vorschau zur Verfügung und werden kostenlos angeboten, wobei die Anzahl der gleichzeitigen Anforderungen pro benutzende Person eingeschränkt ist. Bei Open AI-Modellen beträgt der Grenzwert 20 Anforderungen pro Minute pro Benutzer.
Azure OpenAI Service
REST-API, Python SDK. SynapseML
- GPT-35-turbo: GPT-3.5-Modelle können natürliche Sprache oder Code verstehen und generieren. Das fähigste und kostengünstige Modell in der GPT-3.5-Familie ist GPT-3. Die für Chats optimierte Option
5 Turbo
funktioniert aber auch gut für herkömmliche Vervollständigungsaufgaben. Dasgpt-35-turbo-0125
-Modell unterstützt bis zu 16.385 Eingabetoken und 4.096 Ausgabetoken. - gpt-4-Familie:
gpt-4-32k
wird unterstützt. - text-embedding-ada-002 (Version 2), Einbettungsmodell, das mit Einbettungs-API-Anforderungen verwendet werden kann. Das maximal akzeptierte Anforderungstoken ist 8.191, und der zurückgegebene Vektor hat die Größe von 1.536.
Textanalyse
- Sprachenerkennung: Erkennt die Sprache des Eingabetexts.
- Stimmungsanalyse: Gibt einen Wert zwischen 0 und 1 zurück, der die Stimmung im Eingabetext angibt.
- Schlüsselbegriffserkennung: Identifiziert die wichtigsten Gesprächsthemen im Eingabetext.
- Entitätserkennung von personenbezogenen Informationen (Personally Identifiable Information, PII): Identifizieren, Kategorisieren und Redigieren von vertraulichen Informationen im Eingabetext.
- Erkennung benannter Entitäten: Identifiziert bekannte Entitäten und allgemeine benannte Entitäten im Eingabetext.
- Entitätsverknüpfung: Erkennt und bestimmt eindeutig die Identität von Entitäten im Text.
Azure KI Übersetzer
- Übersetzen: Übersetzt Text
- Transkribieren: Konvertiert Text in einer Sprache in einem Skript in ein anderes Skript.
Verfügbare Regionen
Verfügbare Regionen für Azure OpenAI Service
Eine Liste der Azure-Regionen, in denen jetzt vorgefertigte KI-Dienste in Fabric verfügbar sind, finden Sie im Abschnitt Verfügbare Regionen der des Artikels Übersicht über Copilot in Fabric und Power BI (Vorschau).
Verfügbare Regionen für Textanalyse und Azure KI Übersetzer
Vordefinierte Text-Analytics- und der Azure-KI-Translator- in Fabric sind jetzt für die öffentliche Vorschau in den in diesem Artikel aufgeführten Azure-Regionen verfügbar. Wenn Ihre Microsoft Fabric-Heimregion in diesem Artikel nicht aufgeführt ist, können Sie dennoch eine Microsoft Fabric-Kapazität in einer unterstützten Region erstellen. Weitere Informationen finden Sie unter Microsoft Fabric-Abonnement kaufen. Um Ihre Fabric-Heimregion zu ermitteln, besuchen Sie Finden Ihrer Fabric-Heimregion.
Asien-Pazifik | Europa | Amerika | Naher Osten und Afrika |
---|---|---|---|
Australien (Osten) | Nordeuropa | Brasilien Süd | Südafrika, Norden |
Australien, Südosten | Europa, Westen | Kanada, Mitte | Vereinigte Arabische Emirate, Norden |
Indien, Mitte | Frankreich, Mitte | Kanada, Osten | |
Asien, Osten | Norwegen, Osten | East US | |
Japan, Osten | Schweiz, Norden | USA (Ost) 2 | |
Korea, Mitte | Schweiz, Westen | USA Nord Mitte | |
Asien, Südosten | UK, Süden | USA Süd Mitte | |
Indien (Süden) | UK, Westen | USA (Westen) | |
USA, Westen 2 | |||
USA, Westen 3 |
Verbrauchsrate
Hinweis
Die Abrechnung der vorgefertigten KI-Dienste in Fabric trat am 1. November 2024 in Kraft und ist Teil Ihrer bestehenden Power BI Premium- oder Fabric-Kapazität.
Eine Anforderung für vorgefertigte KI-Dienste verbraucht Fabric-Kapazitätseinheiten. In dieser Tabelle wird definiert, wie viele Kapazitätseinheiten (CU) verbraucht werden, wenn ein KI-Dienst verwendet wird.
Verbrauchsrate für OpenAI-Sprachmodelle
Modelle | Context | Eingabe (pro 1.000 Token) | Ausgabe (pro 1.000 Elemente) |
---|---|---|---|
GPT-4o-2024-08-06 Globale Bereitstellung | 128 K | 84,03 CU-Sekunden | 336,13 CU-Sekunden |
GPT-4 | 32 K | 2.016,81 CU Sekunden | 4.033,61 CU Sekunden |
GPT-3.5-Turbo-0125 | 16 K | 16,81 CU-Sekunden | 50,42 CU-Sekunden |
Verbrauchsrate für OpenAI-Einbettungsmodelle
Modelle | Vorgangseinheit | Verbrauchsrate |
---|---|---|
text-embedding-ada-002 | 1.000 Token | 3,36 CU-Sekunden |
Verbrauchsrate für Textanalyse
Vorgang | Vorgangseinheit | Verbrauchsrate |
---|---|---|
Sprachenerkennung | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Stimmungsanalyse | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Schlüsselphrasenextraktion | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Erkennung personenbezogener Informationen | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Erkennung benannter Entitäten | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Entitätsverknüpfung | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Zusammenfassung | 1.000 Textdatensätze | 67.226,89 CU Sekunden |
Verbrauchsrate für Textübersetzer
Vorgang | Vorgangseinheit | Verbrauchsrate |
---|---|---|
Übersetzen | 1 Mio. Zeichen | 336.134,45 CU Sekunden |
Transliterieren | 1 Mio. Zeichen | 336.134,45 CU Sekunden |
Änderungen bei der Verbrauchsrate von KI-Diensten in Fabric
Verbrauchsraten können sich jederzeit ändern. Microsoft unternimmt angemessene Anstrengungen, um eine Benachrichtigung per E-Mail oder über produktinterne Benachrichtigungen bereitzustellen. Änderungen gelten ab dem Datum, das in den Versionshinweisen von Microsoft oder dem Microsoft Fabric-Blog angegeben ist. Wenn eine Änderung an einem KI-Dienst in der Fabric-Verbrauchsrate die für die Nutzung erforderlichen Kapazitätseinheiten (Capacity Units, CU) wesentlich erhöht, können Kunden die für die gewählte Zahlungsmethode verfügbaren Stornierungsoptionen nutzen.
Überwachung der Nutzung
Die Workload-Verbrauchseinheit, die dem Vorgang zugeordnet ist, bestimmt die Gebühren für vordefinierte KI-Dienste in Fabric. Wenn zum Beispiel die Nutzung eines KI-Dienstes von einer Spark-Workload abgeleitet wird, wird die KI-Nutzung zusammengefasst und unter dem Spark-Abrechnungszähler auf der Fabric-Kapazitätsmetriken-Appabgerechnet.
Beispiel
Der Inhabende eines Onlineshops verwendet SynapseML und Spark, um Millionen von Produkten in relevante Kategorien zu kategorisieren. Derzeit wendet der Shopbesitzer fest codierte Logik an, um den rohen "Produkttyp" den Kategorien zuzuordnen. Der Besitzer plant jedoch, auf die Verwendung der neuen nativen Fabric OpenAI LLM (Large Language Model)-Endpunkte umzusteigen. Die Daten werden für jede Zeile iterativ mit einem LLM verarbeitet, und die Produkte werden dann basierend auf ihren "Produktnamen", "Beschreibungen", "technischen Angaben" usw. kategorisiert.
Die erwarteten Kosten für die Verwendung von Spark betragen 1000 CUs. Die erwarteten Kosten für die Verwendung von OpenAI betragen etwa 300 CUs.
Um die neue Logik zu testen, führen Sie sie zuerst in einem interaktiven Spark-Notizbuchlauf aus. Verwenden Sie für den Operationsnamen des Laufs "Interaktive Notizbuchausführung". Der Besitzer erwartet, eine Gesamtnutzung von 1300 CUs für "Interaktive Notizbuchausführung" zu sehen, wobei der Spark-Abrechnungszähler die gesamte Nutzung erfasst.
Sobald der Shopbesitzer die Logik validiert, richtet er die reguläre Ausführung ein und erwartet, dass eine gesamte Nutzung von 1300 CUs unter dem Vorgangsnamen "Spark Job Scheduled Run" angezeigt wird, wobei der Spark-Abrechnungszähler die gesamte Nutzung erfasst.