Freigeben über


KI Services in Fabric (Vorschau)

Wichtig

Dieses Feature befindet sich in der Vorschau.

Azure KI Services unterstützen Entwickelnde und Organisationen bei der schnellen Erstellung intelligenter, hochmoderner, marktreifer und verantwortungsbewusster Anwendungen mit vorgefertigten und anpassbaren APIs und Modellen. Früher als Azure Cognitive Services bezeichnet, befähigen Azure KI Services Entwickelnde auch dann, wenn sie keine direkten KI- oder Data Science-Skills oder Wissen haben. Das Ziel von Azure KI Services ist es, Entwicklern zu helfen, Anwendungen zu entwickeln, die sehen, hören, sprechen, verstehen und sogar schlussfolgern können.

Fabric bietet zwei Optionen für die Verwendung von Azure KI Services:

  • Vorab erstellte KI-Modelle in Fabric (Vorschau)

    Fabric ist nahtlos in Azure KI Services integriert, sodass Sie Ihre Daten ohne Voraussetzungen mit vorkonfigurierten KI-Modellen anreichern können. Wir empfehlen diese Option, da Sie Ihre Fabric-Authentifizierung für den Zugriff auf KI-Dienste verwenden können, und die gesamte Nutzung wird über Ihre Fabric-Kapazität abgerechnet. Diese Option befindet sich derzeit in der öffentlichen Vorschau mit eingeschränkten KI Services.

    Fabric bietet Azure OpenAI Service, Text Analyticsund Azure AI Translator standardmäßig mit Unterstützung für SynapseML und die RESTful-API. Sie können auch die OpenAI Python Library verwenden, um auf den Azure OpenAI Service in Fabric zuzugreifen. Für weitere Informationen über verfügbare Modelle besuchen Sie unter vorkonfigurierte KI-Modelle in Fabric.

  • Bring Your Own Key (BYOK)

    Sie können Ihre KI-Dienste in Azure bereitstellen und Ihren eigenen Schlüssel verwenden, um sie über Fabric zu nutzen. Wenn die vorgefertigten KI-Modelle die gewünschten KI-Dienste noch nicht unterstützen, können Sie BYOK (Bring Your Own Key) weiterhin verwenden.

    Wenn Sie mehr darüber erfahren möchten, wie Sie Azure KI Services mit BYOK verwenden, besuchen Sie Azure KI Services in SynapseML mit eigenem Schlüssel.

Vorkonfigurierte KI-Modelle in Fabric (Vorschau)

Hinweis

Vorgefertigte KI-Modelle stehen derzeit in der Vorschau zur Verfügung und werden kostenlos angeboten, wobei die Anzahl der gleichzeitigen Anforderungen pro benutzende Person eingeschränkt ist. Bei Open AI-Modellen beträgt der Grenzwert 20 Anforderungen pro Minute pro Benutzer.

Azure OpenAI Service

REST-API, Python SDK. SynapseML

  • GPT-35-turbo: GPT-3.5-Modelle können natürliche Sprache oder Code verstehen und generieren. Das fähigste und kostengünstige Modell in der GPT-3.5-Familie ist GPT-3. Die für Chats optimierte Option 5 Turbo funktioniert aber auch gut für herkömmliche Vervollständigungsaufgaben. Das gpt-35-turbo-0125-Modell unterstützt bis zu 16.385 Eingabetoken und 4.096 Ausgabetoken.
  • gpt-4-Familie: gpt-4-32k wird unterstützt.
  • text-embedding-ada-002 (Version 2), Einbettungsmodell, das mit Einbettungs-API-Anforderungen verwendet werden kann. Das maximal akzeptierte Anforderungstoken ist 8.191, und der zurückgegebene Vektor hat die Größe von 1.536.

Textanalyse

REST-API, SynapseML

  • Sprachenerkennung: Erkennt die Sprache des Eingabetexts.
  • Stimmungsanalyse: Gibt einen Wert zwischen 0 und 1 zurück, der die Stimmung im Eingabetext angibt.
  • Schlüsselbegriffserkennung: Identifiziert die wichtigsten Gesprächsthemen im Eingabetext.
  • Entitätserkennung von personenbezogenen Informationen (Personally Identifiable Information, PII): Identifizieren, Kategorisieren und Redigieren von vertraulichen Informationen im Eingabetext.
  • Erkennung benannter Entitäten: Identifiziert bekannte Entitäten und allgemeine benannte Entitäten im Eingabetext.
  • Entitätsverknüpfung: Erkennt und bestimmt eindeutig die Identität von Entitäten im Text.

Azure KI Übersetzer

REST-API, SynapseML

  • Übersetzen: Übersetzt Text
  • Transkribieren: Konvertiert Text in einer Sprache in einem Skript in ein anderes Skript.

Verfügbare Regionen

Verfügbare Regionen für Azure OpenAI Service

Eine Liste der Azure-Regionen, in denen jetzt vorgefertigte KI-Dienste in Fabric verfügbar sind, finden Sie im Abschnitt Verfügbare Regionen der des Artikels Übersicht über Copilot in Fabric und Power BI (Vorschau).

Verfügbare Regionen für Textanalyse und Azure KI Übersetzer

Vordefinierte Text-Analytics- und der Azure-KI-Translator- in Fabric sind jetzt für die öffentliche Vorschau in den in diesem Artikel aufgeführten Azure-Regionen verfügbar. Wenn Ihre Microsoft Fabric-Heimregion in diesem Artikel nicht aufgeführt ist, können Sie dennoch eine Microsoft Fabric-Kapazität in einer unterstützten Region erstellen. Weitere Informationen finden Sie unter Microsoft Fabric-Abonnement kaufen. Um Ihre Fabric-Heimregion zu ermitteln, besuchen Sie Finden Ihrer Fabric-Heimregion.

Asien-Pazifik Europa Amerika Naher Osten und Afrika
Australien (Osten) Nordeuropa Brasilien Süd Südafrika, Norden
Australien, Südosten Europa, Westen Kanada, Mitte Vereinigte Arabische Emirate, Norden
Indien, Mitte Frankreich, Mitte Kanada, Osten
Asien, Osten Norwegen, Osten East US
Japan, Osten Schweiz, Norden USA (Ost) 2
Korea, Mitte Schweiz, Westen USA Nord Mitte
Asien, Südosten UK, Süden USA Süd Mitte
Indien (Süden) UK, Westen USA (Westen)
USA, Westen 2
USA, Westen 3

Verbrauchsrate

Hinweis

Die Abrechnung der vorgefertigten KI-Dienste in Fabric trat am 1. November 2024 in Kraft und ist Teil Ihrer bestehenden Power BI Premium- oder Fabric-Kapazität.

Eine Anforderung für vorgefertigte KI-Dienste verbraucht Fabric-Kapazitätseinheiten. In dieser Tabelle wird definiert, wie viele Kapazitätseinheiten (CU) verbraucht werden, wenn ein KI-Dienst verwendet wird.

Verbrauchsrate für OpenAI-Sprachmodelle

Modelle Context Eingabe (pro 1.000 Token) Ausgabe (pro 1.000 Elemente)
GPT-4o-2024-08-06 Globale Bereitstellung 128 K 84,03 CU-Sekunden 336,13 CU-Sekunden
GPT-4 32 K 2.016,81 CU Sekunden 4.033,61 CU Sekunden
GPT-3.5-Turbo-0125 16 K 16,81 CU-Sekunden 50,42 CU-Sekunden

Verbrauchsrate für OpenAI-Einbettungsmodelle

Modelle Vorgangseinheit Verbrauchsrate
text-embedding-ada-002 1.000 Token 3,36 CU-Sekunden

Verbrauchsrate für Textanalyse

Vorgang Vorgangseinheit Verbrauchsrate
Sprachenerkennung 1.000 Textdatensätze 33.613,45 CU Sekunden
Stimmungsanalyse 1.000 Textdatensätze 33.613,45 CU Sekunden
Schlüsselphrasenextraktion 1.000 Textdatensätze 33.613,45 CU Sekunden
Erkennung personenbezogener Informationen 1.000 Textdatensätze 33.613,45 CU Sekunden
Erkennung benannter Entitäten 1.000 Textdatensätze 33.613,45 CU Sekunden
Entitätsverknüpfung 1.000 Textdatensätze 33.613,45 CU Sekunden
Zusammenfassung 1.000 Textdatensätze 67.226,89 CU Sekunden

Verbrauchsrate für Textübersetzer

Vorgang Vorgangseinheit Verbrauchsrate
Übersetzen 1 Mio. Zeichen 336.134,45 CU Sekunden
Transliterieren 1 Mio. Zeichen 336.134,45 CU Sekunden

Änderungen bei der Verbrauchsrate von KI-Diensten in Fabric

Verbrauchsraten können sich jederzeit ändern. Microsoft unternimmt angemessene Anstrengungen, um eine Benachrichtigung per E-Mail oder über produktinterne Benachrichtigungen bereitzustellen. Änderungen gelten ab dem Datum, das in den Versionshinweisen von Microsoft oder dem Microsoft Fabric-Blog angegeben ist. Wenn eine Änderung an einem KI-Dienst in der Fabric-Verbrauchsrate die für die Nutzung erforderlichen Kapazitätseinheiten (Capacity Units, CU) wesentlich erhöht, können Kunden die für die gewählte Zahlungsmethode verfügbaren Stornierungsoptionen nutzen.

Überwachung der Nutzung

Die Workload-Verbrauchseinheit, die dem Vorgang zugeordnet ist, bestimmt die Gebühren für vordefinierte KI-Dienste in Fabric. Wenn zum Beispiel die Nutzung eines KI-Dienstes von einer Spark-Workload abgeleitet wird, wird die KI-Nutzung zusammengefasst und unter dem Spark-Abrechnungszähler auf der Fabric-Kapazitätsmetriken-Appabgerechnet.

Beispiel

Der Inhabende eines Onlineshops verwendet SynapseML und Spark, um Millionen von Produkten in relevante Kategorien zu kategorisieren. Derzeit wendet der Shopbesitzer fest codierte Logik an, um den rohen "Produkttyp" den Kategorien zuzuordnen. Der Besitzer plant jedoch, auf die Verwendung der neuen nativen Fabric OpenAI LLM (Large Language Model)-Endpunkte umzusteigen. Die Daten werden für jede Zeile iterativ mit einem LLM verarbeitet, und die Produkte werden dann basierend auf ihren "Produktnamen", "Beschreibungen", "technischen Angaben" usw. kategorisiert.

Die erwarteten Kosten für die Verwendung von Spark betragen 1000 CUs. Die erwarteten Kosten für die Verwendung von OpenAI betragen etwa 300 CUs.

Um die neue Logik zu testen, führen Sie sie zuerst in einem interaktiven Spark-Notizbuchlauf aus. Verwenden Sie für den Operationsnamen des Laufs "Interaktive Notizbuchausführung". Der Besitzer erwartet, eine Gesamtnutzung von 1300 CUs für "Interaktive Notizbuchausführung" zu sehen, wobei der Spark-Abrechnungszähler die gesamte Nutzung erfasst.

Sobald der Shopbesitzer die Logik validiert, richtet er die reguläre Ausführung ein und erwartet, dass eine gesamte Nutzung von 1300 CUs unter dem Vorgangsnamen "Spark Job Scheduled Run" angezeigt wird, wobei der Spark-Abrechnungszähler die gesamte Nutzung erfasst.