Einführung

Abgeschlossen

Basismodelle, wie z. B. GPT-4, sind hochmoderne Modelle zur Verarbeitung natürlicher Sprache, die menschliche Sprache verstehen, generieren und damit interagieren können. Um die Bedeutung von Basismodellen zu verstehen, müssen Sie ihren Ursprung erkunden, der Fortschritten im Bereich der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) zu verdanken ist.

Informationen zur Verarbeitung natürlicher Sprache

Die Verarbeitung natürlicher Sprache ist eine Art der künstlichen Intelligenz (KI), bei der es um das Verstehen, Interpretieren und Generieren menschlicher Sprache geht. Einige gängige Anwendungsfälle für die Verarbeitung natürlicher Sprache:

  • Umwandlung von Sprache zu Text (Spracherkennung) und Text zu Sprache (Sprachsynthese). Beispiel: Generieren von Untertiteln für Videos.
  • Maschinelle Übersetzung. Beispiel: Übersetzen von Text aus dem Englischen ins Japanische.
  • Textklassifizierung. Beispiel: Kennzeichnen einer E-Mail als „Spam“ oder „Kein Spam“.
  • Entitätsextraktion. Beispiel: Extrahieren von Stichwörtern oder Namen aus einem Dokument.
  • Textzusammenfassung. Beispiel: Generieren einer kurzen Zusammenfassung eines mehrseitigen Dokuments in einem Absatz.
  • Fragen und Antworten. Beispiel: Beantworten von Fragen wie „Wie heißt die Hauptstadt von Frankreich?“.

Hinweis

In diesem Modul erkunden Sie Basismodelle, die zum Beantworten von Fragen verwendet werden. Die Basismodelle, die Sie hier kennen lernen, können für Chatanwendungen verwendet werden, in denen Sie ein Sprachmodell verwenden, um eine Antwort auf die Frage eines Benutzers zu generieren.

Grundlegendes zur Bedeutung der Transformer-Architektur

Der jüngste Durchbruch in der linguistischen Datenverarbeitung (Natural Language Processing, NLP) ist der Entwicklung der Transformer-Architektur zu verdanken.

Eingeführt wurden Transformer im Dokument Attention is all you need (Aufmerksamkeit ist alles, was Sie brauchen) von Vaswani et al. von 2017. Die Transformer-Architektur sorgte für zwei Innovationen bei der Verarbeitung natürlicher Sprache, die zur Entstehung von Basismodellen geführt haben:

  • Anstatt Wörter sequenziell zu verarbeiten, verarbeiten Transformatoren jedes Wort unabhängig und parallel mithilfe von Aufmerksamkeit.
  • Neben der semantischen Ähnlichkeit zwischen Wörtern verwenden Transformatoren die Positionscodierung, um die Informationen zur Position eines Worts in einem Satz einzubeziehen.

Für die Verarbeitung natürlicher Sprache konzipierte Basismodelle werden häufig als große Sprachmodelle (Large Language Models, LLMs) oder Sprachmodelle bezeichnet. In diesem Modul erkunden Sie die verfügbaren Sprachmodelle, erfahren, wie Sie ein Modell für Ihren Anwendungsfall auswählen und wie Sie Sprachmodelle im Azure KI Foundry-Studio verwenden. Sie konzentrieren sich auf Sprachmodelle, die Ihnen helfen, generative KI-Apps zu entwickeln, die als Chatanwendungen zum Beantworten der Fragen Ihrer Benutzern dienen.