Freigeben über


Generative KI-Lösungen für Entwickler

Generative KI, aktiviert durch große Sprachmodelle (LLMs), eröffnet spannende neue Möglichkeiten für Softwareentwickler und Organisationen. Dienste wie Azure OpenAI Service machen die KI-Entwicklung mit benutzerfreundlichen APIs zugänglich. Entwickler auf allen Qualifikationsebenen können erweiterte KI-Funktionen ohne spezielle Kenntnisse oder Hardwareinvestitionen in ihre Anwendungen integrieren.

Als Anwendungsentwickler möchten Sie vielleicht verstehen, welche Rolle Sie spielen können und wo Sie passen. Vielleicht fragen Sie sich zum Beispiel, auf welcher Ebene in der "KI-Architektur" Sie sich auf Ihr Lernen konzentrieren sollten. Oder Sie fragen sich vielleicht, was Sie in der Lage sind, auf Grundlage vorhandener Technologien zu bauen.

Um diese Fragen zu beantworten, ist es wichtig, dass Sie zunächst ein mentales Modell entwickeln, das ordnet, wie neue Terminologie und Technologien in das, was Sie bereits verstehen, passen. Durch die Entwicklung eines mentalen Modells können Sie generative KI-Features in Ihren Anwendungen entwerfen und erstellen.

In einer Reihe von Artikeln zeigen wir Ihnen, wie Ihre aktuelle Softwareentwicklungserfahrung auf generative KI angewendet wird. Die Artikel legen außerdem eine Grundlage für Schlüsselwörter und Konzepte fest, auf denen Sie aufbauen können, wenn Sie beginnen, Ihre ersten generativen KI-Lösungen zu entwickeln.

Wie Unternehmen von der Nutzung von generativen KI profitieren

Um zu verstehen, wie Ihre aktuelle Softwareentwicklungserfahrung auf generative KI angewendet wird, ist es wichtig zu verstehen, wie Unternehmen von der Nutzung von generativen KI profitieren möchten.

Unternehmen sehen generative KI als Mittel zur Verbesserung des Kundeneinsatzes, zur Steigerung der betrieblichen Effizienz und zur Verbesserung der Problemlösung und Kreativität. Die Integration von generativen KI in bestehende Systeme eröffnet Unternehmen die Möglichkeit, ihre Softwareökosysteme zu verbessern. Sie kann herkömmliche Softwarefunktionen mit erweiterten KI-Funktionen ergänzen, z. B. personalisierte Empfehlungen für Benutzer oder einen intelligenten Agenten, der bestimmte Fragen zu einer Organisation oder seinen Produkten oder Diensten beantworten kann.

Hier sind einige häufige Szenarien, in denen generative KI Unternehmen helfen kann:

  • Inhaltsgenerierung:

    • Generieren Sie Text, Code, Bilder und Sound. Dieses Szenario kann für Marketing, Vertrieb, IT, interne Kommunikation und vieles mehr hilfreich sein.
  • Verarbeitung natürlicher Sprachen:

    • Verfassen oder Verbessern der Unternehmenskommunikation durch Vorschläge oder vollständige Generierung von Nachrichten.
    • Verwenden Sie "Mit Ihren Daten chatten". Dies heißt, dass ein Benutzer Fragen in einer Chaterfahrung stellen kann, indem Daten verwendet werden, die in den Datenbanken oder Dokumenten der Organisation als Grundlage für Antworten gespeichert sind.
    • Zusammenfassung, Organisation und Vereinfachung großer Inhalte, um Inhalte barrierefreier zu gestalten.
    • Verwenden Sie die semantische Suche. Das heißt, benutzer können Dokumente und Daten durchsuchen, ohne genaue Stichwort-Übereinstimmungen zu verwenden.
    • Übersetzen Sie die Sprache, um die Reichweite und Barrierefreiheit von Inhalten zu erhöhen.
  • Datenanalyse:

    • Analysieren Sie Märkte, und identifizieren Sie Trends in Daten.
    • Modellieren Sie Szenarien, die Unternehmen dabei helfen sollen, mögliche Änderungen oder Herausforderungen in jedem Bereich des Unternehmens zu planen.
    • Analysieren Sie Code, um Verbesserungen vorzuschlagen, Fehler zu beheben und Dokumentationen zu generieren.

Ein Softwareentwickler hat die Möglichkeit, ihre Auswirkungen erheblich zu steigern, indem sie generative KI-Anwendungen und -Funktionen in die Software integrieren, auf die ihre Organisation angewiesen ist.

So erstellen Sie generative KI-Anwendungen

Obwohl das LLM die Hauptarbeit erledigt, erstellen Sie Systeme, die die Ergebnisse integrieren, orchestrieren und überwachen. Es gibt viel zu lernen, aber Sie können die Fähigkeiten anwenden, die Sie bereits haben, einschließlich folgender:

  • Führen Sie API-Aufrufe durch die Verwendung von REST, JSON oder sprachspezifischen Softwareentwicklungskits (SDKs) aus.
  • Koordinieren von API-Aufrufen und Ausführen von Geschäftslogik
  • Speichern in und Abrufen aus Datenspeichern
  • Integration von Eingaben und Ergebnissen in die Benutzererfahrung.
  • Erstellen von APIs, die von LLMs aufgerufen werden können

Die Entwicklung von generativen KI-Lösungen baut auf Ihren vorhandenen Fähigkeiten auf.

Entwicklertools und -dienste

Microsoft investiert in die Entwicklung von Tools, Diensten, APIs, Beispielen und Lernressourcen, um Ihnen bei der Entwicklung ihrer generativen KI-Entwicklung zu helfen. Jeder hebt eine große Sorge oder Verantwortung hervor, die zum Erstellen einer generativen KI-Lösung erforderlich ist. Um einen bestimmten Dienst, eine API oder ressource effektiv zu verwenden, besteht die Herausforderung darin, sicherzustellen, dass Sie:

  • Verstehen Sie die typischen Funktionen, Rollen und Zuständigkeiten bei einer bestimmten Art von generativen KI-Funktionen. In konzeptionellen Artikeln zu Chatsystemen, die auf abrufgestützter Generierung (Retrieval-Augmented Generation, RAG) basieren, gehen wir beispielsweise darauf ein, dass es im System zahlreiche architektonische Verantwortlichkeiten gibt. Es ist wichtig, dass Sie das Problemfeld und die Einschränkungen genau verstehen, bevor Sie ein System entwerfen, das das Problem löst.
  • Verstehen Sie die APIs, Dienste und Tools, die für eine bestimmte Funktion, Rolle oder Verantwortung vorhanden sind. Nachdem Sie nun mit der Problemdomäne und den Einschränkungen vertraut sind, können Sie diesen Aspekt des Systems selbst erstellen, indem Sie benutzerdefinierten Code oder vorhandene Low-Code/No-Code-Tools verwenden oder APIs für vorhandene Dienste aufrufen.
  • Machen Sie sich mit den Optionen, die unter anderem codezentrierte Lösungen und Lösungen ohne Code/mit wenig Code umfassen, vertraut. Sie können alles selbst aufbauen, aber ist das eine effiziente Nutzung Ihrer Zeit und Fähigkeiten? Je nach Ihren Anforderungen können Sie in der Regel eine Kombination aus Technologien und Ansätzen (Code, Code, Code, Low-Code, Tools) zusammenfügen.

Es gibt keinen einzigen richtigen Weg, um generative KI-Features in Ihre Anwendungen zu erstellen. Sie können aus vielen Tools und Ansätzen wählen. Es ist wichtig auszuwerten, welche Nachteile jede einzelne Option mit sich bringt.

Beginnen Mit der Anwendungsschicht

Sie müssen nicht alles darüber verstehen, wie generative KI funktioniert, um zu beginnen und produktiv zu sein. Wie bereits erwähnt, wissen Sie wahrscheinlich bereits genug. Sie können APIs verwenden und vorhandene Fähigkeiten anwenden, um zu beginnen.

Beispielsweise müssen Sie ihre eigene LLM nicht von Grund auf neu trainieren. Die Ausbildung eines LLM erfordert Zeit und Ressourcen, die die meisten Unternehmen nicht investieren möchten. Bauen Sie stattdessen auf vorhandenen vordefinierten Basismodellen wie GPT-4 auf, indem Sie API-Aufrufe in vorhandene gehostete Dienste wie die Azure OpenAI-API durchführen. Das Hinzufügen von generativen KI-Features zu einer vorhandenen Anwendung unterscheidet sich nicht von dem Hinzufügen anderer Funktionen basierend auf einem API-Aufruf.

Die Erforschung, wie LLMs trainiert werden oder wie sie arbeiten, kann Ihre intellektuelle Neugier erfüllen, aber vollständig zu verstehen, wie ein LLM funktioniert, erfordert ein tiefes Verständnis der Datenwissenschaft und des mathematischen Hintergrunds, der es unterstützt. Die Gewinnung dieses Verständnisses kann Kurse auf Graduiertenniveau zu Statistiken, Wahrscheinlichkeiten und Informationstheorie umfassen.

Wenn Sie über einen Informatikhintergrund verfügen, können Sie wissen, dass die meisten Anwendungsentwicklung auf einer höheren Ebene im "Stapel" von Forschung und Technologien erfolgt. Möglicherweise kennen Sie jede Ebene, aber Sie sind wahrscheinlich auf die Anwendungsentwicklungsebene spezialisiert, wobei Sie sich auf eine bestimmte Programmiersprache und Plattform konzentrieren, z. B. verfügbare APIs, Tools und Muster.

Das gleiche gilt für das Feld der KI. Sie können die Theorie, die in den Aufbau von LLMs einfließt, verstehen und schätzen, werden sich aber vermutlich auf die Anwendungsschicht konzentrieren oder helfen, Muster oder Prozesse zu implementieren, um in Ihrem Unternehmen eine Initiative im Bereich der generativen KI umzusetzen.

Hier ist eine übereinfache Darstellung der Wissensschichten, die zum Implementieren der generativen KI-Funktionen in einer neuen oder vorhandenen Anwendung erforderlich sind.

Diagramm, das die Wissensschichten darstellt, die zum Implementieren von generativen KI-Features in einer Anwendung erforderlich sind.

Auf der niedrigsten Ebene führen Datenwissenschaftler Data Science-Forschung durch, um KI auf der Grundlage eines tiefen mathematischen Verständnisses von Statistiken, Wahrscheinlichkeitstheorie usw. zu lösen oder zu verbessern.

Eine Ebene weiter oben, basierend auf der niedrigsten Grundebene, setzen Datenwissenschaftler in LLMs theoretische Konzepte um, indem sie neuronale Netzwerke aufbauen und Gewichtungen und Biase trainieren, um eine praktische Software bereitzustellen, die Eingaben (Aufforderungen) annehmen und Ergebnisse (Fertigstellungen) annehmen kann. Der Rechenprozess, der darin besteht, Vervollständigungen basierend auf Eingabeaufforderungen zu erstellen, wird Inferenz genannt. Datenwissenschaftler bestimmen, wie die Neuronen des neuronalen Netzwerks das nächste Wort oder das nächste Pixel vorhersagen.

Angesichts der zum Trainieren von Modellen und zum Generieren von Ergebnissen basierend auf einer Eingabe erforderlichen Rechenleistung werden Modelle häufig in großen Rechenzentren trainiert und gehostet. Es ist möglich, ein Modell auf einem lokalen Computer zu trainieren oder zu hosten, aber die Ergebnisse sind oft langsam. Geschwindigkeit und Effizienz werden durch dedizierte GPU-Grafikkarten unterstützt, die die für die Generierung der Ergebnisse erforderlichen Berechnungen unterstützen.

Bei der Bereitstellung in großen Rechenzentren wird der programmgesteuerte Zugriff auf diese Modelle über REST-APIs bereitgestellt. Die APIs werden manchmal von SDKs "umschlossen" und stehen Anwendungsentwicklern zur Benutzerfreundlichkeit zur Verfügung. Andere Tools können dazu beitragen, die Entwicklererfahrung zu verbessern, die Observability oder andere Dienstprogramme bereitzustellen.

Anwendungsentwickler können Aufrufe an diese APIs tätigen, um Geschäftsfunktionen zu implementieren.

Neben der programmgesteuerten Aufforderung der Modelle entstehen Muster und Prozesse, um Organisationen bei der Erstellung zuverlässiger Geschäftsfunktionen basierend auf generativer KI zu unterstützen. So entstehen beispielsweise Muster, die Unternehmen dabei helfen, sicherzustellen, dass der generierte Text, Code, Bilder und Sound ethischen und Sicherheitsstandards entsprechen und verpflichtungen im Hinblick auf den Datenschutz von Kundendaten entsprechen.

In diesen Schichten oder Ebenen, wenn Sie ein Anwendungsentwickler sind, der für die Erstellung von Geschäftsfunktionen verantwortlich ist, ist es möglich, dass Sie über die Anwendungsschicht hinaus in die Entwicklung und Schulung Ihres eigenen LLM vorstoßen. Aber dieses Verständnis erfordert neue Fähigkeiten, die oft nur durch höhere Bildung entwickelt werden.

Falls Sie sich nicht darauf einlassen können, akademische Kompetenzen im Bereich der Data Science zu entwickeln, um beim Aufbau der nächsten darunterliegenden Stapelebene mitzuhelfen, können Sie sich auf den Ausbau Ihrer Kenntnisse im Bereich der Anwendungsschichten konzentrieren:

  • APIs und SDKs: Was verfügbar ist und was die verschiedenen Endpunkte produzieren.
  • Verwandte Tools und Dienste helfen Ihnen beim Erstellen aller Features, die für eine produktionsbereite generative KI-Lösung erforderlich sind.
  • Prompt-Engineering: Wie Sie bestmögliche Ergebnisse erzielen, indem Sie Fragen stellen oder umformulieren.
  • Wo Engpässe entstehen und wie man eine Lösung skalieren kann. Dieser Bereich umfasst das Verständnis, was bei der Protokollierung oder beim Abrufen von Telemetrie beteiligt ist, ohne die Datenschutzbedenken des Kunden zu verletzen.
  • Die Merkmale der verschiedenen LLMs: Ihre Stärken, Anwendungsfälle, Benchmarks und das, was sie messen, sowie wichtige Differenzierungen zwischen Anbietern und Modellen, die von jedem Anbieter produziert werden. Diese Informationen helfen Ihnen bei der Auswahl des richtigen Modells für die Anforderungen Ihrer Organisation.
  • Die neuesten Muster, Workflows und Prozesse, mit denen Sie effektive und robuste generative KI-Features in Ihren Anwendungen erstellen können.

Tools und Dienste von Microsoft

Sie können generative Low-Code- und No-Code-KI-Tools und -Dienste von Microsoft verwenden, die Ihnen helfen werden, einige oder aller Ihre Lösungen zu entwickeln. Verschiedene Azure-Dienste können pivotale Rollen spielen. Jeder trägt zur Effizienz, Skalierbarkeit und Robustität der Lösung bei.

API und SDKs für einen codeorientierten Ansatz

Im Mittelpunkt jeder generativen KI-Lösung steht ein LLM-Modell. Azure OpenAI bietet Zugriff auf alle Features, die in Modellen wie GPT-4 verfügbar sind.

Produkt Beschreibung
Azure OpenAI Ein gehosteter Dienst, der Zugriff auf leistungsstarke Sprachmodelle wie GPT-4 bietet. Sie können mehrere APIs verwenden, um alle typischen Funktionen eines LLM auszuführen, z. B. das Erstellen von Einbettungen und das Erstellen einer Chaterfahrung. Sie haben vollzugriff auf Einstellungen und Anpassungen, um die gewünschten Ergebnisse zu erhalten.

Ausführungsumgebungen

Da Sie Geschäftslogik, Präsentationslogik oder APIs erstellen, um generative KI in die Anwendungen Ihrer Organisation zu integrieren, benötigen Sie einen Dienst zum Hosten und Ausführen dieser Logik.

Produkt Beschreibung
Azure-App Dienst (oder eines von mehreren containerbasierten Clouddiensten) Diese Plattform kann die Webschnittstellen oder APIs hosten, über die Benutzer mit dem RAG-Chatsystem interagieren. Es unterstützt schnelle Entwicklung, Bereitstellung und Skalierung von Webanwendungen, sodass es einfacher ist, die Front-End-Komponenten des Systems zu verwalten.
Azure-Funktionen Verwenden Sie serverlose Rechenleistung, um ereignisgesteuerte Aufgaben im RAG-Chatsystem zu verarbeiten. Verwenden Sie sie beispielsweise, um Datenabrufprozesse auszulösen, Benutzerabfragen zu verarbeiten oder Hintergrundaufgaben wie Datensynchronisierung und Bereinigung zu verarbeiten. Es ermöglicht einen modulareren, skalierbareren Ansatz zum Erstellen des Back-End-Systems.

Low-Code- und No-Code-Lösung

Einige der Logik, die Sie zum Implementieren Ihrer generativen KI-Vision benötigen, können schnell erstellt und zuverlässig mithilfe einer Low-Code- oder No-Code-Lösung gehostet werden.

Produkt Beschreibung
Azure AI Foundry Sie können Azure AI Foundry verwenden, um benutzerdefinierte Machine Learning-Modelle zu trainieren, zu testen und bereitzustellen, um ein RAG-Chatsystem zu verbessern. Verwenden Sie beispielsweise Azure AI Foundry, um die Reaktionsgenerierung anzupassen oder die Relevanz der abgerufenen Informationen zu verbessern.

Vektordatenbank

Einige generative KI-Lösungen erfordern möglicherweise die Speicherung und das Abrufen von Daten, die zur Erweiterung der Generierung verwendet werden. Ein Beispiel ist ein RAG-basiertes Chatsystem, mit dem Benutzer mit den Daten Ihrer Organisation chatten können. In diesem Anwendungsfall benötigen Sie einen Vektordatenspeicher.

Produkt Beschreibung
Azure KI Cognitive Search Sie können diesen Dienst verwenden, um große Datasets effizient zu durchsuchen, um relevante Informationen zu finden, die die vom Sprachmodell generierten Antworten informieren. Es ist nützlich für die Abrufkomponente eines RAG-Systems, sodass die generierten Antworten so informativ und kontextbezogen wie möglich sind.
Azure Cosmos DB Dieser global verteilte, multimodellbasierte Datenbankdienst kann die großen Mengen strukturierter und unstrukturierter Daten speichern, auf die das RAG-Chatsystem zugreifen muss. Die schnellen Lese- und Schreibfunktionen machen es ideal für die Bereitstellung von Echtzeitdaten an das Sprachmodell und zum Speichern von Benutzerinteraktionen zur weiteren Analyse.
Azure Cache for Redis Dieser vollständig verwaltete Speicher im Arbeitsspeicher kann zum Zwischenspeichern häufig zugegriffener Informationen verwendet werden, wodurch die Latenz reduziert und die Leistung des RAG-Chatsystems verbessert wird. Es ist besonders nützlich, Sitzungsdaten, Benutzereinstellungen und allgemeine Abfragen zu speichern.
Azure-Datenbank für PostgreSQL – Flexible Server Dieser verwaltete Datenbankdienst kann Anwendungsdaten speichern, einschließlich Protokollen, Benutzerprofilen und historischen Chatdaten. Seine Flexibilität und Skalierbarkeit unterstützen die dynamischen Anforderungen eines RAG-Chatsystems, damit Daten konsistent verfügbar und sicher sind.

Jeder dieser Azure-Dienste trägt zur Erstellung einer umfassenden, skalierbaren und effizienten Architektur für eine generative KI-Lösung bei. Sie helfen Entwicklern, auf die besten Azure-Cloudfunktionen und KI-Technologien zuzugreifen und sie zu nutzen.

Codeorientierte generative KI-Entwicklung mithilfe der Azure OpenAI-API

In diesem Abschnitt konzentrieren wir uns auf die Azure OpenAI-API. Wie bereits erwähnt, greifen Sie programmgesteuert über eine RESTful-Web-API auf DIE LLM-Funktionalität zu. Sie können buchstäblich jede moderne Programmiersprache verwenden, um diese APIs aufzurufen. In vielen Fällen funktionieren sprachspezifische oder plattformspezifische SDKs als Wrapper um die REST-API-Aufrufe, um die Erfahrung idiomatischer zu gestalten.

Hier ist die Liste der Azure OpenAI REST-API-Wrapper:

Wenn eine Sprache oder ein Plattform-SDK nicht verfügbar ist, besteht das Szenario im schlimmsten Fall darin, dass Sie REST-Aufrufe direkt an die Web-APIs tätigen müssen:

Die meisten Entwickler sind mit dem Aufrufen von Web-APIs vertraut.

Azure OpenAI bietet eine Reihe von APIs, die entwickelt wurden, um verschiedene Arten von KI-basierten Aufgaben zu erleichtern, sodass Entwickler erweiterte KI-Funktionen in ihre Anwendungen integrieren können. Hier ist eine Übersicht über die wichtigsten APIs, die in OpenAI verfügbar sind:

  • Chatvervollständigungs-API: Diese API konzentriert sich auf Szenarien der Textgenerierung, einschließlich Unterhaltungsfunktionen, zur Unterstützung der Erstellung von Chatbots und virtuellen Assistenten, die sich an natürlichen, menschlichen Dialogen beteiligen können. Es ist für interaktive Anwendungsfälle optimiert, einschließlich Kundensupport, persönlicher Assistent und interaktiver Lernumgebungen. Es wird jedoch für alle Szenarien zur Textgenerierung verwendet, einschließlich Zusammenfassung, AutoVervollständigen, Schreiben von Dokumenten, Analysieren von Text und Übersetzung. Sie ist der Einstiegspunkt für Funktionen für maschinelles Sehen, die sich derzeit in der Vorschau befinden (z. B. um ein Bild hochzuladen und Fragen zu diesem Bild zu stellen).
  • Moderations-API: Diese API soll Entwicklern helfen, potenziell schädliche Inhalte innerhalb von Text zu identifizieren und herauszufiltern. Es ist ein Tool, mit dem Benutzerinteraktionen sicherer werden, indem automatisch anstößiges, unsicheres oder anderweitig unangemessenes Material erkannt wird.
  • Embeddings-API: Die Einbettungs-API generiert Vektordarstellungen von Texteingaben. Sie konvertiert Wörter, Sätze oder Absätze in hochdimensionale Vektoren. Diese Einbettungen können für semantische Suche, Clustering, Inhaltsähnlichkeitsanalyse und vieles mehr verwendet werden. Er erfasst die zugrunde liegende Bedeutung und semantische Beziehungen im Text.
  • Bildgenerierungs-API: Verwenden Sie diese API, um originale, qualitativ hochwertige Bilder und Grafiken aus Textbeschreibungen zu generieren. Es basiert auf openAI's DALL· E-Modell, das Bilder erstellen kann, die einer vielzahl von Stilen und Themen entsprechen, basierend auf den empfangenen Eingabeaufforderungen.
  • Audio-API-: Diese API bietet Zugriff auf das Audiomodell von OpenAI und ist für die automatische Spracherkennung konzipiert. Sie kann gesprochene Sprache in Text oder Text in Sprache transkribieren und dabei verschiedene Sprachen und Dialekte unterstützen. Es ist nützlich für Anwendungen, die Sprachbefehle, Audioinhaltstranskription und vieles mehr erfordern.

Obwohl Sie generative KI verwenden können, um mit vielen verschiedenen Medienmodalitäten zu arbeiten, konzentrieren wir uns im Rest dieses Artikels auf textbasierte generative KI-Lösungen. Zu diesen Lösungen gehören Szenarien wie Chat und Zusammenfassung.

Beginnen Sie mit der Entwicklung mit generativer KI

Softwareentwickler, die neu in einer unbekannten Sprache, API oder Technologie sind, beginnen in der Regel mit Tutorials oder Schulungsmodulen, die demonstrieren, wie man kleine Anwendungen erstellt. Einige Softwareentwickler bevorzugen einen selbstgeführten Ansatz und erstellen kleine experimentelle Anwendungen. Beide Ansätze sind gültig und nützlich.

Wenn Sie beginnen, ist es am besten, klein zu beginnen, wenig zu versprechen, zu iterieren und Ihr Verständnis und Ihre Fähigkeiten aufzubauen. Die Entwicklung von Anwendungen mithilfe von generativer KI hat einzigartige Herausforderungen. In der herkömmlichen Softwareentwicklung können Sie sich beispielsweise auf deterministische Ergebnisse verlassen. Das heißt, für jeden Satz von Eingaben können Sie jedes Mal genau dieselbe Ausgabe erwarten. Aber generative KI ist nicht deterministisch. Sie erhalten nie zweimal dieselbe Antwort für eine bestimmte Eingabeaufforderung, die sich an der Wurzel vieler neuer Herausforderungen befindet.

Beachten Sie bei den ersten Schritten diese Tipps.

Tipp 1: Machen Sie sich klar, was Sie erreichen möchten

  • Seien Sie spezifisch für das Problem, das Sie lösen möchten: Generative KI kann eine vielzahl von Problemen lösen, aber der Erfolg kommt aus der eindeutigen Definition des spezifischen Problems, das Sie lösen möchten. Versuchen Sie, Text, Bilder, Code oder etwas anderes zu generieren? Je spezifischer Sie sind, desto besser können Sie die KI an Ihre Bedürfnisse anpassen.
  • Verstehen Sie Ihre Zielgruppe: Wenn Sie Ihre Zielgruppe kennen, können Sie die Ergebnisse der KI an ihre Erwartungen anpassen, ganz gleich, ob es sich um zufällige Benutzer oder Experten in einem bestimmten Bereich handelt.

Tipp 2: Nutzen der Stärken von LLMs

  • Verstehen Sie die Einschränkungen und Verzerrungen von LLMs: Obwohl LLMs leistungsfähig sind, haben sie Einschränkungen und angeborene Verzerrungen. Wenn Sie die Einschränkungen und Voreingenommenheiten kennen, können Sie sich um sie herum entwerfen oder Gegenmaßnahmen integrieren.
  • Verstehen Sie, wo LLMs sich auszeichnen: LLMs zeichnen sich bei Aufgaben wie Content-Erstellung, Zusammenfassung und Übersetzung aus. Obwohl ihre Entscheidungsfindungsfunktionen und diskriminativen Funktionen bei jeder neuen Version stärker werden, kann es andere Arten von KI geben, die für Ihr Szenario oder Ihren Anwendungsfall besser geeignet sind. Wählen Sie das richtige Tool für den Auftrag aus.

Tipp 3: Verwenden Sie gute Anweisungen, um gute Ergebnisse zu erzielen.

  • Lernen Sie bewährte Methoden für das Prompt Engineering kennen: Das Erstellen effektiver Eingabeaufforderungen ist eine Kunst. Experimentieren Sie mit verschiedenen Eingabeaufforderungen, um zu sehen, wie sie sich auf die Ausgabe auswirken. Seien Sie präzise und aussagekräftig.
  • Commit für iterative Einschränkung: Häufig liefert die erste Eingabeaufforderung möglicherweise nicht das gewünschte Ergebnis. Es ist ein Prozess der Testversion und des Fehlers. Verwenden Sie die Ergebnisse, um Ihre Eingabeaufforderungen weiter zu verfeinern.

Erstellen Ihrer ersten generativen KI-Lösung

Wenn Sie sofort mit dem Experimentieren beim Erstellen einer generativen KI-Lösung beginnen möchten, sollten Sie sich den Abschnitt Erste Schritte mit dem Chat unter Verwendung Ihres eigenen Datenbeispiels für Python ansehen. Das Lernprogramm ist auch für .NET-, Java-und JavaScript-verfügbar.

Abschließende Überlegungen zum Anwendungsdesign

Nachfolgend finden Sie eine kurze Liste der Punkte, die Sie berücksichtigen sollten, und andere Aspekte aus diesem Artikel, die sich auf Ihre Entscheidungen im Anwendungsentwurf auswirken können:

  • Definieren Sie den Problemraum und die Zielgruppe eindeutig, um die Funktionen der KI an die Erwartungen der Benutzer auszurichten. Optimieren Sie die Effektivität der Lösung für den vorgesehenen Anwendungsfall.
  • Verwenden Sie Low-Code-/No-Code-Plattformen für schnelle Prototyperstellung und -entwicklung, wenn sie die Anforderungen Ihres Projekts erfüllen. Bewerten Sie den Kompromiss zwischen Entwicklungsgeschwindigkeit und Anpassbarkeit. Erkunden Sie die Möglichkeiten von Low-Code- und No-Code-Lösungen für Teile Ihrer Anwendung, um die Entwicklung zu beschleunigen und nicht technische Teammitgliedern zu ermöglichen, zum Projekt beizutragen.