Delen via


Overzicht van Generatieve AI voor JavaScript

Ontdek de kracht van Generatieve AI met JavaScript. Meer informatie over het naadloos integreren van AI in uw web-, mobiele of desktoptoepassingen.

JavaScript met AI?

Hoewel het waar is dat Python waarschijnlijk de beste taal is om AI-modellen te maken, trainen en verfijnen, is het een ander verhaal wanneer het gaat om het maken van toepassingen met behulp van deze AI-modellen. De meeste AI-modellen worden gebruikt met behulp van web-API's. Dat betekent dat elke taal die HTTP-aanroepen kan uitvoeren, AI kan uitvoeren. Omdat JavaScript platformoverschrijdend is en het naadloze integratie biedt tussen de omgevingen aan de browser en de serverzijde, is het een uitstekende keuze voor uw AI-toepassingen.

Leuke en interactieve cursus

Neem deel aan een meeslepende leerervaring, waaronder video's, codeprojecten en een volledige implementatie om zowel gebruik te maken als meer te leren over generatieve AI.

Deze cursus is een geweldige manier voor studenten en nieuwe ontwikkelaars om op een leuke, interactieve manier over AI te leren. Voor ontwikkelaars die aan hun carrière werken, verdiep je in het verbeteren van je AI-vaardigheden.

In deze cursus:

  • Leer AI tijdens het tot leven brengen van historische figuren met generatieve kunstmatige intelligentie.
  • Toegankelijkheid toepassen met de ingebouwde browser-API's
  • Tekst- en afbeeldingsgeneratie gebruiken om AI te integreren in de app-ervaring
  • Architectuurpatronen leren voor AI-toepassingen

Een door AI gegenereerde afbeelding van Leonardo Da Vinci die in de bijbehorende app wordt gebruikt om met historische personages te praten.

Gebruik de bijbehorende toepassing om te praten met historische tekens

Wat moet u weten over LLM's?

Grote taalmodellen (LLM's) zijn deep neurale netwerken die zijn getraind op grote hoeveelheden gegevens om tekst te herkennen en te genereren via getokeniseerde invoer. LLM's worden gebouwd door in eerste instantie te trainen op diverse, uitgebreide gegevenssets, een duur proces, om een fundamenteel model te maken, dat vervolgens kan worden afgestemd met gespecialiseerde gegevens voor uitvoer van een hogere kwaliteit. In de praktijk werken deze modellen als geavanceerde systemen voor automatisch aanvullen, ongeacht of deze zich in een typische IDE bevinden of via chatinterfaces die gedetailleerde aanwijzingen volgen. Ze worden echter beperkt door contextvensters (meestal een paar duizend tokens, hoewel nieuwere modellen veel meer ondersteunen) en nemen vooroordelen over van hun trainingsgegevens. Dit onderstreept het belang van verantwoorde AI-procedures, zoals de procedures die door Microsoft worden verdedigd, die verantwoordelijkheid, betrouwbaarheid, privacy en verantwoordelijkheid in AI-ontwikkeling benadrukken.

Meer informatie in de LLM-sessie van de cursus:

Essentiële prompt engineeringtechnieken

Prompt engineering omvat het ontwerpen en optimaliseren van prompts om de uitvoer van AI-modellen te verbeteren. In deze sessie wordt het concept geïntroduceerd met technieken zoals zero-shot learning, waarbij het model antwoorden genereert met behulp van de trainingsgegevens zonder voorbeelden en weinig-shot learning, waarbij voorbeelden het gewenste resultaat begeleiden. De spreker laat zien hoe het toevoegen van aanwijzingen, zoals kettingzinnige woordgroepen, om stapsgewijze redenering, duidelijke instructies, context en zelfs het opgeven van uitvoerindelingen aan te moedigen, de reacties van het model aanzienlijk kan verbeteren. Wanneer u een scenario gebruikt met een AI-assistent voor Contoso Shoes, worden verschillende wijzigingen zoals toonaanpassingen en persoonlijke instellingen weergegeven om de resultaten verder te verfijnen, waarbij de fase wordt ingesteld voor geavanceerdere technieken, zoals RAG in de volgende sessie.

Kom meer te weten in de prompt engineering sessie van de cursus:

Nauwkeurigheid en betrouwbaarheid van AI verbeteren met RAG

Verbeter de nauwkeurigheid en betrouwbaarheid van AI met behulp van Rag (Retrieval Augmented Generation). RAG ondervangt beperkingen van traditionele grote taalmodellen door een retriever te combineren die relevante, up-to-datumdocumenten ophaalt uit een knowledge base met een generator waarmee antwoorden worden gemaakt op basis van die specifieke context. Deze methode zorgt voor feitelijke, transparante antwoorden door de uitvoer in vertrouwde bronnen te gronden, waardoor deze zowel rendabel als verifieerbaar is. Een praktisch voorbeeld met ondersteuning voor Contoso-onroerend goed laat zien hoe RAG effectief gedetailleerde, geciteerde antwoorden kan bieden met behulp van bedrijfsdocumenten om een back-up te maken van de antwoorden.

Meer informatie in de RAG-sessie van de cursus:

Uw AI-ontwikkeling versnellen met LangChain.js

Versnel uw AI-ontwikkeling met behulp van LangChain.js: een JavaScript-bibliotheek die het werken met grote taalmodellen stroomlijnt. LangChain.js biedt abstracties op hoog niveau voor het bouwen van promptsjablonen, het beheren van model- en vectordatabaseonderdelen en het maken van complexe werkstromen. Het framework maakt snelle prototypen mogelijk, zoals het bouwen van een API die YouTube-transcripties extraheert en verwerkt om vragen te beantwoorden en vereenvoudigt de overgang van lokale ontwikkeling naar productie in Azure door eenvoudige onderdelenwisselingen mogelijk te maken, zoals het vervangen van lokale modellen en vectorarchieven met Azure-services.

Meer informatie in de LangChain.js sessie van de cursus:

AI-modellen uitvoeren op uw lokale computer met Ollama

Download en gebruik lokale AI-modellen met Ollama, een opensource-hulpprogramma op basis van llama.cpp, om efficiënt kleine taalmodellen zoals Phi-3 uit te voeren. Lokale modellen elimineren de afhankelijkheid van de cloudinfrastructuur, maken snelle ontwikkeling mogelijk met offlinemogelijkheden en bieden rendabele tests via een snelle interne ontwikkelingslus. Phi-3, bekend om zijn hoge prestaties en verantwoorde AI-veiligheid, kan zelfs worden uitgevoerd op gematigde specificaties en is toegankelijk via een OpenAI-compatibele API, waardoor het eenvoudig kan worden geïntegreerd met uw ontwikkelwerkstroom.

Meer informatie in de Ollama-sessie van de cursus:

Gratis aan de slag met AI met Phi-3

Experimenteer met AI-modellen met behulp van het hulpprogramma Ollama en het Phi-3-model rechtstreeks vanuit uw browser via een onlinespeeltuin. Door een GitHub Codespace te maken, kunt u communiceren met een vertrouwde VS Code-editor in uw browser, opdrachten uitvoeren zoals Ollama run phi3 in de terminal om met het model te chatten en een interactief Jupyter-notebook gebruiken voor het uitvoeren van codeblokken die prompt engineering, few-shot learning demonstreren en opvraag-geoptimaliseerde generatie via een OpenAI-compatibele API. Met deze installatie kunt u uw AI-projecten volledig online verkennen en ontwikkelen, zonder dat u een snelle GPU of lokale infrastructuur nodig hebt.

Meer informatie in de Phi-3-sessie van de cursus:

Inleiding tot Azure AI Foundry

Azure AI Foundry is net als de gateway voor uw reis naar het bouwen van generatieve AI-toepassingen met JavaScript. In deze sessie verkennen we hoe De Foundry resources organiseert via hubs en projecten, duikt u in een uitgebreide modelcatalogus met duizenden modellen van verschillende providers en implementeert u een model om het te testen in een interactieve speeltuin. Ongeacht of u beheerde compute- of serverloze API-opties kiest, blijven de kernconcepten consistent wanneer u het model selecteert, implementeert en integreert in uw ontwikkelwerkstroom.

Meer informatie in de Azure AI Foundry-sessie van de cursus:

Generatieve AI-apps bouwen met Azure Cosmos DB

Meer informatie vindt u in de Azure Cosmos DB-sessie van de cursus:

Azure-hulpprogramma's & services voor het hosten en opslaan van AI-apps

Meer informatie over de essentiële Azure-hulpprogramma's en -services voor het hosten en opslaan van uw AI-apps. We verkennen de verschillende typen AI-apps die u kunt bouwen, van chat-apps tot het ophalen van uitgebreide generatie en autonome agents, en bespreken de hulpprogramma's die vereist zijn, waaronder de Azure Developer CLI (AZD) voor naadloze implementatie. U leert over architectuuropties, het wegen van serverloze versus op containers gebaseerde benaderingen en het beheren van API's in productie met overwegingen voor beveiliging, schalen en bewaking, zodat uw AI-toepassingen robuust en gereed zijn voor gebruik in de echte wereld.

Meer informatie vindt u in de sessie Azure-hulpprogramma's en -services van de cursus:

Streamen van Generatieve AI-uitvoer met het AI-Chatprotocol

Verken streaminggeneratieve AI-uitvoer met behulp van het AI Chat Protocol, wat realtime communicatie tussen uw back-end AI-inferentieservice en clienttoepassingen vereenvoudigt. We zullen twee streaming-benaderingen bekijken: inference in de browser en via een AI-inferenceserver. We bespreken de uitdagingen van de blootstelling van API-sleutels, gegevenssanitatie en protocolselectie. Met de lichtgewicht client van het AI Chat Protocol en de methoden voor synchrone (getCompletion) en asynchrone (getStreamedCompletion) communicatie kunt u eenvoudig veilige, efficiënte en goed gestructureerde streaming integreren in uw AI-app, zoals gedemonstreerd aan de hand van het LangChain.js voorbeeld in onze serverloze RAG-demonstratie.

Meer informatie in de Streaming-sessie van de cursus: