Sdílet prostřednictvím


Přehled generativní umělé inteligence pro JavaScript

Objevte výkon generující umělé inteligence pomocí JavaScriptu. Zjistěte, jak bezproblémově integrovat AI do webových, mobilních nebo desktopových aplikací.

JavaScript s AI?

I když je pravda, že Python je pravděpodobně nejlepším jazykem pro vytváření, trénování a vyladění modelů AI, je to jiný příběh, když jde o vytváření aplikací pomocí těchto modelů AI. Většina modelů AI se využívá pomocí webových rozhraní API. To znamená, že jakýkoli jazyk, který může provádět volání HTTP, může skutečně provádět AI. Vzhledem k tomu, že JavaScript je multiplatformní a poskytuje bezproblémovou integraci mezi prohlížečem a prostředím na straně serveru, je skvělou volbou pro vaše aplikace AI.

Zábavný a interaktivní kurz

Připojte se k nám pro imerzivní výukové prostředí, včetně videí, projektů kódu a úplné implementace pro použití a seznámení s generováním umělé inteligence.

Tento kurz je skvělý způsob, jak se studenti a noví vývojáři dozvědět o umělé inteligenci zábavným interaktivním způsobem. Pro kariérní vývojáře se hlouběji ponořte do rozšiřování znalostí v oblasti AI.

V tomto kurzu:

  • Seznamte se s AI a přineste si historické postavy do života pomocí generující umělé inteligence
  • Použití přístupnosti pomocí integrovaných rozhraní API prohlížeče
  • Použití generování textu a obrázku k integraci umělé inteligence do prostředí aplikace
  • Seznámení se vzory architektury pro aplikace AI

obrázek Leonarda Da Vinci vygenerovaný pomocí umělé inteligence, který se používá v doprovodné aplikaci ke komunikaci s historickými postavami.

Použijte průvodní aplikaci ke komunikaci s historickými charaktery

Co potřebujete vědět o LLM?

Velké jazykové modely (LLM) jsou hluboké neurální sítě natrénované na obrovských objemech dat, které rozpoznávají a generují text prostřednictvím tokenizovaných vstupů. LLM jsou sestaveny počátečním trénováním na různorodých, rozsáhlých datových sadách – nákladným procesem – k vytvoření základního modelu, který se pak dá doladit se specializovanými daty pro vyšší kvalitu výstupu. V praxi tyto modely fungují jako pokročilé systémy automatického dokončování, ať už v typickém integrovaném vývojovém prostředí nebo prostřednictvím rozhraní chatu, která dodržují podrobné výzvy. Jsou však omezeny kontextovými okny (obvykle několik tisíc tokenů, i když novější modely podporují mnohem více) a mohou dědit předsudky ze svých trénovacích dat. To podtrhuje důležitost zodpovědných postupů umělé inteligence, jako jsou ty, které microsoft podporuje, což klade důraz na nestrannost, spolehlivost, ochranu osobních údajů a odpovědnost při vývoji umělé inteligence.

Další informace najdete v relaci LLM kurzu.

Základní techniky navrhování výzev

Inženýrství výzev zahrnuje návrh a optimalizaci výzev za účelem vylepšení výstupů AI modelů. V této relaci je koncept představen pomocí technik, jako je učení s nulovým předpisem, kdy model generuje odpovědi na základě tréninkových dat bez příkladů, a učení s několika příklady, kde příklady vedou k požadovanému výsledku. Přednášející ukazuje, jak přidání upozornění , jako jsou řetězové myšlenkové fráze, které podporují podrobné odůvodnění, jasné pokyny, kontext a dokonce i určení výstupních formátů, mohou výrazně zlepšit odpovědi modelu. Když použijete scénář s asistentem AI pro Contoso Shoes, zobrazí se různé úpravy, jako jsou úpravy tónu a přizpůsobení, pro další upřesnění výsledků a připraví půdu pro pokročilejší techniky, jako je RAG v další relaci.

Další informace o navrhování promptů naleznete na sezení v kurzu.

Zlepšení přesnosti a spolehlivosti AI s využitím RAG

Zlepšení přesnosti a spolehlivosti AI pomocí technologie RAG (Retrieval Augmented Generation). RAG překonat omezení tradičních velkých jazykových modelů kombinací načítač, který získává relevantní up-to-date dokumenty ze znalostní báze s generátorem, který odpovídá na základě tohoto konkrétního kontextu. Tato metoda zajišťuje faktické, transparentní odpovědi tím, že zdůvodní výstup v důvěryhodných zdrojích, což z něj činí nákladově efektivní i ověřitelné. Praktický příklad podpory nemovitostí společnosti Contoso ukazuje, jak může RAG efektivně poskytnout podrobné citované odpovědi pomocí firemních dokumentů k zálohování odpovědí.

Další informace najdete v relaci RAG kurzu:

Zrychlení vývoje umělé inteligence pomocí LangChain.js

Urychlete vývoj umělé inteligence pomocí LangChain.js– javascriptové knihovny, která zjednodušuje práci s velkými jazykovými modely. LangChain.js poskytuje základní abstrakce pro vytváření šablon výzev, správu komponent modelu a vektorové databáze a vytváření složitých pracovních postupů. Tato architektura umožňuje rychlé vytváření prototypů, jako je vytvoření rozhraní API, které extrahuje a zpracovává přepisy YouTube, aby odpovídaly na otázky, a zjednodušuje přechod z místního vývoje do produkčního prostředí v Azure tím, že umožňuje snadné prohození komponent, jako je nahrazení místních modelů a úložišť vektorů službami Azure.

Další informace najdete v LangChain.js lekci kurzu.

Spouštění modelů AI na místním počítači pomocí Ollama

Stáhněte a používejte místní modely AI s Ollama – opensourcovým nástrojem založeným na llama.cpp – k efektivnímu spouštění malých jazykových modelů, jako je Phi-3. Místní modely eliminují závislost na cloudové infrastruktuře, umožňují rychlý vývoj s offline funkcemi a nabízejí nákladově efektivní testování prostřednictvím rychlé vnitřní vývojové smyčky. Phi-3, který je známý pro vysoký výkon a zodpovědnou bezpečnost umělé inteligence, může běžet i na středně specificiálních zařízeních a je přístupný prostřednictvím rozhraní API kompatibilního s OpenAI, což usnadňuje integraci s pracovním postupem vývoje.

Další informace najdete v relaci kurzuOllama:

Začínáme s AI zdarma s využitím Phi-3

Experimentujte s modely AI pomocí nástroje Ollama a modelu Phi-3 přímo z prohlížeče prostřednictvím online dětského hřiště. Když vytvoříte GitHub Codespace, můžete pracovat se známým editorem VS Code v prohlížeči, spouštět příkazy, jako je Ollama, spustit phi3 v terminálu pro chatování s modelem a využívat interaktivní poznámkový blok Jupyter pro spouštění bloků kódu, které demonstrují přípravu výzvy, učení s několika snímky a načítání rozšířené generace prostřednictvím rozhraní API kompatibilního s OpenAI. Toto nastavení umožňuje zkoumat a vyvíjet projekty AI zcela online – není potřeba rychlé GPU ani místní infrastruktury.

Další informace najdete v sekci Phi-3 v rámci kurzu:

Úvod do Azure AI Foundry

Azure AI Foundry je jako brána pro vaši cestu k vytváření generovaných aplikací AI pomocí JavaScriptu. V této relaci prozkoumáme, jak Foundry organizuje prostředky prostřednictvím center a projektů, ponoříme se do bohatého katalogu modelů s tisíci modelů od různých poskytovatelů a nasadíme model, který ho otestuje v interaktivním dětském prostředí. Bez ohledu na to, jestli zvolíte možnosti spravovaného výpočetního prostředí nebo bezserverového rozhraní API, základní koncepty zůstanou při výběru, nasazení a integraci modelu do pracovního postupu vývoje konzistentní.

Další informace najdete v kurzu v sekciAzure AI Foundry.

Vytváření aplikací generující AI pomocí služby Azure Cosmos DB

Další informace najdete v relaci služby Azure Cosmos DB kurzu:

Nástroje Azure & služby pro hostování a ukládání aplikací AI

Seznamte se se základními nástroji a službami Azure pro hostování a ukládání aplikací AI. Prozkoumáme různé typy aplikací AI, které můžete vytvářet – od chatovacích aplikací až po načítání rozšířených generování a autonomních agentů – a probereme potřebné nástroje, včetně Azure Developer CLI (AZD) pro bezproblémové nasazení. Dozvíte se o možnostech architektury, vážení bezserverových přístupů a přístupech založených na kontejnerech a o tom, jak spravovat rozhraní API v produkčním prostředí s ohledem na zabezpečení, škálování a monitorování a zajistit, aby vaše aplikace AI byly robustní a připravené pro reálné použití.

Další informace najdete v rámci kurzu v sekci nástroje a služby Azure.

Streamování výstupu generující AI pomocí protokolu chatu AI

Prozkoumejte výstup generování streamované umělé inteligence pomocí protokolu chatu AI, který zjednodušuje komunikaci v reálném čase mezi back-endovou službou odvozováním AI a klientskými aplikacemi. Podíváme se na dva přístupy streamování – odvozování v prohlížeči a prostřednictvím serveru pro odvozování AI – probereme výzvy vystavení klíče rozhraní API, sanitizace dat a výběr protokolu. S jednoduchým klientem protokolu AI Chat a jeho synchronními metodami (getCompletion) a asynchronními metodami (getStreamedCompletion) můžete snadno integrovat zabezpečené, efektivní a dobře strukturované streamování do vaší AI aplikace, jak je demonstrováno v naší serverless RAG s ukázkou LangChain.js.

Další informace najdete v relaci streamování kurzu.