Omówienie generowania sztucznej inteligencji dla języka JavaScript
Odkryj możliwości generowania sztucznej inteligencji za pomocą języka JavaScript. Dowiedz się, jak bezproblemowo zintegrować sztuczną inteligencję z aplikacjami internetowymi, mobilnymi lub klasycznymi.
Język JavaScript ze sztuczną inteligencją?
Chociaż to prawda, że język Python jest prawdopodobnie najlepszym językiem do tworzenia, trenowania i dostosowywania modeli sztucznej inteligencji, jest to inna historia, gdy jest to kwestia tworzenia aplikacji przy użyciu tych modeli sztucznej inteligencji. Większość modeli sztucznej inteligencji jest używana z wykorzystaniem webowych interfejsów API. Oznacza to, że każdy język, który może wykonywać wywołania HTTP, może rzeczywiście wykonywać sztuczną inteligencję. Ponieważ język JavaScript jest międzyplatformowy i zapewnia bezproblemową integrację między środowiskami przeglądarki i po stronie serwera, jest to doskonały wybór dla aplikacji sztucznej inteligencji.
Kurs zabawny i interaktywny
Dołącz do nas, aby przeżyć immersywne doświadczenie edukacyjne, obejmujące filmy wideo, projekty kodowania oraz pełną implementację, aby używać i uczyć się o generatywnej sztucznej inteligencji.
Ten kurs jest doskonałym sposobem dla uczniów i nowych deweloperów, aby dowiedzieć się więcej o sztucznej inteligencji w zabawny, interaktywny sposób. Dla programistów: wskocz głębiej, aby rozwijać swoje umiejętności z zakresu sztucznej inteligencji.
W tym kursie:
- Poznaj sztuczną inteligencję, ożywiając postaci historyczne z generatywną sztuczną inteligencją.
- Stosowanie ułatwień dostępu za pomocą wbudowanych interfejsów API przeglądarki
- Używanie generowania tekstu i obrazu w celu zintegrowania sztucznej inteligencji ze środowiskiem aplikacji
- Poznaj wzorce architektury dla aplikacji sztucznej inteligencji
Użyj aplikacji towarzyszącej do rozmowy z postaciami historycznymi
Co musisz wiedzieć o llMs?
Duże modele językowe (LLM) to głębokie sieci neuronowe wyszkolone na ogromnych ilościach danych do rozpoznawania i generowania tekstu za pomocą tokenizowanych danych wejściowych. Modele językowe LLM są tworzone poprzez wstępne szkolenie na różnorodnych, rozbudowanych zestawach danych — kosztowny proces — aby stworzyć podstawowy model, który następnie można dostosować do specjalistycznych danych w celu uzyskania wyników o wyższej jakości. W praktyce te modele działają jak zaawansowane systemy autouzupełniania, zarówno w typowym środowisku IDE, jak i za pośrednictwem interfejsów czatu zgodnych ze szczegółowymi monitami. Są one jednak ograniczone przez okna kontekstowe (zazwyczaj kilka tysięcy tokenów, choć nowsze modele obsługują znacznie więcej) i mogą dziedziczyć uprzedzenia ze swoich danych treningowych. Podkreśla to znaczenie praktyk w zakresie odpowiedzialnej sztucznej inteligencji, takich jak te, które są obsługiwane przez firmę Microsoft, które podkreślają sprawiedliwość, niezawodność, prywatność i odpowiedzialność w rozwoju sztucznej inteligencji.
Dowiedz się więcej w sesji LLM kursu:
- Demo
- wideo
Podstawowe techniki inżynierii monitów
Inżynieria promptów obejmuje projektowanie i optymalizowanie promptów w celu poprawy wyników modelu sztucznej inteligencji. W tej sesji koncepcja jest wprowadzana za pomocą technik takich jak uczenie zero-shot, gdzie model generuje odpowiedzi przy użyciu swoich danych treningowych bez przykładów, oraz uczenie few-shot, gdzie przykłady pomagają osiągnąć pożądany wynik. Prelegent pokazuje, jak dodawanie wskazówek — takich jak frazy łańcuchowe myśli, aby zachęcić do wnioskowania krok po kroku, jasne instrukcje, kontekst, a nawet określanie formatów danych wyjściowych — może znacząco poprawić odpowiedzi modelu. Podczas korzystania ze scenariusza z asystentem AI dla firmy Contoso Shoes, wprowadzane są różne modyfikacje, takie jak dostosowanie tonu i personalizacja, które pomagają w dalszym doprecyzowaniu wyników, przygotowując grunt pod bardziej zaawansowane techniki, takie jak RAG w kolejnej sesji.
Dowiedz się więcej w ramach sesji projektowania promptów w kursie.
Zwiększanie dokładności i niezawodności sztucznej inteligencji dzięki funkcji RAG
Zwiększ dokładność i niezawodność sztucznej inteligencji przy użyciu RAG (Retrieval Augmented Generation). Rag pozwala przezwyciężyć ograniczenia tradycyjnych dużych modeli językowych, łącząc moduł pobierania, który ściąga odpowiednie, up-to- daty dokumentów z bazy wiedzy z generatorem, który tworzy odpowiedzi na podstawie tego konkretnego kontekstu. Ta metoda zapewnia faktyczne, przejrzyste odpowiedzi poprzez uziemienie danych wyjściowych w zaufanych źródłach, co czyni je zarówno opłacalnymi, jak i weryfikowalnymi. Praktyczny przykład wsparcia nieruchomości Contoso pokazuje, jak RAG może skutecznie dostarczać szczegółowe, cytowane odpowiedzi przy użyciu dokumentów firmy, aby wesprzeć swoje odpowiedzi.
Dowiedz się więcej podczas sesji RAG kursu.
Przyspieszanie opracowywania sztucznej inteligencji przy użyciu LangChain.js
Przyspieszanie opracowywania sztucznej inteligencji przy użyciu LangChain.js— biblioteki języka JavaScript, która usprawnia pracę z dużymi modelami językowymi. LangChain.js zapewnia abstrakcje wysokiego poziomu do tworzenia szablonów monitów, zarządzania składnikami bazy danych modelu i wektorów oraz tworzenia złożonych przepływów pracy. Platforma umożliwia szybkie tworzenie prototypów, takich jak tworzenie interfejsu API, który wyodrębnia i przetwarza transkrypcje w serwisie YouTube w celu odpowiadania na pytania, i upraszcza przejście od lokalnego programowania do produkcji na platformie Azure, umożliwiając łatwe zamiany składników, takie jak zastępowanie lokalnych modeli i magazynów wektorów za pomocą usług platformy Azure.
Dowiedz się więcej w sesji LangChain.js kursu:
- demonstracyjne
- Wideo
Uruchamianie modeli sztucznej inteligencji na komputerze lokalnym przy użyciu rozwiązania Ollama
Pobieranie i używanie lokalnych modeli sztucznej inteligencji z narzędziem Ollama — narzędziem typu open source opartym na llama.cpp — w celu wydajnego uruchamiania małych modeli językowych, takich jak Phi-3. Modele lokalne eliminują poleganie na infrastrukturze chmury, umożliwiają szybkie opracowywanie z możliwościami trybu offline i oferują ekonomiczne testowanie za pomocą szybkiej wewnętrznej pętli programowania. Phi-3, znany z wysokiej wydajności i odpowiedzialnego bezpieczeństwa sztucznej inteligencji, może działać nawet na urządzeniach o średniej specyfikacji i jest dostępny za pośrednictwem interfejsu API zgodnego z platformą OpenAI, co ułatwia integrację z przepływem pracy programowania.
Dowiedz się więcej w ramach sesji Ollama na kursie.
Rozpocznij pracę ze sztuczną inteligencją bezpłatnie przy użyciu rozwiązania Phi-3
Poeksperymentuj z modelami sztucznej inteligencji przy użyciu narzędzia Ollama i modelu Phi-3 bezpośrednio z przeglądarki za pośrednictwem placu zabaw online. Tworząc przestrzeń roboczą GitHub Codespaces, możesz korzystać ze znanego edytora VS Code w przeglądarce, uruchamiać polecenia takie jak „Ollama run phi3” w terminalu, aby rozmawiać z modelem, oraz wykorzystywać interaktywny notatnik Jupyter do wykonywania bloków kodu, które demonstrują inżynierię monitów, uczenie przy małej liczbie przykładów oraz generację wspomaganą pobieraniem za pośrednictwem interfejsu API zgodnego z OpenAI. Ta konfiguracja umożliwia eksplorowanie i opracowywanie projektów sztucznej inteligencji w trybie online — nie ma potrzeby szybkiego procesora GPU ani lokalnej infrastruktury.
Dowiedz się więcej w sesji Phi-3 kursu:
- demonstracyjne
- wideo
Wprowadzenie do rozwiązania Azure AI Foundry
Usługa Azure AI Foundry jest jak brama na potrzeby tworzenia generowania aplikacji sztucznej inteligencji za pomocą języka JavaScript. W tej sesji dowiemy się, jak firma Foundry organizuje zasoby za pośrednictwem centrów i projektów, zapoznamy się z bogatym katalogiem modeli z tysiącami modeli od różnych dostawców i wdrożymy model, aby przetestować go na interaktywnym placu zabaw. Niezależnie od tego, czy wybierasz opcje zarządzanego obliczeniowego, czy bezserwerowego interfejsu API, podstawowe pojęcia pozostają spójne podczas wybierania, wdrażania i integrowania modelu z przepływem pracy programowania.
Dowiedz się więcej na temat sesji Azure AI Foundry w kursie.
- demo
- #wideo
Tworzenie aplikacji generacyjnych sztucznej inteligencji za pomocą usługi Azure Cosmos DB
Aby dowiedzieć się więcej, zapoznaj się z sesją Azure Cosmos DB w ramach kursu.
- Demo
- wideo
Narzędzia platformy Azure i usługi & do hostowania i przechowywania aplikacji sztucznej inteligencji
Poznaj podstawowe narzędzia i usługi platformy Azure do hostowania i przechowywania aplikacji sztucznej inteligencji. Zapoznamy się z różnymi typami aplikacji sztucznej inteligencji, które można tworzyć — od aplikacji do czatu po generację uzupełnianą przez wyszukiwanie oraz agentów autonomicznych — oraz omówimy wymagane narzędzia, w tym Azure Developer CLI (AZD) na potrzeby bezproblemowego wdrażania. Dowiesz się więcej na temat opcji architektury, ważenia rozwiązań bezserwerowych i opartych na kontenerach oraz sposobu zarządzania interfejsami API w środowisku produkcyjnym z uwzględnieniem zabezpieczeń, skalowania i monitorowania, zapewniając niezawodne i gotowe do użycia w świecie rzeczywistym aplikacje sztucznej inteligencji.
Dowiedz się więcej podczas sesji narzędzi i usług platformy Azure w ramach kursu.
Generowanie strumieniowe wyników generatywnej sztucznej inteligencji za pomocą protokołu czatowego AI
Poznaj dane wyjściowe generowane przez sztuczną inteligencję w czasie rzeczywistym, korzystając z protokołu AI Chat Protocol, który upraszcza komunikację w czasie rzeczywistym między zapleczem usługi wnioskowania AI a aplikacjami klienckimi. Zapoznamy się z dwoma metodami przesyłania strumieniowego — przeprowadzaniem wnioskowania w przeglądarce i za pośrednictwem serwera wnioskowania sztucznej inteligencji — omawiając wyzwania związane z ekspozycją klucza API, oczyszczaniem danych i wyborem protokołu. Dzięki uproszczonemu klientowi protokołu AI Chat Protocol oraz jego metodom synchronicznym (getCompletion) i asynchronicznym (getStreamedCompletion) można łatwo zintegrować bezpieczne, wydajne i dobrze zorganizowane przesyłanie strumieniowe z aplikacją sztucznej inteligencji, jak pokazano na przykładzie naszej bezserwerowej funkcji RAG z użyciem próbki LangChain.js.
Dowiedz się więcej podczas sesji Streaming w ramach kursu.
- Demo
- wideo