次の方法で共有


JavaScript 用の生成 AI の概要

JavaScript を使用して、ジェネレーティブ AI の力を発見します。 WEB、モバイル、またはデスクトップ アプリケーションに AI をシームレスに統合する方法について説明します。

AI を使用した JavaScript

おそらく Python が AI モデルの作成、トレーニング、微調整に最適な言語であることは事実ですが、これらの AI モデルを使用してアプリケーションを作成する場合は別の話です。 ほとんどの AI モデルは、Web API を使用して使用されます。 つまり、HTTP 呼び出しを行うことができる言語は、実際に AI を実行できます。 JavaScript はクロスプラットフォームであり、ブラウザーとサーバー側環境の間にシームレスな統合を提供するため、AI アプリケーションに最適な選択肢です。

楽しくインタラクティブなコース

ビデオ、コード プロジェクト、生成 AI を使用して学習するための完全な実装など、イマーシブな学習エクスペリエンスをご利用ください。

このコースは、学生や新しい開発者が楽しくインタラクティブな方法で AI について学ぶのに最適な方法です。 キャリア開発者の場合は、AI へのアップスケールについてさらに詳しく説明します。

このコースでは、次の手順を実行します。

  • ジェネレーティブ AI を使用して歴史上の人物を生き生きとさせる間に AI を学習する
  • 組み込みのブラウザー API を使用してアクセシビリティを適用する
  • テキストと画像の生成を使用して AI をアプリ エクスペリエンスに統合する
  • AI アプリケーションのアーキテクチャ パターンについて学習する

コンパニオン アプリで使用され、歴史的なキャラクターと話をするために使用される、AI によって生成されたレオナルド・ダ・ヴィンチの画像。

コンパニオン アプリケーションを使用して、歴史的なキャラクターと話す

LLM について知っておくべきこと

大規模言語モデル (LLM) は、トークン化された入力を通じてテキストを認識して生成するために、膨大な量のデータに対してトレーニングされたディープ ニューラル ネットワークです。 LLM は、最初に多様で広範なデータセット (コストの高いプロセス) に関するトレーニングによって構築され、基本的なモデルを作成し、高品質の出力を得るために特殊なデータで微調整できます。 実際には、これらのモデルは、一般的な IDE でも、詳細なプロンプトに従うチャット インターフェイスでも、高度なオートコンプリート システムと同様に機能します。 ただし、コンテキスト ウィンドウによって制限され (通常は数千のトークンですが、新しいモデルでははるかに多くのサポートが提供されます)、トレーニング データからバイアスを継承する可能性があります。 これは、Microsoft が支持する AI プラクティスなど、責任ある AI プラクティスの重要性を強調しています。これは、AI 開発における公平性、信頼性、プライバシー、アカウンタビリティを強調するものです。

詳細については、コース LLM セッションを参照してください。

基本的なプロンプト エンジニアリング手法

プロンプト エンジニアリングには、AI モデルの出力を強化するためのプロンプトの設計と最適化が含まれます。 このセッションでは、この概念をゼロショット学習などの手法で紹介します。この手法では、モデルが例なしでトレーニング データを使用して応答を生成し、いくつかのショット学習を行い、例が目的の結果を導きます。 話者は、ステップ バイ ステップの推論、明確な命令、コンテキスト、さらには出力形式の指定を促進する思考の連鎖フレーズなどのキューを追加することで、モデルの応答を大幅に向上させる方法を示します。 Contoso Shoes の AI アシスタントでシナリオを使用すると、トーン調整やパーソナル化などのさまざまな変更が表示され、結果をさらに絞り込み、次のセッションで RAG などのより高度な手法のステージが設定されます。

コース プロンプトエンジニアリングセッションで詳細を学習します。

RAG を使用して AI の精度と信頼性を向上させる

取得拡張生成 (RAG) を使用して、AI の精度と信頼性を向上させます。 RAG は、ナレッジ ベースから関連する up-to-date ドキュメントをプルする取得ツールと、その特定のコンテキストに基づいて回答を作成するジェネレーターを組み合わせることによって、従来の大規模言語モデルの制限を克服します。 この方法では、信頼できるソースの出力を基にして、信頼性の高い透過的な応答を実現し、コスト効率と検証性の両方を実現します。 Contoso の不動産サポートの実際の例では、RAG が会社のドキュメントを使用して応答をバックアップすることで、詳細で引用された回答を効果的に提供する方法を示しています。

詳細については、コース RAG セッションを参照してください。

LangChain.js を使用して AI 開発を高速化する

LangChain.jsを使用して AI 開発を加速します。これは、大規模な言語モデルの操作を効率化する JavaScript ライブラリです。 LangChain.js では、プロンプト テンプレートの構築、モデルおよびベクター データベース コンポーネントの管理、複雑なワークフローの作成のための高度な抽象化が提供されます。 このフレームワークを使用すると、質問に答えるために YouTube トランスクリプトを抽出して処理する API の構築などの迅速なプロトタイプ作成が可能になり、ローカル モデルやベクター ストアを Azure サービスに置き換えるなどの簡単なコンポーネントスワップを可能にすることで、Azure でのローカル開発から運用環境への移行が簡略化されます。

コース LangChain.js セッションで詳細を確認してください。

Ollama を使用してローカル コンピューターで AI モデルを実行する

Llama.cppに基づくオープンソース ツールである Ollama を使用してローカル AI モデルをダウンロードして使用し、Phi-3 のような小さな言語モデルを効率的に実行します。 ローカル モデルは、クラウド インフラストラクチャへの依存を排除し、オフライン機能を使用した迅速な開発を可能にし、迅速な内部開発ループを通じてコスト効率の高いテストを提供します。 Phi-3は、高性能で責任あるAI安全性が特徴で、中程度の仕様のデバイスでも実行でき、OpenAIと互換性のあるAPIを介してアクセスできるため、開発ワークフローと簡単に統合できます。

コース オラマセッションで詳細を確認してください。

Phi-3 を使用して AI を無料で開始する

Ollama ツールと Phi-3 モデルを使用して、オンラインプレイグラウンドを介してブラウザーから直接 AI モデルを試します。 GitHub Codespace を作成することで、ブラウザーで使い慣れた VS Code エディターと対話したり、ターミナルで Ollama run phi3 などのコマンドを実行してモデルとチャットしたり、対話型の Jupyter Notebook を使用して、OpenAI 互換 API を使用したプロンプト エンジニアリング、少数ショット学習、取得拡張生成を示すコード ブロックを実行したりできます。 このセットアップにより、AI プロジェクトを完全にオンラインで調査および開発できます。高速な GPU またはローカル インフラストラクチャは必要ありません。

コース Phi-3セッションで詳細を学習してください。

Azure AI Foundry の概要

Azure AI Foundry は、JavaScript を使用して生成型 AI アプリケーションを構築するためのゲートウェイに似ています。 このセッションでは、Foundry がハブとプロジェクトを通じてリソースを整理する方法、さまざまなプロバイダーの何千ものモデルを含む豊富なモデル カタログを調べる方法、対話型の遊び場でテストするモデルをデプロイする方法について説明します。 マネージド コンピューティングとサーバーレス API のどちらのオプションを選択した場合でも、モデルを選択してデプロイし、開発ワークフローに統合する際に、主要な概念は一貫性を保ちます。

詳細については、コース の Azure AI Foundry セッションで学習します。

Azure Cosmos DB を使用したジェネレーティブ AI アプリの構築

コース の azure Cosmos DB セッションで詳細を確認します。

AI アプリをホストおよび格納するための Azure ツール & サービス

AI アプリのホスティングと格納に不可欠な Azure ツールとサービスについて説明します。 チャット アプリから取得拡張生成エージェント、自律エージェントまで、構築できるさまざまな種類の AI アプリについて説明し、シームレスなデプロイに必要なツール (Azure Developer CLI (AZD) など) について説明します。 アーキテクチャオプション、サーバーレスとコンテナーベースのアプローチの比較、セキュリティ、スケーリング、監視に関する考慮事項を使用して運用環境の API を管理する方法について学習し、AI アプリケーションが堅牢で、実際の使用に対応できるようにします。

コース の azure ツールとサービスのセッションで詳細を確認します。

AIチャットプロトコルを使用して生成AIをストリーミング出力

AI チャット プロトコルを使用してストリーミング生成 AI 出力を探索します。これにより、バックエンド AI 推論サービスとクライアント アプリケーション間のリアルタイム通信が簡略化されます。 ブラウザーでの推論と AI 推論サーバーを介した 2 つのストリーミング アプローチを確認し、API キーの公開、データのサニタイズ、プロトコルの選択の課題について説明します。 AI チャット プロトコルの軽量クライアントとその同期 (getCompletion) メソッドと非同期 (getStreamedCompletion) メソッドを使用すると、サーバーレス RAG と LangChain.js サンプルで示されているように、安全で効率的で適切に構造化されたストリーミングを AI アプリに簡単に統合できます。

コース ストリーミング セッションで詳細を確認してください。