Udostępnij za pośrednictwem


Portal usługi Azure AI Foundry lub Azure Machine Learning Studio: które środowisko należy wybrać?

Ten artykuł pomaga zrozumieć, kiedy używać portalu usługi Azure AI Foundry w porównaniu z usługą Azure Machine Learning. Chociaż w każdym środowisku występują pewne nakładające się funkcje, ten artykuł zawiera omówienie ich możliwości i scenariuszy programowania, które najlepiej nadają się dla każdej platformy.

Portal usługi Azure AI Foundry

ikona portalu usługi Azure AI Foundry portal usługi Azure AI Foundry to ujednolicona platforma do tworzenia i wdrażania generatywnych aplikacji sztucznej inteligencji i interfejsów API Azure AI w sposób odpowiedzialny. Obejmuje on bogaty zestaw funkcji sztucznej inteligencji, uproszczony interfejs użytkownika i środowiska oparte na kodzie, oferując jeden punkt do tworzenia, testowania, wdrażania i zarządzania inteligentnymi rozwiązaniami.

Czy witryna Azure AI Foundry portal jest odpowiednia dla Ciebie?

Portal usługi Azure AI Foundry został zaprojektowany w celu ułatwienia deweloperom i analitykom danych wydajnego tworzenia i wdrażania aplikacji generacyjnych sztucznej inteligencji dzięki możliwościom szerokiej oferty sztucznej inteligencji platformy Azure.

Kluczowe możliwości portalu usługi Azure AI Foundry

  • Twórz razem jako jeden zespół. Twoje centrum portalu Azure AI Foundry zapewnia zabezpieczenia klasy korporacyjnej oraz środowisko współpracy z udostępnionymi zasobami i połączeniami do wstępnie wytrenowanych modeli, danych i obliczeń.
  • Organizowanie pracy. projekt portalu Azure AI Foundry ułatwia zapisywanie stanu, co pozwala wykonać iterację od pierwszego pomysłu do pierwszego prototypu, a następnie najpierw wdrożenia produkcyjnego. Możesz również łatwo zaprosić innych do współpracy w ramach tej podróży.
  • Użyj preferowanej platformy i struktur programistycznych, w tym GitHub, Visual Studio Code, LangChain, Semantic Kernel, AutoGen i nie tylko.
  • Odkryj i przeprowadź test porównawczy z ponad 1600 modeli.
  • Aprowizowanie modeli jako usługi (MaaS) za pomocą bezserwerowych interfejsów API i hostowanego dostrajania.
  • Uwzględnij wiele modeli, źródeł danych i modalności.
  • Tworzenie rozszerzonej generacji pobierania (RAG) przy użyciu chronionych danych przedsiębiorstwa bez konieczności dostrajania.
  • Organizowanie przepływów inżynieryjnych i dużych modeli językowych (LLM) i zarządzanie nimi.
  • Projektowanie i zabezpieczanie aplikacji i interfejsów API przy użyciu konfigurowalnych filtrów i kontrolek.
  • Ocenianie odpowiedzi modelu za pomocą wbudowanych i niestandardowych przepływów oceny.
  • Wdrażanie innowacji sztucznej inteligencji w infrastrukturze zarządzanej platformy Azure przy użyciu ciągłego monitorowania i zapewniania ładu w różnych środowiskach.
  • Ciągłe monitorowanie wdrożonych aplikacji pod kątem bezpieczeństwa, jakości i użycia tokenów w środowisku produkcyjnym.

Azure Machine Learning Studio

ikona usługi Azure Machine Learning Studio azure Machine Learning Studio to zarządzana kompleksowa platforma uczenia maszynowego do tworzenia, dostrajania, wdrażania i obsługi modeli usługi Azure Machine Learning w sposób odpowiedzialny na dużą skalę.

Czy usługa Azure Machine Learning Studio jest odpowiednia dla Ciebie?

Usługa Azure Machine Learning jest przeznaczona dla inżynierów uczenia maszynowego i analityków danych.

Kluczowe możliwości usługi Azure Machine Learning Studio

  • Tworzenie i trenowanie modelu usługi Azure Machine Learning przy użyciu dowolnego typu zasobów obliczeniowych, w tym platformy Spark i procesorów GPU na potrzeby dużych obciążeń sztucznej inteligencji w skali chmury.
  • Uruchamianie zautomatyzowanego interfejsu użytkownika usługi Azure Machine Learning (AutoML) i przeciągania i upuszczania na potrzeby usługi Azure Machine Learning o niskim kodzie.
  • Zaimplementuj kompleksowe potoki usługi Azure Machine LearningOps i powtarzalne potoki usługi Azure Machine Learning.
  • Użyj pulpitu nawigacyjnego odpowiedzialnego używania sztucznej inteligencji na potrzeby wykrywania stronniczych i analizy błędów.
  • Organizowanie przepływów inżynierii monitów i llM oraz zarządzanie nimi.
  • Wdrażanie modeli przy użyciu punktów końcowych interfejsu API REST, czasu rzeczywistego i wnioskowania wsadowego.

Szczegółowe porównanie funkcji

W poniższej tabeli porównaliśmy najważniejsze funkcje portalu azure AI Foundry i usługi Azure Machine Learning Studio:

Kategoria Funkcja Portal usługi Azure AI Foundry Azure Machine Learning Studio
Magazyn danych Rozwiązanie magazynu Nie. Tak, z integracją systemu plików w chmurze, integracją usługi OneLake w sieci szkieletowej i kontami usługi Azure Storage.
Przygotowywanie danych Integracja danych z magazynem Tak, w przypadku usług Blob Storage, Onelake i Azure Data Lake Storage (ADLS) obsługiwanych w indeksie. Tak, za pomocą kopiowania i instalowania przy użyciu kont usługi Azure Storage.
Uzdatnianie danych Nie. Tak, w kodzie.
Etykietowanie danych Nie. Tak, z identyfikacją obiektu, segmentacją wystąpień, segmentacją semantyczną, tekstem Nazwanym rozpoznawaniem jednostek (NER), integracją z narzędziami i usługami etykietowania 3P.
Magazyn funkcji Nie. Tak
Pochodzenie danych i etykiety Nie. Tak
Obciążenia platformy Spark Nie. Tak
Obciążenia orkiestracji danych Nie. Nie, chociaż dołączone potoki Spark i Azure Machine Learning są dostępne.
Opracowywanie i trenowanie modeli Narzędzie code-first dla analityka danych. Tak, z programem VS Code. Tak, ze zintegrowanymi notesami, Jupyter, VS Code, R Studio.
Języki Tylko język Python. Python (pełne środowisko), R, Scala, Java (ograniczone środowisko).
Śledzenie, monitorowanie i ocenianie eksperymentów Tak, ale tylko w przypadku przebiegów przepływu monitu. Tak, dla wszystkich typów przebiegów.
Narzędzia do tworzenia potoku uczenia maszynowego Nie. Tak, za pomocą projektanta, narzędzia do tworzenia wizualizacji i zestawu SDK/interfejsu wiersza polecenia/interfejsu API.
AutoML Nie. Tak, w przypadku regresji, klasyfikacji, prognozowania szeregów czasowych, przetwarzania obrazów i przetwarzania języka naturalnego (NLP).
Cele obliczeniowe na potrzeby trenowania Bezserwerowe tylko dla wystąpień obliczeniowych usługi MaaS i bezserwerowego środowiska uruchomieniowego na potrzeby przepływu monitów. Klastry Spark, klastry usługi Azure Machine Learning (MPI) i bezserwerowe usługi Azure Arc.
Trenowanie i dostosowywanie dużych modeli językowych (LLMs) i modeli podstawowych Ograniczone do wykazu modeli. Tak, w przypadku trenowania rozproszonego opartego na interfejsie MPI i katalogu modeli.
Ocenianie i debugowanie modeli usługi Azure Machine Learning pod kątem sprawiedliwości i możliwości wyjaśnienia. Nie. Tak, za pomocą wbudowanego pulpitu nawigacyjnego Odpowiedzialne używanie sztucznej inteligencji.
Generowanie sztucznej inteligencji/LLM Katalog LLM Tak, za pośrednictwem katalogu modeli, usługi LLMs z platformy Azure OpenAI, przytulania twarzy i meta. Tak, za pośrednictwem modułów LLM wykazu modeli z usługi Azure OpenAI, przytulania twarzy i meta.
RAG (czat przedsiębiorstwa) Tak Tak, za pośrednictwem przepływu monitu.
Filtrowanie zawartości w programie LLM Tak, za pośrednictwem bezpieczeństwa zawartości sztucznej inteligencji. Tak, za pośrednictwem bezpieczeństwa zawartości sztucznej inteligencji.
Przepływ monitu Tak Tak
Ranking/testy porównawcze Tak Nie.
Monituj przykłady Tak Nie.
Przepływ pracy llM/LLMOps/MLOps Plac zabaw Tak Nie.
Monity dotyczące eksperymentów i testów Tak, za pośrednictwem placu zabaw, karty modelu i przepływu monitu. Tak, za pomocą karty modelu i przepływu monitu.
Opracowywanie przepływu pracy Tak, za pośrednictwem przepływu monitu, integracji z biblioteką LangChain i jądrem semantycznym. Tak, za pośrednictwem przepływu monitu, integracji z biblioteką LangChain i jądrem semantycznym.
Wdrażanie przepływu pracy jako punktu końcowego Tak, za pośrednictwem przepływu monitu. Tak, za pośrednictwem przepływu monitu.
Kontrola wersji przepływu Tak, za pośrednictwem przepływu monitu. Tak, za pośrednictwem przepływu monitu.
Wbudowana ocena Tak, za pośrednictwem przepływu monitu. Tak, za pośrednictwem przepływu monitu.
Integracja z usługą Git Tak Tak
CI/CD Tak, za pośrednictwem środowisk code-first w przepływie monitów, zintegrowanych z usługami Azure DevOps i GitHub. Tak, za pośrednictwem środowisk code-first w przepływie monitów, zintegrowanych z usługami Azure DevOps i GitHub.
Rejestr modeli Nie. Tak, za pośrednictwem usługi MIFlow i rejestrów.
Rejestr modeli organizacji Nie. Tak, za pośrednictwem rejestrów.
Wdrażanie modelu Opcje wdrażania dla obsługi w czasie rzeczywistym Modele jako usługa (MaaS) punkty końcowe online dla katalogu MaaP. Nie.
Opcje wdrażania dla obsługi wsadowej Nie. Obsługa punktów końcowych usługi Batch, zarządzanych i niezarządzanych usługi Azure Arc.
Zabezpieczenia przedsiębiorstwa Centrum sztucznej inteligencji Tak, zarządzaj zasobami sztucznej inteligencji i zarządzaj nimi. Tak, zarówno w przypadku klasycznych usług Azure Machine Learning, jak i LLM.
Sieć prywatna Tak Tak
Ochrona przed utratą danych Tak Tak
Klasyfikacja danych Nie. Tak, za pośrednictwem usługi Purview.