Dela via


Design av AI-arkitektur

AI är en teknik som gör det möjligt för datorer att imitera intelligent mänskligt beteende. Datorer kan använda AI för att:

  • Analysera data för att skapa bilder och videor.
  • Analysera och syntetisera tal.
  • Interagera verbalt på naturliga sätt.
  • Gör förutsägelser och generera nya data.

Du kan införliva AI i program för att utföra funktioner eller fatta beslut som traditionell logik eller bearbetning inte kan hantera effektivt. Som arkitekt som utformar lösningar är det viktigt att förstå AI- och maskininlärningslandskapet och hur du kan integrera Azure-lösningar i din arbetsbelastningsdesign.

Sätta igång

Azure Architecture Center innehåller exempelarkitekturer, arkitekturguider, arkitekturbaslinjer och idéer som du kan använda i ditt scenario. Arbetsbelastningar som omfattar AI- och maskininlärningskomponenter bör följa Azure Well-Architected Framework riktlinjer för AI-arbeten. Den här vägledningen innehåller principer och designguider som påverkar AI- och maskininlärningsarbetsbelastningen i de fem arkitekturpelarna. Du bör implementera dessa rekommendationer i scenarier och innehåll i Azure Architecture Center.

AI-begrepp

AI-begrepp omfattar en mängd olika tekniker och metoder som gör det möjligt för datorer att utföra uppgifter som vanligtvis kräver mänsklig intelligens. Följande avsnitt innehåller en översikt över viktiga AI-begrepp.

Algoritmer

algoritmer eller maskininlärningsalgoritmer är koddelar som hjälper människor att utforska, analysera och hitta mening i komplexa datamängder. Varje algoritm är en begränsad uppsättning entydiga stegvisa instruktioner som en dator kan följa för att uppnå ett specifikt mål. Målet med en maskininlärningsmodell är att upprätta eller identifiera mönster som människor kan använda för att göra förutsägelser eller kategorisera information. En algoritm kan beskriva hur du avgör om ett husdjur är en katt, hund, fisk, fågel eller ödla. En annan mycket mer komplicerad algoritm kan beskriva hur du identifierar ett skrivet eller talat språk, analyserar dess ord, översätter dem till ett annat språk och sedan kontrollerar översättningen för noggrannhet.

Välj en algoritmfamilj som passar bäst för din uppgift. Utvärdera de olika algoritmerna i familjen för att hitta lämplig passform för din arbetsbelastning. Mer information finns i Vad är maskininlärningsalgoritmer?.

Maskininlärning

Maskininlärning är en AI-teknik som använder algoritmer för att skapa förutsägelsemodeller. Dessa algoritmer parsar datafält och "lär dig" från mönstren i data för att generera modeller. Modellerna kan sedan fatta välgrundade förutsägelser eller beslut baserat på nya data.

Förutsägelsemodellerna verifieras mot kända data, mäts med prestandamått för specifika affärsscenarier och justeras sedan efter behov. Den här inlärnings- och valideringsprocessen kallas för utbildning. Genom regelbunden omträning förbättras maskininlärningsmodeller med tiden.

I din arbetsbelastningsdesign kan du använda maskininlärning om ditt scenario innehåller tidigare observationer som du kan använda på ett tillförlitligt sätt för att förutsäga framtida situationer. Dessa observationer kan vara universella sanningar, till exempel datorsyn som identifierar en form av djur från en annan. Eller så kan dessa observationer vara specifika för din situation, till exempel visuellt innehåll som identifierar ett potentiellt monteringsfel på dina monteringslinjer baserat på tidigare garantianspråksdata.

Mer information finns i Vad är maskininlärning?.

Djupinlärning

Djupinlärning är en typ av maskininlärning som kan lära sig genom sin egen databehandling. Precis som maskininlärning använder den också algoritmer för att analysera data. Men den analyserar data via artificiella neurala nätverk som innehåller många indata, utdata och lager av bearbetning. Varje lager kan bearbeta data på olika sätt. Utdata från ett lager blir indata för nästa. Den här processen gör det möjligt för djupinlärning att skapa mer komplexa modeller än traditionell maskininlärning.

Djupinlärning kräver en stor investering för att generera mycket anpassade eller undersökande modeller. Du kan överväga andra lösningar i den här artikeln innan du lägger till djupinlärning i din arbetsbelastning.

Mer information finns i Vad är djupinlärning?.

Generativ AI

Generative AI tränar modeller för att generera originalinnehåll baserat på många former av innehåll, till exempel naturligt språk, visuellt innehåll, ljud eller bildinmatning. Med generativ AI kan du beskriva önskade utdata i vardagsspråket, och modellen kan svara genom att skapa lämplig text, bild och kod. Exempel på generativa AI-program är Microsoft Copilot och Azure OpenAI Service.

  • Copilot är främst ett användargränssnitt som hjälper dig att skriva kod, dokument och annat textbaserat innehåll. Den baseras på populära OpenAI-modeller och är integrerad i en mängd olika Microsoft-program och användarupplevelser.

  • Azure OpenAI är en utvecklingsplattform som en tjänst som ger åtkomst till OpenAI:s kraftfulla språkmodeller, till exempel o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo with Vision, GPT-4, GPT-3.5-Turbo och modellserien Embeddings. Du kan anpassa dessa modeller till dina specifika uppgifter, till exempel:

    • Innehållsgenerering.
    • Innehållssammanfattning.
    • Bildtolkning.
    • Semantisk sökning.
    • Naturligt språk för kodöversättning.

Språkmodeller

Language-modeller är en delmängd av generativ AI som fokuserar på bearbetningsuppgifter för naturligt språk, till exempel textgenerering och attitydanalys. Dessa modeller representerar naturligt språk baserat på sannolikheten för ord eller sekvenser av ord som förekommer i en viss kontext.

Konventionella språkmodeller används i övervakade inställningar för forskningsändamål där modellerna tränas på välmärkta textdatauppsättningar för specifika uppgifter. Förtränade språkmodeller erbjuder en lättillgänglig metod att komma igång med AI. De används mer allmänt under de senaste åren. Dessa modeller tränas på storskaliga textsamlingar från Internet via neurala djupinlärningsnätverk. Du kan finjustera dem på mindre datauppsättningar för specifika uppgifter.

Antalet parametrar eller vikter avgör storleken på en språkmodell. Parametrar påverkar hur modellen bearbetar indata och genererar utdata. Under träningen justerar modellen vikterna för att minimera skillnaden mellan dess förutsägelser och faktiska data. Den här processen är hur modellen lär sig parametrar. Ju fler parametrar en modell har, desto mer komplex och uttrycksfull är den. Men det är också mer beräkningsmässigt dyrt att träna och använda.

I allmänhet har små språkmodeller i allmänhet färre än 10 miljarder parametrar och stora språkmodeller har mer än 10 miljarder parametrar. Microsoft Phi-3-modellfamiljen har till exempel tre versioner:

  • Mini, 3,8 miljarder parametrar
  • Små parametrar på 7 miljarder
  • Medel, 14 miljarder parametrar

För mer information, se Språkmodells katalog.

Andrepiloter

Tillgängligheten av språkmodeller ledde till nya sätt att interagera med program och system via digitala andrepiloter och anslutna, domänspecifika agenter. Copilots är generativa AI-assistenter som integreras i program, ofta som chattgränssnitt. De ger sammanhangsberoende stöd för vanliga uppgifter i dessa program.

Microsoft Copilot integreras med en mängd olika Microsoft-program och användarupplevelser. Den baseras på en öppen arkitektur där utvecklare som inte kommer från Microsoft kan skapa egna plugin-program för att utöka eller anpassa användarupplevelsen med Copilot. Partnerutvecklare kan också skapa egna assistenter med hjälp av samma öppna arkitektur.

Mer information finns i följande resurser:

Hämtning av utökad generering

RAG(Retrieval Augmented Generation) är ett arkitekturmönster som utökar funktionerna i en stor språkmodell (LLM), som ChatGPT, som endast tränas på offentliga data. Du kan använda det här mönstret för att lägga till ett hämtningssystem som tillhandahåller relevanta grunddata i kontexten med användarbegäran. Ett informationshämtningssystem ger kontroll över jordningsdata som en språkmodell använder när den formulerar ett svar. RAG-arkitekturen hjälper dig att begränsa generativ AI till innehåll som kommer från vektoriserade dokument, bilder och andra dataformat. RAG är inte begränsat till lagring av vektorsökning. Du kan använda valfri datalagringsteknik.

Mer information finns i Utforma och utveckla en RAG-lösning och Välj en Azure-tjänst för vektorsökning.

Azure AI-tjänster

Med Azure AI-tjänsterkan utvecklare och organisationer använda färdiga, fördefinierade och anpassningsbara API:er och modeller för att skapa intelligenta, marknadsklara och ansvarsfulla program. Användningsfall omfattar bearbetning av naturligt språk för konversationer, sökning, övervakning, översättning, tal, vision och beslutsfattande.

Mer information finns i följande resurser:

AI-språkmodeller

LLM-modeller, såsom OpenAI GPT-modellerna, är kraftfulla verktyg som kan generera naturligt språk inom olika domäner och uppgifter. Om du vill välja en modell bör du överväga faktorer som datasekretess, etisk användning, noggrannhet och bias.

Öppna Phi-modeller är små, mindre beräkningsintensiva modeller för generativa AI-lösningar. En liten språkmodell kan vara mer effektiv, tolkningsbar och förklarande än en LLM.

När du utformar en arbetsbelastning kan du använda språkmodeller som en värdbaserad lösning bakom ett mätbart API. Alternativt kan du för många små språkmodeller också vara värd för språkmodeller internt, eller åtminstone på samma datorexemplar som användaren. När du använder språkmodeller i din lösning bör du överväga ditt val av språkmodell och dess tillgängliga värdalternativ för att säkerställa en optimerad lösning för ditt användningsfall.

PLATTFORMAR och verktyg för AI-utveckling

Följande AI-utvecklingsplattformar och -verktyg kan hjälpa dig att skapa, distribuera och hantera maskininlärnings- och AI-modeller.

Azure Machine Learning

Azure Machine Learning är en maskininlärningstjänst som du kan använda för att skapa och distribuera modeller. Machine Learning erbjuder webbgränssnitt och SDK:er som du kan använda för att träna och distribuera dina maskininlärningsmodeller och pipelines i stor skala. Använd dessa funktioner med Python-ramverk med öppen källkod, till exempel PyTorch, TensorFlow och scikit-learn.

Mer information finns i följande resurser:

Referensarkitekturer för maskininlärning för Azure

Automatiserad maskininlärning

Automatiserad maskininlärning (AutoML) är processen att automatisera de tidskrävande, iterativa uppgifterna för utveckling av maskininlärningsmodeller. Dataforskare, analytiker och utvecklare kan använda AutoML för att skapa maskininlärningsmodeller som har hög skala, effektivitet och produktivitet samtidigt som modellkvaliteten bibehålls.

Mer information finns i följande resurser:

MLflow

Machine Learning-arbetsytor är MLflow-kompatibla, vilket innebär att du kan använda en Machine Learning-arbetsyta på samma sätt som du använder en MLflow-server. Den här kompatibiliteten ger följande fördelar:

  • Machine Learning är inte värd för MLflow-serverinstanser, men kan använda MLflow-API:erna direkt.
  • Du kan använda en Machine Learning-arbetsyta som spårningsserver för valfri MLflow-kod, oavsett om den körs i Machine Learning eller inte. Du måste konfigurera MLflow så att det pekar på arbetsytan där spårningen ska ske.
  • Du kan köra träningsrutiner som använder MLflow i Machine Learning utan att göra några ändringar.

Mer information finns i MLflow och Machine Learning och MLflow.

Generativa AI-verktyg

  • Prompt Flow är en uppsättning utvecklingsverktyg som du kan använda för att effektivisera utvecklingscykeln från slutpunkt till slutpunkt för generativa AI-program, från idésättning, prototyper, testning och utvärdering till produktionsdistribution och övervakning. Den stöder snabbteknik genom att uttrycka åtgärder i en modulär orkestrerings- och flödesmotor.

  • Azure AI Foundry hjälper dig att experimentera, utveckla och distribuera generativa AI-appar och API:er på ett ansvarsfullt sätt med en omfattande plattform. AI Foundry-portalen ger åtkomst till Azure AI-tjänster, grundmodeller, en lekplats och resurser som hjälper dig att skapa, träna, finjustera och distribuera AI-modeller. Du kan också utvärdera modellsvar och samordna applikationskomponenter med hjälp av prompt-flöde för bättre prestanda.

  • Copilot Studio utökar Copilot i Microsoft 365. Du kan använda Copilot Studio för att bygga skräddarsydda co-piloter för interna och externa scenarier. Använd en omfattande redigeringsarbetsyta för att utforma, testa och publicera AI-assistenter. Du kan enkelt skapa generativa AI-aktiverade konversationer, ge större kontroll över svar för befintliga andrepiloter och påskynda produktiviteten med hjälp av automatiserade arbetsflöden.

Dataplattformar för AI

Följande plattformar erbjuder omfattande lösningar för dataflytt, bearbetning, inmatning, transformering, realtidsanalys och rapportering.

Microsoft Fabric

Microsoft Fabric är en analys- och dataplattform från slutpunkt till slutpunkt för företag som kräver en enhetlig lösning. Du kan ge arbetsbelastningsteam åtkomst till data i Fabric. Plattformen omfattar dataförflyttning, bearbetning, inmatning, transformering, händelseroutning i realtid och rapportskapande. Det erbjuder en omfattande uppsättning tjänster, inklusive Fabric Data Engineer, Fabric Data Factory, Fabric Data Science, Fabric Real-Time Intelligence, Fabric Data Warehouse och Fabric Databases.

Fabric integrerar separata komponenter i en sammanhängande stack. I stället för att förlita dig på olika databaser eller informationslager kan du centralisera datalagring med OneLake. AI-funktioner är inbäddade i Fabric, vilket eliminerar behovet av manuell integrering.

Mer information finns i följande resurser:

Andrepiloter i infrastrukturresurser

Du kan använda Copilot och andra generativa AI-funktioner för att transformera och analysera data, generera insikter och skapa visualiseringar och rapporter i Fabric och Power BI. Du kan skapa en egen andrepilot eller välja någon av följande fördefinierade andrepiloter:

AI-kunskaper i Infrastruktur

Du kan använda kompetensfunktionen Fabric AI för att konfigurera ett generativt AI-system för att generera frågor som svarar på frågor om dina data. När du har konfigurerat en AI-färdighet kan du dela den med dina kollegor, som sedan kan ställa sina frågor på ett enkelt språk. Baserat på deras frågor genererar AI:n frågor om de data som besvarar dessa frågor.

Mer information finns i följande resurser:

Apache Spark-baserade dataplattformar för AI

Apache Spark är ett ramverk för parallellbearbetning som stöder minnesintern bearbetning för att öka prestanda i program för stordataanalys. Spark tillhandahåller grundläggande byggstenar för minnesintern klusterberäkning. Ett Spark-jobb kan läsa in och cachelagrat data i minnet och köra frågor mot dem upprepade gånger, vilket är snabbare än diskbaserade program, till exempel Hadoop.

Apache Spark i Microsoft Fabric

Fabric Runtime är en Azure-integrerad plattform baserad på Apache Spark som möjliggör implementering och hantering av datateknik och datavetenskapsupplevelser. Fabric Runtime kombinerar viktiga komponenter från interna källor med öppen källkod, vilket ger en omfattande lösning.

Fabric Runtime har följande viktiga komponenter:

  • Apache Spark är ett kraftfullt bibliotek med distribuerad databehandling med öppen källkod som möjliggör storskalig databearbetning och analysuppgifter. Apache Spark är en mångsidig och högpresterande plattform för datateknik och datavetenskap.

  • Delta Lake är ett lagringslager med öppen källkod som integrerar transaktioner med atomicitet, konsekvens, isolering och hållbarhet (ACID) och andra funktioner för datatillförlitlighet med Apache Spark. Delta Lake är integrerat i Fabric Runtime och förbättrar databehandlingsfunktionerna och säkerställer datakonsekvens i flera samtidiga åtgärder.

  • paket på standardnivå för Java, Scala, Python och R är paket som stöder olika programmeringsspråk och miljöer. Dessa paket installeras och konfigureras automatiskt, så att utvecklare kan använda sina önskade programmeringsspråk för databearbetningsuppgifter.

Fabric Runtime bygger på ett robust operativsystem med öppen källkod för att säkerställa kompatibilitet med olika maskinvarukonfigurationer och systemkrav.

För mer information, se Apache Spark-körningstider i Fabric.

Azure Databricks Runtime för Machine Learning

Azure Databricks är en Apache Spark-baserad analysplattform med ett klick, effektiva arbetsflöden och en interaktiv arbetsyta för samarbete mellan dataforskare, tekniker och affärsanalytiker.

Du kan använda Databricks Runtime for Machine Learning för att starta ett Databricks-kluster med alla bibliotek som krävs för distribuerad träning. Den här funktionen tillhandahåller en miljö för maskininlärning och datavetenskap. Den innehåller flera populära bibliotek, inklusive TensorFlow, PyTorch, Keras och XGBoost. Det stöder också distribuerad träning via Horovod.

Mer information finns i följande resurser:

Apache Spark i Azure HDInsight

Apache Spark i Azure HDInsight är Microsofts implementering av Apache Spark i molnet. Spark-kluster i HDInsight är kompatibla med Azure Storage och Azure Data Lake Storage, så du kan använda HDInsight Spark-kluster för att bearbeta data som du lagrar i Azure.

SynapseML, tidigare känt som MMLSpark, är Microsofts maskininlärningsbibliotek för Apache Spark. Det här biblioteket med öppen källkod lägger till många verktyg för djupinlärning och datavetenskap, nätverksfunktioner och prestanda i produktionsklass i Spark-ekosystemet.

Mer information finns i följande resurser:

Datalagring för AI

Du kan använda följande plattformar för att effektivt lagra, komma åt och analysera stora mängder data.

Fabric OneLake

OneLake i Fabric är en enhetlig och logisk datasjö som du kan skräddarsy för hela organisationen. Den fungerar som central hubb för alla analysdata och ingår i varje Fabric-klientorganisation. OneLake i Fabric bygger på grunden för Data Lake Storage.

OneLake i Infrastruktur:

  • Stöder strukturerade och ostrukturerade filtyper.
  • Lagrar alla tabelldata i Delta-Parquet format.
  • Tillhandahåller en enda datasjö inom klientorganisationens gränser som styrs som standard.
  • Stöder skapandet av arbetsytor i en klientorganisation så att din organisation kan distribuera ägarskaps- och åtkomstprinciper.
  • Stöder skapandet av olika dataobjekt, till exempel sjöhus och lager, som du kan komma åt data från.

Mer information finns i OneLake, OneDrive för data.

Data Lake Storage

Data Lake Storage är en enda centraliserad lagringsplats där du kan lagra dina strukturerade och ostrukturerade data. Använd en datasjö för att snabbt och enkelt lagra, komma åt och analysera en mängd olika data på en enda plats. Du behöver inte anpassa dina data för att passa en befintlig struktur. I stället kan du lagra dina data i dess råa eller interna format, vanligtvis som filer eller som binära stora objekt eller blobar.

Data Lake Storage tillhandahåller filsystemssemantik, säkerhet på filnivå och skalning. Eftersom dessa funktioner bygger på Azure Blob Storage får du även låg kostnad, nivåindelad lagring som har hög tillgänglighet och haveriberedskapsfunktioner.

Data Lake Storage använder infrastrukturen i Azure Storage för att skapa en grund för att skapa företagsdatasjöar i Azure. Data Lake Storage kan hantera flera petabyte med information samtidigt som hundratals gigabit dataflöde bibehålls så att du kan hantera enorma mängder data.

Mer information finns i följande resurser:

Databearbetning för AI

Du kan använda följande verktyg för att förbereda data för maskininlärning och AI-program. Se till att dina data är rena och strukturerade så att du kan använda dem för avancerad analys.

Fabric Data Factory

Du kan använda Fabric Data Factory för att mata in, förbereda och transformera data från flera datakällor, till exempel databaser, informationslager, sjöhus och dataströmmar i realtid. Den här tjänsten kan hjälpa dig att uppfylla dina datadriftskrav när du utformar arbetsbelastningar.

Fabric Data Factory har stöd för kodlösningar och lösningar utan kod eller låg kod:

  • Använd datapipelines för att skapa arbetsflödesfunktioner i molnskala. Använd dra och släpp-gränssnittet för att skapa arbetsflöden som kan uppdatera ditt dataflöde, flytta petabytestorleksdata och definiera pipelines för kontrollflöde.

  • Använd dataflöden som ett lågkodsgränssnitt för att mata in data från hundratals datakällor och transformera dem med hjälp av över 300 datatransformeringar.

För mer information, se Data Factory end-to-end-scenario: Introduktion och arkitektur.

Azure Databricks

Du kan använda Databricks Data Intelligence Platform för att skriva kod för att skapa ett arbetsflöde för maskininlärning med hjälp av funktionstekniker. Funktionstekniker är processen att omvandla rådata till funktioner som du kan använda för att träna maskininlärningsmodeller. Databricks Data Intelligence Platform innehåller viktiga funktioner som stöder funktionsutveckling:

  • Datapipelines läser in rådata, skapar egenskapstabeller, tränar modeller och utför batchinferens. När du använder funktionsutveckling i Unity Catalog för att träna och logga en modell paketeras modellen med funktionsmetadata. När du använder modellen för batchbedömning eller online-slutsatsdragning hämtar den automatiskt funktionsvärden. Anroparen behöver inte känna till värdena eller inkludera logik för att söka efter eller koppla funktioner för att poängsätta nya data.

  • Modeller och funktionsslutpunkter är omedelbart tillgängliga och ger svarstid i millisekunder.

  • Övervakning hjälper till att säkerställa prestanda och noggrannhet för data och modeller.

Du kan också använda Mosaic AI Vector Search för att lagra och hämta inbäddningar. Inbäddningar är avgörande för program som kräver likhetssökningar, till exempel RAG, rekommendationssystem och bildigenkänning.

Mer information finns i Azure Databricks: Hantera data för maskininlärning och AI-.

Dataanslutningar för AI

Azure Data Factory- och Azure Synapse Analytics-pipelines stöder många datalager och format via kopiering, dataflöde, uppslag, hämta metadata och ta bort aktiviteter. För att se de tillgängliga anslutningarna för databutiker, de funktioner som stöds inklusive motsvarande konfigurationer, och generella alternativ för Open Database Connectivity, se Översikt över Azure Data Factory och Azure Synapse Analytics-anslutningar.

Anpassad AI

Anpassade AI-lösningar hjälper dig att hantera specifika affärsbehov och utmaningar. Följande avsnitt innehåller en översikt över olika verktyg och tjänster som du kan använda för att skapa och hantera anpassade AI-modeller.

Azure Machine Learning

Azure Machine Learning är en molntjänst för att påskynda och hantera maskininlärningsprojektets livscykel. Maskininlärningspersonal, dataforskare och tekniker kan använda den här tjänsten i sina dagliga arbetsflöden för att träna och distribuera modeller och hantera maskininlärningsåtgärder.

Machine Learning erbjuder följande funktioner:

  • Algoritmval: Vissa algoritmer gör specifika antaganden om datastruktur eller önskade resultat. Välj en algoritm som passar dina behov så att du kan få mer användbara resultat, mer exakta förutsägelser och snabbare träningstider. Mer information finns i Så här väljer du algoritmer för Machine Learning-.

  • Justering eller optimering av Hyperparameter: Du kan använda den här manuella processen för att hitta konfigurationer av hyperparametrar som ger bästa prestanda. Den här optimeringen medför betydande beräkningskostnader. Hyperparametrar är justerbara parametrar som ger kontroll i modellträningsprocessen. Du kan till exempel välja antalet dolda lager och antalet noder i varje lager av neurala nätverk. Modellprestanda är starkt beroende av hyperparametrar.

    Du kan använda Machine Learning för att automatisera justering av hyperparametrar och köra experiment parallellt för att effektivt optimera hyperparametrar.

    Mer information finns i följande resurser:

  • Modellträning: Du kan iterativt använda en algoritm för att skapa eller lära modeller. När modeller har tränats kan du använda dem för att analysera data och göra förutsägelser.

    Under träningsfasen:

    1. En kvalitetsuppsättning med kända data taggas så att enskilda fält kan identifieras.

    2. En algoritm som är konfigurerad för att göra en viss förutsägelse tar emot taggade data.

    3. Algoritmen matar ut en modell som avbildar de mönster som identifieras i data. Modellen använder en uppsättning parametrar för att representera dessa mönster.

    Under valideringen:

    1. Nya data taggas och används för att testa modellen.

    2. Algoritmen justeras efter behov och gör eventuellt mer träning.

    3. Testfasen använder verkliga data utan taggar eller förvalda mål. Om modellens resultat är korrekta är den redo att användas och kan distribueras.

    Mer information finns i följande resurser:

  • AutoML: Den här processen automatiserar de tidskrävande, iterativa uppgifterna för utveckling av maskininlärningsmodeller. Det kan avsevärt minska den tid det tar att producera produktionsklara maskininlärningsmodeller. AutoML kan hjälpa till med modellval, justering av hyperparametrar, modellträning och andra uppgifter, utan att kräva omfattande programmering eller domänkunskaper.

    Du kan använda AutoML när du vill att Machine Learning ska använda ett angivet målmått för att träna och finjustera en modell. Du behöver ingen datavetenskapsexpertis för att identifiera en maskininlärningspipeline från slutpunkt till slutpunkt för problem.

    Maskininlärningspersonal och utvecklare i olika branscher kan använda AutoML för att:

    • Implementera maskininlärningslösningar utan omfattande programmerings- eller maskininlärningskunskaper.
    • Spara tid och resurser.
    • Tillämpa metodtips för datavetenskap.
    • Ge flexibel problemlösning.

    Mer information finns i Vad är AutoML?.

  • Scoring: Den här processen, även kallad förutsägelse, använder en tränad maskininlärningsmodell för att generera värden baserat på nya indata. Värdena, eller poängen, kan representera förutsägelser för framtida värden, men de kan också representera en sannolik kategori eller ett resultat.

    Mer information finns i följande resurser:

  • Funktionsutveckling och funktionalisering: Träningsdata består av rader och kolumner. Varje rad är en observation eller post, och kolumnerna i varje rad är de funktioner som beskriver varje post. Vanligtvis väljs de funktioner som bäst kännetecknar mönstren i data för att skapa förutsägelsemodeller.

Även om du kan använda många av rådatafälten för att träna en modell kan du behöva skapa andra konstruerade funktioner som ger information för att bättre särskilja mönster i data. Den här processen kallas funktionsteknik, där du använder domänkunskaper om data för att skapa funktioner som hjälper maskininlärningsalgoritmer att lära sig bättre.

I Machine Learning används dataskalnings- och normaliseringstekniker för att göra funktionsframställning enklare. Tillsammans kallas dessa tekniker och funktionstekniker funktionalisering i AutoML-experiment. Mer information finns i Data-funktionalisering i automatiserad maskininlärning.

Azure OpenAI

I Azure OpenAI kan du använda en process som kallas finjustering för att skräddarsy OpenAI-modeller till dina personliga datamängder. Det här anpassningssteget optimerar tjänsten genom att tillhandahålla:

  • Resultat av högre kvalitet jämfört med promptteknik endast.
  • Möjligheten att träna på fler exempel än vad en modells maximala gräns för förfrågningssammanhang vanligtvis tillåter.
  • Tokenbesparingar på grund av kortare uppmaningar.
  • Begäranden med kortare svarstid, särskilt när du använder mindre modeller.

Mer information finns i följande resurser:

Azure AI-tjänster för anpassad AI

Azure AI-tjänster tillhandahåller funktioner för att skapa anpassade AI-modeller och program. Följande avsnitt innehåller en översikt över dessa viktiga funktioner.

Anpassat tal

Anpassat tal är en funktion i Azure AI Speech-tjänsten. Du kan använda anpassat tal för att utvärdera och förbättra noggrannheten för taligenkänning för dina program och produkter. Använd en anpassad talmodell för tal till text i realtid, talöversättning och batch-transkription.

Som standard använder taligenkänning en universell språkmodell som basmodell. Den här modellen tränas med Microsoft-ägda data och återspeglar vanligt talat språk. Basmodellen är förtränad med dialekter och fonetik som representerar olika vanliga domäner. När du gör en begäran om taligenkänning används den senaste basmodellen för ditt språk som stöds som standard. Basmodellen fungerar bra i de flesta taligenkänningsscenarier.

Du kan använda en anpassad modell för att utöka basmodellen. Du kan till exempel förbättra igenkänningen av domänspecifik vokabulär som är specifik för ett program genom att tillhandahålla textdata för att träna modellen. Du kan också förbättra igenkänningen för specifika ljudvillkor för ett program genom att tillhandahålla ljuddata, inklusive referenstranskriptioner.

Om data följer ett mönster kan du använda strukturerad text för att träna en modell. Du kan ange anpassade uttal och anpassa visningstextformatering med anpassad inverterad textnormalisering, anpassad omskrivning och anpassad svordomsfiltrering.

Anpassad översättare

Custom Translator är en funktion i tjänsten Azure AI Translator. Företag, apputvecklare och språktjänstleverantörer kan använda anpassad översättare för att skapa anpassade NMT-system (neural maskinöversättning). De anpassade översättningssystemen integreras sömlöst i befintliga program, arbetsflöden och webbplatser.

Du kan använda den här funktionen för att skapa och publicera anpassade översättningssystem till och från engelska. Anpassad översättare stöder mer än tre dussin språk som mappar direkt till språken för NMT. En fullständig lista över språk finns i Translator-språkstöd.

Anpassad översättare erbjuder följande funktioner.

Funktion beskrivning
Tillämpa NMT-teknik Använd NMT från den anpassade översättaren för att förbättra översättningen.
Build-system som känner till din affärsterminologi Anpassa och skapa översättningssystem med hjälp av parallella dokument som förstår terminologin i ditt företag och din bransch.
Använda ordlista till att skapa dina modeller Träna en modell med endast ordlistedata om du inte har någon träningsdatauppsättning.
Samarbeta med andra Samarbeta med ditt team genom att dela ditt arbete med olika personer.
Få åtkomst till din anpassade översättningsmodell Få åtkomst till din anpassade översättningsmodell när som helst med hjälp av dina befintliga program eller program via Microsoft Translator Text API V3.

Anpassade modeller för Azure AI Document Intelligence

Azure AI Document Intelligence använder avancerad maskininlärningsteknik för att identifiera dokument, identifiera och extrahera information från formulär och dokument och returnera extraherade data i en strukturerad JSON-utdata. Använd Dokumentinformation för att dra nytta av fördefinierade eller förtränade dokumentanalysmodeller eller tränade fristående anpassade modeller.

Dokumentintelligens anpassade modeller inkluderar anpassade klassificeringsmodeller för situationer där du måste identifiera dokumenttypen innan du anropar extraheringsmodellen. Du kan para ihop en klassificeringsmodell med en anpassad extraheringsmodell för att analysera och extrahera fält från formulär och dokument som är specifika för din verksamhet. Kombinera enskilda anpassade extraheringsmodeller för att skapa sammansatta modeller .

Anpassade AI-verktyg

Fördefinierade AI-modeller är användbara och alltmer flexibla, men det bästa sättet att optimera AI är att skräddarsy en modell efter dina specifika behov. Två primära verktyg för att skapa anpassade AI-modeller är generativ AI och traditionell maskininlärning.

Azure Machine Learning Studio

Azure Machine Learning Studio är en molntjänst för att påskynda och hantera livscykeln för maskininlärningsprojekt. Maskininlärningspersonal, dataforskare och tekniker kan använda den i sina dagliga arbetsflöden för att träna och distribuera modeller och hantera maskininlärningsåtgärder.

  • Skapa och träna Machine Learning-modeller med hjälp av alla typer av beräkning, inklusive Spark och GPU:er för stora AI-arbetsbelastningar i molnskala.

  • Kör AutoML och använd dra och släpp-användargränssnittet för maskininlärning med låg kod.

  • Implementera machine learning-åtgärder från slutpunkt till slutpunkt och repeterbara pipelines.

  • Använd den ansvarsfulla AI-instrumentpanelen för biasidentifiering och felanalys.

  • Samordna och hantera prompttekniker och LLM-flöden.

  • Distribuera modeller via REST API-slutpunkter, slutsatsdragning i realtid och batchinferens.

  • Använd hubbarbetsytor för att dela beräkning, kvot, säkerhet och anslutning till företagsresurser, samtidigt som styrningen för IT centraliseras. Konfigurera en hubb en gång och skapa sedan säkra arbetsytor direkt från studion för varje projekt. Använd hubbar för att hantera teamets arbete i studion och AI Foundry-portalen.

AI Foundry

AI Foundry hjälper dig att effektivt skapa och distribuera anpassade generativa AI-program med kraften i breda Azure AI-erbjudanden.

  • Skapa tillsammans som ett team. Ai Foundry-hubben ger säkerhet i företagsklass och en samarbetsmiljö som innehåller delade resurser och anslutningar till förtränad modeller, data och beräkning.

  • Organisera ditt arbete. Ditt AI Foundry-projekt hjälper dig att spara tillstånd så att du kan iterera från den första idén till den första prototypen och den första produktionsdistributionen. Bjud enkelt in andra att samarbeta med dig.

  • Använd din önskade utvecklingsplattform och dina ramverk, inklusive GitHub, Visual Studio Code, LangChain, Semantic Kernel och AutoGen.

  • Upptäck och jämför från över 1 600 modeller.

  • Etablera modeller som en tjänst (MaaS) via serverlösa API:er och värdbaserad finjustering.

  • Införliva flera modeller, datakällor och modaliteter.

  • Skapa RAG med hjälp av dina skyddade företagsdata utan att behöva finjustera.

  • Samordna och hantera prompttekniker och LLM-flöden.

  • Utforma och skydda appar och API:er via konfigurerbara filter och kontroller.

  • Utvärdera modellsvar med hjälp av inbyggda och anpassade utvärderingsflöden.

  • Distribuera AI-innovationer till den Azure-hanterade infrastrukturen för kontinuerlig övervakning och styrning i olika miljöer.

  • Övervaka kontinuerligt distribuerade appar för säkerhet, kvalitet och tokenförbrukning i produktion.

Mer information finns i AI Foundry-portalen jämfört med Machine Learning Studio.

Prompt-flöde i AI Foundry-portalen

Prompt-flödet i AI Foundry-portalen är ett utvecklingsverktyg som du kan använda för att effektivisera hela utvecklingscykeln för AI-program som drivs av LLM:er. Promptflöde är en omfattande lösning som förenklar processen med prototyper, experimentering, iterering och distribution av dina AI-program.

  • Prompt flow är en funktion som du kan använda för att generera, anpassa eller köra ett flöde.

  • Ett flöde är en instruktionsuppsättning som kan implementera AI-logik. Skapa eller köra flöden via verktyg, till exempel en fördefinierad arbetsyta eller LangChain. Du kan spara iterationer av ett flöde som tillgångar. När du har distribuerat ett flöde blir det ett API. Inte alla flöden är snabba flöden. Promptflöde är ett sätt att skapa ett flöde.

  • En uppmaning är ett paket med indata som skickas till en modell. Den består av användarindata, systemmeddelande och eventuella exempel. Användarinmatning är text som skickas i chattfönstret. Systemmeddelandet är en uppsättning instruktioner till modellen som omfattar dess beteenden och funktioner.

  • Ett exempelflöde är ett enkelt, fördefiniert orkestreringsflöde som visar hur flöden fungerar. Du kan anpassa ett exempelflöde.

  • En exempelprompt är en definierad fråga för ett specifikt scenario som du kan kopiera från ett bibliotek och använda as-is eller ändra det i snabbdesign.

Anpassade AI-kodspråk

Huvudkonceptet med AI är användningen av algoritmer för att analysera data och generera modeller för att beskriva eller poängsätta dem på användbara sätt. Utvecklare och dataforskare, och ibland andra algoritmer, använder programmeringskod för att skriva algoritmer. Två av de mest populära programmeringsspråken för AI-utveckling är Python och R.

Python är ett allmänt programmeringsspråk på hög nivå. Den har en enkel, lättlärd syntax som betonar läsbarhet. Det finns inget kompileringssteg. Python har ett stort standardbibliotek och stöder möjligheten att lägga till moduler och paket. Den här funktionen uppmuntrar modularitet och gör att du kan utöka funktionerna när det behövs. Det finns ett stort och växande ekosystem med AI- och maskininlärningsbibliotek för Python, inklusive många i Azure.

Mer information finns i följande resurser:

R är ett språk och en miljö för statistisk databehandling och grafik. Du kan använda den för allt från att mappa breda sociala trender och marknadsföringstrender online till att utveckla finansiella modeller och klimatmodeller.

Microsoft använder programmeringsspråket R fullt ut och erbjuder många alternativ för R-utvecklare att köra sin kod i Azure.

Mer information finns i Använda R interaktivt på Machine Learning.

Allmän information om anpassad AI i Azure finns i följande resurser:

Kundcase

Många branscher tillämpar AI på innovativa och inspirerande sätt. Överväg följande kundfallsstudier och framgångsberättelser:

Bläddra bland fler AI-kundberättelser

Allmän information om Microsoft AI

Läs mer om Microsoft AI och håll dig uppdaterad med relaterade nyheter:

Nästa steg