Taalmodellen gebruiken

Voltooid

Organisaties en ontwikkelaars kunnen hun eigen taalmodellen helemaal zelf trainen, maar in de meeste gevallen is het praktischer om een bestaand basismodel te gebruiken en eventueel af te stemmen met uw eigen trainingsgegevens. Er zijn veel bronnen van modellen die u kunt gebruiken.

In Microsoft Azure vindt u basismodellen in de Azure OpenAI-service en in de modelcatalogus. De modelcatalogus is een gecureerde bron van modellen voor gegevenswetenschappers en ontwikkelaars met behulp van Azure AI Studio en Azure Machine Learning. Dit biedt het voordeel van geavanceerde taalmodellen zoals de generatieve vooraf getrainde transformator (GPT) verzameling modellen (waarop ChatGPT en de eigen generatieve AI-services van Microsoft zijn gebaseerd) en het DALL-E-model voor het genereren van afbeeldingen. Als u deze modellen van de Azure OpenAI-service gebruikt, profiteert u ook van een veilig, schaalbaar Azure-cloudplatform waarin de modellen worden gehost.

Naast de Azure OpenAI-modellen bevat de modelcatalogus de nieuwste opensource-modellen van Microsoft en meerdere partners, waaronder:

  • OpenAI
  • HuggingFace
  • Mistral
  • Meta en anderen.

Enkele algemene Azure OpenAI-modellen zijn:

  • GPT-3.5-Turbo, GPT-4 en GPT-4o: Taalmodellen voor gesprekken en berichten.
  • GPT-4 Turbo with Vision: Een taalmodel dat is ontwikkeld door OpenAI, waarmee afbeeldingen kunnen worden geanalyseerd en tekstuele antwoorden kunnen worden geboden op vragen over deze modellen. Het bevat zowel natuurlijke taalverwerking als visueel begrip.
  • DALL-E: een taalmodel dat oorspronkelijke afbeeldingen, variaties van afbeeldingen genereert en afbeeldingen kan bewerken.

Grote en kleine taalmodellen

Er zijn veel taalmodellen beschikbaar die u kunt gebruiken om generatieve AI-toepassingen aan te sturen. Over het algemeen kunnen taalmodellen in twee categorieën worden overwogen: LLM's (Large Language Models ) en Small Language Models (SLM's).

Grote taalmodellen (LLM's) Kleine taalmodellen (SLM's)
LLM's worden getraind met grote hoeveelheden tekst die een breed scala aan algemene onderwerpen vertegenwoordigt, meestal door gegevens van internet en andere algemeen beschikbare publicaties te verkrijgen. SLM's worden getraind met kleinere, meer onderwerpgerichte gegevenssets
Bij het trainen hebben LLM's veel miljarden (zelfs biljoenen) parameters (gewichten die kunnen worden toegepast op vector-insluitingen om voorspelde tokenreeksen te berekenen). Doorgaans hebben minder parameters dan LLM's.
In staat om uitgebreide mogelijkheden voor het genereren van talen te tonen in een breed scala aan gesprekscontexten. Deze gerichte vocabulaire maakt ze zeer effectief in specifieke gespreksonderwerpen, maar minder effectief bij het genereren van algemenere talen.
Hun grote grootte kan van invloed zijn op hun prestaties en ze moeilijk lokaal implementeren op apparaten en computers. De kleinere grootte van SLM's kan meer opties bieden voor implementatie, waaronder lokale implementatie op apparaten en on-premises computers; en maakt ze sneller en gemakkelijker af te stemmen.
Het model verfijnen met aanvullende gegevens om de expertise van het onderwerp aan te passen, kan tijdrovend en duur zijn in termen van de rekenkracht die nodig is om de extra training uit te voeren. Fijnafstemming kan mogelijk minder tijdrovend en duur zijn.