Dela via


Sekretess, säkerhet och ansvarsfull användning av Copilot för SQL-databas i Microsoft Fabric (förhandsversion)

Gäller för:SQL-databas i Microsoft Fabric

I den här artikeln får du lära dig hur Microsoft Copilot för SQL-databaser fungerar, hur dina affärsdata skyddas och följer sekretesskraven och hur du använder generativ AI på ett ansvarsfullt sätt. Mer information om Copilot i Fabric finns i Sekretess, säkerhet och ansvarsfull användning för Copilot i Microsoft Fabric (förhandsversion).

Med Copilot för SQL-databaser i Microsoft Fabric och andra generativa AI-funktioner ger Microsoft Fabric ett nytt sätt att transformera och analysera data, generera insikter och skapa visualiseringar och rapporter i databasen och andra arbetsbelastningar.

Begränsningar finns i Begränsningar för Copilot för SQL-databas.

Dataanvändning av Copilot för SQL-databaser

I databasen kan Copilot bara komma åt det databasschema som är tillgängligt i användarens databas.

Som standard har Copilot åtkomst till följande datatyper:

  • Tidigare meddelanden som skickats till och svar från Copilot för den användaren i den sessionen.
  • Innehåll i SQL-fråga som användaren har kört.
  • Felmeddelanden för en SQL-fråga som användaren har kört (om tillämpligt).
  • Scheman för databasen.

Tips för att arbeta med Copilot för SQL-databaser

  • Copilot är bäst rustat för att hantera SQL-databasämnen, så begränsa dina frågor till det här området.

  • Var tydlig med de data som du vill att Copilot ska undersöka. Om du beskriver datatillgången, med beskrivande tabell- och kolumnnamn, är Det mer troligt att Copilot hämtar relevanta data och genererar användbara utdata.

Utvärdering av Copilot för SQL-databaser

Produktteamet testade Copilot för att se hur bra systemet presterar inom ramen för databaser och om AI-svar är insiktsfulla och användbara.

Teamet investerade också i ytterligare skadereducering, inklusive tekniska metoder för att fokusera Copilots utdata på ämnen som rör SQL-databaser.