Sekretess, säkerhet och ansvarsfull användning av Copilot för SQL-databas i Microsoft Fabric (förhandsversion)
Gäller för:✅SQL-databas i Microsoft Fabric
I den här artikeln får du lära dig hur Microsoft Copilot för SQL-databaser fungerar, hur dina affärsdata skyddas och följer sekretesskraven och hur du använder generativ AI på ett ansvarsfullt sätt. Mer information om Copilot i Fabric finns i Sekretess, säkerhet och ansvarsfull användning för Copilot i Microsoft Fabric (förhandsversion).
Med Copilot för SQL-databaser i Microsoft Fabric och andra generativa AI-funktioner ger Microsoft Fabric ett nytt sätt att transformera och analysera data, generera insikter och skapa visualiseringar och rapporter i databasen och andra arbetsbelastningar.
Begränsningar finns i Begränsningar för Copilot för SQL-databas.
Dataanvändning av Copilot för SQL-databaser
I databasen kan Copilot bara komma åt det databasschema som är tillgängligt i användarens databas.
Som standard har Copilot åtkomst till följande datatyper:
- Tidigare meddelanden som skickats till och svar från Copilot för den användaren i den sessionen.
- Innehåll i SQL-fråga som användaren har kört.
- Felmeddelanden för en SQL-fråga som användaren har kört (om tillämpligt).
- Scheman för databasen.
Tips för att arbeta med Copilot för SQL-databaser
Copilot är bäst rustat för att hantera SQL-databasämnen, så begränsa dina frågor till det här området.
Var tydlig med de data som du vill att Copilot ska undersöka. Om du beskriver datatillgången, med beskrivande tabell- och kolumnnamn, är Det mer troligt att Copilot hämtar relevanta data och genererar användbara utdata.
Utvärdering av Copilot för SQL-databaser
Produktteamet testade Copilot för att se hur bra systemet presterar inom ramen för databaser och om AI-svar är insiktsfulla och användbara.
Teamet investerade också i ytterligare skadereducering, inklusive tekniska metoder för att fokusera Copilots utdata på ämnen som rör SQL-databaser.