Udostępnij za pośrednictwem


Zaufanie i bezpieczeństwo usługi DatabricksIQ

Usługa Databricks rozumie znaczenie Twoich danych i zaufanie, które umieszczasz w nas podczas korzystania z usług Databricks. Usługa Databricks jest zobowiązana do najwyższych standardów ochrony danych i wdrożyła rygorystyczne środki w celu zapewnienia ochrony informacji.

  • Twoje dane nie są używane do trenowania, a nasi partnerzy modelowi nie przechowują Twoich danych.
    • Ani usługa Databricks, ani nasz partner modelu (Azure OpenAI) nie trenuje modeli przy użyciu danych klientów. Kod i dane wejściowe nieużywane do generowania sugestii wyświetlanych dla innych klientów.
    • Dane przesyłane przez usługę Databricks w tych funkcjach nie są zachowywane przez usługę Azure OpenAI, nawet w przypadku monitorowania nadużyć. Te funkcje zostały wycofane z przechowywania danych na platformie Azure w tym celu.
  • Ochrona przed szkodliwymi danymi wyjściowymi. Usługa Databricks używa również filtrowania zawartości usługi Azure OpenAI, aby chronić użytkowników przed szkodliwą zawartością. Ponadto usługa Databricks przeprowadziła obszerną ocenę z tysiącami symulowanych interakcji użytkowników, aby zapewnić skuteczne stosowanie ochrony przed szkodliwą zawartością, jailbreakami, niezabezpieczonym generowaniem kodu i korzystaniem z zawartości praw autorskich innych firm.
  • Usługa Databricks używa tylko danych niezbędnych do świadczenia usługi. Dane są wysyłane tylko w przypadku interakcji z funkcjami pomocniczymi sztucznej inteligencji. Usługa Databricks wysyła dane wejściowe języka naturalnego, odpowiednie metadane tabeli, błędy, a także kod wejściowy lub zapytania, aby pomóc w zwracaniu bardziej odpowiednich wyników dla danych. Usługa Databricks nie wysyła danych na poziomie wiersza.
  • Dane są chronione podczas przesyłania. Cały ruch między usługą Databricks i usługą Azure OpenAI jest szyfrowany podczas przesyłania przy użyciu standardowego szyfrowania TLS w branży.
  • Dane UE pozostają w UE. W przypadku obszarów roboczych Unii Europejskiej (UE) funkcje pomocnicze sztucznej inteligencji korzystają z modelu Azure OpenAI hostowanego w UE. Zobacz Azure Geographies: Data residency and Databricks Designated Services (Lokalizacje geograficzne platformy Azure: miejsce przechowywania danych i wyznaczone usługi Databricks).

Aby uzyskać więcej informacji na temat prywatności w programie Databricks Assistant, zobacz Prywatność i zabezpieczenia.

Funkcje zarządzane przez ustawienie funkcji pomocniczych sztucznej inteligencji obsługiwanej przez partnerów

Sztuczna inteligencja oparta na partnerach odnosi się do usługi Azure OpenAI. Poniżej przedstawiono podział funkcji zarządzanych przez ustawienie funkcji pomocniczych sztucznej inteligencji opartej na partnerach:

Funkcja Gdzie jest hostowany model? Kontrolowane przez ustawienie sztucznej inteligencji obsługiwanej przez partnerów?
Czat asystenta usługi Databricks Azure OpenAI Service Tak
Szybka poprawka Azure OpenAI Service Tak
Komentarze interfejsu użytkownika wygenerowane przez sztuczną inteligencję Obszary robocze profilu zabezpieczeń zgodności (CSP): Usługa Azure OpenAI Tak, dla wszystkich obszarów roboczych CSP.
Pulpit nawigacyjny AI/BI, wizualizacje wspomagane AI i towarzyszące przestrzenie Genie Azure OpenAI Service Tak
Dżin Azure OpenAI Service Tak
Autouzupełnianie asystenta usługi Databricks Model hostowany w usłudze Databricks Nie.
Wyszukiwanie inteligentne Azure OpenAI Service Tak

Korzystanie z modelu hostowanego w Databricks dla Databricks Assistant

Ważny

Ta funkcja jest dostępna w publicznej wersji zapoznawczej.

Dowiedz się więcej o korzystaniu z modelu hostowanego w usłudze Databricks w celu włączenia asystenta usługi Databricks. W tej sekcji wyjaśniono, jak to działa i jak go używać.

Jak to działa

Poniższy diagram zawiera omówienie sposobu, w jaki model hostowany w usłudze Databricks obsługuje asystenta usługi Databricks.

Diagram przepływu pracy dla asystenta usługi Databricks obsługiwanego przez model hostowany w usłudze Databricks.

  1. Użytkownik wywołuje asystenta Databricks, wpisując kod lub pytanie, wybierając opcję Diagnozowanie błędulub zaznaczając komórkę.
  2. Usługa Databricks dołącza metadane do żądania i wysyła je do modelu dużego języka hostowanego w usłudze Databricks (LLM). Wszystkie dane są szyfrowane w stanie spoczynku. Klienci mogą używać klucza zarządzanego przez klienta (CMK).
  3. Żądanie użytkownika jest wysyłane do modelu hostowanego w usłudze Databricks.

Modele hostowane w usłudze Databricks używają meta Llama 3.x

Asystent Databricks z modelami hostowanymi przez Databricks jest obecnie tworzony za pomocą Meta Llama 3. Meta Llama 3 jest licencjonowany na platformie Meta Llama 3 Community License, Copyright © Meta Platforms, Inc. Wszelkie prawa zastrzeżone.

Często zadawane pytania dotyczące modeli hostowanych w usłudze Databricks dla Asystenta

Czy mogę mieć własną instancję serwującą prywatny model?

Nie w tej chwili. Ta wersja zapoznawcza używa punktów końcowych modelu , które są zarządzane i zabezpieczone przez Databricks. Punkty końcowe obsługujące modele są bezstanowe, chronione przez wiele warstw izolacji oraz implementują następujące mechanizmy kontroli zabezpieczeń w celu ochrony twoich danych:

  • Każde żądanie klienta do obsługi modelu jest logicznie izolowane, uwierzytelniane i autoryzowane.
  • Usługa mozaikowego modelu sztucznej inteligencji szyfruje wszystkie dane magazynowane (AES-256) i podczas przesyłania (TLS 1.2+).

Czy metadane wysyłane do modeli respektują uprawnienia użytkownika w Unity Catalog?

Tak, wszystkie dane wysyłane do modelu są zgodne z uprawnieniami katalogu Unity użytkownika. Na przykład nie wysyła metadanych odnoszących się do tabel, do których użytkownik nie ma uprawnień do wyświetlania.

Gdzie są przechowywane dane?

Historia czatów asystenta usługi Databricks jest przechowywana w bazie danych płaszczyzny sterowania wraz z notesem. Baza danych płaszczyzny sterowania to szyfrowanie AES-256-bitowe, a klienci, którzy wymagają kontroli nad kluczem szyfrowania, mogą korzystać z naszej funkcji klucza Customer-Managed.

Notatka

  • Podobnie jak w przypadku innych obiektów obszaru roboczego okres przechowywania historii czatów asystenta usługi Databricks jest w zakresie cyklu życia samego obiektu. Jeśli użytkownik usunie notes, zostanie on usunięty i dowolna skojarzona historia czatu zostanie usunięta w ciągu 30 dni.
  • Jeśli notes jest udostępniany innemu użytkownikowi, historia czatów jest również widoczna dla tego użytkownika, chyba że zostanie wyczyszczona najpierw.
  • Jeśli notes zostanie wyeksportowany, historia czatu nie zostanie wyeksportowana.
  • Jeśli administrator ma dostęp do notesu, może go otworzyć i wyświetlić historię czatów.

Czy mogę wprowadzić własny klucz interfejsu API dla mojego modelu lub hostować własne modele?

Nie w tej chwili. Asystent usługi Databricks jest w pełni zarządzany i hostowany przez usługę Databricks. Funkcje asystenta są w dużym stopniu zależne od funkcji obsługujących model (na przykład wywoływania funkcji), wydajności i jakości. Usługa Databricks stale ocenia nowe modele pod kątem najlepszej wydajności i może zaktualizować model w przyszłych wersjach tej funkcji.

Kto jest właścicielem danych wyjściowych? Jeśli Asystent generuje kod, kto jest właścicielem tego adresu IP?

Klient jest właścicielem swoich wyników.

Rezygnacja z korzystania z modeli hostowanych w usłudze Databricks

Aby zrezygnować z korzystania z modeli hostowanych w usłudze Databricks:

  1. Kliknij swoją nazwę użytkownika na górnym pasku obszaru roboczego usługi Databricks.
  2. Z menu wybierz pozycję Podglądy.
  3. Wyłącz Use Assistant z modelami hostowanymi w usłudze Databricks.

Aby dowiedzieć się więcej na temat zarządzania wersjami zapoznawczami, zobacz Manage Azure Databricks Previews (Zarządzanie wersjami zapoznawczami usługi Azure Databricks).