Condividi tramite


Domande frequenti sull'intelligenza artificiale responsabile

Che cos'è Microsoft Security Copilot? 

Security Copilot è un linguaggio naturale, è una soluzione di sicurezza generativa basata su intelligenza artificiale che consente di aumentare l'efficienza e le funzionalità dei difensori per migliorare i risultati di sicurezza a velocità e scalabilità della macchina. Disegna il contesto da plug-in e dati per rispondere alle richieste, in modo che i professionisti della sicurezza e gli amministratori IT possano contribuire a proteggere le loro organizzazioni.

Cosa può fare Security Copilot? 

Security Copilot consente di rispondere alle domande in linguaggio naturale in modo da poter ricevere risposte interattive alle attività IT e di sicurezza comuni in pochi secondi.

Microsoft Security Copilot è utile negli scenari seguenti:

  • Analisi e correzione della sicurezza
    Ottenere il contesto per gli eventi imprevisti per valutare rapidamente gli avvisi di sicurezza complessi in riepiloghi interattivi e correggere più rapidamente con indicazioni dettagliate sulla risposta.

  • Analisi dello script e creazione di query KQL
    Eliminare la necessità di scrivere manualmente script del linguaggio di query o di decodificare script malware con la traduzione in linguaggio naturale per consentire a ogni membro del team di eseguire attività tecniche.

  • Esplorazione dei rischi e gestione del comportamento di sicurezza
    Ottieni un quadro generale dell'ambiente con rischi con priorità per scoprire le opportunità di migliorare la postura più facilmente.

  • Risoluzione dei problemi IT più veloci
    Sintetizzare rapidamente le informazioni rilevanti e ricevere informazioni dettagliate interattive per identificare e risolvere rapidamente i problemi IT.

  • Creazione e gestione dei criteri di sicurezza
    Definire un nuovo criterio, farvi riferimento incrociato con altri utenti per i conflitti e riepilogare i criteri esistenti per gestire il contesto aziendale complesso in modo rapido e semplice.

  • Configurazione del flusso di lavoro del ciclo di vita
    Creare gruppi e impostare i parametri di accesso con indicazioni dettagliate per garantire una configurazione semplice per evitare vulnerabilità di sicurezza.

  • Creazione di report per gli stakeholder
    Ottenere un report chiaro e conciso che riepiloga il contesto e l'ambiente, i problemi aperti e le misure protettive preparate per il tono e il linguaggio del pubblico del report.

Qual è l'uso previsto di Security Copilot? 

Security Copilot aiuta a supportare i professionisti della sicurezza in scenari end-to-end come la risposta agli eventi imprevisti, la ricerca delle minacce, la raccolta di informazioni e la gestione della postura. Per altre informazioni, vedere Casi d'uso e ruoli.

Come è stato valutato Security Copilot? Quali metriche vengono usate per misurare le prestazioni? 

Security Copilot sottoposto a test sostanziali prima del rilascio. I test includevano il red teaming, che è la pratica di testare rigorosamente il prodotto per identificare le modalità di errore e gli scenari che potrebbero causare Security Copilot di eseguire o pronunciare cose al di fuori degli usi previsti o che non supportano i principi di intelligenza artificiale Microsoft.

Ora che è stato rilasciato, il feedback degli utenti è fondamentale per aiutare Microsoft a migliorare il sistema. È possibile fornire commenti e suggerimenti ogni volta che si riceve l'output da Security Copilot. Quando una risposta è imprecisa, incompleta o poco chiara, usare i pulsanti "Off-target" e "Report" per contrassegnare qualsiasi output sgradevole. Puoi anche verificare quando le risposte sono utili e accurate usando il pulsante "Conferma". Questi pulsanti vengono visualizzati nella parte inferiore di ogni Security Copilot risposta e il feedback viene inviato direttamente a Microsoft per migliorare le prestazioni della piattaforma.

Quali sono le limitazioni di Security Copilot? In che modo gli utenti possono ridurre al minimo l'impatto delle limitazioni di Security Copilot quando si usa il sistema? 

  • Il programma di accesso anticipato è progettato per offrire ai clienti l'opportunità di ottenere l'accesso anticipato a Security Copilot e fornire feedback sulla piattaforma. Le funzionalità di anteprima non sono destinate all'uso in produzione e potrebbero avere funzionalità limitate. 

  • Come qualsiasi tecnologia basata sull'intelligenza artificiale, Security Copilot non ottiene tutto a posto. Tuttavia, puoi contribuire a migliorare le sue risposte fornendo le tue osservazioni tramite lo strumento di feedback, integrato nella piattaforma.  

  • Il sistema potrebbe generare risposte non aggiornate se non gli vengono forniti i dati più recenti attraverso l'input dell'utente o i plug-in. Per ottenere i risultati migliori, verificare che siano abilitati i plug-in corretti.

  • Il sistema è progettato per rispondere ai prompt relativi al dominio di sicurezza, ad esempio l'analisi degli eventi imprevisti e l'intelligence sulle minacce. I prompt al di fuori dell'ambito della sicurezza potrebbero comportare risposte prive di accuratezza e completezza.

  • Security Copilot potrebbe generare codice o includere codice nelle risposte, che potrebbe potenzialmente esporre informazioni sensibili o vulnerabilità se non usato con attenzione. Le risposte potrebbero sembrare valide, ma potrebbero non essere semanticamente o sintatticamente corrette o potrebbero non riflettere accuratamente la finalità dello sviluppatore. Gli utenti devono sempre prendere le stesse precauzioni che adotterebbero per qualsiasi codice che scrivono e che utilizza materiale che non è stato creato autonomamente dagli utenti, comprese le precauzioni per assicurarne l'idoneità. Questi includono test rigorosi, analisi IP e controllo delle vulnerabilità di sicurezza.

  • Corrisponde al codice pubblico: Security Copilot è in grado di generare nuovo codice, operazione che viene eseguita in modo probabilistico. Anche se la probabilità che generi codice corrispondente al codice nel set di training è bassa, un suggerimento Security Copilot potrebbe contenere alcuni frammenti di codice che corrispondono al codice nel set di training. Gli utenti devono sempre prendere le stesse precauzioni che adotterebbero per qualsiasi codice scritto che utilizzi materiale non originato autonomamente dagli sviluppatori, comprese le precauzioni per assicurarne l'idoneità. Questi includono test rigorosi, analisi IP e controllo delle vulnerabilità di sicurezza.

  • Il sistema potrebbe non essere in grado di elaborare prompt lunghi, ad esempio centinaia di migliaia di caratteri.

  • L'uso della piattaforma potrebbe essere soggetto a limiti di utilizzo o limitazione della capacità. Anche con richieste più brevi, la scelta di un plug-in, l'esecuzione di chiamate API, la generazione di risposte e la loro verifica prima di visualizzarle all'utente possono richiedere tempo (fino a diversi minuti) e un'elevata capacità della GPU. 

  • Per ridurre al minimo gli errori, si consiglia agli utenti di seguire le indicazioni del prompt

Quali fattori operativi e impostazioni consentono un uso efficace e responsabile delle Security Copilot? 

  • È possibile usare le parole di tutti i giorni per descrivere ciò che si vuole Security Copilot fare. Ad esempio:

    • "Informazioni sugli eventi imprevisti più recenti" o "Riepiloga questo evento imprevisto".
  • Man mano che il sistema genera la risposta, si iniziano a vedere i passi che il sistema sta compiendo nel registro dei processi, offrendo l'opportunità di ricontrollare i processi e le fonti.  

  • In qualsiasi momento durante la formazione di un prompt, è possibile annullarlo, modificarlo, rieseguirlo o cancellarlo. 

  • È possibile fornire un feedback sulla qualità di una risposta, segnalando anche a Microsoft eventuali problemi inaccettabili. 

  • Le risposte possono essere appuntate, condivise ed esportate, aiutando i professionisti della sicurezza a collaborare e condividere le osservazioni. 

  • Gli amministratori hanno il controllo sui plug-in che si connettono a Security Copilot.   

  • È possibile scegliere, personalizzare e gestire i plug-in che funzionano con Security Copilot.

  • Security Copilot promptbook creati, ovvero un gruppo di prompt eseguiti in sequenza per completare un flusso di lavoro specifico.

In che modo Microsoft si avvicina all'intelligenza artificiale responsabile per Security Copilot?

In Microsoft prendiamo sul serio il nostro impegno per un'intelligenza artificiale responsabile. Security Copilot è in fase di sviluppo in base ai nostri principi di intelligenza artificiale. Stiamo lavorando con OpenAI per offrire un'esperienza che incoraggi un uso responsabile. Ad esempio, abbiamo collaborato e continueremo a collaborare con OpenAI per il lavoro sui modelli fondamentali. Abbiamo progettato l'esperienza utente Security Copilot per mantenere gli esseri umani al centro. Abbiamo sviluppato un sistema di sicurezza progettato per attenuare i problemi e prevenire gli abusi con elementi quali l'annotazione dei contenuti nocivi, il monitoraggio operativo e altre salvaguardie. Il programma di accesso anticipato su invito fa parte del nostro approccio all'intelligenza artificiale responsabile. Si assumono commenti e suggerimenti degli utenti da parte di coloro che hanno accesso anticipato a Security Copilot per migliorare lo strumento prima di renderlo disponibile a livello generale.

Un'intelligenza artificiale responsabile è un viaggio e noi miglioreremo continuamente i nostri sistemi lungo il percorso. Ci impegniamo a rendere l'intelligenza artificiale più affidabile e attendibile e il tuo feedback ci aiuterà a farlo.

Rispettate la legge sull'intelligenza artificiale dell'UE?

Siamo impegnati a rispettare la legge europea sull'intelligenza artificiale. Il nostro sforzo pluriennale per definire, evolvere e implementare il nostro standard di intelligenza artificiale responsabile e la nostra governance interna ha rafforzato la nostra preparazione.

In Microsoft riconosciamo l'importanza della conformità normativa come pietra miliare della fiducia e dell'affidabilità delle tecnologie di intelligenza artificiale. Ci impegniamo a creare un'intelligenza artificiale responsabile in base alla progettazione. Il nostro obiettivo è quello di sviluppare e distribuire un'intelligenza artificiale che abbia un impatto benefico sulla società e che le faccia guadagnare fiducia.

Il nostro lavoro è guidato da una serie di principi fondamentali: equità, affidabilità e sicurezza, privacy e sicurezza, inclusione, trasparenza e responsabilità. L'intelligenza artificiale responsabile di Microsoft Standard prende questi sei principi e li suddivide in obiettivi e requisiti per l'IA resa disponibile.

Il nostro standard di intelligenza artificiale responsabile tiene conto delle proposte normative e della loro evoluzione, compresa la proposta iniziale della legge europea sull'intelligenza artificiale. Abbiamo sviluppato i nostri prodotti e servizi più recenti nel settore dell'intelligenza artificiale, come Microsoft Copilot e Microsoft Azure OpenAI Service, in linea con il nostro Responsible AI Standard. Man mano che i requisiti finali della legge europea sull'intelligenza artificiale verranno definiti in modo più dettagliato, saremo lieti di collaborare con i responsabili politici per garantire un'attuazione e un'applicazione fattibile delle norme, di dimostrare la nostra conformità e di impegnarci con i nostri clienti e gli altri stakeholder per sostenere la conformità in tutto l'ecosistema.