Close
Logo di Atlassian AI.

Atlassian Intelligence e Rovo sono progettati per la trasparenza

Il nostro impegno per "un'azienda aperta" per una comunicazione aperta, per la responsabilità e per aiutare i team a utilizzare AI in modo responsabile.

Rovo

Seleziona una funzionalità Rovo di seguito per avere una panoramica dettagliata dei casi d'uso e dell'utilizzo dei dati.

In che modo gli agenti Rovo utilizzano Atlassian Intelligence Copy link to heading Copied! Mostra
  

Gli agenti Rovo si basano sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google, nonché su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui le serie Llama) e su altri modelli di machine learning. Questi modelli includono la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google.

Gli agenti Rovo utilizzano questi modelli per fornire funzionalità di analisi e di generazione di risposte ai prompt utilizzando il linguaggio naturale e fornire risposte pertinenti da Atlassian e dai prodotti di terze parti connessi.

Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama.

Informazioni sugli agenti Rovo Copy link to heading Copied! Mostra
  

Con Rovo, forniamo una serie di agenti predefiniti e pronti all'uso per una serie di task, come aiutare nel processo decisionale, pubblicare la documentazione sulle conoscenze e organizzare o riordinare i ticket di Jira. Gli agenti sono membri del team specializzati nell'intelligenza artificiale che possono aiutare i membri del team a portare avanti il lavoro in modo rapido ed efficace.

Puoi:

  • Creare gli agenti utilizzando il linguaggio naturale e personalizzare le loro istruzioni, conoscenze e azioni.
  • Creare gli agenti utilizzando il codice (Forge) per avere integrazioni più avanzate con gli strumenti interni dell'organizzazione.
  • Installare gli agenti tramite app sviluppate da sviluppatori, clienti e partner Atlassian del marketplace di terze parti, che in genere sono agenti più sofisticati creati utilizzando il codice (Forge).

Riteniamo che gli agenti Rovo funzionino meglio negli scenari in cui:

  • Un'attività ripetitiva o stereotipata potrebbe essere facilmente automatizzata tramite un agente. Scopri di più sulle automazioni.
  • Si generano idee o bozze di contenuti su cui lavorare.
  • Si eseguono ricerche rapide di informazioni specifiche.
Limitazioni e considerazioni sull'utilizzo degli agenti Rovo Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui operano, i modelli alla base degli agenti Rovo possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che gli agenti Rovo sono meno utili in scenari in cui:

  • Ti servono informazioni attuali e accurate su persone, luoghi e fatti.
  • Hai bisogno di informazioni provenienti dal tuo spazio di lavoro a cui non hai accesso.
  • Hai bisogno di un output molto coerente e regolare che non sia soggetto ad alcuna variazione. Le risposte possono, infatti, variare per diversi motivi, tra cui le autorizzazioni degli utenti.
  • L'essere umano non è coinvolto. Gli agenti funzionano al meglio in presenza di una persona che verifichi o indichi l'output desiderato.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Esprimi nel modo più specifico possibile ciò che chiedi di fare ad Atlassian Intelligence o a Rovo.
  • Leggi le guide con best practice sulla scrittura di richieste per gli agenti.
  • Trova modi efficienti o collaudati per integrare agenti nel tuo team. Puoi vedere come gli altri membri del team utilizzano gli agenti visualizzando i profili degli agenti.
I tuoi dati e agenti Rovo Copy link to heading Copied! Mostra
  

Comprendiamo che potresti avere domande su come gli agenti Rovo utilizzano i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Il contesto dell'istanza pertinente alla richiesta, ad esempio una pagina di Confluence, un ticket di Jira o il documento di un prodotto di terze parti connesso. Se utilizzi gli agenti in Rovo Chat tramite l'estensione del browser Chrome, sono inclusi la pagina web pubblica o il documento Google che hai aperto.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, gli agenti Rovo applicano le misure seguenti.

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI o Google.
    • Non vengono memorizzati da alcun fornitore terzo di LLM.
    • Non vengono utilizzati per migliorare alcun vasto modello linguistico.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un sub-responsabile del trattamento nella nostra lista di sub-responsabili del trattamento. Usa i dati che inserisci e le risposte che ricevi solo ed esclusivamente per elaborare la tua richiesta.
  • Questa funzionalità eredita le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a una determinata pagina di Confluence, i contenuti della pagina non saranno suggeriti nella risposta che ricevi. Se desideri che i contenuti della tua istanza non siano disponibili nelle risposte ad altri utenti, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.

I dettagli sopra riportati valgono per gli agenti forniti da Atlassian. Per ulteriori informazioni sugli agenti forniti da Atlassian, consulta le linee guida di Rovo in materia di dati, privacy e utilizzo | Rovo | Assistenza Atlassian. Per informazioni sugli agenti forniti da terze parti, fai riferimento alle Condizioni del Fornitore rese disponibili da tali terze parti per le proprie app.

Scopri di più su Atlassian Intelligence

Scopri di più sull'utilizzo di Atlassian Intelligence

Scopri di più sugli agenti nelle automazioni

In che modo Rovo Chat utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

Rovo Chat si basa sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google, nonché su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui le serie Llama) e su altri modelli di machine learning. Questi modelli includono la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google.

Rovo Chat utilizza questi modelli per analizzare e generare risposte ai prompt utilizzando il linguaggio naturale e fornire risposte pertinenti da Atlassian e dai prodotti di terze parti connessi.

Le risposte sono generate da questi modelli linguistici di grandi dimensioni basati sui tuoi input e sono di natura probabilistica. Ciò significa che nei modelli linguistici di grandi dimensioni le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama.

Casi d'uso per Rovo Chat Copy link to heading Copied! Mostra
  

Rovo Chat consente di accedere alle conoscenze dell'organizzazione attraverso un'interfaccia di tipo conversazionale. Ciò significa che puoi chiedere a Rovo di scrivere, leggere, rivedere o creare contenuti nello stesso modo in cui chiederesti a una persona, senza interrompere il tuo flusso di lavoro. La chat comprende il contesto del tuo lavoro (sia in Atlassian che nei prodotti di terze parti connessi) per rispondere alle domande o aiutarti a fornire idee o approfondimenti.

Riteniamo che Rovo Chat funzioni meglio negli scenari in cui:

  • Per la tua organizzazione è importante consentire agli utenti di accedere in modo semplice e conversazionale alle conoscenze aziendali, in base alle autorizzazioni di accesso di ogni persona.
  • Ti consigliamo di utilizzare un'interfaccia conversazionale per task come la creazione di pagine o ticket su Jira, la ricerca di stakeholder o l'individuazione di informazioni pertinenti al tuo lavoro.
  • Vorresti aiuto nel perfezionamento della scrittura.
  • Vorresti aiuto nella comprensione di pagine di conoscenza lunghe o complesse.
  • Ti serve aiuto nell'identificazione di lacune o aree di miglioramento nei ticket di Jira o nelle pagine di Confluence.

Gli utenti possono accedere a Rovo Chat anche tramite un'estensione del browser Chrome. Scopri di più sull'accesso a Rovo Chat qui e qui.

Considerazioni sull'uso di Rovo Chat Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui operano, i modelli alla base di Rovo Chat possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che Rovo Chat è meno utile in scenari in cui:

  • Hai bisogno di informazioni deterministiche, assolute e accurate su persone, luoghi e fatti.
  • Ti servono informazioni a cui non hai accesso all'interno del tuo spazio di lavoro.
  • Devi porre domande e ricevere risposte in lingue diverse dall'inglese.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Rovo Chat e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Esprimi nel modo più specifico possibile ciò che chiedi a Rovo Chat. Ad esempio, puoi includere nella richiesta le persone, le pagine, i progetti, gli orari o altri contesti specifici pertinenti alla tua domanda, oppure aggiungere chiarimenti nelle conversazioni di follow-up con Rovo Chat. Suggerimenti sulla scrittura di richieste per Rovo Chat.
  • Prenditi il tempo necessario per perfezionare le richieste e fare prove con Rovo Chat per ottenere risultati migliori.
I tuoi dati e Rovo Chat Copy link to heading Copied! Mostra
  

Comprendiamo che potresti avere domande su come Rovo Chat utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center.

Elaboriamo:

Le tue richieste (input) e risposte (output).

  • Il contesto dell'istanza pertinente alla richiesta, ad esempio una pagina di Confluence, un ticket di Jira o il documento di un prodotto di terze parti connesso. Se utilizzi Rovo Chat tramite l'estensione del browser Chrome, sono inclusi la pagina web pubblica o il documento Google che hai aperto.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, Rovo Chat applica le misure seguenti.

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI o Google.
    • Non vengono memorizzati da alcun fornitore terzo di LLM.
    • Non vengono utilizzati per migliorare alcun vasto modello linguistico.
    • Vengono utilizzati solo per elaborare la tua esperienza.
    • Vengono conservate nella cronologia di Rovo Chat per 28 giorni, così potrai consultarle e fare riferimento alle conversazioni passate.

OpenAI è un sub-responsabile del trattamento nella nostra lista di sub-responsabili del trattamento. Le tue domande e le tue risposte vengono utilizzate esclusivamente per l'elaborazione o la realizzazione della tua richiesta.

Questa funzionalità eredita le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a una determinata pagina di Confluence, i contenuti della pagina non saranno suggeriti nella risposta che ricevi. Se desideri che i contenuti della tua istanza non siano disponibili nelle risposte ad altri utenti, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.

Quando accedi a Rovo Chat dall'estensione del browser Chrome, Rovo Chat leggerà solo il contenuto della pagina web che stai visualizzando per integrare quello già presente nei tuoi prodotti Atlassian. Non verrà memorizzato alcun dato aggiuntivo della pagina web.

Scopri di più su Atlassian Intelligence

Scopri di più sull'utilizzo di Atlassian Intelligence

Scopri di più sull'uso di Rovo Chat

Scopri di più sull'estensione del browser

In che modo Ricerca Rovo utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

Ricerca Rovo utilizza l'intelligenza artificiale per migliorare le funzionalità di ricerca negli strumenti Atlassian e di terze parti.

Ricerca Rovo si basa sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google, nonché su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui le serie Llama) e su altri modelli di machine learning. Questi modelli includono la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google.

Ricerca Rovo utilizza questi modelli per fornire funzionalità come la ricerca semantica, la classificazione per pertinenza e l'elaborazione del linguaggio naturale. Ciò include l'analisi e la generazione di risposte alle query di ricerca in un linguaggio naturale e la fornitura di risposte pertinenti dai prodotti Atlassian e da quelli di terze parti connessi.

Le risposte sono generate da questi modelli linguistici di grandi dimensioni basati sui tuoi input e sono di natura probabilistica. Ciò significa che nei modelli linguistici di grandi dimensioni le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama.

Casi d'uso per Ricerca Rovo Copy link to heading Copied! Mostra
  

Ricerca Rovo consente agli utenti di effettuare ricerche su più strumenti e piattaforme, inclusi prodotti Atlassian e prodotti di terze parti connessi, fornendo risultati contestuali e pertinenti per migliorare la collaborazione e la produttività dei team.

Riteniamo che Ricerca Rovo funzioni meglio negli scenari in cui:

  1. Devi effettuare una ricerca tra vari prodotti Atlassian (come Jira e Confluence) e prodotti di terze parti connessi (come Google Drive e SharePoint) in un'unica interfaccia, senza cambiare contesto.
  2. I tuoi team hanno bisogno di un rapido accesso alle informazioni pertinenti provenienti da diverse fonti per risparmiare tempo nella ricerca su tutte queste fonti separatamente.
  3. Vuoi che la ricerca restituisca risultati in base ai contenuti ai quali i tuoi utenti possono accedere.
Considerazioni sull'uso di Ricerca Rovo Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui operano, i modelli alla base di Ricerca Rovo possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che Ricerca Rovo è meno utile in scenari in cui:

  • Il tuo team utilizza principalmente un singolo prodotto o una singola piattaforma e non ha bisogno di funzionalità di ricerca multipiattaforma.
  • La tua organizzazione utilizza strumenti di terze parti di nicchia o altamente specializzati che non sono supportati dai connettori di Rovo.
  • Hai team o progetti di piccole dimensioni con esigenze minime di dati e documentazione.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Rovo e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Prima di connettere un prodotto di terze parti, controlla le relative autorizzazioni impostate. Ricerca Rovo rispetterà le autorizzazioni, ma potresti doverne impostare di adeguate per il tuo spazio o i tuoi contenuti.
  • Durante la ricerca, tieni presente che i risultati variano da utente a utente, perché Rovo rispetta le autorizzazioni e Ricerca Rovo include i risultati a cui solo l'utente corrente ha accesso.
  • Ricerca Rovo è in grado di restituire a persone e team un numero maggiore di risultati se sincronizzi il tuo organigramma con la pagina iniziale di Atlassian.
  • Incoraggia il tuo team non solo a cercare per parole chiave, ma anche a porre domande (ad esempio: "Chi è Jane Smith?" o "Qual è la politica sulle ferie?") durante l'utilizzo di Ricerca Rovo.
I tuoi dati e Ricerca Rovo Copy link to heading Copied! Mostra
  

Comprendiamo che potresti avere domande su come Ricerca Rovo utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nel nostro Trust Center.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Il contesto dell'istanza pertinente alla richiesta, ad esempio il contenuto dei documenti dei tuoi prodotti Atlassian e dei tuoi prodotti di terze parti connessi, le autorizzazioni dei documenti e i metadati dei file.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, Ricerca Rovo applica le misure seguenti.

  • I contenuti delle tue richieste e delle tue risposte:
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI o Google.
    • Non vengono memorizzati da alcun fornitore terzo di LLM.
    • Non vengono utilizzati per migliorare alcun vasto modello linguistico.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un sub-responsabile del trattamento nella nostra lista di sub-responsabili del trattamento. Usa i dati che inserisci e le risposte che ricevi solo ed esclusivamente per elaborare la tua richiesta.
  • Ricerca Rovo rispetta le autorizzazioni dei tuoi prodotti.
    • I dati vengono memorizzati nel sistema di archiviazione delle entità e degli indici di ricerca basato sul cloud di Atlassian. Ricerca Rovo si sincronizza con i dati dell'elenco di controllo degli accessi (ACL) dei tuoi prodotti di terze parti connessi e dei prodotti Atlassian per garantire che gli utenti vedano solo i contenuti per i quali hanno le autorizzazioni di accesso.
    • Ad esempio, se non hai accesso a una determinata pagina privata di Confluence o a un documento di Google Drive, tali contenuti non saranno inclusi nella risposta che ricevi. Se non vuoi che i tuoi contenuti siano disponibili nelle risposte ad altri utenti dei prodotti Atlassian o di terze parti, contatta l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.
  • Atlassian può memorizzare le query di ricerca per migliorare l'esperienza degli utenti. Come per tutte le funzionalità di Atlassian Intelligence e Rovo, le tue query non vengono utilizzate per addestrare modelli tra i clienti.
  • Recepiamo l'eliminazione dei contenuti e aggiorniamo l'indice di Rovo in base alle modifiche. Ad esempio, una volta aggiornato l'indice di Rovo, i contenuti eliminati da un prodotto di terze parti connesso non verranno visualizzati nei risultati di Rovo. Ulteriori informazioni sull'utilizzo dei dati da parte di Rovo.

Scopri di più su Atlassian Intelligence

Cos'è Atlassian Intelligence? | Assistenza Atlassian

Rovo: sblocca le conoscenze organizzative con l'IA generativa | Atlassian

Automazione tramite Atlassian Intelligence

In che modo AI ChatOps per la gestione degli imprevisti utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

Le funzioni di AI ChatOps per la gestione degli imprevisti si basano su modelli linguistici di grandi dimensioni sviluppati da OpenAI, nonché su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui le serie Llama e Phi) e su altri modelli di machine learning. Tra questi modelli linguistici è inclusa la serie di modelli GPT di OpenAI.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli linguistici di grandi dimensioni generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle funzionalità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Casi d'uso di AI ChatOps per la gestione degli imprevisti Copy link to heading Copied! Mostra
  

AI ChatOps per la gestione degli imprevisti aiuta ad accelerare il processo di risoluzione offrendo ai nuovi utenti un riepilogo dell'imprevisto pertinente e tutte le conversazioni al riguardo quando vengono aggiunti al canale Slack collegato al ticket dell'imprevisto in Jira Service Management. Inoltre, AI ChatOps per la gestione degli imprevisti può registrare le conversazioni che avvengono su Slack in Jira Service Management come sequenza temporale per riferimento futuro.

Riteniamo che AI ChatOps per la gestione degli imprevisti funzionino meglio negli scenari in cui:

  • La tua organizzazione utilizza Slack come strumento di collaborazione principale per valutare e risolvere gli imprevisti.
  • La tua organizzazione segue un protocollo per documentare le conversazioni relative agli imprevisti nell'ambito del ticket dell'imprevisto in Jira Service Management.

Considerazioni sull'utilizzo di AI ChatOps per la gestione degli imprevisti Copy link to heading Copied! Mostra
  

Tieni presente che, a causa del modo in cui operano, i modelli utilizzati per far funzionare AI ChatOps per la gestione degli imprevisti possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che AI ChatOps per la gestione degli imprevisti è meno utile in scenari in cui:

  • Ti servono informazioni attuali e accurate su persone, luoghi e fatti.

  • Non usi Slack come principale strumento di collaborazione della tua organizzazione per valutare e risolvere gli imprevisti.

  • Il tuo team non ha accesso al ticket dell'imprevisto in Jira Service Management o nel canale Slack collegato al ticket dell'imprevisto che viene esaminato.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi AI ChatOps per la gestione degli imprevisti e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Potresti anche pensare di rivedere le autorizzazioni per garantire che gli utenti abbiano livelli di accesso adeguati ai ticket degli imprevisti e ai canali Slack.

I tuoi dati e AI ChatOps per la gestione degli imprevisti Copy link to heading Copied! Mostra
  

Comprendiamo che potresti avere domande su come AI ChatOps per la gestione degli imprevisti utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Il contesto della tua istanza pertinente alla richiesta, ad esempio dati sugli imprevisti e messaggi nei tuoi canali Slack connessi.

  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.

  • Feedback che fornisci su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, AI ChatOps per la gestione degli imprevisti applica le seguenti misure:

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili agli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI.
    • Non vengono archiviati da OpenAI.
    • Non vengono utilizzati per migliorare OpenAI o altri fornitori terzi di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un sub-responsabile del trattamento nella nostra pagina Sub-responsabili. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della richiesta.
  • Questa funzionalità si attiene alle autorizzazioni del tuo prodotto. Ad esempio, se non hai accesso a un ticket relativo a un imprevisto, non troverai abbastanza contesto quando generi AI ChatOps per la gestione degli imprevisti. Se non vuoi che i tuoi contenuti vengano resi disponibili nelle risposte ad altri utenti nel tuo prodotto, collabora con l'amministratore dell'organizzazione per avere la certezza che le autorizzazioni del team siano configurate in modo appropriato.
Come le bozze basate sull'IA utilizzano Atlassian Intelligence Copy link to heading Copied! Mostra
  

La bozze basate sull'IA sono supportate da modelli linguistici di grandi dimensioni sviluppati da OpenAI e Anthropic, nonché da una combinazione di modelli linguistici open source basati su trasformatori e altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di OpenAI e la serie di modelli Claude di Anthropic.

Atlassian Intelligence utilizza questi modelli per analizzare e generare linguaggio naturale all'interno dei nostri prodotti. I modelli di codifica open source convertono i tuoi input testuali in forme numeriche (incorporamenti) che vengono utilizzate per identificare e formare temi a partire dai tuoi input.

Questi modelli linguistici di grandi dimensioni generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI e dei modelli di Anthropic. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sull'incorporamento dei modelli.

Casi d'uso per le bozze basate sull'IA Copy link to heading Copied! Mostra
  

Le bozze basate sull'IA suggeriscono bozze pregenerate di articoli della knowledge base che i tuoi amministratori e agenti devono prendere in considerazione. Questa funzionalità genera bozze per i ticket più comuni in un progetto Jira Service Management, utilizzando i dettagli e i commenti contenuti nei ticket del progetto.

Ciò consente ai team di assistenza di aumentare la copertura degli articoli della knowledge base in modo più rapido e semplice, il che a sua volta andrà a vantaggio delle prestazioni di altre funzionalità di Jira Service Management. Ad esempio, gli articoli della knowledge base creati utilizzando bozze basate sull'IA possono quindi essere utilizzati dalla funzionalità di risposte basate sull'IA dell'assistente virtuale del servizio per risolvere in modo più semplice e rapido le richieste degli utenti in cerca di aiuto.

Leggi di più sulle risposte basate sull'IA nell'assistente virtuale del servizio.

Riteniamo che le bozze basate sull'IA funzionino meglio negli scenari in cui:

  • Il progetto riceve più di 40 richieste in un mese. I progetti con meno di 40 richieste potrebbero non includere informazioni sufficienti per generare bozze basate sull'IA.
  • Il contenuto dei ticket, come riepilogo, descrizione e altri campi, è principalmente in inglese. La qualità delle bozze basate sull'IA può variare per altre lingue.
Considerazioni sull'utilizzo delle bozze basate sull'IA Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui operano, i modelli usati per le bozze basate sull'IA a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che le bozze basate sull'IA sono meno utili negli scenari in cui:

  • Il progetto riceve meno di 40 richieste in un mese.
  • Il progetto crea automaticamente richieste in base agli avvisi, in quanto potrebbero non richiedere un articolo della knowledge base; la funzionalità suggerirà comunque delle bozze basate sull'IA in relazione alle richieste.
  • Ti servono bozze per i ticket in cui il contenuto è in lingue diverse dall'inglese.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • L'attuazione di misure assicura che i membri del tuo team esaminino a fondo le bozze basate sull'IA prima di procedere alla creazione di articoli della knowledge base basati su di esse
  • Chiedere agli amministratori del progetto di identificare gli esperti nel loro team che saranno responsabili della revisione e della modifica delle bozze basate sull'IA per mantenere articoli della knowledge base di alta qualità
I tuoi dati e le bozze basate sull'IA Copy link to heading Copied! Mostra
  

Comprendiamo che potresti avere domande su come l'IA utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Contesto significativo fornito da un'istanza per una funzionalità, ad esempio dati in un ticket quali valori dei campi, riepilogo e descrizione per generare bozze utilizzando Atlassian Intelligence.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, le bozze basate sull'IA applicano le misure seguenti.

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili agli altri clienti
    • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI o Anthropic su AWS Bedrock.
    • Non sono archiviati dai fornitori di LLM.
    • non vengono usati per migliorare alcun LLM di terze parti.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI e AWS Bedrock sono sub-responsabili del trattamento nel nostro elenco di sub-responsabili del trattamento. Usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per elaborare la tua richiesta.
  • Elaboriamo solo ticket accessibili a tutti i partecipanti a un progetto del servizio per il tuo sito. Eventuali problemi con le autorizzazioni dei ticket applicate non vengono considerati per la generazione di bozze.
  • Aggiorniamo ogni 7 giorni le bozze basate sull'IA per garantire che i contenuti siano attuali.
In che modo i riepiloghi basati sull'IA delle schede dell'hub aziendale utilizzano Atlassian Intelligence Copy link to heading Copied! Mostra
  

I riepiloghi basati sull'IA nelle schede dell'hub aziendale si basano su modelli linguistici di grandi dimensioni sviluppati da OpenAI, che includono la serie di modelli GPT di OpenAI.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle capacità dei modelli di OpenAI.

Casi d'uso per i riepiloghi basati sull'IA nelle schede dell'hub aziendale Copy link to heading Copied! Mostra
  

I riepiloghi basati sull'IA nelle schede dell'hub aziendale ti aiutano a compilare e pubblicare rapidamente il tuo hub aziendale, suggerendo descrizioni delle schede generate dall'IA. Questa funzionalità utilizza Atlassian Intelligence per generare un riepilogo della pagina o del post del blog di Confluence collegati per la tua scheda dell'hub aziendale.

Riteniamo che i riepiloghi basati sull'IA nelle schede dell'hub aziendale funzionino meglio negli scenari in cui:

  • Desideri usare le schede dell'hub aziendale in Confluence per collegare a contenuti ricchi di testo.
  • Sei in cerca di un breve riepilogo dei contenuti di Confluence ricchi di testo da visualizzare nelle descrizioni delle schede Confluence.
Considerazioni sull'utilizzo dei riepiloghi basati sull'IA nelle schede dell'hub aziendale Copy link to heading Copied! Mostra
  

È importante ricordare che, a causa del modo in cui operano, i modelli usati per i riepiloghi basati sull'IA nelle schede dell'hub aziendale talvolta possono presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che i riepiloghi basati sull'IA nelle schede dell'hub aziendale sono meno utili negli scenari in cui:

  • Ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.
  • Ti serve un riepilogo di una pagina di Confluence molto breve in cui non ci sono contenuti a sufficienza per generare un riepilogo utile.
  • Ti serve un riepilogo di una pagina di Confluence in cui la maggior parte del contenuto è in tabelle o si espande.
  • Ti serve un riepilogo di una pagina di Confluence con la maggior parte del contenuto in macro.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

I tuoi dati e i riepiloghi basati sull'IA nelle schede dell'hub aziendale Copy link to heading Copied! Mostra
  

Comprendiamo che tu possa avere domande sul modo in cui i riepiloghi basati sull'IA nelle schede dell'hub aziendale utilizzano i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Il contesto della tua istanza pertinente al tuo prompt, ad esempio i contenuti della pagina di Confluence che vuoi riassumere.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, i riepiloghi basati sull'IA nelle schede dell'hub aziendale applicano le seguenti misure.

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili agli altri clienti.
    • Non vengono inviati a nessun provider LLM di terze parti diverso da OpenAI.
    • Non sono archiviati da alcun fornitore di LLM.
    • Non vengono utilizzati per migliorare i vasti modelli linguistici.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un sub-responsabile del trattamento nella nostra lista di sub-responsabili del trattamento. Usa i dati che inserisci e le risposte che ricevi solo ed esclusivamente per elaborare la tua richiesta.
  • Questa funzionalità eredita le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a una pagina di Confluence, non ti verrà mostrata questa funzionalità per recuperare un riepilogo utilizzando Atlassian Intelligence. Se non vuoi che i tuoi contenuti vengano resi disponibili ad altri utenti nella tua istanza, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.
In che modo le risorse relative all'IA utilizzano Atlassian Intelligence Copy link to heading Copied! Mostra
  

Le risorse relative all'IA si basano su modelli linguistici di grandi dimensioni sviluppati da OpenAI, nonché su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui le serie Llama e Phi) e su altri modelli di machine learning. Tra questi modelli linguistici è inclusa la serie di modelli GPT di OpenAI.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti e per fornire risposte pertinenti da Atlassian e dai prodotti di terze parti connessi.

Questi modelli linguistici di grandi dimensioni generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle funzionalità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Casi d'uso per le risorse relative all'IA Copy link to heading Copied! Mostra
  

Atlassian Intelligence consente agli utenti di accelerare il processo di risoluzione degli imprevisti suggerendo un elenco di risorse a cui possono fare riferimento negli spazi e negli articoli della tua knowledge base collegati, nei ticket di Jira e nei prodotti di terze parti che hai integrato tramite Rovo (se sei cliente Rovo). Scopri di più su Rovo e sugli strumenti di terze parti.

Riteniamo che le risorse relative all'IA funzionino meglio nei casi in cui:

  • La tua organizzazione mette a disposizione molta documentazione negli spazi di knowledge base collegati e si connette a strumenti di terze parti pertinenti e utili per risolvere gli imprevisti che si verificano nella tua organizzazione.

  • Il tuo team deve poter accedere rapidamente alle risorse probabilmente pertinenti all'imprevisto durante la sua valutazione.

Considerazioni sull'utilizzo delle risorse relative all'IA Copy link to heading Copied! Mostra
  

Tieni presente che, a causa del modo in cui operano, i modelli utilizzati per far funzionare le risorse relative all'IA possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che le risorse relative all'IA sono meno utili in scenari in cui:

  • Ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.

  • Hai bisogno di risorse relative all'IA per accedere a informazioni non facilmente disponibili, come i documenti Confluence con restrizioni (ad esempio, pagine Confluence con accesso limitato) per rispondere correttamente a una richiesta.

  • Nella configurazione è disponibile una documentazione minima che Atlassian Intelligence può utilizzare per suggerire risorse correlate.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Potresti anche pensare di:

  • Rivedere le autorizzazioni per garantire che gli utenti dispongano dei giusti livelli di accesso alla documentazione e alle risorse pertinenti da strumenti di terze parti (come i canali Slack).

  • Esaminare e confermare che la documentazione dell'organizzazione sia completa, aggiornata e precisa.

I tuoi dati e le risorse relative all'IA Copy link to heading Copied! Mostra
  

Comprendiamo che potresti avere domande su come le risorse relative all'IA utilizzano i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Il contesto della tua istanza pertinente alla richiesta, ad esempio dati sugli imprevisti o sugli avvisi, documentazione nei prodotti Atlassian e prodotti di terze parti connessi come Google Docs.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che fornisci su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, alle risorse relative all'IA si applicano le misure seguenti:

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI.
    • Non vengono memorizzati da OpenAI né da altri fornitori terzi di LLM.
    • Non vengono utilizzati per migliorare OpenAI o altri fornitori terzi di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un sub-responsabile del trattamento nella nostra pagina Sub-responsabili. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della richiesta.
  • Questa funzione si attiene alle autorizzazioni del tuo prodotto. Ad esempio, se non hai accesso a una determinata pagina di Confluence, non troverai quella pagina nell'elenco delle risorse correlate. Se non vuoi che i tuoi contenuti vengano resi disponibili nelle risposte ad altri utenti nel tuo prodotto, collabora con l'amministratore dell'organizzazione per avere la certezza che le autorizzazioni del team siano configurate in modo appropriato.
Come i suggerimenti di IA di Jira Service Management utilizzano Atlassian Intelligence Copy link to heading Copied! Mostra
  

I suggerimenti di IA di Jira Service Management si basano su vasti modelli linguistici sviluppati da OpenAI e da altri modelli di machine learning. Questi modelli linguistici includono la serie di modelli GPT di OpenAI.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli linguistici di grandi dimensioni generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle capacità dei modelli di OpenAI.

Casi d'uso dei suggerimenti di IA di Jira Service Management Copy link to heading Copied! Mostra
  

Con i suggerimenti di IA di Jira Service Management, il tuo team può avere aggiornamenti rapidi perché riceve a colpo d'occhio un importante contesto su richieste di assistenza e imprevisti. Atlassian Intelligence aiuta il tuo team in queste situazioni:

  • Per le richieste di assistenza, fornisce un breve riepilogo del ticket, i dettagli del richiedente e un elenco di passaggi consigliati che potrebbero aiutare gli agenti a risolvere il problema. Atlassian Intelligence suggerisce anche modi in cui il team può aggiornare le richieste di assistenza in base a questo contesto, ad esempio modificandone la priorità o aggiungendo un assegnatario.
  • Per gli imprevisti, fornisce un breve riepilogo del ticket e i dettagli della probabile causa radice. Atlassian Intelligence suggerisce anche modi in cui il team può aggiornare gli imprevisti in base a questo contesto, ad esempio identificando un imprevisto come grave, aggiungendo addetti o servizi interessati, modificandone la gravità o la priorità o indagando sul problema attraverso la creazione di un ticket.

I suggerimenti di IA di Jira Service Management possono anche consigliare agli agenti di riassegnare una richiesta o un imprevisto quando lo SLA applicabile sta per essere violato. Nel caso di richieste di assistenza, questa funzione può anche suggerire agli agenti di procedere con la riassegnazione laddove i modelli utilizzati per fornire questi suggerimenti identifichino, in base al testo dei commenti del richiedente, un senso di urgenza o rabbia.

Riteniamo che i suggerimenti di IA di Jira Service Management funzionino meglio negli scenari in cui:

  • I progetti ricevono molti imprevisti o richieste simili.
  • L'organizzazione registra già le richieste di assistenza e gli imprevisti in Jira Service Management con informazioni complete, corrette e aggiornate.
  • I profili utente dei membri del team sono stati popolati con informazioni sui loro ruoli, reparti e sedi.
  • I tuoi clienti e i membri del team tengono traccia scritta di tutte le conversazioni aggiungendo commenti sui ticket.
  • I tuoi progetti includono un numero di ogni tipo di richiesta di assistenza o imprevisto comunemente riscontrato dai team.
Considerazioni sull'utilizzo dei suggerimenti di IA di Jira Service Management Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui operano, a volte i modelli alla base dei suggerimenti di IA di Jira Service Management possono presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che i suggerimenti di IA di Jira Service Management sono meno utili negli scenari in cui:

  • ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.
  • Ti servono suggerimenti per una richiesta di assistenza o un imprevisto in circostanze in cui il tuo progetto non include richieste o imprevisti simili da cui imparare.
  • Ti servono informazioni a cui non hai accesso all'interno del progetto.
  • Ti servono suggerimenti per gli assegnatari al cui profilo non sono state aggiunte informazioni su ruoli, reparti e sedi.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Chiedere ai membri del team di assicurarsi che i dettagli del loro profilo (e gli imprevisti/le richieste di assistenza precedenti) siano completi prima di utilizzare i suggerimenti di IA di Jira Service Management.
I tuoi dati e i suggerimenti di IA di Jira Service Management Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere domande su come i suggerimenti di IA di Jira Service Management usano i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center.

Elaboriamo:

  • prompt (input) e risposte (output)
  • Contesto della tua istanza pertinente alla funzionalità, ad esempio richieste o imprevisti simili, elenco di assegnatari o colleghi del team, risorse e dati in un ticket come valori dei campi, commenti e così via.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, i suggerimenti di IA applicano le misure seguenti.

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili agli altri clienti.
    • Non vengono inviati a nessun provider LLM di terze parti diverso da OpenAI.
    • Non vengono archiviati da OpenAI.
    • Non vengono utilizzati per migliorare l'OpenAI.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un subresponsabile del trattamento nel nostro elenco di subresponsabili del trattamento. Non usa i tuoi input e output per nessun altro scopo oltre all'elaborazione della tua richiesta.
  • Questa funzionalità segue le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a una determinata richiesta di assistenza o un determinato imprevisto, Atlassian Intelligence non prenderà in considerazione tale richiesta o imprevisto durante la generazione di suggerimenti. Se non vuoi che i tuoi contenuti vengano resi disponibili ad altri utenti nel tuo progetto o sito, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.
In che modo l'automazione utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

L'automazione tramite Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic.

Atlassian Intelligence utilizza questi modelli per analizzare l'input in linguaggio naturale e generare per te una regola di automazione in Jira e in Confluence.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Casi d'uso dell'automazione tramite Atlassian Intelligence Copy link to heading Copied! Mostra
  

La creazione di regole di automazione è al centro dell'esperienza di automazione quotidiana e vogliamo renderla ancora più semplice aggiungendo Atlassian Intelligence al generatore di regole di automazione in Jira e Confluence. Ora puoi creare facilmente regole di automazione semplicemente digitando e descrivendo ciò che vuoi automatizzare e Atlassian Intelligence si occupa di tutto il lavoro pesante di creazione della regola per te. Scopri di più sull'automazione tramite Atlassian Intelligence per Jira e per Confluence.

Riteniamo che l'automazione tramite Atlassian Intelligence per Jira e Confluence funzioni meglio in scenari in cui non si ha la certezza di come iniziare o si desidera accelerare il processo di creazione delle regole.

Non sai come creare una regola di automazione in modo ottimale?

Le creazione delle regole di automazione prevede la combinazione di diversi tipi di componenti: trigger, azioni, condizioni e branch. Pensa ai componenti come ai blocchi predefiniti di una regola. Per creare con successo una regola con Atlassian Intelligence, la regola deve contenere almeno sia un trigger che un'azione. Ad esempio:

In Jira:

Ogni lunedì, trova tutti i task con una data di scadenza nei prossimi 7 giorni e invia all'assegnatario un'e-mail di promemoria.

Quando un ticket di assistenza passa ai test, assegnalo a John Smith.

In Confluence:

  • Ogni lunedì, trova tutti i task con una data di scadenza nei prossimi 7 giorni e invia all'assegnatario un'e-mail di promemoria.
  • Ogni 6 mesi, archivia tutte le pagine che non sono state aggiornate in quel periodo. Dopo l'archiviazione, invia un'e-mail all'autore della pagina per farglielo sapere.
  • Quando si pubblica una pagina con il testo Product Spec nel titolo, crea un ticket Jira per esaminare la pagina con un link alla pagina.

Inoltre, affinché una regola venga creata correttamente, tutti i suoi componenti devono essere supportati dall'automazione tramite Atlassian Intelligence. Ciò significa che qualsiasi trigger, azione, condizione o branch della regola deve essere compatibile con l'automazione in Jira e/o in Confluence.

Considerazioni sull'automazione tramite Atlassian Intelligence Copy link to heading Copied! Mostra
  

È importante ricordare che i modelli utilizzati per realizzare l'automazione tramite Atlassian Intelligence a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili a causa del modo in cui funzionano.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che l'automazione tramite Atlassian Intelligence è meno utile in scenari in cui:

  • Devi consentire all'automazione tramite Atlassian Intelligence di accedere a informazioni non immediatamente disponibili (ad esempio una pagina o un progetto con accesso limitato) per rispondere correttamente alla tua richiesta.
  • Devi eseguire task occasionali.
  • Devi consultare le informazioni contenute nella knowledge base.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

L'automazione tramite Atlassian Intelligence funzionerà solo con il set esistente di componenti di automazione disponibili in Jira e Confluence.

Potresti anche pensare di essere il più specifico possibile in ciò che chiedi ad Atlassian Intelligence di fare, come descritto sopra.

I tuoi dati e l'automazione tramite Atlassian Intelligence Copy link to heading Copied! Mostra
  

Comprendiamo che potresti avere domande su come l'automazione tramite Atlassian Intelligence usa i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Il contesto dalla tua istanza pertinente alla richiesta, ad esempio un progetto Jira o una pagina Confluence.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, nell'ambito dell'utilizzo di Atlassian Intelligence per l'automazione di Confluence si applicano le seguenti misure:

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI, Google o Anthropic su AWS Bedrock.
    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.

Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina dei Sub-responsabili. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della richiesta.

Questa funzionalità segue le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a un determinato progetto o a una pagina specifica, i contenuti di tali risorse non saranno suggeriti nella risposta che ricevi. Se non vuoi che i tuoi contenuti vengano resi disponibili nelle risposte ad altri utenti nella tua istanza, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.

Raggruppamento degli avvisi

In che modo il raggruppamento degli avvisi utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

Il raggruppamento degli avvisi di Atlassian Intelligence è basato sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google. Questi modelli includono un algoritmo progettato per identificare pattern nei dati di avviso, la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google.

Atlassian Intelligence utilizza questi modelli di machine learning per analizzare e generare gruppi di avvisi e fornire suggerimenti correlati (gruppi di avvisi e addetti alla risposta precedenti) all'interno dei nostri prodotti in base alla somiglianza del contenuto degli avvisi o dei tag utilizzati. Atlassian Intelligence utilizza quindi modelli linguistici di grandi dimensioni per analizzare e generare descrizioni e contenuti in linguaggio naturale per questi gruppi all'interno dei nostri prodotti.

Questi modelli linguistici di grandi dimensioni generano risposte basate sui tuoi input e sono probabilistici. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati addestrati.

Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google.

Casi d'uso per il raggruppamento degli avvisi Copy link to heading Copied! Mostra
  

Il raggruppamento degli avvisi utilizza Atlassian Intelligence per identificare e raggruppare avvisi simili. Aiuta anche a identificare e consigliare gruppi di avvisi e addetti alla risposta per gli avvisi (o team di addetti alla risposta) precedenti, in base alla somiglianza semantica del contenuto o dei tag degli avvisi utilizzati.

Quando vuoi trasformare il gruppo di avvisi in un imprevisto, il raggruppamento di avvisi precompilerà anche tutte le informazioni contestuali da esaminare nell'ambito del processo di creazione dell'imprevisto.

Riteniamo che il raggruppamento degli avvisi funzioni meglio nei seguenti scenari:

  • La tua organizzazione riscontra spesso modelli di avvisi simili o duplicati che si verificano a volumi elevati, per un breve periodo o in un arco di tempo più lungo.
  • La tua organizzazione classifica costantemente gli avvisi utilizzando i tag.
  • Il tuo team spesso ritiene che avvisi simili o duplicati debbano essere trasformati in imprevisti.
Considerazioni sull'utilizzo del raggruppamento degli avvisi Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui operavano sul raggruppamento degli avvisi, questi modelli possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano logici ma sono incompleti o non affidabili. Nel caso dei gruppi di avvisi che vedi, potrebbero non riflettere esattamente la somiglianza semantica dei loro tag.

Abbiamo scoperto che il raggruppamento degli avvisi è meno utile negli scenari in cui:

  • ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.
  • Hai bisogno del raggruppamento degli avvisi per accedere a informazioni che non sono facilmente disponibili per raggruppare correttamente gli avvisi. Il raggruppamento degli avvisi funziona entro i limiti delle autorizzazioni e dei ruoli configurati del tuo team, quindi avrai accesso ai gruppi e agli approfondimenti solo per gli avvisi che sei autorizzato a visualizzare.
  • I tag degli avvisi usati dal tuo team non sono coerenti o adeguatamente gestiti. Poiché il raggruppamento degli avvisi viene effettuato sulla base della somiglianza semantica dei titoli e dei tag degli avvisi, la qualità dei gruppi di avvisi che genera dipende dalla coerenza e dalla pulizia dei tag degli avvisi utilizzati dal tuo team e dalla tua organizzazione.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Potresti anche assicurarti di seguire, insieme al tuo team, pratiche coerenti nell'uso dei tag degli avvisi.

Raggruppamento di dati e avvisi Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere delle domande sul modo in cui il raggruppamento degli avvisi utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Il contesto dell'istanza pertinente al tuo prompt, ad esempio i dati degli avvisi (titoli degli avvisi, tag degli avvisi, priorità, team di addetti alla risposta, descrizione).
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Trattiamo i tuoi dati degli avvisi per addestrare una versione del modello di machine learning a riconoscere i modelli specifici dei tuoi avvisi. Questa versione è utilizzata solo per offrirti un'esperienza migliore:

  • Archiviamo i modelli identificati per fornirti approfondimenti.
  • Non utilizziamo i tuoi dati degli avvisi per addestrare LLM.

Per quanto riguarda i tuoi dati, il raggruppamento degli avvisi applica le seguenti misure:

  • I tuoi input e output:
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI o Google.

    • Non sono archiviati dai fornitori di LLM.

    • Non vengono utilizzati per migliorare i modelli di LLM.

    • Vengono utilizzati solo per elaborare la tua esperienza.

  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati come tali nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzione segue le autorizzazioni del tuo sito. Ad esempio, se Atlassian Intelligence raggruppa 50 avvisi in base ai tag e alla somiglianza semantica e disponi dell'autorizzazione a visualizzarne solo 30, gli avvisi saranno visualizzati solo nella vista dei dettagli del gruppo. Se desideri che i tuoi avvisi non siano disponibili nelle risposte ad altri utenti del tuo sito, rivolgiti all'amministratore dell'organizzazione/del sito per avere la certezza che le autorizzazioni siano impostate in modo appropriato.
Come Atlassian Intelligence riassume pagine e blog in Confluence Copy link to heading Copied! Mostra
  

Riassumi pagine e blog utilizzando Atlassian Intelligence, che si basa sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google. Questi modelli includono la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google.

Casi d'uso del riepilogo rapido di Confluence Copy link to heading Copied! Mostra
  

Risparmia tempo e ricevi i dettagli necessari per svolgere il tuo lavoro più velocemente generando un breve riepilogo di una pagina o di un blog di Confluence con Atlassian Intelligence. Scopri di più sull'utilizzo di Atlassian Intelligence in Confluence.

Riteniamo che il riepilogo di pagine e blog con Atlassian Intelligence funzioni in maniera ottimale nei seguenti casi:

  • Pagine con molto testo che richiedono almeno 5 minuti per essere lette.
  • Sono presenti molti contenuti scritti, con poche immagini e/o altra formattazione come le espansioni su una pagina.
Considerazioni sul riepilogo di pagine e blog con Atlassian Intelligence Copy link to heading Copied! Mostra
  

È importante ricordare che, i modelli utilizzati per riassumere le pagine e i blog con Atlassian Intelligence a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili a causa del modo in cui funzionano.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Mentre continuiamo a migliorare il supporto per macro, tabelle e ad espandere i riepiloghi, abbiamo scoperto che riassumere pagine e blog utilizzando Atlassian Intelligence è meno utile negli scenari seguenti:

  • ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.
  • Ti serve un riepilogo di una pagina di Confluence molto breve in cui non ci sono contenuti sufficienti.
  • Ti serve un riepilogo di una pagina di Confluence in cui la maggior parte del contenuto è in tabelle o si espande.
  • Ti serve un riepilogo di una pagina di Confluence con la maggior parte del contenuto in macro.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Chiedere ad Atlassian Intelligence di riepilogare le pagine che sono ricche di contenuti testuali.
I tuoi dati e il riepilogo di pagine e blog con Atlassian Intelligence Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere domande su come vengono utilizzati i tuoi dati da Atlassian Intelligence per l'automazione di Confluence. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).

  • Il contesto della tua istanza pertinente al tuo prompt, ad esempio i contenuti della pagina di Confluence che vuoi riassumere.

  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori

  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, nell'ambito del riepilogo di pagine e blog con Atlassian Intelligence, si applicano le seguenti misure:

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI o Google.
    • Non sono archiviati dai fornitori di LLM.

    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzione segue le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a una pagina di Confluence, non ti verrà mostrata questa funzione né potrai riepilogare una pagina utilizzando Atlassian Intelligence. Se non vuoi che i tuoi contenuti vengano resi disponibili ad altri utenti nella tua istanza, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.

Definisci i termini utilizzando Atlassian Intelligence

Come Atlassian Intelligence definisce i termini Copy link to heading Copied! Mostra
  

La definizione di termini tramite Atlassian Intelligence in Confluence e Jira è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic.

Atlassian Intelligence utilizza questi modelli per analizzare e generare risposte basate sul linguaggio naturale all'interno di Confluence e Jira.

Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Casi d'uso per la definizione dei termini utilizzando Atlassian Intelligence Copy link to heading Copied! Mostra
  

Una delle cose più difficili del consumo di contenuti su Confluence e Jira è comprendere il contesto necessario per capire cosa stai leggendo. Abbreviazioni, acronimi, termini sconosciuti e nomi specifici del team o del progetto possono portare a una lunga e tediosa ricerca delle informazioni di cui hai bisogno.

La definizione dei termini attraverso Atlassian Intelligence fornirà la definizione di termini specifici dell'azienda (come acronimi, nomi di progetto, sistema o team) in una pagina in Confluence o nella descrizione di un ticket in Jira. Questo garantisce agli utenti le informazioni di cui hanno bisogno, quando ne hanno bisogno, il tutto aiutando al contempo i team a lavorare meglio insieme.

Atlassian Intelligence può farti risparmiare tempo definendo queste cose per te, senza distrarti da ciò che stai leggendo.

Se trovi una definizione che ritieni imprecisa, puoi modificarla o aggiungerne una nuova, quindi impostare la visibilità per quella pagina o quel ticket, per l'intero spazio o progetto, oppure accedere all'intera organizzazione.

Riteniamo che definire i termini utilizzando Atlassian Intelligence in Confluence e Jira funzioni meglio nei casi in cui:

  • un'azienda ha più pagine nella propria istanza di Confluence che menzionano, descrivono o spiegano a quale termine specifico fa riferimento Atlassian Intelligence.
Considerazioni sulla definizione di termini con Atlassian Intelligence Copy link to heading Copied! Mostra
  

È importante ricordare che, a causa del modo in cui i modelli utilizzati per definire i termini utilizzando Atlassian Intelligence in Confluence funzionano, questi a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che definire i termini utilizzando Atlassian Intelligence in Confluence è meno utile nei casi in cui:

  • ti servono informazioni attuali e accurate su persone, luoghi e fatti.
  • non disponi di un contesto completo sul termine all'interno di quell'istanza di Confluence (ad esempio, se non ci sono pagine che menzionano il termine specifico, la definizione di quel termine non verrà generata con precisione).
  • La definizione richiede l'accesso ai contenuti di Confluence per cui non disponi delle autorizzazioni di visualizzazione
  • l'utente tenta di definire più termini anziché uno singolo alla volta.

Inoltre, in Jira, abbiamo anche scoperto che, poiché la definizione dei termini con Atlassian Intelligence si basa sulla ricerca in Confluence, la funzione sarà disponibile in Jira solo se disponi delle autorizzazioni di visualizzazione di un'istanza di Confluence nello stesso sito della tua istanza di Jira.

È anche possibile che tu scopra che la definizione di termini con Atlassian Intelligence non funzioni come previsto negli spazi di Confluence o nelle istanze di Jira che contengono contenuti scritti in più lingue.

I tuoi dati e la definizione dei termini con Atlassian Intelligence Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere domande su come vengono utilizzati i tuoi dati da Atlassian Intelligence per definire i termini. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Contesto tratto dalla tua istanza pertinente alla richiesta, come il termine che desideri definire.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, alla definizione di termini utilizzando Atlassian Intelligence si applicano le seguenti misure:

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI, Google o Anthropic su AWS Bedrock.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzionalità segue le autorizzazioni di accesso degli utenti esistenti, quindi agli utenti non verrà mostrata una definizione dei contenuti a cui non hanno accesso. Invece, la funzione esegue un pull di contenuti e definizioni solo dalle pagine e dai progetti che l'utente è autorizzato a visualizzare nell'istanza. Se desideri che i contenuti della tua istanza non siano disponibili nelle risposte ad altri utenti, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.
  • Se un utente modifica o aggiorna una definizione manualmente, la definizione viene archiviata e conservata per 1 anno.

AI generativa nell'editor

Come funziona Atlassian Intelligence nelle esperienze di modifica Copy link to heading Copied! Mostra
  

Atlassian Intelligence nelle esperienze di modifica si basa sui modelli linguistici di grandi dimensioni sviluppati da OpenAI. Questi modelli includono la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google.

Casi d'uso dell'IA generativa nell'editor Copy link to heading Copied! Mostra
  

Atlassian Intelligence aiuta a promuovere una comunicazione efficace tra tutti i team di un'organizzazione per migliorare l'efficienza, il processo decisionale e le procedure.

Riteniamo che l'utilizzo di Atlassian Intelligence nelle esperienze di modifica funzioni meglio nei casi di:

  • trasformazione dei contenuti esistenti per diversi tipi di pubblico. Atlassian Intelligence aiuta a cambiare tono, a migliorare la scrittura e a rendere le informazioni tecniche più facili da comprendere per gli altri team. È la cosa migliore per i team che vogliono rendere la loro scrittura più professionale e concisa.
  • riepilogo dei contenuti esistenti. Con Atlassian Intelligence, puoi trasformare note approssimative in utile documentazione strategica, articoli della knowledge base, piani di campagne e altro ancora. Puoi usarlo anche per analizzare le informazioni esistenti per definire piani d'azione ed elementi. Funziona meglio per le pagine ricche di testo in cui c'è molto contesto da cui attingere.
  • generazione di nuovi contenuti. Atlassian Intelligence ti aiuta a redigere nuovi contenuti come pagine strategiche, panoramiche di progetto, note di rilascio o storie utenti. Funziona meglio quando i team utilizzano istruzioni chiare e specifiche, con un obiettivo ben definito in mente.
Considerazioni sull'utilizzo di Atlassian Intelligence nelle esperienze di modifica Copy link to heading Copied! Mostra
  

È importante ricordare che, a causa del funzionamento dei modelli utilizzati per alimentare Atlassian Intelligence nelle esperienze di modifica, questi a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che utilizzare Atlassian Intelligence nelle esperienze di modifica è meno utile nei casi in cui:

  • ti servono informazioni attuali, aggiornate e accurate su persone, luoghi e fatti.
  • devi avere accesso a informazioni che non puoi reperire direttamente (ad esempio, nella tua istanza) per rispondere correttamente alla tua richiesta.
  • devi generare contenuti in un formato diverso dal markdown standard (ad esempio, generando un pannello informativo da zero).
  • devi fare riferimento a informazioni che non sono già presenti nel documento in fase di modifica (ad esempio, contenuti presenti in un altro documento o in un altro prodotto).
  • Devi generare e trasformare i contenuti in lingue diverse dall'inglese.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Essere più specifico possibile in ciò che chiedi di fare ad Atlassian Intelligence.
  • Scomporre le richieste complesse in task più piccoli e gestibili.
  • Incorporare parole chiave rilevanti per migliorare la precisione dei contenuti generati.
  • Usare correttamente la grammatica e la punteggiatura nel testo inserito.
  • Correggere, rivedere e modificare l'output generato dall'assistente di scrittura IA per ottenere precisione e chiarezza.
  • Mettere in pratica diverse istruzioni o varianti del testo inserito per scoprire idee diverse.
  • Collaborare con gli altri per raccogliere feedback e migliorare la qualità dell'output.
I tuoi dati e Atlassian Intelligence nelle esperienze di modifica Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere domande su come vengono utilizzati i tuoi dati da Atlassian Intelligence nelle esperienze di modifica. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Il contesto tratto dalla tua istanza pertinente alla richiesta, come il prodotto da cui hai attivato Atlassian Intelligence.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, alle esperienze di modifica tramite Atlassian Intelligence si applicano le seguenti misure:

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI o Google.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzionalità segue le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a una determinata pagina di Confluence, i contenuti della pagina non saranno suggeriti nella risposta che ricevi. Se non vuoi che i tuoi contenuti vengano resi disponibili nelle risposte ad altri utenti nella tua istanza, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.
Come lo strumento di riformattazione dei ticket utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

Lo strumento di riformattazione dei ticket si basa su vasti modelli linguistici sviluppati da OpenAI, tra cui la serie di modelli GPT di OpenAI.

Atlassian Intelligence utilizza questo modello per analizzare e generare un linguaggio naturale all'interno di Jira.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle capacità dei modelli di OpenAI.

Casi d'uso dello strumento di riformattazione dei ticket Copy link to heading Copied! Mostra
  

Lo strumento di riformattazione dei ticket aiuta ad aumentare la chiarezza delle descrizioni dei ticket Jira riformattandole attraverso un modello sviluppato da Atlassian che copre i tipi di informazioni che generalmente ci aspettiamo di vedere nella descrizione di un ticket Jira, ad esempio una user story, il contesto del lavoro e i criteri di accettazione.

Riteniamo che lo strumento di riformattazione dei ticket funzioni meglio negli scenari in cui le descrizioni dei ticket contengono già informazioni utili (ad esempio criteri di accettazione o link alle fonti) che però non sono formattate utilizzando una struttura chiara o coerente.

Considerazioni sull'utilizzo dello strumento di riformattazione dei ticket Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui operano, a volte i modelli alla base dello strumento di riformattazione dei ticket possono presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, la tua descrizione riformattata potrebbe non riflettere con precisione il contenuto su cui si basava o potrebbe includere dettagli che sembrano sensati ma sono falsi o incompleti.

Abbiamo scoperto che lo strumento di riformattazione dei ticket è meno utile in scenari in cui:

  • ti servono informazioni attuali e accurate su persone, luoghi e fatti.
  • Le descrizioni dei ticket non includono molte informazioni, perché c'è una maggiore probabilità che i modelli alla base dello strumento di riformattazione dei ticket aggiungano informazioni che non erano incluse nella descrizione originale.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence, and always review the quality of the responses you get before sharing them with others. You might also want to think about reviewing and confirming that your work item descriptions include all relevant information before you start using work item reformatter to reformat them.

Your data and work item reformatter Copy link to heading Copied! Mostra
  

We understand you may have questions about how work item reformatter uses your data. This section supplements the information available on our Trust Center.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Context from your instance relevant to your prompt, such as the Jira work item description and summary.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

When it comes to your data, work item reformatter applies the following measures:

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili agli altri clienti
    • Non vengono inviati a nessun provider LLM di terze parti diverso da OpenAI.
    • Non vengono archiviati da OpenAI.
    • Non vengono utilizzati per migliorare i modelli di OpenAI.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un subresponsabile del trattamento nel nostro elenco di subresponsabili del trattamento. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • This feature only uses the information available within the Jira Work item and is invoked from the Jira Work item. Therefore, it can only be invoked by a user who has permission to view the work item and will not access any other information.

Summarize work item details in Jira Service Management

How Atlassian Intelligence summarizes work item details in Jira Service Management Copy link to heading Copied! Mostra
  

Summarize work item details using Atlassian Intelligence is powered by large language models developed by OpenAI and Google. These large language models include OpenAI's GPT series of models and Google's Gemini series of models.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google.

Use cases for summarizing work item details in Jira Service Management Copy link to heading Copied! Mostra
  

Instead of reading through long descriptions and numerous comments on a Jira Service Management work item, you can use Atlassian Intelligence to quickly summarize this information for you. This helps agents quickly understand the context of the work item and any progress made, enabling them to take swift action and provide timely assistance.

We believe that summarizing work item details using Atlassian Intelligence works best for:

  • Work items with description and comments in English.
  • Work items with a large number of comments and/or lengthy comments and descriptions.
Considerations when summarizing work item details using Atlassian Intelligence Copy link to heading Copied! Mostra
  

It’s important to remember that because of the way that the models used to power summarizing work item details using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

We’ve found that summarizing work item details using Atlassian Intelligence is less useful in scenarios when:

  • Stai usando una lingua diversa dall'inglese
  • The work item has no history or details

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Your data and summarizing work item details using Atlassian Intelligence Copy link to heading Copied! Mostra
  

We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Context from your instance relevant to your prompt includes details about the Jira Service. Management work item, such as the work item description, comments, and users involved in the ticket.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

When it comes to your data, summarizing work item details using Atlassian Intelligence applies the following measures:

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI, Google o Anthropic su AWS Bedrock.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzionalità segue le autorizzazioni della tua istanza. Solo gli agenti e gli amministratori di progetto possono visualizzare il pulsante Riepiloga.

AI generativa nell'editor

Come Atlassian Intelligence riassume i link intelligenti Copy link to heading Copied! Mostra
  

I riassunti dei link intelligenti di Atlassian Intelligence (AI) sono basati su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Casi d'uso per riassumere i Link intelligenti Copy link to heading Copied! Mostra
  

Dopo aver passato il mouse su un link intelligente di Jira, Confluence e Documenti Google, Atlassian Intelligence può aiutarti a riassumere il contenuto, consentendoti così di determinare l'importanza e il valore del link e di decidere la tua prossima azione. Questo riduce la necessità di lasciare la pagina corrente e cambiare contesto.

Riteniamo che Riepiloga Link intelligenti con l'IA funzioni meglio negli scenari in cui:

  • You are viewing a page or work item with one or more Smart Links.
  • You are viewing a page or work item with one or more Smart Links that contain a lot of information or dense content, which will take time and attention away from the main content you wanted to read.
Considerazioni sul riepilogo di Link intelligenti con Atlassian Intelligence Copy link to heading Copied! Mostra
  

È importante tenere in considerazione che, per effetto del modo in cui opera Riepiloga Link intelligenti con l'IA, i modelli alla base di questa funzione possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, i riepiloghi che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che Riepiloga Link intelligenti con l'IA è meno utile negli scenari in cui:

  • ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.
  • Devi riepilogare contenuti incredibilmente brevi.
  • Devi riepilogare tutti i metadati e il contenuto in un link. Ad esempio, se desideri comprendere tutti i valori dei campi di un ticket Jira, nonché la sua descrizione e il contenuto dei commenti.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

I tuoi dati e il riepilogo di Link intelligenti con Atlassian Intelligence Copy link to heading Copied! Mostra
  

We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Il contesto della tua istanza pertinente al tuo prompt, ad esempio i contenuti del link che vuoi riepilogare.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, Riepiloga Link intelligenti con l'IA applica le misure seguenti.

  • I tuoi riepiloghi:
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI, Google o Anthropic su AWS Bedrock.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzione segue le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a una pagina o a un ticket in Jira, Confluence o Google, non sarai in grado di riepilogare i contenuti di quella fonte. Se desideri che i contenuti della tua istanza non siano disponibili nelle risposte ad altri utenti, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.

Atlassian Intelligence risponde su Jira Service Management

In che modo l'assistente virtuale del servizio di Jira Service Management utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

L'assistente virtuale del servizio di Jira Service Management è basato sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google, nonché su modelli open source (inclusa la serie Llama).

L'assistente virtuale del servizio utilizza questi modelli nel seguente modo:

  • Intenti: ogni intento rappresenta un problema, una domanda o una richiesta particolare che il tuo assistente virtuale del servizio può aiutarti a risolvere per i tuoi clienti. Gli intenti vengono addestrati utilizzando un modello di machine learning su misura per l'organizzazione, basato su un set di dati per la formazione (descritto nel dettaglio di seguito, nella sezione "I tuoi dati e l'assistente virtuale del servizio"). Questo modello viene utilizzato per comprendere le domande dei clienti nel contesto dell'organizzazione. Scopri di più sugli intenti.
  • Risposte di Atlassian Intelligence utilizza l'intelligenza artificiale generativa per effettuare ricerche negli spazi della knowledge base di Confluence collegati e quindi riepilogare tali informazioni in risposta alle domande dei tuoi clienti. Risposte di Atlassian Intelligence si basa su vasti modelli linguistici sviluppati da OpenAI e da altri modelli di machine learning. Scopri di più su Risposte di Atlassian Intelligence.
  • ‘From your data’ intent templates are generated using your project’s work items. We use machine learning to group the most common themes, suggest an intent for each group, then generate titles, descriptions, and training phrases for each suggested intent. ‘From your data’ intent templates are powered by a combination of machine learning models, including large language models. Read more about intent templates.

Come funzionano i modelli linguistici di grandi dimensioni: i vasti modelli linguistici generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

I modelli linguistici di grandi dimensioni utilizzati su cui si basa l'assistente virtuale del servizio includono la serie di modelli GPT di Open AI e la serie di modelli Gemini di Google.

Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama.

Casi d'uso per l'assistente virtuale del servizio di Jira Service Management Copy link to heading Copied! Mostra
  

L'assistente virtuale del servizio aiuta i team ad automatizzare le interazioni di supporto di primo livello, alimentate da un motore conversazionale Atlassian Intelligence che analizza e comprende l'intento, il contesto e le autorizzazioni per personalizzare le interazioni.

Utilizzando Atlassian Intelligence, l'assistente virtuale del servizio aiuta i team a scalare i propri service desk e a soddisfare i clienti con tre funzionalità chiave:

  • Intenti, creati dall'amministratore del tuo progetto e rappresentano un problema, una domanda o una richiesta specifica che il tuo assistente virtuale del servizio può aiutarti a risolvere per i tuoi clienti.
  • Risposte di Atlassian Intelligence, che utilizza l'intelligenza artificiale generativa per cercare negli spazi della tua knowledge base collegati e riepilogare le risposte alle domande dei tuoi clienti.
  • ‘From your data’ intent templates, which are personalized intent template suggestions generated by grouping your project’s Jira Service Management work items – making it even faster for your project admins to create intents.

L'assistente virtuale del servizio è disponibile in più canali, tra cui Slack, Microsoft Teams, il portale Jira Service Management e altro ancora. Scopri di più sui canali disponibili per l'assistente virtuale del servizio.

Riteniamo che l'assistente virtuale del servizio funzioni meglio negli scenari in cui:

  • I tuoi team di assistenza ricevono un elevato numero di domande di primo livello.
  • I tuoi agenti si ritrovano a rispondere ripetutamente alle stesse domande.
  • Hai una knowledge base collegata completa e aggiornata che l'assistente virtuale del servizio può utilizzare per offrire risposte alle domande dei clienti.
  • I tuoi team di assistenza ricevono in genere richieste con diversi possibili esiti di risoluzione, adatti a utilizzare entrambe le funzionalità chiave negli assistenti virtuali del servizio a livello di progetto: gli intenti e Risposte di Atlassian Intelligence:
    • Intents work best when an action needs to be taken to resolve customer requests (for example, creating a work item for an agent to resolve), or when a back and forth conversation is needed to gather information from a customer. Intents are also ideal for scenarios where you need a fixed, deterministic outcome for specific requests, since intents provide more control over what information is shared with your customers.
    • Le Risposte di Atlassian Intelligence funzionano meglio quando le richieste dei clienti possono essere risolte fornendo informazioni e istruzioni, senza bisogno dell'intervento di un agente.
  • Nel caso dei modelli "dai tuoi dati":
    • Your project has received at least 50 work items, so that the intent template suggestions have access to enough information to be helpful.
    • Hai riscontrato un recente cambiamento nel comportamento dei clienti, come un evento imminente o persino un'interruzione tecnica, poiché i modelli di intenti "dai tuoi dati" identificheranno e raggrupperanno le domande recenti e comuni dei clienti.
Considerazioni sull'utilizzo delle risposte di Atlassian Intelligence in Jira Service Management Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui alimentavano l'assistente virtuale del servizio, questi modelli possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che l'assistente virtuale del servizio è meno utile in scenari in cui:

  • Hai un basso volume di richieste di primo livello da parte dei clienti.
  • Non hai utilizzato tutte le funzionalità dell'assistente virtuale del servizio, ad esempio creando intenti (o utilizzando modelli di intenti "dai tuoi dati") o abilitando Risposte di Atlassian Intelligence.
  • In caso di intenti:
    • Hai aggiunto frasi formative che hanno un significato troppo ampio o diverso. La corrispondenza degli intenti funziona meglio quando gli intenti sono specifici.
    • Hai aggiunto frasi formative che non riflettono accuratamente il modo in cui i clienti in genere fanno domande. La corrispondenza è semantica e cerca un significato simile tra le frasi formative e ciò che i clienti chiedono.
    • Hai creato intenti multipli troppo simili. La sovrapposizione di argomenti tra gli intenti può confondere l'assistente virtuale del servizio e indurre a suggerire l'intento sbagliato.
  • Nel caso delle risposte di Atlassian Intelligence:
    • Ai clienti servono informazioni attuali e accurate su persone, luoghi e fatti.
    • I clienti hanno bisogno di Risposte di Atlassian Intelligence per accedere a informazioni che non sono a portata di mano (ad esempio, in una knowledge base collegata a cui non hanno accesso) per rispondere a una domanda.
    • La tua knowledge base è obsoleta o incompleta oppure i suoi articoli non sono sufficientemente dettagliati per rispondere correttamente alle domande.
  • In the case of ‘from your data’ intent templates, the data available in your Jira Service Management project work items is of poor quality (or you have less than 50 work items), so that no meaningful groups can be found.

Ti invitiamo a pensare alle situazioni in cui utilizzeresti Atlassian Intelligence e a esaminare le prestazioni dell'assistente virtuale del servizio prima di attivarlo per i clienti. Leggi di più su come migliorare le prestazioni del tuo assistente virtuale del servizio.

Altri fattori da considerare:

I tuoi dati e l'assistente virtuale del servizio Copy link to heading Copied! Mostra
  

Comprendiamo che potresti avere domande su come vengono utilizzati i tuoi dati dall'assistente virtuale del servizio di Jira Service Management. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Contesto della tua istanza pertinente alla tua richiesta, ad esempio un articolo di Confluence della tua knowledge base collegata riassunto in una risposta di Atlassian Intelligence, o i tuoi ticket Jira storici per generare gli intenti suggeriti.

  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.

  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, l'assistente virtuale del servizio applica le misure seguenti:

  • In caso di corrispondenza degli intenti nei canali del progetto Jira Service Management:
    • Gli intenti (inclusi i modelli di intenti "dai tuoi dati") vengono addestrati tramite un modello di machine learning personalizzato per la tua organizzazione, basato su un set di dati di formazione fornito da te. Ciò include gli intenti e le frasi di formazione creati dall'amministratore del tuo progetto o suggeriti da noi all'interno di modelli di intenti standard o modelli di intenti "dai tuoi dati".
    • I dati per la formazione e il modello di machine learning addestrato e sviluppato per la tua organizzazione non sarà condiviso con altri clienti di Atlassian.
    • La formazione viene svolta solo a livello di progetto, il che significa che gli intenti vengono formati sulle frasi di formazione fornite dagli amministratori durante il processo di creazione degli intenti e gli amministratori hanno il controllo completo sui dati di formazione. I dati non vengono utilizzati in più progetti su un singolo sito.
    • Questi modelli vengono archiviati in un sito di Jira Service Management e vengono eliminati se e quando elimini il tuo sito.
  • In caso di corrispondenza degli intenti nei centri assistenza di Jira Service Management:
    • Creiamo e archiviamo vettori, in conformità con la residenza dei dati.
    • Questi modelli vengono archiviati in un sito di Jira Service Management e vengono eliminati se e quando elimini il tuo sito.
  • Nel caso delle risposte di Atlassian Intelligence:
    • I tuoi suggerimenti (input) e risposte (output):
      • Non sono disponibili per gli altri clienti.
      • Non sono disponibili per fornitori terzi di LLM diversi da OpenAI o Google.
      • Non sono archiviati dai fornitori di LLM.
      • Non vengono utilizzati per migliorare alcun vasto modello linguistico.
      • Vengono utilizzati solo per elaborare la tua esperienza.
    • Questa funzionalità segue le autorizzazioni e le restrizioni applicate agli spazi della knowledge base collegati. Ciò significa che tutte le pagine disponibili per i clienti sul tuo portale Jira Service Management saranno disponibili tramite le risposte di Atlassian Intelligence da utilizzare per rispondere ai clienti. Ad esempio, se l'accesso a una determinata pagina di Confluence è limitato e generalmente non disponibile tramite Jira Service Management, il contenuto di quella pagina non verrà utilizzato in una risposta di Atlassian Intelligence. Se non vuoi che i tuoi contenuti vengano resi disponibili nelle risposte ad altri utenti nella tua istanza, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.
  • Nel caso dei modelli di intenti "dai tuoi dati":
    • I dati del tuo ticket di Jira Service Management (input) e i modelli di intenti suggeriti creati da tali dati (output):
      • Non sono disponibili per gli altri clienti.
      • Non Sono disponibili per fornitori terzi di LLM diversi da OpenAI o Google.
      • Non sono archiviati dai fornitori di LLM.
      • Non vengono utilizzati per migliorare i vasti modelli linguistici.
      • Vengono utilizzati solo per elaborare la tua esperienza.
    • Analysis of Jira Service Management work items and chat transcripts submitted by your customers in the connected Jira Service Management project is used to serve your experience only.

  • OpenAI è un subresponsabile del trattamento nella nostra pagina Subresponsabili del trattamento. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.

Summarize work item details using Atlassian Intelligence

How Atlassian Intelligence summarizes work item details in Jira Copy link to heading Copied! Mostra
  

I riepiloghi creati con l'IA in Jira si basano su modelli linguistici di grandi dimensioni sviluppati da OpenAI, tra cui i modelli OpenAI descritti qui.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle funzionalità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI.

About summarizing work item details using Atlassian Intelligence Copy link to heading Copied! Mostra
  

Instead of reading through long descriptions and numerous comments on a Jira work item, you can use Atlassian Intelligence to quickly summarize this information for you. This helps agents quickly understand the context of the work item and any progress made, enabling them to take swift action and provide timely assistance.

We believe that summarizing work item details using Atlassian Intelligence works best for work items with a large number of comments and/or lengthy comments and descriptions.

Limitations and considerations when summarizing work item details using Atlassian Intelligence Copy link to heading Copied! Mostra
  

Non bisogna sottovalutare che, per loro natura, i modelli su cui si basano i riepiloghi creati con l'IA in Jira a volte si comportano in modo impreciso, incompleto o inaffidabile.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

We’ve found that summarizing work item details using Atlassian Intelligence is less useful in scenarios when:

  • the work item has no history or details
  • the work item has more than 100 comments (we will summarise only the last 100 comments)

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Your data and summarizing work item details using Atlassian Intelligence Copy link to heading Copied! Mostra
  

We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our Trust Center.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Context from your instance relevant to your prompt, including details about the Jira work item, such as the work item description, comments, and users involved in the ticket.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

When it comes to your data, summarizing work item details using Atlassian Intelligence applies the following measures:

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI.
    • Non vengono archiviati da OpenAI.
    • Non vengono utilizzati per migliorare i modelli OpenAI.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un sub-responsabile del trattamento nella nostra lista di sub-responsabili del trattamento. Usa i dati che inserisci e le risposte che ricevi solo ed esclusivamente per elaborare le tue richieste.
  • This feature follows the permissions in your instance. This feature only uses the information available within the Jira Work item and is invoked from the Jira Work item. Therefore, it can only be invoked by a user who has permission to view the work item and will not access any other information.

Ripartizione del lavoro con l'IA

In che modo la Ripartizione del lavoro con l'IA utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

La Ripartizione del lavoro con l'IA si basa su modelli linguistici di grandi dimensioni sviluppati da OpenAI.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle capacità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI.

Informazioni sulla Ripartizione del lavoro con l'IA Copy link to heading Copied! Mostra
  

AI Work Breakdown suggests child work items based on a Jira work item you’ve created, making it easy to break down large pieces of work into smaller ones. Your work item is used as context to generate suggestions for child work item summaries and descriptions.

A nostro avviso, la Ripartizione del lavoro con l'IA funziona meglio nei seguenti scenari:

  • You start with a work item that has a detailed summary and description, including any constraints, instructions, and definitions of done.
  • The starting work item doesn’t have existing child work items.
Limitazioni e considerazioni sull'utilizzo della Ripartizione del lavoro con l'IA Copy link to heading Copied! Mostra
  

Non bisogna sottovalutare che, per loro natura, i modelli su cui si basa la Ripartizione del lavoro con l'IA si comportano a volte in modo impreciso, incompleto o inaffidabile.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo riscontrato che la Ripartizione del lavoro con l'IA è meno efficace nei seguenti scenari:

  • Ti servono informazioni attuali e accurate su persone, luoghi e fatti.
  • You don’t start with a detailed work item summary and description (e.g. if you try to generate child work item suggestions based on a work item with a very short and broad description).

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Esprimere nel modo più specifico possibile ciò che chiedi di fare ad Atlassian Intelligence.
  • Providing as much information as possible in the starting work item summary and description.
I tuoi dati e la Ripartizione del lavoro con l'IA Copy link to heading Copied! Mostra
  

È normale avere domande sul modo in cui la Ripartizione del lavoro con l'IA utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Context from your instance relevant to your prompt, including work item data (like summary, description, and comments).
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

La Ripartizione del lavoro con l'IA applica le misure seguenti per gestire i tuoi dati.

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili agli altri clienti
    • Non vengono inviati a nessun provider LLM di terze parti diverso da OpenAI.
    • Non vengono archiviati da OpenAI.
    • Non vengono utilizzati per migliorare i modelli OpenAI.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un sub-responsabile del trattamento, incluso nella lista dei nostri sub-responsabili. Usa i dati che inserisci e le risposte che ricevi solo ed esclusivamente per elaborare la tua richiesta.
  • This feature follows the permissions in your instance (i.e. you must have access to the work item in order to generate child work item suggestions). If you don’t want your content to be available in other users' generated responses, work with your organization admin to ensure your permissions are set appropriately.
In che modo Crea imprevisto utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

La creazione di imprevisti tramite Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base all'input fornito dall'utente e sono di natura probabilistica. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Casi d'uso per Crea imprevisto con l'IA Copy link to heading Copied! Mostra
  

Quando si trasformano uno o più avvisi o gruppi di avvisi in un imprevisto in Jira Service Management, Crea imprevisto con l'IA utilizza Atlassian Intelligence per precompilare rapidamente tutte le informazioni contestuali da esaminare nell'ambito del processo di creazione dell'imprevisto. Ciò consente agli utenti di comprendere rapidamente il contesto dell'imprevisto creato a partire da tali avvisi o gruppi di avvisi e di rivedere e confermare le informazioni precompilate, compresi il titolo, la descrizione e la priorità dell'avviso quando viene trasformato in imprevisto.

Riteniamo che Crea imprevisto con l'IA funzioni meglio negli scenari in cui:

  • Gli avvisi da trasformare in imprevisto includono titoli e descrizioni in inglese.
  • Gli avvisi da trasformare in imprevisto hanno una descrizione lunga.
  • Un imprevisto viene creato a partire da più di un avviso.
Considerazioni sull'utilizzo di Crea imprevisto con l'IA Copy link to heading Copied! Mostra
  

È importante ricordare che, a causa del modo in cui operano, i modelli alla base di Crea imprevisto con l'IA possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che Crea imprevisto con l'IA è meno utile negli scenari in cui:

  • ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.
  • Gli avvisi da trasformare in imprevisto includono il titolo o la descrizione (o entrambi) in una lingua diversa dall'inglese.
  • Gli avvisi da trasformare in imprevisto contengono un numero di dettagli limitato.

Per questi motivi, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Per ottenere i risultati più proficui, ti suggeriamo di fornire informazioni il più specifiche possibile quando chiedi qualcosa ad Atlassian Intelligence.

Potresti anche pensare di fare ricerche in modo più specifico possibile ad Atlassian Intelligence, come descritto sopra.

I tuoi dati e la creazione di imprevisti con Atlassian Intelligence Copy link to heading Copied! Mostra
  

Comprendiamo che potresti avere domande su come Crea imprevisto con l'IA utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle FAQ.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Contesto tratto dalla tua istanza pertinente al tuo prompt, ad esempio la descrizione, il titolo e la priorità dell'avviso di Jira Service Management.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, Crea imprevisto con l'IA applica le seguenti misure:

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili agli altri clienti.
    • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI, Google o Anthropic su AWS Bedrock.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzione segue le autorizzazioni per gli avvisi della tua istanza. Solo gli agenti autorizzati a visualizzare l'avviso e trasformarlo in un imprevisto vedranno i suggerimenti di Atlassian Intelligence per compilare i dettagli dell'imprevisto in fase di creazione.

Creare una revisione post-imprevisto

In che modo la creazione di una revisione post-imprevisto utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

La creazione di revisioni post-imprevisto (PIR) da parte di Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, che includono la serie di modelli GPT di OpenAI. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base agli input forniti dagli utenti e sono di natura probabilistica. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle funzionalità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI.

Casi d'uso per la creazione di revisioni post-imprevisto con l'IA Copy link to heading Copied! Mostra
  

Le PIR sono una parte fondamentale del processo di gestione degli imprevisti, poiché aiutano i manager e gli addetti a imparare dagli imprevisti attuali e a trasmettere informazioni per prevenire casi simili in futuro. Atlassian Intelligence aiuta ad accelerare i task, spesso dispendiosi in termini di tempo, di compilazione di una PIR suggerendo una descrizione della PIR basata su informazioni contestuali pertinenti nella tua istanza di Jira Service Management e strumenti di chat come Slack da esaminare.

Riteniamo che la creazione di PIR con l'IA funzioni meglio negli scenari in cui:

  • la tua organizzazione ha una prassi costante nella compilazione delle PIR per gli imprevisti;

  • i dettagli degli imprevisti del tuo team sono sparsi su strumenti di chat come Slack e Jira Service Management, il che richiede più tempo per la compilazione di una PIR a partire da tali fonti;

  • la tua organizzazione registra gli imprevisti in Jira Service Management con informazioni complete e aggiornate.

Considerazioni sull'utilizzo della creazione di revisioni post-imprevisto con l'IA Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui operavano, i modelli alla base della creazione delle PIR possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che la creazione di PIR con l'IA è meno utile in scenari in cui:

  • ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.
  • è necessaria la creazione di PIR per avere accesso a informazioni che non sono immediatamente disponibili (ad esempio, canali di chat a cui non hai accesso) per generare correttamente la descrizione della PIR;
  • i dati disponibili nella tua istanza di Jira Service Management sono incompleti o non sufficientemente dettagliati, quindi la creazione della PIR potrebbe non essere in grado di generare una descrizione accurata.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • esprimere nel modo più specifico possibile le azioni che desideri che Atlassian Intelligence svolga;
  • garantire che tu e il tuo team seguiate le pratiche di gestione degli imprevisti in modo coerente, ad esempio, registrando dettagli completi e accurati degli imprevisti nella tua istanza di Jira Service Management e collegando i canali di chat pertinenti all'imprevisto.
I tuoi dati e la creazione di una revisione post-imprevisto con l'IA Copy link to heading Copied! Mostra
  

Comprendiamo che potresti avere domande su come la creazione di revisioni post-imprevisto con l'IA utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • il contesto della tua istanza pertinente al prompt, ad esempio dati sugli imprevisti (come riepilogo, etichette, priorità, team di addetti alla risposta e descrizione), avvisi collegati e canali di chat Slack collegati;
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, la creazione di PIR con l'IA applica le misure seguenti.

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.

    • Non vengono inviati a nessun provider LLM di terze parti diverso da OpenAI.

    • Non vengono archiviati da OpenAI.

    • Non vengono utilizzati per migliorare i modelli OpenAI.

    • Vengono utilizzati solo per elaborare la tua esperienza.

  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina specifica.

  • Questa funzionalità segue le autorizzazioni della tua istanza. Ad esempio, se non hai accesso agli avvisi collegati all'imprevisto o ai canali Slack collegati, nella risposta che riceverai non ti verranno suggeriti contenuti da queste fonti. Se desideri che i contenuti della tua istanza non siano disponibili nelle risposte ad altri utenti, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.

Generazione delle descrizioni relative alle richieste pull con Atlassian Intelligence

In che modo Bitbucket Cloud utilizza Atlassian Intelligence per generare descrizioni delle richieste pull Copy link to heading Copied! Mostra
  

La generazione di descrizioni delle pull request tramite Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic.

Atlassian Intelligence li utilizza per analizzare e generare linguaggio naturale e codice all'interno dei nostri prodotti.

Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Casi d'uso per generare descrizioni delle richieste pull con Atlassian Intelligence Copy link to heading Copied! Mostra
  

Atlassian Intelligence può aiutarti a generare, trasformare e riepilogare i contenuti mentre scrivi descrizioni o commenti delle richieste pull nell'esperienza di revisione del codice di Bitbucket Cloud. Ciò include:

  • Generazione di una descrizione della richiesta pull in base alle modifiche del codice contenute in tale richiesta pull.
  • Riepilogo, miglioramento o modifica del tono della descrizione di una richiesta pull.
  • Riepilogo, miglioramento o modifica del tono della descrizione di un commento relativo a una richiesta pull.

Riteniamo che la generazione di descrizioni delle richieste pull di Bitbucket Cloud con Atlassian Intelligence offra risultati migliori negli scenari in cui:

  • Come autore del codice, desideri che Atlassian Intelligence ti aiuti a scrivere o migliorare la descrizione di una richiesta pull. È la soluzione migliore per i team in grado di esaminare e confermare che i contenuti generati da Atlassian Intelligence siano appropriati per descrivere la richiesta pull.
  • In qualità di revisore del codice, desideri che Atlassian Intelligence ti aiuti a migliorare il tono o il contenuto di un commento relativo a una richiesta pull che hai già redatto.
Considerazioni sulla generazione delle descrizioni delle richieste pull con Atlassian Intelligence Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui operano, i modelli alla base di questa funzione possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che generare descrizioni delle richieste pull di Bitbucket Cloud con Atlassian Intelligence è meno utile negli scenari in cui:

  • Hai bisogno della descrizione della richiesta pull per fare riferimento a informazioni che non sono già presenti nelle modifiche al codice (ad esempio, il codice sorgente contenuto in altre posizioni del repository).
  • Non sei in grado di esaminare e confermare che i contenuti generati da Atlassian Intelligence riflettano accuratamente la richiesta pull.
  • ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Essere più specifico possibile in ciò che chiedi di fare ad Atlassian Intelligence.
  • Correggere, rivedere e modificare l'output generato dall'assistente di scrittura IA per ottenere precisione e chiarezza.
  • Collaborare con gli altri per raccogliere feedback e migliorare la qualità dell'output.
I tuoi dati e la generazione delle descrizioni delle richieste pull con Atlassian Intelligence Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere domande su come la definizione dei termini utilizzando Atlassian Intelligence in Confluence utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi prompt (input) e risposte (output):
  • Il contesto della tua istanza pertinente alla tua richiesta, come:
    • le modifiche del codice e i messaggi di commit nella richiesta pull
    • il contenuto della descrizione della richiesta pull
    • il contenuto del commento relativo alla richiesta pull
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori
  • Il feedback che scegli di fornire su questa funzione

Per quanto riguarda i dati, alla generazione delle descrizioni delle richiesta pull con Atlassian Intelligence si applicano le seguenti misure:

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI, Google o Anthropic su AWS Bedrock.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina specifica.

Genera query SQL in Atlassian Analytics

Come Atlassian Intelligence genera query SQL in Atlassian Analytics Copy link to heading Copied! Mostra
  

La generazione di query SQL in Atlassian Analytics tramite Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic.

Atlassian Intelligence utilizza questi modelli per analizzare e comprendere il linguaggio naturale, poi tradurlo in Structured Query Language (SQL) all'interno di Atlassian Analytics.

Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Casi d'uso della generazione di query SQL utilizzando Atlassian Intelligence Copy link to heading Copied! Mostra
  

Poni una domanda ad Atlassian Intelligence utilizzando il linguaggio naturale e falla tradurre in SQL, anziché scrivere le tue query SQL da zero. Dopo aver posto una domanda, Atlassian Intelligence utilizza lo schema Atlassian Data Lake dell'origine dati selezionata per generare una query SQL che può essere utilizzata per creare grafici nelle dashboard di Atlassian Analytics e può anche aiutarti a scoprire lo schema nel Data Lake.

Riteniamo che la generazione di query SQL utilizzando Atlassian Intelligence funzioni meglio nei casi in cui:

  • vuoi creare un grafico personalizzato partendo dall'SQL generato e perfezionando la query dove necessario.
  • la domanda sul linguaggio naturale include parole e concetti a cui si fa riferimento nello schema di Atlassian Data Lake, nel modo più specifico possibile.
  • puoi esplorare e conoscere lo schema Atlassian Data Lake.

Non sei sicuro di quali domande fare?

Ecco alcuni suggerimenti:

  • What are the top 5 labels by count of open Jira work items?
  • How many Jira work items have been completed in the x project in the last month?
  • Qual è il tempo medio di permanenza di stato per i primi 5 stati?
  • Quali sono le 5 pagine di Confluence preferite nell'ultimo mese?
  • Quante richieste sono state aperte negli ultimi 5 giorni nel nostro progetto x su Jira Service Management?
Considerazioni sulla generazione di query SQL utilizzando Atlassian Intelligence Copy link to heading Copied! Mostra
  

È importante ricordare che i modelli utilizzati per generare query SQL mediante Atlassian Intelligence a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili a causa del modo in cui funzionano.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che generare query SQL utilizzando Atlassian Intelligence è meno utile nei casi in cui:

  • ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.
  • ti serve questa funzionalità per avere accesso a informazioni che non sono facilmente disponibili nello schema Atlassian Data Lake (ad esempio, i dati per Advanced Roadmaps) per rispondere correttamente alla domanda.
  • la domanda include riferimenti a campi personalizzati.
  • la domanda viene posta in una lingua diversa dall'inglese.
  • non hai abbastanza familiarità con SQL per convalidare il risultato SQL generato da Atlassian Intelligence.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Essere più specifico possibile in ciò che chiedi di fare ad Atlassian Intelligence.
  • Assicurati che la fonte di dati Atlassian Data Lake che stai utilizzando copra i dati necessari per rispondere alla tua domanda.
I tuoi dati e la generazione di query SQL utilizzando Atlassian Intelligence Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere domande su come la generazione di query in SQL tramite Atlassian Intelligence utilizzi i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Contesto della tua istanza pertinente alla tua richiesta, inclusi gli schemi Atlassian Data Lake disponibili al pubblico applicabili alla tua istanza.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, alla generazione di query SQL tramite Atlassian Intelligence si applicano le seguenti misure.

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili agli altri clienti.
    • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI, Google o Anthropic su AWS Bedrock.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono elencati nella nostra pagina Sub-responsabili del trattamento. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzionalità segue le autorizzazioni della tua connessione Atlassian Data Lake. Ad esempio, se non hai accesso a una connessione Atlassian Data Lake, non sarai in grado di creare un codice SQL per aprire query.

Cerca risposte su Confluence

In che modo Atlassian Intelligence cerca risposte su Confluence Copy link to heading Copied! Mostra
  

La ricerca di risposte in Confluence tramite Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Casi d'uso della ricerca di risposte in Confluence Copy link to heading Copied! Mostra
  

Le knowledge base crescono rapidamente e gli utenti non riescono a rimanere al passo. La ricerca di risposte su Confluence utilizzando Atlassian Intelligence fornisce un percorso più rapido per trovare le informazioni chiave di cui i clienti hanno bisogno per portare avanti il loro lavoro. Questa funzionalità ti aiuta a trovare facilmente le informazioni di cui hai bisogno. Comprende i tipi di domande che faresti normalmente a un collega ed è in grado di rispondere all'istante. Scopri come utilizzare Atlassian Intelligence per cercare risposte su Confluence.

Riteniamo che la ricerca di risposte su Confluence utilizzando Atlassian Intelligence funzioni meglio quando i contenuti del sito Confluence sono dettagliati, completi e aggiornati.

Questa funzione non genera nuovi contenuti, ma cerca nelle pagine e nei blog di Confluence (rispettando le restrizioni) per trovare una risposta alla tua domanda. Atlassian Intelligence genera risposte esclusivamente in base ai contenuti Confluence e a ciò a cui tu hai accesso.

Non sei sicuro di quali domande fare?

Ecco alcuni suggerimenti

  • Quando sarà la prossima trasferta del team marketing?
  • Qual è la policy del lavoro da casa?
  • Cos'è Project Sunrise?
  • Quando sarà la nostra prossima campagna di marketing?
  • Dove sono le note di rilascio del nuovo prodotto di SpaceLaunch?
  • Come posso presentare le spese per il rimborso?
Considerazioni sulla ricerca di risposte su Confluence con Atlassian Intelligence Copy link to heading Copied! Mostra
  

È importante ricordare che i modelli utilizzati per cercare risposte su Confluence mediante Atlassian Intelligence a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili a causa del modo in cui funzionano.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che la ricerca di risposte su Confluence utilizzando Atlassian Intelligence è meno utile nei casi in cui:

  • ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.
  • Ti servono informazioni aggiornate e precise su elementi che tendono a cambiare di frequente (ad esempio, su una tabella di marcia che si aggiorna mensilmente).
  • Ti servono informazioni aggiornate e precise su persone specifiche e sul ruolo che svolgono nella tua organizzazione.
  • Hai bisogno di accedere a informazioni che non puoi reperire direttamente (ad esempio, pagine con restrizioni nella tua istanza Confluence) per rispondere correttamente alla richiesta.
  • La risposta è costituita da una gamma di valori o categorie diversi (ad esempio, metriche che si aggiornano ogni settimana).
  • Ti servono risposte che richiedano sfumature, complessità o livelli di ragionamento simili a quelli umani.

È anche possibile che tu scopra che la ricerca di risposte su Confluence tramite Atlassian Intelligence non funzioni come previsto negli spazi di Confluence che contengono documenti scritti in più lingue.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Essere più specifico possibile in ciò che chiedi di fare ad Atlassian Intelligence.
  • Fare domande su cose che sai essere documentate nella tua istanza di Confluence e a cui hai accesso.
I tuoi dati e le risposte di ricerca su Confluence con Atlassian Intelligence Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere domande su come la ricerca di risposte in Confluence tramite Atlassian Intelligence utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Contesto della tua istanza relativo al tuo suggerimento, ad esempio i contenuti delle prime tre pagine restituite dalla ricerca su Confluence.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, la ricerca di risposte su Confluence tramite Atlassian Intelligence applica le seguenti misure:

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili agli altri clienti.
    • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI, Google o Anthropic su AWS Bedrock.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzionalità segue le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a una determinata pagina di Confluence, questa funzione non utilizzerà i contenuti di quella pagina nella risposta che vedi. Se non vuoi che i tuoi contenuti vengano resi disponibili nelle risposte ad altri utenti nella tua istanza, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato.

Search work items in Jira

How Atlassian Intelligence searches work items in Jira Copy link to heading Copied! Mostra
  

Search work items using Atlassian Intelligence in Jira is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include OpenAI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

Atlassian Intelligence utilizza questi modelli per analizzare e comprendere il linguaggio naturale e poi tradurlo in codice Jira Query Language (JQL) all'interno dei nostri prodotti.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Use cases for searching work items in Jira Copy link to heading Copied! Mostra
  

You can now ask Atlassian Intelligence what you want in everyday language instead of coming up with complex queries. By searching work items using Atlassian Intelligence, your prompt is translated into a JQL query which quickly assists you in your search for specific work items.

We believe searching work items using Atlassian Intelligence works best in scenarios where:

  • You're querying for Jira work items using work item fields available in your Jira project.
  • The query has specific fields and values that can help narrow down your work item search.
  • I campi e i valori che stai cercando esistono nel tuo progetto Jira.
  • La tua query è in inglese.
  • La query è traducibile in JQL. Poiché Atlassian Intelligence converte le richieste in codice JQL, gli input contenenti parole chiave che possono essere tradotte in JQL possono fornire risultati migliori.
Considerations when searching work items using Atlassian Intelligence Copy link to heading Copied! Mostra
  

It's important to remember that because of the way that the models used to search work items using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

We've found that searching work items using Atlassian Intelligence is less useful in scenarios where:

  • ti servono informazioni aggiornate e accurate su persone, luoghi e fatti.
  • You’re searching for Jira entities that are not work items, such as projects, boards, or users.
  • Stai usando una lingua diversa dall'inglese.
  • You need the search to analyze the work items to create charts, summaries, or other representations of your data.
  • The search requires functions not currently available in JQL (for example, a question such as “Find work items I have commented on” that can’t be translated into a JQL function).

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Potresti anche pensare di fare ricerche in modo più specifico possibile ad Atlassian Intelligence, come descritto sopra. Assicurati di includere i campi e i valori esatti che stai cercando.

Your data and searching work items using Atlassian Intelligence Copy link to heading Copied! Mostra
  

We understand you may have questions about how searching work items using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Il contesto tratto dalla tua istanza pertinente alla richiesta, come il progetto di cui ti occupi al momento.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

When it comes to your data, searching work items using Atlassian Intelligence applies the following measures:

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili agli altri clienti.
    • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI, Google o Anthropic su AWS Bedrock.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
    • Sono archiviati nel nostro database per 90 giorni e i tuoi prompt verranno presentati come parte della cronologia delle tue ricerche.

  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati come tali nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Your search responses will be based on the work items and fields you have access to (for example, if you don't have access to a specific Jira project, you won't receive search results for work items and fields from that project).

Ripartizione del lavoro con l'IA

In che modo la Ripartizione del lavoro con l'IA utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

La Ripartizione del lavoro con l'IA si basa su modelli linguistici di grandi dimensioni sviluppati da OpenAI.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Scopri di più sulle capacità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI.

Informazioni sulla Ripartizione del lavoro con l'IA Copy link to heading Copied! Mostra
  

AI Work Breakdown suggests child work items based on a Jira work item you’ve created, making it easy to break down large pieces of work into smaller ones. Your work item is used as context to generate suggestions for child work item summaries and descriptions.

A nostro avviso, la Ripartizione del lavoro con l'IA funziona meglio nei seguenti scenari:

  • You start with a work item that has a detailed summary and description, including any constraints, instructions, and definitions of done.
  • The starting work item doesn’t have existing child work items.
Limitazioni e considerazioni sull'utilizzo della Ripartizione del lavoro con l'IA Copy link to heading Copied! Mostra
  

Non bisogna sottovalutare che, per loro natura, i modelli su cui si basa la Ripartizione del lavoro con l'IA si comportano a volte in modo impreciso, incompleto o inaffidabile.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo riscontrato che la Ripartizione del lavoro con l'IA è meno efficace nei seguenti scenari:

  • Ti servono informazioni attuali e accurate su persone, luoghi e fatti.
  • You don’t start with a detailed work item summary and description (e.g. if you try to generate child work item suggestions based on a work item with a very short and broad description).

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Esprimere nel modo più specifico possibile ciò che chiedi di fare ad Atlassian Intelligence.
  • Providing as much information as possible in the starting work item summary and description.
I tuoi dati e la Ripartizione del lavoro con l'IA Copy link to heading Copied! Mostra
  

È normale avere domande sul modo in cui la Ripartizione del lavoro con l'IA utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Context from your instance relevant to your prompt, including work item data (like summary, description, and comments).
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

La Ripartizione del lavoro con l'IA applica le misure seguenti per gestire i tuoi dati.

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili agli altri clienti
    • Non vengono inviati a nessun provider LLM di terze parti diverso da OpenAI.
    • Non vengono archiviati da OpenAI.
    • Non vengono utilizzati per migliorare i modelli OpenAI.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un sub-responsabile del trattamento, incluso nella lista dei nostri sub-responsabili. Usa i dati che inserisci e le risposte che ricevi solo ed esclusivamente per elaborare la tua richiesta.
  • This feature follows the permissions in your instance (i.e. you must have access to the work item in order to generate child work item suggestions). If you don’t want your content to be available in other users' generated responses, work with your organization admin to ensure your permissions are set appropriately.
In che modo la funzionalità temi suggeriti della knowledge base utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

La funzionalità temi suggeriti della knowledge base è supportata da modelli linguistici di grandi dimensioni sviluppati da OpenAI e Anthropic, nonché da una combinazione di modelli linguistici open source basati su trasformatori e altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di OpenAI e la serie di modelli Claude di Anthropic.

Atlassian Intelligence utilizza questi modelli per analizzare e generare linguaggio naturale all'interno dei nostri prodotti. I modelli di codifica open source convertono i tuoi input testuali in forme numeriche (incorporamenti) che vengono utilizzate per identificare e formare temi a partire dai tuoi input.

Questi modelli linguistici di grandi dimensioni generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI e dei modelli di Anthropic. Per ulteriori informazioni sui modelli linguistici open source, vedere le informazioni su Multi-QA-MiniLM e E5-Multilingual.

Casi d'uso dei temi suggeriti nella knowledge base Copy link to heading Copied! Mostra
  

Questa funzionalità aiuta amministratori e agenti a individuare le lacune nella loro knowledge base analizzando le richieste di assistenza ricevute nel quadro di un progetto. Essa evidenzia chiaramente i temi su quali gli utenti in cerca di assistenza fanno domande (in base ai dati degli ultimi 30 giorni) ma relativamente ai quali non esistono informazioni. Suggerendo dei temi vogliamo dare agli amministratori e agli agenti del progetto un'idea del numero di richieste che possono essere eliminate o almeno risolte con le informazioni della knowledge base.

Riteniamo che l'aumento del numero di articoli informativi influirà sull'efficacia di altre funzionalità di Jira Service Management, come le risposte IA dell'assistente virtuale del servizio. Gli articoli creati da amministratori e agenti sui temi suggeriti possono anche contribuire ad aumentare la percentuale di richieste risolte utilizzando le risposte IA.

Riteniamo che la funzionalità temi suggeriti funzioni meglio nel caso in cui:

  • ci siano almeno 40-100 richieste inviate in un arco di 30 giorni;
  • il contenuto delle richieste, come riepilogo, descrizione, valori dei campi ecc., sia principalmente in inglese. La qualità dei suggerimenti può variare in altre lingue.
Considerazioni sull'utilizzo della funzionalità temi suggeriti della knowledge base Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui funzionano i modelli che supportano la funzione temi suggeriti, essi possono talvolta rivelarsi imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che i temi suggeriti della knowledge base sono meno utili se:

  • ti servono temi per un progetto che riceve meno di 40 richieste in un mese;
  • il tuo progetto crea automaticamente richieste in base agli avvisi, in quanto tali richieste potrebbero non richiedere un articolo della knowledge base;
  • ti servono temi per richieste in cui il riepilogo, la descrizione, i valori dei campi ecc. sono in lingue diverse dall'inglese.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Chiedere ai membri del team di esaminare i temi suggeriti prima di creare articoli.
  • Chiedere agli amministratori del progetto di identificare gli esperti nei loro team, per creare articoli della knowledge base di alta qualità.
I tuoi dati e temi suggeriti nella knowledge base Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere delle domande sul modo in cui la funzionalità temi suggeriti utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center.

Elaboriamo:

  • Contesto significativo fornito da un'istanza per una funzionalità, ad esempio dei dati in una richiesta quali valori dei campi, riepilogo e descrizione per identificare i temi.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, la funzione temi suggeriti della knowledge base applica le seguenti misure.

I tuoi temi suggeriti nella knowledge base:

  • Non sono disponibili agli altri clienti
  • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI, Google o Anthropic su AWS Bedrock.
  • Non sono archiviati dai fornitori di LLM.
  • non vengono usati per migliorare alcun LLM di terze parti.
  • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un subresponsabile del trattamento nel nostro elenco di subresponsabili del trattamento. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della richiesta.
  • We only process requests that are accessible to everyone in a service project for your site. Any requests with work item-level permissions are not considered to suggest topics.
  • Aggiorniamo l'elenco dei temi suggeriti ogni 7 giorni per assicurarci che i suggerimenti siano aggiornati.

Search content in Confluence

How Searching Confluence content using Atlassian Intelligence uses Atlassian Intelligence Copy link to heading Copied! Mostra
  

Searching Confluence content using Atlassian Intelligence is powered by large language models developed by OpenAI and Google. These large language models include OpenAI’s GPT series of models and Google’s Gemini series of models.

Atlassian Intelligence uses these models to analyze and generate natural language, then translates it to CQL (Confluence Query Language) code within our products.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle capacità dei modelli di OpenAI.

Use cases for Searching Confluence content using Atlassian Intelligence Copy link to heading Copied! Mostra
  

You can now ask Atlassian Intelligence for the content you want to find in Confluence using everyday language instead of coming up with complex queries. With the help of Atlassian Intelligence, your prompt is translated into a CQL query which quickly assists you in your search for specific content.

We believe that Searching Confluence content using Atlassian Intelligence works best in scenarios where:

  • You’re querying for Confluence content available within your Confluence knowledge base.
  • Your query has specific fields and values that can help narrow down your content search.
  • Your query is translatable to CQL. Atlassian Intelligence converts your natural language prompts to CQL queries. So, inputs containing keywords that can be translated to CQL can provide better results.
  • You’re searching for content in English.
Considerations when using Searching Confluence content using Atlassian Intelligence Copy link to heading Copied! Mostra
  

It’s important to remember that because of the way that the models used to power Searching Confluence content using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

We’ve found that Searching Confluence content using Atlassian Intelligence is less useful in scenarios where:

  • You need to find content using filters that are not currently supported by CQL.
  • Ti servono informazioni attuali e accurate su persone, luoghi e fatti.
  • Stai usando una lingua diversa dall'inglese.
  • You need the search to analyze the content to create charts, summaries, or other representations of your data.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

You might also want to think about being as specific as possible in what you ask Atlassian Intelligence to do. Make sure to include the exact fields and values that you’re looking for.

Your data and Searching Confluence content using Atlassian Intelligence Copy link to heading Copied! Mostra
  

We understand you may have questions about how Searching Confluence content using Atlassian Intelligence uses your data. This section supplements the information available on our Trust Center.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Context from your instance relevant to your prompt, such as to filter out search results based on user permissions
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

When it comes to your data, Searching Confluence content using Atlassian Intelligence applies the following measures.

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a fornitori terzi di LLM diversi da OpenAI o Google.
    • Are not stored by any LLM provider
    • Are not used to improve any LLM provider.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI and Google Vertex are subprocessors on our List of Subprocessors. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature follows the permissions in your instance. For example, if you do not have access to a Confluence page, you will not be shown content from that page in the response you receive. If you do not want your content to be available to other users in your instance, work with your org admin to ensure your permissions are set appropriately.

Scopri di più su Atlassian Intelligence

Scopri di più sull'utilizzo di Atlassian Intelligence

Ottieni informazioni utili dai dati

Seleziona una funzionalità di Atlassian Intelligence di seguito per avere una panoramica dettagliata dei casi d'uso e dell'utilizzo dei dati.

Chart Insights

In che modo Chart Insights utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

La generazione di chart insights è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi.

Casi d'uso per Chart Insights Copy link to heading Copied! Mostra
  

Chart Insights utilizza Atlassian Intelligence per aiutarti ad accelerare la comprensione dei dati in qualsiasi grafico di Atlassian Analytics. Lo fa utilizzando il titolo della dashboard, il titolo del grafico e i dati del grafico (comprese le intestazioni delle colonne e i valori delle righe) per generare un riepilogo del grafico e dei relativi dati con un linguaggio naturale. Questo strumento mirerà, inoltre, a identificare eventuali tendenze o anomalie per fornire determinate informazioni sul grafico.

Riteniamo che Chart Insights funzioni meglio nei casi in cui:

  • I grafici hanno molte righe di dati.
  • I grafici hanno un titolo nella dashboard.
  • I grafici hanno colonne con intestazioni.
  • I grafici hanno valori in tutte le righe e colonne.

I grafici a barre, i grafici a linee e i grafici a barre e linee sono più indicati per questa funzione poiché, in genere, hanno tendenze, date e molte righe di dati.

Considerazioni sull'utilizzo di Chart Insights Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui opera Chart Insights, i modelli alla base di questa funzione possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che Chart Insights è meno utile in scenari in cui:

  • Hai grafici con una o solo poche righe di dati.
  • Hai grafici a valore singolo.
  • Hai grafici privi di titoli, etichette degli assi e intestazioni delle colonne.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Ricontrolla l'accuratezza delle informazioni insieme ad altri utenti che potrebbero avere un contesto più preciso circa i dati specifici visualizzati nel grafico.
  • Tieni conto del fatto che Atlassian Intelligence utilizza solo il contesto di un singolo grafico e non l'intera dashboard per fornire una risposta.
I tuoi dati e Chart Insights Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere domande su come Chart Insights utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Il contesto estrapolato dalla tua istanza pertinente alla richiesta, come i dati presenti nel grafico.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, Chart Insights applica le misure seguenti.

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili per gli altri clienti.
    • Non vengono inviati a nessun fornitore di LLM di terze parti diverso da OpenAI, Google o Anthropic su AWS Bedrock.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono come tali nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzione utilizza solo le informazioni della dashboard a cui hai accesso e per cui hai richiesto approfondimenti.

Suggerisci i tipi di richiesta in Jira Service Management

In che modo Atlassian Intelligence suggerisce i tipi di richiesta in Jira Service Management Copy link to heading Copied! Mostra
  

Suggerisci i tipi di richiesta utilizzando Atlassian Intelligence, che si basa sui modelli linguistici di grandi dimensioni sviluppati da OpenAI. Questi modelli linguistici includono la serie di modelli GPT di OpenAI.

Atlassian Intelligence utilizza questi modelli per analizzare gli input in linguaggio naturale e generare consigli per i nomi e le descrizioni dei tipi di richiesta per te all'interno di Jira Service Management.

Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle capacità dei modelli di OpenAI.

Casi d'uso dei suggerimenti dei tipi di richiesta in Jira Service Management Copy link to heading Copied! Mostra
  

Dedica meno tempo a capire che tipo di richiesta devi creare per il progetto e ricevi invece suggerimenti da Atlassian Intelligence. Per vedere quali tipi di richieste potresti creare è sufficiente descrivere il tuo lavoro e ciò che il tuo team gestisce di solito. Seleziona uno dei suggerimenti generati da Atlassian Intelligence per creare un tipo di richiesta. Scopri di più su come utilizzare Atlassian Intelligence per suggerire tipi di richieste.

Riteniamo che l'utilizzo di Atlassian Intelligence per suggerire tipi di richiesta funzioni meglio quando:

  • Hai casi d'uso molto specifici per cui i modelli di tipi di richiesta esistenti non sono adatti.
  • Hai requisiti molto generali e stai cercando qualche idea.
  • Stai usando una lingua molto diffusa (ad esempio, inglese o spagnolo).
Considerazioni sull'utilizzo di Atlassian Intelligence per suggerire i tipi di richiesta Copy link to heading Copied! Mostra
  

È importante ricordare che i modelli utilizzati per suggerire tipi di richiesta mediante Atlassian Intelligence a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili a causa del modo in cui funzionano.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che l'utilizzo di Atlassian Intelligence per suggerire tipi di richiesta è meno utile in scenari in cui:

  • ti servono informazioni attuali e accurate su persone, luoghi e fatti.
  • Hai bisogno di questa funzionalità per avere accesso a informazioni che non puoi reperire direttamente (ad esempio, nella tua istanza) per rispondere correttamente alla richiesta.
  • Fornisci istruzioni troppo vaghe o irrilevanti per la gestione del servizio.
  • Non stai usando una lingua molto diffusa.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

Altri fattori da considerare:

  • Essere più specifico possibile in ciò che chiedi di fare ad Atlassian Intelligence.
I tuoi dati e l'utilizzo di Atlassian Intelligence per suggerire i tipi di richiesta Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere domande su come vengono utilizzati i tuoi dati da Atlassian Intelligence per suggerire i tipi di richiesta. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti.

Elaboriamo:

  • I tuoi suggerimenti (input) e risposte (output).
  • Il contesto tratto dalla tua istanza pertinente alla tua richiesta.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, nell'ambito dell'utilizzo di Atlassian Intelligence per suggerire i tipi di richiesta si applicano le seguenti misure.

  • I tuoi suggerimenti (input) e risposte (output):
    • Non sono disponibili agli altri clienti.
    • Non vengono inviati a nessun provider LLM di terze parti diverso da OpenAI.

    • Non sono archiviati dai fornitori di LLM.
    • Non vengono utilizzati per migliorare i modelli di LLM.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina specifica. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della tua richiesta.
  • Questa funzionalità utilizza solo le informazioni delle tue richieste, quindi vengono rispettate tutte le autorizzazioni di Jira.

Suggerisci i tipi di richiesta in Jira Service Management

In che modo Focus Area Executive Summary utilizza Atlassian Intelligence Copy link to heading Copied! Mostra
  

La funzione Focus Area Executive Summary si basa su modelli linguistici estesi sviluppati da OpenAI. Sono inclusi i modelli OpenAI descritti qui.

Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti.

Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati.

Leggi di più sulle capacità dei modelli di OpenAI

Casi d'uso per Focus Area Executive Summary Copy link to heading Copied! Mostra
  

Focus Area Executive Summary uses Atlassian Intelligence to provide a quick, actionable summary of your focus area, including the work that’s in progress, the health of connected goals, suggestions for where to pay attention, and recommendations to remediate any work items.

Focus Area Executive Summary funziona al meglio quando:

  • Gli aggiornamenti dell'area strategica e degli obiettivi sono completi, precisi e costanti con risultati, progressi e rischi scritti sufficientemente dettagliati.
  • Hai collegato tutti gli obiettivi pertinenti utilizzati per misurare il successo direttamente nell'area strategica.
  • L'area strategica è collegata ad aree strategiche secondarie, a loro volta complete di aggiornamenti pertinenti e connessioni agli obiettivi.
Considerazioni sull'utilizzo di Focus Area Executive Summary Copy link to heading Copied! Mostra
  

È importante ricordare che, per effetto del modo in cui operano, i modelli alla base della funzione Focus Area Executive Summary possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili.

Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili.

Abbiamo scoperto che Focus Area Executive Summary è meno utile negli scenari in cui:

  • Ti servono informazioni attuali e accurate su persone, luoghi e fatti.
  • Hai bisogno di aggiornamenti sulla strategia per avere accesso a informazioni che non puoi recuperare direttamente, ad esempio nella tua istanza, per rispondere correttamente alla richiesta.
  • Gli aggiornamenti dell'area strategica e degli obiettivi sono incompleti, mancanti o poco dettagliati. Se non esistono aggiornamenti, l'aggiornamento si basa solo su immagini o è scritti male, Atlassian Intelligence non avrà contesto a sufficienza per generare un riepilogo accurato.

Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri.

I tuoi dati e Focus Area Executive Summary Copy link to heading Copied! Mostra
  

Sappiamo che potresti avere domande su come Focus Area Executive Summary utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center.

Elaboriamo:

  • Le tue richieste (input) e risposte (output).
  • Contesto della tua istanza pertinente alla tua richiesta, ad esempio aggiornamenti delle aree strategiche, aggiornamenti degli obiettivi e aree strategiche e obiettivi collegati.
  • Dati su come interagisci con le nostre funzionalità, come i dati clickstream e le persone con cui lavori.
  • Feedback che scegli di fornire su questa funzionalità, inclusi eventuali suggerimenti o risposte che scegli di condividere come parte del tuo commento.

Per quanto riguarda i tuoi dati, Focus Area Executive Summary applica le misure seguenti.

  • Le tue richieste (input) e risposte (output):
    • Non sono disponibili agli altri clienti
    • Non vengono inviati a nessun provider LLM di terze parti diverso da OpenAI.
    • Non vengono archiviati da OpenAI.
    • Non vengono utilizzati per migliorare l'OpenAI.
    • Vengono utilizzati solo per elaborare la tua esperienza.
  • OpenAI è un sub-responsabile del trattamento nella nostra lista di sub-responsabili del trattamento. Usa i dati che inserisci e le risposte che ricevi solo ed esclusivamente per elaborare la tua richiesta.
  • Questa funzionalità eredita le autorizzazioni della tua istanza. Ad esempio, se non hai accesso agli obiettivi collegati alle aree strategiche di Focus, tali obiettivi non saranno inclusi nella risposta che riceverai.

Scopri di più su Atlassian Intelligence

Scopri di più sull'utilizzo di Atlassian Intelligence

Riferimenti

Ricevi aggiornamenti in tempo reale sullo stato dei prodotti Atlassian nella nostra pagina di stato dedicata.

Scopri di più su Atlassian Intelligence

Scopri come Atlassian gestisce i dati dei clienti.

Scopri di più su Atlassian Rovo