Atlassian Intelligence e Rovo sono progettati per la trasparenza
Il nostro impegno per "un'azienda aperta" per una comunicazione aperta, per la responsabilità e per aiutare i team a utilizzare AI in modo responsabile.
Rovo
Seleziona una funzionalità Rovo di seguito per avere una panoramica dettagliata dei casi d'uso e dell'utilizzo dei dati.
Gli agenti Rovo si basano sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google, nonché su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui le serie Llama) e su altri modelli di machine learning. Questi modelli includono la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google. Gli agenti Rovo utilizzano questi modelli per fornire funzionalità di analisi e di generazione di risposte ai prompt utilizzando il linguaggio naturale e fornire risposte pertinenti da Atlassian e dai prodotti di terze parti connessi. Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama. |
Con Rovo, forniamo una serie di agenti predefiniti e pronti all'uso per una serie di task, come aiutare nel processo decisionale, pubblicare la documentazione sulle conoscenze e organizzare o riordinare i ticket di Jira. Gli agenti sono membri del team specializzati nell'intelligenza artificiale che possono aiutare i membri del team a portare avanti il lavoro in modo rapido ed efficace. Puoi:
Riteniamo che gli agenti Rovo funzionino meglio negli scenari in cui:
|
È importante ricordare che, per effetto del modo in cui operano, i modelli alla base degli agenti Rovo possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che gli agenti Rovo sono meno utili in scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Comprendiamo che potresti avere domande su come gli agenti Rovo utilizzano i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center. Elaboriamo:
Per quanto riguarda i tuoi dati, gli agenti Rovo applicano le misure seguenti.
I dettagli sopra riportati valgono per gli agenti forniti da Atlassian. Per ulteriori informazioni sugli agenti forniti da Atlassian, consulta le linee guida di Rovo in materia di dati, privacy e utilizzo | Rovo | Assistenza Atlassian. Per informazioni sugli agenti forniti da terze parti, fai riferimento alle Condizioni del Fornitore rese disponibili da tali terze parti per le proprie app. Scopri di più su Atlassian Intelligence |
Rovo Chat si basa sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google, nonché su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui le serie Llama) e su altri modelli di machine learning. Questi modelli includono la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google. Rovo Chat utilizza questi modelli per analizzare e generare risposte ai prompt utilizzando il linguaggio naturale e fornire risposte pertinenti da Atlassian e dai prodotti di terze parti connessi. Le risposte sono generate da questi modelli linguistici di grandi dimensioni basati sui tuoi input e sono di natura probabilistica. Ciò significa che nei modelli linguistici di grandi dimensioni le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama. |
Rovo Chat consente di accedere alle conoscenze dell'organizzazione attraverso un'interfaccia di tipo conversazionale. Ciò significa che puoi chiedere a Rovo di scrivere, leggere, rivedere o creare contenuti nello stesso modo in cui chiederesti a una persona, senza interrompere il tuo flusso di lavoro. La chat comprende il contesto del tuo lavoro (sia in Atlassian che nei prodotti di terze parti connessi) per rispondere alle domande o aiutarti a fornire idee o approfondimenti. Riteniamo che Rovo Chat funzioni meglio negli scenari in cui:
Gli utenti possono accedere a Rovo Chat anche tramite un'estensione del browser Chrome. Scopri di più sull'accesso a Rovo Chat qui e qui. |
È importante ricordare che, per effetto del modo in cui operano, i modelli alla base di Rovo Chat possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che Rovo Chat è meno utile in scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Rovo Chat e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Comprendiamo che potresti avere domande su come Rovo Chat utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center. Elaboriamo: Le tue richieste (input) e risposte (output).
Per quanto riguarda i tuoi dati, Rovo Chat applica le misure seguenti.
OpenAI è un sub-responsabile del trattamento nella nostra lista di sub-responsabili del trattamento. Le tue domande e le tue risposte vengono utilizzate esclusivamente per l'elaborazione o la realizzazione della tua richiesta. Questa funzionalità eredita le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a una determinata pagina di Confluence, i contenuti della pagina non saranno suggeriti nella risposta che ricevi. Se desideri che i contenuti della tua istanza non siano disponibili nelle risposte ad altri utenti, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato. Quando accedi a Rovo Chat dall'estensione del browser Chrome, Rovo Chat leggerà solo il contenuto della pagina web che stai visualizzando per integrare quello già presente nei tuoi prodotti Atlassian. Non verrà memorizzato alcun dato aggiuntivo della pagina web. Scopri di più su Atlassian Intelligence Scopri di più sull'utilizzo di Atlassian Intelligence |
Ricerca Rovo utilizza l'intelligenza artificiale per migliorare le funzionalità di ricerca negli strumenti Atlassian e di terze parti. Ricerca Rovo si basa sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google, nonché su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui le serie Llama) e su altri modelli di machine learning. Questi modelli includono la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google. Ricerca Rovo utilizza questi modelli per fornire funzionalità come la ricerca semantica, la classificazione per pertinenza e l'elaborazione del linguaggio naturale. Ciò include l'analisi e la generazione di risposte alle query di ricerca in un linguaggio naturale e la fornitura di risposte pertinenti dai prodotti Atlassian e da quelli di terze parti connessi. Le risposte sono generate da questi modelli linguistici di grandi dimensioni basati sui tuoi input e sono di natura probabilistica. Ciò significa che nei modelli linguistici di grandi dimensioni le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama. |
Ricerca Rovo consente agli utenti di effettuare ricerche su più strumenti e piattaforme, inclusi prodotti Atlassian e prodotti di terze parti connessi, fornendo risultati contestuali e pertinenti per migliorare la collaborazione e la produttività dei team. Riteniamo che Ricerca Rovo funzioni meglio negli scenari in cui:
|
È importante ricordare che, per effetto del modo in cui operano, i modelli alla base di Ricerca Rovo possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che Ricerca Rovo è meno utile in scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Rovo e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Comprendiamo che potresti avere domande su come Ricerca Rovo utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nel nostro Trust Center. Elaboriamo:
Per quanto riguarda i tuoi dati, Ricerca Rovo applica le misure seguenti.
Scopri di più su Atlassian Intelligence Cos'è Atlassian Intelligence? | Assistenza Atlassian Rovo: sblocca le conoscenze organizzative con l'IA generativa | Atlassian |
Accelera il lavoro con l'IA
Seleziona una funzionalità di Atlassian Intelligence di seguito per avere una panoramica dettagliata dei casi d'uso e dell'utilizzo dei dati.
- AI ChatOps per la gestione degli imprevisti
- Bozze basate sull'IA
- Riepiloghi basati sull'IA nelle schede dell'hub aziendale
- Risorse correlate all'IA
- Suggerimenti di IA
- Automazione
- Raggruppamento degli avvisi
- Riepilogo rapido di Confluence
- Definisci i termini
- AI generativa nell'editor
- Strumento di riformattazione dei ticket
- Summarize work item details
- Riassumi i link intelligenti
- Assistente virtuale del servizio
- Summarize work item details using Atlassian Intelligence
- Ripartizione del lavoro con l'IA
- AI ChatOps per la gestione degli imprevisti
- Bozze basate sull'IA
- Riepiloghi basati sull'IA nelle schede dell'hub aziendale
- Risorse correlate all'IA
- Suggerimenti di IA
- Automazione
- Raggruppamento degli avvisi
- Riepilogo rapido di Confluence
- Definisci i termini
- AI generativa nell'editor
- Strumento di riformattazione dei ticket
- Summarize work item details
- Riassumi i link intelligenti
- Assistente virtuale del servizio
- Summarize work item details using Atlassian Intelligence
- Ripartizione del lavoro con l'IA
Automazione tramite Atlassian Intelligence
Le funzioni di AI ChatOps per la gestione degli imprevisti si basano su modelli linguistici di grandi dimensioni sviluppati da OpenAI, nonché su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui le serie Llama e Phi) e su altri modelli di machine learning. Tra questi modelli linguistici è inclusa la serie di modelli GPT di OpenAI. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli linguistici di grandi dimensioni generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle funzionalità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
AI ChatOps per la gestione degli imprevisti aiuta ad accelerare il processo di risoluzione offrendo ai nuovi utenti un riepilogo dell'imprevisto pertinente e tutte le conversazioni al riguardo quando vengono aggiunti al canale Slack collegato al ticket dell'imprevisto in Jira Service Management. Inoltre, AI ChatOps per la gestione degli imprevisti può registrare le conversazioni che avvengono su Slack in Jira Service Management come sequenza temporale per riferimento futuro. Riteniamo che AI ChatOps per la gestione degli imprevisti funzionino meglio negli scenari in cui:
|
Tieni presente che, a causa del modo in cui operano, i modelli utilizzati per far funzionare AI ChatOps per la gestione degli imprevisti possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che AI ChatOps per la gestione degli imprevisti è meno utile in scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi AI ChatOps per la gestione degli imprevisti e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Potresti anche pensare di rivedere le autorizzazioni per garantire che gli utenti abbiano livelli di accesso adeguati ai ticket degli imprevisti e ai canali Slack. |
Comprendiamo che potresti avere domande su come AI ChatOps per la gestione degli imprevisti utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, AI ChatOps per la gestione degli imprevisti applica le seguenti misure:
|
La bozze basate sull'IA sono supportate da modelli linguistici di grandi dimensioni sviluppati da OpenAI e Anthropic, nonché da una combinazione di modelli linguistici open source basati su trasformatori e altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di OpenAI e la serie di modelli Claude di Anthropic. Atlassian Intelligence utilizza questi modelli per analizzare e generare linguaggio naturale all'interno dei nostri prodotti. I modelli di codifica open source convertono i tuoi input testuali in forme numeriche (incorporamenti) che vengono utilizzate per identificare e formare temi a partire dai tuoi input. Questi modelli linguistici di grandi dimensioni generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI e dei modelli di Anthropic. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sull'incorporamento dei modelli. |
Le bozze basate sull'IA suggeriscono bozze pregenerate di articoli della knowledge base che i tuoi amministratori e agenti devono prendere in considerazione. Questa funzionalità genera bozze per i ticket più comuni in un progetto Jira Service Management, utilizzando i dettagli e i commenti contenuti nei ticket del progetto. Ciò consente ai team di assistenza di aumentare la copertura degli articoli della knowledge base in modo più rapido e semplice, il che a sua volta andrà a vantaggio delle prestazioni di altre funzionalità di Jira Service Management. Ad esempio, gli articoli della knowledge base creati utilizzando bozze basate sull'IA possono quindi essere utilizzati dalla funzionalità di risposte basate sull'IA dell'assistente virtuale del servizio per risolvere in modo più semplice e rapido le richieste degli utenti in cerca di aiuto. Leggi di più sulle risposte basate sull'IA nell'assistente virtuale del servizio. Riteniamo che le bozze basate sull'IA funzionino meglio negli scenari in cui:
|
È importante ricordare che, per effetto del modo in cui operano, i modelli usati per le bozze basate sull'IA a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che le bozze basate sull'IA sono meno utili negli scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Comprendiamo che potresti avere domande su come l'IA utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center. Elaboriamo:
Per quanto riguarda i tuoi dati, le bozze basate sull'IA applicano le misure seguenti.
|
I riepiloghi basati sull'IA nelle schede dell'hub aziendale si basano su modelli linguistici di grandi dimensioni sviluppati da OpenAI, che includono la serie di modelli GPT di OpenAI. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle capacità dei modelli di OpenAI. |
I riepiloghi basati sull'IA nelle schede dell'hub aziendale ti aiutano a compilare e pubblicare rapidamente il tuo hub aziendale, suggerendo descrizioni delle schede generate dall'IA. Questa funzionalità utilizza Atlassian Intelligence per generare un riepilogo della pagina o del post del blog di Confluence collegati per la tua scheda dell'hub aziendale. Riteniamo che i riepiloghi basati sull'IA nelle schede dell'hub aziendale funzionino meglio negli scenari in cui:
|
È importante ricordare che, a causa del modo in cui operano, i modelli usati per i riepiloghi basati sull'IA nelle schede dell'hub aziendale talvolta possono presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che i riepiloghi basati sull'IA nelle schede dell'hub aziendale sono meno utili negli scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. |
Comprendiamo che tu possa avere domande sul modo in cui i riepiloghi basati sull'IA nelle schede dell'hub aziendale utilizzano i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center. Elaboriamo:
Per quanto riguarda i tuoi dati, i riepiloghi basati sull'IA nelle schede dell'hub aziendale applicano le seguenti misure.
|
Le risorse relative all'IA si basano su modelli linguistici di grandi dimensioni sviluppati da OpenAI, nonché su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui le serie Llama e Phi) e su altri modelli di machine learning. Tra questi modelli linguistici è inclusa la serie di modelli GPT di OpenAI. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti e per fornire risposte pertinenti da Atlassian e dai prodotti di terze parti connessi. Questi modelli linguistici di grandi dimensioni generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle funzionalità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
Atlassian Intelligence consente agli utenti di accelerare il processo di risoluzione degli imprevisti suggerendo un elenco di risorse a cui possono fare riferimento negli spazi e negli articoli della tua knowledge base collegati, nei ticket di Jira e nei prodotti di terze parti che hai integrato tramite Rovo (se sei cliente Rovo). Scopri di più su Rovo e sugli strumenti di terze parti. Riteniamo che le risorse relative all'IA funzionino meglio nei casi in cui:
|
Tieni presente che, a causa del modo in cui operano, i modelli utilizzati per far funzionare le risorse relative all'IA possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che le risorse relative all'IA sono meno utili in scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Potresti anche pensare di:
|
Comprendiamo che potresti avere domande su come le risorse relative all'IA utilizzano i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, alle risorse relative all'IA si applicano le misure seguenti:
|
I suggerimenti di IA di Jira Service Management si basano su vasti modelli linguistici sviluppati da OpenAI e da altri modelli di machine learning. Questi modelli linguistici includono la serie di modelli GPT di OpenAI. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli linguistici di grandi dimensioni generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle capacità dei modelli di OpenAI. |
Con i suggerimenti di IA di Jira Service Management, il tuo team può avere aggiornamenti rapidi perché riceve a colpo d'occhio un importante contesto su richieste di assistenza e imprevisti. Atlassian Intelligence aiuta il tuo team in queste situazioni:
I suggerimenti di IA di Jira Service Management possono anche consigliare agli agenti di riassegnare una richiesta o un imprevisto quando lo SLA applicabile sta per essere violato. Nel caso di richieste di assistenza, questa funzione può anche suggerire agli agenti di procedere con la riassegnazione laddove i modelli utilizzati per fornire questi suggerimenti identifichino, in base al testo dei commenti del richiedente, un senso di urgenza o rabbia. Riteniamo che i suggerimenti di IA di Jira Service Management funzionino meglio negli scenari in cui:
|
È importante ricordare che, per effetto del modo in cui operano, a volte i modelli alla base dei suggerimenti di IA di Jira Service Management possono presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che i suggerimenti di IA di Jira Service Management sono meno utili negli scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Sappiamo che potresti avere domande su come i suggerimenti di IA di Jira Service Management usano i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center. Elaboriamo:
Per quanto riguarda i tuoi dati, i suggerimenti di IA applicano le misure seguenti.
|
L'automazione tramite Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic. Atlassian Intelligence utilizza questi modelli per analizzare l'input in linguaggio naturale e generare per te una regola di automazione in Jira e in Confluence. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
La creazione di regole di automazione è al centro dell'esperienza di automazione quotidiana e vogliamo renderla ancora più semplice aggiungendo Atlassian Intelligence al generatore di regole di automazione in Jira e Confluence. Ora puoi creare facilmente regole di automazione semplicemente digitando e descrivendo ciò che vuoi automatizzare e Atlassian Intelligence si occupa di tutto il lavoro pesante di creazione della regola per te. Scopri di più sull'automazione tramite Atlassian Intelligence per Jira e per Confluence. Riteniamo che l'automazione tramite Atlassian Intelligence per Jira e Confluence funzioni meglio in scenari in cui non si ha la certezza di come iniziare o si desidera accelerare il processo di creazione delle regole. Non sai come creare una regola di automazione in modo ottimale?Le creazione delle regole di automazione prevede la combinazione di diversi tipi di componenti: trigger, azioni, condizioni e branch. Pensa ai componenti come ai blocchi predefiniti di una regola. Per creare con successo una regola con Atlassian Intelligence, la regola deve contenere almeno sia un trigger che un'azione. Ad esempio: In Jira: Ogni lunedì, trova tutti i task con una data di scadenza nei prossimi 7 giorni e invia all'assegnatario un'e-mail di promemoria. Quando un ticket di assistenza passa ai test, assegnalo a John Smith. In Confluence:
Inoltre, affinché una regola venga creata correttamente, tutti i suoi componenti devono essere supportati dall'automazione tramite Atlassian Intelligence. Ciò significa che qualsiasi trigger, azione, condizione o branch della regola deve essere compatibile con l'automazione in Jira e/o in Confluence. |
È importante ricordare che i modelli utilizzati per realizzare l'automazione tramite Atlassian Intelligence a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili a causa del modo in cui funzionano. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che l'automazione tramite Atlassian Intelligence è meno utile in scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. L'automazione tramite Atlassian Intelligence funzionerà solo con il set esistente di componenti di automazione disponibili in Jira e Confluence. Potresti anche pensare di essere il più specifico possibile in ciò che chiedi ad Atlassian Intelligence di fare, come descritto sopra. |
Comprendiamo che potresti avere domande su come l'automazione tramite Atlassian Intelligence usa i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, nell'ambito dell'utilizzo di Atlassian Intelligence per l'automazione di Confluence si applicano le seguenti misure:
Tutti i fornitori terzi di LLM sono sub-responsabili del trattamento dei dati e sono elencati nella nostra pagina dei Sub-responsabili. Questi fornitori usano i dati che inserisci e le risposte che ricevi solo ed esclusivamente per l'elaborazione della richiesta. Questa funzionalità segue le autorizzazioni della tua istanza. Ad esempio, se non hai accesso a un determinato progetto o a una pagina specifica, i contenuti di tali risorse non saranno suggeriti nella risposta che ricevi. Se non vuoi che i tuoi contenuti vengano resi disponibili nelle risposte ad altri utenti nella tua istanza, collabora con l'amministratore dell'organizzazione per avere la certezza che le tue autorizzazioni siano impostate in modo appropriato. |
Raggruppamento degli avvisi
Il raggruppamento degli avvisi di Atlassian Intelligence è basato sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google. Questi modelli includono un algoritmo progettato per identificare pattern nei dati di avviso, la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google. Atlassian Intelligence utilizza questi modelli di machine learning per analizzare e generare gruppi di avvisi e fornire suggerimenti correlati (gruppi di avvisi e addetti alla risposta precedenti) all'interno dei nostri prodotti in base alla somiglianza del contenuto degli avvisi o dei tag utilizzati. Atlassian Intelligence utilizza quindi modelli linguistici di grandi dimensioni per analizzare e generare descrizioni e contenuti in linguaggio naturale per questi gruppi all'interno dei nostri prodotti. Questi modelli linguistici di grandi dimensioni generano risposte basate sui tuoi input e sono probabilistici. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati addestrati. Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. |
Il raggruppamento degli avvisi utilizza Atlassian Intelligence per identificare e raggruppare avvisi simili. Aiuta anche a identificare e consigliare gruppi di avvisi e addetti alla risposta per gli avvisi (o team di addetti alla risposta) precedenti, in base alla somiglianza semantica del contenuto o dei tag degli avvisi utilizzati. Quando vuoi trasformare il gruppo di avvisi in un imprevisto, il raggruppamento di avvisi precompilerà anche tutte le informazioni contestuali da esaminare nell'ambito del processo di creazione dell'imprevisto. Riteniamo che il raggruppamento degli avvisi funzioni meglio nei seguenti scenari:
|
È importante ricordare che, per effetto del modo in cui operavano sul raggruppamento degli avvisi, questi modelli possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano logici ma sono incompleti o non affidabili. Nel caso dei gruppi di avvisi che vedi, potrebbero non riflettere esattamente la somiglianza semantica dei loro tag. Abbiamo scoperto che il raggruppamento degli avvisi è meno utile negli scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Potresti anche assicurarti di seguire, insieme al tuo team, pratiche coerenti nell'uso dei tag degli avvisi. |
Sappiamo che potresti avere delle domande sul modo in cui il raggruppamento degli avvisi utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Trattiamo i tuoi dati degli avvisi per addestrare una versione del modello di machine learning a riconoscere i modelli specifici dei tuoi avvisi. Questa versione è utilizzata solo per offrirti un'esperienza migliore:
Per quanto riguarda i tuoi dati, il raggruppamento degli avvisi applica le seguenti misure:
|
Riassumi pagine e blog utilizzando Atlassian Intelligence, che si basa sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google. Questi modelli includono la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. |
Risparmia tempo e ricevi i dettagli necessari per svolgere il tuo lavoro più velocemente generando un breve riepilogo di una pagina o di un blog di Confluence con Atlassian Intelligence. Scopri di più sull'utilizzo di Atlassian Intelligence in Confluence. Riteniamo che il riepilogo di pagine e blog con Atlassian Intelligence funzioni in maniera ottimale nei seguenti casi:
|
È importante ricordare che, i modelli utilizzati per riassumere le pagine e i blog con Atlassian Intelligence a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili a causa del modo in cui funzionano. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Mentre continuiamo a migliorare il supporto per macro, tabelle e ad espandere i riepiloghi, abbiamo scoperto che riassumere pagine e blog utilizzando Atlassian Intelligence è meno utile negli scenari seguenti:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Sappiamo che potresti avere domande su come vengono utilizzati i tuoi dati da Atlassian Intelligence per l'automazione di Confluence. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, nell'ambito del riepilogo di pagine e blog con Atlassian Intelligence, si applicano le seguenti misure:
|
Definisci i termini utilizzando Atlassian Intelligence
La definizione di termini tramite Atlassian Intelligence in Confluence e Jira è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic. Atlassian Intelligence utilizza questi modelli per analizzare e generare risposte basate sul linguaggio naturale all'interno di Confluence e Jira. Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
Una delle cose più difficili del consumo di contenuti su Confluence e Jira è comprendere il contesto necessario per capire cosa stai leggendo. Abbreviazioni, acronimi, termini sconosciuti e nomi specifici del team o del progetto possono portare a una lunga e tediosa ricerca delle informazioni di cui hai bisogno. La definizione dei termini attraverso Atlassian Intelligence fornirà la definizione di termini specifici dell'azienda (come acronimi, nomi di progetto, sistema o team) in una pagina in Confluence o nella descrizione di un ticket in Jira. Questo garantisce agli utenti le informazioni di cui hanno bisogno, quando ne hanno bisogno, il tutto aiutando al contempo i team a lavorare meglio insieme. Atlassian Intelligence può farti risparmiare tempo definendo queste cose per te, senza distrarti da ciò che stai leggendo. Se trovi una definizione che ritieni imprecisa, puoi modificarla o aggiungerne una nuova, quindi impostare la visibilità per quella pagina o quel ticket, per l'intero spazio o progetto, oppure accedere all'intera organizzazione. Riteniamo che definire i termini utilizzando Atlassian Intelligence in Confluence e Jira funzioni meglio nei casi in cui:
|
È importante ricordare che, a causa del modo in cui i modelli utilizzati per definire i termini utilizzando Atlassian Intelligence in Confluence funzionano, questi a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che definire i termini utilizzando Atlassian Intelligence in Confluence è meno utile nei casi in cui:
Inoltre, in Jira, abbiamo anche scoperto che, poiché la definizione dei termini con Atlassian Intelligence si basa sulla ricerca in Confluence, la funzione sarà disponibile in Jira solo se disponi delle autorizzazioni di visualizzazione di un'istanza di Confluence nello stesso sito della tua istanza di Jira. È anche possibile che tu scopra che la definizione di termini con Atlassian Intelligence non funzioni come previsto negli spazi di Confluence o nelle istanze di Jira che contengono contenuti scritti in più lingue. |
Sappiamo che potresti avere domande su come vengono utilizzati i tuoi dati da Atlassian Intelligence per definire i termini. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, alla definizione di termini utilizzando Atlassian Intelligence si applicano le seguenti misure:
|
AI generativa nell'editor
Atlassian Intelligence nelle esperienze di modifica si basa sui modelli linguistici di grandi dimensioni sviluppati da OpenAI. Questi modelli includono la serie di modelli GPT di OpenAI e la serie di modelli Gemini di Google. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. |
Atlassian Intelligence aiuta a promuovere una comunicazione efficace tra tutti i team di un'organizzazione per migliorare l'efficienza, il processo decisionale e le procedure. Riteniamo che l'utilizzo di Atlassian Intelligence nelle esperienze di modifica funzioni meglio nei casi di:
|
È importante ricordare che, a causa del funzionamento dei modelli utilizzati per alimentare Atlassian Intelligence nelle esperienze di modifica, questi a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che utilizzare Atlassian Intelligence nelle esperienze di modifica è meno utile nei casi in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Sappiamo che potresti avere domande su come vengono utilizzati i tuoi dati da Atlassian Intelligence nelle esperienze di modifica. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, alle esperienze di modifica tramite Atlassian Intelligence si applicano le seguenti misure:
|
Lo strumento di riformattazione dei ticket si basa su vasti modelli linguistici sviluppati da OpenAI, tra cui la serie di modelli GPT di OpenAI. Atlassian Intelligence utilizza questo modello per analizzare e generare un linguaggio naturale all'interno di Jira. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle capacità dei modelli di OpenAI. |
Lo strumento di riformattazione dei ticket aiuta ad aumentare la chiarezza delle descrizioni dei ticket Jira riformattandole attraverso un modello sviluppato da Atlassian che copre i tipi di informazioni che generalmente ci aspettiamo di vedere nella descrizione di un ticket Jira, ad esempio una user story, il contesto del lavoro e i criteri di accettazione. Riteniamo che lo strumento di riformattazione dei ticket funzioni meglio negli scenari in cui le descrizioni dei ticket contengono già informazioni utili (ad esempio criteri di accettazione o link alle fonti) che però non sono formattate utilizzando una struttura chiara o coerente. |
È importante ricordare che, per effetto del modo in cui operano, a volte i modelli alla base dello strumento di riformattazione dei ticket possono presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, la tua descrizione riformattata potrebbe non riflettere con precisione il contenuto su cui si basava o potrebbe includere dettagli che sembrano sensati ma sono falsi o incompleti. Abbiamo scoperto che lo strumento di riformattazione dei ticket è meno utile in scenari in cui:
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence, and always review the quality of the responses you get before sharing them with others. You might also want to think about reviewing and confirming that your work item descriptions include all relevant information before you start using work item reformatter to reformat them. |
We understand you may have questions about how work item reformatter uses your data. This section supplements the information available on our Trust Center. Elaboriamo:
When it comes to your data, work item reformatter applies the following measures:
|
Summarize work item details in Jira Service Management
Summarize work item details using Atlassian Intelligence is powered by large language models developed by OpenAI and Google. These large language models include OpenAI's GPT series of models and Google's Gemini series of models. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. |
Instead of reading through long descriptions and numerous comments on a Jira Service Management work item, you can use Atlassian Intelligence to quickly summarize this information for you. This helps agents quickly understand the context of the work item and any progress made, enabling them to take swift action and provide timely assistance. We believe that summarizing work item details using Atlassian Intelligence works best for:
|
It’s important to remember that because of the way that the models used to power summarizing work item details using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. We’ve found that summarizing work item details using Atlassian Intelligence is less useful in scenarios when:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. |
We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page. Elaboriamo:
When it comes to your data, summarizing work item details using Atlassian Intelligence applies the following measures:
|
AI generativa nell'editor
I riassunti dei link intelligenti di Atlassian Intelligence (AI) sono basati su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
Dopo aver passato il mouse su un link intelligente di Jira, Confluence e Documenti Google, Atlassian Intelligence può aiutarti a riassumere il contenuto, consentendoti così di determinare l'importanza e il valore del link e di decidere la tua prossima azione. Questo riduce la necessità di lasciare la pagina corrente e cambiare contesto. Riteniamo che Riepiloga Link intelligenti con l'IA funzioni meglio negli scenari in cui:
|
È importante tenere in considerazione che, per effetto del modo in cui opera Riepiloga Link intelligenti con l'IA, i modelli alla base di questa funzione possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, i riepiloghi che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che Riepiloga Link intelligenti con l'IA è meno utile negli scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. |
We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page. Elaboriamo:
Per quanto riguarda i tuoi dati, Riepiloga Link intelligenti con l'IA applica le misure seguenti.
|
Atlassian Intelligence risponde su Jira Service Management
L'assistente virtuale del servizio di Jira Service Management è basato sui modelli linguistici di grandi dimensioni sviluppati da OpenAI e Google, nonché su modelli open source (inclusa la serie Llama). L'assistente virtuale del servizio utilizza questi modelli nel seguente modo:
Come funzionano i modelli linguistici di grandi dimensioni: i vasti modelli linguistici generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. I modelli linguistici di grandi dimensioni utilizzati su cui si basa l'assistente virtuale del servizio includono la serie di modelli GPT di Open AI e la serie di modelli Gemini di Google. Scopri di più sulle funzionalità dei modelli di OpenAI e dei modelli di Google. Per ulteriori informazioni sui modelli linguistici open source, vedi le informazioni sulla serie Llama. |
L'assistente virtuale del servizio aiuta i team ad automatizzare le interazioni di supporto di primo livello, alimentate da un motore conversazionale Atlassian Intelligence che analizza e comprende l'intento, il contesto e le autorizzazioni per personalizzare le interazioni. Utilizzando Atlassian Intelligence, l'assistente virtuale del servizio aiuta i team a scalare i propri service desk e a soddisfare i clienti con tre funzionalità chiave:
L'assistente virtuale del servizio è disponibile in più canali, tra cui Slack, Microsoft Teams, il portale Jira Service Management e altro ancora. Scopri di più sui canali disponibili per l'assistente virtuale del servizio. Riteniamo che l'assistente virtuale del servizio funzioni meglio negli scenari in cui:
|
È importante ricordare che, per effetto del modo in cui alimentavano l'assistente virtuale del servizio, questi modelli possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che l'assistente virtuale del servizio è meno utile in scenari in cui:
Ti invitiamo a pensare alle situazioni in cui utilizzeresti Atlassian Intelligence e a esaminare le prestazioni dell'assistente virtuale del servizio prima di attivarlo per i clienti. Leggi di più su come migliorare le prestazioni del tuo assistente virtuale del servizio. Altri fattori da considerare:
|
Comprendiamo che potresti avere domande su come vengono utilizzati i tuoi dati dall'assistente virtuale del servizio di Jira Service Management. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, l'assistente virtuale del servizio applica le misure seguenti:
|
Summarize work item details using Atlassian Intelligence
I riepiloghi creati con l'IA in Jira si basano su modelli linguistici di grandi dimensioni sviluppati da OpenAI, tra cui i modelli OpenAI descritti qui. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle funzionalità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI. |
Instead of reading through long descriptions and numerous comments on a Jira work item, you can use Atlassian Intelligence to quickly summarize this information for you. This helps agents quickly understand the context of the work item and any progress made, enabling them to take swift action and provide timely assistance. We believe that summarizing work item details using Atlassian Intelligence works best for work items with a large number of comments and/or lengthy comments and descriptions. |
Non bisogna sottovalutare che, per loro natura, i modelli su cui si basano i riepiloghi creati con l'IA in Jira a volte si comportano in modo impreciso, incompleto o inaffidabile. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. We’ve found that summarizing work item details using Atlassian Intelligence is less useful in scenarios when:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. |
We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our Trust Center. Elaboriamo:
When it comes to your data, summarizing work item details using Atlassian Intelligence applies the following measures:
|
Ripartizione del lavoro con l'IA
La Ripartizione del lavoro con l'IA si basa su modelli linguistici di grandi dimensioni sviluppati da OpenAI. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle capacità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI. |
AI Work Breakdown suggests child work items based on a Jira work item you’ve created, making it easy to break down large pieces of work into smaller ones. Your work item is used as context to generate suggestions for child work item summaries and descriptions. A nostro avviso, la Ripartizione del lavoro con l'IA funziona meglio nei seguenti scenari:
|
Non bisogna sottovalutare che, per loro natura, i modelli su cui si basa la Ripartizione del lavoro con l'IA si comportano a volte in modo impreciso, incompleto o inaffidabile. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo riscontrato che la Ripartizione del lavoro con l'IA è meno efficace nei seguenti scenari:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
È normale avere domande sul modo in cui la Ripartizione del lavoro con l'IA utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center. Elaboriamo:
La Ripartizione del lavoro con l'IA applica le misure seguenti per gestire i tuoi dati.
|
Usa l'intelligenza artificiale per stimolare l'azione
Seleziona una funzionalità di Atlassian Intelligence di seguito per avere una panoramica dettagliata dei casi d'uso e dell'utilizzo dei dati.
La creazione di imprevisti tramite Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base all'input fornito dall'utente e sono di natura probabilistica. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
Quando si trasformano uno o più avvisi o gruppi di avvisi in un imprevisto in Jira Service Management, Crea imprevisto con l'IA utilizza Atlassian Intelligence per precompilare rapidamente tutte le informazioni contestuali da esaminare nell'ambito del processo di creazione dell'imprevisto. Ciò consente agli utenti di comprendere rapidamente il contesto dell'imprevisto creato a partire da tali avvisi o gruppi di avvisi e di rivedere e confermare le informazioni precompilate, compresi il titolo, la descrizione e la priorità dell'avviso quando viene trasformato in imprevisto. Riteniamo che Crea imprevisto con l'IA funzioni meglio negli scenari in cui:
|
È importante ricordare che, a causa del modo in cui operano, i modelli alla base di Crea imprevisto con l'IA possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che Crea imprevisto con l'IA è meno utile negli scenari in cui:
Per questi motivi, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Per ottenere i risultati più proficui, ti suggeriamo di fornire informazioni il più specifiche possibile quando chiedi qualcosa ad Atlassian Intelligence. Potresti anche pensare di fare ricerche in modo più specifico possibile ad Atlassian Intelligence, come descritto sopra. |
Comprendiamo che potresti avere domande su come Crea imprevisto con l'IA utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle FAQ. Elaboriamo:
Per quanto riguarda i tuoi dati, Crea imprevisto con l'IA applica le seguenti misure:
|
Creare una revisione post-imprevisto
La creazione di revisioni post-imprevisto (PIR) da parte di Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, che includono la serie di modelli GPT di OpenAI. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base agli input forniti dagli utenti e sono di natura probabilistica. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle funzionalità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI. |
Le PIR sono una parte fondamentale del processo di gestione degli imprevisti, poiché aiutano i manager e gli addetti a imparare dagli imprevisti attuali e a trasmettere informazioni per prevenire casi simili in futuro. Atlassian Intelligence aiuta ad accelerare i task, spesso dispendiosi in termini di tempo, di compilazione di una PIR suggerendo una descrizione della PIR basata su informazioni contestuali pertinenti nella tua istanza di Jira Service Management e strumenti di chat come Slack da esaminare. Riteniamo che la creazione di PIR con l'IA funzioni meglio negli scenari in cui:
|
È importante ricordare che, per effetto del modo in cui operavano, i modelli alla base della creazione delle PIR possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che la creazione di PIR con l'IA è meno utile in scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Comprendiamo che potresti avere domande su come la creazione di revisioni post-imprevisto con l'IA utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, la creazione di PIR con l'IA applica le misure seguenti.
|
Generazione delle descrizioni relative alle richieste pull con Atlassian Intelligence
La generazione di descrizioni delle pull request tramite Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic. Atlassian Intelligence li utilizza per analizzare e generare linguaggio naturale e codice all'interno dei nostri prodotti. Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
Atlassian Intelligence può aiutarti a generare, trasformare e riepilogare i contenuti mentre scrivi descrizioni o commenti delle richieste pull nell'esperienza di revisione del codice di Bitbucket Cloud. Ciò include:
Riteniamo che la generazione di descrizioni delle richieste pull di Bitbucket Cloud con Atlassian Intelligence offra risultati migliori negli scenari in cui:
|
È importante ricordare che, per effetto del modo in cui operano, i modelli alla base di questa funzione possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che generare descrizioni delle richieste pull di Bitbucket Cloud con Atlassian Intelligence è meno utile negli scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Sappiamo che potresti avere domande su come la definizione dei termini utilizzando Atlassian Intelligence in Confluence utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i dati, alla generazione delle descrizioni delle richiesta pull con Atlassian Intelligence si applicano le seguenti misure:
|
Genera query SQL in Atlassian Analytics
La generazione di query SQL in Atlassian Analytics tramite Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic. Atlassian Intelligence utilizza questi modelli per analizzare e comprendere il linguaggio naturale, poi tradurlo in Structured Query Language (SQL) all'interno di Atlassian Analytics. Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
Poni una domanda ad Atlassian Intelligence utilizzando il linguaggio naturale e falla tradurre in SQL, anziché scrivere le tue query SQL da zero. Dopo aver posto una domanda, Atlassian Intelligence utilizza lo schema Atlassian Data Lake dell'origine dati selezionata per generare una query SQL che può essere utilizzata per creare grafici nelle dashboard di Atlassian Analytics e può anche aiutarti a scoprire lo schema nel Data Lake. Riteniamo che la generazione di query SQL utilizzando Atlassian Intelligence funzioni meglio nei casi in cui:
Non sei sicuro di quali domande fare?Ecco alcuni suggerimenti:
|
È importante ricordare che i modelli utilizzati per generare query SQL mediante Atlassian Intelligence a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili a causa del modo in cui funzionano. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che generare query SQL utilizzando Atlassian Intelligence è meno utile nei casi in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Sappiamo che potresti avere domande su come la generazione di query in SQL tramite Atlassian Intelligence utilizzi i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, alla generazione di query SQL tramite Atlassian Intelligence si applicano le seguenti misure.
|
Cerca risposte su Confluence
La ricerca di risposte in Confluence tramite Atlassian Intelligence è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
Le knowledge base crescono rapidamente e gli utenti non riescono a rimanere al passo. La ricerca di risposte su Confluence utilizzando Atlassian Intelligence fornisce un percorso più rapido per trovare le informazioni chiave di cui i clienti hanno bisogno per portare avanti il loro lavoro. Questa funzionalità ti aiuta a trovare facilmente le informazioni di cui hai bisogno. Comprende i tipi di domande che faresti normalmente a un collega ed è in grado di rispondere all'istante. Scopri come utilizzare Atlassian Intelligence per cercare risposte su Confluence. Riteniamo che la ricerca di risposte su Confluence utilizzando Atlassian Intelligence funzioni meglio quando i contenuti del sito Confluence sono dettagliati, completi e aggiornati. Questa funzione non genera nuovi contenuti, ma cerca nelle pagine e nei blog di Confluence (rispettando le restrizioni) per trovare una risposta alla tua domanda. Atlassian Intelligence genera risposte esclusivamente in base ai contenuti Confluence e a ciò a cui tu hai accesso. Non sei sicuro di quali domande fare?Ecco alcuni suggerimenti
|
Sappiamo che potresti avere domande su come la ricerca di risposte in Confluence tramite Atlassian Intelligence utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, la ricerca di risposte su Confluence tramite Atlassian Intelligence applica le seguenti misure:
|
Search work items in Jira
Search work items using Atlassian Intelligence in Jira is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include OpenAI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence utilizza questi modelli per analizzare e comprendere il linguaggio naturale e poi tradurlo in codice Jira Query Language (JQL) all'interno dei nostri prodotti. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
You can now ask Atlassian Intelligence what you want in everyday language instead of coming up with complex queries. By searching work items using Atlassian Intelligence, your prompt is translated into a JQL query which quickly assists you in your search for specific work items. We believe searching work items using Atlassian Intelligence works best in scenarios where:
|
It's important to remember that because of the way that the models used to search work items using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. We've found that searching work items using Atlassian Intelligence is less useful in scenarios where:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Potresti anche pensare di fare ricerche in modo più specifico possibile ad Atlassian Intelligence, come descritto sopra. Assicurati di includere i campi e i valori esatti che stai cercando. |
We understand you may have questions about how searching work items using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page. Elaboriamo:
When it comes to your data, searching work items using Atlassian Intelligence applies the following measures:
|
Ripartizione del lavoro con l'IA
La Ripartizione del lavoro con l'IA si basa su modelli linguistici di grandi dimensioni sviluppati da OpenAI. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Scopri di più sulle capacità dei modelli di OpenAI o su questo approccio nei documenti di ricerca di OpenAI. |
AI Work Breakdown suggests child work items based on a Jira work item you’ve created, making it easy to break down large pieces of work into smaller ones. Your work item is used as context to generate suggestions for child work item summaries and descriptions. A nostro avviso, la Ripartizione del lavoro con l'IA funziona meglio nei seguenti scenari:
|
Non bisogna sottovalutare che, per loro natura, i modelli su cui si basa la Ripartizione del lavoro con l'IA si comportano a volte in modo impreciso, incompleto o inaffidabile. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo riscontrato che la Ripartizione del lavoro con l'IA è meno efficace nei seguenti scenari:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
È normale avere domande sul modo in cui la Ripartizione del lavoro con l'IA utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center. Elaboriamo:
La Ripartizione del lavoro con l'IA applica le misure seguenti per gestire i tuoi dati.
|
La funzionalità temi suggeriti della knowledge base è supportata da modelli linguistici di grandi dimensioni sviluppati da OpenAI e Anthropic, nonché da una combinazione di modelli linguistici open source basati su trasformatori e altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di OpenAI e la serie di modelli Claude di Anthropic. Atlassian Intelligence utilizza questi modelli per analizzare e generare linguaggio naturale all'interno dei nostri prodotti. I modelli di codifica open source convertono i tuoi input testuali in forme numeriche (incorporamenti) che vengono utilizzate per identificare e formare temi a partire dai tuoi input. Questi modelli linguistici di grandi dimensioni generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI e dei modelli di Anthropic. Per ulteriori informazioni sui modelli linguistici open source, vedere le informazioni su Multi-QA-MiniLM e E5-Multilingual. |
Questa funzionalità aiuta amministratori e agenti a individuare le lacune nella loro knowledge base analizzando le richieste di assistenza ricevute nel quadro di un progetto. Essa evidenzia chiaramente i temi su quali gli utenti in cerca di assistenza fanno domande (in base ai dati degli ultimi 30 giorni) ma relativamente ai quali non esistono informazioni. Suggerendo dei temi vogliamo dare agli amministratori e agli agenti del progetto un'idea del numero di richieste che possono essere eliminate o almeno risolte con le informazioni della knowledge base. Riteniamo che l'aumento del numero di articoli informativi influirà sull'efficacia di altre funzionalità di Jira Service Management, come le risposte IA dell'assistente virtuale del servizio. Gli articoli creati da amministratori e agenti sui temi suggeriti possono anche contribuire ad aumentare la percentuale di richieste risolte utilizzando le risposte IA. Riteniamo che la funzionalità temi suggeriti funzioni meglio nel caso in cui:
|
È importante ricordare che, per effetto del modo in cui funzionano i modelli che supportano la funzione temi suggeriti, essi possono talvolta rivelarsi imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che i temi suggeriti della knowledge base sono meno utili se:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Sappiamo che potresti avere delle domande sul modo in cui la funzionalità temi suggeriti utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center. Elaboriamo:
Per quanto riguarda i tuoi dati, la funzione temi suggeriti della knowledge base applica le seguenti misure. I tuoi temi suggeriti nella knowledge base:
|
Search content in Confluence
Searching Confluence content using Atlassian Intelligence is powered by large language models developed by OpenAI and Google. These large language models include OpenAI’s GPT series of models and Google’s Gemini series of models. Atlassian Intelligence uses these models to analyze and generate natural language, then translates it to CQL (Confluence Query Language) code within our products. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle capacità dei modelli di OpenAI. |
You can now ask Atlassian Intelligence for the content you want to find in Confluence using everyday language instead of coming up with complex queries. With the help of Atlassian Intelligence, your prompt is translated into a CQL query which quickly assists you in your search for specific content. We believe that Searching Confluence content using Atlassian Intelligence works best in scenarios where:
|
It’s important to remember that because of the way that the models used to power Searching Confluence content using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. We’ve found that Searching Confluence content using Atlassian Intelligence is less useful in scenarios where:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. You might also want to think about being as specific as possible in what you ask Atlassian Intelligence to do. Make sure to include the exact fields and values that you’re looking for. |
We understand you may have questions about how Searching Confluence content using Atlassian Intelligence uses your data. This section supplements the information available on our Trust Center. Elaboriamo:
When it comes to your data, Searching Confluence content using Atlassian Intelligence applies the following measures.
|
Scopri di più su Atlassian Intelligence
Ottieni informazioni utili dai dati
Seleziona una funzionalità di Atlassian Intelligence di seguito per avere una panoramica dettagliata dei casi d'uso e dell'utilizzo dei dati.
Chart Insights
La generazione di chart insights è basata su modelli linguistici di grandi dimensioni sviluppati da OpenAI, Google e Anthropic, su una combinazione di modelli linguistici di grandi dimensioni open source (tra cui la serie Llama, la serie Phi e la serie Mixtral) e su altri modelli di machine learning. Questi modelli linguistici di grandi dimensioni includono la serie di modelli GPT di Open AI, la serie di modelli Gemini di Google e la serie di modelli Claude di Anthropic. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle funzionalità dei modelli di OpenAI, dei modelli di Google e dei modelli di Anthropic. Per ulteriori informazioni sui modelli di linguaggio open source, vedi le informazioni sulla serie Llama e sulla serie Phi. |
Chart Insights utilizza Atlassian Intelligence per aiutarti ad accelerare la comprensione dei dati in qualsiasi grafico di Atlassian Analytics. Lo fa utilizzando il titolo della dashboard, il titolo del grafico e i dati del grafico (comprese le intestazioni delle colonne e i valori delle righe) per generare un riepilogo del grafico e dei relativi dati con un linguaggio naturale. Questo strumento mirerà, inoltre, a identificare eventuali tendenze o anomalie per fornire determinate informazioni sul grafico. Riteniamo che Chart Insights funzioni meglio nei casi in cui:
I grafici a barre, i grafici a linee e i grafici a barre e linee sono più indicati per questa funzione poiché, in genere, hanno tendenze, date e molte righe di dati. |
È importante ricordare che, per effetto del modo in cui opera Chart Insights, i modelli alla base di questa funzione possono talvolta presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che Chart Insights è meno utile in scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Sappiamo che potresti avere domande su come Chart Insights utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, Chart Insights applica le misure seguenti.
|
Suggerisci i tipi di richiesta in Jira Service Management
Suggerisci i tipi di richiesta utilizzando Atlassian Intelligence, che si basa sui modelli linguistici di grandi dimensioni sviluppati da OpenAI. Questi modelli linguistici includono la serie di modelli GPT di OpenAI. Atlassian Intelligence utilizza questi modelli per analizzare gli input in linguaggio naturale e generare consigli per i nomi e le descrizioni dei tipi di richiesta per te all'interno di Jira Service Management. Questi modelli generano risposte in base ai tuoi input e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. Leggi di più sulle capacità dei modelli di OpenAI. |
Dedica meno tempo a capire che tipo di richiesta devi creare per il progetto e ricevi invece suggerimenti da Atlassian Intelligence. Per vedere quali tipi di richieste potresti creare è sufficiente descrivere il tuo lavoro e ciò che il tuo team gestisce di solito. Seleziona uno dei suggerimenti generati da Atlassian Intelligence per creare un tipo di richiesta. Scopri di più su come utilizzare Atlassian Intelligence per suggerire tipi di richieste. Riteniamo che l'utilizzo di Atlassian Intelligence per suggerire tipi di richiesta funzioni meglio quando:
|
È importante ricordare che i modelli utilizzati per suggerire tipi di richiesta mediante Atlassian Intelligence a volte possono presentare comportamenti imprecisi, incompleti o inaffidabili a causa del modo in cui funzionano. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che l'utilizzo di Atlassian Intelligence per suggerire tipi di richiesta è meno utile in scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. Altri fattori da considerare:
|
Sappiamo che potresti avere domande su come vengono utilizzati i tuoi dati da Atlassian Intelligence per suggerire i tipi di richiesta. Questa sezione integra le informazioni disponibili nella nostra pagina delle domande frequenti. Elaboriamo:
Per quanto riguarda i tuoi dati, nell'ambito dell'utilizzo di Atlassian Intelligence per suggerire i tipi di richiesta si applicano le seguenti misure.
|
Suggerisci i tipi di richiesta in Jira Service Management
La funzione Focus Area Executive Summary si basa su modelli linguistici estesi sviluppati da OpenAI. Sono inclusi i modelli OpenAI descritti qui. Atlassian Intelligence utilizza questi modelli per analizzare e generare un linguaggio naturale all'interno dei nostri prodotti. Questi modelli generano risposte in base agli input forniti dall'utente e sono di natura probabilistica. Ciò significa che le loro risposte vengono generate prevedendo la parola o il testo successivo più probabile, in base ai dati su cui sono stati formati. |
Focus Area Executive Summary uses Atlassian Intelligence to provide a quick, actionable summary of your focus area, including the work that’s in progress, the health of connected goals, suggestions for where to pay attention, and recommendations to remediate any work items. Focus Area Executive Summary funziona al meglio quando:
|
È importante ricordare che, per effetto del modo in cui operano, i modelli alla base della funzione Focus Area Executive Summary possono a volte presentare comportamenti imprecisi, incompleti o inaffidabili. Ad esempio, le risposte che ricevi potrebbero non riflettere con precisione i contenuti su cui si basano o potrebbero includere contenuti che sembrano ragionevoli ma sono incompleti o non affidabili. Abbiamo scoperto che Focus Area Executive Summary è meno utile negli scenari in cui:
Per questo motivo, ti invitiamo a pensare alle situazioni in cui usi Atlassian Intelligence e a verificare la qualità delle risposte che ricevi prima di condividerle con gli altri. |
Sappiamo che potresti avere domande su come Focus Area Executive Summary utilizza i tuoi dati. Questa sezione integra le informazioni disponibili nell'Atlassian Trust Center. Elaboriamo:
Per quanto riguarda i tuoi dati, Focus Area Executive Summary applica le misure seguenti.
|
Scopri di più su Atlassian Intelligence
Riferimenti
Ricevi aggiornamenti in tempo reale sullo stato dei prodotti Atlassian nella nostra pagina di stato dedicata.
Scopri di più su Atlassian Intelligence
Scopri come Atlassian gestisce i dati dei clienti.