Close
Logotipo da IA da Atlassian.

O Atlassian Intelligence e o Rovo foram criados para proporcionar transparência

Compromisso sem papo furado com a comunicação aberta e a imputabilidade, bem como de ajudar as equipes a usar o AI com responsabilidade.

Rovo

Selecione uma das funções do Rovo abaixo para ter uma visão transparente do uso de dados e dos casos de uso.

Como o Agente Rovo usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Os Agentes Rovo contam com a tecnologia dos grandes modelos de linguagem desenvolvidos pela OpenAI e Google, além de uma combinação de grandes modelos de linguagem open source (incluindo a série Llama) e outros de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI e a série Gemini do Google.

Com esses modelos, os Agentes Rovo fornecem funcionalidades para analisar e gerar respostas aos prompts em linguagem natural e fornecer respostas relevantes da Atlassian e de produtos de terceiros conectados.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI e do Google. Para saber mais sobre modelos de linguagem de código aberto, consulte as informações sobre a série Llama.

Sobre os Agentes Rovo Copy link to heading Copied! Exibir
  

Com o Rovo, fornecemos vários Agentes prontos para serem usados em diversas tarefas, como ajudar na tomada de decisões, publicar documentação de conhecimento e arrumar ou organizar itens de trabalho no Jira. Os Agentes são colegas de equipe especializados criados por inteligência artificial que podem ajudar equipes humanas a avançarem com o trabalho de forma rápida e eficaz.

Você pode:

  • Criar seus próprios Agentes usando linguagem natural e personalize as instruções, conhecimentos e ações
  • Criar seus próprios Agentes usando código (Forge) para ter integrações mais avançadas com as ferramentas internas da sua organização
  • Para instalar Agentes, use aplicativos criados por desenvolvedores terceirizados do Marketplace, clientes e parceiros da Atlassian, que geralmente são Agentes mais sofisticados criados usando código (Forge).

Acreditamos que os Agentes Rovo funcionam melhor em cenários em que:

  • Um Agente automatizaria com facilidade uma tarefa repetitiva ou mecânica. Saiba mais sobre automações
  • Você quer gerar ideias ou esboçar um conteúdo com o qual trabalhar
  • Você quer buscar informações específicas com agilidade
Limitações e considerações ao usar Agentes Rovo Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como funcionam os modelos que os Agentes Rovo usam, às vezes eles podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que os Agentes Rovo são menos úteis em cenários em que:

  • Você precisa de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa de informações às quais não tem acesso no espaço de trabalho.
  • Você precisa de resultados muito consistentes e regulares que não estejam sujeitos a qualquer variação, pois as respostas podem variar por vários motivos, incluindo permissões de usuário.
  • Não há humanos envolvidos. Os agentes funcionam melhor com um humano verificando e orientando o resultado pretendido.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Ser o mais específico possível sobre o que você pede para o Atlassian Intelligence ou o Rovo fazer.
  • Ler guias de melhores práticas sobre como escrever prompts para agentes.
  • Encontrar formas eficientes ou testadas de incorporar agentes à sua equipe. Você pode ver como outras pessoas da sua equipe estão usando os agentes visualizando os perfis dos agentes.
Seus dados e Agentes Rovo Copy link to heading Copied! Exibir
  

A gente entende que você pode ter perguntas sobre como os Agentes Rovo usam seus dados. Esta seção complementa as informações disponíveis no Trust Center.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto da instância relevante para o prompt, como uma página do Confluence, um ticket do Jira ou um documento de um produto de terceiros. Se você usa os Agentes no Chat Rovo por meio da extensão do navegador Chrome, essa ação inclui a página pública ou o Google Doc que você abriu.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de dados, os Agentes Rovo aplicam as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI ou Google.
    • Não são armazenados por qualquer provedor de LLM terceirizado.
    • Não são usados para melhorar nenhum modelo grande de linguagem.
    • São usadas apenas para a sua experiência.
  • A OpenAI é um subprocessador da Lista de subprocessadores da Atlassian. Eles usam os dados de entrada e de saída apenas para processar a solicitação.
  • Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página do Confluence, o conteúdo dessa página não vai ser sugerido para você na resposta recebida. Se você não quer que seu conteúdo seja disponibilizado nas respostas para outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada.

Os dados acima se aplicam aos agentes oferecidos pela Atlassian. Para obter mais informações sobre os agentes oferecidos pela Atlassian, consulte as diretrizes de dados, privacidade e uso do Rovo | Rovo | Suporte da Atlassian. Para obter informações sobre agentes oferecidos por terceiros, consulte os Termos do Fornecedor oferecidos por esses terceiros para seus aplicativos.

Leia mais sobre o Atlassian Intelligence

Descubra mais sobre como usar o Atlassian Intelligence

Saiba mais sobre agentes em automações

Como o Chat Rovo usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

O Chat Rovo conta com a tecnologia dos grandes modelos de linguagem desenvolvidos pela OpenAI e Google, além de uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama) e outros de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI e a série Gemini do Google.

O Chat Rovo usa esses modelos para analisar e gerar respostas aos prompts usando linguagem natural e fornecer respostas relevantes da Atlassian e de produtos de terceiros conectados.

As respostas são geradas por esses grandes modelos de linguagem com base em suas entradas e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais os modelos foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI e do Google. Para saber mais sobre modelos de linguagem de código aberto, consulte as informações sobre a série Llama.

Casos de uso do Chat Rovo Copy link to heading Copied! Exibir
  

Com o Chat Rovo, você acessa o conhecimento da sua organização em uma interface conversacional. Assim, pode pedir ao Rovo que escreva, leia, revise ou crie o que você quiser da mesma forma que faria com uma pessoa, sem interromper seu fluxo de trabalho. O Chat entende o contexto do seu trabalho (tanto na Atlassian quanto em seus produtos de terceiros conectados) para responder perguntas ou fornecer ideias ou insights.

Acreditamos que o Chat Rovo funciona melhor em cenários em que:

  • Sua organização quer oferecer aos usuários uma maneira fácil e conversacional de acessar o conhecimento dela, com base nas permissões de acesso de cada usuário.
  • Você prefere uma interface de conversação ao fazer tarefas como criar páginas ou tickets do Jira, encontrar partes interessadas ou descobrir informações relevantes para seu trabalho.
  • Você gostaria de ajuda para refinar sua escrita.
  • Você gostaria de ajuda para entender páginas de conhecimento longas ou complexas.
  • Você gostaria de ajuda para encontrar lacunas ou áreas de melhoria nos tickets do Jira ou nas páginas do Confluence.

O Chat Rovo também pode ser acessado pelos usuários por meio de uma extensão do navegador Chrome. Saiba mais sobre como acessar o Rovo Chat aqui e aqui.

Considerações ao usar o Chat Rovo Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como funcionam os modelos que essa função usa, às vezes eles podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que o Chat Rovo é menos útil em cenários em que:

  • Você necessita de informações determinantes, absolutas e precisas sobre pessoas, lugares e fatos.
  • Você precisa de informações às quais não tem acesso no espaço de trabalho.
  • Você precisa fazer perguntas e receber respostas em outros idiomas além do inglês.

Por isso, a gente sugere que você pense sobre as situações em que usa o Chat Rovo e analise a qualidade das respostas recebidas antes de compartilhar os resultados com outras pessoas.

Também considere:

  • Ser o mais específico possível sobre o que você pede para o Chat Rovo fazer. Por exemplo, você pode incluir em sua solicitação pessoas, páginas, projetos, horários ou outro contexto específico relevante à sua pergunta, ou adicionar esclarecimentos em suas conversas de acompanhamento com o Chat Rovo. Veja dicas para escrever prompts para o Chat.
  • Reservar um tempo para refinar seus prompts e interagir um pouco com o Chat Rovo para obter melhores resultados.
Seus dados e o Chat Rovo Copy link to heading Copied! Exibir
  

A gente entende que você pode ter dúvidas sobre como o Chat Rovo usa seus dados. Esta seção complementa as informações disponíveis no Trust Center.

O que é processado:

As solicitações (dados de entrada) e respostas (dados de saída).

  • Contexto da instância relevante para o prompt, como uma página do Confluence, um ticket do Jira ou um documento de um produto de terceiros. Se você usa o Chat Rovo por meio da extensão do navegador Chrome, essa ação inclui a página pública ou o Google Doc que você abriu.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de dados, o Chat Rovo aplica as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI ou Google.
    • Não são armazenados por qualquer provedor de LLM terceirizado.
    • Não são usados para melhorar nenhum modelo grande de linguagem.
    • São usadas apenas para a sua experiência.
    • São retidos no histórico do bate-papo por 28 dias para que você possa voltar e consultar conversas anteriores.

A OpenAI é um subprocessador da Lista de subprocessadores da Atlassian. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar ou intervir nas solicitações.

Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página do Confluence, o conteúdo dessa página não vai ser sugerido para você na resposta recebida. Se você não quer que seu conteúdo seja disponibilizado nas respostas para outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada.

Quando você acessa o Chat Rovo pela extensão do navegador Chrome, ele só lê o conteúdo da página da web que você está visualizando para complementar o conteúdo que já está em seus produtos Atlassian. Nenhum dado adicional da página da web é armazenado.

Leia mais sobre o Atlassian Intelligence

Descubra mais sobre como usar o Atlassian Intelligence

Saiba mais sobre como usar o Chat Rovo

Saiba mais sobre a extensão do navegador

Como a Pesquisa Rovo usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

A Pesquisa Rovo usa inteligência artificial para aprimorar a capacidade de pesquisa nas ferramentas da Atlassian e de terceiros.

A Pesquisa Rovo conta com a tecnologia dos grandes modelos de linguagem desenvolvidos pela OpenAI e Google, além de uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama) e outros de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI e a série Gemini do Google.

A Pesquisa Rovo usa esses modelos para oferecer funcionalidades como pesquisa semântica, classificação por relevância e processamento de linguagem natural. Esse processo inclui análise e geração de respostas às expressões de pesquisa em linguagem natural e oferecimento de respostas relevantes dos produtos Atlassian e de terceiros.

Respostas são geradas por esses grandes modelos de linguagem com base nas entradas e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI e do Google. Para saber mais sobre modelos de linguagem de código aberto, consulte as informações sobre a série Llama.

Casos de uso da Pesquisa Rovo Copy link to heading Copied! Exibir
  

A Pesquisa Rovo permite que os usuários façam pesquisas em várias ferramentas e plataformas, incluindo tanto produtos Atlassian quanto os de terceiros, e oferece resultados contextuais e relevantes para aprimorar a colaboração e a produtividade da equipe.

Acreditamos que a Pesquisa Rovo funciona melhor em cenários em que:

  1. Você precisa fazer pesquisas em vários produtos Atlassian (como Jira e Confluence) e de terceiros (como Google Drive e SharePoint) em uma única interface, sem trocar de contexto.
  2. Suas equipes precisam de acesso rápido a informações relevantes de diferentes fontes para economizar o tempo que gastariam pesquisando em uma fonte por vez.
  3. Você quer que a pesquisa apresente resultados com base no que seus usuários têm permissão para acessar.
Considerações ao usar a Pesquisa Rovo Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como funcionam os modelos usados para alimentar essa função, às vezes eles podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que a Pesquisa Rovo é menos útil em cenários em que:

  • Sua equipe usa mais um único produto ou plataforma e não exige capacidade de pesquisa em várias plataformas.
  • Sua organização está usando ferramentas de terceiros muito especializadas ou "nichadas" que não são aceitas pelos conectores do Rovo.
  • Você tem equipes ou projetos pequenos com necessidades mínimas de dados e documentação.

Por isso, a gente sugere que você pense sobre as situações em que usa o Rovo e analise a qualidade das respostas recebidas antes de compartilhar os resultados com outras pessoas.

Também considere:

  • Antes de conectar um produto de terceiros, você deve verificar as permissões configuradas para ele. A Pesquisa Rovo respeita as permissões, mas talvez seja necessário definir as permissões apropriadas para seu espaço ou conteúdo.
  • Ao pesquisar, esteja ciente de que os resultados diferem de um usuário para o outro, pois o Rovo respeita as permissões e a Pesquisa inclui resultados aos quais apenas o usuário atual tem acesso.
  • A Pesquisa Rovo é capaz de apresentar resultados aprimorados para pessoas e equipes se você sincronizar seu organograma com a Página inicial da Atlassian.
  • Incentivar sua equipe não apenas a pesquisar palavras-chave, mas também a fazer perguntas (por exemplo, “Quem é fulana?” ou “Qual é a política de férias?”) enquanto usa a Pesquisa Rovo.
Seus dados e a Pesquisa Rovo Copy link to heading Copied! Exibir
  

A gente entende que você pode ter dúvidas sobre como a Pesquisa Rovo usa seus dados. Esta seção complementa as informações disponíveis no Trust Center.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto da instância relevante para o seu prompt, como conteúdo de documentos de seus produtos Atlassian e de terceiros, permissões de documentos e metadados de arquivos.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de dados, a Pesquisa Rovo aplica as seguintes medidas.

  • Seus prompts e respostas:
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI ou Google.
    • Não são armazenados por qualquer provedor de LLM terceirizado.
    • Não são usados para melhorar nenhum modelo grande de linguagem.
    • São usadas apenas para a sua experiência.
  • A OpenAI é um subprocessador da Lista de subprocessadores da Atlassian. Eles usam os dados de entrada e de saída apenas para processar a solicitação.
  • A Pesquisa Rovo segue as permissões em seus produtos.
    • Os dados são armazenados no índice de pesquisa em nuvem e no sistema de armazenamento de entidades da Atlassian. A Pesquisa Rovo se sincroniza com os dados da lista de controle de acesso (ACL) de produtos de terceiros e produtos da Atlassian para garantir que os usuários vejam apenas o conteúdo com acesso permitido.
    • Por exemplo, se você não tiver acesso a uma página privada do Confluence ou a um documento do Google Drive, esse conteúdo não vai ser sugerido na resposta recebida. Se você não quer que seu conteúdo seja disponibilizado nas respostas para outros usuários nos seus produtos de terceiros ou da Atlassian, trabalhe com o administrador da organização para garantir que as permissões sejam configuradas conforme suas preferências.
  • A Atlassian pode armazenar expressões de pesquisa para melhorar a experiência de pesquisa dos usuários. Como acontece com todos as funções do Atlassian Intelligence e do Rovo, suas consultas não são usadas para treinar modelos entre clientes.
  • A gente tomou como base a exclusão de conteúdo e atualizou o índice Rovo com as alterações. Por exemplo, depois que o índice do Rovo for atualizado, o conteúdo excluído de um produto de terceiros não vai aparecer nos resultados do Rovo. Saiba mais sobre o uso de dados do Rovo.

Leia mais sobre o Atlassian Intelligence

O que é o Atlassian Intelligence? | Suporte da Atlassian

Rovo: adquira conhecimento organizacional com a inteligência artificial generativa | Atlassian

Automação usando o Atlassian Intelligence

Como o ChatOps do AI para gerenciamento de incidentes usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

As funções do ChatOps do AI para gerenciamento de incidentes têm a tecnologia dos grandes modelos de linguagem (LLM) desenvolvidos pela OpenAI. Elas também são baseadas em uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama e Phi) e outros de aprendizado de máquina. Esses LLMs incluem a série de modelos GPT da OpenAI.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI ou sobre essa abordagem nos artigos da empresa. Para saber mais sobre modelos de linguagem open source, consulte as informações sobre as séries Llama e Phi.

Casos de uso do ChatOps do AI para gerenciamento de incidentes Copy link to heading Copied! Exibir
  

Com o ChatOps do IA para gerenciamento de incidentes, seus usuários podem agilizar o processo de resolução de incidentes. Essa funcionalidade é possível porque a ferramenta gera um resumo do incidente relevante e de todas as conversas associadas até o momento e o fornece para novos usuários quando eles são adicionados ao canal do Slack. Esse canal está vinculado ao ticket do incidente no Jira Service Management. Além disso, o ChatOps do IA para gerenciamento de incidentes registra no Jira Service Management as conversas que ocorrem no Slack como uma linha do tempo para referência futura.

O ChatOps do AI para gerenciamento de incidentes funciona melhor nestes cenários:

  • Sua organização usa o Slack como a principal ferramenta de colaboração na triagem e resolução de incidentes.
  • Sua organização segue um protocolo de documentação de conversas relacionadas a incidentes dentro do ticket do incidente no Jira Service Management.

Considerações ao usar o ChatOps do AI para gerenciamento de incidentes Copy link to heading Copied! Exibir
  

Por conta da maneira como os modelos costumavam alimentar o trabalho do ChatOps do AI para gerenciamento de incidentes, esses modelos podem ser imprecisos, incompletos e não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que parece razoável, mas é falso ou está incompleto.

O ChatOps do AI para gerenciamento de incidentes é menos útil nestes cenários:

  • Você precisa de informações atuais e precisas sobre pessoas, lugares e fatos.

  • Você não usa o Slack como a principal ferramenta de colaboração da organização na triagem e resolução de incidentes.

  • Sua equipe não tem acesso ao ticket do incidente no Jira Service Management ou ao canal do Slack vinculado ao ticket que está passando por triagem.

Por isso, sugerimos que você considere as situações em que usa o ChatOps do AI para gerenciamento de incidentes e analise a qualidade das respostas recebidas antes de compartilhar com outras pessoas.

Também vale a pena verificar as permissões para garantir que os usuários tenham os níveis adequados de acesso aos canais do Slack e tickets de incidente relevantes.

Seus dados e o ChatOps do AI para gerenciamento de incidentes Copy link to heading Copied! Exibir
  

Entendemos que você pode ter dúvidas sobre como o ChatOps do AI para gerenciamento de incidentes usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto da sua instância relevante para o comando, como dados de incidente e mensagens nos canais conectados do Slack.

  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.

  • Feedback que você fornece sobre essa função, incluindo os comandos e respostas compartilhados com ele.

Quando se trata dos seus dados, o ChatOps do AI para gerenciamento de incidentes aplica as seguintes medidas:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI.
    • Não são armazenadas pela OpenAI.
    • Não são usados para melhorar o OpenAI nem qualquer outro provedor externo de LLM.
    • São usadas apenas para a sua experiência.
  • A OpenAI aparece como subprocessadora na nossa página Subprocessadores. Os subprocessadores não usam as entradas e saídas para nenhuma finalidade além de processar a solicitação.
  • Essa função tem as mesmas permissões do seu produto. Por exemplo, se você não tem acesso a um ticket de incidente, não vai encontrar contexto suficiente sobre ele ao usar o ChatOps do IA para gerenciamento de incidentes. Se você não quer que seu conteúdo seja disponibilizado nas respostas a outros usuários do produto, trabalhe com o administrador da organização para garantir a definição apropriada das permissões de acesso da sua equipe.
Como os rascunhos de IA usam o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Rascunhos de IA utilizam grandes modelos de linguagem desenvolvidos pela OpenAI e pela Anthropic, bem como pela combinação de modelos de linguagem de código aberto baseados em transformadores e outros modelos de aprendizado de máquina. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI e a série de modelos Claude da Anthropic.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Os modelos de codificador de open-source convertem as entradas textuais em formas numéricas (incorporações) que são usadas para identificar e formar tópicos a partir de suas entradas.

Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI e da Anthropic. Para saber mais sobre modelos de linguagem de código aberto, consulte as informações sobre modelos de incorporação.

Casos de uso para rascunhos de IA Copy link to heading Copied! Exibir
  

Os rascunhos de IA sugerem rascunhos pré-gerados de artigos de conhecimento para seus administradores e agentes avaliarem. Essa função gera rascunhos para os tickets mais comuns em um projeto do Jira Service Management, usando as informações e comentários nos tickets desse projeto.

Essa ação permite que suas equipes de serviço aumentem a cobertura dos artigos da sua base de conhecimento com mais rapidez e facilidade, o que, por sua vez, vai beneficiar o desempenho de outras funções no Jira Service Management. Por exemplo, artigos de conhecimento criados usando rascunhos de IA podem então ser usados pela função de respostas do AI do agente de serviço virtual para resolver solicitações de seus solicitantes de ajuda com mais facilidade e rapidez.

Leia mais sobre as respostas do AI no agente de serviço virtual.

A gente acredita que os rascunhos de IA funcionam melhor em cenários em que:

  • Seu projeto recebe mais de 40 solicitações em qualquer mês. Projetos com menos de 40 solicitações podem não incluir informações suficientes para gerar rascunhos de IA.
  • O conteúdo dos tickets, como resumo, descrição e outros campos, em geral está em inglês. A qualidade dos rascunhos de IA pode variar em outros idiomas.
Considerações ao usar rascunhos de IA Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como funcionam os modelos usados para alimentar os rascunhos de IA, às vezes eles podem apresentar um comportamento impreciso, incompleto e não confiável.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que os rascunhos de IA são menos úteis em cenários em que:

  • Seu projeto recebe menos de 40 solicitações em um mês.
  • O projeto cria solicitações de imediato a partir de alertas, pois elas podem não exigir um artigo da base de conhecimento, mas essa função ainda vai sugerir rascunhos de IA para você em relação a essas solicitações.
  • Você precisa de rascunhos para tickets em que o conteúdo esteja em outros idiomas além do inglês.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • A implementação de medidas garante que os membros da sua equipe revisem com atenção os rascunhos de IA antes de prosseguir com a criação de artigos de conhecimento com base neles
  • Pedido aos administradores do projeto para identificarem especialistas em suas equipes que vão ser responsáveis por revisar e editar rascunhos de IA para manter artigos de alta qualidade na base de conhecimento
Seus dados e rascunhos de IA Copy link to heading Copied! Exibir
  

A gente entende que você pode ter dúvidas sobre como os rascunhos de IA usam seus dados. Esta seção complementa as informações disponíveis no Trust Center.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto da sua instância relevante para a função como, por exemplo, dados em um ticket, como valores de campo, resumo e descrição, para gerar rascunhos usando o Atlassian Intelligence.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de seus dados, os rascunhos de IA aplicam as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI ou a Anthropic no AWS Bedrock.
    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar nenhum LLMs de terceiros.
    • São usadas apenas para a sua experiência.
  • A OpenAI e o AWS Bedrock são, cada um, um subprocessador da lista de subprocessadores da Atlassian. Eles usam os dados de entrada e de saída apenas para processar a solicitação.
  • A gente só processa tickets acessíveis a todos no projeto de serviço no seu site. Qualquer problema com as permissões de tickets aplicadas não é considerado para gerar rascunhos.
  • A gente atualiza os rascunhos de IA a cada 7 dias para garantir que o conteúdo esteja em dia.
Como os resumos de IA nos cartões de hub da empresa usam o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Resumos de IA em cartões de hub da empresa usam grandes modelos de linguagem desenvolvidos pela OpenAI. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI.

Casos de uso para resumos de IA em cartões de hub da empresa Copy link to heading Copied! Exibir
  

Os resumos de IA nos cartões de hub da empresa ajudam você a preencher e publicar com rapidez seu hub da empresa, sugerindo descrições geradas pela IA para os cartões. Essa função usa o Atlassian Intelligence para gerar um resumo da página vinculada do Confluence ou blog para seu cartão de hub da empresa.

A gente acredita que os resumos de IA nos cartões de hub da empresa funcionam melhor em cenários em que:

  • Você gosta de usar cartões de hub da empresa no Confluence para vincular conteúdos com muito texto.
  • Você está procurando um resumo conciso do conteúdo com muito texto do Confluence para ser exibido nas descrições dos cartões do Confluence.
Considerações ao usar resumos de IA em cartões de hub da empresa Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como funcionam os modelos usados para alimentar os resumos de IA nos cartões de hub da empresa, às vezes eles podem apresentar um comportamento impreciso, incompleto e não confiável.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que os resumos de IA nos cartões de hub da empresa são menos úteis em cenários em que:

  • Você precisa de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa de um resumo de uma página muito curta do Confluence em que não há conteúdo suficiente para gerar um resumo útil.
  • Você precisa de um resumo de uma página do Confluence em que a maior parte do conteúdo está em tabelas ou se expande.
  • Você precisa de um resumo de uma página do Confluence com a maior parte do conteúdo em macros.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Seus dados e resumos de IA nos cartões de hub da empresa Copy link to heading Copied! Exibir
  

A gente entende que você pode ter dúvidas sobre como os resumos de IA nos cartões de hub da empresa usam seus dados. Esta seção complementa as informações disponíveis no Trust Center.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • O contexto de sua instância é relevante para sua solicitação, assim como o conteúdo da página do Confluence que você deseja resumir.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata dos seus dados, os resumos de IA nos cartões de hub da empresa aplicam as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não são disponibilizadas para outros clientes.
    • Não são enviadas para nenhum provedor de LLM terceirizado que não seja a OpenAI.
    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar grandes modelos de linguagem.
    • São usadas apenas para a sua experiência.
  • A OpenAI é um subprocessador da Lista de subprocessadores da Atlassian. Eles usam os dados de entrada e de saída apenas para processar a solicitação.
  • Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma página do Confluence, não vai poder usar essa função para recuperar um resumo usando o Atlassian Intelligence. Se você não quiser que o conteúdo seja disponibilizado para outros usuários na instância, trabalhe com o administrador da organização para garantir a definição adequada das permissões.
Como os recursos relacionados do AI usam o Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Os recursos relacionados do AI têm a tecnologia dos LLMs desenvolvidos pela OpenAI e de uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama e Phi) e outros de aprendizado de máquina. Esses LLMs incluem a série de modelos GPT da OpenAI.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural nos nossos produtos e para fornecer respostas relevantes da Atlassian e de produtos externos conectados.

Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI ou sobre essa abordagem nos artigos da empresa. Para saber mais sobre modelos de linguagem open source, consulte as informações sobre as séries Llama e Phi.

Casos de uso dos recursos relacionados do AI Copy link to heading Copied! Mostrar
  

Com o Atlassian Intelligence, seus usuários podem acelerar o processo de resolução de incidentes consultando uma lista sugerida de recursos. Esse recurso inclui artigos e espaços da base de conhecimento vinculada, tickets do Jira e, caso seja cliente Rovo, produtos externos integrados ao Rovo. Leia mais sobre o Rovo e ferramentas externas.

Os recursos relacionados do AI funcionam melhor nestes cenários:

  • Sua organização tem muita documentação nos espaços da base de conhecimento vinculada e ferramentas externas conectadas que são relevantes e úteis para resolver incidentes.

  • Durante a triagem, sua equipe precisa de acesso rápido aos recursos que podem ser relevantes para o incidente.

Considerações ao usar os recursos relacionados do AI Copy link to heading Copied! Mostrar
  

Por conta da maneira como os modelos costumavam alimentar os recursos relacionados do AI, esses modelos podem ser imprecisos, incompletos e não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que parece razoável, mas é falso ou incompleto.

Os recursos relacionados do AI são menos úteis nestes cenários:

  • Você precisa de informações atuais e precisas sobre pessoas, lugares e fatos.

  • Você precisa dos recursos relacionados do AI para acessar informações que não estão disponíveis na hora (por exemplo, documentos restritos do Confluence, como páginas de acesso limitado) para receber uma resposta apropriada para sua solicitação.

  • Você tem o mínimo de documentação disponível na sua configuração que o Atlassian Intelligence pode usar para sugerir recursos relacionados.

Por isso, sugerimos que você considere as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar com outras pessoas.

Também vale a pena pensar no seguinte:

  • Analisar as permissões para garantir que os usuários tenham níveis adequados de acesso à documentação relevante e a recursos de ferramentas externas (como canais do Slack).

  • Analisar e confirmar que a documentação da organização está completa, atualizada e precisa.

Seus dados e os recursos relacionados do AI Copy link to heading Copied! Mostrar
  

Entendemos que você pode ter dúvidas sobre como os recursos relacionados do AI usam seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto da sua instância relevante para o comando, como dados do incidente e de alertas, documentação nos seus produtos Atlassian e ferramentas externas conectadas, como os Documentos Google.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você fornece sobre essa função, incluindo os comandos e respostas compartilhados com ele.

Quando se trata dos seus dados, os recursos relacionados do AI aplicam as seguintes medidas:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI.
    • Não são usados para melhorar a OpenAI e qualquer outro provedor externo de LLM.
    • Não são usados para melhorar o OpenAI nem qualquer outro provedor externo de LLM.
    • São usadas apenas para a sua experiência.
  • A OpenAI aparece como subprocessadora na nossa página Subprocessadores. Os subprocessadores não usam as entradas e saídas para nenhuma finalidade além de processar a solicitação.
  • Essa função tem as mesmas permissões do seu produto. Por exemplo, se você não tem acesso a uma determinada página do Confluence, não vai encontrar essa página na lista de recursos relacionados. Se você não quer que seu conteúdo seja disponibilizado nas respostas a outros usuários do produto, trabalhe com o administrador da organização para garantir a definição apropriada das permissões de acesso.
Como as sugestões de IA no Jira Service Management usam o Atlassian Intelligence Copy link to heading Copied! Exibir
  

As sugestões de IA no Jira Service Management são baseadas em grandes modelos de linguagem desenvolvidos pela OpenAI e outros modelos de aprendizado de máquina. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos grandes de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI.

Casos de uso para sugestões de IA no Jira Service Management Copy link to heading Copied! Exibir
  

Com as sugestões de IA no Jira Service Management, a equipe pode se atualizar logo reunindo um contexto importante sobre as solicitações de serviço e incidentes em um piscar de olhos. O Atlassian Intelligence ajuda a equipe a:

  • Para solicitações de serviço, entenda um breve resumo do ticket, as informações do relator a respeito deste e uma lista de etapas sugeridas que podem ajudar os agentes na resolução. O Atlassian Intelligence também sugere maneiras pelas quais a equipe pode atualizar as solicitações de serviço com base nesse contexto, como alterar a prioridade ou adicionar um responsável.
  • Para incidentes, entenda um breve resumo do ticket e as informações da provável causa raiz. O Atlassian Intelligence também sugere maneiras pelas quais a equipe pode atualizar incidentes com base nesse contexto, como identificar um incidente como grave, adicionar socorristas ou serviços afetados, alterar a gravidade ou prioridade ou investigar o problema criando um ticket.

As sugestões de IA no Jira Service Management também podem recomendar que os agentes escalem uma solicitação ou incidente quando o SLA aplicável estiver prestes a ser violado. No caso de solicitações de serviço, essa função também pode sugerir que os agentes escalem essa solicitação quando os modelos usados para alimentar essas sugestões identificarem, com base no texto dos comentários do relator, um senso de urgência ou raiva com essa solicitação.

A gente acredita que as sugestões de IA no Jira Service Management funcionam melhor em cenários em que:

  • Os projetos recebem muitas solicitações ou incidentes semelhantes.
  • A organização já registra solicitações de serviço e incidentes no Jira Service Management com informações completas, precisas e atualizadas.
  • Os perfis de usuário dos membros da equipe foram preenchidos com informações sobre funções, departamentos e locais.
  • Os clientes e os membros da equipe mantêm um registro escrito de todas as conversas adicionando comentários sobre os tickets.
  • Os projetos incluem várias solicitações de serviço ou incidente de cada tipo que costuma ser encontrado pelas equipes.
Considerações ao usar sugestões de IA no Jira Service Management Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para alimentar as sugestões de IA no Jira Service Management funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto.

Foi descoberto que as sugestões de IA no Jira Service Management são menos úteis em cenários em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa de sugestões para uma solicitação de serviço ou incidente em circunstâncias em que o projeto não inclua solicitações ou incidentes semelhantes com os quais aprender.
  • Você precisa de informações às quais não tem acesso no projeto.
  • Você precisa de sugestões para os responsáveis para os quais as informações sobre funções, departamentos e locais não foram adicionadas ao perfil.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Peça aos membros da equipe que se certifiquem de que as informações do perfil (e incidentes/solicitações de serviço anteriores) estejam preenchidos por completo antes de usar as sugestões de IA no Jira Service Management.
Dados e sugestões de IA no Jira Service Management Copy link to heading Copied! Exibir
  

A gente entende que você pode ter dúvidas sobre como as sugestões de IA no Jira Service Management usam os dados. Esta seção complementa as informações disponíveis no Trust Center.

O que é processado:

  • Os prompts (entradas) e respostas (saídas)
  • Contexto da instância relevante para a função, como solicitações ou incidentes semelhantes, lista de responsáveis ou colegas de equipe, recursos e dados em um ticket, como valores de campo, comentários etc.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de dados, as sugestões de IA aplicam as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não são disponibilizadas para outros clientes.
    • Não são enviadas para nenhum provedor de LLM terceirizado que não seja a OpenAI.
    • Não são armazenadas pela OpenAI.
    • Não são usados para melhorar o OpenAI.
    • São usadas apenas para a sua experiência.
  • A OpenAI é um subprocessador da Lista de subprocessadores. Eles não usam as entradas e as saídas para nenhuma finalidade além de processar a solicitação.
  • Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada solicitação de serviço ou incidente, o Atlassian Intelligence não vai considerar essas solicitações ou incidentes ao gerar sugestões. Se você não quiser que o conteúdo seja disponibilizado para outros usuários no projeto ou no site, trabalhe com o administrador da organização para garantir a definição adequada das permissões.
Como a automação usa o Atlassian Intelligence Copy link to heading Copied! Mostrar
  

A automação com o Atlassian Intelligence usa a tecnologia de grandes modelos de linguagem desenvolvidos pela OpenAI, pelo Google e pela Anthropic, bem como por uma combinação de grandes modelos de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic.

O Atlassian Intelligence usa esses modelos para analisar a entrada de linguagem natural e gerar uma regra de automação no Jira e no Confluence.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi.

Casos de uso de Automação usando o Atlassian Intelligence Copy link to heading Copied! Mostrar
  

A criação de regras de automação está no centro da experiência diária de automação, e a gente quer tornar isso ainda mais fácil para você ao adicionar o Atlassian Intelligence ao criador de regras de automação no Jira e no Confluence. Agora, é possível criar regras de automação digitando e descrevendo o que você quer automatizar. Deixe que o Atlassian Intelligence cuide de todo o trabalho pesado para você. Saiba mais sobre Automação usando o Atlassian Intelligence para Jira e para Confluence.

A gente acredita que a Automação usando o Atlassian Intelligence para o Jira e o Confluence funciona melhor em cenários em que você não tem certeza de como começar ou quer acelerar o processo de criação de regras.

Não tem certeza da melhor forma de criar uma regra de automação?

Regras de automação são criadas por uma combinação de diferentes tipos de componentes: acionadores, ações, condições e ramificações. Pense nos componentes como os alicerces de uma regra. Para criar uma regra com sucesso com o Atlassian Intelligence, ela deve conter pelo menos um acionador e uma ação. Por exemplo:

No Jira:

Toda segunda-feira, encontre todas as tarefas com data de entrega para os próximos sete dias e envie um e-mail de lembrete ao responsável.

Quando um ticket for transferido para Teste, atribua o ticket a John Smith.

No Confluence:

  • Toda segunda-feira, encontre todas as tarefas com data de entrega para os próximos sete dias e envie um e-mail de lembrete ao responsável.
  • A cada seis meses, arquive todas as páginas que não foram atualizadas nesse período. Após o arquivamento, envie um e-mail para o autor da página, informando-o.
  • Quando uma página for publicada com a Especificação do Produto no título, crie um ticket no Jira para revisá-la com um link para a página.

Além disso, para que uma regra seja criada com sucesso, todos os componentes devem ser compatíveis com a Automação usando o Atlassian Intelligence. Ou seja, todos os acionadores, ações, condições ou ramificações na regra devem ser compatíveis com a Automação no Jira e/ou no Confluence.

Considerações sobre Automação usando o Atlassian Intelligence Copy link to heading Copied! Mostrar
  

É importante lembrar que, devido à forma como os modelos usados para impulsionar a Automação usando o Atlassian Intelligence funcionam, esses modelos podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que a Automação usando o Atlassian Intelligence é menos útil em cenários em que:

  • A Automação usando o Atlassian Intelligence precisa ter acesso a informações que não estão disponíveis para você (por exemplo, uma página ou projeto restrito) para responder com adequação à solicitação.
  • Você precisa fazer tarefas pontuais.
  • Você precisa consultar informações de dentro da sua base de conhecimento.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

A Automação usando o Atlassian Intelligence só vai funcionar com o conjunto de componentes de automação disponíveis no Jira e no Confluence.

Você também pode pensar em ser o mais específico possível no que pede para o Atlassian Intelligence fazer, conforme descrito acima.

Dados e Automação usando o Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Você deve ter dúvidas sobre como seus dados vão ser usados pela Automação com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto da instância relevante para o prompt, como um projeto do Jira ou uma página do Confluence.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de dados, o uso do Atlassian Intelligence para automação do Confluence aplica as seguintes medidas:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock
    • Não são armazenados por nenhum fornecedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.

Todos os provedores de LLM externos são subprocessadores e estão listados como tal na página correspondente da Atlassian. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.

Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página ou projeto, o conteúdo desses recursos não vai ser sugerido para você na resposta recebida. Se você não quiser que o conteúdo seja disponibilizado nas respostas de outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada.

Agrupamento de alertas

Como o agrupamento de alertas usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

O agrupamento de alertas do Atlassian Intelligence é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI e pelo Google. Esses modelos incluem um algoritmo projetado para identificar padrões nos dados de alerta e a série de modelos GPT da OpenAI e Gemini do Google.

O Atlassian Intelligence usa esses modelos de aprendizado de máquina para analisar, gerar grupos de alertas e dar sugestões relacionadas (grupos e respondentes de alertas anteriores) nos produtos da Atlassian com base na semelhança do conteúdo dos alertas ou dos marcadores usados. Depois, o Atlassian Intelligence usa grandes modelos de linguagem para analisar e gerar descrições e conteúdo em linguagem natural para esses grupos nos produtos que a gente oferece.

Esses grandes modelos de linguagem são probabilísticos e geram respostas com base nas entradas. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI e do Google.

Casos de uso para agrupamento de alertas Copy link to heading Copied! Exibir
  

O agrupamento de alertas usa o Atlassian Intelligence para identificar e agrupar alertas semelhantes. Ele também ajuda a identificar e a recomendar grupos de alerta semelhantes anteriores e respondentes de alerta anteriores (ou equipes de respondentes), com base na semelhança semântica do conteúdo do alerta ou dos marcadores usados.

Para escalar o grupo de alertas para um incidente, o agrupamento de alertas também preenche com antecedência todas as informações contextuais para você revisar como parte do processo de criação do incidente.

A gente acredita que o agrupamento de alertas funciona melhor nos cenários em que:

  • Sua organização costuma encontrar padrões de alertas semelhantes ou duplicados que ocorrem em alto volume, seja por um período curto ou mais longo.
  • Sua organização sempre categoriza alertas usando marcadores.
  • A equipe costuma perceber que alertas semelhantes ou duplicados devem ser transformados em incidentes.
Considerações ao usar o agrupamento de alertas Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para alimentar o agrupamento de alertas funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas que você receber podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Os grupos de alertas exibidos talvez não reflitam com precisão a semelhança semântica dos marcadores.

A gente descobriu que o agrupamento de alertas é menos útil em cenários em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa do agrupamento de alertas para ter acesso a informações que não sejam disponibilizadas a você de imediato para agrupar os alertas. O agrupamento de alertas acontece dentro dos limites das funções e permissões configuradas da equipe. Portanto, você vai ter acesso apenas aos grupos e insights de alertas a que você tem permissão para visualizar.
  • Os marcadores de alerta usados pela sua equipe não são consistentes nem são bem mantidos. Como o agrupamento de alertas funciona agrupando alertas com base na semelhança semântica dos títulos e marcas de alerta, a qualidade dos grupos que ele gera depende da consistência e da higienização dos marcadores usados na sua equipe e organização.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Você e a equipe também devem usar os marcadores de alerta com consistência.

Dados e agrupamento de alertas Copy link to heading Copied! Exibir
  

Você deve ter dúvidas sobre como seus dados vão ser usados pelo agrupamento de alertas. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • O contexto da sua instância relevante para o prompt, como os dados do seu alerta (títulos e marcadores de alertas, prioridade, equipes dos respondentes, descrição).
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

A gente processa os dados de alerta para treinar uma versão do modelo de aprendizado de máquina no reconhecimento de padrões específicos para seus alertas. Esta versão é usada para atender apenas à sua experiência:

  • A gente armazena os padrões identificados informar você.
  • Seus dados de alerta não são usados para treinar nenhum LLM.

Em relação aos dados, o agrupamento de alertas aplica as seguintes medidas:

  • Entradas e saídas:
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI ou Google.

    • Não são armazenados por nenhum fornecedor de LLM.

    • Não são usados para melhorar modelos LLM.

    • São usadas apenas para a sua experiência.

  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal em nossa página correspondente. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Esta função segue as permissões do site. Por exemplo, se o Atlassian Intelligence agrupar 50 alertas com base nos marcadores e na semelhança semântica e se você tiver permissão para ver apenas 30, apenas esses 30 vão aparecer na visualização detalhada do grupo. Se você não quer que o conteúdo seja disponibilizado nas respostas para outros usuários no site, fale com o administrador do site/organização para garantir que as permissões tenham a definição adequada.
Como o Atlassian Intelligence resume páginas e blogs no Confluence Copy link to heading Copied! Exibir
  

O resumo de páginas e blogs usando o Atlassian Intelligence é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI e pelo Google. Esses modelos incluem a série de modelos GPT da OpenAI e a série Gemini do Google.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI e do Google.

Resumo rápido de casos de uso do Confluence Copy link to heading Copied! Exibir
  

Economize tempo e obtenha os detalhes necessários para fazer seu trabalho com mais rapidez ao gerar um resumo rápido de uma página ou blog do Confluence com o Atlassian Intelligence. Saiba mais sobre como usar o Atlassian Intelligence no Confluence.

A gente acredita que resumir páginas e blogs usando o Atlassian Intelligence funciona melhor em cenários em que:

  • Há uma página de texto que leva 5 minutos ou mais para ser lida.
  • Há muito conteúdo escrito, com recursos visuais limitados e/ou outras formatações, como expansões em uma página.
Considerações ao resumir páginas e blogs usando o Atlassian Intelligence Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para resumir páginas e blogs usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto.

Embora continuemos criando suporte para macros, tabelas e expandindo resumos, resumir páginas e blogs usando o Atlassian Intelligence é menos útil em cenários em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa de um resumo de uma página muito curta do Confluence em que não há conteúdo suficiente.
  • Você precisa de um resumo de uma página do Confluence em que a maior parte do conteúdo está em tabelas ou se expande.
  • Você precisa de um resumo de uma página do Confluence com a maior parte do conteúdo em macros.

Pense nas situações em que o Atlassian Intelligence é usado e analise a qualidade das respostas recebidas antes de compartilhá-las com outras pessoas.

Também considere:

  • Pedir ao Atlassian Intelligence que resuma páginas que você sabe que estão repletas de conteúdo em texto.
Seus dados ao resumir páginas e blogs usando o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence na automação do Confluence. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).

  • O contexto de sua instância é relevante para sua solicitação, assim como o conteúdo da página do Confluence que você deseja resumir.

  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha

  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Em relação aos seus dados, resumir páginas e blogs usando o Atlassian Intelligence aplicam as seguintes medidas:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI ou Google.
    • Não são armazenados por nenhum fornecedor de LLM.

    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal em nossa página correspondente. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma página do Confluence, essa função não vai ser exibida nem vai conseguir resumir uma página usando o Atlassian Intelligence. Se você não quiser que o conteúdo seja disponibilizado para outros usuários na instância, trabalhe com o administrador da organização para garantir a definição adequada das permissões.

Defina termos usando o Atlassian Intelligence

Como o Atlassian Intelligence define os termos Copy link to heading Copied! Exibir
  

A definição de termos usando o Atlassian Intelligence no Confluence e no Jira é baseada em modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic e uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic.

O Atlassian Intelligence usa esses modelos para analisar e gerar respostas em linguagem natural no Confluence e no Jira.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi.

Casos de uso para a definição de termos usando o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Uma das coisas mais desafiadoras sobre o consumo de conteúdo no Confluence e no Jira é obter o contexto necessário para entender o que você está lendo. Abreviações, acrônimos, termos desconhecidos e nomes específicos de equipes ou projetos podem levar a uma longa busca pelas informações de que você precisa.

A definição de termos usando o Atlassian Intelligence vai oferecer o significado de termos empresariais (como acrônimos, nomes de projetos, sistemas ou equipes) em uma página no Confluence ou na descrição de um ticket no Jira. Assim, os usuários acessam as informações de que precisam, quando precisam, o que ajuda as equipes a trabalharem melhor juntas.

O Atlassian Intelligence poupa tempo ao definir essas coisas para você, sem se afastar do que você está lendo.

Se você encontrar uma definição que considere imprecisa, pode editar ou adicionar uma nova e, em seguida, definir a visibilidade para essa página ou ticket, para todo o espaço ou projeto ou acessar toda a organização.

A definição de termos usando o Atlassian Intelligence no Confluence e no Jira funciona melhor nestes cenários:

  • Uma empresa tem várias páginas na instância do Confluence que mencionam, descrevem ou explicam a qual termo específico o Atlassian Intelligence deve fazer referência.
Considerações ao definir termos com o Atlassian Intelligence Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para definir termos usando a Inteligência Atlassian no Confluence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que definir termos usando o Atlassian Intelligence no Confluence é menos útil em cenários em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você não tem um contexto amplo sobre o termo dentro dessa instância do Confluence (por exemplo, se não houver páginas que mencionem o termo específico, a definição desse termo não vai ser gerada com precisão).
  • A definição requer acesso ao conteúdo do Confluence que você não tem permissão para visualizar
  • Você tenta definir vários termos em vez de um termo individual por vez.

Além disso, no Jira, também descobrimos que, como a definição de termos usando o Atlassian Intelligence depende da pesquisa no Confluence, a função só vai funcionar no Jira se você tiver permissão para visualizar uma instância do Confluence no mesmo site da sua instância do Jira.

Também é possível que você descubra que definir termos usando o Atlassian Intelligence não funciona conforme o esperado em espaços do Confluence ou instâncias do Jira que têm conteúdo escrito em vários idiomas.

Seus dados e a definição de termos usando o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • O contexto da instância relevante para o prompt, como o termo que você quer definir.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para definir termos:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal em nossa página correspondente. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Essa função segue as permissões de acesso do usuário, portanto, não vai ser mostrada aos usuários uma definição do conteúdo ao qual eles não têm acesso. Em vez disso, a função extrai conteúdo e definições apenas das páginas e projetos que o usuário tem permissão para visualizar na instância. Se você não quiser que o conteúdo seja disponibilizado nas respostas de outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada.
  • Se um usuário edita ou atualiza uma definição manualmente, ela é armazenada e retida por um ano.

IA generativa no editor

Como funciona o Atlassian Intelligence em experiências de edição Copy link to heading Copied! Exibir
  

As experiências de edição do Atlassian Intelligence são alimentadas por grandes modelos de linguagem desenvolvidos pela OpenAI e pelo Google. Esses modelos incluem a série de modelos GPT da OpenAI e a série Gemini do Google.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI e do Google.

Casos de uso para IA generativa no editor Copy link to heading Copied! Exibir
  

O Atlassian Intelligence ajuda a impulsionar a comunicação eficaz entre todas as equipes de uma organização para melhorar a eficiência, a tomada de decisões e os processos.

A gente acredita que usar o Atlassian Intelligence na edição de textos funciona melhor para:

  • Adaptar o conteúdo para diferentes públicos. O Atlassian Intelligence ajuda a mudar o tom, melhorar a redação e tornar as informações técnicas mais fáceis para outras equipes entenderem. Essa opção funciona melhor para equipes que querem redigir textos mais profissionais e concisos.
  • Resumir o conteúdo. Com o Atlassian Intelligence, você pode transformar notas de rascunho em documentação de estratégia útil, artigos da base de conhecimento, planos de campanha e muito mais. Ele também pode ser usado para analisar as informações e definir planos de ação e itens. Essa opção funciona melhor para páginas com muito texto, nas quais há muito contexto para extrair.
  • Gerar conteúdo novo. O Atlassian Intelligence ajuda você a redigir conteúdo novo, como páginas de estratégia, visões gerais do projeto, notas da versão ou histórias de usuários. Essa opção funciona melhor quando as equipes usam prompts claros e específicos, com um objetivo específico em mente.
Considerações ao usar o Atlassian Intelligence em experiências de edição Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para impulsionar a Atlassian Intelligence em experiências de edição funcionam, às vezes eles podem se comportar de maneiras imprecisas, incompletas ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas que seja falso ou incompleto.

A gente descobriu que usar o Atlassian Intelligence para editar textos é menos útil em cenários em que:

  • Você precisa de informações atuais, precisas e atualizadas sobre pessoas, lugares e fatos.
  • Você precisa ter acesso a informações que não estão disponíveis para você (por exemplo, na instância) para dar uma resposta adequada à solicitação.
  • Você precisa gerar conteúdo em um formato além da marcação padrão (por exemplo, gerar um painel de informações do zero).
  • Você precisa referenciar informações que ainda não estão presentes no documento que está sendo editado (por exemplo, conteúdo presente em outro documento ou em outro produto).
  • É preciso criar e transformar conteúdo em outros idiomas além do inglês.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Ser o mais específico possível sobre o que você pedir para o Atlassian Intelligence fazer.
  • Dividir solicitações complexas em tarefas menores e gerenciáveis.
  • Incorporar palavras-chave relevantes para melhorar a precisão do conteúdo criado.
  • Usar gramática e pontuação adequadas no texto de entrada.
  • Corrigir, revisar e editar a saída gerada pelo assistente de redação do AI para obter precisão e clareza.
  • Testar solicitações diferentes ou variações do texto de entrada para descobrir novas ideias.
  • Colaborar com outras pessoas para obter feedback e melhorar a qualidade da produção.
Seus dados e o Atlassian Intelligence na edição de textos Copy link to heading Copied! Exibir
  

Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence para editar textos. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • O contexto da instância relevante para a solicitação, como o produto acionado a partir do Atlassian Intelligence.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para editar textos:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI ou Google.

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal em nossa página correspondente. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página do Confluence, o conteúdo dessa página não vai ser sugerido para você na resposta recebida. Se você não quiser que o conteúdo esteja disponível nas respostas de outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada.
Como o reformatador de tickets usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

O reformatador de tickets é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI, incluindo a série de modelos GPT da OpenAI.

O Atlassian Intelligence usa esse modelo para analisar e gerar linguagem natural no Jira.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI.

Casos de uso do reformatador de tickets Copy link to heading Copied! Exibir
  

O reformatador de tickets ajuda a melhorar a clareza das descrições dos tickets do Jira ao fazer a reformatação usando um template desenvolvido pela Atlassian. Esse template aborda os tipos de informações que a gente espera encontrar na descrição de um ticket do Jira, como uma história do usuário, contexto do trabalho e critérios de aceitação.

A gente acredita que o reformatador de tickets funciona melhor em cenários em que as descrições de tickets já contêm informações úteis (como critérios de aceitação ou links para fontes), mas essas informações não são formatadas usando uma estrutura clara ou consistente.

Considerações ao usar o reformatador de tickets Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como funcionam, os modelos usados para alimentar o reformatador de tickets podem, às vezes, ser imprecisos, incompletos ou não confiáveis.

Por exemplo, a descrição reformatada pode não refletir com precisão o conteúdo em que foi baseada ou pode incluir informações que parecem razoáveis, mas são falsos ou incompletos.

A gente descobriu que o reformatador de tickets é menos útil em cenários em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Your work item descriptions don’t include much information, because there’s a higher chance that the models powering work item reformatter might add information that wasn’t included in your original description.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence, and always review the quality of the responses you get before sharing them with others. You might also want to think about reviewing and confirming that your work item descriptions include all relevant information before you start using work item reformatter to reformat them.

Your data and work item reformatter Copy link to heading Copied! Exibir
  

We understand you may have questions about how work item reformatter uses your data. This section supplements the information available on our Trust Center.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Context from your instance relevant to your prompt, such as the Jira work item description and summary.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

When it comes to your data, work item reformatter applies the following measures:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI
    • Não são armazenadas pela OpenAI.
    • Não são usados para melhorar os modelos da OpenAI.
    • São usadas apenas para a sua experiência.
  • A OpenAI é um subprocessador da nossa Lista de Subprocessadores. Os subprocessadores não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • This feature only uses the information available within the Jira Work item and is invoked from the Jira Work item. Therefore, it can only be invoked by a user who has permission to view the work item and will not access any other information.

Summarize work item details in Jira Service Management

How Atlassian Intelligence summarizes work item details in Jira Service Management Copy link to heading Copied! Exibir
  

Summarize work item details using Atlassian Intelligence is powered by large language models developed by OpenAI and Google. These large language models include OpenAI's GPT series of models and Google's Gemini series of models.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI e do Google.

Use cases for summarizing work item details in Jira Service Management Copy link to heading Copied! Exibir
  

Instead of reading through long descriptions and numerous comments on a Jira Service Management work item, you can use Atlassian Intelligence to quickly summarize this information for you. This helps agents quickly understand the context of the work item and any progress made, enabling them to take swift action and provide timely assistance.

We believe that summarizing work item details using Atlassian Intelligence works best for:

  • Work items with description and comments in English.
  • Work items with a large number of comments and/or lengthy comments and descriptions.
Considerations when summarizing work item details using Atlassian Intelligence Copy link to heading Copied! Exibir
  

It’s important to remember that because of the way that the models used to power summarizing work item details using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

We’ve found that summarizing work item details using Atlassian Intelligence is less useful in scenarios when:

  • você está usando um idioma diferente do inglês,
  • The work item has no history or details

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Your data and summarizing work item details using Atlassian Intelligence Copy link to heading Copied! Exibir
  

We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Context from your instance relevant to your prompt includes details about the Jira Service. Management work item, such as the work item description, comments, and users involved in the ticket.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

When it comes to your data, summarizing work item details using Atlassian Intelligence applies the following measures:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock.

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal na página correspondente da Atlassian. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Essa função segue as permissões na instância. Apenas agentes e administradores do projeto podem visualizar o botão Resumir.

IA generativa no editor

Como o Atlassian Intelligence resume links inteligentes Copy link to heading Copied! Exibir
  

Resuma links inteligentes do Atlassian Intelligence (AI) usando a tecnologia de modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi.

Casos de uso que envolvem o resumo de links inteligentes Copy link to heading Copied! Exibir
  

Depois que você passa o cursor do mouse sobre um link inteligente do Jira, Confluence e Documentos Google, o Atlassian Intelligence ajuda a resumir o conteúdo. Isso permite que você determine a importância e o valor do link para decidir sua próxima ação. Assim, você não precisa sair da página atual e trocar de contexto.

Acreditamos que o recurso Resumir links inteligentes com IA funciona melhor nos cenários em que:

  • You are viewing a page or work item with one or more Smart Links.
  • You are viewing a page or work item with one or more Smart Links that contain a lot of information or dense content, which will take time and attention away from the main content you wanted to read.
Considerações sobre o resumo de links inteligentes com o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Vale lembrar que os modelos às vezes podem ter um comportamento impreciso, incompleto ou não confiável devido à maneira como eles costumavam alimentar o recurso Resumir links inteligentes com IA.

Por exemplo, os resumos que você recebe podem não refletir com precisão o conteúdo em que eles se baseiam ou incluir conteúdo que parece razoável, mas é falso ou incompleto.

Descobrimos que o recurso Resumir links inteligentes com IA é menos útil nos cenários em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa resumir um conteúdo muito curto.
  • Você precisa resumir todos os metadados e o conteúdo de um link. Por exemplo, quando você quer entender todos os valores de campo de um ticket do Jira, além do conteúdo do comentário e descrição.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Seus dados e o resumo de links inteligentes com o Atlassian Intelligence Copy link to heading Copied! Exibir
  

We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • O contexto da sua instância é relevante para o prompt, assim como o conteúdo do link que você quer resumir.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • O feedback que você fornece sobre a função, incluindo as respostas compartilhadas como parte disso.

Quando se trata dos seus dados, o recurso Resumir links inteligentes com IA aplica as seguintes medidas.

  • Seus resumos:
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock.

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal na página correspondente da Atlassian. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma página ou ticket no Jira, Confluence ou Google, não vai ser possível resumir o conteúdo dessas fontes. Se você não quer que seu conteúdo seja disponibilizado nas respostas para outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada.

Respostas do Atlassian Intelligence no Jira Service Management

Como o agente de serviço virtual do Jira Service Management usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

O agente de serviço virtual do Jira Service Management é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI e pelo Google, bem como por grandes modelos de linguagem de código aberto (incluindo a série Llama).

O agente de serviço virtual usa os modelos da seguinte forma:

  • Intenções: cada intenção representa um problema, uma pergunta ou solicitação específica que o agente de serviço virtual ajuda a resolver para os clientes. As intenções são treinadas usando um modelo de aprendizado de máquina personalizado para sua organização, com base em um conjunto de dados de treinamento (descrito em mais detalhes abaixo, em “Seus dados e o agente de serviço virtual”). Esse modelo é usado para entender as perguntas dos clientes no contexto da sua organização. Saiba mais sobre as intenções.
  • As respostas do Atlassian Intelligence usam a inteligência artificial generativa para pesquisar nos seus espaços vinculados da base de conhecimento do Confluence e, em seguida, resumir essas informações em resposta às perguntas de seus clientes. Elas são baseadas em modelos grandes de linguagem desenvolvidos pela OpenAI e outros modelos de aprendizado de máquina. Leia mais sobre as respostas do Atlassian Intelligence.
  • ‘From your data’ intent templates are generated using your project’s work items. We use machine learning to group the most common themes, suggest an intent for each group, then generate titles, descriptions, and training phrases for each suggested intent. ‘From your data’ intent templates are powered by a combination of machine learning models, including large language models. Read more about intent templates.

Como funcionam os modelos grandes de linguagem: eles geram respostas com base nas suas entradas e são de natureza probabilística. Ou seja, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados em que eles foram treinados.

Os grandes modelos de linguagem usados para alimentar o agente de serviço virtual incluem a série de modelos GPT da OpenAI e a série Gemini do Google.

Leia mais sobre as capacidades dos modelos da OpenAI e do Google. Para saber mais sobre modelos de linguagem de código aberto, consulte as informações sobre a série Llama.

Casos de uso do Agente de serviço virtual do Jira Service Management Copy link to heading Copied! Exibir
  

O Agente de serviço virtual ajuda as equipes a automatizar as interações de suporte de nível 1, com o auxílio de um mecanismo conversacional do Atlassian Intelligence que analisa e compreende a intenção, o contexto e as permissões para personalizar as interações.

Com o Atlassian Intelligence, o Agente de serviço virtual ajuda as equipes a escalar suas centrais de atendimento e encantar seus clientes com três recursos principais:

  • Intenções, que são criadas pelo administrador do projeto e representam um problema, pergunta ou solicitação específica que seu Agente de serviço virtual pode ajudar a resolver para seus clientes.
  • As respostas do Atlassian Intelligence, que usam a inteligência artificial generativa para pesquisar nos espaços de base de conhecimento vinculados e resumir as respostas às perguntas de seus clientes.
  • ‘From your data’ intent templates, which are personalized intent template suggestions generated by grouping your project’s Jira Service Management work items – making it even faster for your project admins to create intents.

O Agente de serviço virtual está disponível em vários canais, incluindo Slack, Microsoft Teams, o portal Jira Service Management e muito mais. Leia mais sobre os canais disponíveis para o Agente de serviço virtual.

A gente acredita que o Agente de serviço virtual funciona melhor nestes cenários:

  • Suas equipes de serviço recebem um grande volume de perguntas de nível 1.
  • Seus agentes sempre respondem às mesmas perguntas.
  • Você tem uma base de conhecimento vinculada completa e atualizada que o Agente de serviço virtual pode usar para oferecer respostas às perguntas dos clientes.
  • Suas equipes de serviço no geral recebem solicitações que têm vários resultados de resolução possíveis, que são adequados para usar os dois principais recursos em Agentes de serviço virtual no nível do projeto: intenções e respostas do Atlassian Intelligence:
    • Intents work best when an action needs to be taken to resolve customer requests (for example, creating a work item for an agent to resolve), or when a back and forth conversation is needed to gather information from a customer. Intents are also ideal for scenarios where you need a fixed, deterministic outcome for specific requests, since intents provide more control over what information is shared with your customers.
    • As respostas do Atlassian Intelligence funcionam melhor quando as solicitações dos clientes podem ser resolvidas oferecendo informações e instruções, sem a necessidade de qualquer intervenção do agente.
  • No caso dos templates "A partir dos seus dados":
    • Your project has received at least 50 work items, so that the intent template suggestions have access to enough information to be helpful.
    • Você passou por uma alteração recente no comportamento do cliente, como um evento futuro ou até mesmo uma interrupção técnica, pois os templates de intenção "A partir de seus dados" vão identificar e agrupar as consultas recentes e comuns dos clientes.
Considerações ao usar as respostas do Atlassian Intelligence no Jira Service Management Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os templates costumavam alimentar o Agente de serviço virtual, às vezes ele pode se comportar de maneiras imprecisas, incompletas ou não confiáveis.

Por exemplo, as respostas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas seja falso ou incompleto.

A gente descobriu que o Agente de serviço virtual é menos útil nestes cenários:

  • Você tem um volume baixo de solicitações de clientes de nível 1.
  • Você não usou todos os recursos do Agente de serviço virtual, por exemplo, criando intenções (ou usando modelos de intenção "A partir dos seus dados") ou ativando as respostas do Atlassian Intelligence.
  • No caso das intenções:
    • Você adicionou frases de treinamento com significados muito amplos ou diversos. A correspondência de intenções funciona melhor quando elas são específicas.
    • Você adicionou frases de treinamento que não refletem com precisão a forma como os clientes costumam fazer perguntas. A correspondência é semântica e busca um significado semelhante entre as frases de treinamento e o que os clientes estão perguntando.
    • Você criou várias intenções que são muito parecidas. A sobreposição de tópicos entre as intenções pode confundir o Agente de serviço virtual e fazer com que a intenção errada seja sugerida.
  • No caso das respostas do Atlassian Intelligence:
    • Os clientes precisam de informações atuais e precisas sobre pessoas, lugares e fatos.
    • Os clientes precisam das respostas do Atlassian Intelligence para acessar informações que não estão disponíveis para eles (por exemplo, em uma base de conhecimento vinculada a que eles não têm acesso) para esclarecer uma pergunta.
    • Sua base de conhecimento está desatualizada ou incompleta, ou os artigos não têm informações o suficiente para responder bem às perguntas.
  • In the case of ‘from your data’ intent templates, the data available in your Jira Service Management project work items is of poor quality (or you have less than 50 work items), so that no meaningful groups can be found.

Pense nas situações em que usaria o Atlassian Intelligence e analise o desempenho do Agente de serviço virtual antes de ativar a função para os clientes. Leia mais sobre como melhorar o desempenho do seu Agente de serviço virtual.

Também considere:

Seus dados e o Agente de serviço virtual Copy link to heading Copied! Exibir
  

A gente entende que você possa ter dúvidas sobre como o Agente de serviço virtual do Jira Service Management usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto de uma instância relevante para seu prompt, como um artigo do Confluence da sua base de conhecimento vinculada sendo resumido em uma resposta do Atlassian Intelligence ou seus tickets históricos do Jira para gerar sugestões de intenções.

  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.

  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata dos seus dados, o Agente de serviço virtual aplica as seguintes medidas:

  • No caso de correspondência de intenções nos canais de projetos do Jira Service Management:
    • As intenções (incluindo os templates de intenção "A partir de seus dados") são treinadas por um Modelo de aprendizado de máquina personalizado para sua organização, com base em um conjunto de dados de treinamento oferecido por você. Essa medida inclui intenções e frases de treinamento criadas pelo administrador do projeto ou sugeridas pela gente em templates de intenção padrão ou do tipo "A partir de seus dados".
    • Os dados de treinamento e o Modelo de aprendizado de máquina treinado desenvolvido para sua organização não vão ser compartilhados com outros clientes da Atlassian.
    • O treinamento é feito apenas no nível do projeto, o que significa que as intenções são treinadas com base nas frases de treinamento oferecidos pelos administradores durante o processo de criação das intenções, e os administradores têm controle total sobre os dados do treinamento. Os dados não são usados em vários projetos em um único site.
    • Esses templates são armazenados em um site do Jira Service Management e são excluídos se e quando você exclui seu site.
  • No caso de correspondência de intenções nas centrais de ajuda do Jira Service Management:
    • A gente criou e armazenou vetores, em conformidade com a residência de dados.
    • Esses templates são armazenados em um site do Jira Service Management e são excluídos se e quando você exclui seu site.
  • No caso das respostas do Atlassian Intelligence:
    • As solicitações (dados de entrada) e respostas (dados de saída):
      • Não estão disponíveis para outros clientes.
      • Não estão disponíveis para nenhum provedor de LLM terceirizado que não seja a OpenAI ou o Google.
      • Não são armazenados por nenhum provedor de LLM.
      • Não são usados para melhorar nenhum modelo grande de linguagem.
      • São usadas apenas para a sua experiência.
    • Essa função segue as permissões e restrições aplicadas aos seus espaços vinculados da base de conhecimento. Com isso, todas as páginas disponíveis para os clientes no seu portal do Jira Service Management vão estar disponíveis para que as respostas do Atlassian Intelligence sejam usadas ao responder aos clientes. Por exemplo, se o acesso a uma determinada página do Confluence for restrito e não estiver disponível pelo Jira Service Management, o conteúdo da página não vai ser usado nas respostas do Atlassian Intelligence. Se você não quiser que seu conteúdo esteja disponível nas respostas para outros usuários na instância, trabalhe com o administrador da organização para garantir que suas permissões sejam bem definidas.
  • No caso dos templates de intenção "A partir dos seus dados":
    • Os dados dos seus tickets do Jira Service Management (entradas) e os templates de intenção sugeridos criados com esses dados (saídas):
      • Não estão disponíveis para outros clientes.
      • Não estão disponíveis para nenhum provedor de LLM terceirizado que não seja a OpenAI ou o Google.
      • Não são armazenados por nenhum provedor de LLM.
      • Não são usados para melhorar modelos grandes de linguagem.
      • São usadas apenas para a sua experiência.
    • Analysis of Jira Service Management work items and chat transcripts submitted by your customers in the connected Jira Service Management project is used to serve your experience only.

  • A OpenAI é um subprocessador da nossa página de subprocessadores. Os subprocessadores não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.

Summarize work item details using Atlassian Intelligence

How Atlassian Intelligence summarizes work item details in Jira Copy link to heading Copied! Mostrar
  

Os resumos do AI no Jira usam a tecnologia dos modelos grandes de linguagem desenvolvida pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI.

About summarizing work item details using Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Instead of reading through long descriptions and numerous comments on a Jira work item, you can use Atlassian Intelligence to quickly summarize this information for you. This helps agents quickly understand the context of the work item and any progress made, enabling them to take swift action and provide timely assistance.

We believe that summarizing work item details using Atlassian Intelligence works best for work items with a large number of comments and/or lengthy comments and descriptions.

Limitations and considerations when summarizing work item details using Atlassian Intelligence Copy link to heading Copied! Mostrar
  

É importante lembrar que, devido à forma como funcionam, os modelos usados como tecnologia para os resumos de IA no Jira às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis.

Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que parece razoável, mas é falso ou incompleto.

We’ve found that summarizing work item details using Atlassian Intelligence is less useful in scenarios when:

  • the work item has no history or details
  • the work item has more than 100 comments (we will summarise only the last 100 comments)

Por isso, a gente sugere que você avalie as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar com outras pessoas.

Your data and summarizing work item details using Atlassian Intelligence Copy link to heading Copied! Mostrar
  

We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our Trust Center.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Context from your instance relevant to your prompt, including details about the Jira work item, such as the work item description, comments, and users involved in the ticket.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

When it comes to your data, summarizing work item details using Atlassian Intelligence applies the following measures:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI.
    • Não são armazenadas pela OpenAI.
    • Não são usadas para melhorar os modelos da OpenAI.
    • São usadas apenas para a sua experiência.
  • A OpenAI é um subprocessador da Lista de subprocessadores da Atlassian. Eles não usam as entradas e as saídas para nenhuma finalidade além de processar a solicitação.
  • This feature follows the permissions in your instance. This feature only uses the information available within the Jira Work item and is invoked from the Jira Work item. Therefore, it can only be invoked by a user who has permission to view the work item and will not access any other information.

Análise do trabalho de IA

Como a análise do trabalho de IA usa o Atlassian Intelligence Copy link to heading Copied! Mostrar
  

A análise do trabalho de IA usa a tecnologia dos modelos grandes de linguagem desenvolvida pela OpenAI.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI.

Sobre a análise do trabalho de IA Copy link to heading Copied! Mostrar
  

AI Work Breakdown suggests child work items based on a Jira work item you’ve created, making it easy to break down large pieces of work into smaller ones. Your work item is used as context to generate suggestions for child work item summaries and descriptions.

A gente acredita que a análise do trabalho de IA funciona melhor em cenários onde:

  • You start with a work item that has a detailed summary and description, including any constraints, instructions, and definitions of done.
  • The starting work item doesn’t have existing child work items.
Limitações e considerações ao usar a análise do trabalho de IA Copy link to heading Copied! Mostrar
  

É importante lembrar que, devido à forma como funcionam, os modelos usados como tecnologia para análise do trabalho de IA às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que a análise do trabalho de IA é menos útil em cenários onde:

  • Você precisa de informações atuais e precisas sobre pessoas, lugares e fatos.
  • You don’t start with a detailed work item summary and description (e.g. if you try to generate child work item suggestions based on a work item with a very short and broad description).

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Ser o mais específico possível sobre o que você pedir para o Atlassian Intelligence fazer.
  • Providing as much information as possible in the starting work item summary and description.
Seus dados e a análise do trabalho de IA Copy link to heading Copied! Mostrar
  

A gente entende que você pode ter dúvidas sobre como a análise do trabalho de IA usa seus dados. Esta seção complementa as informações disponíveis no Trust Center.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Context from your instance relevant to your prompt, including work item data (like summary, description, and comments).
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de seus dados, a análise do trabalho de IA aplica as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • não são enviadas para nenhum provedor de LLM terceirizado que não seja a OpenAI.
    • Não são armazenadas pela OpenAI.
    • Não são usadas para melhorar os modelos da OpenAI.
    • São usadas apenas para a sua experiência.
  • O OpenAI é um subprocessador na lista de subprocessadores da Atlassian. Eles usam os dados de entrada e de saída apenas para processar a solicitação.
  • This feature follows the permissions in your instance (i.e. you must have access to the work item in order to generate child work item suggestions). If you don’t want your content to be available in other users' generated responses, work with your organization admin to ensure your permissions are set appropriately.
Como a função "Criar incidente" usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Crie incidentes com IA usando o Atlassian Intelligence e a tecnologia de modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi.

Casos de uso da função "Criar incidente com o AI" Copy link to heading Copied! Exibir
  

Ao escalar um ou mais alertas ou grupos de alertas sobre um incidente no Jira Service Management, a função "Criar incidente com o AI" usa o Atlassian Intelligence para escrever todas as informações contextuais com rapidez para você revisar durante o processo de criação do incidente. Ela permite que os usuários entendam logo o contexto do incidente criado a partir desses alertas ou grupos de alertas e que revisem e confirmem as informações pré-redigidas, como título, descrição e prioridade do alerta quando ele for transformado em incidente.

A gente acredita que a função "Criar incidente com o AI" funciona melhor nos cenários em que:

  • Os alertas que estão sendo transformados em incidente têm título e descrições em inglês.
  • Os alertas que estão sendo transformados em incidente têm descrições longas.
  • O incidente está sendo criado a partir de mais de um alerta.
Considerações ao usar a função "Criar incidente com o AI" Copy link to heading Copied! Exibir
  

É importante lembrar que, às vezes, devido ao funcionamento dos modelos usados para alimentar a função "Criar incidente com o AI", esses modelos podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente percebeu que a função "Criar incidente com o AI" é menos útil nos cenários em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Os alertas que você está transformando em incidente têm título ou descrição (ou ambos) em um idioma diferente do inglês.
  • Os alertas que você está transformando em incidente têm poucas informações.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de enviar o texto para outras pessoas.

Para conseguir os melhores resultados, seja o mais específico possível a respeito do que você pede para o Atlassian Intelligence fazer.

Além disso, seja o mais específico possível sobre o que vai pedir para o Atlassian Intelligence fazer.

Seus dados e a criação de incidentes com o Atlassian Intelligence Copy link to heading Copied! Exibir
  

A gente entende que você pode ter dúvidas sobre como a função "Criar incidente com o AI" usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • O contexto da sua instância relevante para o seu prompt, como a descrição, o título e a prioridade do alerta do Jira Service Management.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata dos seus dados, a função "Criar incidente com o AI" aplica as seguintes medidas:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock.

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal na página correspondente da Atlassian. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Essa função segue as permissões para alertas na sua instância. Apenas os agentes que tiverem permissão para visualizar e transformar o alerta em incidente vão ver sugestões do Atlassian Intelligence para preencher as informações do incidente que está sendo criado.

Criar revisão pós-incidente

Como a função “Criar revisão pós-incidente” usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

A criação de revisões pós-incidente (PIRs) pelo Atlassian Intelligence é alimentada por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada de usuários e são de natureza probabilística. Portanto, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI.

Casos de uso da função “Criar revisão pós-incidente com o AI” Copy link to heading Copied! Exibir
  

As PIRs são uma parte essencial do processo de gerenciamento de incidentes, ajudando respondentes e gerentes a aprender com os incidentes atuais e a transmitir informações para evitar incidentes semelhantes no futuro. O Atlassian Intelligence ajuda a acelerar a tarefa, muitas vezes demorada, de compilar uma PIR, sugerindo para ela uma descrição com base em informações contextuais relevantes na instância do Jira Service Management e ferramentas de bate-papo como o Slack para você revisar.

A gente acredita que a criação de PIRs usando o AI funciona melhor em situações em que:

  • Sua organização tem uma prática consistente de compilar PIRs para incidentes.

  • Sua equipe tem dados de incidentes distribuídos em ferramentas de bate-papo, como Slack e Jira Service Management, o que exige que você dedique mais tempo compilando uma PIR a partir dessas fontes.

  • Sua organização registra incidentes no Jira Service Management com informações completas e atualizadas.

Considerações ao usar a função “Criar revisão pós-incidente com o AI” Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para alimentar a criação de PIRs funcionam, eles, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que a criação de PIRs usando o AI não é tão útil em situações em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa que a criação de PIRs tenha acesso a informações que não estão disponíveis de imediato (em canais de bate-papo aos quais você não tem acesso, por exemplo) para gerar uma descrição adequada para a PIR.
  • Os dados disponíveis em sua instância do Jira Service Management estão incompletos ou não têm informações suficientes, então a criação da PIR pode não ser capaz de gerar uma descrição precisa.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Ser o mais específico possível no que você quer que o Atlassian Intelligence faça.
  • Garantir que você e sua equipe sigam as práticas de gerenciamento de incidentes com consistência. Por exemplo, registrando dados completos e precisos dos incidentes em sua instância do Jira Service Management e vinculando os canais de bate-papo relevantes ao incidente.
Seus dados e a função “Criar revisão pós-incidente com o AI” Copy link to heading Copied! Exibir
  

A gente entende que você pode ter dúvidas sobre como a função “Criar revisão pós-incidente com o AI” usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto da sua instância relevante para o prompt, como dados de incidentes (por exemplo, resumo, etiquetas, prioridade, descrição e equipes de resposta) e alertas e canais de bate-papo do Slack vinculados.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de dados, a criação de PIRs usando o AI aplica as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.

    • não são enviadas para nenhum provedor de LLM terceirizado que não seja a OpenAI.

    • Não são armazenadas pela OpenAI.

    • Não são usadas para melhorar os modelos da OpenAI.

    • São usadas apenas para a sua experiência.

  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal na página correspondente da Atlassian.

  • Essa função segue as permissões na instância. Por exemplo, se não tiver acesso aos alertas do incidente ou aos canais do Slack vinculados, o conteúdo destas fontes não vai ser sugerido na resposta recebida. Se você não quer que seu conteúdo seja disponibilizado nas respostas para outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada.

Gere descrições de pull request com o Atlassian Intelligence

Como o Bitbucket Cloud usa o Atlassian Intelligence para gerar descrições de pull request Copy link to heading Copied! Exibir
  

A geração de descrições de pull request com o Atlassian Intelligence é capacitada por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural e código nos produtos.

Eles geram respostas com base em suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi.

Casos de uso para gerar descrições de pull request com o Atlassian Intelligence Copy link to heading Copied! Exibir
  

O Atlassian Intelligence pode ajudar você a gerar, transformar e resumir conteúdo enquanto você escreve descrições ou comentários de pull request na experiência de revisão de código do Bitbucket Cloud. Ou seja, ele:

  • Gera uma descrição da pull request com base nas alterações de código contidas na pull request.
  • Resume, melhora ou altera o tom da descrição de uma pull request.
  • Resume, melhora ou altera o tom de um comentário da pull request.

A gente acredita que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence funciona melhor em cenários em que:

  • Como autor de código, você quer que o Atlassian Intelligence ajude a escrever ou melhorar descrição de uma pull request. Isso é ótimo para equipes que podem revisar e confirmar se o conteúdo gerado pelo Atlassian Intelligence é apropriado para descrever a pull request.
  • Como revisor de código, você quer que o Atlassian Intelligence o ajude a melhorar o tom ou o conteúdo de um comentário de pull request que você já redigiu.
Considerações ao gerar descrições de pull request com o Atlassian Intelligence Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para alimentar essa função funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence é menos útil em cenários em que:

  • Você precisa da descrição da pull request para fazer referência a informações que ainda não estejam presentes nas alterações do código (por exemplo, código-fonte contido em outro lugar no repositório).
  • Você não pode revisar e confirmar se o conteúdo gerado pelo Atlassian Intelligence é um reflexo preciso da pull request.
  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Ser o mais específico possível sobre o que você pedir para o Atlassian Intelligence fazer.
  • Corrigir, revisar e editar a saída gerada pelo assistente de redação do AI para obter precisão e clareza.
  • Colaborar com outras pessoas para obter feedback e melhorar a qualidade da produção.
Os dados e a geração de descrições de pull request com o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence no Confluence. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • Os prompts (dados de entrada) e as respostas (dados de saída)
  • O contexto da instância que é relevante para o prompt, como:
    • as alterações de código e as mensagens de commit na pull request
    • o conteúdo da descrição da pull request
    • o conteúdo do comentário da pull request
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha
  • Feedback que você optou por fazer sobre essa função

Quando se trata de dados próprios, a geração de descrições de pull request com o Atlassian Intelligence segue as seguintes medidas:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock.

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal na página correspondente da Atlassian.

Gere consultas SQL no Atlassian Analytics

Como o Atlassian Intelligence gera consultas SQL no Atlassian Analytics Copy link to heading Copied! Exibir
  

A geração de consultas SQL usando o Atlassian Intelligence no Atlassian Analytics é alimentada por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic.

O Atlassian Intelligence usa esses modelos para analisar e entender a linguagem natural e, em seguida, a traduz em linguagem de consulta estruturada (SQL) no Atlassian Analytics.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi.

Casos de uso para a geração de consultas SQL usando o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Em vez de escrever as próprias consultas SQL do zero, use linguagem natural para fazer uma pergunta ao Atlassian Intelligence, que vai transformar o texto em SQL. Depois de fazer uma pergunta, o Atlassian Intelligence usa o esquema do Atlassian Data Lake da fonte de dados selecionada para gerar uma consulta SQL que pode ser usada para criar gráficos nos painéis do Atlassian Analytics e pode ajudar você a aprender sobre o esquema no Data Lake.

A gente acha que gerar consultas SQL usando o Atlassian Intelligence funciona melhor em cenários em que:

  • Você quer criar um gráfico personalizado começando com o SQL gerado e refinando a consulta quando necessário.
  • A pergunta em linguagem natural inclui palavras e conceitos mencionados no esquema do Atlassian Data Lake, onde você é o mais específico possível.
  • Você quer conhecer e aprender sobre o esquema do Atlassian Data Lake.

Não sabe o que perguntar?

Aqui estão algumas sugestões:

  • What are the top 5 labels by count of open Jira work items?
  • How many Jira work items have been completed in the x project in the last month?
  • Qual é o tempo médio no status dos cinco primeiros colocados?
  • Quais foram as cinco páginas mais favoritas do Confluence no último mês?
  • Quantas solicitações foram criadas nos últimos cinco dias no projeto x do Jira Service Management?
Considerações ao gerar consultas SQL usando o Atlassian Intelligence Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para gerar consultas SQL usando o Atlassian Intelligence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que gerar consultas SQL usando o Atlassian Intelligence é menos útil em cenários em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa dessa função para ter acesso a informações que não estejam disponíveis no esquema do Atlassian Data Lake (por exemplo, dados do planejamento avançado) para responder à pergunta.
  • A pergunta inclui referências a campos personalizados.
  • A pergunta é feita em um idioma diferente do inglês.
  • Você não tem familiaridade suficiente com o SQL para validar o SQL retornado pelo Atlassian Intelligence.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Ser o mais específico possível sobre o que você pedir para o Atlassian Intelligence fazer.
  • A fonte de dados do Atlassian Data Lake que você está usando disponha dos dados necessários para responder à pergunta.
Seus dados e a geração de consultas SQL usando o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Você deve ter dúvidas sobre como seus dados vão ser usados pela geração de consultas SQL com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • O contexto da instância é relevante para o prompt, incluindo os esquemas do Atlassian Data Lake disponíveis para o público válidos para a instância.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata dos seus dados, a geração de consultas SQL usando o Atlassian Intelligence segue as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock.

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos estão em nossa página de subprocessadores . Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Essa função segue as permissões na conexão com o Atlassian Data Lake. Por exemplo, se você não tiver acesso a uma conexão do Atlassian Data Lake, não vai poder criar SQL para que ela seja consultada.

Pesquisar respostas no Confluence

Como o Atlassian Intelligence pesquisa respostas no Confluence Copy link to heading Copied! Exibir
  

A pesquisa de respostas no Confluence usando o Atlassian Intelligence é alimentada por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi.

Casos de uso para pesquisar respostas no Confluence Copy link to heading Copied! Exibir
  

As bases de conhecimento crescem mais rápido do que os usuários conseguem acompanhar. Pesquisar respostas no Confluence com o Atlassian Intelligence oferece um caminho mais rápido para as principais informações que os clientes precisam para o progresso do trabalho. Essa função é útil para encontrar as informações de que você precisa com facilidade. Ela entende os tipos de perguntas que você faria a um colega de equipe e a responde de imediato. Descubra mais sobre o uso do Atlassian Intelligence para pesquisar respostas no Confluence.

A gente acredita que pesquisar respostas no Confluence com o Atlassian Intelligence funciona melhor quando o site do Confluence tem bastante conteúdo detalhado, completo e atualizado.

Essa função não gera conteúdo novo, mas pesquisa páginas e blogs do Confluence (respeitando as restrições) para encontrar uma resposta adequada para a pergunta. O Atlassian Intelligence apenas gera respostas com base no que está no Confluence e no que você tem acesso, em específico.

Não sabe o que perguntar?

Veja aqui algumas sugestões

  • Quando vai ser a próxima sessão externa da equipe de marketing?
  • Qual é a política de trabalho em casa?
  • O que é o Projeto Sunrise?
  • Quando vai ser a próxima campanha de marketing?
  • Onde estão as notas da versão mais recente do produto do SpaceLaunch?
  • Como faço para solicitar reembolso de despesas?
Considerações ao pesquisar itens no Confluence com o Atlassian Intelligence Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para pesquisar respostas no Confluence com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente acredita que pesquisar respostas no Confluence com o Atlassian Intelligence é menos útil em situações em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa de informações atuais e precisas sobre aquelas que têm tendência a serem alteradas com frequência (por exemplo, roteiros que são atualizados todo mês).
  • Você precisa de informações atuais e precisas sobre pessoas específicas e a função que elas desempenham na organização.
  • Você precisa de acesso a informações que não estão disponíveis de imediato (por exemplo, páginas restritas na instância do Confluence) para encontrar uma resposta adequada para a pergunta.
  • A resposta consiste em uma variedade de valores ou categorias diferentes (por exemplo, métricas que são atualizadas toda semana).
  • Você precisa de respostas que exigem nuances, complexidades ou raciocínios de nível humano.

Também é possível que você descubra que pesquisar respostas no Confluence usando o Atlassian Intelligence não funciona conforme o esperado em espaços do Confluence que têm documentos escritos em vários idiomas.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Ser o mais específico possível sobre o que você pedir para o Atlassian Intelligence fazer.
  • Fazer perguntas sobre algo que você sabe que está documentado na instância do Confluence e às quais você tem acesso.
Dados e pesquisa de respostas no Confluence com o Atlassian Intelligence Copy link to heading Copied! Exibir
  

Você deve ter dúvidas sobre como seus dados vão ser usados pela pesquisa de respostas no Confluence com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto da instância relevante para a solicitação, como conteúdo das três primeiras páginas devolvido da pesquisa do Confluence.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Em relação aos dados, a pesquisa de respostas no Confluence usando o Atlassian Intelligence aplica as seguintes medidas:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock.

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal em nossa página correspondente. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página do Confluence, essa função não vai usar o conteúdo dessa página na resposta exibida. Se você não quiser que o conteúdo esteja disponível nas respostas de outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada.

Search work items in Jira

How Atlassian Intelligence searches work items in Jira Copy link to heading Copied! Exibir
  

Search work items using Atlassian Intelligence in Jira is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include OpenAI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models.

O Atlassian Intelligence usa esses modelos para analisar e entender linguagem natural e depois a traduz para o código da Linguagem de Consulta do Jira (JQL) nos produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Ou seja, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi.

Use cases for searching work items in Jira Copy link to heading Copied! Exibir
  

You can now ask Atlassian Intelligence what you want in everyday language instead of coming up with complex queries. By searching work items using Atlassian Intelligence, your prompt is translated into a JQL query which quickly assists you in your search for specific work items.

We believe searching work items using Atlassian Intelligence works best in scenarios where:

  • You're querying for Jira work items using work item fields available in your Jira project.
  • The query has specific fields and values that can help narrow down your work item search.
  • Os campos e valores na pesquisa já existem no projeto do Jira.
  • A consulta está em inglês.
  • A consulta pode ser traduzida para JQL. Como o Atlassian Intelligence converte solicitações em código JQL, você vai obter resultados melhores com entradas que contém palavras-chave que podem ser traduzidas para JQL.
Considerations when searching work items using Atlassian Intelligence Copy link to heading Copied! Exibir
  

It's important to remember that because of the way that the models used to search work items using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

We've found that searching work items using Atlassian Intelligence is less useful in scenarios where:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • You’re searching for Jira entities that are not work items, such as projects, boards, or users.
  • A pesquisa foi feita em um idioma diferente do inglês.
  • You need the search to analyze the work items to create charts, summaries, or other representations of your data.
  • The search requires functions not currently available in JQL (for example, a question such as “Find work items I have commented on” that can’t be translated into a JQL function).

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Além disso, seja o mais específico possível sobre o que vai pedir para o Atlassian Intelligence fazer. Inclua os campos e valores exatos que quer encontrar.

Your data and searching work items using Atlassian Intelligence Copy link to heading Copied! Exibir
  

We understand you may have questions about how searching work items using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto da instância relevante para a solicitação, como o projeto em que você está agora.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

When it comes to your data, searching work items using Atlassian Intelligence applies the following measures:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock.

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
    • São armazenados no nosso banco de dados por 90 dias e seus prompts vão ser apresentados como parte do histórico de pesquisa.

  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal em nossa página correspondente. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Your search responses will be based on the work items and fields you have access to (for example, if you don't have access to a specific Jira project, you won't receive search results for work items and fields from that project).

Análise do trabalho de IA

Como a análise do trabalho de IA usa o Atlassian Intelligence Copy link to heading Copied! Mostrar
  

A análise do trabalho de IA usa a tecnologia dos modelos grandes de linguagem desenvolvida pela OpenAI.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI.

Sobre a análise do trabalho de IA Copy link to heading Copied! Mostrar
  

AI Work Breakdown suggests child work items based on a Jira work item you’ve created, making it easy to break down large pieces of work into smaller ones. Your work item is used as context to generate suggestions for child work item summaries and descriptions.

A gente acredita que a análise do trabalho de IA funciona melhor em cenários onde:

  • You start with a work item that has a detailed summary and description, including any constraints, instructions, and definitions of done.
  • The starting work item doesn’t have existing child work items.
Limitações e considerações ao usar a análise do trabalho de IA Copy link to heading Copied! Mostrar
  

É importante lembrar que, devido à forma como funcionam, os modelos usados como tecnologia para análise do trabalho de IA às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que a análise do trabalho de IA é menos útil em cenários onde:

  • Você precisa de informações atuais e precisas sobre pessoas, lugares e fatos.
  • You don’t start with a detailed work item summary and description (e.g. if you try to generate child work item suggestions based on a work item with a very short and broad description).

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Ser o mais específico possível sobre o que você pedir para o Atlassian Intelligence fazer.
  • Providing as much information as possible in the starting work item summary and description.
Seus dados e a análise do trabalho de IA Copy link to heading Copied! Mostrar
  

A gente entende que você pode ter dúvidas sobre como a análise do trabalho de IA usa seus dados. Esta seção complementa as informações disponíveis no Trust Center.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Context from your instance relevant to your prompt, including work item data (like summary, description, and comments).
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de seus dados, a análise do trabalho de IA aplica as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • não são enviadas para nenhum provedor de LLM terceirizado que não seja a OpenAI.
    • Não são armazenadas pela OpenAI.
    • Não são usadas para melhorar os modelos da OpenAI.
    • São usadas apenas para a sua experiência.
  • O OpenAI é um subprocessador na lista de subprocessadores da Atlassian. Eles usam os dados de entrada e de saída apenas para processar a solicitação.
  • This feature follows the permissions in your instance (i.e. you must have access to the work item in order to generate child work item suggestions). If you don’t want your content to be available in other users' generated responses, work with your organization admin to ensure your permissions are set appropriately.
Como tópicos sugeridos na base de conhecimento usam o Atlassian Intelligence Copy link to heading Copied! Mostrar
  

Os tópicos sugeridos na base de conhecimento são desenvolvidos com base em grandes modelos de linguagem desenvolvidos pela OpenAI e pela Anthropic, bem como pela combinação de modelos de linguagem de open-source baseados em transformadores e outros modelos de aprendizado de máquina. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI e a série de modelos Claude da Anthropic.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Os modelos de codificador de open-source convertem as entradas textuais em formas numéricas (incorporações) que são usadas para identificar e formar tópicos a partir de suas entradas.

Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados.

Leia mais sobre as capacidades dos modelos da OpenAI e da Anthropic. Para saber mais sobre modelos de linguagem de open-souce, veja informações sobre Multi-QA-miniLM e E5-Multilingual.

Casos de uso para tópicos sugeridos na base de conhecimento Copy link to heading Copied! Mostrar
  

Essa função ajuda administradores e agentes a entender as lacunas na base de conhecimento deles analisando as solicitações de serviço recebidas em determinado projeto. Essa função destaca com clareza os tópicos para os quais os solicitantes de ajuda estão fazendo solicitações (com base em dados dos últimos 30 dias), mas não há conhecimento disponível. Ao sugerir tópicos, a gente quer dar aos administradores e agentes do projeto visibilidade sobre quantas solicitações podem ser transferidas ou, pelo menos, resolvidas com conhecimento.

A gente acredita que o aumento do número de artigos de conhecimento vai influenciar o desempenho de outras funções do Jira Service Management, como as respostas do AI do agente de serviço virtual. Quando administradores ou agentes criam artigos sobre os tópicos sugeridos, isso também pode ajudar a melhorar a taxa de resolução de solicitações resolvidas usando respostas do AI.

A gente acredita que tópicos sugeridos funcionam melhor nos cenários em que:

  • Há pelo menos 40 a 100 solicitações levantadas em um período de 30 dias.
  • O conteúdo das solicitações, como resumo, descrição, valores de campo etc., em geral está em inglês. A qualidade dos tópicos sugeridos pode variar em outros idiomas.
Considerações ao usar tópicos sugeridos na base de conhecimento Copy link to heading Copied! Mostrar
  

É importante lembrar que, devido à maneira como os modelos usados para alimentar tópicos sugeridos no trabalho de base de conhecimento, esses modelos às vezes podem ser imprecisos, não confiáveis ou estarem incompletos.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente acha que tópicos sugeridos na base de conhecimento são menos úteis em cenários em que:

  • Você precisa de tópicos para determinado projeto que recebe menos de 40 solicitações durante um mês.
  • O projeto cria solicitações de imediato a partir de alertas, pois elas podem não exigir um artigo da base de conhecimento.
  • Você precisa de tópicos para solicitações em que o resumo, a descrição, os valores dos campos etc. estejam em idiomas diferentes do inglês.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Pedido aos membros da equipe para analisarem os tópicos sugeridos antes de criar artigos.
  • Pedido aos administradores do projeto para identificarem especialistas nas equipes para criar artigos de alta qualidade na base de conhecimento.
Seus dados e tópicos sugeridos na base de conhecimento Copy link to heading Copied! Mostrar
  

Você deve ter dúvidas sobre como tópicos sugeridos vão usar os dados. Esta seção complementa as informações disponíveis no Trust Center.

O que é processado:

  • Contexto de sua instância relevante para a função, como dados em uma solicitação, como valores de campo, resumo e descrição para identificar tópicos.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de seus dados, os tópicos sugeridos na base de conhecimento aplicam as seguintes medidas.

Seus tópicos sugeridos na base de conhecimento:

  • Não estão disponíveis para outros clientes.
  • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock.
  • Não são armazenados por nenhum provedor de LLM.
  • Não são usados para melhorar nenhum LLMs de terceiros.
  • São usadas apenas para a sua experiência.
  • A OpenAI é um subprocessador da Lista de subprocessadores. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • We only process requests that are accessible to everyone in a service project for your site. Any requests with work item-level permissions are not considered to suggest topics.
  • Atualizamos a lista de tópicos sugeridos a cada sete dias para garantir que as sugestões estejam atualizadas.

Search content in Confluence

How Searching Confluence content using Atlassian Intelligence uses Atlassian Intelligence Copy link to heading Copied! Exibir
  

Searching Confluence content using Atlassian Intelligence is powered by large language models developed by OpenAI and Google. These large language models include OpenAI’s GPT series of models and Google’s Gemini series of models.

Atlassian Intelligence uses these models to analyze and generate natural language, then translates it to CQL (Confluence Query Language) code within our products.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI.

Use cases for Searching Confluence content using Atlassian Intelligence Copy link to heading Copied! Exibir
  

You can now ask Atlassian Intelligence for the content you want to find in Confluence using everyday language instead of coming up with complex queries. With the help of Atlassian Intelligence, your prompt is translated into a CQL query which quickly assists you in your search for specific content.

We believe that Searching Confluence content using Atlassian Intelligence works best in scenarios where:

  • You’re querying for Confluence content available within your Confluence knowledge base.
  • Your query has specific fields and values that can help narrow down your content search.
  • Your query is translatable to CQL. Atlassian Intelligence converts your natural language prompts to CQL queries. So, inputs containing keywords that can be translated to CQL can provide better results.
  • You’re searching for content in English.
Considerations when using Searching Confluence content using Atlassian Intelligence Copy link to heading Copied! Exibir
  

It’s important to remember that because of the way that the models used to power Searching Confluence content using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

We’ve found that Searching Confluence content using Atlassian Intelligence is less useful in scenarios where:

  • You need to find content using filters that are not currently supported by CQL.
  • Você precisa de informações atuais e precisas sobre pessoas, lugares e fatos.
  • A pesquisa foi feita em um idioma diferente do inglês.
  • You need the search to analyze the content to create charts, summaries, or other representations of your data.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

You might also want to think about being as specific as possible in what you ask Atlassian Intelligence to do. Make sure to include the exact fields and values that you’re looking for.

Your data and Searching Confluence content using Atlassian Intelligence Copy link to heading Copied! Exibir
  

We understand you may have questions about how Searching Confluence content using Atlassian Intelligence uses your data. This section supplements the information available on our Trust Center.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Context from your instance relevant to your prompt, such as to filter out search results based on user permissions
  • Dados sobre como você interage com nossas funções, como dados de sequência de cliques.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

When it comes to your data, Searching Confluence content using Atlassian Intelligence applies the following measures.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM terceirizado que não seja a OpenAI ou Google.
    • Are not stored by any LLM provider
    • Are not used to improve any LLM provider.
    • São usadas apenas para a sua experiência.
  • OpenAI and Google Vertex are subprocessors on our List of Subprocessors. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature follows the permissions in your instance. For example, if you do not have access to a Confluence page, you will not be shown content from that page in the response you receive. If you do not want your content to be available to other users in your instance, work with your org admin to ensure your permissions are set appropriately.

Leia mais sobre o Atlassian Intelligence

Descubra mais sobre como usar o Atlassian Intelligence

Obtenha insights instantâneos de seus dados

Selecione uma das funções do Atlassian Intelligence abaixo para ter uma visão transparente do uso de dados e dos casos de uso.

Chart Insights

Como o Chart insights usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

O Chart Insights é alimentado por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi.

Casos de uso para Chart insights Copy link to heading Copied! Exibir
  

O Chart insights usa o Atlassian Intelligence para ajudar a acelerar a compreensão dos dados em qualquer gráfico no Atlassian Analytics. Isso é feito usando o título do painel, o título do gráfico e os dados do gráfico (incluindo cabeçalhos de coluna e valores de linha) para gerar um resumo em linguagem natural desse gráfico e de seus dados. Também vai ter como objetivo identificar quaisquer tendências ou anomalias para oferecer alguns insights sobre esse gráfico.

A gente acredita que o Chart insights funciona melhor em cenários em que:

  • Os gráficos têm muitas linhas de dados.
  • Os gráficos têm um título de painel.
  • Os gráficos têm cabeçalhos de coluna.
  • Os gráficos têm valores em todas as linhas e colunas.

Gráficos de barras, gráficos de linhas e gráficos de barras funcionam melhor com essa função, pois costumam ter tendências, datas e muitas linhas de dados.

Considerações ao usar o Chart insights Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para alimentar o Chart insights funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente descobriu que o Chart insights é menos útil em cenários em que:

  • Você tem gráficos com uma ou apenas algumas linhas de dados.
  • Você tem gráficos que são do tipo de valor único.
  • Você tem gráficos sem títulos, etiqueta de eixo e cabeçalhos de coluna.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Verifique a precisão dos insights com outros usuários que possam ter mais contexto sobre os dados específicos exibidos no gráfico.
  • Para dar uma resposta, o Atlassian Intelligence usa apenas o contexto de um único gráfico e não o painel inteiro.
Dados e Chart insights Copy link to heading Copied! Exibir
  

Você deve ter dúvidas sobre como seus dados vão ser usados pelo Chart Insights. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • O contexto da instância relevante para o prompt, como os dados no gráfico.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de dados, o Chart insights aplica as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • Não são enviados para nenhum provedor de LLM externo que não seja a OpenAI, o Google ou a Anthropic no AWS Bedrock.

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal em nossa página correspondente. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • Essa função usa apenas informações do painel ao qual você tem acesso e para o qual solicitou insights.

Sugira tipos de solicitação no Jira Service Management

Como a Atlassian Intelligence sugere os tipos de solicitação no Jira Service Management Copy link to heading Copied! Exibir
  

A sugestão de tipos de solicitação usando o Atlassian Intelligence é alimentada por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI.

O Atlassian Intelligence usa esses modelos para analisar as entradas em linguagem natural e gerar recomendações para os nomes dos tipos de solicitação e descrições para você no Jira Service Management.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI.

Casos de uso para sugerir tipos de solicitação no Jira Service Management Copy link to heading Copied! Exibir
  

Receba sugestões do Atlassian Intelligence e economize tempo sem ter que tentar descobrir quais tipos de solicitação você precisa criar para o projeto. Apenas descreva o trabalho e o que a equipe costuma gerenciar para ver quais tipos de solicitações você pode criar. Escolha uma das sugestões geradas pelo Atlassian Intelligence para criar um tipo de solicitação. Saiba mais sobre como usar o Atlassian Intelligence para sugerir tipos de solicitação.

A gente acredita que usar o Atlassian Intelligence para sugerir tipos de solicitação funciona melhor em situações em que:

  • Você tem casos de uso muito específicos que os templates de tipo de solicitação não atendem.
  • Você tem requisitos muito generalizados e está em busca de novas ideias.
  • O idioma escolhido é bastante falado (inglês ou espanhol, por exemplo).
Considerações sobre o uso do Atlassian Intelligence para sugerir tipos de solicitação Copy link to heading Copied! Exibir
  

É importante lembrar que, devido à forma como os modelos usados para sugerir tipos de solicitação com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

A gente percebeu que usar o Atlassian Intelligence para sugerir tipos de solicitação é menos útil em situações em que:

  • Você necessita de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa da função para ter acesso a informações que não estão disponíveis de imediato (na sua instância, por exemplo) para encontrar uma resposta adequada para a solicitação.
  • Você apresenta solicitações muito vagas ou irrelevantes para o gerenciamento de serviços.
  • O idioma escolhido não é muito falado

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Também considere:

  • Ser o mais específico possível sobre o que você pedir para o Atlassian Intelligence fazer.
Seus dados e o uso do Atlassian Intelligence para sugerir tipos de solicitação Copy link to heading Copied! Exibir
  

Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence para sugerir tipos de solicitação. Esta seção complementa as informações disponíveis na página de perguntas frequentes.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • O contexto da instância relevante para a solicitação.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para sugerir tipos de solicitação:

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • não são enviadas para nenhum provedor de LLM terceirizado que não seja a OpenAI.

    • Não são armazenados por nenhum provedor de LLM.
    • Não são usados para melhorar modelos LLM.
    • São usadas apenas para a sua experiência.
  • Todos os provedores de LLM externos são subprocessadores e estão listados como tal em nossa página correspondente. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação.
  • A função usa apenas as informações das solicitações para que todas as permissões do Jira sejam respeitadas.

Sugira tipos de solicitação no Jira Service Management

Como o resumo executivo da área de foco usa o Atlassian Intelligence Copy link to heading Copied! Exibir
  

O resumo executivo da área de foco é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui.

O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos.

Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados.

Leia mais sobre os recursos dos modelos da OpenAI

Casos de uso do resumo executivo da área de foco Copy link to heading Copied! Exibir
  

Focus Area Executive Summary uses Atlassian Intelligence to provide a quick, actionable summary of your focus area, including the work that’s in progress, the health of connected goals, suggestions for where to pay attention, and recommendations to remediate any work items.

O Resumo Executivo da Área de Foco funciona melhor quando:

  • Suas atualizações de Área de Foco e Metas estão completas, precisas e atualizadas, com conquistas, progressos e riscos escritos com detalhes.
  • Você conectou à Área de Foco todas as metas relevantes que são usadas para medir o sucesso de forma direta.
  • A Área de Foco está conectada às áreas de subfoco com suas próprias atualizações relevantes e conexões de metas.
Considerações ao usar o resumo executivo da área de foco Copy link to heading Copied! Exibir
  

Devido à forma como funcionam os modelos usados pelo Resumo Executivo da Área de Foco às vezes podem ser imprecisos, incompletos ou não confiáveis.

Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto.

Descobrimos que o Resumo Executivo da Área de Foco é menos útil em cenários em que:

  • Você precisa de informações atuais e precisas sobre pessoas, lugares e fatos.
  • Você precisa das atualizações do Focus para ter acesso a informações que não estão disponíveis de imediato (na sua instância, por exemplo) para encontrar uma resposta adequada para a solicitação.
  • Suas atualizações de Área de Foco e Meta estão incompletas, ausentes ou sem muitos detalhes. Se não houver atualizações, se a atualização se basear apenas em imagens ou se estiver mal escrita, a Atlassian Intelligence não terá o contexto certo para gerar um resumo preciso.

Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas.

Seus dados e resumo executivo da área de foco Copy link to heading Copied! Exibir
  

A gente entende que você pode ter dúvidas sobre como o resumo executivo da área de foco usa seus dados. Esta seção complementa as informações disponíveis no Trust Center.

O que é processado:

  • As solicitações (dados de entrada) e respostas (dados de saída).
  • Contexto da sua instância relevante para sua solicitação, como atualizações da área de foco, atualizações de metas e áreas de foco e metas vinculadas.
  • Dados sobre como você interage com as funções, como dados de sequência de cliques e as pessoas com quem você trabalha.
  • Feedback que você opta por dar sobre a função, incluindo solicitações ou respostas que decida compartilhar como parte do feedback.

Quando se trata de seus dados, o resumo executivo da área de foco aplica as seguintes medidas.

  • As solicitações (dados de entrada) e respostas (dados de saída):
    • Não estão disponíveis para outros clientes.
    • não são enviadas para nenhum provedor de LLM terceirizado que não seja a OpenAI.
    • Não são armazenadas pela OpenAI.
    • Não são usados para aprimorar o OpenAI.
    • São usadas apenas para a sua experiência.
  • A OpenAI é um subprocessador da Lista de subprocessadores da Atlassian. Eles usam os dados de entrada e de saída apenas para processar a solicitação.
  • Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso às metas vinculadas às suas áreas de foco em foco, elas não vão ser incluídas na resposta que você receber.

Leia mais sobre o Atlassian Intelligence

Descubra mais sobre como usar o Atlassian Intelligence

Referências

Receba atualizações em tempo real do status de produtos Atlassian na Página de status.

Saiba mais sobre o Atlassian Intelligence

Entenda como a Atlassian gerencia os dados do cliente.

Saiba mais sobre o Atlassian Rovo