O Atlassian Intelligence e o Rovo foram criados para proporcionar transparência
Compromisso sem papo furado com a comunicação aberta e a imputabilidade, bem como de ajudar as equipes a usar o AI com responsabilidade.
Rovo
Selecione uma das funções do Rovo abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
Os Agentes Rovo contam com a tecnologia dos grandes modelos de linguagem desenvolvidos pela OpenAI e Google, além de uma combinação de grandes modelos de linguagem open source (incluindo a série Llama) e outros de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI e a série Gemini do Google. Com esses modelos, os Agentes Rovo fornecem funcionalidades para analisar e gerar respostas aos prompts em linguagem natural e fornecer respostas relevantes da Atlassian e de produtos de terceiros conectados. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e do Google. Para saber mais sobre modelos de linguagem de código aberto, consulte as informações sobre a série Llama. |
Com o Rovo, fornecemos vários Agentes prontos para serem usados em diversas tarefas, como ajudar na tomada de decisões, publicar documentação de conhecimento e arrumar ou organizar itens de trabalho no Jira. Os Agentes são colegas de equipe especializados criados por inteligência artificial que podem ajudar equipes humanas a avançarem com o trabalho de forma rápida e eficaz. Você pode:
Acreditamos que os Agentes Rovo funcionam melhor em cenários em que:
|
É importante lembrar que, devido à forma como funcionam os modelos que os Agentes Rovo usam, às vezes eles podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que os Agentes Rovo são menos úteis em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter perguntas sobre como os Agentes Rovo usam seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de dados, os Agentes Rovo aplicam as seguintes medidas.
Os dados acima se aplicam aos agentes oferecidos pela Atlassian. Para obter mais informações sobre os agentes oferecidos pela Atlassian, consulte as diretrizes de dados, privacidade e uso do Rovo | Rovo | Suporte da Atlassian. Para obter informações sobre agentes oferecidos por terceiros, consulte os Termos do Fornecedor oferecidos por esses terceiros para seus aplicativos. Leia mais sobre o Atlassian Intelligence |
O Chat Rovo conta com a tecnologia dos grandes modelos de linguagem desenvolvidos pela OpenAI e Google, além de uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama) e outros de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI e a série Gemini do Google. O Chat Rovo usa esses modelos para analisar e gerar respostas aos prompts usando linguagem natural e fornecer respostas relevantes da Atlassian e de produtos de terceiros conectados. As respostas são geradas por esses grandes modelos de linguagem com base em suas entradas e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais os modelos foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e do Google. Para saber mais sobre modelos de linguagem de código aberto, consulte as informações sobre a série Llama. |
Com o Chat Rovo, você acessa o conhecimento da sua organização em uma interface conversacional. Assim, pode pedir ao Rovo que escreva, leia, revise ou crie o que você quiser da mesma forma que faria com uma pessoa, sem interromper seu fluxo de trabalho. O Chat entende o contexto do seu trabalho (tanto na Atlassian quanto em seus produtos de terceiros conectados) para responder perguntas ou fornecer ideias ou insights. Acreditamos que o Chat Rovo funciona melhor em cenários em que:
O Chat Rovo também pode ser acessado pelos usuários por meio de uma extensão do navegador Chrome. Saiba mais sobre como acessar o Rovo Chat aqui e aqui. |
É importante lembrar que, devido à forma como funcionam os modelos que essa função usa, às vezes eles podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que o Chat Rovo é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Chat Rovo e analise a qualidade das respostas recebidas antes de compartilhar os resultados com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como o Chat Rovo usa seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado: As solicitações (dados de entrada) e respostas (dados de saída).
Quando se trata de dados, o Chat Rovo aplica as seguintes medidas.
A OpenAI é um subprocessador da Lista de subprocessadores da Atlassian. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar ou intervir nas solicitações. Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página do Confluence, o conteúdo dessa página não vai ser sugerido para você na resposta recebida. Se você não quer que seu conteúdo seja disponibilizado nas respostas para outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada. Quando você acessa o Chat Rovo pela extensão do navegador Chrome, ele só lê o conteúdo da página da web que você está visualizando para complementar o conteúdo que já está em seus produtos Atlassian. Nenhum dado adicional da página da web é armazenado. Leia mais sobre o Atlassian Intelligence Descubra mais sobre como usar o Atlassian Intelligence |
A Pesquisa Rovo usa inteligência artificial para aprimorar a capacidade de pesquisa nas ferramentas da Atlassian e de terceiros. A Pesquisa Rovo conta com a tecnologia dos grandes modelos de linguagem desenvolvidos pela OpenAI e Google, além de uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama) e outros de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI e a série Gemini do Google. A Pesquisa Rovo usa esses modelos para oferecer funcionalidades como pesquisa semântica, classificação por relevância e processamento de linguagem natural. Esse processo inclui análise e geração de respostas às expressões de pesquisa em linguagem natural e oferecimento de respostas relevantes dos produtos Atlassian e de terceiros. Respostas são geradas por esses grandes modelos de linguagem com base nas entradas e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e do Google. Para saber mais sobre modelos de linguagem de código aberto, consulte as informações sobre a série Llama. |
A Pesquisa Rovo permite que os usuários façam pesquisas em várias ferramentas e plataformas, incluindo tanto produtos Atlassian quanto os de terceiros, e oferece resultados contextuais e relevantes para aprimorar a colaboração e a produtividade da equipe. Acreditamos que a Pesquisa Rovo funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como funcionam os modelos usados para alimentar essa função, às vezes eles podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a Pesquisa Rovo é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Rovo e analise a qualidade das respostas recebidas antes de compartilhar os resultados com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como a Pesquisa Rovo usa seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de dados, a Pesquisa Rovo aplica as seguintes medidas.
Leia mais sobre o Atlassian Intelligence O que é o Atlassian Intelligence? | Suporte da Atlassian Rovo: adquira conhecimento organizacional com a inteligência artificial generativa | Atlassian |
Acelere o trabalho com o AI
Selecione uma das funções do Atlassian Intelligence abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
- ChatOps do AI para gerenciamento de incidentes
- Rascunhos de IA
- Resumos de IA nos cartões de hub da empresa
- Recursos relacionados do AI
- Sugestões de IA
- Automação
- Agrupamento de alertas
- Resumo rápido do Confluence
- Definição de termos
- IA generativa no editor
- Reformatador de tickets
- Summarize work item details
- Resumo dos links inteligentes
- Agente de serviço virtual
- Summarize work item details using Atlassian Intelligence
- Análise do trabalho de IA
- ChatOps do AI para gerenciamento de incidentes
- Rascunhos de IA
- Resumos de IA nos cartões de hub da empresa
- Recursos relacionados do AI
- Sugestões de IA
- Automação
- Agrupamento de alertas
- Resumo rápido do Confluence
- Definição de termos
- IA generativa no editor
- Reformatador de tickets
- Summarize work item details
- Resumo dos links inteligentes
- Agente de serviço virtual
- Summarize work item details using Atlassian Intelligence
- Análise do trabalho de IA
Automação usando o Atlassian Intelligence
As funções do ChatOps do AI para gerenciamento de incidentes têm a tecnologia dos grandes modelos de linguagem (LLM) desenvolvidos pela OpenAI. Elas também são baseadas em uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama e Phi) e outros de aprendizado de máquina. Esses LLMs incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI ou sobre essa abordagem nos artigos da empresa. Para saber mais sobre modelos de linguagem open source, consulte as informações sobre as séries Llama e Phi. |
Com o ChatOps do IA para gerenciamento de incidentes, seus usuários podem agilizar o processo de resolução de incidentes. Essa funcionalidade é possível porque a ferramenta gera um resumo do incidente relevante e de todas as conversas associadas até o momento e o fornece para novos usuários quando eles são adicionados ao canal do Slack. Esse canal está vinculado ao ticket do incidente no Jira Service Management. Além disso, o ChatOps do IA para gerenciamento de incidentes registra no Jira Service Management as conversas que ocorrem no Slack como uma linha do tempo para referência futura. O ChatOps do AI para gerenciamento de incidentes funciona melhor nestes cenários:
|
Por conta da maneira como os modelos costumavam alimentar o trabalho do ChatOps do AI para gerenciamento de incidentes, esses modelos podem ser imprecisos, incompletos e não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que parece razoável, mas é falso ou está incompleto. O ChatOps do AI para gerenciamento de incidentes é menos útil nestes cenários:
Por isso, sugerimos que você considere as situações em que usa o ChatOps do AI para gerenciamento de incidentes e analise a qualidade das respostas recebidas antes de compartilhar com outras pessoas. Também vale a pena verificar as permissões para garantir que os usuários tenham os níveis adequados de acesso aos canais do Slack e tickets de incidente relevantes. |
Entendemos que você pode ter dúvidas sobre como o ChatOps do AI para gerenciamento de incidentes usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, o ChatOps do AI para gerenciamento de incidentes aplica as seguintes medidas:
|
Rascunhos de IA utilizam grandes modelos de linguagem desenvolvidos pela OpenAI e pela Anthropic, bem como pela combinação de modelos de linguagem de código aberto baseados em transformadores e outros modelos de aprendizado de máquina. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Os modelos de codificador de open-source convertem as entradas textuais em formas numéricas (incorporações) que são usadas para identificar e formar tópicos a partir de suas entradas. Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e da Anthropic. Para saber mais sobre modelos de linguagem de código aberto, consulte as informações sobre modelos de incorporação. |
Os rascunhos de IA sugerem rascunhos pré-gerados de artigos de conhecimento para seus administradores e agentes avaliarem. Essa função gera rascunhos para os tickets mais comuns em um projeto do Jira Service Management, usando as informações e comentários nos tickets desse projeto. Essa ação permite que suas equipes de serviço aumentem a cobertura dos artigos da sua base de conhecimento com mais rapidez e facilidade, o que, por sua vez, vai beneficiar o desempenho de outras funções no Jira Service Management. Por exemplo, artigos de conhecimento criados usando rascunhos de IA podem então ser usados pela função de respostas do AI do agente de serviço virtual para resolver solicitações de seus solicitantes de ajuda com mais facilidade e rapidez. Leia mais sobre as respostas do AI no agente de serviço virtual. A gente acredita que os rascunhos de IA funcionam melhor em cenários em que:
|
É importante lembrar que, devido à forma como funcionam os modelos usados para alimentar os rascunhos de IA, às vezes eles podem apresentar um comportamento impreciso, incompleto e não confiável. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que os rascunhos de IA são menos úteis em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como os rascunhos de IA usam seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de seus dados, os rascunhos de IA aplicam as seguintes medidas.
|
Resumos de IA em cartões de hub da empresa usam grandes modelos de linguagem desenvolvidos pela OpenAI. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI. |
Os resumos de IA nos cartões de hub da empresa ajudam você a preencher e publicar com rapidez seu hub da empresa, sugerindo descrições geradas pela IA para os cartões. Essa função usa o Atlassian Intelligence para gerar um resumo da página vinculada do Confluence ou blog para seu cartão de hub da empresa. A gente acredita que os resumos de IA nos cartões de hub da empresa funcionam melhor em cenários em que:
|
É importante lembrar que, devido à forma como funcionam os modelos usados para alimentar os resumos de IA nos cartões de hub da empresa, às vezes eles podem apresentar um comportamento impreciso, incompleto e não confiável. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que os resumos de IA nos cartões de hub da empresa são menos úteis em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. |
A gente entende que você pode ter dúvidas sobre como os resumos de IA nos cartões de hub da empresa usam seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata dos seus dados, os resumos de IA nos cartões de hub da empresa aplicam as seguintes medidas.
|
Os recursos relacionados do AI têm a tecnologia dos LLMs desenvolvidos pela OpenAI e de uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama e Phi) e outros de aprendizado de máquina. Esses LLMs incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural nos nossos produtos e para fornecer respostas relevantes da Atlassian e de produtos externos conectados. Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI ou sobre essa abordagem nos artigos da empresa. Para saber mais sobre modelos de linguagem open source, consulte as informações sobre as séries Llama e Phi. |
Com o Atlassian Intelligence, seus usuários podem acelerar o processo de resolução de incidentes consultando uma lista sugerida de recursos. Esse recurso inclui artigos e espaços da base de conhecimento vinculada, tickets do Jira e, caso seja cliente Rovo, produtos externos integrados ao Rovo. Leia mais sobre o Rovo e ferramentas externas. Os recursos relacionados do AI funcionam melhor nestes cenários:
|
Por conta da maneira como os modelos costumavam alimentar os recursos relacionados do AI, esses modelos podem ser imprecisos, incompletos e não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que parece razoável, mas é falso ou incompleto. Os recursos relacionados do AI são menos úteis nestes cenários:
Por isso, sugerimos que você considere as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar com outras pessoas. Também vale a pena pensar no seguinte:
|
Entendemos que você pode ter dúvidas sobre como os recursos relacionados do AI usam seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, os recursos relacionados do AI aplicam as seguintes medidas:
|
As sugestões de IA no Jira Service Management são baseadas em grandes modelos de linguagem desenvolvidos pela OpenAI e outros modelos de aprendizado de máquina. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos grandes de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI. |
Com as sugestões de IA no Jira Service Management, a equipe pode se atualizar logo reunindo um contexto importante sobre as solicitações de serviço e incidentes em um piscar de olhos. O Atlassian Intelligence ajuda a equipe a:
As sugestões de IA no Jira Service Management também podem recomendar que os agentes escalem uma solicitação ou incidente quando o SLA aplicável estiver prestes a ser violado. No caso de solicitações de serviço, essa função também pode sugerir que os agentes escalem essa solicitação quando os modelos usados para alimentar essas sugestões identificarem, com base no texto dos comentários do relator, um senso de urgência ou raiva com essa solicitação. A gente acredita que as sugestões de IA no Jira Service Management funcionam melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar as sugestões de IA no Jira Service Management funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Foi descoberto que as sugestões de IA no Jira Service Management são menos úteis em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como as sugestões de IA no Jira Service Management usam os dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de dados, as sugestões de IA aplicam as seguintes medidas.
|
A automação com o Atlassian Intelligence usa a tecnologia de grandes modelos de linguagem desenvolvidos pela OpenAI, pelo Google e pela Anthropic, bem como por uma combinação de grandes modelos de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar a entrada de linguagem natural e gerar uma regra de automação no Jira e no Confluence. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
A criação de regras de automação está no centro da experiência diária de automação, e a gente quer tornar isso ainda mais fácil para você ao adicionar o Atlassian Intelligence ao criador de regras de automação no Jira e no Confluence. Agora, é possível criar regras de automação digitando e descrevendo o que você quer automatizar. Deixe que o Atlassian Intelligence cuide de todo o trabalho pesado para você. Saiba mais sobre Automação usando o Atlassian Intelligence para Jira e para Confluence. A gente acredita que a Automação usando o Atlassian Intelligence para o Jira e o Confluence funciona melhor em cenários em que você não tem certeza de como começar ou quer acelerar o processo de criação de regras. Não tem certeza da melhor forma de criar uma regra de automação?Regras de automação são criadas por uma combinação de diferentes tipos de componentes: acionadores, ações, condições e ramificações. Pense nos componentes como os alicerces de uma regra. Para criar uma regra com sucesso com o Atlassian Intelligence, ela deve conter pelo menos um acionador e uma ação. Por exemplo: No Jira: Toda segunda-feira, encontre todas as tarefas com data de entrega para os próximos sete dias e envie um e-mail de lembrete ao responsável. Quando um ticket for transferido para Teste, atribua o ticket a John Smith. No Confluence:
Além disso, para que uma regra seja criada com sucesso, todos os componentes devem ser compatíveis com a Automação usando o Atlassian Intelligence. Ou seja, todos os acionadores, ações, condições ou ramificações na regra devem ser compatíveis com a Automação no Jira e/ou no Confluence. |
É importante lembrar que, devido à forma como os modelos usados para impulsionar a Automação usando o Atlassian Intelligence funcionam, esses modelos podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a Automação usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. A Automação usando o Atlassian Intelligence só vai funcionar com o conjunto de componentes de automação disponíveis no Jira e no Confluence. Você também pode pensar em ser o mais específico possível no que pede para o Atlassian Intelligence fazer, conforme descrito acima. |
Você deve ter dúvidas sobre como seus dados vão ser usados pela Automação com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados, o uso do Atlassian Intelligence para automação do Confluence aplica as seguintes medidas:
Todos os provedores de LLM externos são subprocessadores e estão listados como tal na página correspondente da Atlassian. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação. Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página ou projeto, o conteúdo desses recursos não vai ser sugerido para você na resposta recebida. Se você não quiser que o conteúdo seja disponibilizado nas respostas de outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada. |
Agrupamento de alertas
O agrupamento de alertas do Atlassian Intelligence é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI e pelo Google. Esses modelos incluem um algoritmo projetado para identificar padrões nos dados de alerta e a série de modelos GPT da OpenAI e Gemini do Google. O Atlassian Intelligence usa esses modelos de aprendizado de máquina para analisar, gerar grupos de alertas e dar sugestões relacionadas (grupos e respondentes de alertas anteriores) nos produtos da Atlassian com base na semelhança do conteúdo dos alertas ou dos marcadores usados. Depois, o Atlassian Intelligence usa grandes modelos de linguagem para analisar e gerar descrições e conteúdo em linguagem natural para esses grupos nos produtos que a gente oferece. Esses grandes modelos de linguagem são probabilísticos e geram respostas com base nas entradas. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e do Google. |
O agrupamento de alertas usa o Atlassian Intelligence para identificar e agrupar alertas semelhantes. Ele também ajuda a identificar e a recomendar grupos de alerta semelhantes anteriores e respondentes de alerta anteriores (ou equipes de respondentes), com base na semelhança semântica do conteúdo do alerta ou dos marcadores usados. Para escalar o grupo de alertas para um incidente, o agrupamento de alertas também preenche com antecedência todas as informações contextuais para você revisar como parte do processo de criação do incidente. A gente acredita que o agrupamento de alertas funciona melhor nos cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar o agrupamento de alertas funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você receber podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Os grupos de alertas exibidos talvez não reflitam com precisão a semelhança semântica dos marcadores. A gente descobriu que o agrupamento de alertas é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Você e a equipe também devem usar os marcadores de alerta com consistência. |
Você deve ter dúvidas sobre como seus dados vão ser usados pelo agrupamento de alertas. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
A gente processa os dados de alerta para treinar uma versão do modelo de aprendizado de máquina no reconhecimento de padrões específicos para seus alertas. Esta versão é usada para atender apenas à sua experiência:
Em relação aos dados, o agrupamento de alertas aplica as seguintes medidas:
|
O resumo de páginas e blogs usando o Atlassian Intelligence é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI e pelo Google. Esses modelos incluem a série de modelos GPT da OpenAI e a série Gemini do Google. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e do Google. |
Economize tempo e obtenha os detalhes necessários para fazer seu trabalho com mais rapidez ao gerar um resumo rápido de uma página ou blog do Confluence com o Atlassian Intelligence. Saiba mais sobre como usar o Atlassian Intelligence no Confluence. A gente acredita que resumir páginas e blogs usando o Atlassian Intelligence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para resumir páginas e blogs usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Embora continuemos criando suporte para macros, tabelas e expandindo resumos, resumir páginas e blogs usando o Atlassian Intelligence é menos útil em cenários em que:
Pense nas situações em que o Atlassian Intelligence é usado e analise a qualidade das respostas recebidas antes de compartilhá-las com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence na automação do Confluence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos seus dados, resumir páginas e blogs usando o Atlassian Intelligence aplicam as seguintes medidas:
|
Defina termos usando o Atlassian Intelligence
A definição de termos usando o Atlassian Intelligence no Confluence e no Jira é baseada em modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic e uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar respostas em linguagem natural no Confluence e no Jira. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Uma das coisas mais desafiadoras sobre o consumo de conteúdo no Confluence e no Jira é obter o contexto necessário para entender o que você está lendo. Abreviações, acrônimos, termos desconhecidos e nomes específicos de equipes ou projetos podem levar a uma longa busca pelas informações de que você precisa. A definição de termos usando o Atlassian Intelligence vai oferecer o significado de termos empresariais (como acrônimos, nomes de projetos, sistemas ou equipes) em uma página no Confluence ou na descrição de um ticket no Jira. Assim, os usuários acessam as informações de que precisam, quando precisam, o que ajuda as equipes a trabalharem melhor juntas. O Atlassian Intelligence poupa tempo ao definir essas coisas para você, sem se afastar do que você está lendo. Se você encontrar uma definição que considere imprecisa, pode editar ou adicionar uma nova e, em seguida, definir a visibilidade para essa página ou ticket, para todo o espaço ou projeto ou acessar toda a organização. A definição de termos usando o Atlassian Intelligence no Confluence e no Jira funciona melhor nestes cenários:
|
É importante lembrar que, devido à forma como os modelos usados para definir termos usando a Inteligência Atlassian no Confluence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que definir termos usando o Atlassian Intelligence no Confluence é menos útil em cenários em que:
Além disso, no Jira, também descobrimos que, como a definição de termos usando o Atlassian Intelligence depende da pesquisa no Confluence, a função só vai funcionar no Jira se você tiver permissão para visualizar uma instância do Confluence no mesmo site da sua instância do Jira. Também é possível que você descubra que definir termos usando o Atlassian Intelligence não funciona conforme o esperado em espaços do Confluence ou instâncias do Jira que têm conteúdo escrito em vários idiomas. |
Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para definir termos:
|
IA generativa no editor
As experiências de edição do Atlassian Intelligence são alimentadas por grandes modelos de linguagem desenvolvidos pela OpenAI e pelo Google. Esses modelos incluem a série de modelos GPT da OpenAI e a série Gemini do Google. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e do Google. |
O Atlassian Intelligence ajuda a impulsionar a comunicação eficaz entre todas as equipes de uma organização para melhorar a eficiência, a tomada de decisões e os processos. A gente acredita que usar o Atlassian Intelligence na edição de textos funciona melhor para:
|
É importante lembrar que, devido à forma como os modelos usados para impulsionar a Atlassian Intelligence em experiências de edição funcionam, às vezes eles podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas que seja falso ou incompleto. A gente descobriu que usar o Atlassian Intelligence para editar textos é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence para editar textos. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para editar textos:
|
O reformatador de tickets é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI, incluindo a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esse modelo para analisar e gerar linguagem natural no Jira. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI. |
O reformatador de tickets ajuda a melhorar a clareza das descrições dos tickets do Jira ao fazer a reformatação usando um template desenvolvido pela Atlassian. Esse template aborda os tipos de informações que a gente espera encontrar na descrição de um ticket do Jira, como uma história do usuário, contexto do trabalho e critérios de aceitação. A gente acredita que o reformatador de tickets funciona melhor em cenários em que as descrições de tickets já contêm informações úteis (como critérios de aceitação ou links para fontes), mas essas informações não são formatadas usando uma estrutura clara ou consistente. |
É importante lembrar que, devido à forma como funcionam, os modelos usados para alimentar o reformatador de tickets podem, às vezes, ser imprecisos, incompletos ou não confiáveis. Por exemplo, a descrição reformatada pode não refletir com precisão o conteúdo em que foi baseada ou pode incluir informações que parecem razoáveis, mas são falsos ou incompletos. A gente descobriu que o reformatador de tickets é menos útil em cenários em que:
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence, and always review the quality of the responses you get before sharing them with others. You might also want to think about reviewing and confirming that your work item descriptions include all relevant information before you start using work item reformatter to reformat them. |
We understand you may have questions about how work item reformatter uses your data. This section supplements the information available on our Trust Center. O que é processado:
When it comes to your data, work item reformatter applies the following measures:
|
Summarize work item details in Jira Service Management
Summarize work item details using Atlassian Intelligence is powered by large language models developed by OpenAI and Google. These large language models include OpenAI's GPT series of models and Google's Gemini series of models. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e do Google. |
Instead of reading through long descriptions and numerous comments on a Jira Service Management work item, you can use Atlassian Intelligence to quickly summarize this information for you. This helps agents quickly understand the context of the work item and any progress made, enabling them to take swift action and provide timely assistance. We believe that summarizing work item details using Atlassian Intelligence works best for:
|
It’s important to remember that because of the way that the models used to power summarizing work item details using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. We’ve found that summarizing work item details using Atlassian Intelligence is less useful in scenarios when:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. |
We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page. O que é processado:
When it comes to your data, summarizing work item details using Atlassian Intelligence applies the following measures:
|
IA generativa no editor
Resuma links inteligentes do Atlassian Intelligence (AI) usando a tecnologia de modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Depois que você passa o cursor do mouse sobre um link inteligente do Jira, Confluence e Documentos Google, o Atlassian Intelligence ajuda a resumir o conteúdo. Isso permite que você determine a importância e o valor do link para decidir sua próxima ação. Assim, você não precisa sair da página atual e trocar de contexto. Acreditamos que o recurso Resumir links inteligentes com IA funciona melhor nos cenários em que:
|
Vale lembrar que os modelos às vezes podem ter um comportamento impreciso, incompleto ou não confiável devido à maneira como eles costumavam alimentar o recurso Resumir links inteligentes com IA. Por exemplo, os resumos que você recebe podem não refletir com precisão o conteúdo em que eles se baseiam ou incluir conteúdo que parece razoável, mas é falso ou incompleto. Descobrimos que o recurso Resumir links inteligentes com IA é menos útil nos cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. |
We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page. O que é processado:
Quando se trata dos seus dados, o recurso Resumir links inteligentes com IA aplica as seguintes medidas.
|
Respostas do Atlassian Intelligence no Jira Service Management
O agente de serviço virtual do Jira Service Management é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI e pelo Google, bem como por grandes modelos de linguagem de código aberto (incluindo a série Llama). O agente de serviço virtual usa os modelos da seguinte forma:
Como funcionam os modelos grandes de linguagem: eles geram respostas com base nas suas entradas e são de natureza probabilística. Ou seja, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados em que eles foram treinados. Os grandes modelos de linguagem usados para alimentar o agente de serviço virtual incluem a série de modelos GPT da OpenAI e a série Gemini do Google. Leia mais sobre as capacidades dos modelos da OpenAI e do Google. Para saber mais sobre modelos de linguagem de código aberto, consulte as informações sobre a série Llama. |
O Agente de serviço virtual ajuda as equipes a automatizar as interações de suporte de nível 1, com o auxílio de um mecanismo conversacional do Atlassian Intelligence que analisa e compreende a intenção, o contexto e as permissões para personalizar as interações. Com o Atlassian Intelligence, o Agente de serviço virtual ajuda as equipes a escalar suas centrais de atendimento e encantar seus clientes com três recursos principais:
O Agente de serviço virtual está disponível em vários canais, incluindo Slack, Microsoft Teams, o portal Jira Service Management e muito mais. Leia mais sobre os canais disponíveis para o Agente de serviço virtual. A gente acredita que o Agente de serviço virtual funciona melhor nestes cenários:
|
É importante lembrar que, devido à forma como os templates costumavam alimentar o Agente de serviço virtual, às vezes ele pode se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas seja falso ou incompleto. A gente descobriu que o Agente de serviço virtual é menos útil nestes cenários:
Pense nas situações em que usaria o Atlassian Intelligence e analise o desempenho do Agente de serviço virtual antes de ativar a função para os clientes. Leia mais sobre como melhorar o desempenho do seu Agente de serviço virtual. Também considere:
|
A gente entende que você possa ter dúvidas sobre como o Agente de serviço virtual do Jira Service Management usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, o Agente de serviço virtual aplica as seguintes medidas:
|
Summarize work item details using Atlassian Intelligence
Os resumos do AI no Jira usam a tecnologia dos modelos grandes de linguagem desenvolvida pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Instead of reading through long descriptions and numerous comments on a Jira work item, you can use Atlassian Intelligence to quickly summarize this information for you. This helps agents quickly understand the context of the work item and any progress made, enabling them to take swift action and provide timely assistance. We believe that summarizing work item details using Atlassian Intelligence works best for work items with a large number of comments and/or lengthy comments and descriptions. |
É importante lembrar que, devido à forma como funcionam, os modelos usados como tecnologia para os resumos de IA no Jira às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que parece razoável, mas é falso ou incompleto. We’ve found that summarizing work item details using Atlassian Intelligence is less useful in scenarios when:
Por isso, a gente sugere que você avalie as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar com outras pessoas. |
We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our Trust Center. O que é processado:
When it comes to your data, summarizing work item details using Atlassian Intelligence applies the following measures:
|
Análise do trabalho de IA
A análise do trabalho de IA usa a tecnologia dos modelos grandes de linguagem desenvolvida pela OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
AI Work Breakdown suggests child work items based on a Jira work item you’ve created, making it easy to break down large pieces of work into smaller ones. Your work item is used as context to generate suggestions for child work item summaries and descriptions. A gente acredita que a análise do trabalho de IA funciona melhor em cenários onde:
|
É importante lembrar que, devido à forma como funcionam, os modelos usados como tecnologia para análise do trabalho de IA às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a análise do trabalho de IA é menos útil em cenários onde:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como a análise do trabalho de IA usa seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de seus dados, a análise do trabalho de IA aplica as seguintes medidas.
|
Use o AI para impulsionar a ação
Selecione uma das funções do Atlassian Intelligence abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
Crie incidentes com IA usando o Atlassian Intelligence e a tecnologia de modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Ao escalar um ou mais alertas ou grupos de alertas sobre um incidente no Jira Service Management, a função "Criar incidente com o AI" usa o Atlassian Intelligence para escrever todas as informações contextuais com rapidez para você revisar durante o processo de criação do incidente. Ela permite que os usuários entendam logo o contexto do incidente criado a partir desses alertas ou grupos de alertas e que revisem e confirmem as informações pré-redigidas, como título, descrição e prioridade do alerta quando ele for transformado em incidente. A gente acredita que a função "Criar incidente com o AI" funciona melhor nos cenários em que:
|
É importante lembrar que, às vezes, devido ao funcionamento dos modelos usados para alimentar a função "Criar incidente com o AI", esses modelos podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente percebeu que a função "Criar incidente com o AI" é menos útil nos cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de enviar o texto para outras pessoas. Para conseguir os melhores resultados, seja o mais específico possível a respeito do que você pede para o Atlassian Intelligence fazer. Além disso, seja o mais específico possível sobre o que vai pedir para o Atlassian Intelligence fazer. |
A gente entende que você pode ter dúvidas sobre como a função "Criar incidente com o AI" usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, a função "Criar incidente com o AI" aplica as seguintes medidas:
|
Criar revisão pós-incidente
A criação de revisões pós-incidente (PIRs) pelo Atlassian Intelligence é alimentada por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada de usuários e são de natureza probabilística. Portanto, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
As PIRs são uma parte essencial do processo de gerenciamento de incidentes, ajudando respondentes e gerentes a aprender com os incidentes atuais e a transmitir informações para evitar incidentes semelhantes no futuro. O Atlassian Intelligence ajuda a acelerar a tarefa, muitas vezes demorada, de compilar uma PIR, sugerindo para ela uma descrição com base em informações contextuais relevantes na instância do Jira Service Management e ferramentas de bate-papo como o Slack para você revisar. A gente acredita que a criação de PIRs usando o AI funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar a criação de PIRs funcionam, eles, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a criação de PIRs usando o AI não é tão útil em situações em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como a função “Criar revisão pós-incidente com o AI” usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados, a criação de PIRs usando o AI aplica as seguintes medidas.
|
Gere descrições de pull request com o Atlassian Intelligence
A geração de descrições de pull request com o Atlassian Intelligence é capacitada por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural e código nos produtos. Eles geram respostas com base em suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
O Atlassian Intelligence pode ajudar você a gerar, transformar e resumir conteúdo enquanto você escreve descrições ou comentários de pull request na experiência de revisão de código do Bitbucket Cloud. Ou seja, ele:
A gente acredita que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar essa função funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence no Confluence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados próprios, a geração de descrições de pull request com o Atlassian Intelligence segue as seguintes medidas:
|
Gere consultas SQL no Atlassian Analytics
A geração de consultas SQL usando o Atlassian Intelligence no Atlassian Analytics é alimentada por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e entender a linguagem natural e, em seguida, a traduz em linguagem de consulta estruturada (SQL) no Atlassian Analytics. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Em vez de escrever as próprias consultas SQL do zero, use linguagem natural para fazer uma pergunta ao Atlassian Intelligence, que vai transformar o texto em SQL. Depois de fazer uma pergunta, o Atlassian Intelligence usa o esquema do Atlassian Data Lake da fonte de dados selecionada para gerar uma consulta SQL que pode ser usada para criar gráficos nos painéis do Atlassian Analytics e pode ajudar você a aprender sobre o esquema no Data Lake. A gente acha que gerar consultas SQL usando o Atlassian Intelligence funciona melhor em cenários em que:
Não sabe o que perguntar?Aqui estão algumas sugestões:
|
É importante lembrar que, devido à forma como os modelos usados para gerar consultas SQL usando o Atlassian Intelligence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que gerar consultas SQL usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pela geração de consultas SQL com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, a geração de consultas SQL usando o Atlassian Intelligence segue as seguintes medidas.
|
Pesquisar respostas no Confluence
A pesquisa de respostas no Confluence usando o Atlassian Intelligence é alimentada por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
As bases de conhecimento crescem mais rápido do que os usuários conseguem acompanhar. Pesquisar respostas no Confluence com o Atlassian Intelligence oferece um caminho mais rápido para as principais informações que os clientes precisam para o progresso do trabalho. Essa função é útil para encontrar as informações de que você precisa com facilidade. Ela entende os tipos de perguntas que você faria a um colega de equipe e a responde de imediato. Descubra mais sobre o uso do Atlassian Intelligence para pesquisar respostas no Confluence. A gente acredita que pesquisar respostas no Confluence com o Atlassian Intelligence funciona melhor quando o site do Confluence tem bastante conteúdo detalhado, completo e atualizado. Essa função não gera conteúdo novo, mas pesquisa páginas e blogs do Confluence (respeitando as restrições) para encontrar uma resposta adequada para a pergunta. O Atlassian Intelligence apenas gera respostas com base no que está no Confluence e no que você tem acesso, em específico. Não sabe o que perguntar?Veja aqui algumas sugestões
|
Você deve ter dúvidas sobre como seus dados vão ser usados pela pesquisa de respostas no Confluence com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos dados, a pesquisa de respostas no Confluence usando o Atlassian Intelligence aplica as seguintes medidas:
|
Search work items in Jira
Search work items using Atlassian Intelligence in Jira is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include OpenAI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. O Atlassian Intelligence usa esses modelos para analisar e entender linguagem natural e depois a traduz para o código da Linguagem de Consulta do Jira (JQL) nos produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Ou seja, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
You can now ask Atlassian Intelligence what you want in everyday language instead of coming up with complex queries. By searching work items using Atlassian Intelligence, your prompt is translated into a JQL query which quickly assists you in your search for specific work items. We believe searching work items using Atlassian Intelligence works best in scenarios where:
|
It's important to remember that because of the way that the models used to search work items using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. We've found that searching work items using Atlassian Intelligence is less useful in scenarios where:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Além disso, seja o mais específico possível sobre o que vai pedir para o Atlassian Intelligence fazer. Inclua os campos e valores exatos que quer encontrar. |
We understand you may have questions about how searching work items using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page. O que é processado:
When it comes to your data, searching work items using Atlassian Intelligence applies the following measures:
|
Análise do trabalho de IA
A análise do trabalho de IA usa a tecnologia dos modelos grandes de linguagem desenvolvida pela OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
AI Work Breakdown suggests child work items based on a Jira work item you’ve created, making it easy to break down large pieces of work into smaller ones. Your work item is used as context to generate suggestions for child work item summaries and descriptions. A gente acredita que a análise do trabalho de IA funciona melhor em cenários onde:
|
É importante lembrar que, devido à forma como funcionam, os modelos usados como tecnologia para análise do trabalho de IA às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a análise do trabalho de IA é menos útil em cenários onde:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como a análise do trabalho de IA usa seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de seus dados, a análise do trabalho de IA aplica as seguintes medidas.
|
Os tópicos sugeridos na base de conhecimento são desenvolvidos com base em grandes modelos de linguagem desenvolvidos pela OpenAI e pela Anthropic, bem como pela combinação de modelos de linguagem de open-source baseados em transformadores e outros modelos de aprendizado de máquina. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Os modelos de codificador de open-source convertem as entradas textuais em formas numéricas (incorporações) que são usadas para identificar e formar tópicos a partir de suas entradas. Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e da Anthropic. Para saber mais sobre modelos de linguagem de open-souce, veja informações sobre Multi-QA-miniLM e E5-Multilingual. |
Essa função ajuda administradores e agentes a entender as lacunas na base de conhecimento deles analisando as solicitações de serviço recebidas em determinado projeto. Essa função destaca com clareza os tópicos para os quais os solicitantes de ajuda estão fazendo solicitações (com base em dados dos últimos 30 dias), mas não há conhecimento disponível. Ao sugerir tópicos, a gente quer dar aos administradores e agentes do projeto visibilidade sobre quantas solicitações podem ser transferidas ou, pelo menos, resolvidas com conhecimento. A gente acredita que o aumento do número de artigos de conhecimento vai influenciar o desempenho de outras funções do Jira Service Management, como as respostas do AI do agente de serviço virtual. Quando administradores ou agentes criam artigos sobre os tópicos sugeridos, isso também pode ajudar a melhorar a taxa de resolução de solicitações resolvidas usando respostas do AI. A gente acredita que tópicos sugeridos funcionam melhor nos cenários em que:
|
É importante lembrar que, devido à maneira como os modelos usados para alimentar tópicos sugeridos no trabalho de base de conhecimento, esses modelos às vezes podem ser imprecisos, não confiáveis ou estarem incompletos. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acha que tópicos sugeridos na base de conhecimento são menos úteis em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como tópicos sugeridos vão usar os dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de seus dados, os tópicos sugeridos na base de conhecimento aplicam as seguintes medidas. Seus tópicos sugeridos na base de conhecimento:
|
Search content in Confluence
Searching Confluence content using Atlassian Intelligence is powered by large language models developed by OpenAI and Google. These large language models include OpenAI’s GPT series of models and Google’s Gemini series of models. Atlassian Intelligence uses these models to analyze and generate natural language, then translates it to CQL (Confluence Query Language) code within our products. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI. |
You can now ask Atlassian Intelligence for the content you want to find in Confluence using everyday language instead of coming up with complex queries. With the help of Atlassian Intelligence, your prompt is translated into a CQL query which quickly assists you in your search for specific content. We believe that Searching Confluence content using Atlassian Intelligence works best in scenarios where:
|
It’s important to remember that because of the way that the models used to power Searching Confluence content using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. We’ve found that Searching Confluence content using Atlassian Intelligence is less useful in scenarios where:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. You might also want to think about being as specific as possible in what you ask Atlassian Intelligence to do. Make sure to include the exact fields and values that you’re looking for. |
We understand you may have questions about how Searching Confluence content using Atlassian Intelligence uses your data. This section supplements the information available on our Trust Center. O que é processado:
When it comes to your data, Searching Confluence content using Atlassian Intelligence applies the following measures.
|
Leia mais sobre o Atlassian Intelligence
Obtenha insights instantâneos de seus dados
Selecione uma das funções do Atlassian Intelligence abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
Chart Insights
O Chart Insights é alimentado por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
O Chart insights usa o Atlassian Intelligence para ajudar a acelerar a compreensão dos dados em qualquer gráfico no Atlassian Analytics. Isso é feito usando o título do painel, o título do gráfico e os dados do gráfico (incluindo cabeçalhos de coluna e valores de linha) para gerar um resumo em linguagem natural desse gráfico e de seus dados. Também vai ter como objetivo identificar quaisquer tendências ou anomalias para oferecer alguns insights sobre esse gráfico. A gente acredita que o Chart insights funciona melhor em cenários em que:
Gráficos de barras, gráficos de linhas e gráficos de barras funcionam melhor com essa função, pois costumam ter tendências, datas e muitas linhas de dados. |
É importante lembrar que, devido à forma como os modelos usados para alimentar o Chart insights funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que o Chart insights é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Chart Insights. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados, o Chart insights aplica as seguintes medidas.
|
Sugira tipos de solicitação no Jira Service Management
A sugestão de tipos de solicitação usando o Atlassian Intelligence é alimentada por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar as entradas em linguagem natural e gerar recomendações para os nomes dos tipos de solicitação e descrições para você no Jira Service Management. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI. |
Receba sugestões do Atlassian Intelligence e economize tempo sem ter que tentar descobrir quais tipos de solicitação você precisa criar para o projeto. Apenas descreva o trabalho e o que a equipe costuma gerenciar para ver quais tipos de solicitações você pode criar. Escolha uma das sugestões geradas pelo Atlassian Intelligence para criar um tipo de solicitação. Saiba mais sobre como usar o Atlassian Intelligence para sugerir tipos de solicitação. A gente acredita que usar o Atlassian Intelligence para sugerir tipos de solicitação funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para sugerir tipos de solicitação com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente percebeu que usar o Atlassian Intelligence para sugerir tipos de solicitação é menos útil em situações em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence para sugerir tipos de solicitação. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para sugerir tipos de solicitação:
|
Sugira tipos de solicitação no Jira Service Management
O resumo executivo da área de foco é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. |
Focus Area Executive Summary uses Atlassian Intelligence to provide a quick, actionable summary of your focus area, including the work that’s in progress, the health of connected goals, suggestions for where to pay attention, and recommendations to remediate any work items. O Resumo Executivo da Área de Foco funciona melhor quando:
|
Devido à forma como funcionam os modelos usados pelo Resumo Executivo da Área de Foco às vezes podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. Descobrimos que o Resumo Executivo da Área de Foco é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. |
A gente entende que você pode ter dúvidas sobre como o resumo executivo da área de foco usa seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de seus dados, o resumo executivo da área de foco aplica as seguintes medidas.
|
Leia mais sobre o Atlassian Intelligence
Referências
Receba atualizações em tempo real do status de produtos Atlassian na Página de status.
Saiba mais sobre o Atlassian Intelligence
Entenda como a Atlassian gerencia os dados do cliente.