Atlassian Intelligence, projetado para proporcionar transparência
Compromisso sem papo furado com a comunicação aberta e a imputabilidade, bem como de ajudar as equipes a usar o AI com responsabilidade.
O Atlassian Intelligence foi projetado para acelerar a colaboração e o trabalho das equipes. Entender como o Atlassian Intelligence funciona, assim como saber como melhor trabalhar com a sua equipe, é uma forma de aumentar a efetividade. Nesta página, a gente vai explicar como produtos e funções do AI operam, inclusive o que eles podem e não podem fazer e como contribuem para a forma como você utiliza os produtos. Seguindo as informações desta página, você pode aproveitar ao máximo os produtos da Atlassian e impulsionar o trabalho em equipe. Para saber mais sobre o compromisso da Atlassian com a criação responsável de tecnologia, visite os Princípios de Tecnologia Responsável.
Agrupamento de alertas
O agrupamento de alertas do Atlassian Intelligence é alimentado por grandes modelos de linguagem da OpenAI e por outros modelos de aprendizado de máquina. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos de aprendizado de máquina para analisar, gerar grupos de alertas e dar sugestões relacionadas (grupos e respondentes de alertas anteriores) nos produtos da Atlassian com base na semelhança do conteúdo dos alertas ou dos marcadores usados. Depois, o Atlassian Intelligence usa grandes modelos de linguagem para analisar e gerar descrições e conteúdo em linguagem natural para esses grupos nos produtos que a gente oferece. Esses grandes modelos de linguagem são probabilísticos e geram respostas com base nas entradas. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O agrupamento de alertas usa o Atlassian Intelligence para identificar e agrupar alertas semelhantes. Ele também ajuda a identificar e a recomendar grupos de alerta semelhantes anteriores e respondentes de alerta anteriores (ou equipes de respondentes), com base na semelhança semântica do conteúdo do alerta ou dos marcadores usados. Para escalar o grupo de alertas para um incidente, o agrupamento de alertas também preenche com antecedência todas as informações contextuais para você revisar como parte do processo de criação do incidente. A gente acredita que o agrupamento de alertas funciona melhor nos cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar o agrupamento de alertas funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você receber podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Os grupos de alertas exibidos talvez não reflitam com precisão a semelhança semântica dos marcadores. A gente descobriu que o agrupamento de alertas é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Você e a equipe também devem usar os marcadores de alerta com consistência. |
Você deve ter dúvidas sobre como seus dados vão ser usados pelo agrupamento de alertas. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
A gente processa os dados de alerta para treinar uma versão do modelo de aprendizado de máquina no reconhecimento de padrões específicos para seus alertas. Esta versão é usada para atender apenas à sua experiência:
Em relação aos dados, o agrupamento de alertas aplica as seguintes medidas:
|
Respostas do Atlassian Intelligence no Jira Service Management
As respostas do Atlassian Intelligence são alimentadas por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
A função de respostas do Atlassian Intelligence se conecta ao Virtual Service Agent no Jira Service Management. Ela usa inteligência artificial generativa para pesquisar nos espaços vinculados da base de conhecimento e responder às perguntas dos clientes. A gente acredita que as respostas do Atlassian Intelligence funcionam melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar as respostas do Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acha que as respostas do Atlassian Intelligence são menos úteis em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelas respostas do Atlassian Intelligence no Jira Service Management. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
|
Automação usando o Atlassian Intelligence
A automação ao usar o Atlassian Intelligence é alimentada por modelos GPT desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar a entrada de linguagem natural e gerar uma regra de automação no Jira e no Confluence. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
A criação de regras de automação está no centro da experiência diária de automação, e a gente quer tornar isso ainda mais fácil para você ao adicionar o Atlassian Intelligence ao criador de regras de automação no Jira e no Confluence. Agora, é possível criar regras de automação digitando e descrevendo o que você quer automatizar. Deixe que o Atlassian Intelligence cuide de todo o trabalho pesado para você. Saiba mais sobre Automação usando o Atlassian Intelligence para Jira e para Confluence. A gente acredita que a Automação usando o Atlassian Intelligence para o Jira e o Confluence funciona melhor em cenários em que você não tem certeza de como começar ou quer acelerar o processo de criação de regras. Não tem certeza da melhor forma de criar uma regra de automação?Regras de automação são criadas por uma combinação de diferentes tipos de componentes: acionadores, ações, condições e ramificações. Pense nos componentes como os alicerces de uma regra. Para criar uma regra com sucesso com o Atlassian Intelligence, ela deve conter pelo menos um acionador e uma ação. Por exemplo: No Jira: Toda segunda-feira, encontre todas as tarefas com data de entrega para os próximos sete dias e envie um e-mail de lembrete ao responsável. Quando um ticket for transferido para Teste, atribua o ticket a John Smith. No Confluence:
Além disso, para que uma regra seja criada com sucesso, todos os componentes devem ser compatíveis com a Automação usando o Atlassian Intelligence. Ou seja, todos os acionadores, ações, condições ou ramificações na regra devem ser compatíveis com a Automação no Jira e/ou no Confluence. |
É importante lembrar que, devido à forma como os modelos usados para impulsionar a Automação usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a Automação usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. A Automação usando o Atlassian Intelligence só vai funcionar com o conjunto de componentes de automação disponíveis no Jira e no Confluence. Você também pode pensar em ser o mais específico possível no que pede para o Atlassian Intelligence fazer, conforme descrito acima. |
Você deve ter dúvidas sobre como seus dados vão ser usados pela Automação com o Atlassian Intelligence. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de dados, o uso do Atlassian Intelligence para automação do Confluence aplica as seguintes medidas:
A OpenAI é um subprocessador da nossa lista de subprocessadores. Eles não usam os dados de entrada e de saídas para nenhuma finalidade além de processar as solicitações. Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página ou projeto, o conteúdo desses recursos não vai ser sugerido para você na resposta recebida. Se você não quiser que o conteúdo seja disponibilizado nas respostas de outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada. |
Chart Insights
O Chart insights é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O Chart insights usa o Atlassian Intelligence para ajudar a acelerar a compreensão dos dados em qualquer gráfico no Atlassian Analytics. Isso é feito usando o título do painel, o título do gráfico e os dados do gráfico (incluindo cabeçalhos de coluna e valores de linha) para gerar um resumo em linguagem natural desse gráfico e de seus dados. Também vai ter como objetivo identificar quaisquer tendências ou anomalias para oferecer alguns insights sobre esse gráfico. A gente acredita que o Chart insights funciona melhor em cenários em que:
Gráficos de barras, gráficos de linhas e gráficos de barras funcionam melhor com essa função, pois costumam ter tendências, datas e muitas linhas de dados. |
É importante lembrar que, devido à forma como os modelos usados para alimentar o Chart insights funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que o Chart insights é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como o Chart insights usa seus dados. Esta seção complementa as informações disponíveis nesta página O que é processado:
Quando se trata de dados, o Chart insights aplica as seguintes medidas.
|
Resumo rápido do Confluence
Resuma páginas e blogs usando o Atlassian Intelligence com modelos LLM desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Economize tempo e obtenha os detalhes necessários para fazer seu trabalho com mais rapidez ao gerar um resumo rápido de uma página ou blog do Confluence com o Atlassian Intelligence. Saiba mais sobre como usar o Atlassian Intelligence no Confluence. A gente acredita que resumir páginas e blogs usando o Atlassian Intelligence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para resumir páginas e blogs usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Embora continuemos criando suporte para macros, tabelas e expandindo resumos, resumir páginas e blogs usando o Atlassian Intelligence é menos útil em cenários em que:
Pense nas situações em que o Atlassian Intelligence é usado e analise a qualidade das respostas recebidas antes de compartilhá-las com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence na automação do Confluence. Esta seção complementa as informações disponíveis na Trust Center. O que é processado:
Em relação aos seus dados, resumir páginas e blogs usando o Atlassian Intelligence aplicam as seguintes medidas:
|
Defina termos usando o Atlassian Intelligence
A definição de termos usando o Atlassian Intelligence no Confluence e no Jira é baseada em grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar respostas em linguagem natural no Confluence. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. |
Uma das coisas mais desafiadoras sobre o consumo de conteúdo no Confluence e no Jira é obter o contexto necessário para entender o que você está lendo. Abreviações, acrônimos, termos desconhecidos e nomes específicos de equipes ou projetos podem levar a uma longa busca pelas informações de que você precisa. A definição de termos usando o Atlassian Intelligence vai oferecer o significado de termos empresariais, como acrônimos, nomes de projetos, sistemas ou equipes, em uma página no Confluence ou na descrição de um item no Jira. Assim, os usuários acessam as informações de que precisam, quando precisam, o que ajuda as equipes a trabalharem melhor juntas. O Atlassian Intelligence poupa tempo ao definir essas coisas para você, sem se afastar do que você está lendo. Se você encontrar uma definição que considere imprecisa, pode editar ou adicionar uma nova definição e, em seguida, definir a visibilidade para essa página ou item, para todo o espaço ou projeto ou acessar toda a organização. A gente acha que definir termos usando o Inteligência Atlassian no Confluence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para definir termos usando a Inteligência Atlassian no Confluence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que definir termos usando o Atlassian Intelligence no Confluence é menos útil em cenários em que:
Além disso, no Jira, também descobrimos que, como a definição de termos usando o Atlassian Intelligence depende da pesquisa no Confluence, a função só vai funcionar no Jira se você tiver permissão para visualizar uma instância do Confluence no mesmo site da sua instância do Jira. Também é possível que você descubra que definir termos usando o Atlassian Intelligence não funciona conforme o esperado em espaços do Confluence ou instâncias do Jira que têm conteúdo escrito em vários idiomas. |
Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na Trust Center. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para definir termos:
|
Gere descrições de pull request com o Atlassian Intelligence
A geração de descrições de pull request com o Atlassian Intelligence é alimentada por grandes modelos de linguagem (LLM) desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural e código nos produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O Atlassian Intelligence pode ajudar você a gerar, transformar e resumir conteúdo enquanto você escreve descrições ou comentários de pull request na experiência de revisão de código do Bitbucket Cloud. Ou seja, ele:
A gente acredita que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar essa função funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence no Confluence. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de dados próprios, a geração de descrições de pull request com o Atlassian Intelligence segue as seguintes medidas:
|
Gere consultas SQL no Atlassian Analytics
A geração de consultas SQL usando o Atlassian Intelligence no Atlassian Analytics é alimentada por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e entender a linguagem natural e, em seguida, a traduz em linguagem de consulta estruturada (SQL) no Atlassian Analytics. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Em vez de escrever as próprias consultas SQL do zero, use linguagem natural para fazer uma pergunta ao Atlassian Intelligence, que vai transformar o texto em SQL. Depois de fazer uma pergunta, o Atlassian Intelligence usa o esquema do Atlassian Data Lake da fonte de dados selecionada para gerar uma consulta SQL que pode ser usada para criar gráficos nos painéis do Atlassian Analytics e pode ajudar você a aprender sobre o esquema no Data Lake. A gente acha que gerar consultas SQL usando o Atlassian Intelligence funciona melhor em cenários em que:
Não sabe o que perguntar?Aqui estão algumas sugestões:
|
É importante lembrar que, devido à forma como os modelos usados para gerar consultas SQL usando o Atlassian Intelligence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que gerar consultas SQL usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pela geração de consultas SQL com o Atlassian Intelligence. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata dos seus dados, a geração de consultas SQL usando o Atlassian Intelligence segue as seguintes medidas.
|
IA generativa no editor
O Atlassian Intelligence em experiências de edição é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
O Atlassian Intelligence ajuda a impulsionar a comunicação eficaz entre todas as equipes de uma organização para melhorar a eficiência, a tomada de decisões e os processos. A gente acredita que usar o Atlassian Intelligence na edição de textos funciona melhor para:
|
É importante lembrar que, devido à forma como os modelos usados para impulsionar a Atlassian Intelligence em experiências de edição funcionam, às vezes eles podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas que seja falso ou incompleto. A gente descobriu que usar o Atlassian Intelligence para editar textos é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence para editar textos. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para editar textos:
|
Pesquisar respostas no Confluence
Pesquise respostas no Confluence usando o Atlassian Intelligence com os modelos LLM desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
As bases de conhecimento crescem mais rápido do que os usuários conseguem acompanhar. Pesquisar respostas no Confluence com o Atlassian Intelligence oferece um caminho mais rápido para as principais informações que os clientes precisam para o progresso do trabalho. Essa função é útil para encontrar as informações de que você precisa com facilidade. Ela entende os tipos de perguntas que você faria a um colega de equipe e a responde de imediato. Descubra mais sobre o uso do Atlassian Intelligence para pesquisar respostas no Confluence. A gente acredita que pesquisar respostas no Confluence com o Atlassian Intelligence funciona melhor quando o site do Confluence tem bastante conteúdo detalhado, completo e atualizado. Essa função não gera conteúdo novo, mas pesquisa páginas e blogs do Confluence (respeitando as restrições) para encontrar uma resposta adequada para a pergunta. O Atlassian Intelligence apenas gera respostas com base no que está no Confluence e no que você tem acesso, em específico. Não sabe o que perguntar?Veja aqui algumas sugestões
|
Você deve ter dúvidas sobre como seus dados vão ser usados pela pesquisa de respostas no Confluence com o Atlassian Intelligence. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos dados, a pesquisa de respostas no Confluence usando o Atlassian Intelligence aplica as seguintes medidas:
|
Pesquisar itens no Jira
O Atlassian Intelligence usa grandes modelos de linguagem desenvolvidos pela OpenAI para pesquisar itens no Jira. Isso inclui os modelos da OpenAI descritos aqui, aperfeiçoados pela Atlassian com dados gerados de forma sintética. O Atlassian Intelligence usa esses modelos para analisar e entender linguagem natural e depois a traduz para o código da Linguagem de Consulta do Jira (JQL) nos produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Ou seja, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e o ajuste da OpenAI. Você também pode ler mais sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Agora é possível fazer perguntas ao Atlassian Intelligence em linguagem cotidiana, em vez de elaborar consultas complexas. Ao usar o Atlassian Intelligence para pesquisar itens, a solicitação é traduzida para consultas JQL que ajuda a pesquisar itens específicos com rapidez. A gente acredita que usar o Atlassian Intelligence para pesquisar itens funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para pesquisar itens com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acredita que pesquisar itens com o Atlassian Intelligence é menos útil em situações em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Além disso, seja o mais específico possível sobre o que vai pedir para o Atlassian Intelligence fazer. Inclua os campos e valores exatos que quer encontrar. |
Você deve ter dúvidas sobre como sobre como seus dados vão ser usados pela pesquisa de itens com o Atlassian Intelligence. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para pesquisar itens:
|
Sugira tipos de solicitação no Jira Service Management
Use o Atlassian Intelligence para sugerir os tipos de solicitação com base em grandes modelos de linguagem desenvolvidos pela OpenAI. Entre esses modelos estão os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar as entradas em linguagem natural e gerar recomendações para os nomes dos tipos de solicitação e descrições para você no Jira Service Management. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Receba sugestões do Atlassian Intelligence e economize tempo sem ter que tentar descobrir quais tipos de solicitação você precisa criar para o projeto. Apenas descreva o trabalho e o que a equipe costuma gerenciar para ver quais tipos de solicitações você pode criar. Escolha uma das sugestões geradas pelo Atlassian Intelligence para criar um tipo de solicitação. Saiba mais sobre como usar o Atlassian Intelligence para sugerir tipos de solicitação. A gente acredita que usar o Atlassian Intelligence para sugerir tipos de solicitação funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para sugerir tipos de solicitação com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente percebeu que usar o Atlassian Intelligence para sugerir tipos de solicitação é menos útil em situações em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence para sugerir tipos de solicitação. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para sugerir tipos de solicitação:
|
Resuma as informações do item no Jira Service Management
Resuma as informações do item usando o Atlassian Intelligence com base em grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os modelos OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Em vez de ler descrições longas e vários comentários sobre um item do Jira Service Management, use o Atlassian Intelligence para resumir essas informações para você. Ajude os agentes a entender com rapidez o contexto do item e qualquer progresso feito, permitindo que eles executem ações rápidas e ofereçam assistência no momento certo. A gente acredita que resumir as informações do item usando o Atlassian Intelligence funciona melhor para:
|
É importante lembrar que, devido à forma como os modelos usados para resumir as informações do item usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acredita que resumir as informações do item usando o Atlassian Intelligence é menos útil em cenários quando:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. |
Você deve ter dúvidas sobre como seus dados vão ser usados no resumo das informações do item com o Atlassian Intelligence. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos dados, o resumo das informações do item usando o Atlassian Intelligence aplica as seguintes medidas:
|
Escreva fórmulas personalizadas usando o Atlassian Intelligence
Use o Atlassian Intelligence para escrever fórmulas personalizadas com base em grandes modelos de linguagem desenvolvidos pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar a linguagem natural e, em seguida, a traduz em SQLite no Atlassian Analytics. Eles geram respostas com base em suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Em vez de escrever suas próprias expressões SQLite do zero, pergunte ou descreva para o Atlassian Intelligence como você deseja transformar os dados na sua tabela de resultados e ele vai criar uma expressão SQLite usada para fórmulas personalizadas. Depois que você faz uma pergunta, o Atlassian Intelligence usa os dados na tabela de resultados da etapa anterior do Visual SQL para gerar uma expressão SQLite que aplica cálculos ou operações a esses dados para seu gráfico. Isso também pode ajudar você a aprender sobre as funções SQLite e a sintaxe delas. Usar o Atlassian Intelligence para escrever fórmulas personalizadas funciona melhor em situações em que:
|
Ao usar fórmulas personalizadas, tenha em mente que os modelos usados no Atlassian Intelligence às vezes podem se comportar de maneira imprecisa, incompleta ou não confiável. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou está incompleto. A gente descobriu que escrever fórmulas personalizadas usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados são usados para escrever fórmulas personalizadas com o Atlassian Intelligence. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para escrever fórmulas personalizadas. As solicitações (dados de entrada) e respostas (dados de saída):
A OpenAI é um subprocessador que consta na Lista de subprocessadores. Eles não usam os dados de entrada e de saídas para nenhuma finalidade além de processar as solicitações. |
Leia mais sobre o Atlassian Intelligence
Descubra mais sobre como usar o Atlassian Intelligence
Saiba como usar o Atlassian Intelligence para pesquisar respostas no Confluence
O Atlassian Intelligence e o Rovo foram criados para proporcionar transparência
Compromisso sem papo furado com a comunicação aberta e a imputabilidade, bem como de ajudar as equipes a usar o AI com responsabilidade.
Rovo
Selecione uma das funções do Rovo abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
Acelere o trabalho com o AI
Selecione uma das funções do Atlassian Intelligence abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
- ChatOps do AI para gerenciamento de incidentes
- Recursos relacionados do AI
- Sugestões de IA
- Automação
- Agrupamento de alertas
- Resumo rápido do Confluence
- Definição de termos
- IA generativa no editor
- Reformatador de problemas
- Resumo dos detalhes do item
- Resumo dos links inteligentes
- Agente de serviço virtual
- Resuma as informações de itens com o Atlassian Intelligence
- Análise do trabalho de IA
- ChatOps do AI para gerenciamento de incidentes
- Recursos relacionados do AI
- Sugestões de IA
- Automação
- Agrupamento de alertas
- Resumo rápido do Confluence
- Definição de termos
- IA generativa no editor
- Reformatador de problemas
- Resumo dos detalhes do item
- Resumo dos links inteligentes
- Agente de serviço virtual
- Resuma as informações de itens com o Atlassian Intelligence
- Análise do trabalho de IA
Automação usando o Atlassian Intelligence
As funções do ChatOps do AI para gerenciamento de incidentes têm a tecnologia dos grandes modelos de linguagem (LLM) desenvolvidos pela OpenAI. Elas também são baseadas em uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama e Phi) e outros de aprendizado de máquina. Esses LLMs incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI ou sobre essa abordagem nos artigos da empresa. Para saber mais sobre modelos de linguagem open source, consulte as informações sobre as séries Llama e Phi. |
Com o ChatOps do AI para gerenciamento de incidentes, seus usuários podem agilizar o processo de resolução de incidentes. Isso é possível porque a ferramenta gera um resumo do incidente relevante e de todas as conversas associadas até o momento e o fornece para novos usuários quando eles são adicionados ao canal do Slack. Esse canal está vinculado ao ticket do incidente no Jira Service Management. Além disso, o ChatOps do AI para gerenciamento de incidentes registra no Jira Service Management as conversas que ocorrem no Slack como uma linha do tempo para referência futura. O ChatOps do AI para gerenciamento de incidentes funciona melhor nestes cenários:
|
Por conta da maneira como os modelos costumavam alimentar o trabalho do ChatOps do AI para gerenciamento de incidentes, esses modelos podem ser imprecisos, incompletos e não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que parece razoável, mas é falso ou está incompleto. O ChatOps do AI para gerenciamento de incidentes é menos útil nestes cenários:
Por isso, sugerimos que você considere as situações em que usa o ChatOps do AI para gerenciamento de incidentes e analise a qualidade das respostas recebidas antes de compartilhar com outras pessoas. Também vale a pena verificar as permissões para garantir que os usuários tenham os níveis adequados de acesso aos canais do Slack e tickets de incidente relevantes. |
Entendemos que você pode ter dúvidas sobre como o ChatOps do AI para gerenciamento de incidentes usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, o ChatOps do AI para gerenciamento de incidentes aplica as seguintes medidas:
|
Os recursos relacionados do AI têm a tecnologia dos LLMs desenvolvidos pela OpenAI e de uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama e Phi) e outros de aprendizado de máquina. Esses LLMs incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural nos nossos produtos e para fornecer respostas relevantes da Atlassian e de produtos externos conectados. Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI ou sobre essa abordagem nos artigos da empresa. Para saber mais sobre modelos de linguagem open source, consulte as informações sobre as séries Llama e Phi. |
Com o Atlassian Intelligence, seus usuários podem acelerar o processo de resolução de incidentes consultando uma lista sugerida de recursos. Isso inclui artigos e espaços da base de conhecimento vinculada, tickets do Jira e, caso seja cliente Rovo, produtos externos integrados ao Rovo. Leia mais sobre o Rovo e ferramentas externas. Os recursos relacionados do AI funcionam melhor nestes cenários:
|
Por conta da maneira como os modelos costumavam alimentar os recursos relacionados do AI, esses modelos podem ser imprecisos, incompletos e não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que parece razoável, mas é falso ou incompleto. Os recursos relacionados do AI são menos úteis nestes cenários:
Por isso, sugerimos que você considere as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar com outras pessoas. Também vale a pena pensar no seguinte:
|
Entendemos que você pode ter dúvidas sobre como os recursos relacionados do AI usam seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, os recursos relacionados do AI aplicam as seguintes medidas:
|
As sugestões de IA no Jira Service Management são baseadas em grandes modelos de linguagem desenvolvidos pela OpenAI e outros modelos de aprendizado de máquina. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos grandes de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI. |
Com as sugestões de IA no Jira Service Management, a equipe pode se atualizar logo reunindo um contexto importante sobre as solicitações de serviço e incidentes em um piscar de olhos. O Atlassian Intelligence ajuda a equipe a:
As sugestões de IA no Jira Service Management também podem recomendar que os agentes escalem uma solicitação ou incidente quando o SLA aplicável estiver prestes a ser violado. No caso de solicitações de serviço, essa função também pode sugerir que os agentes escalem essa solicitação quando os modelos usados para alimentar essas sugestões identificarem, com base no texto dos comentários do relator, um senso de urgência ou raiva com essa solicitação. A gente acredita que as sugestões de IA no Jira Service Management funcionam melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar as sugestões de IA no Jira Service Management funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Foi descoberto que as sugestões de IA no Jira Service Management são menos úteis em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como as sugestões de IA no Jira Service Management usam os dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de dados, as sugestões de IA aplicam as seguintes medidas.
|
A automação com o Atlassian Intelligence usa a tecnologia de grandes modelos de linguagem desenvolvidos pela OpenAI, pelo Google e pela Anthropic, bem como por uma combinação de grandes modelos de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar a entrada de linguagem natural e gerar uma regra de automação no Jira e no Confluence. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
A criação de regras de automação está no centro da experiência diária de automação, e a gente quer tornar isso ainda mais fácil para você ao adicionar o Atlassian Intelligence ao criador de regras de automação no Jira e no Confluence. Agora, é possível criar regras de automação digitando e descrevendo o que você quer automatizar. Deixe que o Atlassian Intelligence cuide de todo o trabalho pesado para você. Saiba mais sobre Automação usando o Atlassian Intelligence para Jira e para Confluence. A gente acredita que a Automação usando o Atlassian Intelligence para o Jira e o Confluence funciona melhor em cenários em que você não tem certeza de como começar ou quer acelerar o processo de criação de regras. Não tem certeza da melhor forma de criar uma regra de automação?Regras de automação são criadas por uma combinação de diferentes tipos de componentes: acionadores, ações, condições e ramificações. Pense nos componentes como os alicerces de uma regra. Para criar uma regra com sucesso com o Atlassian Intelligence, ela deve conter pelo menos um acionador e uma ação. Por exemplo: No Jira: Toda segunda-feira, encontre todas as tarefas com data de entrega para os próximos sete dias e envie um e-mail de lembrete ao responsável. Quando um ticket for transferido para Teste, atribua o ticket a John Smith. No Confluence:
Além disso, para que uma regra seja criada com sucesso, todos os componentes devem ser compatíveis com a Automação usando o Atlassian Intelligence. Ou seja, todos os acionadores, ações, condições ou ramificações na regra devem ser compatíveis com a Automação no Jira e/ou no Confluence. |
É importante lembrar que, devido à forma como os modelos usados para impulsionar a Automação usando o Atlassian Intelligence funcionam, esses modelos podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a Automação usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. A Automação usando o Atlassian Intelligence só vai funcionar com o conjunto de componentes de automação disponíveis no Jira e no Confluence. Você também pode pensar em ser o mais específico possível no que pede para o Atlassian Intelligence fazer, conforme descrito acima. |
Você deve ter dúvidas sobre como seus dados vão ser usados pela Automação com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados, o uso do Atlassian Intelligence para automação do Confluence aplica as seguintes medidas:
Todos os provedores de LLM externos são subprocessadores e estão listados como tal na página correspondente da Atlassian. Eles não usam os dados de entrada e de saída para nenhuma finalidade além de processar a solicitação. Essa função segue as permissões na instância. Por exemplo, se você não tiver acesso a uma determinada página ou projeto, o conteúdo desses recursos não vai ser sugerido para você na resposta recebida. Se você não quiser que o conteúdo seja disponibilizado nas respostas de outros usuários na instância, trabalhe com o administrador da organização para garantir que as permissões tenham uma definição adequada. |
Agrupamento de alertas
O agrupamento de alertas do Atlassian Intelligence usa a tecnologia de modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem um algoritmo projetado para identificar padrões em dados de alerta e a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos de aprendizado de máquina para analisar, gerar grupos de alertas e dar sugestões relacionadas (grupos e respondentes de alertas anteriores) nos produtos da Atlassian com base na semelhança do conteúdo dos alertas ou dos marcadores usados. Depois, o Atlassian Intelligence usa grandes modelos de linguagem para analisar e gerar descrições e conteúdo em linguagem natural para esses grupos nos produtos que a gente oferece. Esses grandes modelos de linguagem são probabilísticos e geram respostas com base nas entradas. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
O agrupamento de alertas usa o Atlassian Intelligence para identificar e agrupar alertas semelhantes. Ele também ajuda a identificar e a recomendar grupos de alerta semelhantes anteriores e respondentes de alerta anteriores (ou equipes de respondentes), com base na semelhança semântica do conteúdo do alerta ou dos marcadores usados. Para escalar o grupo de alertas para um incidente, o agrupamento de alertas também preenche com antecedência todas as informações contextuais para você revisar como parte do processo de criação do incidente. A gente acredita que o agrupamento de alertas funciona melhor nos cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar o agrupamento de alertas funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você receber podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Os grupos de alertas exibidos talvez não reflitam com precisão a semelhança semântica dos marcadores. A gente descobriu que o agrupamento de alertas é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Você e a equipe também devem usar os marcadores de alerta com consistência. |
Você deve ter dúvidas sobre como seus dados vão ser usados pelo agrupamento de alertas. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
A gente processa os dados de alerta para treinar uma versão do modelo de aprendizado de máquina no reconhecimento de padrões específicos para seus alertas. Esta versão é usada para atender apenas à sua experiência:
Em relação aos dados, o agrupamento de alertas aplica as seguintes medidas:
|
O Atlassian Intelligence resume páginas e blogs com a tecnologia de modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Economize tempo e obtenha os detalhes necessários para fazer seu trabalho com mais rapidez ao gerar um resumo rápido de uma página ou blog do Confluence com o Atlassian Intelligence. Saiba mais sobre como usar o Atlassian Intelligence no Confluence. A gente acredita que resumir páginas e blogs usando o Atlassian Intelligence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para resumir páginas e blogs usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. Embora continuemos criando suporte para macros, tabelas e expandindo resumos, resumir páginas e blogs usando o Atlassian Intelligence é menos útil em cenários em que:
Pense nas situações em que o Atlassian Intelligence é usado e analise a qualidade das respostas recebidas antes de compartilhá-las com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence na automação do Confluence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos seus dados, resumir páginas e blogs usando o Atlassian Intelligence aplicam as seguintes medidas:
|
Defina termos usando o Atlassian Intelligence
A definição de termos usando o Atlassian Intelligence no Confluence e no Jira é baseada em modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic e uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar respostas em linguagem natural no Confluence e no Jira. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Uma das coisas mais desafiadoras sobre o consumo de conteúdo no Confluence e no Jira é obter o contexto necessário para entender o que você está lendo. Abreviações, acrônimos, termos desconhecidos e nomes específicos de equipes ou projetos podem levar a uma longa busca pelas informações de que você precisa. A definição de termos usando o Atlassian Intelligence vai oferecer o significado de termos empresariais, como acrônimos, nomes de projetos, sistemas ou equipes, em uma página no Confluence ou na descrição de um item no Jira. Assim, os usuários acessam as informações de que precisam, quando precisam, o que ajuda as equipes a trabalharem melhor juntas. O Atlassian Intelligence poupa tempo ao definir essas coisas para você, sem se afastar do que você está lendo. Se você encontrar uma definição que considere imprecisa, pode editar ou adicionar uma nova definição e, em seguida, definir a visibilidade para essa página ou item, para todo o espaço ou projeto ou acessar toda a organização. A definição de termos usando o Atlassian Intelligence no Confluence e no Jira funciona melhor nestes cenários:
|
É importante lembrar que, devido à forma como os modelos usados para definir termos usando a Inteligência Atlassian no Confluence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que definir termos usando o Atlassian Intelligence no Confluence é menos útil em cenários em que:
Além disso, no Jira, também descobrimos que, como a definição de termos usando o Atlassian Intelligence depende da pesquisa no Confluence, a função só vai funcionar no Jira se você tiver permissão para visualizar uma instância do Confluence no mesmo site da sua instância do Jira. Também é possível que você descubra que definir termos usando o Atlassian Intelligence não funciona conforme o esperado em espaços do Confluence ou instâncias do Jira que têm conteúdo escrito em vários idiomas. |
Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para definir termos:
|
IA generativa no editor
As experiências de edição com o Atlassian Intelligence são baseadas em modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic e uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
O Atlassian Intelligence ajuda a impulsionar a comunicação eficaz entre todas as equipes de uma organização para melhorar a eficiência, a tomada de decisões e os processos. A gente acredita que usar o Atlassian Intelligence na edição de textos funciona melhor para:
|
É importante lembrar que, devido à forma como os modelos usados para impulsionar a Atlassian Intelligence em experiências de edição funcionam, às vezes eles podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas que seja falso ou incompleto. A gente descobriu que usar o Atlassian Intelligence para editar textos é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence para editar textos. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para editar textos:
|
O reformatador de problemas é alimentado por grandes modelos de linguagem desenvolvidos pela OpenAI, incluindo a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esse modelo para analisar e gerar linguagem natural no Jira. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI. |
O reformatador de problemas ajuda a melhorar a clareza das descrições dos problemas do Jira ao fazer a reformatação usando um template desenvolvido pela Atlassian. Esse template aborda os tipos de informações que a gente espera encontrar na descrição de um problema do Jira, como uma história do usuário, contexto do trabalho e critérios de aceitação. A gente acredita que o reformatador de problemas funciona melhor em cenários em que as descrições de problemas já contêm informações úteis (como critérios de aceitação ou links para fontes), mas essas informações não são formatadas usando uma estrutura clara ou consistente. |
É importante lembrar que, devido à forma como funcionam, os modelos usados para alimentar o reformatador de problemas podem, às vezes, ser imprecisos, incompletos ou não confiáveis. Por exemplo, a descrição reformatada pode não refletir com precisão o conteúdo em que foi baseada ou pode incluir informações que parecem razoáveis, mas são falsos ou incompletos. A gente descobriu que o reformatador de problemas é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar com outras pessoas. Você também pode analisar e confirmar se as descrições dos problemas incluem todas as informações relevantes antes de começar a usar o reformatador de problemas para fazer a reformatação. |
A gente entende que você pode ter dúvidas sobre como o reformatador de problemas usa os dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de dados, o reformatador de problemas aplica as seguintes medidas:
|
Resuma as informações do item no Jira Service Management
Os resumos das informações dos itens do Atlassian Intelligence são baseados em modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic e uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Em vez de ler descrições longas e vários comentários sobre um item do Jira Service Management, use o Atlassian Intelligence para resumir essas informações para você. Ajude os agentes a entender com rapidez o contexto do item e qualquer progresso feito, permitindo que eles executem ações rápidas e ofereçam assistência no momento certo. A gente acredita que resumir as informações do item usando o Atlassian Intelligence funciona melhor para:
|
É importante lembrar que, devido à forma como os modelos usados para resumir as informações do item usando o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acredita que resumir as informações do item usando o Atlassian Intelligence é menos útil em cenários quando:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. |
Você deve ter dúvidas sobre como seus dados vão ser usados no resumo das informações do item com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos dados, o resumo das informações do item usando o Atlassian Intelligence aplica as seguintes medidas:
|
IA generativa no editor
Resuma links inteligentes do Atlassian Intelligence (AI) usando a tecnologia de modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Depois que você passa o cursor do mouse sobre um link inteligente do Jira, Confluence e Documentos Google, o Atlassian Intelligence ajuda a resumir o conteúdo. Isso permite que você determine a importância e o valor do link para decidir sua próxima ação. Assim, você não precisa sair da página atual e trocar de contexto. Acreditamos que o recurso Resumir links inteligentes com IA funciona melhor nos cenários em que:
|
Vale lembrar que os modelos às vezes podem ter um comportamento impreciso, incompleto ou não confiável devido à maneira como eles costumavam alimentar o recurso Resumir links inteligentes com IA. Por exemplo, os resumos que você recebe podem não refletir com precisão o conteúdo em que eles se baseiam ou incluir conteúdo que parece razoável, mas é falso ou incompleto. Descobrimos que o recurso Resumir links inteligentes com IA é menos útil nos cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. |
Você deve ter dúvidas sobre como seus dados vão ser usados no resumo das informações do item com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, o recurso Resumir links inteligentes com IA aplica as seguintes medidas.
|
Respostas do Atlassian Intelligence no Jira Service Management
O agente de serviço virtual do Jira Service Management tem a tecnologia dos grandes modelos de linguagem desenvolvidos pela OpenAI, pelo Google e pela Anthropic. Ele também é baseado em uma combinação de grandes modelos de linguagem open source (incluindo as séries Llama, Phi e Mixtral) e outros de aprendizado de máquina. O agente de serviço virtual usa os modelos da seguinte forma:
Como funcionam os modelos grandes de linguagem: eles geram respostas com base nas suas entradas e são de natureza probabilística. Ou seja, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados em que eles foram treinados. Os modelos grandes de linguagem usados no Agente de serviço virtual incluem a série de modelos GPT da OpenAI, Gemini do Google e a Claude da Anthropic. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
O Agente de serviço virtual ajuda as equipes a automatizar as interações de suporte de nível 1, com o auxílio de um mecanismo conversacional do Atlassian Intelligence que analisa e compreende a intenção, o contexto e as permissões para personalizar as interações. Com o Atlassian Intelligence, o Agente de serviço virtual ajuda as equipes a escalar suas centrais de atendimento e encantar seus clientes com três recursos principais:
O Agente de serviço virtual está disponível em vários canais, incluindo Slack, Microsoft Teams, o portal Jira Service Management e muito mais. Leia mais sobre os canais disponíveis para o Agente de serviço virtual. A gente acredita que o Agente de serviço virtual funciona melhor nestes cenários:
|
É importante lembrar que, devido à forma como os templates costumavam alimentar o Agente de serviço virtual, às vezes ele pode se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas seja falso ou incompleto. A gente descobriu que o Agente de serviço virtual é menos útil nestes cenários:
Pense nas situações em que usaria o Atlassian Intelligence e analise o desempenho do Agente de serviço virtual antes de ativar a função para os clientes. Leia mais sobre como melhorar o desempenho do seu Agente de serviço virtual. Também considere:
|
A gente entende que você possa ter dúvidas sobre como o Agente de serviço virtual do Jira Service Management usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, o Agente de serviço virtual aplica as seguintes medidas:
|
Resuma as informações de itens com o Atlassian Intelligence
Os resumos do AI no Jira usam a tecnologia dos modelos grandes de linguagem desenvolvida pela OpenAI. Esses modelos incluem os da OpenAI descritos aqui. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
Em vez de ler descrições longas e vários comentários sobre um item do Jira, use o Atlassian Intelligence para resumir essas informações para você. Assim, os agentes conseguem entender com rapidez o contexto do item e o progresso feito, permitindo que eles executem ações rápidas e ofereçam assistência no momento certo. A gente acredita que resumir as informações do item usando o Atlassian Intelligence funciona melhor para itens com um grande número de comentários e/ou longos comentários e descrições. |
É importante lembrar que, devido à forma como funcionam, os modelos usados como tecnologia para os resumos de IA no Jira às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que parece razoável, mas é falso ou incompleto. A gente acredita que resumir as informações do item usando o Atlassian Intelligence é menos útil em cenários quando:
Por isso, a gente sugere que você avalie as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar com outras pessoas. |
Você deve ter dúvidas sobre como seus dados vão ser usados no resumo das informações do item com o Atlassian Intelligence. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Em relação aos dados, o resumo das informações do item usando o Atlassian Intelligence aplica as seguintes medidas:
|
Análise do trabalho de IA
A análise do trabalho de IA usa a tecnologia dos modelos grandes de linguagem desenvolvida pela OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
A análise do trabalho de IA sugere itens filho com base em um item do Jira que você criou, facilitando a divisão de trabalhos grandes em pequenos. O item é usado como contexto para gerar sugestões para resumos e descrições de itens filho. A gente acredita que a análise do trabalho de IA funciona melhor em cenários onde:
|
É importante lembrar que, devido à forma como funcionam, os modelos usados como tecnologia para análise do trabalho de IA às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a análise do trabalho de IA é menos útil em cenários onde:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como a análise do trabalho de IA usa seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de seus dados, a análise do trabalho de IA aplica as seguintes medidas.
|
Use o AI para impulsionar a ação
Selecione uma das funções do Atlassian Intelligence abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
Crie incidentes com IA usando o Atlassian Intelligence e a tecnologia de modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Ao escalar um ou mais alertas ou grupos de alertas sobre um incidente no Jira Service Management, a função "Criar incidente com o AI" usa o Atlassian Intelligence para escrever todas as informações contextuais com rapidez para você revisar durante o processo de criação do incidente. Ela permite que os usuários entendam logo o contexto do incidente criado a partir desses alertas ou grupos de alertas e que revisem e confirmem as informações pré-redigidas, como título, descrição e prioridade do alerta quando ele for transformado em incidente. A gente acredita que a função "Criar incidente com o AI" funciona melhor nos cenários em que:
|
É importante lembrar que, às vezes, devido ao funcionamento dos modelos usados para alimentar a função "Criar incidente com o AI", esses modelos podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente percebeu que a função "Criar incidente com o AI" é menos útil nos cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de enviar o texto para outras pessoas. Para conseguir os melhores resultados, seja o mais específico possível a respeito do que você pede para o Atlassian Intelligence fazer. Além disso, seja o mais específico possível sobre o que vai pedir para o Atlassian Intelligence fazer. |
A gente entende que você pode ter dúvidas sobre como a função "Criar incidente com o AI" usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, a função "Criar incidente com o AI" aplica as seguintes medidas:
|
Criar revisão pós-incidente
A criação de revisões pós-incidente (PIRs) pelo Atlassian Intelligence é alimentada por grandes modelos de linguagem desenvolvidos pela OpenAI. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada de usuários e são de natureza probabilística. Portanto, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
As PIRs são uma parte essencial do processo de gerenciamento de incidentes, ajudando respondentes e gerentes a aprender com os incidentes atuais e a transmitir informações para evitar incidentes semelhantes no futuro. O Atlassian Intelligence ajuda a acelerar a tarefa, muitas vezes demorada, de compilar uma PIR, sugerindo para ela uma descrição com base em informações contextuais relevantes na instância do Jira Service Management e ferramentas de bate-papo como o Slack para você revisar. A gente acredita que a criação de PIRs usando o AI funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar a criação de PIRs funcionam, eles, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a criação de PIRs usando o AI não é tão útil em situações em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como a função “Criar revisão pós-incidente com o AI” usa seus dados. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados, a criação de PIRs usando o AI aplica as seguintes medidas.
|
Gere descrições de pull request com o Atlassian Intelligence
A geração de descrições de pull request com o Atlassian Intelligence é capacitada por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural e código nos produtos. Eles geram respostas com base em suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
O Atlassian Intelligence pode ajudar você a gerar, transformar e resumir conteúdo enquanto você escreve descrições ou comentários de pull request na experiência de revisão de código do Bitbucket Cloud. Ou seja, ele:
A gente acredita que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence funciona melhor em cenários em que:
|
É importante lembrar que, devido à forma como os modelos usados para alimentar essa função funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas recebidas podem não refletir com precisão o conteúdo em que se baseiam ou podem incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que gerar descrições de pull request do Bitbucket Cloud com o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados para definir termos com o Atlassian Intelligence no Confluence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados próprios, a geração de descrições de pull request com o Atlassian Intelligence segue as seguintes medidas:
|
Gere consultas SQL no Atlassian Analytics
A geração de consultas SQL usando o Atlassian Intelligence no Atlassian Analytics é alimentada por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e entender a linguagem natural e, em seguida, a traduz em linguagem de consulta estruturada (SQL) no Atlassian Analytics. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Em vez de escrever as próprias consultas SQL do zero, use linguagem natural para fazer uma pergunta ao Atlassian Intelligence, que vai transformar o texto em SQL. Depois de fazer uma pergunta, o Atlassian Intelligence usa o esquema do Atlassian Data Lake da fonte de dados selecionada para gerar uma consulta SQL que pode ser usada para criar gráficos nos painéis do Atlassian Analytics e pode ajudar você a aprender sobre o esquema no Data Lake. A gente acha que gerar consultas SQL usando o Atlassian Intelligence funciona melhor em cenários em que:
Não sabe o que perguntar?Aqui estão algumas sugestões:
|
É importante lembrar que, devido à forma como os modelos usados para gerar consultas SQL usando o Atlassian Intelligence funcionam, esses modelos às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que gerar consultas SQL usando o Atlassian Intelligence é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pela geração de consultas SQL com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata dos seus dados, a geração de consultas SQL usando o Atlassian Intelligence segue as seguintes medidas.
|
Pesquisar respostas no Confluence
A pesquisa de respostas no Confluence usando o Atlassian Intelligence é alimentada por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
As bases de conhecimento crescem mais rápido do que os usuários conseguem acompanhar. Pesquisar respostas no Confluence com o Atlassian Intelligence oferece um caminho mais rápido para as principais informações que os clientes precisam para o progresso do trabalho. Essa função é útil para encontrar as informações de que você precisa com facilidade. Ela entende os tipos de perguntas que você faria a um colega de equipe e a responde de imediato. Descubra mais sobre o uso do Atlassian Intelligence para pesquisar respostas no Confluence. A gente acredita que pesquisar respostas no Confluence com o Atlassian Intelligence funciona melhor quando o site do Confluence tem bastante conteúdo detalhado, completo e atualizado. Essa função não gera conteúdo novo, mas pesquisa páginas e blogs do Confluence (respeitando as restrições) para encontrar uma resposta adequada para a pergunta. O Atlassian Intelligence apenas gera respostas com base no que está no Confluence e no que você tem acesso, em específico. Não sabe o que perguntar?Veja aqui algumas sugestões
|
Você deve ter dúvidas sobre como seus dados vão ser usados pela pesquisa de respostas no Confluence com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos dados, a pesquisa de respostas no Confluence usando o Atlassian Intelligence aplica as seguintes medidas:
|
Pesquisar itens no Jira
Os itens de pesquisa usando o Atlassian Intelligence no Jira são alimentados por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e entender linguagem natural e depois a traduz para o código da Linguagem de Consulta do Jira (JQL) nos produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Ou seja, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Agora é possível fazer perguntas ao Atlassian Intelligence em linguagem cotidiana, em vez de elaborar consultas complexas. Ao usar o Atlassian Intelligence para pesquisar itens, a solicitação é traduzida para consultas JQL que ajuda a pesquisar itens específicos com rapidez. A gente acredita que usar o Atlassian Intelligence para pesquisar itens funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para pesquisar itens com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acredita que pesquisar itens com o Atlassian Intelligence é menos útil em situações em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Além disso, seja o mais específico possível sobre o que vai pedir para o Atlassian Intelligence fazer. Inclua os campos e valores exatos que quer encontrar. |
Você deve ter dúvidas sobre como sobre como seus dados vão ser usados pela pesquisa de itens com o Atlassian Intelligence. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos dados, o Atlassian Intelligence aplica as seguintes medidas para pesquisar itens:
|
Análise do trabalho de IA
A análise do trabalho de IA usa a tecnologia dos modelos grandes de linguagem desenvolvida pela OpenAI. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia sobre as capacidades dos modelos da OpenAI ou sobre essa abordagem nos artigos de pesquisa da OpenAI. |
A análise do trabalho de IA sugere itens filho com base em um item do Jira que você criou, facilitando a divisão de trabalhos grandes em pequenos. O item é usado como contexto para gerar sugestões para resumos e descrições de itens filho. A gente acredita que a análise do trabalho de IA funciona melhor em cenários onde:
|
É importante lembrar que, devido à forma como funcionam, os modelos usados como tecnologia para análise do trabalho de IA às vezes podem se comportar de maneiras imprecisas, incompletas ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que a análise do trabalho de IA é menos útil em cenários onde:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
A gente entende que você pode ter dúvidas sobre como a análise do trabalho de IA usa seus dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de seus dados, a análise do trabalho de IA aplica as seguintes medidas.
|
Os tópicos sugeridos na base de conhecimento são desenvolvidos com base em grandes modelos de linguagem desenvolvidos pela OpenAI e pela Anthropic, bem como pela combinação de modelos de linguagem de open-source baseados em transformadores e outros modelos de aprendizado de máquina. Esses grandes modelos de linguagem incluem a série de modelos GPT da OpenAI e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Os modelos de codificador de open-source convertem as entradas textuais em formas numéricas (incorporações) que são usadas para identificar e formar tópicos a partir de suas entradas. Esses grandes modelos de linguagem geram respostas com base nas suas entradas e são de natureza probabilística. Isso significa que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, de acordo com os dados em que eles foram treinados. Leia mais sobre as capacidades dos modelos da OpenAI e da Anthropic. Para saber mais sobre modelos de linguagem de open-souce, veja informações sobre Multi-QA-miniLM e E5-Multilingual. |
Essa função ajuda administradores e agentes a entender as lacunas na base de conhecimento deles analisando as solicitações de serviço recebidas em determinado projeto. Essa função destaca com clareza os tópicos para os quais os solicitantes de ajuda estão fazendo solicitações (com base em dados dos últimos 30 dias), mas não há conhecimento disponível. Ao sugerir tópicos, a gente quer dar aos administradores e agentes do projeto visibilidade sobre quantas solicitações podem ser transferidas ou, pelo menos, resolvidas com conhecimento. A gente acredita que o aumento do número de artigos de conhecimento vai influenciar o desempenho de outras funções do Jira Service Management, como as respostas do AI do agente de serviço virtual. Quando administradores ou agentes criam artigos sobre os tópicos sugeridos, isso também pode ajudar a melhorar a taxa de resolução de solicitações resolvidas usando respostas do AI. A gente acredita que tópicos sugeridos funcionam melhor nos cenários em que:
|
É importante lembrar que, devido à maneira como os modelos usados para alimentar tópicos sugeridos no trabalho de base de conhecimento, esses modelos às vezes podem ser imprecisos, não confiáveis ou estarem incompletos. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente acha que tópicos sugeridos na base de conhecimento são menos úteis em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como tópicos sugeridos vão usar os dados. Esta seção complementa as informações disponíveis no Trust Center. O que é processado:
Quando se trata de seus dados, os tópicos sugeridos na base de conhecimento aplicam as seguintes medidas. Seus tópicos sugeridos na base de conhecimento:
|
Obtenha insights instantâneos de seus dados
Selecione uma das funções do Atlassian Intelligence abaixo para ter uma visão transparente do uso de dados e dos casos de uso.
Chart Insights
O Chart Insights é alimentado por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar e gerar linguagem natural para os produtos. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. Como consequência, as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
O Chart insights usa o Atlassian Intelligence para ajudar a acelerar a compreensão dos dados em qualquer gráfico no Atlassian Analytics. Isso é feito usando o título do painel, o título do gráfico e os dados do gráfico (incluindo cabeçalhos de coluna e valores de linha) para gerar um resumo em linguagem natural desse gráfico e de seus dados. Também vai ter como objetivo identificar quaisquer tendências ou anomalias para oferecer alguns insights sobre esse gráfico. A gente acredita que o Chart insights funciona melhor em cenários em que:
Gráficos de barras, gráficos de linhas e gráficos de barras funcionam melhor com essa função, pois costumam ter tendências, datas e muitas linhas de dados. |
É importante lembrar que, devido à forma como os modelos usados para alimentar o Chart insights funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente descobriu que o Chart insights é menos útil em cenários em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Chart Insights. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Quando se trata de dados, o Chart insights aplica as seguintes medidas.
|
Sugira tipos de solicitação no Jira Service Management
A sugestão de tipos de solicitação usando o Atlassian Intelligence é alimentada por modelos grandes de linguagem desenvolvidos pela OpenAI, Google e Anthropic, bem como por uma combinação de modelos grandes de linguagem open-source (incluindo as séries Llama, Phi e Mixtral) e outros Modelos de aprendizado de máquina. Esses modelos incluem a série de modelos GPT da OpenAI, a série de modelos Gemini do Google e a série de modelos Claude da Anthropic. O Atlassian Intelligence usa esses modelos para analisar as entradas em linguagem natural e gerar recomendações para os nomes dos tipos de solicitação e descrições para você no Jira Service Management. Esses modelos geram respostas com base nos dados de entrada e são de natureza probabilística. O que quer dizer que as respostas são geradas pela previsão da próxima palavra ou texto mais provável, com base nos dados nos quais eles foram treinados. Leia mais sobre os recursos dos modelos da OpenAI, do Google e da Anthropic. Para obter mais informações sobre modelos de linguagem open source, consulte as informações sobre as séries de modelos Llama e Phi. |
Receba sugestões do Atlassian Intelligence e economize tempo sem ter que tentar descobrir quais tipos de solicitação você precisa criar para o projeto. Apenas descreva o trabalho e o que a equipe costuma gerenciar para ver quais tipos de solicitações você pode criar. Escolha uma das sugestões geradas pelo Atlassian Intelligence para criar um tipo de solicitação. Saiba mais sobre como usar o Atlassian Intelligence para sugerir tipos de solicitação. A gente acredita que usar o Atlassian Intelligence para sugerir tipos de solicitação funciona melhor em situações em que:
|
É importante lembrar que, devido à forma como os modelos usados para sugerir tipos de solicitação com o Atlassian Intelligence funcionam, esses modelos, às vezes, podem ser imprecisos, incompletos ou não confiáveis. Por exemplo, as respostas que você recebe podem não refletir com precisão o conteúdo em que se baseiam ou incluir conteúdo que pareça razoável, mas é falso ou incompleto. A gente percebeu que usar o Atlassian Intelligence para sugerir tipos de solicitação é menos útil em situações em que:
Por isso, a gente sugere que você pense sobre as situações em que usa o Atlassian Intelligence e analise a qualidade das respostas recebidas antes de compartilhar as saídas com outras pessoas. Também considere:
|
Você deve ter dúvidas sobre como seus dados vão ser usados pelo Atlassian Intelligence para sugerir tipos de solicitação. Esta seção complementa as informações disponíveis na página de perguntas frequentes. O que é processado:
Em relação aos seus dados, o Atlassian Intelligence aplica as seguintes medidas para sugerir tipos de solicitação:
|
Referências
Receba atualizações em tempo real do status de produtos Atlassian na Página de status.
Saiba mais sobre o Atlassian Intelligence
Entenda como a Atlassian gerencia os dados do cliente.