Close
Atlassian 人工智能徽标。

Atlassian Intelligence 和 Rovo 专为提高透明度而设计

我们本着绝无戏言的精神,致力于开放式沟通、问责制,并帮助团队以负责任的方式使用人工智能。

Rovo

在下面选择一项 Rovo 功能,用例和数据使用情况一目了然。

Rovo 支持人员如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

Rovo 支持人员由 OpenAI 和 Google 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列和 Phi 系列)和其他机器学习模型组合提供支持。这些模型包括 OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。

Rovo 支持人员使用这些模型提供功能,以通过自然语言分析和生成针对提示的回复,同时从 Atlassian 及已连接的第三方产品中提取信息来提供相关的回复。

这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。

了解有关 OpenAI 模型Google 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

关于 Rovo 支持人员

通过 Rovo,我们提供了许多现成可用的支持人员,可用于各种任务,如帮助决策、发布知识文档、整理或组织 Jira 中的工作项。支持人员是专门的人工智能团队伙伴,可以协助人类团队快速有效地推进工作。

您可以:

  • 使用自然语言创建自己的支持人员,并自定义其指令、知识和操作
  • 使用代码 (Forge) 创建自己的支持人员,以便与组织的内部工具进行更高级的集成
  • 通过第三方 Marketplace 开发人员、客户和 Atlassian 合作伙伴开发的应用安装支持人员,这些应用通常是使用代码 (Forge) 创建的更复杂的支持人员。

我们认为,Rovo 支持人员在以下情况下效果最佳:

使用 Rovo 支持人员时的限制和注意事项

请务必记住,鉴于用来支持 Rovo 支持人员的模型的工作方式,这些模型的行为有时会表现得不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。

我们发现,Rovo 支持人员在以下情况下不太有用:

  • 您需要有关人员、地点和事实的最新且准确的信息。
  • 您需要从工作区获取信息,但您在工作区中没有访问权限。
  • 您需要非常一致且有规律的输出,并且不受任何变化的影响,因为答案可能会因包括用户权限在内的多种原因而变化。
  • 无人参与。当有人参与验证或引导期望的输出时,Rovo 支持人员的表现最佳。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需考虑:

  • 尽可能具体地说明您要求 Atlassian Intelligence 或 Rovo 完成的事项。
  • 阅读有关为 Rovo 支持人员撰写提示的最佳实践指南。
  • 寻找高效或经过测试的方法将 Rovo 支持人员纳入您的团队。您可以通过查看 Rovo 支持人员配置文件了解团队中的其他人如何使用 Rovo 支持人员。

您的数据与 Rovo 支持人员

我们了解,您可能对 Rovo 支持人员如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,例如 Confluence 页面、Jira 事务或来自已连接的第三方产品的文档。如果您通过 Chrome 浏览器扩展使用 Rovo 聊天中的 Rovo 支持人员,这包括您打开的公共网页或 Google 文档。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

当涉及到您的数据时,Rovo 支持人员会采取以下措施。

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给 OpenAI 或 Google 以外的任何第三方 LLM 提供商。
    • 不会被任何第三方 LLM 提供商存储。
    • 不会用于改进任何大型语言模型。
    • 仅用于提升您的体验。
  • OpenAI 是我们的辅助处理者列表中的辅助处理者。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。
  • 此功能会遵循您实例中的权限。例如,如果您无权访问某一特定 Confluence 页面,则此功能不会在您收到的回复中建议该页面的内容。如果您不想让实例中的其他用户在回复中看到您的内容,则请与您的组织管理员合作,以确保您的权限设置得当。

上述详细信息适用于 Atlassian 提供的 Rovo 支持人员。有关 Atlassian 提供的 Rovo 支持人员的更多信息,请参阅 Rovo 数据、隐私和使用指南 | Rovo | Atlassian 支持。有关第三方提供的支持人员的信息,请参考第三方针对其应用提供的供应商条款。

详细了解 Atlassian Intelligence

了解有关使用 Atlassian Intelligence 的更多信息

了解有关自动化中的 Rovo 支持人员的更多信息

About Rovo Agents Copy link to heading Copied! 显示
  

With Rovo, we provide a number of out-of-the-box Agents, ready to use for a variety of tasks like, helping with decisionmaking, publishing knowledge documentation, and tidying up or organizing work items in Jira. Agents are specialized AI teammates that can assist human teams with moving work forward quickly and effectively.

You can:

  • Create your own Agents using natural language and customize their instructions, knowledge, and actions
  • Create your own Agents using code (Forge) to have more advanced integrations with your organization’s internal tools
  • Install Agents via apps by developed by third-party Marketplace developers, customers, and Atlassian partners, which are typically more sophisticated Agents created using code (Forge).

We believe that Rovo Agents work best in scenarios where:

  • A repetitive or formulaic task that would be easily automated through an Agent. Read more about automations
  • Generating ideas or draft content to work from
  • Performing fast searches for specific information
Limitations and considerations when using Rovo Agents Copy link to heading Copied! 显示
  

It’s important to remember that because of the way that the models used to power Rovo Agents work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete.

We’ve found that Rovo Agents are less useful in scenarios where:

  • You need current and accurate information about people, places and facts.
  • You need information from your workspace that you don’t have access to within your workspace.
  • You need very consistent and regular output that is not subject to any variation as answers can vary for a number of reasons including user permissions.
  • Humans aren’t involved. Agents work best with a human to verify or guide the desired output.

For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others.

You might also want to think about:

  • Being as specific as possible in what you ask Atlassian Intelligence or Rovo to do.
  • Reading best practice guides on writing prompts for Agents.
  • Finding efficient or tested ways to incorporate Agents in your team. You can see how others on your team are using Agents by viewing Agent profiles.
Your data and Rovo Agents Copy link to heading Copied! 显示
  

We understand you may have questions about how Rovo Agents use your data. This section supplements the information available on our Trust Center.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as a Confluence page, Jira issue or a document from a connected third-party product. If you use Agents in Rovo Chat via the Chrome browser extension, this includes the public webpage or Google Doc you have open.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, Rovo Agents apply the following measures.

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third party LLM provider other than OpenAI or Google.
    • Are not stored by any third-party LLM provider.
    • Are not used to improve any large language models.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our List of Subprocessors. They do not use your inputs and outputs for any purpose besides processing your request.
  • This feature follows the permissions in your instance. For example, if you do not have access to a certain Confluence page, you will not be suggested content from that page in the response you receive. If you do not want your content to be available in responses to other users in your instance, please work with your org admin to ensure your permissions are set appropriately.

The details above apply to Agents that are provided by Atlassian. For more information about Agents provided by Atlassian, please see Rovo data, privacy and usage guidelines | Rovo | Atlassian Support. For information about Agents provided by third parties, please reference the Vendor Terms provided by those third parties for their apps.

Read more about Atlassian Intelligence

Discover more about using Atlassian Intelligence

Discover more about Agents in automations

Rovo 聊天如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

Rovo 聊天由 OpenAI 和 Google 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列和 Phi 系列)和其他机器学习模型组合提供支持。这些模型包括 OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。

Rovo 聊天利用这些模型,通过自然语言分析并生成针对提示的回复,同时从 Atlassian 及已连接的第三方产品中提取信息来提供相关的回复。

这些回复是由这些大型语言模型根据您的输入生成的,本质上具有概率性。这意味着大型语言模型的回复是根据它们所训练的数据预测最有可能出现的下一个单词或文本而生成的。

了解有关 OpenAI 模型Google 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

Rovo 聊天的用例

Rovo 聊天允许您通过对话式界面获取组织的知识。这意味着您可以像询问他人一样,要求 Rovo 撰写、阅读、审查或创建内容,而不会中断您的工作流。Rovo 聊天了解您工作(包括 Atlassian 内部和您连接的第三方产品中的工作)的上下文,以回答问题或帮助提供想法或洞察信息。

我们认为,Rovo 聊天在以下情况下效果最佳:

  • 您的组织希望根据每个用户的访问权限,为用户提供一种简便、对话式的方式来访问公司知识。
  • 在执行创建页面或 Jira 事务、查找利益相关者或查找与工作相关的信息等任务时,您更喜欢对话式界面。
  • 您希望能帮助您完善您的写作。
  • 您希望能帮助您理解冗长或复杂的知识页面。
  • 您希望能帮助您找到 Jira 事务或 Confluence 页面中的不足或需要改进的地方。

用户还可以通过 Chrome 浏览器扩展访问 Rovo 聊天。点击此处此处了解有关访问 Rovo 聊天的更多信息。

使用 Rovo 聊天时的注意事项

请务必记住,由于用来支持 Rovo 聊天的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。

我们发现,Rovo 聊天在以下情况下不太有用:

  • 您需要有关人员、地点和事实的确定性、绝对且准确的信息。
  • 您需要在工作区内无法获取的信息。
  • 您需要以英语以外的语言提出问题并获得回复。

因此,我们建议您在使用 Rovo 聊天时考虑使用场景,并在与他人分享之前审查所收到回复的质量。

您可能还需考虑:

  • 尽可能具体地说明您要求 Rovo 聊天完成的事项。例如,您可以在请求中包含与您的问题相关的特定人员、页面、项目、时间或其他上下文,或者在与 Rovo 聊天的后续对话中添加说明。为 Rovo 聊天撰写提示的技巧
  • 花时间优化您的提示,并与 Rovo 聊天进行多次交互,以获得更好的结果。

您的数据与 Rovo 聊天

我们了解,您可能对 Rovo 聊天如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。

我们会处理:

您的提示(输入)和回复(输出)。

  • 您的实例中与提示相关的上下文,例如 Confluence 页面、Jira 事务或连接的第三方产品的文档。如果您通过 Chrome 浏览器扩展使用 Rovo 聊天,这包括您打开的公共网页或 Google 文档。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

当涉及到您的数据时,Rovo 聊天会采取以下措施。

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给 OpenAI 或 Google 以外的任何第三方 LLM 提供商。
    • 不会被任何第三方 LLM 提供商存储。
    • 不会用于改进任何大型语言模型。
    • 仅用于提升您的体验。
    • 在您的聊天历史记录中保留 28 天,以便您可以返回并参考以前的对话。

OpenAI 是我们的辅助处理者列表中的辅助处理者。除了处理您的请求或根据您的请求采取行动之外,他们不会将您的输入和输出用于其他任何目的。

此功能会遵循您实例中的权限。例如,如果您无权访问某一特定 Confluence 页面,则此功能不会在您收到的回复中建议该页面的内容。如果您不想让实例中的其他用户在回复中看到您的内容,则请与您的组织管理员合作,以确保您的权限设置得当。

当您通过 Chrome 浏览器扩展访问 Rovo 聊天时,Rovo 聊天只会读取您正在查看的网页上的内容,以补充您的 Atlassian 产品中已有的内容。网页上的其他数据不会被存储。

详细了解 Atlassian Intelligence

了解有关使用 Atlassian Intelligence 的更多信息

了解有关使用 Rovo 聊天的更多信息

了解有关浏览器扩展的更多信息

Use cases for Rovo Chat Copy link to heading Copied! 显示
  

Rovo Chat allows allows you to access the knowledge of your organization through a conversational interface. This means you can ask Rovo to write, read, review, or create things the same way you might ask a person, without disrupting your workflow. Chat understands the context of your work (both within Atlassian and your connected third-party products) to answer questions, or help provide ideas or insights.

We believe that Rovo Chat works best in scenarios where:

  • Your organization wants to provide users with an easy, conversational way to access company knowledge, based on each user’s access permissions.
  • You prefer a conversational interface when performing tasks like creating pages or Jira issues, finding stakeholders, or finding information that is relevant to your work.
  • You would like help finessing your writing.
  • You would like help understanding long or complex knowledge pages.
  • You would like help finding gaps in, or areas of improvement on, Jira issues or Confluence pages.

Rovo Chat can also be accessed by users via a Chrome browser extension. Learn more about accessing Rovo Chat here and here.

Considerations when using Rovo Chat Copy link to heading Copied! 显示
  

It’s important to remember that because of the way that the models used to power Rovo Chat work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete.

We’ve found that Rovo Chat is less useful in scenarios where:

  • You need deterministic, absolute, and accurate information about people, places and facts.
  • You need information that you don’t have access to within your workspace.
  • You need to ask questions and receive responses in languages other than English.

For this reason, we encourage you to think about the situations when you use Rovo Chat and review the quality of the responses you receive before sharing them with others.

You might also want to think about:

  • Being as specific as possible in what you ask Rovo Chat to do. For example, you can include in your request the specific people, pages, projects, times or other context relevant to your question, or add clarifications in your follow up conversations with Rovo Chat. Tips on writing prompts for Chat.
  • Taking the time to refine your prompts and engage in a bit of back and forth with Rovo Chat to get better results.
Your data and Rovo Chat Copy link to heading Copied! 显示
  

We understand you may have questions about how Rovo Chat uses your data. This section supplements the information available on our Trust Center.

We process:

Your prompts (inputs) and responses (outputs).

  • Context from your instance relevant to your prompt, such as a Confluence page, Jira issue, or a document from a connected third-party product. If you use Rovo Chat via the Chrome browser extension, this includes the public webpage or Google Doc you have open.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, Rovo Chat applies the following measures.

  • Your prompts (inputs) and responses (outputs):
    • Are not available to other customers.
    • Are not sent to any third party LLM provider other than OpenAI or Google.
    • Are not stored by any third-party LLM provider.
    • Are not used to improve any large language models.
    • Are used only to serve your experience.
    • Are retained within your Chat history for 28 days so that you can go back and reference previous conversations.

OpenAI is a subprocessor on our List of Subprocessors. They do not use your inputs and outputs for any purpose besides processing or acting on your request.

This feature follows the permissions in your instance. For example, if you do not have access to a certain Confluence page, you will not be suggested content from that page in the response you receive. If you do not want your content to be available in responses to other users in your instance, please work with your org admin to ensure your permissions are set appropriately.

When you access Rovo Chat from the Chrome browser extension, Chat will only read the content on the web page you are viewing to complement the content already within your Atlassian products. No additional data from the web page will be stored.

Read more about Atlassian Intelligence

Discover more about using Atlassian Intelligence

Discover more about using Rovo Chat

Discover more about the browser extension

Rovo 搜索如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

Rovo 搜索使用 Atlassian Intelligence 来增强 Atlassian 和第三方工具的搜索能力。

Rovo 搜索由 OpenAI 和 Google 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列和 Phi 系列)和其他机器学习模型组合提供支持。这些模型包括 OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。

Rovo 搜索使用这些模型来提供诸如语义搜索、相关性排名和自然语言处理等功能。这包括使用自然语言分析和生成对搜索查询的回复,以及从 Atlassian 和已连接的第三方产品中提取信息来提供相关回复。

这些回复是由这些大型语言模型根据您的输入生成的,本质上具有概率性。这意味着大型语言模型的回复是根据它们所训练的数据预测最有可能出现的下一个单词或文本而生成的。

了解有关 OpenAI 模型Google 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

Rovo 搜索的用例

Rovo 搜索使用户能够跨多个工具和平台进行搜索,包括 Atlassian 产品和已连接的第三方产品,提供符合情境的相关结果,以增强团队协作并提高工作效率。

我们认为,Rovo 搜索在以下情况下效果最佳:

  1. 您需要在单一界面中跨各种 Atlassian 产品(如 Jira 和 Confluence)和已连接的第三方产品(如 Google Drive 和 SharePoint)进行搜索,而无需切换上下文。
  2. 您的团队需要快速访问来自不同来源的相关信息,以节省分别在所有这些来源中搜索的时间。
  3. 您希望搜索结果根据用户的访问权限返回结果。

使用 Rovo 搜索时的注意事项

请务必记住,由于用来支持 Rovo 搜索的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。

我们发现,Rovo 搜索在以下情况下不太有用:

  • 您的团队主要使用单一产品或平台,不需要跨平台搜索功能。
  • 您的组织正在使用 Rovo 的连接器不支持的小众或高度专业化的第三方工具。
  • 您的团队或项目的规模很小,对数据和文档的需求极少。

因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。

您可能还需考虑:

  • 在连接第三方产品之前,您应该检查为该产品设置的权限。Rovo 搜索将遵循权限设置,但您可能需要为您的空间或内容设置适当的权限。
  • 在搜索时,请注意各个用户的搜索结果是不同的,因为 Rovo 遵循权限设置,Rovo 搜索包括只有当前用户才能访问的结果。
  • 如果将组织结构图与 Atlassian 主页同步,Rovo 搜索将能提供更丰富的人员和团队结果。
  • 鼓励您的团队在使用 Rovo 搜索时,不仅搜索关键字,而且提出问题(例如,“Jane Smith 是谁?”或“休假政策是什么?”)。

您的数据与 Rovo 搜索

我们了解,您可能对 Rovo 搜索如何使用您的数据有疑问。此部分将补充我们在 Trust Center 中提供的信息。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与提示相关的上下文,例如 Atlassian 产品和已连接的第三方产品中的文档内容、文档权限和文件元数据。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

当涉及到您的数据时,Rovo 搜索会采取以下措施。

  • 您的提示和回复:
    • 不会提供给其他客户。
    • 不会发送给 OpenAI 或 Google 以外的任何第三方 LLM 提供商。
    • 不会被任何第三方 LLM 提供商存储。
    • 不会用于改进任何大型语言模型。
    • 仅用于提升您的体验。
  • OpenAI 是我们的辅助处理者列表中的辅助处理者。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。
  • Rovo 搜索遵循您产品中的权限。
    • 数据存储在 Atlassian 基于云的搜索索引和实体存储系统中。Rovo 搜索会与来自已连接的第三方产品和 Atlassian 产品的访问控制列表 (ACL) 数据同步,以确保用户只能看到他们有权访问的内容。
    • 例如,如果您没有访问私人 Confluence 页面或 Google Drive 文档的权限,您收到的回复中将不会推荐该内容。如果您不想让 Atlassian 和第三方产品的其他用户在回复中看到您的内容,请与您的组织管理员合作,确保您的权限设置得当。
  • Atlassian 可能会存储您的搜索查询,以改善用户的搜索体验。与所有 Atlassian Intelligence 和 Rovo 功能一样,您的查询不会用于跨客户训练模型。
  • 我们会“监听”内容删除,并根据更改更新 Rovo 索引。例如,一旦更新了 Rovo 索引,从已连接的第三方产品中删除的内容将不会出现在 Rovo 结果中。有关 Rovo 数据使用的更多信息。

详细了解 Atlassian Intelligence

什么是 Atlassian Intelligence?| Atlassian 支持

Rovo:利用 GenAI 解锁组织知识 | Atlassian

Use cases for Rovo Search Copy link to heading Copied! 显示
  

Rovo Search enables users to search across multiple tools and platforms, including Atlassian products and connected third-party products, providing contextual and relevant results to enhance team collaboration and productivity.

We believe that Rovo Search works best in scenarios where:

  1. You need to search across various Atlassian products (like Jira and Confluence) and connected third-party products (such as Google Drive and SharePoint) in a single interface, without switching contexts.
  2. Your teams require quick access to relevant information from different sources to save time searching across all of those sources separately.
  3. You want search results to return results based on what your users have permission to access.
Considerations when using Rovo Search Copy link to heading Copied! 显示
  

It’s important to remember that because of the way that the models used to power Rovo Search work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable.

For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete.

We’ve found that Rovo Search is less useful in scenarios where:

  • Your team primarily uses a single product or platform and doesn’t require cross-platform search capabilities.
  • Your organization is using niche or highly specialized third-party tools that are not supported by Rovo's connectors.
  • You have small teams or projects with minimal data and documentation needs.

For this reason, we encourage you to think about the situations when you use Rovo and review the quality of the responses you receive before sharing them with others.

You might also want to think about:

  • Before connecting a third-party product, you should check the permissions set up for that product. Rovo Search will respect permissions, but you may need to set appropriate permissions for your space or content.
  • When searching, be aware that results differ for individual users, because Rovo respects permissions and Search includes results that only the current user has access to.
  • Rovo Search is able to give back richer people and team results if you sync your org chart with Atlassian Home.
  • Encouraging your team to not only keyword search, but ask questions (for example, “Who is Jane Smith?” or “What is the vacation policy?”) while using Rovo Search.
Your data and Rovo Search Copy link to heading Copied! 显示
  

We understand you may have questions about how Rovo Search uses your data. This section supplements the information available on our Trust Center.

We process:

  • Your prompts (inputs) and responses (outputs).
  • Context from your instance relevant to your prompt, such as document content from your Atlassian products and connected third-party products, document permissions, and file metadata.
  • Data about how you interact with our features, such as clickstream data and the people you work with.
  • Feedback you choose to provide about this feature, including any prompts or responses you choose to share as part of your feedback.

When it comes to your data, Rovo Search applies the following measures.

  • Your prompts and responses:
    • Are not available to other customers.
    • Are not sent to any third-party LLM provider other than OpenAI or Google.
    • Are not stored by any third-party LLM provider.
    • Are not used to improve any large language models.
    • Are used only to serve your experience.
  • OpenAI is a subprocessor on our List of Subprocessors. They do not use your inputs and outputs for any purpose besides processing your request.
  • Rovo Search follows the permissions in your products.
    • Data is stored in Atlassian's cloud-based search index and entity storage system. Rovo Search synchronizes with access control list (ACL) data from your connected third-party products and Atlassian products to ensure users only see content they have permission to access.
    • For example, if you do not have access to a private Confluence page or Google Drive document, you will not be suggested that content in the response you receive. If you do not want your content to be available in responses to other users in your Atlassian and third-party products, please work with your org admin to ensure your permissions are set appropriately.
  • Atlassian may store your search queries to improve the search experience for your users. As with all Atlassian Intelligence and Rovo features, your queries are not used to train models across customers.
  • We ‘listen’ for content deletion, and update the Rovo index with changes. For example, once the Rovo index is updated, content that’s deleted from a connected third-party product will not appear in Rovo results. More about Rovo data usage.

Read more about Atlassian Intelligence

What is Atlassian Intelligence? | Atlassian Support

Rovo: Unlock organizational knowledge with GenAI | Atlassian

Automation using Atlassian Intelligence

用于事件管理的人工智能 ChatOps 如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

用于事件管理的人工智能 ChatOps 功能由 OpenAI 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列和 Phi 系列)和其他机器学习模型组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些大型语言模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。

阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

用于事件管理的人工智能 ChatOps 用例 Copy link to heading Copied! 显示
  

用于事件管理的人工智能 ChatOps 可在将新用户添加到与 Jira Service Management 中的事件事务相关联的 Slack 通道时,向其提供相关事件的摘要和迄今为止有关该事件的所有对话,从而帮助用户加快事件解决流程。此外,用于事件管理的人工智能 ChatOps 还能将 Slack 中出现的对话记录到 Jira Service Management 中,以作为时间线供将来参考。

我们认为,用于事件管理的人工智能 ChatOps 在以下情况下效果最佳:

  • 您的组织将 Slack 用作事件分类和解决事件的主要协作工具。
  • 您的组织遵循在 Jira Service Management 的事件事务中记录事件相关对话的协议。

使用用于事件管理的人工智能 ChatOps 时的注意事项 Copy link to heading Copied! 显示
  

请记住,鉴于用于支持用于事件管理的人工智能 ChatOps 的模型的工作方式,这些模型有时会出现不准确、不完整或不可靠。例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。

我们发现,用于事件管理的人工智能 ChatOps 在以下情况下不太有用:

  • 您需要有关人员、地点和事实的最新且准确的信息。

  • 您没有将 Slack 用作组织进行事件分类和解决事件的主要协作工具。

  • 您的团队无法访问 Jira Service Management 中的事件事务或与正对其进行分类的事件事务相关联的 Slack 通道。

因此,我们建议您考虑在哪些情况下使用用于事件管理的人工智能 ChatOps,并在与他人共享之前对收到的回复质量进行审查。

您可能还需要考虑审查权限,以确保用户对相关事件事务和 Slack 通道有适当级别的访问权限。

您的数据和用于事件管理的人工智能 ChatOps Copy link to heading Copied! 显示
  

我们了解,您可能对用于事件管理的人工智能 ChatOps 如何使用您的数据存有疑问。本节是对我们常见问题解答页面所提供信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,例如已连接 Slack 通道中的事件数据和消息。

  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。

  • 您对此功能提供的任何反馈,包括您选择作为反馈的一部分来共享的任何提示或回复。

涉及到您的数据时,用于事件管理的人工智能 ChatOps 会采取以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给 OpenAI 以外的任何第三方 LLM 提供商。
    • 不会由 OpenAI 存储。
    • 不会用于改进 OpenAI 或任何其他第三方 LLM 提供商。
    • 仅用于为您的体验服务。
  • OpenAI 是我们辅助处理商页面中的辅助处理商之一。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。
  • 此功能遵循您产品的权限。例如,如果您无法访问某个事件事务,则在生成用于事件管理的人工智能 ChatOps 时将无法找到足够的上下文。如果您不希望您的内容出现在对产品其他用户的回复中,则请与您的组织管理员合作以确保团队的访问权限配置得当。
人工智能相关资源如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

人工智能相关资源由 OpenAI 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列和 Phi 系列)和其他机器学习模型组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。

Atlassian Intelligence 使用这些模型在我们的产品中分析和生成自然语言,并从 Atlassian 和已连接的第三方产品提供相关回复。

这些大型语言模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。

阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

人工智能相关资源的用例 Copy link to heading Copied! 显示
  

Atlassian Intelligence 通过向用户推荐他们可以参考的资源列表,包括链接的知识库空间和文章、Jira 事务以及(如果您是 Rovo 客户)您通过 Rovo 集成的任何第三方产品中的资源,从而帮助用户加快解决事件的流程。阅读有关 Rovo 和第三方工具的更多信息。

我们认为,人工智能相关资源在以下情况下效果最佳:

  • 您的组织在链接的知识库空间和已连接的第三方工具中拥有大量文档,而这些文档与您的组织中发生的事件相关并有助于解决这些事件。

  • 您的团队在进行事件分类时需要快速访问可能与事件相关的资源。

使用人工智能相关资源时的注意事项 Copy link to heading Copied! 显示
  

请记住,鉴于用于支持人工智能相关资源的模型的工作方式,这些模型有时会出现不准确、不完整或不可靠。例如,您收到的回复可能无法准确反映其所依据的内容,或者包含看似合理但实则有误或不完整的内容。

我们发现,人工智能相关资源在以下情况下不太有用:

  • 您需要有关人员、地点和事实的最新且准确的信息。

  • 您需要人工智能相关资源来访问您无法轻易获取的信息,如受限的 Confluence 文档(例如,访问受限的 Confluence 页面),以便正确响应您的请求。

  • 在您的设置中,Atlassian Intelligence 可用于推荐相关资源的可用文档极少。

因此,我们建议您考虑在哪些情况下使用 Atlassian Intelligence,并在与他人共享之前对收到的回复质量进行审查。

您可能还需要考虑以下几点:

  • 审查权限,以确保用户对相关文档和第三方工具(如 Slack 通道)中的资源拥有适当的访问权限。

  • 审查并确认组织的文档是完整、最新和准确的。

您的数据和人工智能相关资源 Copy link to heading Copied! 显示
  

我们了解,您可能对人工智能相关资源如何使用您的数据存有疑问。本节是对我们常见问题解答页面所提供信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,例如事件数据、警报数据、Atlassian 产品中的文档以及 Google Docs 等已连接的第三方产品。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您对此功能提供的任何反馈,包括您选择作为反馈的一部分来共享的任何提示或回复。

当涉及到您的数据时,人工智能相关资源会采取以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给 OpenAI 以外的任何第三方 LLM 提供商。
    • 不会由 OpenAI 或任何其他第三方 LLM 提供商进行存储。
    • 不会用于改进 OpenAI 或任何其他第三方 LLM 提供商。
    • 仅用于提升您的体验。
  • OpenAI 是我们辅助处理商页面中的辅助处理商之一。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。
  • 此功能遵循您产品的权限。例如,如果您没有访问特定 Confluence 页面的权限,则无法在相关资源列表中找到该页面。如果您不希望您的内容出现在对产品其他用户的回复中,则请与您的组织管理员合作以确保团队的访问权限配置得当。
Jira Service Management 中的人工智能建议如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

Jira Service Management 中的人工智能建议由 OpenAI 开发的大型语言模型和其他机器学习模型提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些大型语言模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。

了解有关 OpenAI 模型功能的更多信息。

Jira Service Management 中人工智能建议的用例 Copy link to heading Copied! 显示
  

借助 Jira Service Management 中的人工智能建议,您的团队可以一目了然地收集有关服务请求和事件的重要上下文,从而快速上手。Atlassian Intelligence 可以帮助您的团队:

  • 对于服务请求,了解事务的简短摘要、事务报告人的详细信息以及可帮助支持人员解决事务的建议步骤列表。Atlassian Intelligence 还会根据此上下文建议您的团队更新服务请求可以采用的方法,例如更改其优先级或添加经办人。
  • 对于事件,了解事务的简短摘要和可能的根本原因的详细信息。Atlassian Intelligence 还会根据此上下文建议您的团队更新事件可以采用的方法,例如将事件识别为重大事件、添加响应者或受影响的服务、更改其严重性或优先级,或通过创建问题事务来调查问题。

当适用的 SLA 即将被违反时,Jira Service Management 中的人工智能建议还可以建议支持人员上报请求或事件。就服务请求而言,如果用于支持这些建议的模型根据报告人的评论文本确定该请求的紧迫感或愤怒感,该功能还可以建议支持人员上报该请求。

我们认为,Jira Service Management 中的人工智能建议在以下情况下效果最佳:

  • 您的项目收到很多类似的请求或事件。
  • 您的组织已经在 Jira Service Management 中记录了服务请求和事件,并提供了完整、准确和最新的信息。
  • 您团队成员的用户个人资料中已填充了有关其角色、部门和地点的信息。
  • 您的客户和团队成员通过对事务添加评论来保留所有对话的书面记录。
  • 您的项目包括团队经常遇到的各种服务请求或事件。
使用 Jira Service Management 中的人工智能建议时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,鉴于用于支持 Jira Service Management 中的人工智能建议的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

我们发现,Jira Service Management 中的人工智能建议在以下情况下不太有用:

  • 您需要有关人员、地点和事实的最新、准确信息。
  • 您需要针对某项服务请求或事件的建议,而您的项目中不包含任何类似的请求或事件可供借鉴。
  • 您需要的信息在项目中无法获取。
  • 您需要有关经办人的建议,但有关其角色、部门和地点的信息尚未添加到其个人资料。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需考虑:

  • 使用 Jira Service Management 中的人工智能建议之前,要求团队成员确保其个人资料详细信息(以及过去的事件/服务请求)已填充完整。
您的数据和 Jira Service Management 中的人工智能建议 Copy link to heading Copied! 显示
  

我们了解您可能对 Jira Service Management 中的人工智能建议如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。

我们会处理:

  • 提示(输入)和回复(输出)
  • 您的实例中与该功能相关的上下文,如类似请求或事件、经办人或团队伙伴列表、资产以及事务中的数据(如字段值、评论等)。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

当涉及到您的数据时,人工智能建议会应用以下措施。

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给 OpenAI 以外的任何第三方 LLM 提供商。
    • OpenAI 不会对其进行存储。
    • 不会用于改进 OpenAI 模型。
    • 仅用于提升您的体验。
  • OpenAI 是我们的辅助处理商列表中的辅助处理商。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。
  • 此功能会遵循您实例中的权限。例如,如果您无法访问某个服务请求或事件,Atlassian Intelligence 在生成建议时将不会考虑这些请求或事件。如果您不希望您项目或站点中的其他用户看到您自己的内容,请与您的组织管理员合作,确保妥善设置您的权限。
自动化功能如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

Automation using Atlassian Intelligence 由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析自然语言输入,并在 Jira 和 Confluence 中为您生成自动化规则。

这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着,它们的回复是通过根据它们训练所用的数据预测最有可能的下个单词或文本来生成的。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

Automation using Atlassian Intelligence 的用例 Copy link to heading Copied! 显示
  

创建自动化规则是日常自动化体验的核心,我们希望通过将 Atlassian Intelligence 添加到 Jira 和 Confluence 的自动化规则构建器中来简化此流程。现在,您只需输入并描述想要实现自动化的方面,即可轻松创建自动化规则,同时还可让 Atlassian Intelligence 为您处理创建规则涉及的所有繁重工作。详细了解适用于 JiraConfluence 的 Automation using Atlassian Intelligence。

我们认为,当您不确定如何开始或希望加快规则创建流程时,适用于 Jira 和 Confluence 的 Automation using Atlassian Intelligence 的使用效果最佳。

不确定如何更好地创建自动化规则?

自动化规则由不同类型组件的组合创建而成:触发器、操作、条件和分支。您可将组件视为规则的构造块。要使用 Atlassian Intelligence 成功创建规则,您的规则必须至少包含一个触发器和一项操作。例如:

在 Jira 中:

每周一,查找到期时间为未来 7 天的所有任务,并向经办人发送提醒电子邮件。

当工作单变为“测试”状态时,将其分配给 John Smith。

在 Confluence 中:

  • 每周一,查找到期时间为未来 7 天的所有任务,并向经办人发送提醒电子邮件。
  • 每 6 个月,将这段时间内未更新的所有页面归档。归档后,向页面作者发送电子邮件以告知此事。
  • 发布标题中含有产品规格的页面时,创建 Jira 工作单以审查带有该页面链接的页面。

此外,要成功创建规则,Automation using Atlassian Intelligence 必须支持其所有组件。这意味着规则中的任何触发器、操作、条件或分支都必须与 Jira 和/或 Confluence 中的自动化兼容。

Automation using Atlassian Intelligence 的注意事项 Copy link to heading Copied! 显示
  

请务必牢记,由于这些模型会通过特定方式来推动 Automation using Atlassian Intelligence 发挥作用,因此它们有时会出现不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。

我们发现,在以下情况下 Automation using Atlassian Intelligence 不太有用:

  • 您需要让 Automation using Atlassian Intelligence 访问您无法轻易获取的信息(例如,受限页面或项目),以正确解答您的请求。
  • 您需要执行一次性任务。
  • 您需在知识库中查询信息。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

Automation using Atlassian Intelligence 只能与 JiraConfluence 中的一组现有可用自动化组件配合使用。

如上所述,您可能还需要尽可能具体地考虑要求 Atlassian Intelligence 完成的事项。

您的数据和 Automation using Atlassian Intelligence Copy link to heading Copied! 显示
  

我们了解,您可能对 Automation using Atlassian Intelligence 如何使用您的数据存有疑问。本节是对我们常见问题解答页面所提供信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 与您的提示相关的实例上下文,如 Jira 项目或 Confluence 页面。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

涉及到您的数据时,使用 Atlassian Intelligence for Confluence 自动化功能时会应用以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商
    • 不会由任何 LLM 提供商进行存储。
    • 不会用于改进 LLM 模型。
    • 仅用于提升您的体验。

所有第三方 LLM 提供商均为辅助处理商,并在我们的辅助处理商页面上以此身份列出。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。

此功能遵循您实例中的权限。例如,如果您没有访问特定项目或页面的权限,您收到的回复中则不会推荐来自这些资产的内容。如果您不想让实例中的其他用户在回复中看到您的内容,则请与您的组织管理员合作以确保权限设置得当。

警报分组

警报分组如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

采用 Atlassian Intelligence 的警报分组由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些模型包括旨在识别警报数据模式的算法,以及 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些机器学习模型来分析和生成警报群组,并根据警报内容或所用标记的相似性在我们的产品中提供相关建议(过去的警报群组和过去的警报响应者)。然后,Atlassian Intelligence 使用大型语言模型来分析和生成我们的产品中这些群组的自然语言描述和内容。

这些大型语言模型根据您的输入生成回复,并且具有概率性。这意味着它们的回复是根据训练时所基于的数据预测最有可能出现的下一个单词或文本而生成的。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

警报分组的用例 Copy link to heading Copied! 显示
  

警报分组使用 Atlassian Intelligence 来识别相似警报并将其分组。它还会根据警报内容或所用标记的语义相似性,识别并推荐过去的相似警报群组和过去的警报响应者(或响应者团队),从而为您提供帮助。

当您想要将警报群组升级为事件时,警报分组还将预先填充所有上下文信息,供您在事件创建过程中查看。

我们认为,在以下情况下,警报分组最有效:

  • 贵组织经常遇到相似或重复警报大量出现的情况,无论是在短时间内还是在更长的时间内经历过。
  • 贵组织始终使用标记对警报进行分类。
  • 您的团队经常发现相似或重复警报应升级为事件。
使用警报分组时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,考虑到用于支持警报分组的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。就您看到的警报群组而言,它们可能无法准确反映其标记的语义相似性。

我们发现,在以下情况下,警报分组的作用不大:

  • 您需要有关人员、地点和事实的最新、准确信息。
  • 您需要警报分组以获取不容易得到的信息,以便对警报进行正确分组。警报分组在团队配置的角色和权限范围内工作,因此您只能访问有权限查看的警报群组和洞察信息。
  • 您团队使用的警报标记不一致或未得到妥善维护。由于警报分组的工作原理是根据警报标题和标记的语义相似度对警报进行分组,因此其生成的警报群组的质量取决于您的团队和组织中使用的警报标记的一致性和健全性。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需要考虑确保您和您的团队在使用警报标记时遵循一致的做法。

您的数据和警报分组 Copy link to heading Copied! 显示
  

我们了解您可能对警报分组如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,例如您的警报数据(警报标题、警报标记、优先级、响应者团队、描述)。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

我们会处理您的警报数据来训练某个版本的机器学习模型,以识别特定于您警报的模式。该版本仅用于为您的体验服务:

  • 我们会存储识别出的模式,以便为您提供洞察信息。
  • 我们不会使用您的警报数据来训练任何 LLM。

当涉及到您的数据时,警报分组会采用以下措施:

  • 您的输入和输出:
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商

    • 不会由任何 LLM 提供商存储。

    • 不会用于改进 LLM 模型。

    • 仅用于为您的体验服务。

  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能遵循您站点的权限。例如,如果 Atlassian Intelligence 根据标记和语义相似性对 50 个警报进行分组,而您只有查看其中 30 个警报的权限,那么您只能在群组详情视图中看到这 30 个警报。如果您不想让站点中的其他用户在回复中看到您的警报,请与您的组织/站点管理员合作,以确保您的权限设置得当。
Atlassian Intelligence 如何为 Confluence 中的页面和博文生成摘要 Copy link to heading Copied! 显示
  

使用 Atlassian Intelligence 为页面和博文生成摘要由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

Confluence 快速摘要的用例 Copy link to heading Copied! 显示
  

使用 Atlassian Intelligence 为 Confluence 页面或博文生成快速摘要,从而节省时间并获取所需细节,更快地完成工作。详细了解如何在 Confluence 中使用 Atlassian Intelligence

我们认为,在以下情况下,使用 Atlassian Intelligence 为页面和博文生成摘要效果最佳:

  • 有一个文本密集的页面,阅读时间达 5 分钟甚至更长。
  • 书面内容很多,视觉效果和/或其他格式设置(例如页面上的扩展部分)有限。
使用 Atlassian Intelligence 为页面和博文生成摘要时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,由于这些模型通过特定方式使用 Atlassian Intelligence 助力为页面和博文生成摘要,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

尽管我们会继续为宏、表格和摘要中的扩展提供更好的支持,但我们发现,在以下情况下,使用 Atlassian Intelligence 为页面和博文生成摘要的用处相对较小:

  • 您需要有关人员、地点和事实的最新、准确信息。
  • 您需要为一个内容不足的 Confluence 简短页面生成摘要。
  • 您需要一个 Confluence 页面的摘要,页面中大部分内容都位于表格或扩展中。
  • 您需要一个 Confluence 页面的摘要,页面中大部分内容都包含在宏中。

我们建议您在使用 Atlassian Intelligence 时要考虑所处的情况,并在与他人共享之前审查所收到的回复的质量。

您可能还需要考虑:

  • 让 Atlassian Intelligence 为您所知的文本密集页面生成摘要。
您的数据及使用 Atlassian Intelligence 为页面和博文生成摘要 Copy link to heading Copied! 显示
  

我们了解您可能对在使用 Atlassian Intelligence for Confluence 自动化功能时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。

  • 您的实例中与提示相关的上下文,例如您要为其生成摘要的 Confluence 页面中的内容。

  • 有关您如何与我们的功能交互的数据,例如点击流数据以及与您合作的人员

  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

当涉及到您的数据时,使用 Atlassian Intelligence 为页面面和博文生成摘要时会应用以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。
    • 不会由任何 LLM 提供商存储。

    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能会遵循您实例中的权限。例如,如果您无权访问 Confluence 页面,则您将无法看到此功能,也无法使用 Atlassian Intelligence 为页面生成摘要。如果您不希望您实例中的其他用户看到您自己的内容,请与您的组织管理员合作,确保妥善设置您的权限。

使用 Atlassian Intelligence 定义术语

Atlassian Intelligence 如何定义术语 Copy link to heading Copied! 显示
  

在 Confluence 和 Jira 中使用 Atlassian Intelligence 定义术语由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型在 Confluence 和 Jira 中分析和生成自然语言回答。

这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

使用 Atlassian Intelligence 定义术语的用例 Copy link to heading Copied! 显示
  

关于在 Confluence 和 Jira 中使用内容,最具挑战的事情之一可能就是获取了解所读内容所需的背景信息。缩略语、首字母缩略词、不熟悉的术语以及团队或项目特定的名称可能会导致您在搜索所需信息时花费大量时间。

使用 Atlassian Intelligence 定义术语将为 Confluence 页面或 Jira 事务描述中的公司特定术语(例如首字母缩略词、项目、系统或团队名称)提供定义。这样可为用户在需要时提供他们需要的信息,同时还能帮助团队更好地合作。

Atlassian Intelligence 可以为您定义这些内容,从而节省您的时间,而不会让您偏离正在阅读的内容。

遇到您认为不准确的定义时,您可以对其进行编辑或添加新定义,然后设置可见性,使其针对特定页面或事务、整个空间或项目,或您所在的整个组织显示。

我们认为,在 Confluence 和 Jira 中使用 Atlassian Intelligence 定义术语在以下情况下效果最佳:

  • 一家公司在其 Confluence 实例中会有多个页面提及、描述或解释可供 Atlassian Intelligence 引用的特定术语。
使用 Atlassian Intelligence 定义术语时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,由于这些模型通过特定方式在 Confluence 中使用 Atlassian Intelligence 定义术语,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

我们发现,在以下情况下,在 Confluence 中使用 Atlassian Intelligence 定义术语的用处不大:

  • 您需要有关人员、地点和事实的最新且准确的信息。
  • 您对该 Confluence 实例中的术语没有足够的背景信息(例如,如果没有提及特定术语的页面,则无法准确生成该术语的定义)。
  • 定义需要访问您无权查看的 Confluence 内容
  • 您尝试定义多个术语,而不是一次定义一个单独的术语。

此外,在 Jira 中,我们还发现,由于使用 Atlassian Intelligence 定义术语依赖于 Confluence 中的搜索功能,因此只有当您有权在您 Jira 实例所在的站点上查看 Confluence 实例时,该功能才能在 Jira 中运行。

您还可能会发现,在使用多种语言编写内容的 Confluence 空间或 Jira 实例中,使用 Atlassian Intelligence 定义术语的效果不如预期。

使用 Atlassian Intelligence 定义术语时如何处理您的数据 Copy link to heading Copied! 显示
  

我们了解您可能对在使用 Atlassian Intelligence 定义术语时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,例如您要定义的术语。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

就您的数据而言,使用 Atlassian Intelligence 定义术语时会应用以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能遵循现有的用户访问权限,因此不会向用户显示他们无权访问的内容中的定义。相反,该功能仅会从用户有权在实例中查看的页面和项目中提取内容和定义。如果您不想让实例中的其他用户在回复中看到您的内容,请与您的组织管理员合作,确保您的权限设置得当。
  • 如果用户手动编辑或更新定义,则该定义将存储并保留 1 年。

编辑器中的生成式 AI

编辑体验下的 Atlassian Intelligence 是如何运作的 Copy link to heading Copied! 显示
  

编辑体验下的 Atlassian Intelligence 由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

编辑器中生成式人工智能的用例 Copy link to heading Copied! 显示
  

Atlassian Intelligence 有助于推动组织中的所有团队之间进行有效沟通,从而提高效率、加速决策和改善流程。

我们认为,在以下情况下,使用编辑体验下的 Atlassian Intelligence 效果最佳:

  • 改造现有内容以适合不同的受众。Atlassian Intelligence 可帮助改变语气、改进写作方式并使技术信息更易于其他团队理解。这种方法最适合想要让自己的写作更加专业和简洁的团队。
  • 总结现有内容。借助 Atlassian Intelligence,您可以将粗略的笔记转化为有用的策略文档、知识库文章、营销活动计划等。您也可以使用它来分析现有信息,以定义行动计划和项目。这种方法最适合需要从中提取大量上下文的文本密集型页面。
  • 生成新内容。Atlassian Intelligence 可帮助您起草新内容,例如策略页面、项目概述、发行说明或用户故事。当团队使用清晰、具体的提示并考虑到特定目标时,这种方法效果最好。
使用编辑体验下的 Atlassian Intelligence 时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,由于这些模型通过特定方式为编辑体验下的 Atlassian Intelligence 提供支持,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

我们发现,在以下情况下,使用编辑体验下的 Atlassian Intelligence 的用处不大:

  • 您需要有关人员、地点和事实的最新且准确的信息。
  • 您需要有权访问您不容易获得的信息(例如,在您的实例中),以正确回答您的请求。
  • 您需要使用标准 Markdown 以外的格式生成内容(例如,从头开始生成信息面板)。
  • 您需要引用正在编辑的文档中尚不存在的信息(例如,其他文档或其他产品中的内容)。
  • 您需要使用英语以外的语言生成和转换内容。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需要考虑:

  • 尽可能具体地说明您要求 Atlassian Intelligence 做的事情。
  • 将复杂的请求分解为更小、更易于管理的任务。
  • 整合相关关键字以提高所生成内容的准确性。
  • 在输入文本中使用正确的语法和标点符号。
  • 校对、审查和编辑 AI 写作助手生成的输出,以确保准确和清晰。
  • 尝试对您的输入文本采用不同的提示或变换一种说法,以探索不同的想法。
  • 与他人合作收集反馈并提高输出质量。
编辑体验下的 Atlassian Intelligence 如何处理您的数据 Copy link to heading Copied! 显示
  

我们了解您可能对编辑体验下的 Atlassian Intelligence 如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,例如您从其触发 Atlassian Intelligence 的产品。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

当涉及到您的数据时,编辑体验中的 Atlassian Intelligence 会应用以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能遵循您实例中的权限。例如,如果您无权访问某一特定 Confluence 页面,则此功能不会在您收到的回复中建议该页面的内容。如果您不希望自己的内容在对您实例中的其他用户的回复中使用,请与您的组织管理员合作,确保妥善设置您的权限。
事务改写器如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

事务改写器由 OpenAI 开发的大型语言模型(包括 OpenAI 的 GPT 系列模型)提供支持。

Atlassian Intelligence 使用该模型来分析和生成 Jira 中的自然语言。

这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。

了解有关 OpenAI 模型功能的更多信息。

事务改写器的用例 Copy link to heading Copied! 显示
  

事务改写器通过使用 Atlassian 开发的模板来改写 Jira 事务描述,从而帮助提高其清晰度。该模板涵盖了我们通常希望在 Jira 事务描述中看到的信息类型,如用户故事、工作背景和验收标准。

我们认为,在事务描述已包含有用信息(如验收标准或来源链接),但这些信息没有使用清晰或一致的结构进行格式化的情况下,事务改写器最有效。

使用事务改写器时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,鉴于用于支持事务改写器的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您改写的描述可能无法准确反映其所依据的内容,也可能包含听起来合理但却是错误或不完整的细节。

我们发现,事务改写器在以下情况下不太有用:

  • 您需要有关人员、地点和事实的最新且准确的信息。
  • 您的事务描述不包含太多信息,因为支持事务改写器的模型很有可能添加了原始描述中没有的信息。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前始终查看所收到回复的质量。在开始使用事务改写器来改写事务描述之前,您可能还需要考虑审查并确认事务描述是否包含所有相关信息。

您的数据和事务改写器 Copy link to heading Copied! 显示
  

我们了解您可能对事务改写器如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,例如 Jira 事务描述和摘要。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

当涉及到您的数据时,事务改写器会采取以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户
    • 不会发送给 OpenAI 以外的任何第三方 LLM 提供商
    • OpenAI 不会对其进行存储。
    • 不会用于改进 OpenAI 的模型。
    • 仅用于提升您的体验。
  • OpenAI 是我们的辅助处理程序,位于我们的辅助处理程序列表中。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能仅使用 Jira 事务中的可用信息,并从 Jira 事务中调用。因此,它只能由有权查看事务且无法访问任何其他信息的用户调用。

在 Jira Service Management 中总结事务详情

Atlassian Intelligence 如何在 Jira Service Management 中总结事务详情 Copy link to heading Copied! 显示
  

使用 Atlassian Intelligence 为事务详情生成摘要由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

在 Jira Service Management 中汇总事务详细信息的用例 Copy link to heading Copied! 显示
  

您可以使用 Atlassian Intelligence 来快速总结这些信息,而不必通读有关 Jira Service Management 事务的长篇描述和大量评论。这有助于支持人员快速了解事务的背景以及所取得的任何进展,使他们能够迅速采取行动并提供及时的帮助。

我们认为,使用 Atlassian Intelligence 总结事务详情最适合以下事务:

  • 以英文撰写描述和评论的事务。
  • 包含大量评论和/或长篇评论和描述的事务。
使用 Atlassian Intelligence 总结事务详情时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,考虑到这些模型过去推动使用 Atlassian Intelligence 总结事务详情功能工作的方式,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

我们发现,在以下情况下,使用 Atlassian Intelligence 总结事务详情的用处不大:

  • 您使用的是英语以外的语言
  • 该事务没有历史记录或详情

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

在使用 Atlassian Intelligence 总结事务详情时如何使用您的数据 Copy link to heading Copied! 显示
  

我们了解您可能对在使用 Atlassian Intelligence 为事务详情生成摘要时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文包括有关 Jira 服务的详情。管理事务,例如事务描述、评论和请求单中涉及的用户。
  • 有关您如何与我们的功能交互的数据,例如点击流数据以及与您合作的人员
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

就您的数据而言,使用 Atlassian Intelligence 总结事务详情时会应用以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能遵循您实例中的权限。仅支持人员和项目管理员可以看到“总结”按钮。

编辑器中的生成式 AI

Atlassian Intelligence 如何为智能链接生成摘要 Copy link to heading Copied! 显示
  

使用 Atlassian Intelligence (AI) 为智能链接生成摘要由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

为智能链接生成摘要的用例 Copy link to heading Copied! 显示
  

将光标悬停在 Jira、Confluence 和 Google Docs 中的智能链接上后,Atlassian Intelligence 可帮助您生成内容摘要,从而确定该链接的重要性和价值,并决定后续操作。这样可减少离开当前页面和切换上下文的需要。

我们认为,在以下情况下使用 Atlassian Intelligence 来生成智能链接摘要的效果最佳:

  • 您正在查看的页面或事务包含一个或多个智能链接。
  • 您正在查看的页面或事务包含一个或多个智能链接,这些智能链接包含大量信息或密集内容,会占用您阅读主要内容的时间和注意力。
使用 Atlassian Intelligence 为智能链接生成摘要时的注意事项 Copy link to heading Copied! 显示
  

请务必牢记,鉴于模型在支持使用 Atlassian Intelligence 为智能链接生成摘要时的工作方式,这些模型有时会出现不准确、不完整或不可靠等情况。

例如,您收到的摘要可能无法准确反映其所依据的内容,或者包含看似合理但实为谬误或不完整的内容。

我们发现,在以下情况下使用 Atlassian Intelligence 为智能链接生成摘要的效果不佳:

  • 您需要有关人员、地点和事实的最新、准确信息。
  • 您需要为极短的内容生成摘要。
  • 您需要为链接中的所有元数据和内容生成摘要。例如,您想了解 Jira 工作单中的所有字段值及其描述和评论内容。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您的数据以及使用 Atlassian Intelligence 为智能链接生成摘要 Copy link to heading Copied! 显示
  

我们了解您可能对在使用 Atlassian Intelligence 为事务详情生成摘要时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与提示相关的上下文;例如,您要为其生成摘要的链接的内容。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的所有回复。

当涉及到您的数据时,使用 Atlassian Intelligence 为智能链接生成摘要会采取以下措施。

  • 您的摘要:
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能会遵循您实例中的权限。例如,如果您无权访问 Jira、Confluence 或 Google 中的页面或工作单,则将无法为该来源的内容生成摘要。如果您不想让实例中的其他用户在回复中看到您的内容,则请与您的组织管理员合作,以确保您的权限设置得当。

Jira Service Management 中的 Atlassian Intelligence 回答功能

Jira Service Management 的虚拟服务支持人员如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

Jira Service Management 的虚拟服务支持人员由 OpenAI、Google 和 Anthropic 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)和其他机器学习模型提供支持。

虚拟服务支持人员按如下方式使用这些模型:

  • 意图:每个意图均代表您的虚拟服务支持人员可以帮助客户解决的一个特定问题、疑问或请求。意图是使用为您的组织量身定制的机器学习模型并根据训练数据集(在下文“您的数据和虚拟服务支持人员”中将有更详细的介绍)进行训练的。该模型可用于理解客户在贵组织背景下提出的问题。阅读有关意图的更多信息
  • Atlassian Intelligence 问题回答使用生成式人工智能在您的链接 Confluence 知识库空间中进行搜索,然后总结这些信息以回复客户的问题。Atlassian Intelligence 问题回答由 OpenAI 开发的大型语言模型和其他机器学习模型提供支持。了解有关 Atlassian Intelligence 问题回答的更多信息
  • “根据您的数据”意图模板是使用您的项目事务生成的。我们使用机器学习将最常见的主题分组,为每个群组建议一个意图,然后为每个建议的意图生成标题、描述和训练短语。“根据您的数据”意图模板由机器学习模型(包括大型语言模型)组合提供支持。了解有关意图模板的更多信息

大型语言模型的工作原理:大型语言模型根据您的输入生成回复,具有概率性质。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。

用于支持虚拟服务支持人员的大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

Jira Service Management 的虚拟服务支持人员用例 Copy link to heading Copied! 显示
  

虚拟服务支持人员由一个对话式 Atlassian Intelligence 引擎提供支持,该引擎可以分析和理解意图、上下文和权限来实现个性化互动,从而帮助团队自动进行一级支持互动。

利用 Atlassian Intelligence,虚拟服务支持人员可帮助团队扩展服务台,并通过以下三个关键功能让客户满意:

  • 意图,由项目管理员创建,代表虚拟服务支持人员可以帮助客户解决的具体问题、疑问或请求。
  • Atlassian Intelligence 问题回答,它使用生成式人工智能在链接的知识库空间中进行搜索,并针对客户的问题总结回答。
  • “根据您的数据”意图模板,这是通过对项目的 Jira Service Management 事务进行分组而生成的个性化意图模板建议,可使项目管理员更快地创建意图。

虚拟服务支持人员可通过多种渠道使用,包括 Slack、Microsoft Teams、Jira Service Management 门户等。了解有关哪些渠道可供虚拟服务支持人员使用的更多信息

我们认为虚拟服务支持人员在以下情况下效果最佳:

  • 您的服务团队收到大量一级问题。
  • 您的支持人员发现自己在反复回答同样的问题。
  • 您拥有一个完整的、最新的链接知识库,虚拟服务支持人员可以使用该知识库针对客户问题提供回答。
  • 您的服务团队通常会收到具有多种可能解决结果的请求,这些请求适合使用项目级虚拟服务支持人员的两种关键功能—意图和 Atlassian Intelligence 问题回答:
    • 当需要采取行动来解决客户请求时(例如,创建一个事务让支持人员来解决),或者当需要来回对话来收集客户信息时,意图功能的效果最佳。对于需要为特定请求提供一个固定的确定性结果的情况,意图也是理想的选择,因为意图可以更好地控制与客户共享哪些信息。
    • 当客户的请求可以通过提供信息和说明来解决,而无需任何支持人员的干预时,Atlassian Intelligence 问题回答功能的效果最佳。
  • 对于“根据您的数据”模板
    • 您的项目已收到至少 50 个事务,这样意图模板建议就能获得足够的信息来提供帮助。
    • 由于“根据您的数据”意图模板将识别最近的常见客户查询并将其分组,因此您最近经历了客户行为的变化,例如即将举行的活动,甚至是技术中断。
使用 Jira Service Management 中的 Atlassian Intelligence 回答功能时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,鉴于用于支持虚拟服务支持人员的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。

例如,回复可能无法准确反映其所依据的内容,或者可能包含听起来合理但却是错误或不完整的内容。

我们发现,在以下情况下,虚拟服务支持人员不太有用:

  • 您收到客户的一级请求数量较少。
  • 您尚未使用虚拟服务支持人员的所有功能,例如创建意图(或使用“根据您的数据”意图模板),或启用 Atlassian Intelligence 问题回答。
  • 对于意图
    • 您添加的培训短语含义过于宽泛或过于多样。当意图具体时,意图匹配效果最好。
    • 您添加的训练短语不能准确反映客户通常的提问方式。匹配是语义性的,会在训练短语和客户所提问题之间寻找相似的含义。
    • 您创建的多个意图过于相似。意图之间重叠的主题会让虚拟服务支持人员感到困惑,并导致建议错误的意图。
  • 对于 Atlassian Intelligence 问题回答
    • 客户需要有关人员、地点和事实的最新准确信息。
    • 客户需要 Atlassian Intelligence 问题回答来访问他们无法随时获得的信息(例如,在他们无法访问的链接知识库中)以回答问题。
    • 您的知识库已经过时或不完整,或者其文章不够详细,无法正确回答问题。
  • 对于“根据您的数据”意图模板,您的 Jira Service Management 项目事务中的可用数据质量很差(或者您的事务少于 50 个),因此无法找到有意义的群组。

我们建议您考虑在哪些情况下使用 Atlassian Intelligence,并在为客户启用虚拟服务支持人员之前对其性能进行审查。了解有关提高虚拟服务支持人员性能的更多信息

您可能还需要考虑:

您的数据和虚拟服务支持人员 Copy link to heading Copied! 显示
  

我们了解您可能对 Jira Service Management 的虚拟服务支持人员如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 从您的实例中获取与您的提示相关的上下文,例如将您的链接知识库中的 Confluence 文章汇总为 Atlassian Intelligence 问题回答,或将您的历史 Jira 请求单生成建议意图。

  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。

  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

当涉及到您的数据时,虚拟服务支持人员会采取以下措施:

  • 对于 Jira Service Management 项目渠道中的意图匹配
    • 意图(包括“根据您的数据”意图模板)是根据您提供的训练数据集,通过为您的组织量身定制的机器学习模型进行训练的。这包括您的项目管理员创建的意图和训练短语,或我们在标准意图模板或“根据您的数据”意图模板中提出的建议。
    • 为您的组织开发的训练数据和训练过的机器学习模型不会与其他 Atlassian 客户共享。
    • 训练仅在项目级别完成,这意味着意图是根据管理员在意图创建过程中提供的训练短语进行训练的,管理员对训练数据拥有完全控制权。数据不会在单个站点的多个项目中使用。
    • 这些模型将被存储起来以备 Jira Service Management 站点使用,并在您删除站点时删除。
  • 对于 Jira Service Management 帮助中心中的意图匹配
    • 我们会创建并存储载体,以符合数据驻留的要求。
    • 这些模型将被存储起来以备 Jira Service Management 站点使用,并在您删除站点时删除。
  • 对于 Atlassian Intelligence 问题回答
    • 您的提示(输入)和回复(输出):
      • 不会提供给其他客户。
      • 除 AWS Bedrock 上的 OpenAI、Google 或 Anthropic 之外,任何第三方 LLM 提供商都无法使用。
      • 不会由任何 LLM 提供商存储。
      • 不会用于改进任何大型语言模型。
      • 仅用于为您的体验服务。
    • 此功能遵循应用于您的链接知识库空间的权限和限制。这意味着,在您的 Jira Service Management 门户上客户可使用的所有页面都将可供 Atlassian Intelligence 问题回答在回复客户时使用。例如,如果对某个 Confluence 页面的访问受到限制,通常就不能通过 Jira Service Management 进行访问,那么 Atlassian Intelligence 问题回答将不会使用该页面的内容。如果您不希望您的内容出现在实例中其他用户的回答中,请与您的组织管理员合作,确保您的权限设置适当。
  • 对于“根据您的数据”意图模板
    • 您的 Jira Service Management 请求单数据(输入)和根据该数据创建的建议意图模板(输出):
      • 不会提供给其他客户。
      • 除 AWS Bedrock 上的 OpenAI、Google 或 Anthropic 之外,任何第三方 LLM 提供商都无法使用。
      • 不会由任何 LLM 提供商存储。
      • 不会用于改进大型语言模型。
      • 仅用于为您的体验服务。
    • 对客户在连接的 Jira Service Management 项目中提交的 Jira Service Management 事务和聊天记录的分析仅是为了改善您的体验。

  • OpenAI 是我们的辅助处理商页面中的辅助处理商。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。

使用 Atlassian Intelligence 总结事务详情

Atlassian Intelligence 如何在 Jira 中总结事务详情 Copy link to heading Copied! 显示
  

Jira 中的人工智能摘要由 OpenAI 开发的大型语言模型提供支持。这些模型包括此处介绍的 OpenAI 模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着,它们的回复是根据训练过的数据预测最有可能出现的下一个单词或文本而生成的。

阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。

关于使用 Atlassian Intelligence 总结事务详情 Copy link to heading Copied! 显示
  

您可以使用 Atlassian Intelligence 来快速总结这些信息,而不必通读有关 Jira 事务的长篇描述和大量评论。这有助于支持人员快速了解事务的背景和取得的任何进展,使他们能够迅速采取行动并及时提供援助。

我们认为,使用 Atlassian Intelligence 总结事务详情最适合有大量评论和/或冗长评论和描述的事务。

使用 Atlassian Intelligence 总结事务详情时的限制和注意事项 Copy link to heading Copied! 显示
  

请务必记住,鉴于用于支持 Jira 中的人工智能摘要的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含看似合理但实则有误或不完整的内容。

我们发现,在以下情况下,使用 Atlassian Intelligence 总结事务详情的用处不大:

  • 该事务没有历史记录或详情
  • 该事务有 100 多条评论(我们将只总结最后 100 条评论)

因此,我们建议您考虑在哪些情况下使用 Atlassian Intelligence,并在与他人共享之前对收到的回复质量进行审查。

在使用 Atlassian Intelligence 总结事务详情时如何使用您的数据 Copy link to heading Copied! 显示
  

我们了解您可能对在使用 Atlassian Intelligence 为事务详情生成摘要时会如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,包括有关 Jira 事务的详情,如事务描述、评论和请求单中涉及的用户。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

就您的数据而言,使用 Atlassian Intelligence 总结事务详情时会应用以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给 OpenAI 以外的任何第三方 LLM 提供商。
    • 不会由 OpenAI 存储。
    • 不会用于改进 OpenAI 模型。
    • 仅用于提升您的体验。
  • OpenAI 是我们的辅助处理者列表中的辅助处理者。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。
  • 此功能会遵循您实例中的权限。此功能仅使用 Jira 事务中的可用信息,并从 Jira 事务中调用。因此,它只能由有权查看事务且无法访问任何其他信息的用户调用。

人工智能工作分解

人工智能工作分解如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

人工智能工作分解由 OpenAI 开发的大型语言模型提供支持。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。

阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。

关于人工智能工作分解 Copy link to heading Copied! 显示
  

人工智能工作分解会根据您创建的 Jira 事务建议子事务,从而轻松地将大块工作分解成小块工作。您的事务将作为上下文,为子事务摘要和描述生成建议。

我们认为人工智能工作分解在以下情况下效果最佳:

  • 您从一个有详细摘要和描述的事务开始,包括任何限制、说明和已完成的定义。
  • 起始事务没有现有的子事务。
使用人工智能工作分解时的限制和注意事项 Copy link to heading Copied! 显示
  

请务必记住,鉴于用于支持人工智能工作分解的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。

我们发现人工智能工作分解在以下情况下不太有用:

  • 您需要有关人员、地点和事实的最新且准确的信息。
  • 您没有从详细的事务摘要和描述开始(例如,如果您试图根据一个描述非常简短和宽泛的事务生成子事务建议)。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需考虑:

  • 尽可能具体地说明您要求 Atlassian Intelligence 完成的事项。
  • 在起始事务摘要和描述中提供尽可能多的信息。
您的数据和人工智能工作分解 Copy link to heading Copied! 显示
  

我们了解,您可能对人工智能工作分解如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,包括事务数据(如摘要、描述和评论)。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

当涉及到您的数据时,人工智能工作分解会应用以下措施。

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户
    • 不会发送给 OpenAI 以外的任何第三方 LLM 提供商。
    • 不会由 OpenAI 存储。
    • 不会用于改进 OpenAI 模型。
    • 仅用于提升您的体验。
  • OpenAI 是我们的辅助处理者列表中的辅助处理者。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。
  • 此功能遵循您实例中的权限(即您必须拥有访问事务的权限才能生成子事务建议)。如果您不希望其他用户生成的回复中有您的内容,请与您的组织管理员合作,确保您的权限设置得当。
创建事件如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

通过 Atlassian Intelligence 利用人工智能创建事件由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型根据您的输入生成回复,本质上具有概率性。这意味着,它们的回复是根据训练过的数据预测最有可能出现的下一个单词或文本而生成的。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

利用人工智能创建事件的用例 Copy link to heading Copied! 显示
  

在 Jira Service Management 中将一个或多个警报或警报组上报为事件时,利用人工智能创建事件会使用 Atlassian Intelligence 快速预填充所有上下文信息,供您在创建事件的过程中查看。这样,用户就可以快速了解从这些警报或警报组创建的事件的上下文,并在将警报或警报组上报为事件时审查和确认预填充的信息,包括警报的标题、描述和优先级。

我们认为,在以下情况下利用人工智能创建事件的效果最佳:

  • 要上报为事件的警报包含英文标题和描述。
  • 要上报为事件的警报有较长的描述。
  • 当您根据多个警报创建事件时。
通过利用人工智能创建事件时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,考虑到模型用于推动利用人工智能创建事件工作的方式,这些模型有时会表现得不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

我们发现,在以下情况下利用人工智能创建事件的效果不佳:

  • 您需要有关人员、地点和事实的最新、准确信息。
  • 要上报为事件的警报包含英文以外语言的标题或描述(或两者)。
  • 要上报为事件的警报只包含有限的详情。

由于这些原因,我们建议您在使用 Atlassian Intelligence 时考虑各种情况,并在与他人共享之前审查所收到回复的质量。

为了获得最有用的结果,我们建议您尽可能具体地说明您要求 Atlassian Intelligence 做的事情。

您可能还需要尽可能具体地考虑要求 Atlassian Intelligence 做的事情。

您的数据与使用 Atlassian Intelligence 创建事件 Copy link to heading Copied! 显示
  

我们了解您可能对利用人工智能创建事件如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 与提示相关的实例上下文,如 Jira Service Management 警报的描述、标题和优先级。
  • 有关您如何与我们的功能交互的数据,例如点击流数据以及与您合作的人员
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

当涉及到您的数据时,利用人工智能创建事件会应用以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能遵循您实例中的警报权限。只有有权查看警报并将其上报为事件的支持人员才能看到 Atlassian Intelligence 关于为要创建的事件填写详情的建议。

创建事后回顾

如何使用 Atlassian Intelligence 创建事后回顾 Copy link to heading Copied! 显示
  

通过 Atlassian Intelligence 创建的 PIR(事后回顾)由 OpenAI 开发的大型语言模型提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型根据用户的输入生成回复,本质上具有概率性。这意味着,回复是通过根据它们训练所用的数据预测最有可能的下个单词或文本来生成的。

阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。

利用人工智能创建事后回顾的用例 Copy link to heading Copied! 显示
  

PIR 是事件管理流程的核心部分,可帮助事件响应者和管理者从当前的事件中吸取经验教训,并传递洞察信息,以防止今后发生类似事件。Atlassian Intelligence 可根据 Jira Service Management 实例和 Slack 等聊天工具中的相关上下文信息建议 PIR 描述,供您查看,从而帮助加快通常耗时的 PIR 编制任务。

我们认为,在以下情况下使用人工智能创建 PIR 效果最佳:

  • 您的组织采用一贯的做法为事件编制 PIR 。

  • 您团队的事件详细信息分散在 Slack 和 Jira Service Management 等聊天工具中,这需要您花费更多时间根据这些来源编制 PIR。

  • 您的组织在 Jira Service Management 中使用完整的最新信息记录事件。

通过利用人工智能创建事后回顾时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,考虑到这些模型用于支持 PIR 创建工作的模型的方式,这些模型有时会表现得不准确、不完整或不可靠。例如,您收到的回复可能无法准确反映其所依据的内容,或者包含可能听起来合理但却是错误或不完整的内容。

我们发现,在以下情况下使用人工智能创建 PIR 的作用不大:

  • 您需要有关人员、地点和事实的最新、准确信息。
  • 您需要通过创建 PIR 来访问不容易获取的信息(例如,您无法访问的聊天频道),以便正确生成 PIR 描述。
  • 您的 Jira Service Management 实例中的数据不完整或不够详细,因此 PIR 创建可能无法生成准确的描述。

因此,我们建议您考虑在哪些情况下可以使用 Atlassian Intelligence,并在与他人共享之前对收到的回复质量进行审查。

您可能还需考虑:

  • 尽可能具体地说明您希望 Atlassian Intelligence 做什么。
  • 确保您和您的团队始终遵循事件管理实践。例如,在 Jira Service Management 实例中记录完整准确的事件详细信息,并将相关聊天频道与事件关联起来。
您的数据和利用人工智能创建事后回顾 Copy link to heading Copied! 显示
  

我们了解您可能对利用人工智能创建事后回顾如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,如事件数据(如摘要、标签、优先级、响应者团队和描述)、链接的警报和链接的 Slack 聊天频道。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

当涉及到您的数据时,利用人工智能创建 PIR 会应用以下措施。

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。

    • 不会发送给 OpenAI 以外的任何第三方 LLM 提供商。

    • 不会由 OpenAI 存储。

    • 不会用于改进 OpenAI 模型。

    • 仅用于提升您的体验。

  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。

  • 此功能会遵循您实例中的权限。例如,如果您无法访问事件的链接警报或链接的 Slack 频道,那么在您收到的回复中将不会向您推荐这些来源中的内容。如果您不希望您的内容出现在实例中对其他用户的回复中,请与您的组织管理员合作,确保您的权限设置适当。

使用 Atlassian Intelligence 生成拉取请求描述

Bitbucket Cloud 如何使用 Atlassian Intelligence 生成拉取请求描述 Copy link to heading Copied! 显示
  

使用 Atlassian Intelligence 生成拉取请求描述由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言和代码。

这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过它们训练所用的数据预测最有可能的下个单词或文本来生成的。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

使用 Atlassian Intelligence 生成拉取请求描述的用例 Copy link to heading Copied! 显示
  

当您在 Bitbucket Cloud 代码审查体验中编写拉取请求描述或评论时,Atlassian Intelligence 可以帮助您生成、转换和汇总内容。具体包括:

  • 根据拉取请求中包含的代码更改生成拉取请求描述。
  • 总结、改进或更改拉取请求描述的语气。
  • 总结、改进或更改拉取请求评论的语气。

我们认为,在以下情况下,使用 Atlassian Intelligence 生成 Bitbucket Cloud 拉取请求描述效果最佳:

  • 作为代码作者,您希望 Atlassian Intelligence 协助您编写或改进拉取请求描述。对于能够审查并确认 Atlassian Intelligence 生成的内容适合描述拉取请求的团队来说,这种方法最有效。
  • 作为代码审查员,您希望 Atlassian Intelligence 协助您改进所起草的拉取请求评论的语气或内容。
使用 Atlassian Intelligence 生成拉取请求描述时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,考虑到这些模型用于推动此功能工作的方式,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

我们发现,在以下情况下,使用 Atlassian Intelligence 生成 Bitbucket Cloud 拉取请求描述不太有用:

  • 您需要在拉取请求描述中引用代码更改中尚未出现的信息(例如,包含在存储库其他地方的源代码)。
  • 您无法审查和确认 Atlassian Intelligence 生成的内容是否准确反映了拉取请求。
  • 您需要有关人员、地点和事实的最新、准确信息。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需要考虑:

  • 尽可能具体地说明您要求 Atlassian Intelligence 做的事情。
  • 校对、审查和编辑 AI 写作助手生成的输出,以确保准确和清晰。
  • 与他人合作收集反馈并提高输出质量。
您的数据以及使用 Atlassian Intelligence 生成拉取请求描述 Copy link to heading Copied! 显示
  

我们了解您可能对在 Confluence 中使用 Atlassian Intelligence 定义术语时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)
  • 您的实例中与您的提示相关的上下文,例如:
    • 您的拉取请求中的代码更改和提交消息
    • 您的拉取请求描述的内容
    • 您的拉取请求评论的内容
  • 有关您如何与我们的功能交互的数据,例如点击流数据以及与您合作的人员
  • 您选择提供的有关此功能的反馈

当涉及到您的数据时,使用 Atlassian Intelligence 生成拉取请求描述会应用以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于提升您的体验。
  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。

在 Atlassian Analytics 中生成 SQL 查询

Atlassian Intelligence 如何在 Atlassian Analytics 中生成 SQL 查询 Copy link to heading Copied! 显示
  

在 Atlassian Analytics 中使用 Atlassian Intelligence 生成 SQL 查询由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和理解自然语言,然后在 Atlassian Analytics 中将其转换为结构化查询语言 (SQL)。

这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

使用 Atlassian Intelligence 生成 SQL 查询的用例 Copy link to heading Copied! 显示
  

用自然语言向 Atlassian Intelligence 提问,然后将其转换为 SQL,而不是从头开始自己编写 SQL 查询。提出问题后,Atlassian Intelligence 会使用所选数据源的 Atlassian Data Lake 架构生成 SQL 查询,该查询可用于在您的 Atlassian Analytics 仪表板上构建图表,还可以帮助您了解 Data Lake 中的架构。

我们认为,在以下情况下,使用 Atlassian Intelligence 生成 SQL 查询效果最佳:

  • 您想要从先从生成的 SQL 开始根据需要优化查询,然后构建自定义图表。
  • 自然语言问题中包含 Atlassian Data Lake 架构中引用的单词和概念,在这种情况下,您要指定的尽可能具体。
  • 您想探索和了解 Atlassian Data Lake 架构。

不确定要问什么问题?

以下是一些建议:

  • 按未解决的 Jira 事务数量统计,前 5 个标签是什么?
  • 上个月 x 项目中完成了多少 Jira 事务?
  • 对于排名前 5 的状态,状态中的平均时间是多少?
  • 上个月最受欢迎的 5 个 Confluence 页面是什么?
  • 在过去 5 天内,在我们的 x Jira Service Management 项目中提出了多少请求?
使用 Atlassian Intelligence 生成 SQL 查询时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,由于这些模型通过特定方式使用 Atlassian Intelligence 生成 SQL 查询,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

我们发现,在以下情况下,使用 Atlassian Intelligence 生成 SQL 查询的用处不大:

  • 您需要有关人员、地点和事实的最新、准确信息。
  • 您需要此功能来访问在 Atlassian Data Lake 架构中不容易获得的信息(例如,高级规划的数据),以便正确回答问题。
  • 问题包含对自定义字段的引用。
  • 问题是以英语以外的语言提出的。
  • 您对 SQL 的熟悉程度不足以验证 Atlassian Intelligence 返回的 SQL。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需要考虑:

  • 尽可能具体地说明您要求 Atlassian Intelligence 做的事情。
  • 确保您使用的 Atlassian Data Lake 数据源涵盖回答问题所需的数据。
使用 Atlassian Intelligence 生成 SQL 查询时如何处理您的数据 Copy link to heading Copied! 显示
  

我们了解您可能对在使用 Atlassian Intelligence 生成 SQL 查询时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,包括适用于您的实例的公开发布的 Atlassian Data Lake 架构
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

就您的数据而言,使用 Atlassian Intelligence 生成 SQL 查询时会应用以下措施。

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
  • 所有第三方 LLM 提供商都在我们的辅助处理商页面上。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能遵循您的 Atlassian Data Lake 连接中的权限。例如,如果您无权访问 Atlassian Data Lake 连接,则将无法构建 SQL 来进行查询。

在 Confluence 中搜索答案

Atlassian Intelligence 如何在 Confluence 中搜索答案 Copy link to heading Copied! 显示
  

使用 Atlassian Intelligence 在 Confluence 中搜索答案由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

在 Confluence 中搜索回答的用例 Copy link to heading Copied! 显示
  

知识库扩充速度过快,用户无法跟上这样的速度。使用 Atlassian Intelligence 在 Confluence 中搜索答案的功能可以帮助客户更快地获取推进工作所需的关键信息。此功能可帮您轻松找到所需信息。它了解您会向团队成员提出哪些类型的问题,并立即回答。详细了解如何使用 Atlassian Intelligence 在 Confluence 中搜索答案

我们认为,当您的 Confluence 网站上包含详细、完整、最新的内容时,使用 Atlassian Intelligence 在 Confluence 中搜索答案效果最佳。

此功能不会生成新内容,而会在遵循限制的前提下搜索 Confluence 页面和博文,以找到问题的答案。Atlassian Intelligence 仅根据您 Confluence 中的内容以及您有权访问的具体内容来生成答案。

不确定要问什么问题?

下面提供了一些建议

  • 下一个营销团队于何时异地处理工作?
  • 居家办公的政策什么?
  • Sunrise 项目是什么?
  • 我们的下次营销活动是什么时候?
  • SpaceLaunch 最新产品的发布说明位于何处?
  • 如何提交待报销费用?
使用 Atlassian Intelligence 在 Confluence 中搜索答案时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,由于这些模型通过特定方式使用 Atlassian Intelligence 在 Confluence 中搜索答案,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

我们发现,在以下情况下,使用 Atlassian Intelligence 在 Confluence 中搜索答案的用处相对较小:

  • 您需要有关人员、地点和事实的最新、准确信息。
  • 您需要有关倾向于频繁更改的信息(例如,每月更新的路线图)的最新准确信息。
  • 您需要有关特定人员及其在组织中担任的角色的最新准确信息。
  • 您需要访问您不容易获得的信息(例如,您 Confluence 实例中的受限制页面),以便此功能正确回应您的请求。
  • 答案包含一系列不同的值或类别(例如,每周更新的指标)。
  • 您需要的答案要有细微差别、复杂性或达到堪比人类的推理水平。

您还有可能发现,在使用多种语言编写文档的 Confluence 空间中,使用 Atlassian Intelligence 在 Confluence 中搜索答案的效果不如预期。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需要考虑:

  • 尽可能具体地说明您要求 Atlassian Intelligence 做的事情。
  • 就您确知在 Confluence 实例中记录的内容以及您可以访问的内容提问。
您的数据以及使用 Atlassian Intelligence 在 Confluence 中搜索答案 Copy link to heading Copied! 显示
  

我们了解您可能对在 Confluence 使用 Atlassian Intelligence 搜索回答时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,例如 Confluence 搜索返回的前三页的内容。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

当涉及到您的数据时,使用 Atlassian Intelligence 在 Confluence 中搜索答案时会应用以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能遵循您实例中的权限。例如,如果您无权访问某个 Confluence 页面,则此功能不会在您看到的回复中使用该页面的内容。如果您不希望自己的内容在对您实例中的其他用户的回复中使用,请与您的组织管理员合作,确保您的权限设置得当。

在 Jira 中搜索事务

Atlassian Intelligence 如何在 Jira 中搜索事务 Copy link to heading Copied! 显示
  

在 Jira 中使用 Atlassian Intelligence 搜索事务由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和理解自然语言,然后将其转换为我们产品中的 Jira 查询语言 (JQL) 代码。

这些模型根据您的输入生成回复,本质上具有概率性。也就是说,它们会根据训练所用数据,预测接下来最有可能出现的单词或文本,以此生成回复。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

在 Jira 中搜索事务的用例 Copy link to heading Copied! 显示
  

现在,您可以用日常语言向 Atlassian Intelligence 询问所需内容,而不必使用复杂的查询。通过使用 Atlassian Intelligence 搜索事务,您的提示将转换为 JQL 查询,这能快速帮助您搜索特定事务。

我们认为,在以下情况下,使用 Atlassian Intelligence 搜索事务效果最佳:

  • 您正在使用 Jira 项目中的事务字段查询 Jira 事务。
  • 该查询具有特定的字段和值,有助于缩小事务搜索范围。
  • 您要搜索的字段和值存在于 Jira 项目中。
  • 您的查询使用的是英文。
  • 该查询可转换为 JQL。由于 Atlassian Intelligence 会将提示转换为 JQL 代码,因此在输入中包含可转换为 JQL 的关键字可以获得更好的结果。
使用 Atlassian Intelligence 搜索事务时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,由于这些模型通过特定方式使用 Atlassian Intelligence 搜索事务,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上错误或不完整的内容。

我们发现,在以下情况下,使用 Atlassian Intelligence 搜索事务的用处相对较小:

  • 您需要有关人员、地点和事实的最新、准确信息。
  • 您搜索的对象并非事务,而是项目、面板或用户之类的 Jira 实体。
  • 您搜索时所用的是英文以外的语言。
  • 您需要通过搜索来分析事务,以便创建图表、摘要或其他数据表示形式。
  • 搜索需要 JQL 中当前不可用的函数(例如,“查找我评论过的事务”这样的问题无法转换为 JQL 函数)。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需要尽可能具体地考虑要求 Atlassian Intelligence 做的事情。务必包含要查找的确切字段和值。

您的数据以及使用 Atlassian Intelligence 搜索事务 Copy link to heading Copied! 显示
  

我们了解您可能对在使用 Atlassian Intelligence 搜索事务时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,例如您当前所在的项目。
  • 有关您如何与我们的功能交互的数据,例如点击流数据以及与您合作的人员
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

当涉及到您的数据时,使用 Atlassian Intelligence 搜索事务时会应用以下措施:

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
    • 在我们的数据库中存储 90 天后,您的提示将作为搜索历史记录的一部分再呈现给您。

  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 您的搜索回复将基于您有权访问的事务和字段(例如,如果您无权访问某一特定 Jira 项目,则不会收到有关该项目中事务和字段的搜索结果)。

人工智能工作分解

人工智能工作分解如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

人工智能工作分解由 OpenAI 开发的大型语言模型提供支持。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。

阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。

关于人工智能工作分解 Copy link to heading Copied! 显示
  

人工智能工作分解会根据您创建的 Jira 事务建议子事务,从而轻松地将大块工作分解成小块工作。您的事务将作为上下文,为子事务摘要和描述生成建议。

我们认为人工智能工作分解在以下情况下效果最佳:

  • 您从一个有详细摘要和描述的事务开始,包括任何限制、说明和已完成的定义。
  • 起始事务没有现有的子事务。
使用人工智能工作分解时的限制和注意事项 Copy link to heading Copied! 显示
  

请务必记住,鉴于用于支持人工智能工作分解的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。

我们发现人工智能工作分解在以下情况下不太有用:

  • 您需要有关人员、地点和事实的最新且准确的信息。
  • 您没有从详细的事务摘要和描述开始(例如,如果您试图根据一个描述非常简短和宽泛的事务生成子事务建议)。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需考虑:

  • 尽可能具体地说明您要求 Atlassian Intelligence 完成的事项。
  • 在起始事务摘要和描述中提供尽可能多的信息。
您的数据和人工智能工作分解 Copy link to heading Copied! 显示
  

我们了解,您可能对人工智能工作分解如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,包括事务数据(如摘要、描述和评论)。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

当涉及到您的数据时,人工智能工作分解会应用以下措施。

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户
    • 不会发送给 OpenAI 以外的任何第三方 LLM 提供商。
    • 不会由 OpenAI 存储。
    • 不会用于改进 OpenAI 模型。
    • 仅用于提升您的体验。
  • OpenAI 是我们的辅助处理者列表中的辅助处理者。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。
  • 此功能遵循您实例中的权限(即您必须拥有访问事务的权限才能生成子事务建议)。如果您不希望其他用户生成的回复中有您的内容,请与您的组织管理员合作,确保您的权限设置得当。
知识库中的建议主题如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

知识库中的建议主题由 OpenAI 和 Anthropic 开发的大型语言模型以及基于开源转换器的语言模型和其他机器学习模型组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。开源编码器模型可将文本输入转换为数字形式(嵌入),用于从输入中识别和形成主题。

这些大型语言模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。

了解有关 OpenAI 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅有关 Multi-QA-miniLME5-Multilingual 的信息。

知识库中建议主题的用例 Copy link to heading Copied! 显示
  

该功能可通过分析项目中收到的服务请求,帮助管理员和支持人员了解其知识库中存在的差距。该功能可清晰地突出显示求助者正在提起请求(基于过去 30 天的数据)但却没有现成知识的主题。通过建议主题,我们希望让项目管理员和支持人员了解有多少请求可以通过知识转移或至少解决。

我们相信,知识文章数量的增加将影响 Jira Service Management 中其他功能(如虚拟服务支持人员的人工智能问题回答)的性能。当管理员或支持人员就建议主题创建文章时,也有助于提高使用人工智能问题回答解决的请求的解决率。

我们认为建议主题在以下情况下最有效:

  • 在 30 天内提起至少 40 至 100 个请求。
  • 请求中的内容(如摘要、描述、字段值等)主要为英文。对于其他语言,建议主题的质量可能会有所不同。
使用知识库中建议主题时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,鉴于用于支持知识库中建议主题的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。

我们发现知识库中的建议主题在以下情况下不太有用:

  • 您需要为一个月内收到少于 40 个请求的项目创建主题。
  • 您的项目从警报自动创建请求,因为这些请求可能不需要知识库文章。
  • 您需要为摘要、描述、字段值等使用英语以外语言的请求创建主题。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需考虑:

  • 要求团队成员在创建文章之前查看建议主题。
  • 要求项目管理员确定其团队中的专家,以创建高质量的知识库文章。
您的数据和知识库中的建议主题 Copy link to heading Copied! 显示
  

我们了解您可能对建议主题如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。

我们会处理:

  • 您的实例中与功能相关的上下文,例如请求中的数据(如字段值、摘要和描述),用于识别主题。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

在涉及到您的数据时,知识库中的建议主题会应用以下措施。

知识库中您的建议主题:

  • 不会提供给其他客户
  • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。
  • 不会由任何 LLM 提供商存储。
  • 用于改进任何第三方 LLM。
  • 仅用于提升您的体验。
  • OpenAI 是我们的辅助处理商列表中的辅助处理商。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。
  • 我们只处理您站点的服务项目中每个人都可访问的请求。任何具有事务级权限的请求都不被视为建议主题。
  • 我们每 7 天刷新一次建议主题列表,以确保建议是最新的。

从数据中获取即时洞察信息

在下面选择一项 Atlassian Intelligence 功能,用例和数据使用情况一目了然。

Chart Insights

Chart Insights 如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

Chart Insights 由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是根据训练过的数据预测最有可能出现的下一个单词或文本而生成的。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

Chart Insights 的用例 Copy link to heading Copied! 显示
  

Chart Insights 使用 Atlassian Intelligence 来帮助您加快对 Atlassian Analytics 中任何图表中数据的理解。为此,它使用仪表板标题、图表标题和图表数据(包括列标题和行值)来生成该图表及其数据的自然语言摘要。它还会识别任何趋势或异常,为您提供有关该图表的某些洞察信息。

我们认为,Chart Insights 在以下情况下效果最佳:

  • 图表有许多行数据。
  • 图表有仪表板标题。
  • 图表有列标题。
  • 图表的所有行和列都有值。

条形图、折线图和条形折线图最适合使用此功能,因为它们通常具有趋势、日期和许多行数据。

使用 Chart Insights 时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,考虑到模型用于推动 Chart Insights 工作的方式,这些模型有时会表现得不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

我们发现,在以下情况下,Chart Insights 不太有用:

  • 您的图表包含一行或只有几行数据。
  • 您的图表属于单值类型。
  • 您的图表缺少标题、轴标签和列标题。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需要考虑:

  • 与其他可能对图表中显示的特定数据有更多了解的用户反复核对洞察信息的准确性。
  • 考虑到 Atlassian Intelligence 在提供回复时只使用单个图表的上下文,而不是整个仪表板。
您的数据和 Chart Insights Copy link to heading Copied! 显示
  

我们了解您可能对 Chart Insights 如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 与您的提示相关的实例上下文,例如图表中的数据。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

当涉及到您的数据时,Chart Insights 会采取以下措施。

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能仅使用您可以访问并已请求洞察信息的仪表板中的信息。

在 Jira Service Management 中建议请求类型

Atlassian Intelligence 如何在 Jira Service Management 中提供请求类型建议 Copy link to heading Copied! 显示
  

使用 Atlassian Intelligence 提供请求类型建议由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。

Atlassian Intelligence 使用这些模型来分析自然语言输入,以及在 Jira Service Management 中为您生成有关请求类型名称和描述的建议。

这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。

了解有关 OpenAI 模型Google 模型Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列Phi 系列的相关信息。

在 Jira Service Management 中建议请求类型的用例 Copy link to heading Copied! 显示
  

在判断要为项目创建何种请求类型方面节省时间,直接从 Atlassian Intelligence 获取建议。您只需描述自己的工作和团队通常管理的内容,即可查看您可以创建哪些类型的请求。从 Atlassian Intelligence 生成的建议中选择一项,以创建请求类型。详细了解如何使用 Atlassian Intelligence 来提供请求类型建议

我们认为,在以下情况下,使用 Atlassian Intelligence 提供请求类型建议的效果最佳:

  • 您有非常独特的用例,而现有请求类型模板无法满足这些用例的需求。
  • 您有非常笼统的要求,并且在寻找一些想法。
  • 您在使用一种广泛使用的语言(例如英语或西班牙语)。
使用 Atlassian Intelligence 建议请求类型时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,由于这些模型通过特定方式使用 Atlassian Intelligence 提供请求类型建议,这些模型的行为有时可能不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。

我们发现,在以下情况下,使用 Atlassian Intelligence 提供请求类型建议的用处相对较小:

  • 您需要有关人员、地点和事实的最新且准确的信息。
  • 您需要此功能来访问您不容易获得的信息(例如,位于您实例中的信息),以便其正确回应您的请求。
  • 您提供的提示过于模糊,或者与服务管理无关。
  • 您使用的并不是广泛使用的语言

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您可能还需要考虑:

  • 尽可能具体地说明您要求 Atlassian Intelligence 做的事情。
您的数据及使用 Atlassian Intelligence 提供请求类型建议 Copy link to heading Copied! 显示
  

我们了解您可能对在使用 Atlassian Intelligence 提供请求类型建议时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分分享的任何提示或回复。

当涉及到您的数据时,使用 Atlassian Intelligence 提供请求类型建议会应用以下措施。

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户。
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。

    • 不会由任何 LLM 提供商存储。
    • 不会用于改进 LLM 模型。
    • 仅用于为您的体验服务。
  • 所有第三方 LLM 提供商都是辅助处理商,并在我们的辅助处理商页面上按此列出。除了处理您的请求外,他们不会将您的输入和输出用于任何目的。
  • 此功能仅使用您的提示中的信息,因此会遵循所有 Jira 权限。

在 Jira Service Management 中建议请求类型

重点领域执行摘要如何使用 Atlassian Intelligence Copy link to heading Copied! 显示
  

重点领域执行摘要由 OpenAI 开发的大型语言模型提供支持。这些模型包括此处介绍的 OpenAI 模型。

Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。

这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。

阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。

重点领域执行摘要的用例 Copy link to heading Copied! 显示
  

重点领域执行摘要由 Atlassian Intelligence 提供支持,旨在为用户提供有关其战略优先事项的快速、可操作的洞察信息。该功能可清晰概述您的战略和优先事项的进展情况,确定需要关注的领域,并突出可能影响您的目标、工作和团队的风险。

高管和业务领导者的主要优势:

  • 时间效率:通过获取经过提炼的信息节省宝贵时间,这些信息可突出关键进展、潜在问题和战略目标风险。
  • 知情决策:与业务目标保持一致,通过清楚了解需要关注的问题,有效应对挑战。
  • 战略协调:确保您的团队和资源专注于正确的优先事项,帮助您做出明智的决策,推动业务取得成功。
使用重点领域执行摘要时的注意事项 Copy link to heading Copied! 显示
  

请务必记住,鉴于用来支持重点领域摘要的模型的工作方式,这些模型的行为有时会表现得不准确、不完整或不可靠。

例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。

我们发现,重点领域摘要在以下情况下的使用效果不佳:

  • 您需要有关人员、地点和事实的最新且准确的信息。
  • 您需要 Focus 更新来获取不容易获得的信息(例如,您实例中的信息)以便正确回答您的请求。
  • 重点领域和目标更新不完整或缺失。如果没有更新和/或更新写得不好,人工智能生成的摘要就会缺少重要的背景信息
    • 此外,如果人工生成的任何重点领域或目标的更新在撰写时带有偏见、有害信息或其他负面主题,则人工智能生成的摘要可能会提供误导性信息。

因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。

您的数据和重点领域执行摘要 Copy link to heading Copied! 显示
  

我们了解,您可能对重点领域执行摘要如何使用您的数据存有疑问。本节补充了我们在 Trust Center 中提供的信息。

我们会处理:

  • 您的提示(输入)和回复(输出)。
  • 您的实例中与您的提示相关的上下文,例如重点领域更新、目标更新以及关联的重点领域和目标。
  • 有关您如何与我们的功能进行交互的数据;例如,点击流数据以及与您合作的人员。
  • 您选择提供的有关此功能的反馈,包括您选择作为反馈的一部分来分享的任意提示或回复。

当涉及到您的数据时,重点领域执行摘要会应用以下措施。

  • 您的提示(输入)和回复(输出):
    • 不会提供给其他客户
    • 不会发送给除 OpenAI、Google 或 AWS Bedrock 上的 Anthropic 之外的任何第三方 LLM 提供商。
    • 不会由 OpenAI 存储。
    • 不会用于改进任何大型语言/OpenAI 或适用的 3P 模型。
    • 仅用于提升您的体验。
  • OpenAI 是我们的辅助处理者列表中的辅助处理者。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。
  • 此功能会遵循您实例中的权限。例如,如果您无法访问与 Focus 中您的重点领域相关的目标,那么您收到的回复中就不会包含这些信息。

详细了解 Atlassian Intelligence

了解有关使用 Atlassian Intelligence 的更多信息

引用

在我们专门的状态页面上获取有关 Atlassian 产品的实时状态更新。

了解有关 Atlassian Intelligence 的更多信息

了解 Atlassian 如何管理客户数据。

了解有关 Atlassian Rovo 的更多信息