Atlassian Intelligence 和 Rovo 专为提高透明度而设计
我们本着绝无戏言的精神,致力于开放式沟通、问责制,并帮助团队以负责任的方式使用人工智能。
Rovo 支持人员由 OpenAI 和 Google 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列和 Phi 系列)和其他机器学习模型组合提供支持。这些模型包括 OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。 Rovo 支持人员使用这些模型提供功能,以通过自然语言分析和生成针对提示的回复,同时从 Atlassian 及已连接的第三方产品中提取信息来提供相关的回复。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型和 Google 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 关于 Rovo 支持人员 通过 Rovo,我们提供了许多现成可用的支持人员,可用于各种任务,如帮助决策、发布知识文档、整理或组织 Jira 中的工作项。支持人员是专门的人工智能团队伙伴,可以协助人类团队快速有效地推进工作。 您可以:
我们认为,Rovo 支持人员在以下情况下效果最佳:
使用 Rovo 支持人员时的限制和注意事项 请务必记住,鉴于用来支持 Rovo 支持人员的模型的工作方式,这些模型的行为有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,Rovo 支持人员在以下情况下不太有用:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需考虑:
您的数据与 Rovo 支持人员 我们了解,您可能对 Rovo 支持人员如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,Rovo 支持人员会采取以下措施。
上述详细信息适用于 Atlassian 提供的 Rovo 支持人员。有关 Atlassian 提供的 Rovo 支持人员的更多信息,请参阅 Rovo 数据、隐私和使用指南 | Rovo | Atlassian 支持。有关第三方提供的支持人员的信息,请参考第三方针对其应用提供的供应商条款。 详细了解 Atlassian Intelligence |
With Rovo, we provide a number of out-of-the-box Agents, ready to use for a variety of tasks like, helping with decisionmaking, publishing knowledge documentation, and tidying up or organizing work items in Jira. Agents are specialized AI teammates that can assist human teams with moving work forward quickly and effectively. You can:
We believe that Rovo Agents work best in scenarios where:
|
It’s important to remember that because of the way that the models used to power Rovo Agents work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that Rovo Agents are less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how Rovo Agents use your data. This section supplements the information available on our Trust Center. We process:
When it comes to your data, Rovo Agents apply the following measures.
The details above apply to Agents that are provided by Atlassian. For more information about Agents provided by Atlassian, please see Rovo data, privacy and usage guidelines | Rovo | Atlassian Support. For information about Agents provided by third parties, please reference the Vendor Terms provided by those third parties for their apps. Read more about Atlassian Intelligence |
Rovo 聊天由 OpenAI 和 Google 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列和 Phi 系列)和其他机器学习模型组合提供支持。这些模型包括 OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。 Rovo 聊天利用这些模型,通过自然语言分析并生成针对提示的回复,同时从 Atlassian 及已连接的第三方产品中提取信息来提供相关的回复。 这些回复是由这些大型语言模型根据您的输入生成的,本质上具有概率性。这意味着大型语言模型的回复是根据它们所训练的数据预测最有可能出现的下一个单词或文本而生成的。 了解有关 OpenAI 模型和 Google 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 Rovo 聊天的用例 Rovo 聊天允许您通过对话式界面获取组织的知识。这意味着您可以像询问他人一样,要求 Rovo 撰写、阅读、审查或创建内容,而不会中断您的工作流。Rovo 聊天了解您工作(包括 Atlassian 内部和您连接的第三方产品中的工作)的上下文,以回答问题或帮助提供想法或洞察信息。 我们认为,Rovo 聊天在以下情况下效果最佳:
用户还可以通过 Chrome 浏览器扩展访问 Rovo 聊天。点击此处和此处了解有关访问 Rovo 聊天的更多信息。 使用 Rovo 聊天时的注意事项 请务必记住,由于用来支持 Rovo 聊天的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,Rovo 聊天在以下情况下不太有用:
因此,我们建议您在使用 Rovo 聊天时考虑使用场景,并在与他人分享之前审查所收到回复的质量。 您可能还需考虑:
您的数据与 Rovo 聊天 我们了解,您可能对 Rovo 聊天如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理: 您的提示(输入)和回复(输出)。
当涉及到您的数据时,Rovo 聊天会采取以下措施。
OpenAI 是我们的辅助处理者列表中的辅助处理者。除了处理您的请求或根据您的请求采取行动之外,他们不会将您的输入和输出用于其他任何目的。 此功能会遵循您实例中的权限。例如,如果您无权访问某一特定 Confluence 页面,则此功能不会在您收到的回复中建议该页面的内容。如果您不想让实例中的其他用户在回复中看到您的内容,则请与您的组织管理员合作,以确保您的权限设置得当。 当您通过 Chrome 浏览器扩展访问 Rovo 聊天时,Rovo 聊天只会读取您正在查看的网页上的内容,以补充您的 Atlassian 产品中已有的内容。网页上的其他数据不会被存储。 详细了解 Atlassian Intelligence |
Rovo Chat allows allows you to access the knowledge of your organization through a conversational interface. This means you can ask Rovo to write, read, review, or create things the same way you might ask a person, without disrupting your workflow. Chat understands the context of your work (both within Atlassian and your connected third-party products) to answer questions, or help provide ideas or insights. We believe that Rovo Chat works best in scenarios where:
Rovo Chat can also be accessed by users via a Chrome browser extension. Learn more about accessing Rovo Chat here and here. |
It’s important to remember that because of the way that the models used to power Rovo Chat work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that Rovo Chat is less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Rovo Chat and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how Rovo Chat uses your data. This section supplements the information available on our Trust Center. We process: Your prompts (inputs) and responses (outputs).
When it comes to your data, Rovo Chat applies the following measures.
OpenAI is a subprocessor on our List of Subprocessors. They do not use your inputs and outputs for any purpose besides processing or acting on your request. This feature follows the permissions in your instance. For example, if you do not have access to a certain Confluence page, you will not be suggested content from that page in the response you receive. If you do not want your content to be available in responses to other users in your instance, please work with your org admin to ensure your permissions are set appropriately. When you access Rovo Chat from the Chrome browser extension, Chat will only read the content on the web page you are viewing to complement the content already within your Atlassian products. No additional data from the web page will be stored. Read more about Atlassian Intelligence Discover more about using Atlassian Intelligence |
Rovo 搜索使用 Atlassian Intelligence 来增强 Atlassian 和第三方工具的搜索能力。 Rovo 搜索由 OpenAI 和 Google 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列和 Phi 系列)和其他机器学习模型组合提供支持。这些模型包括 OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。 Rovo 搜索使用这些模型来提供诸如语义搜索、相关性排名和自然语言处理等功能。这包括使用自然语言分析和生成对搜索查询的回复,以及从 Atlassian 和已连接的第三方产品中提取信息来提供相关回复。 这些回复是由这些大型语言模型根据您的输入生成的,本质上具有概率性。这意味着大型语言模型的回复是根据它们所训练的数据预测最有可能出现的下一个单词或文本而生成的。 了解有关 OpenAI 模型和 Google 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 Rovo 搜索的用例 Rovo 搜索使用户能够跨多个工具和平台进行搜索,包括 Atlassian 产品和已连接的第三方产品,提供符合情境的相关结果,以增强团队协作并提高工作效率。 我们认为,Rovo 搜索在以下情况下效果最佳:
使用 Rovo 搜索时的注意事项 请务必记住,由于用来支持 Rovo 搜索的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,Rovo 搜索在以下情况下不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需考虑:
您的数据与 Rovo 搜索 我们了解,您可能对 Rovo 搜索如何使用您的数据有疑问。此部分将补充我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,Rovo 搜索会采取以下措施。
详细了解 Atlassian Intelligence |
Rovo Search enables users to search across multiple tools and platforms, including Atlassian products and connected third-party products, providing contextual and relevant results to enhance team collaboration and productivity. We believe that Rovo Search works best in scenarios where:
|
It’s important to remember that because of the way that the models used to power Rovo Search work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that Rovo Search is less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Rovo and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how Rovo Search uses your data. This section supplements the information available on our Trust Center. We process:
When it comes to your data, Rovo Search applies the following measures.
Read more about Atlassian Intelligence What is Atlassian Intelligence? | Atlassian Support Rovo: Unlock organizational knowledge with GenAI | Atlassian |
利用人工智能加速工作
在下面选择一项 Atlassian Intelligence 功能,用例和数据使用情况一目了然。
Automation using Atlassian Intelligence
用于事件管理的人工智能 ChatOps 功能由 OpenAI 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列和 Phi 系列)和其他机器学习模型组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些大型语言模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
用于事件管理的人工智能 ChatOps 可在将新用户添加到与 Jira Service Management 中的事件事务相关联的 Slack 通道时,向其提供相关事件的摘要和迄今为止有关该事件的所有对话,从而帮助用户加快事件解决流程。此外,用于事件管理的人工智能 ChatOps 还能将 Slack 中出现的对话记录到 Jira Service Management 中,以作为时间线供将来参考。 我们认为,用于事件管理的人工智能 ChatOps 在以下情况下效果最佳:
|
请记住,鉴于用于支持用于事件管理的人工智能 ChatOps 的模型的工作方式,这些模型有时会出现不准确、不完整或不可靠。例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,用于事件管理的人工智能 ChatOps 在以下情况下不太有用:
因此,我们建议您考虑在哪些情况下使用用于事件管理的人工智能 ChatOps,并在与他人共享之前对收到的回复质量进行审查。 您可能还需要考虑审查权限,以确保用户对相关事件事务和 Slack 通道有适当级别的访问权限。 |
我们了解,您可能对用于事件管理的人工智能 ChatOps 如何使用您的数据存有疑问。本节是对我们常见问题解答页面所提供信息的补充。 我们会处理:
涉及到您的数据时,用于事件管理的人工智能 ChatOps 会采取以下措施:
|
人工智能相关资源由 OpenAI 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列和 Phi 系列)和其他机器学习模型组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。 Atlassian Intelligence 使用这些模型在我们的产品中分析和生成自然语言,并从 Atlassian 和已连接的第三方产品提供相关回复。 这些大型语言模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
Atlassian Intelligence 通过向用户推荐他们可以参考的资源列表,包括链接的知识库空间和文章、Jira 事务以及(如果您是 Rovo 客户)您通过 Rovo 集成的任何第三方产品中的资源,从而帮助用户加快解决事件的流程。阅读有关 Rovo 和第三方工具的更多信息。 我们认为,人工智能相关资源在以下情况下效果最佳:
|
请记住,鉴于用于支持人工智能相关资源的模型的工作方式,这些模型有时会出现不准确、不完整或不可靠。例如,您收到的回复可能无法准确反映其所依据的内容,或者包含看似合理但实则有误或不完整的内容。 我们发现,人工智能相关资源在以下情况下不太有用:
因此,我们建议您考虑在哪些情况下使用 Atlassian Intelligence,并在与他人共享之前对收到的回复质量进行审查。 您可能还需要考虑以下几点:
|
我们了解,您可能对人工智能相关资源如何使用您的数据存有疑问。本节是对我们常见问题解答页面所提供信息的补充。 我们会处理:
当涉及到您的数据时,人工智能相关资源会采取以下措施:
|
Jira Service Management 中的人工智能建议由 OpenAI 开发的大型语言模型和其他机器学习模型提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些大型语言模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型功能的更多信息。 |
借助 Jira Service Management 中的人工智能建议,您的团队可以一目了然地收集有关服务请求和事件的重要上下文,从而快速上手。Atlassian Intelligence 可以帮助您的团队:
当适用的 SLA 即将被违反时,Jira Service Management 中的人工智能建议还可以建议支持人员上报请求或事件。就服务请求而言,如果用于支持这些建议的模型根据报告人的评论文本确定该请求的紧迫感或愤怒感,该功能还可以建议支持人员上报该请求。 我们认为,Jira Service Management 中的人工智能建议在以下情况下效果最佳:
|
请务必记住,鉴于用于支持 Jira Service Management 中的人工智能建议的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,Jira Service Management 中的人工智能建议在以下情况下不太有用:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需考虑:
|
我们了解您可能对 Jira Service Management 中的人工智能建议如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,人工智能建议会应用以下措施。
|
Automation using Atlassian Intelligence 由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析自然语言输入,并在 Jira 和 Confluence 中为您生成自动化规则。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着,它们的回复是通过根据它们训练所用的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
创建自动化规则是日常自动化体验的核心,我们希望通过将 Atlassian Intelligence 添加到 Jira 和 Confluence 的自动化规则构建器中来简化此流程。现在,您只需输入并描述想要实现自动化的方面,即可轻松创建自动化规则,同时还可让 Atlassian Intelligence 为您处理创建规则涉及的所有繁重工作。详细了解适用于 Jira 和 Confluence 的 Automation using Atlassian Intelligence。 我们认为,当您不确定如何开始或希望加快规则创建流程时,适用于 Jira 和 Confluence 的 Automation using Atlassian Intelligence 的使用效果最佳。 不确定如何更好地创建自动化规则?自动化规则由不同类型组件的组合创建而成:触发器、操作、条件和分支。您可将组件视为规则的构造块。要使用 Atlassian Intelligence 成功创建规则,您的规则必须至少包含一个触发器和一项操作。例如: 在 Jira 中: 每周一,查找到期时间为未来 7 天的所有任务,并向经办人发送提醒电子邮件。 当工作单变为“测试”状态时,将其分配给 John Smith。 在 Confluence 中:
此外,要成功创建规则,Automation using Atlassian Intelligence 必须支持其所有组件。这意味着规则中的任何触发器、操作、条件或分支都必须与 Jira 和/或 Confluence 中的自动化兼容。 |
请务必牢记,由于这些模型会通过特定方式来推动 Automation using Atlassian Intelligence 发挥作用,因此它们有时会出现不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,在以下情况下 Automation using Atlassian Intelligence 不太有用:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 Automation using Atlassian Intelligence 只能与 Jira 和 Confluence 中的一组现有可用自动化组件配合使用。 如上所述,您可能还需要尽可能具体地考虑要求 Atlassian Intelligence 完成的事项。 |
我们了解,您可能对 Automation using Atlassian Intelligence 如何使用您的数据存有疑问。本节是对我们常见问题解答页面所提供信息的补充。 我们会处理:
涉及到您的数据时,使用 Atlassian Intelligence for Confluence 自动化功能时会应用以下措施:
所有第三方 LLM 提供商均为辅助处理商,并在我们的辅助处理商页面上以此身份列出。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。 此功能遵循您实例中的权限。例如,如果您没有访问特定项目或页面的权限,您收到的回复中则不会推荐来自这些资产的内容。如果您不想让实例中的其他用户在回复中看到您的内容,则请与您的组织管理员合作以确保权限设置得当。 |
警报分组
采用 Atlassian Intelligence 的警报分组由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些模型包括旨在识别警报数据模式的算法,以及 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些机器学习模型来分析和生成警报群组,并根据警报内容或所用标记的相似性在我们的产品中提供相关建议(过去的警报群组和过去的警报响应者)。然后,Atlassian Intelligence 使用大型语言模型来分析和生成我们的产品中这些群组的自然语言描述和内容。 这些大型语言模型根据您的输入生成回复,并且具有概率性。这意味着它们的回复是根据训练时所基于的数据预测最有可能出现的下一个单词或文本而生成的。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
警报分组使用 Atlassian Intelligence 来识别相似警报并将其分组。它还会根据警报内容或所用标记的语义相似性,识别并推荐过去的相似警报群组和过去的警报响应者(或响应者团队),从而为您提供帮助。 当您想要将警报群组升级为事件时,警报分组还将预先填充所有上下文信息,供您在事件创建过程中查看。 我们认为,在以下情况下,警报分组最有效:
|
请务必记住,考虑到用于支持警报分组的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。就您看到的警报群组而言,它们可能无法准确反映其标记的语义相似性。 我们发现,在以下情况下,警报分组的作用不大:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需要考虑确保您和您的团队在使用警报标记时遵循一致的做法。 |
我们了解您可能对警报分组如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
我们会处理您的警报数据来训练某个版本的机器学习模型,以识别特定于您警报的模式。该版本仅用于为您的体验服务:
当涉及到您的数据时,警报分组会采用以下措施:
|
使用 Atlassian Intelligence 为页面和博文生成摘要由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
使用 Atlassian Intelligence 为 Confluence 页面或博文生成快速摘要,从而节省时间并获取所需细节,更快地完成工作。详细了解如何在 Confluence 中使用 Atlassian Intelligence。 我们认为,在以下情况下,使用 Atlassian Intelligence 为页面和博文生成摘要效果最佳:
|
请务必记住,由于这些模型通过特定方式使用 Atlassian Intelligence 助力为页面和博文生成摘要,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 尽管我们会继续为宏、表格和摘要中的扩展提供更好的支持,但我们发现,在以下情况下,使用 Atlassian Intelligence 为页面和博文生成摘要的用处相对较小:
我们建议您在使用 Atlassian Intelligence 时要考虑所处的情况,并在与他人共享之前审查所收到的回复的质量。 您可能还需要考虑:
|
我们了解您可能对在使用 Atlassian Intelligence for Confluence 自动化功能时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,使用 Atlassian Intelligence 为页面面和博文生成摘要时会应用以下措施:
|
使用 Atlassian Intelligence 定义术语
在 Confluence 和 Jira 中使用 Atlassian Intelligence 定义术语由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型在 Confluence 和 Jira 中分析和生成自然语言回答。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
关于在 Confluence 和 Jira 中使用内容,最具挑战的事情之一可能就是获取了解所读内容所需的背景信息。缩略语、首字母缩略词、不熟悉的术语以及团队或项目特定的名称可能会导致您在搜索所需信息时花费大量时间。 使用 Atlassian Intelligence 定义术语将为 Confluence 页面或 Jira 事务描述中的公司特定术语(例如首字母缩略词、项目、系统或团队名称)提供定义。这样可为用户在需要时提供他们需要的信息,同时还能帮助团队更好地合作。 Atlassian Intelligence 可以为您定义这些内容,从而节省您的时间,而不会让您偏离正在阅读的内容。 遇到您认为不准确的定义时,您可以对其进行编辑或添加新定义,然后设置可见性,使其针对特定页面或事务、整个空间或项目,或您所在的整个组织显示。 我们认为,在 Confluence 和 Jira 中使用 Atlassian Intelligence 定义术语在以下情况下效果最佳:
|
请务必记住,由于这些模型通过特定方式在 Confluence 中使用 Atlassian Intelligence 定义术语,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,在 Confluence 中使用 Atlassian Intelligence 定义术语的用处不大:
此外,在 Jira 中,我们还发现,由于使用 Atlassian Intelligence 定义术语依赖于 Confluence 中的搜索功能,因此只有当您有权在您 Jira 实例所在的站点上查看 Confluence 实例时,该功能才能在 Jira 中运行。 您还可能会发现,在使用多种语言编写内容的 Confluence 空间或 Jira 实例中,使用 Atlassian Intelligence 定义术语的效果不如预期。 |
我们了解您可能对在使用 Atlassian Intelligence 定义术语时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
就您的数据而言,使用 Atlassian Intelligence 定义术语时会应用以下措施:
|
编辑器中的生成式 AI
编辑体验下的 Atlassian Intelligence 由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
Atlassian Intelligence 有助于推动组织中的所有团队之间进行有效沟通,从而提高效率、加速决策和改善流程。 我们认为,在以下情况下,使用编辑体验下的 Atlassian Intelligence 效果最佳:
|
请务必记住,由于这些模型通过特定方式为编辑体验下的 Atlassian Intelligence 提供支持,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用编辑体验下的 Atlassian Intelligence 的用处不大:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需要考虑:
|
我们了解您可能对编辑体验下的 Atlassian Intelligence 如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,编辑体验中的 Atlassian Intelligence 会应用以下措施:
|
事务改写器由 OpenAI 开发的大型语言模型(包括 OpenAI 的 GPT 系列模型)提供支持。 Atlassian Intelligence 使用该模型来分析和生成 Jira 中的自然语言。 这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型功能的更多信息。 |
事务改写器通过使用 Atlassian 开发的模板来改写 Jira 事务描述,从而帮助提高其清晰度。该模板涵盖了我们通常希望在 Jira 事务描述中看到的信息类型,如用户故事、工作背景和验收标准。 我们认为,在事务描述已包含有用信息(如验收标准或来源链接),但这些信息没有使用清晰或一致的结构进行格式化的情况下,事务改写器最有效。 |
请务必记住,鉴于用于支持事务改写器的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您改写的描述可能无法准确反映其所依据的内容,也可能包含听起来合理但却是错误或不完整的细节。 我们发现,事务改写器在以下情况下不太有用:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前始终查看所收到回复的质量。在开始使用事务改写器来改写事务描述之前,您可能还需要考虑审查并确认事务描述是否包含所有相关信息。 |
我们了解您可能对事务改写器如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,事务改写器会采取以下措施:
|
在 Jira Service Management 中总结事务详情
使用 Atlassian Intelligence 为事务详情生成摘要由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
您可以使用 Atlassian Intelligence 来快速总结这些信息,而不必通读有关 Jira Service Management 事务的长篇描述和大量评论。这有助于支持人员快速了解事务的背景以及所取得的任何进展,使他们能够迅速采取行动并提供及时的帮助。 我们认为,使用 Atlassian Intelligence 总结事务详情最适合以下事务:
|
请务必记住,考虑到这些模型过去推动使用 Atlassian Intelligence 总结事务详情功能工作的方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用 Atlassian Intelligence 总结事务详情的用处不大:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 |
我们了解您可能对在使用 Atlassian Intelligence 为事务详情生成摘要时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
就您的数据而言,使用 Atlassian Intelligence 总结事务详情时会应用以下措施:
|
编辑器中的生成式 AI
使用 Atlassian Intelligence (AI) 为智能链接生成摘要由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
将光标悬停在 Jira、Confluence 和 Google Docs 中的智能链接上后,Atlassian Intelligence 可帮助您生成内容摘要,从而确定该链接的重要性和价值,并决定后续操作。这样可减少离开当前页面和切换上下文的需要。 我们认为,在以下情况下使用 Atlassian Intelligence 来生成智能链接摘要的效果最佳:
|
请务必牢记,鉴于模型在支持使用 Atlassian Intelligence 为智能链接生成摘要时的工作方式,这些模型有时会出现不准确、不完整或不可靠等情况。 例如,您收到的摘要可能无法准确反映其所依据的内容,或者包含看似合理但实为谬误或不完整的内容。 我们发现,在以下情况下使用 Atlassian Intelligence 为智能链接生成摘要的效果不佳:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 |
我们了解您可能对在使用 Atlassian Intelligence 为事务详情生成摘要时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,使用 Atlassian Intelligence 为智能链接生成摘要会采取以下措施。
|
Jira Service Management 中的 Atlassian Intelligence 回答功能
Jira Service Management 的虚拟服务支持人员由 OpenAI、Google 和 Anthropic 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)和其他机器学习模型提供支持。 虚拟服务支持人员按如下方式使用这些模型:
大型语言模型的工作原理:大型语言模型根据您的输入生成回复,具有概率性质。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 用于支持虚拟服务支持人员的大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
虚拟服务支持人员由一个对话式 Atlassian Intelligence 引擎提供支持,该引擎可以分析和理解意图、上下文和权限来实现个性化互动,从而帮助团队自动进行一级支持互动。 利用 Atlassian Intelligence,虚拟服务支持人员可帮助团队扩展服务台,并通过以下三个关键功能让客户满意:
虚拟服务支持人员可通过多种渠道使用,包括 Slack、Microsoft Teams、Jira Service Management 门户等。了解有关哪些渠道可供虚拟服务支持人员使用的更多信息。 我们认为虚拟服务支持人员在以下情况下效果最佳:
|
请务必记住,鉴于用于支持虚拟服务支持人员的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,回复可能无法准确反映其所依据的内容,或者可能包含听起来合理但却是错误或不完整的内容。 我们发现,在以下情况下,虚拟服务支持人员不太有用:
我们建议您考虑在哪些情况下使用 Atlassian Intelligence,并在为客户启用虚拟服务支持人员之前对其性能进行审查。了解有关提高虚拟服务支持人员性能的更多信息。 您可能还需要考虑:
|
我们了解您可能对 Jira Service Management 的虚拟服务支持人员如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,虚拟服务支持人员会采取以下措施:
|
使用 Atlassian Intelligence 总结事务详情
Jira 中的人工智能摘要由 OpenAI 开发的大型语言模型提供支持。这些模型包括此处介绍的 OpenAI 模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着,它们的回复是根据训练过的数据预测最有可能出现的下一个单词或文本而生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。 |
您可以使用 Atlassian Intelligence 来快速总结这些信息,而不必通读有关 Jira 事务的长篇描述和大量评论。这有助于支持人员快速了解事务的背景和取得的任何进展,使他们能够迅速采取行动并及时提供援助。 我们认为,使用 Atlassian Intelligence 总结事务详情最适合有大量评论和/或冗长评论和描述的事务。 |
请务必记住,鉴于用于支持 Jira 中的人工智能摘要的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含看似合理但实则有误或不完整的内容。 我们发现,在以下情况下,使用 Atlassian Intelligence 总结事务详情的用处不大:
因此,我们建议您考虑在哪些情况下使用 Atlassian Intelligence,并在与他人共享之前对收到的回复质量进行审查。 |
我们了解您可能对在使用 Atlassian Intelligence 为事务详情生成摘要时会如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
就您的数据而言,使用 Atlassian Intelligence 总结事务详情时会应用以下措施:
|
人工智能工作分解
人工智能工作分解由 OpenAI 开发的大型语言模型提供支持。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。 |
人工智能工作分解会根据您创建的 Jira 事务建议子事务,从而轻松地将大块工作分解成小块工作。您的事务将作为上下文,为子事务摘要和描述生成建议。 我们认为人工智能工作分解在以下情况下效果最佳:
|
请务必记住,鉴于用于支持人工智能工作分解的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现人工智能工作分解在以下情况下不太有用:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需考虑:
|
我们了解,您可能对人工智能工作分解如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,人工智能工作分解会应用以下措施。
|
使用 Atlassian Intelligence 推动采取行动
在下面选择一项 Atlassian Intelligence 功能,用例和数据使用情况一目了然。
通过 Atlassian Intelligence 利用人工智能创建事件由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型根据您的输入生成回复,本质上具有概率性。这意味着,它们的回复是根据训练过的数据预测最有可能出现的下一个单词或文本而生成的。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
在 Jira Service Management 中将一个或多个警报或警报组上报为事件时,利用人工智能创建事件会使用 Atlassian Intelligence 快速预填充所有上下文信息,供您在创建事件的过程中查看。这样,用户就可以快速了解从这些警报或警报组创建的事件的上下文,并在将警报或警报组上报为事件时审查和确认预填充的信息,包括警报的标题、描述和优先级。 我们认为,在以下情况下利用人工智能创建事件的效果最佳:
|
请务必记住,考虑到模型用于推动利用人工智能创建事件工作的方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下利用人工智能创建事件的效果不佳:
由于这些原因,我们建议您在使用 Atlassian Intelligence 时考虑各种情况,并在与他人共享之前审查所收到回复的质量。 为了获得最有用的结果,我们建议您尽可能具体地说明您要求 Atlassian Intelligence 做的事情。 您可能还需要尽可能具体地考虑要求 Atlassian Intelligence 做的事情。 |
我们了解您可能对利用人工智能创建事件如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,利用人工智能创建事件会应用以下措施:
|
创建事后回顾
通过 Atlassian Intelligence 创建的 PIR(事后回顾)由 OpenAI 开发的大型语言模型提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型根据用户的输入生成回复,本质上具有概率性。这意味着,回复是通过根据它们训练所用的数据预测最有可能的下个单词或文本来生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。 |
PIR 是事件管理流程的核心部分,可帮助事件响应者和管理者从当前的事件中吸取经验教训,并传递洞察信息,以防止今后发生类似事件。Atlassian Intelligence 可根据 Jira Service Management 实例和 Slack 等聊天工具中的相关上下文信息建议 PIR 描述,供您查看,从而帮助加快通常耗时的 PIR 编制任务。 我们认为,在以下情况下使用人工智能创建 PIR 效果最佳:
|
请务必记住,考虑到这些模型用于支持 PIR 创建工作的模型的方式,这些模型有时会表现得不准确、不完整或不可靠。例如,您收到的回复可能无法准确反映其所依据的内容,或者包含可能听起来合理但却是错误或不完整的内容。 我们发现,在以下情况下使用人工智能创建 PIR 的作用不大:
因此,我们建议您考虑在哪些情况下可以使用 Atlassian Intelligence,并在与他人共享之前对收到的回复质量进行审查。 您可能还需考虑:
|
我们了解您可能对利用人工智能创建事后回顾如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,利用人工智能创建 PIR 会应用以下措施。
|
使用 Atlassian Intelligence 生成拉取请求描述
使用 Atlassian Intelligence 生成拉取请求描述由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言和代码。 这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过它们训练所用的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
当您在 Bitbucket Cloud 代码审查体验中编写拉取请求描述或评论时,Atlassian Intelligence 可以帮助您生成、转换和汇总内容。具体包括:
我们认为,在以下情况下,使用 Atlassian Intelligence 生成 Bitbucket Cloud 拉取请求描述效果最佳:
|
请务必记住,考虑到这些模型用于推动此功能工作的方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用 Atlassian Intelligence 生成 Bitbucket Cloud 拉取请求描述不太有用:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需要考虑:
|
我们了解您可能对在 Confluence 中使用 Atlassian Intelligence 定义术语时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,使用 Atlassian Intelligence 生成拉取请求描述会应用以下措施:
|
在 Atlassian Analytics 中生成 SQL 查询
在 Atlassian Analytics 中使用 Atlassian Intelligence 生成 SQL 查询由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和理解自然语言,然后在 Atlassian Analytics 中将其转换为结构化查询语言 (SQL)。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
用自然语言向 Atlassian Intelligence 提问,然后将其转换为 SQL,而不是从头开始自己编写 SQL 查询。提出问题后,Atlassian Intelligence 会使用所选数据源的 Atlassian Data Lake 架构生成 SQL 查询,该查询可用于在您的 Atlassian Analytics 仪表板上构建图表,还可以帮助您了解 Data Lake 中的架构。 我们认为,在以下情况下,使用 Atlassian Intelligence 生成 SQL 查询效果最佳:
|
请务必记住,由于这些模型通过特定方式使用 Atlassian Intelligence 生成 SQL 查询,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用 Atlassian Intelligence 生成 SQL 查询的用处不大:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需要考虑:
|
我们了解您可能对在使用 Atlassian Intelligence 生成 SQL 查询时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
就您的数据而言,使用 Atlassian Intelligence 生成 SQL 查询时会应用以下措施。
|
在 Confluence 中搜索答案
使用 Atlassian Intelligence 在 Confluence 中搜索答案由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
知识库扩充速度过快,用户无法跟上这样的速度。使用 Atlassian Intelligence 在 Confluence 中搜索答案的功能可以帮助客户更快地获取推进工作所需的关键信息。此功能可帮您轻松找到所需信息。它了解您会向团队成员提出哪些类型的问题,并立即回答。详细了解如何使用 Atlassian Intelligence 在 Confluence 中搜索答案。 我们认为,当您的 Confluence 网站上包含详细、完整、最新的内容时,使用 Atlassian Intelligence 在 Confluence 中搜索答案效果最佳。 此功能不会生成新内容,而会在遵循限制的前提下搜索 Confluence 页面和博文,以找到问题的答案。Atlassian Intelligence 仅根据您 Confluence 中的内容以及您有权访问的具体内容来生成答案。 |
请务必记住,由于这些模型通过特定方式使用 Atlassian Intelligence 在 Confluence 中搜索答案,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用 Atlassian Intelligence 在 Confluence 中搜索答案的用处相对较小:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需要考虑:
|
我们了解您可能对在 Confluence 使用 Atlassian Intelligence 搜索回答时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,使用 Atlassian Intelligence 在 Confluence 中搜索答案时会应用以下措施:
|
在 Jira 中搜索事务
在 Jira 中使用 Atlassian Intelligence 搜索事务由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和理解自然语言,然后将其转换为我们产品中的 Jira 查询语言 (JQL) 代码。 这些模型根据您的输入生成回复,本质上具有概率性。也就是说,它们会根据训练所用数据,预测接下来最有可能出现的单词或文本,以此生成回复。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
现在,您可以用日常语言向 Atlassian Intelligence 询问所需内容,而不必使用复杂的查询。通过使用 Atlassian Intelligence 搜索事务,您的提示将转换为 JQL 查询,这能快速帮助您搜索特定事务。 我们认为,在以下情况下,使用 Atlassian Intelligence 搜索事务效果最佳:
|
请务必记住,由于这些模型通过特定方式使用 Atlassian Intelligence 搜索事务,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上错误或不完整的内容。 我们发现,在以下情况下,使用 Atlassian Intelligence 搜索事务的用处相对较小:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需要尽可能具体地考虑要求 Atlassian Intelligence 做的事情。务必包含要查找的确切字段和值。 |
我们了解您可能对在使用 Atlassian Intelligence 搜索事务时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,使用 Atlassian Intelligence 搜索事务时会应用以下措施:
|
人工智能工作分解
人工智能工作分解由 OpenAI 开发的大型语言模型提供支持。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。 |
人工智能工作分解会根据您创建的 Jira 事务建议子事务,从而轻松地将大块工作分解成小块工作。您的事务将作为上下文,为子事务摘要和描述生成建议。 我们认为人工智能工作分解在以下情况下效果最佳:
|
请务必记住,鉴于用于支持人工智能工作分解的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现人工智能工作分解在以下情况下不太有用:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需考虑:
|
我们了解,您可能对人工智能工作分解如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,人工智能工作分解会应用以下措施。
|
知识库中的建议主题由 OpenAI 和 Anthropic 开发的大型语言模型以及基于开源转换器的语言模型和其他机器学习模型组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。开源编码器模型可将文本输入转换为数字形式(嵌入),用于从输入中识别和形成主题。 这些大型语言模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅有关 Multi-QA-miniLM 和 E5-Multilingual 的信息。 |
该功能可通过分析项目中收到的服务请求,帮助管理员和支持人员了解其知识库中存在的差距。该功能可清晰地突出显示求助者正在提起请求(基于过去 30 天的数据)但却没有现成知识的主题。通过建议主题,我们希望让项目管理员和支持人员了解有多少请求可以通过知识转移或至少解决。 我们相信,知识文章数量的增加将影响 Jira Service Management 中其他功能(如虚拟服务支持人员的人工智能问题回答)的性能。当管理员或支持人员就建议主题创建文章时,也有助于提高使用人工智能问题回答解决的请求的解决率。 我们认为建议主题在以下情况下最有效:
|
请务必记住,鉴于用于支持知识库中建议主题的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现知识库中的建议主题在以下情况下不太有用:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需考虑:
|
我们了解您可能对建议主题如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
在涉及到您的数据时,知识库中的建议主题会应用以下措施。 知识库中您的建议主题:
|
从数据中获取即时洞察信息
在下面选择一项 Atlassian Intelligence 功能,用例和数据使用情况一目了然。
Chart Insights
Chart Insights 由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是根据训练过的数据预测最有可能出现的下一个单词或文本而生成的。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
Chart Insights 使用 Atlassian Intelligence 来帮助您加快对 Atlassian Analytics 中任何图表中数据的理解。为此,它使用仪表板标题、图表标题和图表数据(包括列标题和行值)来生成该图表及其数据的自然语言摘要。它还会识别任何趋势或异常,为您提供有关该图表的某些洞察信息。 我们认为,Chart Insights 在以下情况下效果最佳:
条形图、折线图和条形折线图最适合使用此功能,因为它们通常具有趋势、日期和许多行数据。 |
请务必记住,考虑到模型用于推动 Chart Insights 工作的方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,Chart Insights 不太有用:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需要考虑:
|
我们了解您可能对 Chart Insights 如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,Chart Insights 会采取以下措施。
|
在 Jira Service Management 中建议请求类型
使用 Atlassian Intelligence 提供请求类型建议由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析自然语言输入,以及在 Jira Service Management 中为您生成有关请求类型名称和描述的建议。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
在判断要为项目创建何种请求类型方面节省时间,直接从 Atlassian Intelligence 获取建议。您只需描述自己的工作和团队通常管理的内容,即可查看您可以创建哪些类型的请求。从 Atlassian Intelligence 生成的建议中选择一项,以创建请求类型。详细了解如何使用 Atlassian Intelligence 来提供请求类型建议。 我们认为,在以下情况下,使用 Atlassian Intelligence 提供请求类型建议的效果最佳:
|
请务必记住,由于这些模型通过特定方式使用 Atlassian Intelligence 提供请求类型建议,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用 Atlassian Intelligence 提供请求类型建议的用处相对较小:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需要考虑:
|
我们了解您可能对在使用 Atlassian Intelligence 提供请求类型建议时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,使用 Atlassian Intelligence 提供请求类型建议会应用以下措施。
|
在 Jira Service Management 中建议请求类型
重点领域执行摘要由 OpenAI 开发的大型语言模型提供支持。这些模型包括此处介绍的 OpenAI 模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。 |
重点领域执行摘要由 Atlassian Intelligence 提供支持,旨在为用户提供有关其战略优先事项的快速、可操作的洞察信息。该功能可清晰概述您的战略和优先事项的进展情况,确定需要关注的领域,并突出可能影响您的目标、工作和团队的风险。 高管和业务领导者的主要优势:
|
请务必记住,鉴于用来支持重点领域摘要的模型的工作方式,这些模型的行为有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,重点领域摘要在以下情况下的使用效果不佳:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 |
我们了解,您可能对重点领域执行摘要如何使用您的数据存有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,重点领域执行摘要会应用以下措施。
|