Rovo 的设计秉持透明化原则
我们本着绝无戏言的精神,致力于开放式沟通、问责制,并帮助团队以负责任的方式使用人工智能。
| Rovo 支持人员由 OpenAI 和 Google 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列)和其他机器学习模型组合提供支持。这些模型包括 OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。 Rovo 支持人员使用这些模型提供功能,以通过自然语言分析和生成针对提示的回复,同时从 Atlassian 及已连接的第三方产品中提取信息来提供相关的回复。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 的模型和 Google 的模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 通过 Rovo,我们提供了许多现成可用的支持人员,可用于各种任务,如帮助决策、发布知识文档、整理或组织 Jira 中的工作项。支持人员是专门的人工智能团队伙伴,可以协助人类团队快速有效地推进工作。 您可以:
我们认为,Rovo 支持人员在以下情况下效果最佳:
|
| 请务必记住,鉴于用来支持 Rovo 支持人员的模型的工作方式,这些模型的行为有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,Rovo 支持人员在以下情况下不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需考虑:
|
| 我们了解,您可能对 Rovo 支持人员如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,Rovo 支持人员会采取以下措施。
上述详细信息适用于 Atlassian 提供的 Rovo 支持人员。有关 Atlassian 提供的 Rovo 支持人员的更多信息,请参阅 Rovo 数据、隐私和使用指南 | Rovo | Atlassian 支持。有关第三方提供的支持人员的信息,请参考第三方针对其应用提供的供应商条款。 阅读有关 Rovo 的更多信息 |
| Rovo 聊天由 OpenAI、Anthropic 和 Google 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列)和其他机器学习模型组合提供支持。这些模型包括 OpenAI 的 GPT 系列模型、Anthropic 的 Claude 系列模型和 Google 的 Gemini 系列模型。 Rovo 聊天利用这些模型,通过自然语言分析并生成针对提示的回复,同时从 Atlassian 及已连接的第三方产品中提取信息来提供相关的回复。 这些回复是由这些大型语言模型根据您的输入生成的,本质上具有概率性。这意味着大型语言模型的回复是根据它们所训练的数据预测最有可能出现的下一个单词或文本而生成的。 了解有关 OpenAI 的模型、Anthropic 的模型和 Google 的模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| Rovo 聊天允许您通过对话式界面获取组织的知识。这意味着您可以在自己的工作流中让 Rovo 进行撰写、阅读、审阅或创建内容的操作。Rovo 聊天能理解您的工作背景,它会利用来自您的 Atlassian 产品、已连接的第三方产品以及上传文件中的信息,来回答问题或提供想法与洞察信息。 借助网络搜索功能,Rovo 聊天还能获取源自互联网的数据,助力提供与上下文相关的回复。 我们认为,Rovo 聊天在以下情况下效果最佳:
标准的 Rovo 聊天会话会生成快速回复,而当您希望针对特定主题制作深入的研究报告时,深度研究功能的效果最佳。深度研究功能旨在开展深入的多步骤研究:它会先将您的提示语拆分为多个更小、独立的步骤,然后搜索您已连接的数据源,根据每一步的发现优化结果,最终将收集到的信息整合为一份带有引用来源的报告。 |
| 请务必记住,由于用来支持 Rovo 聊天的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,Rovo 聊天在以下情况下不太有用:
因此,我们建议您在使用 Rovo 聊天时考虑使用场景,并在与他人分享之前审查所收到回复的质量。 您可能还需考虑:
|
| 我们了解,您可能对 Rovo 聊天如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理: 您的提示(输入)和回复(输出)。
当涉及到您的数据时,Rovo 聊天会采取以下措施。
OpenAI、Google 和 AWS Bedrock 是我们的分包处理商列表中的分包处理商。除了处理您的请求或根据您的请求采取行动之外,他们不会将您的输入和输出用于其他任何目的。 此功能会遵循您实例中的权限。例如,如果您无权访问某一特定 Confluence 页面,则此功能不会在您收到的回复中建议该页面的内容。如果您不想让实例中的其他用户在回复中看到您的内容,则请与您的组织管理员合作,以确保您的权限设置得当。 上传至 Rovo 聊天的文件,其留存时间不会超过聊天历史记录的留存时间。 当您通过 Chrome 浏览器扩展访问 Rovo 聊天时,Rovo 聊天只会读取您正在查看的网页上的内容,以补充您的 Atlassian 产品中已有的内容。网页上的其他数据不会被存储。 阅读有关 Rovo 的更多信息 |
| Rovo 搜索使用人工智能来增强 Atlassian 和第三方工具的搜索能力。 Rovo 搜索由 OpenAI 和 Google 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列)和其他机器学习模型组合提供支持。这些模型包括 OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。 Rovo 搜索使用这些模型来提供诸如语义搜索、相关性排名和自然语言处理等功能。这包括使用自然语言分析和生成对搜索查询的回复,以及从 Atlassian 和已连接的第三方产品中提取信息来提供相关回复。 这些回复是由这些大型语言模型根据您的输入生成的,本质上具有概率性。这意味着大型语言模型的回复是根据它们所训练的数据预测最有可能出现的下一个单词或文本而生成的。 了解有关 OpenAI 模型和 Google 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| Rovo 搜索使用户能够跨多个工具和平台进行搜索,包括 Atlassian 产品和已连接的第三方产品,提供符合情境的相关结果,以增强团队协作并提高工作效率。 我们认为,Rovo 搜索在以下情况下效果最佳:
|
| 请务必记住,由于用来支持 Rovo 搜索的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,Rovo 搜索在以下情况下不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需考虑:
|
| 我们了解,您可能对 Rovo 搜索如何使用您的数据有疑问。此部分将补充我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,Rovo 搜索会采取以下措施。
阅读有关 Rovo 的更多信息 |
利用人工智能加速工作
在下面选择一项 Rovo 功能,用例和数据使用情况一目了然。
Automation using Atlassian Intelligence
| 用于事件管理的人工智能 ChatOps 功能由 OpenAI 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列)和其他机器学习模型组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言。 这些大型语言模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 用于事件管理的人工智能 ChatOps 可在将新用户添加到与 Jira Service Management 中的事件工作项相关联的 Slack 通道时,向其提供相关事件的摘要和迄今为止有关该事件的所有对话,从而帮助用户加快事件解决流程。此外,用于事件管理的人工智能 ChatOps 还能将 Slack 中出现的对话记录到 Jira Service Management 中,以作为时间线供将来参考。 我们认为,用于事件管理的人工智能 ChatOps 在以下情况下效果最佳:
|
| 请记住,鉴于用于支持用于事件管理的人工智能 ChatOps 的模型的工作方式,这些模型有时会出现不准确、不完整或不可靠。例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,用于事件管理的人工智能 ChatOps 在以下情况下不太有用:
因此,我们建议您考虑在哪些情况下使用用于事件管理的人工智能 ChatOps,并在与他人共享之前对收到的回复质量进行审查。 您可能还需要考虑审查权限,以确保用户对相关事件工作项和 Slack 通道有适当级别的访问权限。 |
| 我们了解,您可能对用于事件管理的人工智能 ChatOps 如何使用您的数据存有疑问。本节是对我们常见问题解答页面所提供信息的补充。 我们会处理:
涉及到您的数据时,用于事件管理的人工智能 ChatOps 会采取以下措施:
|
| 人工智能草稿由 OpenAI 和 Anthropic 开发的大型语言模型以及基于开源转换器的语言模型和其他机器学习模型组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型和 Anthropic 的 Claude 系列模型。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言。开源编码器模型可将文本输入转换为数字形式(嵌入),用于从输入中识别和形成主题。 这些大型语言模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 嵌入模型的相关信息。 |
| 人工智能草稿会建议预先生成的知识文章草稿,供管理员和支持人员考虑。此功能会利用 Jira Service Management 项目中的工作项内的详细信息和评论,为该项目中最常见的工作项生成草稿。 这样,您的服务团队就能更快速、更轻松地扩大知识库文章的覆盖范围,进而提高 Jira Service Management 中其他功能的性能。例如,虚拟服务支持人员的人工智能问题回答功能随后可以使用通过人工智能草稿创建的知识文章,更轻松、更快速地解决求助者的请求。 我们认为人工智能草稿在以下情况下效果最佳:
|
| 请务必记住,鉴于用于支持人工智能草稿的模型的工作方式,这些模型的行为有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,人工智能草稿在以下情况下不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需考虑:
|
| 我们了解,您可能对人工智能草稿如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,人工智能草稿会应用以下措施。
|
| 企业中心卡片中的人工智能摘要由 OpenAI 开发的大型语言模型提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型功能的更多信息。 |
| 企业中心卡片中的人工智能摘要通过为卡片建议人工智能生成的描述,帮助您快速填充和发布企业中心。此功能使用人工智能为您的企业中心卡片生成所链接 Confluence 页面或博客文章的摘要。 我们认为,企业中心卡片中的人工智能摘要在以下情况下效果最佳:
|
| 请务必记住,鉴于用于支持企业中心卡片中的人工智能摘要的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,企业中心卡片中的人工智能摘要在以下情况下不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 |
| 我们了解,您可能对企业中心卡片中的人工智能摘要如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,企业中心卡片中的人工智能摘要会应用以下措施。
|
| 人工智能相关资源由 OpenAI 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列)和其他机器学习模型组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。 Rovo 使用这些模型在我们的产品中分析和生成自然语言,并从 Atlassian 和已连接的第三方产品提供相关回复。 这些大型语言模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| Rovo 通过向用户推荐他们可以参考的资源列表,包括链接的知识库空间和文章、Jira 工作项以及您通过 Rovo 集成的任何第三方产品中的资源,从而帮助用户加快解决事件的流程。阅读有关 Rovo 和第三方工具的更多信息。 我们认为,人工智能相关资源在以下情况下效果最佳:
|
| 请记住,鉴于用于支持人工智能相关资源的模型的工作方式,这些模型有时会出现不准确、不完整或不可靠。例如,您收到的回复可能无法准确反映其所依据的内容,或者包含看似合理但实则有误或不完整的内容。 我们发现,人工智能相关资源在以下情况下不太有用:
因此,我们建议您考虑使用 Rovo 的各种场景,检查所收到回复的质量,然后再与他人共享。 您可能还需要考虑以下几点:
|
| 我们了解,您可能对人工智能相关资源如何使用您的数据存有疑问。本节是对我们常见问题解答页面所提供信息的补充。 我们会处理:
当涉及到您的数据时,人工智能相关资源会采取以下措施:
|
| Jira Service Management 中的人工智能建议由 OpenAI 开发的大型语言模型和其他机器学习模型提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言。 这些大型语言模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型功能的更多信息。 |
| 借助 Jira Service Management 中的人工智能建议,您的团队可以一目了然地收集有关服务请求和事件的重要上下文,从而快速上手。Rovo 可以帮助您的团队:
当适用的 SLA 即将被违反时,Jira Service Management 中的人工智能建议还可以建议支持人员上报请求或事件。就服务请求而言,如果用于支持这些建议的模型根据报告人的评论文本确定该请求的紧迫感或愤怒感,该功能还可以建议支持人员上报该请求。 我们认为,Jira Service Management 中的人工智能建议在以下情况下效果最佳:
|
| 请务必记住,鉴于用于支持 Jira Service Management 中的人工智能建议的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,Jira Service Management 中的人工智能建议在以下情况下不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需考虑:
|
| 我们了解您可能对 Jira Service Management 中的人工智能建议如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,人工智能建议会应用以下措施。
|
Rovo Dev
| Rovo Dev is powered by large language models developed by OpenAI and Anthropic on AWS Bedrock and Anthropic on Google Vertex AI, as well as a combination of other machine learning models. These large language models include OpenAI's GPT series of models and Anthropic's Claude series of models. Rovo Dev uses these models to analyze and generate natural language and code within our products. These models generate responses based on your inputs and are probabilistic in nature. This means that their responses are generated through predicting the most probable next word or text based on the data that they have been trained on. Read more about the capabilities of OpenAI's models and Anthropic's models. |
| Rovo Dev is a context-aware AI agent for professional software engineers. It understands natural language and code, and integrates with Atlassian tools like Jira, Confluence, and Bitbucket as well as third-party developer platforms such as GitHub. Powered by Atlassian’s Teamwork Graph, it draws on organizational context, business knowledge, and codebase history to accelerate the software development lifecycle. Rovo Dev assists with planning, code generation, reviews, and automating repetitive work at scale. The Rovo Dev product suite includes:
We believe that Rovo Dev works best in scenarios where:
|
| It's important to remember that because of the way that the models used to power Rovo Dev work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We've found that Rovo Dev is less useful in scenarios where:
You might also want to think about:
|
| We understand you may have questions about how Rovo Dev uses your data. This section supplements the information available on our Rovo Dev Page. We process:
When it comes to your data, Rovo Dev applies the following measures: Your prompts (inputs) and responses (outputs):
Third-party processing:
Permissions and access:
|
| 使用人工智能的自动化由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Rovo 使用这些模型来分析自然语言输入,并在 Jira 和 Confluence 中为您生成自动化规则。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着,它们的回复是通过根据它们训练所用的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 创建自动化规则是日常自动化体验的核心,我们希望通过将 Rovo 添加到 Jira 和 Confluence 的自动化规则生成器中来简化这一过程。现在,您只需输入并描述想要实现自动化的方面,即可轻松创建自动化规则,同时可让 Rovo 为您处理创建规则涉及的所有繁重工作。进一步了解使用 Rovo for Jira 和 Rovo for Confluence 的自动化。 我们认为,当您不确定如何开始或希望加快规则创建流程时,使用 Rovo for Jira 的自动化和使用 Rovo for Confluence 的自动化效果最佳。 不确定如何更好地创建自动化规则?自动化规则由不同类型的组件组合而成:触发器、操作、条件和分支。将组件视为规则的基石。要成功使用 Rovo 创建规则,您的规则必须至少包含触发器和操作。例如: 在 Jira 中: 每周一,查找到期时间为未来 7 天的所有任务,并向经办人发送提醒电子邮件。 当工作单变为“测试”状态时,将其分配给 John Smith。 在 Confluence 中:
此外,要成功创建规则,使用 Rovo 的自动化必须支持其所有组件。这意味着规则中的任何触发器、操作、条件或分支都必须与 Jira 和/或 Confluence 中的自动化兼容。 |
| 请务必记住,鉴于用来支持使用 Rovo 的自动化的模型的工作方式,这些模型的行为有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,在以下情况下使用 Rovo 的自动化不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 使用 Rovo 的自动化只能与 Jira 和 Confluence 中的一组现有可用自动化组件配合使用。 如上所述,您可能还需要尽可能具体地考虑要求 Rovo 完成的事项。 |
| 我们了解,您可能对使用 Rovo 的自动化如何使用您的数据存有疑问。本节是对我们常见问题解答页面所提供信息的补充。 我们会处理:
就您的数据而言,使用 Rovo for Confluence 自动化功能时会应用以下措施:
所有第三方 LLM 提供商均为辅助处理商,并在我们的辅助处理商页面上以此身份列出。除了处理您的请求外,它们不会将您的输入和输出用于任何目的。 此功能遵循您实例中的权限。例如,如果您没有访问特定项目或页面的权限,您收到的回复中则不会推荐来自这些资产的内容。如果您不想让实例中的其他用户在回复中看到您的内容,则请与您的组织管理员合作以确保权限设置得当。 |
警报分组
| 人工智能警报分组由 OpenAI 和 Google 开发的大型语言模型提供支持。这些模型包括用于识别警报数据模式的算法、OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。 Rovo 使用这些机器学习模型来分析和生成警报组,并根据警报内容的相似度或所用主题在产品中提供相关建议(过去的警报组和过去的警报响应者)。然后,Rovo 会在我们的产品中运用这些大型语言模型分析和生成自然语言描述和内容。 这些大型语言模型根据您的输入生成回复,并且具有概率性。这意味着它们的回复是根据训练时所基于的数据预测最有可能出现的下一个单词或文本而生成的。 |
| 警报分组使用人工智能来识别相似警报并将其分组在一起。它还能根据警报内容的语义相似度或所用主题,帮您识别过往类似的警报组,并推荐过往警报响应者(或响应者团队)。 当您想要将警报群组升级为事件时,警报分组还将预先填充所有上下文信息,供您在事件创建过程中查看。 我们认为,在以下情况下,警报分组最有效:
|
| 请务必记住,考虑到用于支持警报分组的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。就您看到的警报群组而言,它们可能无法准确反映其标记的语义相似性。 我们发现,在以下情况下,警报分组的作用不大:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需要考虑确保您和您的团队在使用警报标记时遵循一致的做法。 |
| 我们了解您可能对警报分组如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
我们会处理您的警报数据来训练某个版本的机器学习模型,以识别特定于您警报的模式。该版本仅用于为您的体验服务:
当涉及到您的数据时,警报分组会采用以下措施:
|
| 使用人工智能为 Confluence 页面或博文生成快速摘要,从而节省时间并获取所需细节,更快地完成工作。了解有关在 Confluence 中使用人工智能的更多信息。 我们认为,在以下情况下,使用 Rovo 汇总页面和博客内容效果最佳:
|
| 请务必记住,鉴于用来支持使用人工智能汇总页面和博客内容的模型的工作方式,这些模型的行为有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 尽管我们会继续为宏、表格和摘要扩展功能提供更好的支持,但我们发现,在以下情况下,使用 Rovo 汇总页面和博客内容的用处不大:
我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需要考虑:
|
| 我们了解,您可能对在 Confluence 自动化中使用人工智能时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
就您的数据而言,使用 Rovo 汇总页面面和博客内容时会应用以下措施:
|
使用 Atlassian Intelligence 定义术语
| 在 Confluence 和 Jira 中使用 Rovo 定义术语由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Rovo 使用这些模型在 Confluence 和 Jira 中分析和生成自然语言回答。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 关于在 Confluence 和 Jira 中使用内容,最具挑战的事情之一可能就是获取了解所读内容所需的背景信息。缩略语、首字母缩略词、不熟悉的术语以及团队或项目特定的名称可能会导致您在搜索所需信息时花费大量时间。 使用 Rovo 定义术语将在 Confluence 的页面或 Jira 的工作项描述中提供公司特定术语(如缩写词、项目、系统或团队名称)的定义。这可为用户在需要时提供他们需要的信息,同时还能帮助团队更好地合作。 Rovo 可以为您定义这些内容,从而节省您的时间,而不会让您偏离正在阅读的内容。 当遇到您认为不准确的定义时,您可以编辑或添加新定义,然后设置可见范围:当前页面或工作项可见、整个空间或项目可见,或扩展至整个组织可见。 我们认为,在 Confluence 和 Jira 中使用 Rovo 定义术语在以下情况下效果最佳:
|
| 请务必记住,鉴于用于使用 Confluence 中的 Rovo 定义术语的模型的工作方式,这些模型的行为有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,在 Confluence 中使用人工智能定义术语的用处不大:
此外,在 Jira 中我们还发现,由于使用 Rovo 定义术语的功能依赖于 Confluence 中的搜索,因此只有当您有权限查看与 Jira 实例处于同一站点下的 Confluence 实例时,该功能才能在 Jira 中正常使用。 此外,您还可能会发现:在内容使用多种语言编写的 Confluence 空间或 Jira 实例中,使用 Rovo 定义术语的效果可能无法达到预期。 |
| 我们了解,您可能对使用 Rovo 定义术语如何使用您的数据存有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
就您的数据而言,使用 Rovo 定义术语时会应用以下措施:
|
编辑器中的生成式 AI
| Rovo 有助于推动组织中的所有团队之间进行有效沟通,从而提高效率、加速决策和改善流程。 我们认为,在以下情况下,在编辑体验下使用 Rovo 效果最佳:
|
| 请务必记住,鉴于用来支持编辑体验下的人工智能的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,在编辑体验下使用 Rovo 的用处不大:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需要考虑:
|
| 我们了解您可能对编辑体验下的人工智能如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
就您的数据而言,编辑体验下的 Rovo 会应用以下措施:
|
| 工作项改写器由 OpenAI 开发的大型语言模型(包括 OpenAI 的 GPT 系列模型)提供支持。 Rovo 在 Jira 中使用该模型来分析和生成自然语言。 这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型功能的更多信息。 |
| 工作项改写器通过使用 Atlassian 开发的模板来改写 Jira 工作项描述,从而帮助提高其清晰度。该模板涵盖了我们通常希望在 Jira 工作项描述中看到的信息类型,如用户故事、工作背景和验收标准。 我们认为,在工作项描述已包含有用信息(如验收标准或来源链接),但这些信息没有使用清晰或一致的结构进行格式化的情况下,工作项改写器最有效。 |
| 请务必记住,鉴于用于支持工作项改写器的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您改写的描述可能无法准确反映其所依据的内容,也可能包含听起来合理但却是错误或不完整的细节。 我们发现,工作项改写器在以下情况下不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。在开始使用工作项改写器来改写工作项描述之前,您可能还需要考虑审查并确认工作项描述是否包含所有相关信息。 |
| 我们了解您可能对工作项改写器如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,工作项改写器会采取以下措施:
|
在 Jira Service Management 中生成工作项详情摘要
| 您可以使用 Rovo 快速汇总这些信息,而不必通读有关 Jira Service Management 工作项的长篇描述和大量评论。这有助于支持人员快速了解工作项的背景和取得的任何进展,使他们能够迅速采取行动并及时提供援助。 我们认为,使用 Rovo 汇总工作项详情时,在以下情况中效果最佳:
|
| 请务必记住,鉴于用于支持使用人工智能汇总工作项详情的模型的工作方式,这些模型有时可能表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用 Rovo 汇总工作项详情的用处不大:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 |
| 我们了解您可能对使用人工智能汇总工作项详情会如何使用您的数据有疑问。本节是对我们常见问题解答页面所提供信息的补充。 我们会处理:
就您的数据而言,使用 Rovo 汇总工作项详情时会应用以下措施:
|
编辑器中的生成式 AI
| 使用 Atlassian Intelligence (AI) 为智能链接生成摘要由 OpenAI、Google 和 Anthropic 开发的大语言模型,以及开源大语言模型(包括 Llama 系列、Phi 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列和 Phi 系列的相关信息。 |
| 将光标悬停在 Jira、Confluence 和 Google Docs 中的智能链接上后,Atlassian Intelligence 可帮助您生成内容摘要,从而确定该链接的重要性和价值,并决定后续操作。这样可减少离开当前页面和切换上下文的需要。 我们认为,在以下情况下使用 Atlassian Intelligence 来生成智能链接摘要的效果最佳:
|
| 请务必牢记,鉴于模型在支持使用 Atlassian Intelligence 为智能链接生成摘要时的工作方式,这些模型有时会出现不准确、不完整或不可靠等情况。 例如,您收到的摘要可能无法准确反映其所依据的内容,或者包含看似合理但实为谬误或不完整的内容。 我们发现,在以下情况下使用 Atlassian Intelligence 为智能链接生成摘要的效果不佳:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 |
| 我们了解您可能对使用 Atlassian Intelligence 生成工作项详情摘要会如何使用您的数据有疑问。本节是对我们常见问题解答页面所提供信息的补充。 我们会处理:
当涉及到您的数据时,使用 Atlassian Intelligence 为智能链接生成摘要会采取以下措施。
|
使用 Atlassian Intelligence 生成工作项详情摘要
| Jira 中的人工智能摘要由 OpenAI 开发的大型语言模型提供支持。这些模型包括此处介绍的 OpenAI 模型。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着,它们的回复是根据训练过的数据预测最有可能出现的下一个单词或文本而生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。 |
| 您可以使用 Atlassian Intelligence 快速生成这些信息的摘要,而不必通读有关 Jira 工作项的长篇描述和大量评论。这有助于支持人员快速了解工作项的背景和取得的任何进展,使他们能够迅速采取行动并及时提供援助。 我们认为,使用 Atlassian Intelligence 生成工作项详情摘要最适合有大量评论和/或长篇评论和描述的工作项。 |
| 请务必记住,鉴于用于支持 Jira 中的人工智能摘要的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含看似合理但实则有误或不完整的内容。 我们发现,在以下情况下,使用 Atlassian Intelligence 生成工作项详情摘要的用处不大:
因此,我们建议您考虑在哪些情况下使用 Atlassian Intelligence,并在与他人共享之前对收到的回复质量进行审查。 |
| 我们了解您可能对使用 Atlassian Intelligence 生成工作项详情摘要会如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,使用 Atlassian Intelligence 生成工作项详情摘要会应用以下措施:
|
Jira Service Management 中的 Atlassian Intelligence 回答功能
| Jira Service Management 的虚拟服务支持人员由 OpenAI 和 Google 开发的大型语言模型以及开源大型语言模型(包括 Llama 系列)提供支持。 虚拟服务支持人员按如下方式使用这些模型:
大型语言模型的工作原理:大型语言模型根据您的输入生成回复,具有概率性质。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 用于支持虚拟服务支持人员的大型语言模型包括 OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。 了解有关 OpenAI 模型和 Google 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 虚拟服务支持人员由一个对话式 Atlassian Intelligence 引擎提供支持,该引擎可以分析和理解意图、上下文和权限来实现个性化互动,从而帮助团队自动进行一级支持互动。 利用 Atlassian Intelligence,虚拟服务支持人员可帮助团队扩展服务台,并通过以下三个关键功能让客户满意:
虚拟服务支持人员可通过多种渠道使用,包括 Slack、Microsoft Teams、Jira Service Management 门户等。了解有关哪些渠道可供虚拟服务支持人员使用的更多信息。 我们认为虚拟服务支持人员在以下情况下效果最佳:
|
| 请务必记住,鉴于用于支持虚拟服务支持人员的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,回复可能无法准确反映其所依据的内容,或者可能包含听起来合理但却是错误或不完整的内容。 我们发现,在以下情况下,虚拟服务支持人员不太有用:
我们建议您考虑在哪些情况下使用 Atlassian Intelligence,并在为客户启用虚拟服务支持人员之前对其性能进行审查。了解有关提高虚拟服务支持人员性能的更多信息。 您可能还需要考虑:
|
| 我们了解您可能对 Jira Service Management 的虚拟服务支持人员如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,虚拟服务支持人员会采取以下措施:
|
人工智能工作分解
| 人工智能工作分解由 OpenAI 开发的大型语言模型提供支持。 Atlassian Intelligence 使用这些模型来分析和生成我们产品中的自然语言。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 阅读有关 OpenAI 模型功能的更多信息,或查看 OpenAI 的研究论文以了解有关此方法的更多信息。 |
| 人工智能工作分解会根据您创建的 Jira 工作项建议子工作项,从而轻松地将大块工作分解成小块工作。您的工作项将作为上下文,为子工作项摘要和描述生成建议。 我们认为人工智能工作分解在以下情况下效果最佳:
|
| 请务必记住,鉴于用于支持人工智能工作分解的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现人工智能工作分解在以下情况下不太有用:
因此,我们建议您在使用 Atlassian Intelligence 时考虑所处的情况,并在与他人共享之前查看所收到回复的质量。 您可能还需考虑:
|
| 我们了解,您可能对人工智能工作分解如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,人工智能工作分解会应用以下措施。
|
使用 Atlassian Intelligence 推动采取行动
在下面选择一项 Rovo 功能,用例和数据使用情况一目了然。
| 借助 Rovo 使用人工智能创建事件由 OpenAI、Google 和 Anthropic 开发的大型语言模型,以及开源大型语言模型(包括 Llama 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言。 这些模型根据您的输入生成回复,本质上具有概率性。这意味着,它们的回复是根据训练过的数据预测最有可能出现的下一个单词或文本而生成的。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 在 Jira Service Management 中将一个或多个警报或警报组上报为事件时,利用人工智能创建事件会使用 Rovo 快速预填充所有上下文信息,供您在创建事件的过程中查看。这样,用户就可以快速了解从这些警报或警报组创建的事件的上下文,并在将警报或警报组上报为事件时审查和确认预填充的信息,包括警报的标题、描述和优先级。 我们认为,在以下情况下利用人工智能创建事件的效果最佳:
|
| 请务必记住,考虑到模型用于推动利用人工智能创建事件工作的方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下利用人工智能创建事件的效果不佳:
基于这些原因,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 为了获得最有用的结果,我们建议您尽可能具体地描述向 Rovo 提出的请求。 |
| 我们了解您可能对利用人工智能创建事件如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,利用人工智能创建事件会应用以下措施:
|
创建事后回顾
| 通过 Rovo 创建的 PIR(事后回顾)由 OpenAI 开发的大型语言模型提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。Rovo 会运用这些模型在我们的产品中分析与生成自然语言。 这些模型根据用户的输入生成回复,本质上具有概率性。这意味着,回复是通过根据它们训练所用的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型功能的更多信息。 |
| PIR 是事件管理流程的核心部分,可帮助事件响应者和管理者从当前的事件中吸取经验教训,并传递洞察信息,以防止今后发生类似事件。Rovo 可根据 Jira Service Management 实例和 Slack 等聊天工具中的相关上下文信息建议 PIR 描述,供您查看,从而帮助加快通常耗时的 PIR 编制任务。 我们认为,在以下情况下使用人工智能创建 PIR 效果最佳:
|
| 请务必记住,考虑到这些模型用于支持 PIR 创建工作的模型的方式,这些模型有时会表现得不准确、不完整或不可靠。例如,您收到的回复可能无法准确反映其所依据的内容,或者包含可能听起来合理但却是错误或不完整的内容。 我们发现,在以下情况下使用人工智能创建 PIR 的作用不大:
基于此原因,我们建议您考虑 Rovo 的适用使用场景,先检查所收到回复的质量,然后再与他人共享。 您可能还需考虑:
|
| 我们了解您可能对利用人工智能创建事后回顾如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,利用人工智能创建 PIR 会应用以下措施。
|
使用 Atlassian Intelligence 生成拉取请求描述
| 使用人工智能生成拉取请求描述由 OpenAI、Google 和 Anthropic 开发的大型语言模型,以及开源大型语言模型(包括 Llama 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言及代码。 这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是通过它们训练所用的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 当您在 Bitbucket Cloud 代码审查体验中编写拉取请求描述或评论时,Rovo 可以帮助您生成、转换和汇总内容。具体包括:
我们认为,在以下情况下,使用 Rovo 生成 Bitbucket Cloud 拉取请求描述效果最佳:
|
| 请务必记住,考虑到这些模型用于推动此功能工作的方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用 Rovo 生成 Bitbucket Cloud 拉取请求描述的用处不大:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需要考虑:
|
| 我们了解您可能对在 Confluence 中使用 Rovo 定义术语时会如何使用您的数据有疑问。本节是对我们常见问题解答页面所提供信息的补充。 我们会处理:
就您的数据而言,使用 Rovo 生成拉取请求描述时会应用以下措施:
|
在 Atlassian Analytics 中生成 SQL 查询
| 在 Atlassian Analytics 中使用人工智能生成 SQL 查询由 OpenAI、Google 和 Anthropic 开发的大型语言模型,以及开源大型语言模型(包括 Llama 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Rovo 使用这些模型来分析和理解自然语言,然后在 Atlassian Analytics 中将其转换为 SQL(结构化查询语言)。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 用自然语言向 Rovo 提问,它会将其转换成 SQL,这样您就无需从零开始编写 SQL 查询了。当您提出问题后,Rovo 会使用您所选数据源的 Atlassian Data Lake 架构来生成 SQL 查询,该查询既可用于在 Atlassian Analytics 仪表板上构建图表,也能帮助您了解 Data Lake 中的架构。 我们认为,在以下情况下,使用 Rovo 生成 SQL 查询效果最佳:
|
| 请务必记住,鉴于用于使用人工智能生成 SQL 查询的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用 Rovo 生成 SQL 查询的用处不大:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需要考虑:
|
| 我们了解您可能对在使用 Rovo 生成 SQL 查询时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
就您的数据而言,使用 Rovo 生成 SQL 查询时会应用以下措施。
|
在 Confluence 中搜索答案
| 使用 Rovo 在 Confluence 中搜索答案功能由 OpenAI、Google 和 Anthropic 开发的大型语言模型,以及开源大型语言模型(包括 Llama 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 知识库增长速度过快,用户难以跟上。使用 Rovo 在 Confluence 中搜索答案可以更快地获得客户推进工作所需的关键信息的路径。此功能可帮助您轻松找到所需的信息。它了解您会问团队伙伴的问题类型,并立即回答。进一步了解使用 Rovo 在 Confluence 中搜索答案。 我们认为,当您的 Confluence 站点包含详细、完整、最新的内容时,使用 Rovo 在 Confluence 中搜索答案效果最佳。 此功能不会生成新内容,但会搜索 Confluence 页面和博客(同时遵循权限限制)以找到问题的答案。Rovo 生成的答案完全基于您 Confluence 中的内容,且仅限于您个人有权访问的信息。 |
| 请务必记住,鉴于用于使用 Rovo 在 Confluence 中搜索答案的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用 Rovo 在 Confluence 中搜索答案的的用处不大:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需要考虑:
|
| 我们了解您可能对使用 Rovo 在 Confluence 中搜索答案时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
就您的数据而言,使用 Rovo 在 Confluence 中搜索答案时会应用以下措施:
|
在 Jira 中搜索工作项
| 使用 Rovo 在 Jira 中搜索工作项由 OpenAI、Google 和 Anthropic 开发的大型语言模型,以及开源大型语言模型(包括 Llama 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Rovo 使用这些模型来分析和理解自然语言,然后将其转换为我们产品中的 JQL(Jira 查询语言)代码。 这些模型根据您的输入生成回复,本质上具有概率性。也就是说,它们会根据训练所用数据,预测接下来最有可能出现的单词或文本,以此生成回复。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 现在,您可以使用日常语言向 Rovo 提出您的需求,而不必再进行复杂的查询。通过使用 Rovo 搜索工作项,您的提示语会被转化为 JQL 查询,从而快速帮助您搜索特定的工作项。 我们认为,在以下情况下,使用 Rovo 搜索工作项效果最佳:
|
| 请务必记住,鉴于用于使用 Rovo 搜索工作项的模型的工作方式,这些模型有时可能表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上错误或不完整的内容。 我们发现,在以下情况下,使用 Rovo 搜索工作项的用处不大:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需要注意,您应尽可能具体地描述向 Rovo 提出的请求。确保包含您要查找的确切字段和值。 |
| 我们了解您可能对使用人工智能搜索工作项会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
就您的数据而言,使用 Rovo 搜索工作项时会应用以下措施:
|
人工智能工作分解
| 人工智能工作分解由 OpenAI 开发的大型语言模型提供支持。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型功能的更多信息。 |
| 人工智能工作分解会根据您创建的 Jira 工作项建议子工作项,从而轻松地将大块工作分解成小块工作。您的工作项将作为上下文,为子工作项摘要和描述生成建议。 我们认为人工智能工作分解在以下情况下效果最佳:
|
| 请务必记住,鉴于用于支持人工智能工作分解的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现人工智能工作分解在以下情况下不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需考虑:
|
| 我们了解,您可能对人工智能工作分解如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,人工智能工作分解会应用以下措施。
|
| 知识库中的建议主题由 OpenAI 和 Anthropic 开发的大型语言模型以及基于开源转换器的语言模型和其他机器学习模型组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型和 Anthropic 的 Claude 系列模型。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言。开源编码器模型可将文本输入转换为数字形式(嵌入),用于从输入中识别和形成主题。 这些大型语言模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅有关 Multi-QA-miniLM 和 E5-Multilingual 的信息。 |
| 该功能可通过分析项目中收到的服务请求,帮助管理员和支持人员了解其知识库中存在的差距。该功能可清晰地突出显示求助者正在提起请求(基于过去 30 天的数据)但却没有现成知识的主题。通过建议主题,我们希望让项目管理员和支持人员了解有多少请求可以通过知识转移或至少解决。 我们相信,知识文章数量的增加将影响 Jira Service Management 中其他功能(如虚拟服务支持人员的人工智能问题回答)的性能。当管理员或支持人员就建议主题创建文章时,也有助于提高使用人工智能问题回答解决的请求的解决率。 我们认为建议主题在以下情况下最有效:
|
| 请务必记住,鉴于用于支持知识库中建议主题的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现知识库中的建议主题在以下情况下不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需考虑:
|
| 我们了解您可能对建议主题如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
在涉及到您的数据时,知识库中的建议主题会应用以下措施。 知识库中您的建议主题:
|
在 Confluence 中搜索内容
| 使用人工智能搜索 Confluence 内容由 OpenAI 和 Google 开发的大型语言模型提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型和 Google 的 Gemini 系列模型。 Rovo 使用这些模型来分析和生成自然语言,然后将其转换为我们产品中的 CQL(Confluence 查询语言)代码。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 了解有关 OpenAI 模型功能的更多信息。 |
| 现在,您可以使用日常语言向 Rovo 询问您想在 Confluence 中查找的内容,而无需提出复杂的查询。在 Rovo 的帮助下,您的提示语会被转换为 CQL 查询,从而快速帮助您搜索特定内容。 我们认为,在以下情况下,使用 Rovo 搜索 Confluence 内容效果最佳:
|
| 请务必记住,鉴于用于使用人工智能搜索 Confluence 内容的模型的工作方式,这些模型有时可能表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,在以下情况下,使用 Rovo 搜索 Confluence 内容的用处不大:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需要注意,您应尽可能具体地描述向 Rovo 提出的请求。确保包含您要查找的确切字段和值。 |
| 我们了解您可能对使用人工智能搜索 Confluence 内容会如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
就您的数据而言,使用 Rovo 搜索 Confluence 内容时会应用以下措施。
|
阅读有关 Rovo 的更多信息
JQL 错误修复工具
| JQL 错误修复工具能帮助您在编写 Jira JQL(查询语言)查询时快速解决错误。它的工作原理是:通过分析错误消息和原始的 JQL 查询,给出无错误的 JQL 查询建议。 我们认为,JQL 错误修复工具在以下场景中能发挥最佳作用:用户已正确构建了大部分 JQL 查询,仅在特定字段或值上存在错误。 |
| 请务必记住,考虑到用于支持 JQL 错误修复工具的模型的工作方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上错误或不完整的内容。 我们发现,JQL 错误修复工具在以下情况下不太有用:
|
| 我们了解,您可能对 JQL 错误修复工具如何使用您的数据有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,JQL 错误修复工具会采取以下措施。
|
阅读有关 Rovo 的更多信息
Chart Insights
| 图表洞察信息由 OpenAI、Google 和 Anthropic 开发的大型语言模型,以及开源大型语言模型(包括 Llama 系列和 Mixtral 系列)与其他机器学习模型的组合提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型、Google 的 Gemini 系列模型和 Anthropic 的 Claude 系列模型。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言。 这些模型根据您的输入生成回复,本质上具有概率性。这意味着它们的回复是根据训练过的数据预测最有可能出现的下一个单词或文本而生成的。 了解有关 OpenAI 模型、Google 模型和 Anthropic 模型功能的更多信息。有关开源语言模型的更多信息,请参阅 Llama 系列的相关信息。 |
| 图表洞察信息使用人工智能来帮助您加快对 Atlassian Analytics 中任何图表数据的理解。为此,它使用仪表板标题、图表标题和图表数据(包括列标题和行值)来生成该图表及其数据的自然语言摘要。它还将旨在识别任何趋势或异常情况,以为您提供有关该图表的特定洞察信息。 我们认为,Chart Insights 在以下情况下效果最佳:
条形图、折线图和条形折线图最适合使用此功能,因为它们通常具有趋势、日期和许多行数据。 |
| 请务必记住,考虑到模型用于推动 Chart Insights 工作的方式,这些模型有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,Chart Insights 不太有用:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需要考虑:
|
| 我们了解您可能对 Chart Insights 如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
当涉及到您的数据时,Chart Insights 会采取以下措施。
|
在 Jira Service Management 中建议请求类型
| 使用 Rovo 推荐请求类型由 OpenAI 开发的大型语言模型提供支持。这些大型语言模型包括 OpenAI 的 GPT 系列模型。 Rovo 使用这些模型来分析自然语言输入,以及在 Jira Service Management 中为您生成有关请求类型名称和描述的建议。 这些模型可根据您的输入生成回复,且本质上具有概率性。这意味着它们生成回复的机制为:根据用于对其进行训练的数据来预测最有可能出现的下一字词或文本。 了解有关 OpenAI 模型功能的更多信息。 |
| 不必花费大量时间来弄清楚需要为项目创建哪种请求类型,相反,您可以从 Rovo 那里获取建议。只需描述您的工作以及团队通常管理的内容,即可查看您可以创建哪些类型的请求。可选择 Rovo 生成的建议之一来创建请求类型。进一步了解如何使用 Rovo 推荐请求类型。 我们认为,在以下情况下,使用 Rovo 推荐请求类型的效果最佳:
|
| 请务必记住,鉴于用于使用人工智能推荐请求类型的模型的工作方式,这些模型的行为有时可能不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或者包含听起来合理但事实上是错误或不完整的内容。 我们发现,在以下情况下,使用 Rovo 推荐请求类型的用处不大:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 您可能还需要考虑:
|
| 我们了解您可能对在使用 Rovo 推荐请求类型时会如何使用您的数据有疑问。此部分是对我们的常见问题解答页面信息的补充。 我们会处理:
就您的数据而言,使用 Rovo 推荐请求类型会应用以下措施。
|
在 Jira Service Management 中建议请求类型
| 重点领域执行摘要由 OpenAI 开发的大型语言模型提供支持。这些模型包括此处介绍的 OpenAI 模型。 Rovo 会运用这些模型在我们的产品中分析与生成自然语言。 这些模型会根据您的输入生成回复,且本质上具有概率性。这意味着它们的回复是通过根据他们接受训练的数据预测最有可能的下个单词或文本来生成的。 |
| 重点领域执行摘要使用 Rovo 提供重点领域的快速、可操作摘要,包括正在进行的工作、关联目标健康度、需关注环节建议以及补救任何工作项的建议。 重点领域执行摘要在以下情况下效果最佳:
|
| 请务必记住,鉴于用来支持重点领域执行摘要的模型的工作方式,这些模型的行为有时会表现得不准确、不完整或不可靠。 例如,您收到的回复可能无法准确反映其所依据的内容,或是包含看似合理但实则有误或不完整的内容。 我们发现,重点领域执行摘要在以下情况下作用较小:
因此,我们建议您在使用 Rovo 时考虑各种情况,先检查所收到回复的质量,然后再与他人共享。 |
| 我们了解,您可能对重点领域执行摘要如何使用您的数据存有疑问。本节补充了我们在 Trust Center 中提供的信息。 我们会处理:
当涉及到您的数据时,重点领域执行摘要会应用以下措施。
|