透明性を重視して設計された Atlassian Intelligence および Rovo
オープンなコミュニケーション、説明責任、そして責任ある AI 利用を促進するためのアトラシアンの取り組み。
Rovo エージェントは、OpenAI と Google が開発した大規模言語モデルと、オープンソースの大規模言語モデル (Llama シリーズを含む) とその他の機械学習モデルの組み合わせによって動作しています。これらのモデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデルなどがあります。 Rovo エージェントにはこれらのモデルを使用して分析を行い、自然言語で回答を生成し、アトラシアン製品および接続済みのサードパーティ製品から関連性のある回答を提供する機能があります。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Llama シリーズの情報を参照してください。 |
Rovo では、意思決定の支援、ナレッジ ドキュメントの公開、Jira での作業項目の整理など、さまざまなタスクにすぐに使えるエージェントを多数提供しています。エージェントは、人間のチームが迅速かつ効果的に作業を進めるのを支援できる、専門の人工知能のチームメイトです。 このためには、次のことが可能です。
アトラシアンでは、Rovo エージェントは次のようなシナリオで最適に機能すると考えています。
|
Rovo エージェントを機能させるために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Rovo エージェントは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
お客様のデータが Rovo エージェントでどのように使用されるかについて疑問をお持ちのことでしょう。このセクションは、当社の Trust Center で入手できる情報を補足するものです。 処理されるデータの種類は以下のとおりです。
データについては、Rovo エージェントでは次の指標が適用されます。
上記の詳細はアトラシアンが提供するエージェントに当てはまります。アトラシアンが提供するエージェントの詳細については、「Rovo のデータ、プライバシー、使用に関するガイドライン | Rovo | アトラシアン サポート」をご覧ください。サードパーティが提供するエージェントに関する情報については、該当するサードパーティがアプリ用に提供しているベンダー規約をご参照ください。 Atlassian Intelligence の詳細 |
Rovo チャットは、OpenAI と Google が開発した大規模言語モデルと、オープンソースの大規模言語モデル (Llama シリーズを含む) とその他の機械学習モデルの組み合わせによって動作しています。これらのモデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデルなどがあります。 Rovo チャットはこれらのモデルを使用して分析を行い、自然言語で回答を生成し、アトラシアン製品および接続済みのサードパーティ製品から関連性のある回答を提供します。 回答は、これらの大規模言語モデルによって、ユーザーの入力に基づいて生成され、本質的に確率に基づいています。つまり、大規模言語モデルからの回答は、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して生成されます。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Llama シリーズの情報を参照してください。 |
Rovo チャットでは、会話型インターフェイスを通じて組織の知識にアクセスできます。つまり、人に頼むのと同じ方法で文章の作成、読み上げ、レビュー、創作を Rovo に頼むことができ、ワークフローの中断がありません。チャットは、(アトラシアン製品と接続されたサードパーティ製品の両方で) 作業のコンテキストを理解して、質問に回答したり、アイデアやインサイトを提供したりします。 アトラシアンでは、Rovo チャットは次のようなシナリオで最適に機能すると考えています。
Rovo チャットには、Chrome のブラウザー拡張機能を介してユーザーがアクセスすることもできます。Rovo チャットへのアクセスについて詳しくは、こちらとこちらをご覧ください。 |
Rovo チャットを機能させるために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Rovo チャットは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Rovo チャットを使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
お客様のデータが Rovo チャットでどのように使用されるかについて疑問をお持ちのことでしょう。このセクションは、当社の Trust Center で入手できる情報を補足するものです。 処理されるデータの種類は以下のとおりです。 お客様のプロンプト (入力) と回答 (出力)。
データについては、Rovo チャットでは次の指標が適用されます。
OpenAI は、アトラシアンの副処理者のリストに含まれる副処理者です。リクエストに対する処理または対応以外の目的でお客様の入力と出力を使用することはありません。 この機能は、ご利用のインスタンスの権限に従います。たとえば、特定の Confluence ページにアクセスできない場合、受信した回答でそのページのコンテンツが提案されることはありません。インスタンス内の他のユーザーへの回答に自分のコンテンツが利用されないようにするには、組織管理者に連絡して、ご自身の権限が適切に設定されていることをご確認ください。 Chrome のブラウザー拡張機能を介して Rovo チャットにアクセスすると、アトラシアン製品内に既に存在するコンテンツを補完するために、チャットでは表示している Web ページのコンテンツのみを読み取ります。Web ページの追加データは保存されません。 Atlassian Intelligence の詳細 |
Rovo 検索では、AI を使用して、アトラシアンとサードパーティのツール全体の検索機能を強化しています。 Rovo 検索は、OpenAI と Google が開発した大規模言語モデルと、オープンソースの大規模言語モデル (Llama シリーズを含む) とその他の機械学習モデルの組み合わせによって動作しています。これらのモデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデルなどがあります。 Rovo 検索ではこれらのモデルを使用して、セマンティック検索、関連度ランキング、自然言語処理などの機能を提供します。これには、検索クエリに対する自然言語での回答の分析と生成、アトラシアン製品および連携しているサードパーティ製品から得られた関連性の高い回答の提供が含まれます。 回答は、これらの大規模言語モデルによって、ユーザーの入力に基づいて生成され、本質的に確率に基づいています。つまり、大規模言語モデルからの回答は、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して生成されます。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Llama シリーズの情報を参照してください。 |
Rovo 検索を使用すると、アトラシアンの製品や連携しているサードパーティ製品など、複数のツールやプラットフォームを検索することができ、コンテキストに応じた関連性の高い結果が得られるので、チームのコラボレーションと生産性が向上します。 アトラシアンでは、Rovo 検索は次のようなシナリオで最適に機能すると考えています。
|
Rovo 検索を機能させるために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Rovo 検索は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Rovo を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
お客様のデータが Rovo 検索でどのように使用されるかについて疑問をお持ちのことでしょう。このセクションは、当社の Trust Center で入手できる情報を補足します。 処理されるデータの種類は以下のとおりです。
データについては、Rovo 検索では次の指標が適用されます。
Atlassian Intelligence の詳細 |
AI を活用して作業をスピードアップ
以下の Atlassian Intelligence の機能を選択すると、ユース ケースとデータの使用について把握することができます。
Atlassian Intelligence を使用した自動化
インシデント管理のための AI ChatOps は、OpenAI によって開発された大規模言語モデル、およびオープン ソースの大規模言語モデル (Llama シリーズや Phi シリーズなど) と他の機械学習モデルの組み合わせを利用しています。これらの大規模な言語モデルには、OpenAI の GPT シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらの大規模言語モデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチについて詳しくは、OpenAI の研究論文をお読みください。オープン ソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
インシデント管理のための AI ChatOps では、Jira Service Management のインシデント作業項目にリンクされている Slack チャンネルに新規ユーザーが追加されると、関連するインシデントの要約とそれに関する会話すべてが提供されるため、ユーザーはインシデント解決プロセスを迅速に進められます。さらに、インシデント管理のための AI ChatOps では、Slack で生じる会話をタイムラインとして Jira Service Management に記録し、将来参照できるようにします。 アトラシアンでは、インシデント管理のための AI ChatOps は、次のようなシナリオで最も効果的だと考えています。
|
インシデント管理のための AI ChatOps の作業に使用されるモデルは、その性質上、不正確、不完全、または信頼できない動作を示す場合があることを念頭に置きます。たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 インシデント管理のための AI ChatOps は、次のようなシナリオではあまり効果的でないことが判明しています。
こうした理由から、インシデント管理のための AI ChatOps を利用する状況をご検討いただき、受け取った回答の質を確認した上で、他のユーザーと共有することをお勧めします。 また、関連するインシデント作業項目や Slack チャンネルにユーザーが適切なレベルでアクセスできるよう、権限を見直すこともご検討ください。 |
インシデント管理のための AI ChatOps がお客様のデータをどのように使用するかについて、疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
お客様のデータ保護のため、インシデント管理のための AI ChatOps では次の対策を適用しています。
|
AI による下書きは、OpenAI と Anthropic によって開発された大規模言語モデル、および Transformer をベースにしたオープン ソースの言語モデルとその他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデルと Anthropic の Claude シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して、製品内で自然言語を分析/生成します。オープン ソースのエンコーダー モデルは、テキスト形式の入力を数値形式 (埋め込み) に変換し、その結果が、入力に含まれるトピックの識別と形成に利用されます。 これらの大規模言語モデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルと、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、モデルの組み込みに関する情報を参照してください。 |
AI による下書きは、管理者とエージェントが検討するナレッジ記事の下書きを事前に生成して提案します。この機能は、Jira Service Management プロジェクトで最も一般的な作業項目の下書きを、そのプロジェクトの作業項目内の詳細やコメントを使用して生成します。 これにより、サービス チームはナレッジ ベース記事のカバレッジをより迅速かつ簡単に拡大でき、ひいては Jira Service Management の他の機能のパフォーマンス向上にも役立ちます。たとえば、AI による下書きを使用して作成されたナレッジ記事を仮想サービス エージェントの AI による回答機能で使用して、ヘルプ依頼者からのリクエストをより簡単かつ迅速に解決できます。 仮想サービス エージェントの AI による回答機能の詳細をご確認ください。 アトラシアンでは、AI による下書きは次のようなシナリオで最適に機能すると考えています。
|
AI による下書きを機能させるために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI による下書きは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
お客様のデータが AI による下書きでどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、Atlassian Trust Center で入手できる情報を補足します。 処理されるデータの種類は以下のとおりです。
AI による下書きでは、お客様のデータに対して次の指標が適用されます。
|
会社ハブ カードの AI 要約は、OpenAI によって開発された大規模な言語モデルを利用しています。これらの大規模な言語モデルには、OpenAI の GPT シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの機能について詳細をご確認ください。 |
会社ハブ カードの AI 要約は、AI が生成したカードの説明を提案することで、会社ハブをすばやく入力して公開できるように支援します。この機能は Atlassian Intelligence を使用して、会社ハブ カード向けに、リンクされている Confluence ページやブログ投稿の要約を生成します。 会社ハブ カードの AI 要約は、次のようなシナリオで最適に機能します。
|
会社ハブ カードの AI 要約を強化するために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 会社ハブ カードの AI 要約は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 |
お客様のデータが会社ハブ カードの AI 要約でどのように使用されるかについて、疑問をお持ちのことでしょう。このセクションでは、Atlassian Trust Center で入手できる情報を補足します。 処理されるデータの種類は以下のとおりです。
会社ハブ カードの AI 要約では、お客様のデータに対して次の指標が適用されます。
|
AI 関連リソースは、OpenAI によって開発された大規模言語モデル、およびオープン ソースの大規模言語モデル (Llama シリーズや Phi シリーズなど) と他の機械学習モデルの組み合わせを利用しています。これらの大規模な言語モデルには、OpenAI の GPT シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを利用して、製品内の自然言語を分析・生成し、アトラシアン製品および接続済みのサードパーティ製品から関連性のある回答を提供します。 これらの大規模言語モデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチについて詳しくは、OpenAI の研究論文をお読みください。オープン ソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Atlassian Intelligence では、リンクされたナレッジ ベースのスペースや記事、Jira 作業項目、および (Rovo のお客様であれば) Rovo を介して統合したサードパーティ製品などにわたって、参照できるリソースのリストを提案するため、ユーザーはインシデント解決のプロセスをスピードアップできるようになります。Rovo とサードパーティ ツールの詳細をご確認ください。 アトラシアンでは、AI 関連リソースは次のようなシナリオで最も効果的だと考えています。
|
AI 関連リソースの作業に使用されるモデルは、その性質上、不正確、不完全、または信頼できない動作を示す場合があることを念頭に置きます。たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI 関連リソースは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 次の内容もご検討ください。
|
AI 関連リソースがお客様のデータをどのように使用するかについて、疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 処理されるデータの種類は以下のとおりです。
お客様のデータ保護のため、AI 関連リソースでは次の対策を適用しています。
|
Jira Service Management の AI による提案は、OpenAI によって開発された大規模言語モデルやその他の機械学習モデルを利用しています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらの大規模言語モデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの機能について詳細をご確認ください。 |
Jira Service Management の AI による提案を使用すると、サービス リクエストやインシデントに関する重要なコンテキストを一目で把握して、状況をすばやく理解できます。Atlassian Intelligence は、チームによる次の作業を支援します。
Jira Service Management の AI による提案では、該当する SLA に違反しそうなときにリクエストやインシデントをエスカレーションするようエージェントに勧めることもできます。サービス リクエストの場合、提案に使用されているモデルが、報告者のコメントのテキストから、そのリクエストに緊急性や怒りのニュアンスを感じ取った場合に、リクエストをエスカレーションするようエージェントに促すこともあります。 Jira Service Management の AI による提案は、次のようなシナリオで最も効果的に機能すると考えられます。
|
Jira Service Management の AI による提案を機能させるために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Jira Service Management の AI による提案は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
Jira Service Management の AI による提案でお客様のデータがどのように使用されるかについて、ご不明な点があると思います。このセクションは、当社の Trust Center で入手できる情報を補足するものです。 処理されるデータの種類は以下のとおりです。
AI による提案では、お客様のデータに対して次の指標が適用されます。
|
Atlassian Intelligence を使用した自動化は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープン ソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence では、これらのモデルを利用して自然言語の入力を分析し、Jira と Confluence 内で自動化ルールを生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、トレーニングを受けたデータに基づいて、最も可能性の高い次の単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
自動化ルールの作成は、日常の自動化エクスペリエンスの主要部分です。そのためアトラシアンでは、Jira と Confluence の自動化ルール ビルダーに Atlassian Intelligence を追加することで、ルールの作成をさらに簡単にしたいと考えました。その結果、自動化する内容を入力して説明するだけで、簡単に自動化ルールを作成できるようになりました。Atlassian Intelligence がルールを作成の煩雑な作業をすべて引き受けますJira と Confluence 向けの Atlassian Intelligence を使用した自動化の詳細をご覧ください。 Jira と Confluence 向けの Atlassian Intelligence を使用した自動化が最も効果を発揮するのは、開始方法がわからない場合や、ルール作成プロセスを加速したい場合です。 自動化ルールの最適な作成方法がわからない場合自動化ルールは、トリガー、アクション、条件、ブランチなど、さまざまなタイプのコンポーネントを組み合わせて作成します。コンポーネントはルールの構成要素と考えてください。Atlassian Intelligence でルールを正常に作成するには、ルールに少なくともトリガーとアクションの両方が 1 つずつ含まれている必要があります。次に例を示します。 Jira の場合 毎週月曜日、期限が 7 日以内のタスクをすべて検索し、担当者にリマインダー メールを送信する。 チケットがテストに移動したら、そのチケットを John Smith に割り当てます。 Confluence の場合
さらに、ルールを正常に作成するには、そのルールを構成するすべての要素が Atlassian Intelligence を使用した自動化でサポートされている必要があります。つまり、ルール内のトリガー、アクション、条件、ブランチはすべて Jira と Confluence の自動化と互換性がなければなりません。 |
Atlassian Intelligence を使用した自動化を機能させるためのモデルの仕組みにより、これらのモデルが不正確または不完全であったり、信頼性に欠ける動作をする場合がありますので、その点をご留意ください。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用した自動化は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 Atlassian Intelligence を使用した自動化は、Jira と Confluence で利用可能な既存の自動化コンポーネントでのみ機能します。 また、前述のように、Atlassian Intelligence にはできるだけ具体的な内容の質問をすることが推奨されます。 |
Atlassian Intelligence を使用した自動化において、お客様のデータがどのように取り扱われるのか疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 処理されるデータの種類は以下のとおりです。
お客様のデータ保護のため、Atlassian Intelligence を使用した Confluence 自動化では次の対策を適用しています。
サードパーティの LLM プロバイダーはすべて副処理者であり、「副処理者」ページに記載されています。これらのプロバイダーがリクエストの処理以外の目的でお客様の入力と出力を使用することはありません。 この機能は、ご利用のインスタンスの権限に従います。たとえば、お客様が特定のプロジェクトまたはページにアクセスできない場合、それらのコンテンツを使用した提案が受信した回答に含まれることはありません。ご自身のコンテンツをインスタンスの他のユーザーへの回答として利用されないようにするには、組織の管理者に連絡して、権限が適切に設定されていることをご確認ください。 |
アラートのグループ化
Atlassian Intelligence によるアラートのグループ化は、OpenAI と Google によって開発された大規模な言語モデルを活用しています。これらのモデルには、アラート データのパターンを識別するために設計されたアルゴリズム、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデルなどがあります。 Atlassian Intelligence は、これらの機械学習モデルを利用して、アラート グループを分析および生成し、アラートの内容や使用されているタグの類似性に基づいて、製品内で関連性のある提案 (過去のアラート グループや過去のアラート対応者) を行います。次に、Atlassian Intelligence は大規模な言語モデルを利用して、製品内のこれらのグループの自然言語による説明や内容を分析および生成します。 これらの大規模な言語モデルは、入力された内容に基づいて回答を生成し、確率的です。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。 |
アラートのグループ化では、Atlassian Intelligence を利用して識別し、同様のアラートを一緒にグループ化します。また、アラートの内容や使用されているタグとの意味的な類似性に基づいて、過去の類似アラート グループや過去のアラート対応者 (または対応者のチーム) を特定して推奨することにも役立ちます。 アラート グループをインシデントにエスカレートする場合、状況に応じた情報すべてがアラートのグループ化により事前に入力され、インシデント作成プロセスの一環として確認できます。 アトラシアンでは、アラートのグループ化は次のようなシナリオで最も効果的だと考えています。
|
アラートのグループ化の強化のために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答に質問の内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。表示されるアラート グループには、タグの意味的な類似性が正確に反映されない可能性があります。 アラートのグループ化は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 また、アラート タグを使用する際に、あなたとチームが一貫したプラクティスに従うようにすることもご検討ください。 |
アラートのグループ化でのデータの扱いについて、さまざまな疑問が生じることでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
アトラシアンでは、お客様のアラート データを処理して、機械学習モデルのバージョンをトレーニングし、お客様のアラート特有のパターンを認識します。このバージョンは、ご自身のエクスペリエンスのためにのみ利用されます。
データについては、アラートのグループ化では次の指標が適用されます。
|
Atlassian Intelligence を使用してページやブログを要約する機能は、OpenAI と Google によって開発された大規模な言語モデルを活用しています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデルや Google の Gemini シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。 |
Atlassian Intelligence で Confluence ページやブログの簡単な要約を生成することで、時間を節約して、作業時間を短縮するために必要な詳細を入手できます。Confluence での Atlassian Intelligence の使用に関する詳細をご覧ください。 Atlassian Intelligence を利用したページやブログの要約は、次のようなシナリオで最も効果的です。
|
Atlassian Intelligence の機能を利用してページやブログの要約を強化するというモデルの利用方法により、これらのモデルが不正確、不完全、または信頼性の低い動作をする場合があることにご注意ください。 たとえば、受け取った回答に質問の内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 当社は、マクロ、表、要約の展開のサポートを改善し続けていますが、Atlassian Intelligence を利用したページやブログの要約が、次のようなシナリオではあまり効果的でないことが判明しました。
Atlassian Intelligence を利用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
Confluence 自動化に Atlassian Intelligence を利用する際に、お客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
データに関しては、Atlassian Intelligence を利用したページやブログの要約には、次のような対策を適用しています。
|
Atlassian Intelligence で用語を定義する
Confluence と Jira における Atlassian Intelligence を使用した用語の定義は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを利用して、Confluence と Jira 内の自然言語による回答を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Confluence や Jira でコンテンツを利用する際に最も難しいことの 1 つは、読んでいる内容を理解するために必要となるコンテキストの把握です。略語、頭字語、なじみのない用語、チームやプロジェクト固有の名前は、必要な情報を得るために長時間検索することにつながります。 Atlassian Intelligence を利用して用語を定義すると、Confluence のページや Jira の作業項目説明のページに、会社固有の用語 (頭字語、プロジェクト名、システム名、チーム名など) の定義が表示されます。これにより、ユーザーは必要な情報を随時取得でき、同時にチームの連携を強化できます。 Atlassian Intelligence を使用すれば、読んでいるコンテンツから離れることなくこれらを自動的に定義できるため、時間を節約できます。 正しくないと思われる定義が見つかった場合は、既存の定義を編集するか新しい定義を追加してから、当該のページや作業項目にその定義が表示されるように設定するか、スペース全体、プロジェクト全体、組織全体にその定義が表示されるように設定することができます。 Confluence と Jira での Atlassian Intelligence を利用した用語の定義は、次のようなシナリオで最も効果的です。
|
Confluence で Atlassian Intelligence の機能を利用して用語を定義するというモデルの利用方法により、これらのモデルが不正確、不完全、または信頼性の低い動作をする場合があることにご注意ください。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Confluence で Atlassian Intelligence を利用して用語の定義をすることは、次のようなシナリオではあまり効果的でないことが判明しました。
さらに、Atlassian Intelligence を使用して用語を定義するには Confluence での検索が必要であるため、この機能は、Jira インスタンスと同じサイトにある Confluence インスタンスを閲覧する権限がある場合にのみ Jira で使用できます。 また、Confluence スペースや Jira インスタンスに複数の言語で書かれたコンテンツがある場合は、Atlassian Intelligence を使用した用語の定義が期待どおりに機能しないことがあります。 |
Atlassian Intelligence を使用して用語を定義する際にお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
Atlassian Intelligence を使用して用語を定義する際には、お客様のデータについて次のような対策が適用されます。
|
エディターのジェネレーティブ AI
Atlassian Intelligence の編集エクスペリエンスは、OpenAI と Google によって開発された大規模な言語モデルを活用しています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデルや Google の Gemini シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。 |
Atlassian Intelligence は、組織内のすべてのチームで効果的なコミュニケーションを促進し、効率、意思決定、プロセスを向上させるのに役立ちます。 アトラシアンでは、編集エクスペリエンスに Atlassian Intelligence を使用すると、次のようなシナリオで最も効果的だと考えています。
|
Atlassian Intelligence を使用した編集エクスペリエンスにモデルがどのように使われているかを理解し、これらが不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った応答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 編集エクスペリエンスにおける Atlassian Intelligence は、次のようなシナリオでは、あまり効果的でないことが判明しました。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
編集エクスペリエンスにおいて Atlassian Intelligence でお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
データに関しては、編集エクスペリエンスにおける Atlassian Intelligence には、次の対策を適用しています。
|
作業項目の再整形機能は、OpenAI の GPT シリーズのモデルを含む、OpenAI によって開発された大規模言語モデルを利用しています。 Atlassian Intelligence はこのモデルを使用して、Jira 内で自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、実際には確率論を使用しています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの機能について詳細をご確認ください。 |
作業項目の再整形機能を使用すると、アトラシアンが開発したテンプレートに基づいて再整形を行い、Jira 作業項目の説明をわかりやすくできます。このテンプレートは、ユーザー ストーリー、作業のコンテキスト、承認基準など、Jira 作業項目の説明で通常見られる種類の情報を網羅しています。 作業項目の再整形機能は、作業項目の説明にすでに有用な情報 (承認基準や情報源へのリンクなど) が含まれているが、その情報が明確または一貫した構造で整形されていない場合に最も大きな効果を発揮します。 |
作業項目の再整形機能に使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、再整形された説明に元の内容が正確に反映されていなかったり、一見筋が通っているようでも虚偽または不完全な細部が含まれていたりする可能性があります。 作業項目の再整形機能は、次のようなシナリオではあまり効果的でないことが判明しています。
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence, and always review the quality of the responses you get before sharing them with others. You might also want to think about reviewing and confirming that your work item descriptions include all relevant information before you start using work item reformatter to reformat them. |
We understand you may have questions about how work item reformatter uses your data. This section supplements the information available on our Trust Center. 処理されるデータの種類は以下のとおりです。
When it comes to your data, work item reformatter applies the following measures:
|
Summarize work item details in Jira Service Management
Summarize work item details using Atlassian Intelligence is powered by large language models developed by OpenAI and Google. These large language models include OpenAI's GPT series of models and Google's Gemini series of models. Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。 |
Instead of reading through long descriptions and numerous comments on a Jira Service Management work item, you can use Atlassian Intelligence to quickly summarize this information for you. This helps agents quickly understand the context of the work item and any progress made, enabling them to take swift action and provide timely assistance. We believe that summarizing work item details using Atlassian Intelligence works best for:
|
It’s important to remember that because of the way that the models used to power summarizing work item details using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 We’ve found that summarizing work item details using Atlassian Intelligence is less useful in scenarios when:
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 |
We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page. 私たちは以下を処理します。
When it comes to your data, summarizing work item details using Atlassian Intelligence applies the following measures:
|
エディターのジェネレーティブ AI
Atlassian Intelligence (AI) によるスマート リンクの要約は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Jira、Confluence、Google Docs のスマート リンクにカーソルを合わせると、Atlassian Intelligence がコンテンツを要約して、ユーザーがリンクの重要性と価値を判断し、次のアクションを決定できるようにします。これにより、現在のページを離れてコンテキストを切り替える必要が減ります。 アトラシアンでは、AI でスマート リンクを要約することは、次のようなシナリオで最も効果的に機能すると考えています。
|
AI によるスマート リンク要約のために使用されるモデルの仕組み上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った要約には基になっている内容が正確に反映されていなかったり、一見筋が通っているようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI でスマート リンクを要約することは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 |
We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page. 私たちは以下を処理します。
お客様のデータについては、AI を使用したスマート リンクの要約では次の指標が適用されます。
|
Jira Service Management での Atlassian Intelligence の回答
Jira Service Management の仮想サービス エージェントは、OpenAI と Google が開発した大規模言語モデルと、オープンソースの大規模言語モデル (Llama シリーズを含む) を活用しています。 仮想サービス エージェントはこれらのモデルを次のように使用します。
大規模言語モデルの仕組み: 大規模言語モデルは、入力に基づいて応答を生成しますが、実際には確率論を使用しています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 仮想サービス エージェントを駆動するために使用される大規模言語モデルには、OpenAI の GPT シリーズのモデルや Google の Gemini シリーズのモデルなどがあります。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Llama シリーズの情報を参照してください。 |
仮想サービス エージェントは、対話のインテント、コンテキスト、権限を分析および理解して対話をパーソナライズする会話型 Atlassian Intelligence エンジンを利用して、チームが第 1 階層のサポートの対話を自動化するのに役立ちます。 Atlassian Intelligence を使用する仮想サービス エージェントは、チームがサービス デスクを拡張し、次の 3 つの主要な機能で顧客を満足させるのに役立ちます。
仮想サービス エージェントは、Slack、Microsoft Teams、Jira Service Management ポータルなどの複数のチャンネルで利用できます。仮想サービス エージェントを利用できるチャンネルの詳細をご確認ください。 仮想サービス エージェントは、次のようなシナリオで最も効果的に機能すると考えられます。
|
仮想サービス エージェントを機能させるために使用した方法が原因で、これらのモデルが不正確、不完全、または低い信頼性で動作する場合があることを覚えておくことが重要です。 たとえば、質問の内容が回答に正確に反映されていなかったり、一見筋が通っているようでも虚偽または不完全な内容が含まれていたりする可能性があります。 仮想サービス エージェントは、次のようなシナリオではあまり役に立たないことがわかっています。
Atlassian Intelligence を使用する状況を考え、顧客に対して仮想サービス エージェントを有効にする前に、そのパフォーマンスを確認することをお勧めします。仮想サービス エージェントのパフォーマンスを向上させる方法の詳細をご確認ください。 こちらもぜひご検討ください。
|
Jira Service Management の仮想サービス エージェントでお客様のデータがどのように使用されるかについて、ご不明な点があるかもしれません。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
お客様のデータに関して、仮想サービス エージェントでは次の基準が適用されます。
|
Summarize work item details using Atlassian Intelligence
Jira の AI 要約は、OpenAI によって開発された大規模な言語モデルを利用しています。こうしたモデルには、こちらで説明されている OpenAI モデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチについて詳しくは、OpenAI の研究論文をお読みください。 |
Instead of reading through long descriptions and numerous comments on a Jira work item, you can use Atlassian Intelligence to quickly summarize this information for you. This helps agents quickly understand the context of the work item and any progress made, enabling them to take swift action and provide timely assistance. We believe that summarizing work item details using Atlassian Intelligence works best for work items with a large number of comments and/or lengthy comments and descriptions. |
Jira の AI 要約に使用されているモデルは、その構造上、不正確、不完全、または信頼できない動作をする可能性があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 We’ve found that summarizing work item details using Atlassian Intelligence is less useful in scenarios when:
このような理由から、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認したうえで、他のユーザーと共有することをお勧めします。 |
We understand you may have questions about how summarizing work item details using Atlassian Intelligence uses your data. This section supplements the information available on our Trust Center. 処理されるデータの種類は以下のとおりです。
When it comes to your data, summarizing work item details using Atlassian Intelligence applies the following measures:
|
AI による作業分解
AI Work Breakdown は、OpenAI によって開発された大規模な言語モデルを利用しています。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチに関する詳細は、OpenAI の研究論文をご参照ください。 |
AI Work Breakdown suggests child work items based on a Jira work item you’ve created, making it easy to break down large pieces of work into smaller ones. Your work item is used as context to generate suggestions for child work item summaries and descriptions. AI Work Breakdown は、次のようなシナリオで最適に機能します。
|
AI Work Breakdown を機能させるために使用されているモデルは、その構造上、不正確、不完全、または信頼できない動作をする可能性があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI Work Breakdown は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
お客様のデータが AI Work Breakdown でどのように使用されるか、疑問をお持ちのことでしょう。このセクションでは、アトラシアンの Trust Center で入手できる情報を補足します。 処理されるデータの種類は以下のとおりです。
AI Work Breakdown は、お客様のデータに対して次の指標を適用します。
|
AI を使ってアクションを促す
以下の Atlassian Intelligence の機能を選択すると、ユース ケースとデータの使用について把握することができます。
Atlassian Intelligence を使用した AI によるインシデントの作成は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Jira Service Management で 1 つ以上のアラートまたはアラート グループをインシデントにエスカレーションする場合、AI による create incident (インシデントの作成) は Atlassian Intelligence を使って、インシデント作成プロセスの一環として確認できるように、すべてのコンテキスト情報をすばやく事前入力します。これにより、ユーザーはこれらのアラートやアラート グループから作成されたインシデントのコンテキストをすばやく理解し、インシデントにエスカレーションする際にアラートのタイトル、説明、優先度など、事前に入力された情報を確認、レビューすることができます。 AI による create incident (インシデントの作成) が最も効果的に機能するのは、次のようなシナリオだと考えています。
|
AI による create incident (インシデントの作成) を強化するために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI による create incident (インシデントの作成) は、次のようなシナリオではあまり効果的でないことが判明しています。
これらのことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 最も有用な結果を得るには、Atlassian Intelligence に依頼する内容をできるだけ具体的にすることをお勧めします。 また、Atlassian Intelligence に質問する内容はできる限り具体的にしてください。 |
AI による create incident (インシデントの作成) がお客様のデータをどのように使用するかについて、疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
お客様のデータに関して、AI による create incident (インシデントの作成) では次の指標が適用されます。
|
インシデント事後レビューを作成する
Atlassian Intelligence による PIR (インシデント事後レビュー) の作成には、OpenAI が開発した大規模な言語モデルが使用されています。これらの大規模な言語モデルには、OpenAI の GPT シリーズのモデルが含まれます。Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、ユーザーの入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、トレーニングを受けたデータに基づいて、最も可能性の高い次の単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチについて詳しくは、OpenAI の研究論文をお読みください。 |
PIR はインシデント管理プロセスの中核であり、インシデント担当者とマネージャーが現在のインシデントから学びを得て、同様のインシデントの発生を防ぐためのインサイトを共有するのに役立ちます。Atlassian Intelligence は、Jira Service Management インスタンスや Slack などのチャット ツールでの関連するコンテキスト情報に基づき、PIR の説明を提案します。これによって、PIR のコンパイルという時間のかかりやすいタスクのスピードアップをサポートします。 AI による PIR の作成が最も効果的に機能するのは、次のようなシナリオでしょう。
|
PIR の作成に使用されるモデルは、その構造上、不正確、不完全、または信頼できない動作を示す場合があることを念頭に置くことが重要です。たとえば、受け取った回答において、基となっているコンテンツが正確に反映されていない場合や、合理的なようでも虚偽または不完全なコンテンツが含まれている場合もあります。 AI による PIR の作成は、次のようなシナリオにおいてあまり効果的ではないことが判明しています。
こうした理由から、Atlassian Intelligence を使用できる状況をご検討いただき、受け取った回答の質を確認した上で、他のユーザーと共有することをお勧めします。 こちらもぜひご検討ください。
|
AI によるインシデント事後レビューの作成において、お客様のデータがどのように使用されるか、疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 処理されるデータの種類は以下のとおりです。
AI による PIR の作成では、お客様のデータに対して次の指標が適用されます。
|
Atlassian Intelligence でプル リクエストの説明を生成する
Atlassian Intelligence によるプル リクエストの説明の生成は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語およびコードを分析し、説明を生成します。 これらのモデルは、入力された内容に基づいて回答を生成し、本質的に確率的です。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Atlassian Intelligence は、Bitbucket Cloud のコード レビュー エクスペリエンスでプル リクエストの説明やコメントを書いているときに、コンテンツの生成、変換、要約をサポートします。これには、次が含まれます。
アトラシアンでは、Atlassian Intelligence を使用した Bitbucket Cloud のプル リクエストの説明の生成は、次のようなシナリオで最も効果的だと考えています。
|
この機能に使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答に質問の内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用した Bitbucket Cloud のプル リクエストの説明の生成は、次のようなシナリオではあまり効果的ではないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
Confluence で Atlassian Intelligence を利用して用語を定義する際に、お客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
Atlassian Intelligence を使用したプル リクエストの説明の生成では、データについて次のような対策を適用しています。
|
Atlassian Analytics で SQL クエリを生成する
Atlassian Analytics における Atlassian Intelligence を使用した SQL クエリの生成は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して自然言語を分析および理解し、それを Atlassian Analytics 内でSQL(構造化クエリ言語)に変換します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
独自の SQL クエリをゼロから作成するのではなく、Atlassian Intelligence に自然言語で質問して、SQL に変換させます。質問すると、Atlassian Intelligence は、選択したデータ・ソースの Atlassian Data Lake のスキーマを使用して、Atlassian Analytics ダッシュボードにグラフを作成するための SQL クエリを生成します。Data Lake のスキーマについて学ぶのにも役立ちます。 アトラシアンでは、Atlassian Intelligence を使用した SQL クエリの生成は、次のようなシナリオで最も効果的だと考えています。
どのような質問をすればいいのかわからない場合下記はその例です。
|
Atlassian Intelligence を使用して SQL クエリを生成するために使用されるモデルの動作方法により、これらのモデルは不正確、不完全、または信頼性の低い方法で動作する場合があることに留意することが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用した SQL クエリの生成は、次のようなシナリオではあまり役に立たないことが判明しました。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
Atlassian Intelligence を利用して SQL クエリを生成する際に、お客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
データに関しては、Atlassian Intelligence を使用した SQL クエリの生成には、次のような対策を適用しています。
|
Confluence で回答を検索する
Atlassian Intelligence を使用した Confluence における回答の検索は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
ナレッジ・ベースが急速に拡大しすぎて、ユーザーが追いつけません。Atlassian Intelligence を使用して Confluence で回答を検索すると、作業を進めるために必要な重要な情報にすばやくアクセスできます。この機能は、必要な情報を簡単に見つけるのに役立ちます。ユーザーがチームメイトに尋ねるような質問を理解し、即座に回答します。Atlassian Intelligence を使用して Confluence で回答を検索する方法の詳細を見る Atlassian Intelligence を使用して Confluence で回答を検索するのは、詳細で完全かつ最新のコンテンツが Confluence サイトに大量に記載されている場合に最適だと私たちは考えています。 この機能は新しいコンテンツを生成するのではなく、(制限を守りながら) Confluence のページやブログを検索し、質問への回答を見つけます。Atlassian Intelligence は、Confluence の内容(具体的にはユーザーがアクセス権を持っている情報)のみに基づいて回答を生成します。 どのような質問をすればいいのかわからない場合下記はその例です。
|
Atlassian Intelligence を使用して Confluence で回答を検索する際にお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
Atlassian Intelligence を使用して Confluence で回答を検索する際には、お客様のデータについて次のような対策が適用されます。
|
Search work items in Jira
Search work items using Atlassian Intelligence in Jira is powered by large language models developed by OpenAI, Google, and Anthropic, as well as a combination of open-source large language models (including the Llama series, Phi series, and Mixtral series) and other machine learning models. These large language models include OpenAI's GPT series of models, Google's Gemini series of models, and Anthropic's Claude series of models. Atlassian Intelligence はこれらのモデルを使用して自然言語を分析および理解し、それを Atlassian Analytics 内で JQL(Jira クエリ言語)に変換します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
You can now ask Atlassian Intelligence what you want in everyday language instead of coming up with complex queries. By searching work items using Atlassian Intelligence, your prompt is translated into a JQL query which quickly assists you in your search for specific work items. We believe searching work items using Atlassian Intelligence works best in scenarios where:
|
It's important to remember that because of the way that the models used to search work items using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete, or unreliable. たとえば、質問の内容が受け取った回答に正確に反映されていなかったり、一見筋が通っているようでも虚偽または不完全な内容が含まれていたりする可能性があります。 We've found that searching work items using Atlassian Intelligence is less useful in scenarios where:
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 また、Atlassian Intelligence に質問する内容はできる限り具体的にしてください。検索するフィールドや値を正確に含めます。 |
We understand you may have questions about how searching work items using Atlassian Intelligence uses your data. This section supplements the information available on our FAQ page. 私たちは以下を処理します。
When it comes to your data, searching work items using Atlassian Intelligence applies the following measures:
|
AI による作業分解
AI Work Breakdown は、OpenAI によって開発された大規模な言語モデルを利用しています。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチに関する詳細は、OpenAI の研究論文をご参照ください。 |
AI Work Breakdown suggests child work items based on a Jira work item you’ve created, making it easy to break down large pieces of work into smaller ones. Your work item is used as context to generate suggestions for child work item summaries and descriptions. AI Work Breakdown は、次のようなシナリオで最適に機能します。
|
AI Work Breakdown を機能させるために使用されているモデルは、その構造上、不正確、不完全、または信頼できない動作をする可能性があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI Work Breakdown は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
お客様のデータが AI Work Breakdown でどのように使用されるか、疑問をお持ちのことでしょう。このセクションでは、アトラシアンの Trust Center で入手できる情報を補足します。 処理されるデータの種類は以下のとおりです。
AI Work Breakdown は、お客様のデータに対して次の指標を適用します。
|
ナレッジ ベースの「提案されたトピック」は、OpenAI と Anthropic によって開発された大規模言語モデル、および Transformer をベースにしたオープン ソースの言語モデルとその他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデルと Anthropic の Claude シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して、製品内で自然言語を分析/生成します。オープン ソースのエンコーダー モデルは、テキスト形式の入力を数値形式 (埋め込み) に変換し、その結果が、入力に含まれるトピックの識別と形成に利用されます。 これらの大規模言語モデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルと、Anthropic のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Multi-QA-miniLM や E5-Multilingual の情報をご覧ください。 |
この機能は、管理者とエージェントが、プロジェクトで受け取ったサービス リクエストを分析し、ナレッジ ベースのギャップを理解するのに役立ちます。この機能を使用すると、ヘルプ依頼者がリクエストを登録しているが既存のナレッジが存在しないトピックを、過去 30 日間のデータに基づいて明確に把握できます。トピックの提案により、プロジェクト管理者とエージェントは、ナレッジによってどれだけのリクエストを回避できるか、少なくとも解決できるかを可視化できます。 ナレッジ記事の数を増やすことは、仮想サービス エージェントの AI による回答など、Jira Service Management の他の機能のパフォーマンスに影響するとアトラシアンは考えています。管理者またはエージェントが、提案されたトピックに関する記事を作成することは、AI による回答を使用した場合のリクエスト解決率を向上させるのにも役立ちます。 アトラシアンでは、提案されたトピックは次のようなシナリオで最も効果的だと考えています。
|
ナレッジ ベースの「提案されたトピック」のために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 ナレッジ ベースの「提案されたトピック」は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
提案されたトピックでお客様のデータがどのように使用されるかについて、ご不明な点があると思います。このセクションは、当社の Trust Center で入手できる情報を補足するものです。 処理されるデータの種類は以下のとおりです。
データについては、ナレッジ ベースの「提案されたトピック」では次の指標が適用されます。 ナレッジ ベースの「提案されたトピック」:
|
Search content in Confluence
Searching Confluence content using Atlassian Intelligence is powered by large language models developed by OpenAI and Google. These large language models include OpenAI’s GPT series of models and Google’s Gemini series of models. Atlassian Intelligence uses these models to analyze and generate natural language, then translates it to CQL (Confluence Query Language) code within our products. これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの機能について詳細をご確認ください。 |
You can now ask Atlassian Intelligence for the content you want to find in Confluence using everyday language instead of coming up with complex queries. With the help of Atlassian Intelligence, your prompt is translated into a CQL query which quickly assists you in your search for specific content. We believe that Searching Confluence content using Atlassian Intelligence works best in scenarios where:
|
It’s important to remember that because of the way that the models used to power Searching Confluence content using Atlassian Intelligence work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 We’ve found that Searching Confluence content using Atlassian Intelligence is less useful in scenarios where:
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 You might also want to think about being as specific as possible in what you ask Atlassian Intelligence to do. Make sure to include the exact fields and values that you’re looking for. |
We understand you may have questions about how Searching Confluence content using Atlassian Intelligence uses your data. This section supplements the information available on our Trust Center. 処理されるデータの種類は以下のとおりです。
When it comes to your data, Searching Confluence content using Atlassian Intelligence applies the following measures.
|
Atlassian Intelligence の詳細
データから即座にインサイトを収集
以下の Atlassian Intelligence の機能を選択すると、ユース ケースとデータの使用について把握することができます。
チャート インサイト
chart insights は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
チャート インサイトでは、Atlassian Intelligence を使用して、Atlassian Analytics のあらゆるグラフのデータを簡単に理解できるようにします。そのために、ダッシュボードのタイトル、グラフのタイトル、グラフのデータ (列ヘッダーと行の値を含む) を使用して、グラフとそのデータの自然言語による要約を生成します。また、傾向や異常を特定して、そのグラフに特定のインサイトを提供することも目的としています。 アトラシアンでは、チャート インサイトは次のようなシナリオで最も効果的だと考えています。
棒グラフ、折れ線グラフ、および棒線グラフは通常、傾向、日付、その他多数のデータ行が含まれているため、この機能が最も適しています。 |
チャート インサイト強化のために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 チャート インサイトは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
チャート インサイトのデータの扱いについて、さまざまな疑問が生じることでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
データについては、チャート インサイトでは次の指標が適用されます。
|
Jira Service Management でリクエスト・タイプを提案する
Atlassian Intelligence を使用してリクエスト タイプを提案する機能は、OpenAI が開発した大規模な言語モデルを活用しています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して自然言語入力を分析し、Jira Service Management 内でリクエスト・タイプの名前と説明に関する推奨事項を生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの機能について詳細をご確認ください。 |
Atlassian Intelligence からの候補を表示することで、プロジェクト用にどのようなリクエスト・タイプを作成する必要があるかを考える時間を削減できます。自分の作業とチームが通常管理しているものを簡単に説明するだけで、どのようなタイプのリクエストを作成できるかがわかります。Atlassian Intelligence によって生成された提案の 1 つを選択して、リクエスト・タイプを作成します。Atlassian Intelligence を使用してリクエスト・タイプを提案する方法の詳細をご覧ください。 アトラシアンでは、Atlassian Intelligence を使用したリクエスト・タイプの提案は、次のようなシナリオで最も効果的だと考えています。
|
Atlassian Intelligence を使用してリクエスト・タイプを提案するために使用されるモデルの動作方法により、これらのモデルは不正確、不完全、または信頼性の低い方法で動作する場合があることに留意することが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用したリクエスト・タイプの提案は、次のようなシナリオではあまり効果的でないことが判明しました。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
リクエストタイプの提案に Atlassian Intelligence を使用する際にお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
Atlassian Intelligence を使用してリクエスト・タイプを提案する際には、お客様のデータについて次のような対策が適用されます。
|
Jira Service Management でリクエスト・タイプを提案する
重点分野エグゼクティブ サマリーは、OpenAI によって開発された大規模な言語モデルを利用しています。たとえば、こちらで説明されている OpenAI モデルが含まれています。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 |
Focus Area Executive Summary uses Atlassian Intelligence to provide a quick, actionable summary of your focus area, including the work that’s in progress, the health of connected goals, suggestions for where to pay attention, and recommendations to remediate any work items. 重点分野エグゼクティブ サマリーが最適に機能する環境は、次のとおりです。
|
重点分野エグゼクティブ サマリーに使用されているモデルは、その構造上、不正確・不完全な動作、信頼できない動作をする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 重点分野エグゼクティブ サマリーは、次のようなシナリオではあまり役に立たないことがわかっています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 |
重点分野エグゼクティブ サマリーでお客様のデータがどのように使用されるのか、疑問をお持ちのことでしょう。このセクションでは、Atlassian Trust Center で入手できる情報を補足します。 処理されるデータの種類は以下のとおりです。
重点分野エグゼクティブ サマリーは、お客様のデータに関して次の基準を適用します。
|