エグゼクティブ サマリー

本記事は、敵が間接的なプロンプト インジェクションを使用して、AIエージェントの長期メモリを静かに汚染する手法を実証する概念実証(PoC)を紹介するものです。Amazon Bedrock Agentを使用してデモを行いました。このシナリオでは、エージェントのメモリが有効になっている場合、攻撃者はプロンプト インジェクションによってエージェントのメモリに悪意のある命令を挿入することができることが確認されています。これは、被害者となるユーザーがソーシャル エンジニアリングによって騙され、悪意のあるWebページや文書にアクセスした場合に発生する可能性があるものです。

弊社が行った概念実証では、Webページのコンテンツがエージェントのセッション要約プロセスを操作し、注入された命令をメモリに保存させることが確認されました。一旦植え付けられると、これらの命令はセッションを越えて持続し、エージェントのオーケストレーションのプロンプトに組み込まれるものです。この影響を受けたエージェントは、将来のインタラクションにおいて、ユーザーの会話履歴を秘密裏に流出してしまう危険があるとされます。

特筆すべきことは、これはAmazon Bedrockプラットフォーム特有の脆弱性ではないということです。これは大規模言語モデル(LLM)における、より広範かつ未解決のセキュリティ上の課題であり、エージェントの使用シーンにおけるプロンプト インジェクションの危険性を浮き彫りにするものです。

​​LLMは自然言語の指示に従うよう設計されていますが、善意と悪意の入力を確実に区別する能力はありません。その結果、信頼できないコンテンツ(Webページ、文書、ユーザー入力など)がシステムのプロンプトに組み込まれると、これらのモデルは敵対的な操作の影響を受けやすくなります。このためエージェント(ひいてはそのメモリ)のようなLLMに依存するアプリケーションは、プロンプト攻撃の危険に常にさらされていると言えます。

プロンプト インジェクションを排除する完全な解決策は今のところ存在しません。しかし、実用的な緩和策を講じることでリスクを大幅に軽減することができるとされています。開発者は、Webサイト、ドキュメント、API、ユーザーからのコンテンツを含め、信頼できないすべての入力を潜在的に敵対的なものとして扱うべきことが求められます。

Amazon Bedrock GuardrailsPrisma AIRSのようなソリューションは、プロンプト攻撃をリアルタイムで検出・ブロックするのに効果的です。しかし、AIエージェントを包括的に保護するうえで、以下のような重層的な防御戦略が必要とされます。

  • コンテンツ フィルタリング
  • アクセス制御
  • ログイン
  • 継続的な監視

弊社はこの好評に先立ち、Amazonと本調査の検討を行いました。Amazonの代表は弊社の調査を歓迎しましたが、同社の見解として、このようなリスクを軽減するように設計されたBedrockのプラットフォーム機能を有効にすることで、これらの懸念を軽減することは容易であることが対話のなかで強調されました。 具体的な指摘は、Amazon Bedrock Guardrailsとプロンプト アタック ポリシーを適用することで、効果的な保護が得られるというものです。

Prisma AIRSは、さまざまなAIアプリケーションにおいて、脅威の検出とブロック、データ漏洩の防止、安全な使用ポリシーの実施により、AIシステムをレイヤー化し、リアルタイムで保護できるように設計されています。

Advanced URL FilteringのようなURLフィルタリング ソリューションは、既知の脅威インテリジェンス フィードに照らし合わせてリンクを検証し、悪意のあるドメインや不審なドメインへのアクセスをブロックするものです。これにより、攻撃者が制御するペイロードがLLMに到達するのをまず防ぐことができます。

AI Access Securityは、サードパーティによる生成AIの利用を可視化し制御するために設計されており、ポリシーの実施とユーザーアクティビティの監視を通じて、データ漏洩、不正使用、有害な出力の防止を支援します。

Cortex Cloudは、商業モデルと自己管理モデルの両方のAI資産の自動スキャンと分類を提供し、機密データを検出してセキュリティ態勢を評価するように設計されています。コンテキストは、AIの種類、ホスティング クラウド環境、リスク状況、姿勢、データセットによって決定されます。

Unit 42 AIセキュリティ評価は、AI環境を標的とする可能性が最も高い脅威を事前に特定するのに役立ちます。

情報漏えいの可能性がある場合、または緊急の案件がある場合は、Unit 42インシデント レスポンス チームまでご連絡ください。

Unit 42の関連トピック 間接的プロンプトインジェクション, GenAI, メモリ破損

Bedrock Agents Memory

生成AI(GenAI)アプリケーションは、パーソナライズされた首尾一貫した体験を提供するために、ますますメモリ(記憶)機能に依存しています。ステートレスで各会話セッションを個別に処理する従来のLLMとは異なり、情報をメモリに保存することで、エージェントはセッションをまたいでコンテキストを保持することができます。

Amazon Bedrock Agents Memoryは、AIエージェントがユーザーとのインタラクションに渡って情報を保持することを可能にするものです。この機能を活用することで、エージェントは、通常ユーザごとにスコープされた一意のメモリIDの下に、要約された会話とアクションを保存することができます。これにより、エージェントは以前のコンテキスト、ユーザーの好み、タスクの進捗状況を思い出すことができ、ユーザーが今後のセッションで同じことを繰り返す必要がなくなります。

内部的には、Bedrock Agentsはセッション要約プロセスを使っています。各セッションの終了時に、明示的に終了したか自動的にタイムアウトしたかにかかわらず、エージェントは、設定可能なプロンプト テンプレートを使用してLLMを呼び出します。このプロンプトは、ユーザーの目標、述べられた好み、エージェントの行動などの重要な情報を抽出して要約するようモデルに指示するものであり、この要約によって相互作用の核となるコンテキストはカプセル化されます。

その後のセッションでは、Bedrock Agentsはこの要約をオーケストレーション プロンプト テンプレートに注入し、その後のセッションでのエージェントのシステム命令の一部として扱います。事実上、エージェントの記憶は、エージェントの理由づけ、計画、反応の仕方に影響を与えることから、エージェントの振る舞いは、こうした蓄積されたコンテキストに基づいて進化していると言えます。

開発者は、プロンプト テンプレートを変更することで、最大365日間のメモリ保持を設定し、要約パイプラインをカスタマイズすることが可能です。これにより、どの情報を抽出し、どのように構造化し、最終的に何を保存するかをきめ細かく制御することができるとされています。これらの機能は、開発者がエージェント型アプリケーションに追加機能と深層防御機能を追加できるメカニズムを提供するものです。

間接的なプロンプト インジェクション

プロンプト インジェクションは、LLMにおけるセキュリティ リスクです。モデルの動作の操作を目的とした欺瞞的な指示など、ユーザーによって入力に細工がされた場合、不正なデータ アクセスや意図しない動作につながる可能性があります。

間接的なプロンプト インジェクションは、注意すべき攻撃ベクトルであり、外部コンテンツ(電子メール、Webページ、文書、メタデータなど)に埋め込まれた悪意のある命令が、モデルによって後に取り込まれ処理されることを指します。プロンプトを直接入力する手法とは異なり、この方法はモデルが外部のデータソースと統合されていることを利用するものであり、ユーザーが直接操作しなくても、埋め込まれた命令を正当な入力として解釈することが特徴です。

Poc(概念実証): 間接的なプロンプト インジェクションによるメモリ操作

エージェントのメモリ操作攻撃のPoCを行うにあたって、弊社はAmazon Bedrock Agentsを使ってシンプルな旅行アシスタント チャットボットを作成しました。このボットは、旅行の予約、検索、キャンセルが可能であり、外部のWebサイトを参照することもできるものです。私たちはメモリ機能を有効にし、各ユーザーに隔離されたメモリ スコープを割り当てて、いかなる侵害も標的となったユーザーだけに影響するようにしました。

エージェントを構築するにあたって、カスタマイズは行わず、代わりにデフォルトのAWSが管理するオーケストレーションとセッション要約のプロンプト テンプレートを使用しました(追加リソースを参照)。ボットのエージェントは Amazon Nova Premier v1基盤モデルを利用しています。なお本PoCでは、最低限保護されたコンフィギュレーションを反映し、Bedrockのガードレールは有効にしていません。

攻撃シナリオ

架空シナリオでは、被害者はチャットボットの正当なユーザーであり、攻撃者は外部から操作し、システムへの直接的なアクセスは持たないものとしました。そのため攻撃者は、ソーシャル エンジニアリングを駆使して被害者を誘導し、悪意のあるURLをチャットボットに送信させる必要があります。チャットボットがこのURLをフェッチすると、プロンプト インジェクションのペイロードが埋め込まれたWebページを取得します。

これらのペイロードはセッション要約のプロンプトを操作し、LLMの要約出力に悪意のある命令を含ませるものです。

PoCでは、以下のステップを使用しました。

  1. 攻撃者は、プロンプト インジェクションのペイロードを埋め込んだWebページを作成する
  2. 攻撃者は悪意のあるURLを被害者に送信する
  3. 被害者はチャットボットにURLを提供する
  4. チャットボットは悪意のあるWebページのコンテンツを取得する
  5. プロンプト インジェクションのペイロードは、セッション要約プロセスを操作し、エージェントのメモリに悪意のある命令を挿入する
  6. その後の会話セッションで、Bedrockエージェントはこれらの指示をオーケストレーションのプロンプトに組み込む
  7. 注入された指示に基づき、チャットボットはWebアクセスツールを使用して、ユーザーの会話履歴をリモートのコマンド&コントロール(C2)サーバーに無断で流出させる

図1はこの攻撃の流れを示したものです。

ハッカー、C2、コンピューターにいる人間、チャットボット、メモリ ストレージ ユニットなど、複数のコンポーネントを含むサイバーセキュリティ脅威のシナリオを示す図。これら要素間の接続は、攻撃者、チャットボットに悪意のあるURLを挿入する攻撃者、チャットボットを使用する人、セッションが継続するなかでチャットボットのメモリに保存された悪意のあるURLの配信の間の流れを示している。
図1.メモリ操作PoCの攻撃フロー。

プロンプト インジェクションのペイロード構造

本セクションでは、セッション要約プロンプトに対してプロンプト インジェクションを実行するうえで、Webページ上でどのように悪意のある指示を調査チームが作成したかを説明します。

PoCで扱うこの度の手法は、セッション要約プロンプトを標的とし、エージェントの永続メモリに悪意のある命令を挿入することを目的とするものです。要約プロンプトの構造を理解することは、攻撃ベクトルを把握するための鍵となります。

デフォルトでは、要約プロンプトは以下の2つの主要な要素を抽出します。

  • ユーザーゴール - セッション中にユーザーが明示した目標
  • アシスタントのアクション - 目標を達成するためにエージェントが取るアクション

私たちは、これらのユーザーゴールとアシスタントのアクションを含む会話セッションを要約プロンプトテンプレートに入力しました。ユーザーの入力、アシスタントの応答、ツールの起動を含む会話は、<conversation>XMLタグ(青く強調表示)の中にラップされています。このテクニックの典型的なフローは以下の通りです。

  1. (ユーザー)ユーザーはチャットボットにURLの読み取りを依頼します
  2. (アクション)エージェントは、Webコンテンツを取得するためのツールを選択し、呼び出します
  3. (結果)ツールはWebページの内容を返します
  4. (アシスタント)エージェントは、ツール出力とユーザクエリを使用して応答を生成します

図2で示されているように、構造として、結果フィールド(赤で強調表示)にツールの出力(すなわち、検索されたWebページ)を含んでいます。このフィールドは、要約プロンプトの中で攻撃者が制御できる唯一の入力であり、理想的なインジェクション ポイントとされます。

ユーザーとAIアシスタントのテキスト ベースの会話のスクリーンショット。URLについて話している(本文の一部はハイライト)。入力は良性とマークされている。赤いハイライトが理想的なインジェクション ポイント。
図2.セッション要約プロンプト テンプレートのスニペット。

ペイロードの解剖学

注入されたペイロードは3つの部分に分かれており、それぞれの部分は偽造された<conversation>XMLタグ(黄色でハイライトされている)で区切られています。これらのタグはLLMを混乱させるために加えられたものであり、これによりLLMは、パート1とパート3を別々の会話ブロックとして解釈し、それらのブロックの外にあるパート2を、セッション要約プロンプトのシステム命令の一部として解釈するようになります。

  • パート1は偽造された</conversation>タグで終わり、LLMを騙して一つの会話ブロックの終わりと解釈されます。これは、良性のWebページ コンテンツとともに、以前のユーザー エージェントとのやり取りを含むものです。悪意のあるペイロードはこのセクションの最後から始まります。
  • パート3は、偽造された<conversation>タグで始まり、LLMに別の会話ブロックの開始と解釈させるようにできています。パート2からの指示を繰り返すような、ユーザーとエージェントのやりとりが捏造されており、LLMが最終セッションの要約にその指示を含める可能性を高めるようになっています。
  • パート2は、<conversation>ブロックの外側に戦略的に配置され、核となる悪意のある指示が含まれています。この位置づけにより、LLMはユーザーやツールが生成した入力ではなく、システムの指示の一部として解釈するようになり、LLMが指示に従う可能性が大幅に高まります。またこれに紛れ込ませるかたちで、ペイロードはプロンプト テンプレートで使われているのと同じXMLのような構文を採用しています。

図3は、要約プロンプトの他のすべてのフィールドがそのままの状態で、Bedrock Agentsが攻撃者のWebページから悪意のあるコンテンツを結果フィールドに入力する様子を示したものです。

悪性とマークされている。AIエージェントのチャット インターフェイスのスクリーンショット。URLの検証に関するダイアログのサンプルがテキスト ボックスで表示されている。この画像には、「悪質なアクション」、「結果」、「ガイドライン」と記された部分があり、セキュリティに関するユーザーの指示を改善するための注釈が添えられている。会話の中でexample.comというURLが言及されている。
図3.セッション要約プロンプトのプロンプト インジェクション ペイロード。

ペイロード デリバリとインストールのエクスプロイト

図4は、攻撃フローのステップ1に該当する悪用ペイロードを含む悪意のあるWebページを示したものです。攻撃者が指定した悪意のある命令がHTMLに埋め込まれる一方で、エンドユーザーには見えないように表示されるため、攻撃はステルス性を保つことに成功しています。

夏休みに最適なアメリカの国立公園トップ5。およびその最寄りの空港の一覧画像。グレイシャー国立公園、ヨセミテ国立公園、グランドティトン国立公園、アカディア国立公園、オリンピック国立公園などが含まれている。各公園の項目には、近隣の空港とそれぞれの距離が記載されている。
図4.プロンプト インジェクションのペイロードが良性コンテンツ下に隠されている悪意のあるWebページ。

図5は、攻撃フローのステップ2~4に対応する被害者とチャットボットのやりとりを示したものです。注目すべきは、エージェントが悪意のある振る舞いを示したり、注入された命令を公にはしていないことです。これは、ペイロードが、リアルタイムの会話を制御するオーケスト レーション プロンプトではなく、セッション要約プロンプトをターゲットにしているために起きています。こうした背景より、注入された命令はユーザーのクエリとは無関係であると判断され、LLMはアシスタントの応答から除外しているのです。

ワシントンD.C.からアメリカのさまざまな国立公園へのフライト時間が記載された国立公園ガイドのスクリーンショット。このプロンプトはURLに記載されている国立公園のガイドを見るようチャット ボットに求めており、悪意がある。
図5.被害者ユーザーはチャットボットに悪意のあるURLを読むよう依頼。

図6は、攻撃フローのステップ5に該当するセッション要約処理中のLLMの出力のスニペットを示したものです。モデルによって会話から主要なユーザーのゴールとアシスタントのアクションが、ツールが期待される通り抽出されていますが、攻撃者が悪意のあるWebページから注入した指示も組み込まれており、"バリデーション ゴール "などの捏造されたトピックの下にラベリングされています。要約のすべてのトピックはエージェントのメモリに自動的に挿入されるので、このステップは将来のセッションのためにペイロードを効果的にインストールすることができます。

LLMが旅行プランを予約する際のスクリーンショット。国立公園に関する推奨事項の検討や、移動時間の見積もりなどのタスクが含まれている。コンテンツは、概要、ユーザーの目標、アシスタントのアクションによって分けられている。
図6.セッション要約のLLM出力。

後続セッションでのペイロードのアクティブ化

Amazon Bedrock Agentsは、新しいセッションのコンテキストに、メモリの内容を自動的に注入するものです。図7は、被害者が数日後に新しい旅行を予約するためにチャットボットに戻ってきた様子を示したものです。これは攻撃フローのステップ6に該当します。エージェントは期待通りに予約を完了し、ユーザーの視点からはすべてが正常に見えます。しかし、悪意あるアクションはバックグラウンドで静かに行われています。

2025年7月15日、グレイシャー国立公園を訪問するためにワシントンDCからマサチューセッツ州カリスペルへ向かうフライトの予約確定通知の画面キャプチャ。
図7.被害者は新たな会話セッションでチャットボットに新たな旅行の予約を依頼。

図8は、新しいセッションで使用されるオーケストレーション プロンプトの一部を示したものです。攻撃フローのステップ7に該当します。プロンプトには、エージェントのメモリの内容が含まれており、システム命令セクションの一部として、攻撃者の命令が追加されています。システム命令はLLMの動作に強く影響するため、モデルは悪意のある命令を実行する可能性が高くなります。

AIエージェントの説明画面。セッションの要約では、悪意のあるURLを含むエージェントの検証目標について話している。続いて、エンドユーザーの目標と、部分的に冗長化されたURLからスクレイピングされたコンテンツやフライトの予約を含むアシスタントのアクションが続く。
図8.オーケストレーション プロンプトに埋め込まれた侵害さえたメモリ。

図9は、エージェントがどのようにユーザーの要求を理由づけ、達成する計画を立てるかを示したものです。最初のアシスタント メッセージでは、エージェントは攻撃者の指示から導き出されたステップを組み込んだ実行計画を概説しています。続く2つ目のメッセージでは、エージェントはC2 URLのクエリパラメータにデータをエンコードし、scrape_urlツールでそのURLをリクエストしており、これによりユーザーの予約情報を悪意のあるドメインに無断で流出させています。このようにしてエージェントは、攻撃者のペイロードを被害者に見せることなく実行することに成功しています。

アシスタントを介して予約の検証を議論するコンピュータのコードスニペットのスクリーンショット、パラメータとURLが含まれている。
図9.エージェントの実行計画に組み込まれた悪意のある命令。

結論

長期記憶はAIエージェントの強力な機能であり、パーソナライズされた、コンテキスト認識型の、適応的なユーザー体験を可能にするものです。しかし、それはまた新たなアタックサーフェスをもたらすものでもあります。弊社はPoCを通じて、長期記憶を持つAIエージェントが持続的な悪意ある命令のベクトルとして機能することを実証することに成功しました。これは、セッションをまたいだり、時間をかけてエージェントの行動に影響を与える可能性があるものであり、長期的なシステムのマニピュレーションといった危険性につながるものです。メモリ コンテンツはオーケストレーション プロンプトのシステム命令に注入されるため、ユーザー入力よりも優先されることが多く、潜在的な影響が増幅されます。

本PoCでは、悪意のあるWebページを配信メカニズムとして利用しましたが、広範なリスクとして以下のような信頼されていない入力チャネルもその配信経路となる可能性があります。

  • ドキュメント
  • サードパーティAPI
  • ユーザー作成コンテンツ

エージェントの能力と統合次第では、悪用に成功した場合、データの流出、誤報、不正な行動など、すべてが自律的に実行される可能性があります。しかし良いニュースもあります。AWSが指摘しているように、弊社が示した特定の攻撃は、プロンプト攻撃に対するBedrock Agentの組み込みの保護、すなわちデフォルトの前処理プロンプトとBedrock Guardrailを有効にすることで軽減できるということです。

メモリ操作攻撃を軽減する措置として、階層的なセキュリティ アプローチが求められます。開発者は、外部からのインプットが敵対的なものである可能性を想定し、それに応じてセーフガードを導入することが求められます。これには、信頼できないコンテンツのフィルタリングをはじめ、エージェントの外部ソースへのアクセスの制限、エージェントの動作を継続的に監視して異常を検出し対応することなどが含まれます。

AIエージェントの能力と自律性が高まるにつれて、メモリとコンテキスト管理の確保は、安全で信頼できるデプロイメントを保証するために不可欠となることが見込まれています。

保護と緩和措置

このメモリ操作攻撃の根本的な原因は、エージェントが信頼されていない、攻撃者が管理するコンテンツ、特にWebページや文書などの外部データソースを取り込むことにあります。悪意のあるURL、Webページ コンテンツ、セッション要約プロンプトが、チェーンのどの段階でも、サニタイズ、フィルタリング、ブロックされれば、攻撃は中断されます。効果的な緩和策として、エージェントの入力パイプラインとメモリ パイプラインの複数のレイヤーにまたがる深層防御戦略が必要とされています。

前処理

開発者は、すべてのBedrock Agentで提供されている、デフォルトのプロンプトの前処理を有効にすることができます。この軽量なセーフガードは、基礎モデルを使用して、ユーザー入力が処理しても安全かどうかを評価するものです。デフォルトの動作として運用するだけでなく、分類カテゴリーを追加するようにカスタマイズすることも可能です。また、開発者はAWS Lambdaを統合して、カスタム レスポンス パーサーによってカスタマイズされたルールを実装することもできます。こうした柔軟性は、各アプリケーション固有のセキュリティ体制に合わせた防御を構築するうえで有効です。

コンテンツ フィルタリング

すべての信頼できないコンテンツ、特に外部ソースから取得したデータを検査し、プロンプトがインジェクションされる可能性がないか確認します。Amazon Bedrock GuardrailsPrisma AIRSなどのソリューションは、LLMの動作を操作するように設計されたプロンプト攻撃を効果的に検出し、ブロックできるように設計されています。これらのツールを用いることで、入力検証ポリシーを実施したり、疑わしいコンテンツや禁止されているコンテンツを取り除いたり、LLMに渡される前に不正なデータを拒否したりできます。

URL Filtering

エージェントのWeb閲覧ツールがアクセスできるドメインのセットを制限します。Advanced URL FilteringのようなURLフィルタリング ソリューションは、既知の脅威インテリジェンス フィードに照らし合わせてリンクを検証し、悪意のあるドメインや不審なドメインへのアクセスをブロックするものです。これにより、攻撃者が制御するペイロードがLLMに到達するのをまず防ぐことができます。許可リスト(またはデフォルトで拒否するポリシー)を実装することは、外部コンテンツと内部メモリシステムとの橋渡しをするツールにとって特に重要です。

ログと監視

AIエージェントは、開発者が直接監督することなく、複雑な行動を自律的に実行することができます。このため、包括的な観測可能性は非常に重要とされます。

Amazon Bedrockでは、プロンプトとレスポンスのペアをすべて記録するModel Invocation Logsを利用できます。さらにトレース機能は、エージェントの推論ステップ、ツールの使用状況、メモリインタラクションをきめ細かく可視化します。これらのツールを組み合わせて使うことで、フォレンジック分析や、異常検出、インシデント レスポンスに役立てることができます。

Prisma AIRSは、AIアプリケーション、モデル、データ、エージェントをリアルタイムで保護できるように設計されています。ネットワーク トラフィックとアプリケーションの挙動を分析し、プロンプト インジェクション、サービス拒否攻撃、データ窃取などの脅威を検出し、ネットワークとAPIレベルでインライン実施します。

AI Access Securityは、サードパーティ製生成AIツールの利用状況を可視化および制御するために設計されたソリューションです。ポリシー適用とユーザーアクティビティの監視を通じて、機密データの漏洩、リスクの高いモデルの不適切な利用、有害な出力といった脅威を防ぎます。Prisma AIRSとAI Access Securityが連携することにより、企業によるAIアプリケーションの構築と外部AIの利用、その双方におけるセキュリティの確保を支援します。

Cortex Cloudは、商業モデルと自己管理モデルの両方のAI資産の自動スキャンと分類を提供し、機密データを検出してセキュリティ態勢を評価するように設計されています。コンテキストは、AIの種類、ホスティング クラウド環境、リスク状況、姿勢、データセットによって決定されます。

Unit 42 AIセキュリティ評価は、AI環境を標的とする可能性が最も高い脅威を事前に特定するのに役立ちます。

情報漏えいの可能性がある場合、または緊急の案件がある場合は、Unit 42インシデント レスポンス チームまでご連絡ください。

  • 北米:フリーダイヤル: +1 (866) 486-4842 (866.4.UNIT42)
  • 英国: +44.20.3743.3660
  • ヨーロッパおよび中東: +31.20.299.3130
  • アジア: +65.6983.8730
  • 日本: +81.50.1790.0200
  • オーストラリア: +61.2.4062.7950
  • インド: 00080005045107

パロアルトネットワークスは、本調査結果をサイバー脅威アライアンス(CTA)のメンバーと共有しています。CTAの会員は、この情報を利用して、その顧客に対して迅速に保護を提供し、悪意のあるサイバー アクターを組織的に妨害しています。サイバー脅威アライアンスについて詳細を見る。

その他の資料

Bedrock Agentsのセッション要約プロンプト テンプレート

Bedrock Agentsオーケストレーション プロンプト テンプレート

参考文献

Enlarged Image