---
> [!NOTE] 目次
```table-of-contents
title:
minLevel: 0
maxLevel: 0
includeLinks: true
```
---
> [!NOTE] リスト掲載用文字列
- [「人間が承認する」前提が崩れる──エージェンティックAI時代のセキュリティ課題 | Forbes JAPAN 公式サイト(フォーブス ジャパン)](https://forbesjapan.com/articles/detail/93826)【リンクタイズ株式会社】(2026年03月15日)
---
> [!NOTE] この記事の要約(箇条書き)
- エージェンティックAIは、企業セキュリティにおける「人間が承認する」という前提を根本的に変える。
- 米国立標準技術研究所(NIST)は、エージェンティックAIのセキュリティリスクを理解するため、「AI Agent Standards Initiative」を立ち上げた。
- 従来型自動化と異なり、エージェンティックAIは意図を解釈し、自律的に行動を選択し、リアルタイムでシステムと相互作用する。
- 誤用や不十分なガバナンスは、金銭的損失、データ漏洩、安全上の懸念などのリスクをもたらす可能性がある。
- エージェンティックAIは、スピード、規模、自律性という点でセキュリティ環境を変化させる。
- 最大の脅威は「可視性の喪失」であり、エージェントの行動履歴の再構築が難しく、説明責任の確立を阻害する。
- 責任はシステム設計、構成、監督へと上流に移行するため、より高い運用規律が必要となる。
- 自律性に権限が加わると、コードリスクだけでなく「行動リスク」が生じる。
- 最良の実装は、意図的に権限を制約すること(例:コード作成は許可してもマージは許可しない)。
- 監督のない規模での自律性は、静かでシステミックなセキュリティ障害を引き起こし得る。
- エージェンティックAIには「セキュア・バイ・デザイン」のアプローチを初期段階から組み込むことが不可欠。
- 必須となる基盤的コントロールには、最小権限を徹底する明確な権限制限、不変で透明な監査ログ、人間へのエスカレーションポイント、行動の可観測性が含まれる。
- キルスイッチについては専門家の間で意見が分かれ、文脈的ガバナンスによるガードレールの組み込みも提唱される。
- エージェンティックAIの台頭は技術的課題であると同時にガバナンスの課題であり、明確な運用上のオーナーシップ、責任主体、そして統一された戦略的視点が必要である。
> [!NOTE] 要約おわり
---
## 「人間が承認する」前提が崩れる──エージェンティックAI時代のセキュリティ課題

stock.adobe.com

stock.adobe.com
エージェンティックAI(自律的に判断・行動するAI)は、多くの企業向けセキュリティシステムに埋め込まれている中核的な前提に挑む。それは「意思決定を行うのは人間である」という前提だ。組織が、意図を解釈し、複数のシステムにまたがって行動を起こせるAIエージェントを配備し始めるにつれ、人間の承認を中心に構築されたセキュリティモデルは、もはや完全には当てはまらなくなる。こうした影響を踏まえ、米国立標準技術研究所(NIST)は最近、 [AI Agent Standards Initiative](https://www.nist.gov/news-events/news/2026/02/announcing-ai-agent-standards-initiative-interoperable-and-secure) を立ち上げ、エージェンティックAIがもたらすセキュリティリスクをより深く理解するため、3月9日締め切りの [情報提供要請(RFI)](https://www.nist.gov/news-events/news/2026/01/caisi-issues-request-information-about-securing-ai-agent-systems) を発出した。
あらかじめ定義されたワークフローを実行する従来型の自動化とは異なり、エージェンティックシステムは意図を解釈し、行動を選択し、ツールやデータとリアルタイムに相互作用する。単に出力を生成するだけではなく、行動するのだ。システムへの照会、コードの変更、ワークフローの起動も可能である。エージェンティックAIは、請求書の確認・支払い、在庫の確認・補充、出張手配、物理インフラの保守といった多様な業務での活用が期待される。一方で、エージェンティックAIを価値あるものにしている同じ特性が、誤用や不十分なガバナンスの下では、金銭的損失、データ漏洩、安全上の懸念などのリスクをもたらし得る。
組織が自律型システムの検証を進めるにつれ、 [エージェンティックAIのセキュリティ](https://www.forbes.com/councils/forbestechcouncil/2025/12/19/agentic%20AI%20security) と監督をめぐる問いは、企業のリスクマネジメントの中心課題になりつつある。
セキュリティリーダーは、エージェンティックシステムへの移行が、組織がリスクと監督をどう捉えるべきかを根本から変えると語る。シャハル・ペレド氏は、ヒューマン・イン・ザ・ループ(人間が介在する)型のエージェンティックAIを活用するペネトレーションテスト企業、Terra Securityの共同創業者兼CEOだ。同氏はこの変化を率直に表現する。「エージェンティックAIは、スピード、スケール、自律性という3つの根本的な点で、セキュリティの方程式を変える」
脆弱性そのものは新しいものではない。データ漏洩、権限昇格、安全でない統合は、いずれも見慣れたリスクである。変わったのは速度だ。エージェントは継続的に動作し、リアルタイムに適応し、他のエージェントと連携できる。これにより、エージェント同士の攻撃、これまで分離されていたシステム間の相互作用、ワークフローをまたいだ無許可の権限拡大といった事象の入り口が開く。
エージェンティックAIのセキュリティ企業Geordie AIの共同創業者兼チーフAIオフィサーであるハナ=マリー・ダーリー氏は、「最大の脅威は、暴走するAIではない。可視性の喪失だ」と主張する。組織はしばしば、誰がエージェントに作業を依頼したのか、エージェントが依頼をどう解釈したのか、完了のためにどのツールとデータを用いたのかを再構成できない。その一連の出来事がなければ、説明責任を確立することは難しくなる。
多くの企業向けセキュリティフレームワークは、重要な局面での人間の承認を前提としている。AIエージェントが関与する場合、その前提はもはや成り立たない。ソフトウェアが独立して意思決定するなら、責任はシステム設計、構成、監督へと上流に移る。ペレド氏の言葉を借りれば、「システムがやった」は、そのシステムが適切に拘束され、監視され、監査可能でなかったのであれば、受け入れられる答えではない。
エージェンティックなコードセキュリティ企業DryRun Securityの共同創業者兼CTOであるケン・ジョンソン氏は、核心的な緊張関係をこう要約する。「自律性に権限が加わると、コードリスクだけでなく行動リスクが生まれる」。AIエージェントは、人間が結果を熟考するよりも速く行動できる。
最良の実装は、意図的に権限を制約すると同氏は言う。たとえばコーディングエージェントは、コード変更の作成は許可しても、マージは許可しない。セキュリティエージェントは、変更がなぜ危険かを説明し、本番環境へのデプロイ前に人間の承認を求める。インシデント対応エージェントは状況を収集できるが、行動には承認が必要となる。
監督のないスケールは甚大なリスクをもたらす。「本番環境へのアクセス権を持ち、キルスイッチも監査証跡もない自律エージェントは、静かでシステミックなセキュリティ障害を引き起こし得る」とジョンソン氏は述べた。ソフトウェア開発環境では、同氏は「AIコーディングエージェントが最初は好調でも、コードベースが大きくなるにつれて徐々に劣化し、確立されたパターンから事実上逸脱し、標準に違反し、微妙だが危険な欠陥を持ち込む」事例を繰り返し見てきたという。大規模になると、コード変更は巨大化し、その進行も速いため、人間が異常に気づく前に変更が本番に入ってしまうことがある。
ペレド氏は悪夢のシナリオを「スケールした静かな自律性、すなわち、広範なアクセス権を持ち、明確なオーナーがなく、監査証跡が弱く、エスカレーション経路もないエージェントが、相互接続されたシステム全体で稼働している状態」と表現する。この環境では、失敗が静かに連鎖していく。「人間が気づく頃には、被害はすでに出ている」と同氏は付け加えた。
セキュリティリーダーは、エージェンティックシステムは初期段階から保護策を組み込んだ設計でなければならない、という点を一段と強調している。米サイバーセキュリティ・インフラストラクチャ安全保障庁(CISA)はテクノロジー提供者に対し、「 [セキュア・バイ・デザイン](https://www.cisa.gov/securebydesign) 」のアプローチを採用し、顧客のセキュリティを二次的な技術機能として扱うのではなく、中核的な事業要件として優先するよう促している。
インタビュー全体を通じて、エージェンティックシステムを責任ある形で配備するために不可欠な基盤的コントロールとして、いくつかが一貫して挙がった。
- エージェントが何をどこまで行えるかを定め、最小権限を徹底する明確な権限制限
- 意図、解釈、入力、実行を追跡する、不変で透明かつ分離された監査ログ
- リスク閾値を超えた際に人間へエスカレーションする明確なポイント
- ドリフトを検知し、何が起きたかだけでなく「なぜ」を示す行動の可観測性
キルスイッチについては専門家の見解が分かれる。ジョンソン氏は即時かつ全体停止を可能にするキルスイッチを推奨する一方で、ダーリー氏は慎重さを促す。「キルスイッチは安心感があるように聞こえる」と同氏は言うが、タスクの途中でエージェントを突然停止させることは、「途中でプロセスを断ち切ることで監査可能性が損なわれ、連鎖的障害を誘発する」ため、むしろリスクを増やしがちだという。その代わりに同氏は、システムプロンプトや、ユーザー・場所・シナリオに応じて権限付与が変わる文脈的ガバナンスを通じて、静的ルールではないガードレールを組み込むべきだと主張する。
多くのリーダーが、エージェンティックシステムを導入するか、どう導入するかに注目する一方で、より根本的な問いは運用上のオーナーシップである。説明責任とセキュリティには、明確なスチュワードシップ(責任主体)とガバナンスが必要だ。最初の配備を承認するリーダーは、制約のない(あるいは把握されていない)自律性が生む管理不能な露出を防ぐため、明確な定義と権限を求めるべきである。
ダーリー氏は「エージェントのスプロール(拡散)──SaaSに組み込まれたエージェント、カスタムコード、非技術部門が作成した市民開発エージェントが断片的に混在する状態」を警告する。セキュリティのためだけでなく、インパクトを最大化するためにも、統一された戦略的視点が必要である。
最終的に、エージェンティックAIの台頭は、技術的課題であると同時にガバナンスの課題でもある。リーダーは、どこでエスカレーションが発生するのか、誰に介入権限があるのか、意思決定がどうログ化されるのか、エージェントの行動が時間の経過とともにどう監視されるのかに答えられなければならない。こうした構造が整わなければ、組織は管理できる速度を上回って自律性を導入してしまうリスクを負う。
( [forbes.com 原文](https://www.forbes.com/sites/heatherwishartsmith/2026/03/07/agentic-ai-is-changing-the-security-model-for-enterprise-systems/) )
 
[](https://www.amazon.co.jp/Forbes-JAPAN-%E3%83%95%E3%82%A9%E3%83%BC%E3%83%96%E3%82%B9%E3%82%B8%E3%83%A3%E3%83%91%E3%83%B3-2026%E5%B9%B44%E6%9C%88%E5%8F%B7/dp/B0GJKCL2VY/ref=sr_1_6?crid=1KWCCUQXP30W3&dib=eyJ2IjoiMSJ9.PJv-fRHLm121ehbZzg-3l9P_bm9U7x25KUpxbT5em)
2026年4月号発売中
[最新号の購入はこちらから](https://www.amazon.co.jp/Forbes-JAPAN-%E3%83%95%E3%82%A9%E3%83%BC%E3%83%96%E3%82%B9%E3%82%B8%E3%83%A3%E3%83%91%E3%83%B3-2026%E5%B9%B44%E6%9C%88%E5%8F%B7/dp/B0GJKCL2VY/ref=sr_1_6?crid=1KWCCUQXP30W3&dib=eyJ2IjoiMSJ9.PJv-fRHLm121ehbZzg-3l9P_bm9U7x25KUpxbT5em) [定期購読のお申し込み](https://bit.ly/4bkPGe9)
[](https://www.amazon.co.jp/Forbes-JAPAN-%E3%83%95%E3%82%A9%E3%83%BC%E3%83%96%E3%82%B9%E3%82%B8%E3%83%A3%E3%83%91%E3%83%B3-2026%E5%B9%B44%E6%9C%88%E5%8F%B7/dp/B0GJKCL2VY/ref=sr_1_6?crid=1KWCCUQXP30W3&dib=eyJ2IjoiMSJ9.PJv-fRHLm121ehbZzg-3l9P_bm9U7x25KUpxbT5em)
2026年4月号発売中
[最新号の購入はこちらから](https://www.amazon.co.jp/Forbes-JAPAN-%E3%83%95%E3%82%A9%E3%83%BC%E3%83%96%E3%82%B9%E3%82%B8%E3%83%A3%E3%83%91%E3%83%B3-2026%E5%B9%B44%E6%9C%88%E5%8F%B7/dp/B0GJKCL2VY/ref=sr_1_6?crid=1KWCCUQXP30W3&dib=eyJ2IjoiMSJ9.PJv-fRHLm121ehbZzg-3l9P_bm9U7x25KUpxbT5em) [定期購読のお申し込み](https://bit.ly/4bkPGe9)
タグ:
FOLLOW US
Forbes JAPANの最新のニュースをお届けします
人気記事
- [

グーグル、35億人のChromeユーザーにゼロデイ警告──攻撃はすでに進行中
](https://forbesjapan.com/articles/detail/93724)
- [

イランの実権を握るのはモジタバ師ではない、負傷発表で露呈した「体制の内幕」
](https://forbesjapan.com/articles/detail/93640)
- [

中東危機でロシア産原油に買い手が殺到 欧米の制裁は崩壊するのか?
](https://forbesjapan.com/articles/detail/93639)
- [

世界に20人のみ、資産15兆円超えの富豪をまとめた「1000億ドルクラブ」2026年版
](https://forbesjapan.com/articles/detail/93604)
- [

白昼に見えるかもしれないMAPS彗星接近中──太陽に破壊される可能性も
](https://forbesjapan.com/articles/detail/93554)
保存