--- > [!NOTE] 目次 ```table-of-contents title: minLevel: 0 maxLevel: 0 includeLinks: true ``` --- > [!NOTE] リスト掲載用文字列 - [OECD エージェンティックAIの展望とその概念的基盤](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/03/post-fc5915.html)【まるちゃんの情報セキュリティ気まぐれ日記】(2026年03月09日) --- > [!NOTE] この記事の要約(箇条書き) - OECDが「エージェンティックAIの展望とその概念的基盤」と題する報告書を公表。 - 本報告書は、「AIエージェント」と「エージェンティックAI」の概念を明確化することを目的とする。 - AIエージェントは、特定の目標達成のために自律的に環境を認識・作用する単独のシステムを指す。 - エージェンティックAIは、複数の協調するAIエージェントで構成され、複雑な目標を長期にわたり自律的に追求するシステムである。 - エージェンティックAIは、タスクの分解・委任、高い自律性、複雑な環境への適応性、限定的な人間監視での運用を特徴とする。 - エージェンティックAIは単なる技術ツールではなく、社会技術的パラダイムとして社会的文脈に組み込まれたものと認識されている。 - 開発者の間でAIエージェントの採用が進む一方で、セキュリティ、プライバシー、精度に関する懸念も指摘されている。 > [!NOTE] 要約おわり --- [« 米国 トランプ大統領のアメリカのためのサイバー戦略 (2026.03.06)](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/03/post-2df69f.html) | [Main](http://maruyama-mitsuhiko.cocolog-nifty.com/security/) | [中国 SBOMの標準 GB/T 47020-2026 サイバーセキュリティ技術:ソフトウェア部品表データ形式 (2026.01.28) »](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/03/post-f25a19.html) ## 2026.03.08 ### OECD エージェンティックAIの展望とその概念的基盤 こんにちは、丸山満彦です。 OECDがエージェンティックAIの展望とその概念的基盤という報告書を公表していますね... (明確な定義があるわけではないが、)よく似ている言葉なので、Agentic AIとAI Agentを使い分けて使っていかないといけないということですね... 比較表を作るとこんな感じ? | | **AIエージェント** | **エージェンティックAI** | | --- | --- | --- | | | | | | **意訳すると** | **自律型AIエージェント** | **協調型AIシステム** | | **中核的概念** | | | | **定義** | 特定の目標を達成するために、必要に応じてツールを使用しながら、環境を認識・作用する一定の自律性を持つシステム。変化する入力や文脈に適応する。 | 複数の協調するAIエージェントで構成され、タスクを分解・委任し、長期間にわたって複雑な目標を自律的に追求するシステム。 | | **スコープ** | 単独・自己完結型のユニット | 複数エージェントのネットワーク/システム | | **用語の起源** | AI研究における数十年来の概念(ルールベースからLLM対応まで進化) | LLMベースのマルチエージェント・アーキテクチャを背景に2025年に急浮上 | | **主要な特徴** | | | | **目標・ゴール** | 目標指向;特定の明確なタスクを追求する | 複雑な目標を扱い、ゴールをサブタスクに分解して委任する | | **自律性** | 一定の自律性で動作;人間のチェックポイントが必要な場合もある | 高い自律性;逐次的な人間の監視への依存が低い | | **適応性** | 変化する入力や文脈に応じて行動を調整する | 環境の変化やタスクの部分的な失敗にリアルタイムで適応する | | **推論・推定** | 入力から出力を生成;計画能力が含意される | システムレベルの推論;LLMアーキテクチャ経由でエージェントを協調させる | | **出力** | 意思決定、行動、タスク実行 | より広範な領域・タスク種別にわたる複雑・多段階の出力 | | **環境** | 定義された物理的または仮想的環境内で動作する | オープンエンドで予測不可能な、より複雑な環境で動作する | | **時間軸** | 主に短期または単一セッションのタスク | 長期にわたる目標を追求;延長されたタイムフレームで動作 | | **アーキテクチャと技術** | | | | **構造** | 単一エージェントユニット(ツール/APIを使用することもある) | マルチエージェント・アーキテクチャ;オーケストレーター+専門エージェント | | **インタラクション** | 環境や人間ユーザーと対話する | エージェント同士、人間、AI、そして広範な環境と相互作用する | | **プロトコル** | 特定のプロトコルは定義されていない | 共有プロトコルに依存(例:MCP、Agent-to-Agent / A2Aプロトコル) | | **ツール使用** | タスク完了に必要に応じてツールを使用する | エージェントがツールを専門的に担当;ツール使用はシステム全体に分散 | | **社会的・政策的側面** | | | | **パラダイム** | 主として技術的構成物 | 社会技術的パラダイム——社会的文脈や制度に組み込まれた存在 | | **説明責任** | 単一エージェントへの帰属が比較的明確 | 複数エージェントに分散した説明責任;帰属が複雑 | | **透明性** | 行動の追跡が比較的容易 | マルチエージェントの創発的相互作用により説明が困難 | | **ガバナンス上の重要性** | 重要だが政策的スコープは比較的狭い | 安全性・整合性・労働・社会的影響など広範な政策的含意を持つ | | **普及と活用** | | | | **開発者による採用** | Stack Overflowの開発者の約50%がAIエージェントを使用中または使用予定(2025年) | GitHub上のエージェンティックAIフレームワーク関連リポジトリが920%増加(2023年初〜2025年半ば) | | **主な用途** | ソフトウェアエンジニアリング、データ分析、タスク自動化 | 複雑なクロスドメインワークフロー、研究、長期的計画策定 | | **主な懸念事項** | 個々のエージェント出力の精度・プライバシー・セキュリティ | 整合性、説明責任のギャップ、創発的行動、システミックリスク | | **直感的な例え** | | | | **例え** | 割り当てられたタスクをこなす熟練した個人の作業者 | 複雑なプロジェクトを自律的に管理する協調したプロジェクトチーム | **● OECD** ・2026.02.13 [**The agentic AI landscape and its conceptual foundations**](https://www.oecd.org/en/publications/the-agentic-ai-landscape-and-its-conceptual-foundations_396cf758-en.html) | **Abstract** | **要旨** | | --- | --- | | This paper identifies the most frequently cited features in existing definitions of agentic AI and AI agents, examines how these features are described across sources, and maps them to the key elements of the OECD definition of an AI system. By highlighting both shared traits and differences, the paper aims to support clearer conceptual understanding and inform future research and policymaking. It also provides descriptive data on recent trends in the uptake of AI agents and agentic AI. | 本稿は、既存のエージェンティックAIおよびAIエージェントの定義において最も頻繁に言及される特徴を識別し、これらの特徴が各情報源でどのように記述されているかを検証し、それらをOECDのAIシステム定義の主要要素に照合する。共通点と相違点の両方を明らかにすることで、本稿はより明確な概念的理解を支援し、将来の研究や政策立案に寄与することを目的とする。また、AIエージェントとエージェンティックAIの最近の普及動向に関する記述的データも提供する。 | 目次... | **Abstract** | **要約** | | --- | --- | | **Acknowledgements** | **謝辞** | | **Executive Summary** | **エグゼクティブサマリー** | | **1 Background** | **1 背景** | | **2 What is an AI system?** | **2 AIシステムとは何か?** | | 2.1. OECD definition of an AI system | 2.1. OECDによるAIシステムの定義 | | 2.2. Main elements of the OECD definition of an AI system | 2.2. OECDのAIシステム定義の主要要素 | | **3 What are AI agents and agentic AI?** | **3 AIエージェントとエージェンティックAIとは何か?** | | 3.1. AI Agents | 3.1. AIエージェント | | 3.2. Agentic AI | 3.2. エージェンティックAI | | 3.3. Key elements and distinct characteristics | 3.3. 主要要素と特徴 | | 3.4. Agentic AI as a socio-technical paradigm | 3.4. 社会的技術的パラダイムとしてのエージェンティックAI | | **4 Recent trends in the uptake of AI agents and agentic AI** | **4 AIエージェントとエージェンティックAIの導入における最近の動向** | | **5 Discussion** | **5 考察** | | **References** | **参考文献** | | **Executive summary** | **エグゼクティブサマリー** | | --- | --- | | AI agents and agentic AI are receiving growing attention as artificial intelligence (AI) systems based on large language models (LLMs) become more autonomous and capable of interacting with their environments. While related concepts have long been studied in academic research, recent advances introduce new capabilities that challenge existing conceptual boundaries and highlight the need for a clearer, shared understanding of what constitutes an “agentic” AI system. | 大規模言語モデル(LLM)に基づく人工知能(AI)システムが自律性を高め、環境との相互作用が可能になるにつれ、AIエージェントとエージェンティックAIへの注目が高まっている。関連概念は学術研究で長年研究されてきたが、近年の進歩は既存の概念的境界に挑戦する新たな能力をもたらし、「エージェント型」AIシステムを構成する要素についての明確で共有された理解の必要性を浮き彫りにしている。 | | This report contributes to that clarity by examining how the terms “AI agents” and “agentic AI” are defined and used across the literature. By analysing definitions of both terms and highlighting their key features and points of overlap and distinction, and relating them to the core elements of the OECD AI system definition, the report supports more precise and consistent use of terminology and establishes a basis for further analytical work. | 本報告書は、文献における「AIエージェント」と「エージェンティックAI」の定義と使用法を検証することで、この明確化に貢献する。両概念の定義を分析し、その主要な特徴、重複点、相違点を明らかにするとともに、OECDのAIシステム定義の中核要素との関連性を示すことで、用語のより正確かつ一貫した使用を支援し、さらなる分析作業の基盤を確立する。 | | The analysis finds that both concepts share foundational characteristics, including a degree of autonomy, goal-directed behaviour, and the ability to perceive and act within their physical or virtual environment. However, agentic AI places greater emphasis on co-ordination among multiple agents, task decomposition and delegation, sustained operation over time, and functioning in more complex and less predictable environments with limited human oversight. Based on the analysis, the report provides the following common understanding: | 分析の結果、両概念には基礎的な共通特性があることが判明した。具体的には、一定の自律性、目標指向的な行動、物理的または仮想環境を認識し行動する能力などである。しかし、エージェンティックAIは、複数のエージェント間の協調、タスクの分解と委譲、時間を超えた持続的な運用、そして人間の監視が限定的な、より複雑で予測困難な環境下での機能性に、より重点を置いている。この分析に基づき、本報告書は以下の共通認識を示す: | | • AI agents are systems that can perceive and act upon their environment with a degree of autonomy, using tools as needed to achieve specific goals and adapt to changing inputs and contexts. | • AIエージェントとは、特定の目標達成と変化する入力・状況への適応のために必要なツールを用い、一定の自律性をもって環境を認識し行動できるシステムである。 | | • Agentic AI generally refers to systems composed of multiple co-ordinated AI agents that can break down tasks, collaborate, and pursue complex objectives autonomously over extended periods. Agentic AI systems are designed to operate in more open-ended, less predictable physical or virtual environments and to function with minimal human supervision. | • エージェンティックAIとは、一般的に、タスクを分解し、協調し、長期間にわたり自律的に複雑な目標を追求できる複数の協調型AIエージェントで構成されるシステムを指す。エージェンティックAIシステムは、より開放的で予測困難な物理的または仮想環境において、最小限の人間監視で機能するよう設計されている。 | | Agentic AI systems are more than technical tools; they are increasingly regarded as systems embedded in social contexts and interactions, operating in a socio-technical paradigm. The value of agentic AI systems comes from their ability to act autonomously and interact with other agents – human, artificial, or institutional – through co-ordination and negotiation. Supporting these interactions requires advanced reasoning capabilities as well as robust infrastructure and communication protocols. This relational perspective is essential to designing agentic AI systems that can function responsibly and effectively in physical and virtual environments. | エージェンティックAIシステムは単なる技術的ツールを超え、社会技術的パラダイムにおいて、社会的文脈や相互作用に埋め込まれたシステムとして認識されつつある。その価値は、自律的に行動し、調整や交渉を通じて人間・人工・組織といった他のエージェントと相互作用する能力に由来する。 こうした相互作用を支えるには、高度な推論能力に加え、堅牢なインフラと通信プロトコルが必要だ。この関係性重視の視点は、物理的・仮想環境において責任を持って効果的に機能するエージェンティックAIシステムを設計する上で不可欠である。 | | Many developers have integrated AI agents into their toolkits, and survey data indicate that nearly half of Stack Overflow respondents are using them or plan to do so. However, adoption does not indicate full technological maturity: respondents still highlight opportunities to further strengthen security, privacy, and accuracy, underscoring the need for continued progress toward more trustworthy AI agents. | 多くの開発者がAIエージェントをツールキットに組み込んでおり、調査データによればStack Overflow回答者のほぼ半数が既に使用中か導入予定である。しかし採用が進んでいるからといって技術的成熟度が十分とは言えない。回答者は依然としてセキュリティ、プライバシー、精度のさらなる強化の必要性を指摘しており、より信頼性の高いAIエージェントに向けた継続的な進歩の必要性を強調している。 | | Overall, the report provides a descriptive overview of the agentic AI landscape, clarifying key concepts and characteristics and establishing a shared analytical foundation. Going forward, improved understanding of use cases and technical architectures can help identify where safeguards and standards are most needed. Further analytical work could build on this foundation by developing policy-relevant typologies based on features such as level of autonomy, adaptiveness, domain of operation, and system impact, as well as by improving empirical evidence on adoption and use across different contexts. | 全体として、本報告書はエージェンティックAIの現状を記述的に概観し、主要な概念と特性を明確化するとともに、共通の分析基盤を確立している。 今後、ユースケースと技術的アーキテクチャの理解を深めることで、安全対策や基準が最も必要な領域を特定できるだろう。さらなる分析作業では、自律性のレベル、適応性、 の運用領域、システムへの影響といった特徴に基づく政策関連分類体系の開発や、様々な状況における導入・利用の実証的証拠の改善を通じて、この基盤を構築できる可能性がある。 | ・\[[PDF](https://www.oecd.org/content/dam/oecd/en/publications/reports/2026/02/the-agentic-ai-landscape-and-its-conceptual-foundations_a9d4b451/396cf758-en.pdf)\] [![20260307-140916](https://maruyama-mitsuhiko.cocolog-nifty.com/security/images/20260307-140916.png "20260307-140916")](https://www.oecd.org/content/dam/oecd/en/publications/reports/2026/02/the-agentic-ai-landscape-and-its-conceptual-foundations_a9d4b451/396cf758-en.pdf) ・\[[DOCX](http://maruyama-mitsuhiko.cocolog-nifty.com/security/files/396cf758en20ja.docx)\]\[[PDF](http://maruyama-mitsuhiko.cocolog-nifty.com/security/files/396cf758en20ja.pdf)\] 仮訳 | [Permalink](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/03/post-fc5915.html) [« 米国 トランプ大統領のアメリカのためのサイバー戦略 (2026.03.06)](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/03/post-2df69f.html) | [Main](http://maruyama-mitsuhiko.cocolog-nifty.com/security/) | [中国 SBOMの標準 GB/T 47020-2026 サイバーセキュリティ技術:ソフトウェア部品表データ形式 (2026.01.28) »](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/03/post-f25a19.html) [« 米国 トランプ大統領のアメリカのためのサイバー戦略 (2026.03.06)](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/03/post-2df69f.html) | [Main](http://maruyama-mitsuhiko.cocolog-nifty.com/security/) | [中国 SBOMの標準 GB/T 47020-2026 サイバーセキュリティ技術:ソフトウェア部品表データ形式 (2026.01.28) »](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/03/post-f25a19.html)