--- > [!NOTE] 目次 ```table-of-contents title: minLevel: 0 maxLevel: 0 includeLinks: true ``` --- > [!NOTE] リスト掲載用文字列 - [CSET AIがAIを構築するとき - AI研究開発の自動化に関するワークショップの知見](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/01/post-c4262b.html)【まるちゃんの情報セキュリティ気まぐれ日記】(2026年01月31日) --- > [!NOTE] この記事の要約(箇条書き) - CSETのAI研究開発自動化に関するワークショップ報告書(2026年1月)を丸山満彦氏が解説。 - **主要な懸念:** AIによるAI開発の自動化が進むと、人間がAIの出力に関与し続けることが物理的に困難になり、「知能爆発」や極度のリスクをもたらす可能性。 - **現状と展望:** 最先端AI企業は既にAIを研究開発に活用しており、OpenAIは2028年までに「真の自動AI研究者」の構築を目指している。 - AIは現在、研究科学者(仮説生成、実験設計)と研究エンジニア(コーディング、データセット構築)の役割を補完・代替中。 - **専門家の見解:** AIの進歩が加速するか停滞するかについては意見が分かれており、将来予測は困難。 - **推奨される行動:** AI研究開発の進捗を測定・予測するためのより良い指標の体系的な収集と、慎重に設計された透明性向上の取り組みが不可欠。 - **注視すべき指標:** 長期タスクの自律的遂行能力、AI自身による新しいアルゴリズムや最適化手法の発見能力、AIのアルゴリズム改善による計算資源効率の大幅な削減など。 - **将来の進展モデル:** 生産性倍増モデル(爆発的拡大、早期停滞)、アムダールの法則モデル、パイ拡大モデルの4タイプが提示されている。 > [!NOTE] 要約おわり --- [« 英国 NAO 監査の知見:2024-25年度NAO財務監査からの教訓と発見 (2026.01.26)](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/01/post-8ceeda.html) | [Main](http://maruyama-mitsuhiko.cocolog-nifty.com/security/) | [欧州 ETSI EN 304 223 V2.1.1 (2025-12) 人工知能のセキュリティ確保 (SAI); AIモデル及びシステムに対する基本サイバーセキュリティ要件 (2026.01.15) »](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/01/post-43f296.html) ## 2026.01.31 ### CSET AIがAIを構築するとき - AI研究開発の自動化に関するワークショップの知見 (2026.01) こんにちは、丸山満彦です。 AIがAIを開発するようになったとき、AIの出力に対して人間が関与するというプロセスはどこまで機能するのか? AIによるAI開発の自動化は、2028年の実現を目指している企業もあり、近い将来の実務上の課題となっていますよね。。。である。技術の進歩が人間の制御を離れないよう、ガバナンスと安全性の議論を並行して進める必要があるということなのでしょうが... AIを利用している人はすでに気づいていると思うが、AIの出力に人間が関与しつづけるのは物理的に無理がありそうですね。人間が関与しきれていないAIの結果が溢れる時、人間の社会はどこまで事実に基づいた判断、行動ができるのか? 中国では、AIが出力したものにはマークをつけることになっているが、国外からもAIに生成された結果はどんどん入ってくるだろうしね。。。 今は、人間が意識して作ったものの中に人間が関与していないAI生成物がすこーし混じっているくらいだが、その比率が完全に逆転してしまったら... いろいろと考えることはありそうですね... ● [**Center for Security and Emerging Technology: CSET**](https://cset.georgetown.edu/) ・2026.01 [**When AI Builds AI - Findings From a Workshop on Automation of AI R&D**](https://cset.georgetown.edu/publication/when-ai-builds-ai/?utm_source=Center+for+Security+and+Emerging+Technology&utm_campaign=8947644a9f-China%E2%80%99s+Embodied+AI_COPY_01&utm_medium=email&utm_term=0_fcbacf8c3e-8947644a9f-446690759) | **Executive Summary** | **エグゼクティブサマリー** | | --- | --- | | For decades, scientists have speculated about the possibility of machines that can improve themselves. Today, artificial intelligence (AI) systems are increasingly integral parts of the research pipeline at leading AI companies. Some observers see this as evidence that fully automated AI research and development (R&D) is on the way, potentially leading to a rapid acceleration of AI capabilities and impaired ability for humans to understand and control AI. Others see the use of AI for research as a mundane extension of existing software tools. | 何十年もの間、科学者たちは自らを改善できる機械の可能性について推測してきた。今日、人工知能(AI)システムは、主要なAI企業における研究プロセスの不可欠な要素となりつつある。一部の観察者は、これを完全自動化されたAI研究開発(R&D)が目前に迫っている証拠と見なし、AI能力の急速な加速と、人間がAIを理解し制御する能力の低下につながる可能性があると指摘する。 一方で、研究におけるAIの活用を既存ソフトウェアツールの平凡な拡張と見る者もいる。 | | This Workshop Report shares findings and conclusions from an expert workshop CSET hosted in July 2025. The workshop covered a range of issues related to automation of AI R&D. In this report, ‘AI R&D’ refers to scientific and engineering work that improves the capabilities of AI systems and ‘AI R&D automation’ refers broadly to any use of AI that accelerates progress in AI R&D. | 本ワークショップ報告書は、CSETが2025年7月に主催した専門家ワークショップの知見と結論を共有するものである。ワークショップではAI R&Dの自動化に関連する多様な課題が議論された。本報告書において「AI R&D」とはAIシステムの能力向上を図る科学技術的作業を指し、「AI R&D自動化」とはAI R&Dの進展を加速させるあらゆるAIの活用を広く意味する。 | | Key takeaways from the workshop were as follows: | ワークショップの主な要点は以下の通りである: | | 1\. Increasingly automated AI R&D is a potential source of major strategic surprise. While experts disagree on likelihood, scenarios are possible in which AI R&D becomes highly automated, the pace of AI R&D accelerates dramatically, and the resulting systems pose extreme risks. This warrants preparatory action now. | 1\. AI研究開発の自動化が進むことは、重大な戦略的サプライズの潜在的な要因である。専門家はその可能性について意見が分かれるものの、AI研究開発が高度に自動化され、そのペースが劇的に加速し、その結果として生み出されるシステムが極度のリスクをもたらすシナリオはあり得る。これは今、準備的な行動を取ることを正当化する。 | | 2\. Frontier AI companies are already using AI to accelerate AI R&D, and usage is increasing as AI models get more advanced. New models are often used internally to advance AI R&D before they are released to the public. | 2\. 最先端のAI企業は既にAIを活用してAI研究開発を加速させており、AIモデルの高度化に伴いその利用は増加している。新モデルは一般公開前に、内部でAI研究開発を推進するために使用されることが多い。 | | 3\. Experts’ views differ on how rapid and impactful AI R&D automation is likely to be. Even if the use of AI in AI R&D continues to increase, there is no consensus on whether AI progress is more likely to accelerate or plateau. What’s more, because different views are associated with different assumptions about how AI R&D works, new data on how AI R&D automation is progressing in practice may be insufficient to resolve conflicting perspectives. It thus may be difficult to either detect or rule out extreme ‘intelligence explosion’ scenarios in advance. | 3\. AI研究開発の自動化がどれほど急速かつ影響力を持つかについて、専門家の見解は分かれている。AI研究開発におけるAIの活用が今後も増加するとしても、AIの進歩が加速するか、それとも頭打ちになるかについては合意が得られていない。 さらに、異なる見解はAI研究開発の仕組みに関する異なる仮定に基づいているため、AI研究開発自動化の進捗状況に関する新たな実データだけでは、相反する見解を解決するには不十分かもしれない。したがって、極端な「知能爆発」シナリオを事前に検知したり排除したりすることは困難かもしれない。 | | 4\. Despite challenges in interpreting new evidence, better access to indicators of progress in AI R&D automation would be valuable. Existing empirical evidence, including existing benchmark evaluations, is insufficient for measuring, understanding, and forecasting the trajectory of automated AI R&D. More systematic collection of existing indicators—as well as developing ways of gathering new indicators—could provide a significantly clearer picture. | 4\. 新たな証拠の解釈には課題があるものの、AI研究開発の自動化進捗を示す指標へのアクセス向上は価値がある。既存の実証的 証拠(既存のベンチマーク評価を含む)は、自動化されたAI研究開発の軌跡を測定・理解・予測するには不十分だ。既存指標の体系的な収集と新たな指標収集手法の開発により、状況は大幅に明確化されるだろう。 | | 5\. Thoughtfully designed transparency efforts could improve access to valuable empirical information about AI R&D automation, which at present is almost fully dependent on patchy, voluntary releases of information from companies. While some early transparency mandates on frontier AI development have recently been enacted, they do not focus on indicators of progress in AI R&D automation. Policymakers have a range of options for how to increase visibility of these indicators. | 5\. 慎重に設計された透明性向上策は、AI研究開発の自動化に関する貴重な実証情報へのアクセスを改善し得る。現状では、こうした情報はほぼ完全に、企業による断片的で任意の情報開示に依存している。最先端AI開発に関する初期の透明性義務化措置が最近導入されたものの、AI研究開発自動化の進捗指標には焦点を当てていない。政策立案者は、これらの指標の可視性を高めるために様々な選択肢を有している。 | | The full report elaborates on these takeaways, including providing examples of how frontier AI companies are using AI for R&D, delving into experts’ differing views and assumptions, suggesting priority indicators to track, and laying out policy options and implications. | 本報告書では、これらの要点を詳細に解説している。具体的には、最先端AI企業がAIを研究開発に活用する事例の提供、専門家の異なる見解や前提条件の掘り下げ、追跡すべき優先指標の提案、政策オプションと示唆の提示などである。 | ・\[[PDF](https://cset.georgetown.edu/wp-content/uploads/CSET-When-AI-Builds-AI.pdf)\] [![20260130-70630](https://maruyama-mitsuhiko.cocolog-nifty.com/security/images/20260130-70630.png "20260130-70630")](https://cset.georgetown.edu/wp-content/uploads/CSET-When-AI-Builds-AI.pdf) ・\[[DOCX](http://maruyama-mitsuhiko.cocolog-nifty.com/security/files/csetwhenaibuildsai20ja.docx)\]\[[PDF](http://maruyama-mitsuhiko.cocolog-nifty.com/security/files/csetwhenaibuildsai20ja.pdf)\] 仮訳 | [Permalink](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/01/post-c4262b.html) [« 英国 NAO 監査の知見:2024-25年度NAO財務監査からの教訓と発見 (2026.01.26)](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/01/post-8ceeda.html) | [Main](http://maruyama-mitsuhiko.cocolog-nifty.com/security/) | [欧州 ETSI EN 304 223 V2.1.1 (2025-12) 人工知能のセキュリティ確保 (SAI); AIモデル及びシステムに対する基本サイバーセキュリティ要件 (2026.01.15) »](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/01/post-43f296.html) [« 英国 NAO 監査の知見:2024-25年度NAO財務監査からの教訓と発見 (2026.01.26)](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/01/post-8ceeda.html) | [Main](http://maruyama-mitsuhiko.cocolog-nifty.com/security/) | [欧州 ETSI EN 304 223 V2.1.1 (2025-12) 人工知能のセキュリティ確保 (SAI); AIモデル及びシステムに対する基本サイバーセキュリティ要件 (2026.01.15) »](http://maruyama-mitsuhiko.cocolog-nifty.com/security/2026/01/post-43f296.html)