--- > [!NOTE] 目次 ```table-of-contents title: minLevel: 0 maxLevel: 0 includeLinks: true ``` --- > [!NOTE] リスト掲載用文字列 - [職場にあふれる生成AIツールと「シャドーAI」の実態](https://japan.zdnet.com/article/35238144/)【ZDNET JAPAN】(2025年09月29日) --- > [!NOTE] この記事の要約(箇条書き) - **シャドーAIの蔓延**: ChatGPTなどの生成AIツールが業務に浸透し、従業員がIT部門の承認なく個人AIサービスを利用する「シャドーAI」が常態化。情報漏えいやコンプライアンス違反のリスクを伴う(例: Samsungの機密情報漏えい)。 - **AIサプライチェーンリスク**: シャドーAIにより、AI開発・運用に使われる外部リソース(オープンソースAIモデル、ライブラリなど)が意図せず企業内に持ち込まれ、従来の管理体制では見えない新たな盲点となる。AIモデル内の脆弱性やバックドア(Hugging Faceで発見された疑わしいコード)、関連ツール群の脆弱性(コーディング支援ツールのリモートコード実行脆弱性)が具体的な脅威。 - **自律型エージェントAIの危険性**: Auto-GPTなどのエージェントAIは自律的な判断で外部プログラム実行や社内システム連携が可能であり、悪用されると企業ネットワークへの侵入口が拡大する恐れがある。2028年までにサイバー侵害の25%がAIエージェントに起因するとの予測も。 - **ガバナンスのギャップ**: これらのAI関連リスクは従来のITガバナンスでは捉えきれず、AIモデルのブラックボックス化も課題。リアルタイムモニタリング、AI挙動検知、サプライチェーン全体の可視化といった新機軸と、経営層を含む組織全体の戦略的対応が不可欠。 > [!NOTE] 要約おわり --- - - [noteで書く](https://note.mu/intent/post?url=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35238144%2F&ref=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35238144%2F&hashtags=ZDNET) - - 印刷する - - メールで送る - テキスト - HTML - 電子書籍 - PDF - - ダウンロード - テキスト - 電子書籍 - PDF - - クリップした記事をMyページから読むことができます  「ChatGPT」をはじめとする生成AIツールが業務の現場で急速に浸透し、従業員が仕事の合間に生成AIツールに質問をしたり、文章の要約やコード作成をAIに任せたりする光景は、もはや珍しいものではありません。実際、AIユーザーの78%が自分のAIツールを職場に持ち込んでいるという [調査結果](https://news.microsoft.com/ja-jp/2024/05/09/240509-microsoft-and-linkedin-release-the-2024-work-trend-index-on-the-state-of-ai-at-work/) もあります。  いわゆる「シャドーAI」とも呼ばれるこの現象は、IT部門の承認や監督を受けずに従業員が個人利用のAIサービスを業務に使うことを指しているわけですが、以前から聞かれる「シャドーIT」と同様に、利便性から広がる一方で、情報漏えいやコンプライアンス違反といったリスクが指摘されています。  企業にとってこうしたシャドーAIの存在は、もはや無視できないリスクの一つとなりつつあります。従業員が生成AIを活用することで業務効率を飛躍的に向上できる一方、企業としてコントロールすることができないAIツールが持ち込まれるという構図を生み出しているためです。実際、社外秘データの扱いには細心の注意が必要で、2023年には世界最大級のエレクトロニクスメーカーの社員が機密情報を生成AIツールに入力してしまい、その情報が外部に漏えいする [事故](https://techcrunch.com/2023/05/02/samsung-bans-use-of-generative-ai-tools-like-chatgpt-after-april-internal-data-leak/) が発生しています。  これを受けて同社は、生成AIの社内使用を一時禁止する措置を取りましたが、このケースでの興味深い点は、企業側が生成AIツールの使用を [正式に許可](https://economist.co.kr/article/view/ecn202303300057?s=31) した後に、情報漏えいが起こったということです。つまり、シャドーAIは、悪意を持った誰かによって引き起こされているわけではなく、多くの場合は「業務を早く片付けたい」「便利だから使いたい」という善意の結果によって、そして、今回のケースであれば会社から正式に認められていたのに情報漏えいが発生しています。  もちろん筆者は、全ての生成AIツールが危険だと盲目的に警鐘を鳴らしたいわけではありません。しかし、その利用の裏側では、会社の重要データが知らぬ間に外部のクラウドに蓄積されていたり、規制違反となる情報の扱いが発生したりするという問題が発生しているケースがあります。 [PAGE 2](https://japan.zdnet.com/article/35238144/2/) ## 「AIサプライチェーンリスク」という新たな盲点  そして、シャドーAIのまん延が浮き彫りにしたのが、「AIサプライチェーンリスク」と呼ばれる新たなリスクです。  「AIサプライチェーン」とは、何でしょうか。これは、AIそのものの開発や運用に利用されるあらゆる外部リソース(インターネット上の公開データ、オープンソースの大規模言語モデル[LLM]、AI用のソフトウェアライブラリーなど)を指しています。そして、本来であれば持ち込む意図のなかった外部リソースがAIの活用によって意図せず企業内部に持ち込まれることとなり、従来の管理体制では見えにくい新たな盲点が生まれてきています。  ここで、夏休み明けの職場を思い浮かべてください。あなたには、アレルギーなどの理由で避けなくてはならない食材Xがあったとします。単に嫌いなだけでも構いません。ある日、遅い夏休みで旅行に行った同僚が、お土産としてお菓子Aを差し入れてくれました。ところが、このお菓子Aの製造ラインの隣ではXを用いたお菓子Bが製造されており、製造過程で微量のXがお菓子Aに混入してしまうケースがあります。この場合、食材Xはお菓子Aの原材料一覧に表記されるのでしょうか。また、同僚はあなたに深刻な症状が出ることを期待しているのでしょうか。もちろん、これはアレルギー物質での例え話ですから、食材Xが混入する可能性については、注意書きが記されているはずです。それではAIサプライチェーンではどうなのでしょうか。  このような本来の意図とは裏腹に、持ち込まれてしまうリスクこそが、AIサプライチェーンリスクです。具体的にどのような脅威があるのか見ていきましょう。  まず、昨今話題となることが多いものの一つが、AIモデルや関連ソフトウェアのサプライチェーンそのものに潜む脆弱(ぜいじゃく)性です。近年、多くの企業がオープンソースのAIモデルやサードパーティー製のAIサービスなどを活用するようになりましたが、これらの外部に由来するモデルやツールには、表面からは分からない不備や「仕掛け」が紛れ込んでいる可能性もあります。例えば、2025年に行われたある調査では、オープンソースAIモデルの世界的なリポジトリーとして知られる「Hugging Face」上に公開されていたモデルの中に、約100件もの“疑わしいコード”が埋め込まれたモデルが見つかったことが [報告されています](https://jfrog.com/blog/data-scientists-targeted-by-malicious-hugging-face-ml-models-with-silent-backdoor/) 。  AIモデルに不正なコードやバックドア(裏口)が仕込まれている場合、一見すると検知が難く、通常のウイルススキャンやソースコードレビューでは見逃されてしまうことも多く、厄介な存在です。実際AIモデルへの不正な改変によるバックドアは、近年注目されている新たなサイバー攻撃手法の一つとなっており、AIモデルの学習段階や配布過程に細工することで、特定のトリガー入力に反応して悪意のある振る舞いをするように仕組まれています。そして、これを見つけるのが難しいのは、“平常時には正常に見えてしまう”からです。  さらに、AIサプライチェーンリスクは、AIモデルそのものだけにとどまりません。AIを支える周辺のライブラリやツール群にも脅威は存在しています。 2025年に発覚したケースでは、AIを搭載した人気のコーディング支援ツールに、リモートで不正コードを実行できてしまう [深刻な脆弱性](https://research.checkpoint.com/2025/cursor-vulnerability-mcpoison/) が見つかりました。この問題は開発環境とAI機能をつなぐ信頼モデルの穴を突くものであり、このAIが組み込まれたソフトウェア開発基盤全体に、セキュリティ上の弱点が潜み得ることを示しています。従来は安全だと信頼していたツールチェーンにも、AI導入に伴って新たなリスク評価が必要となってきています。 [PAGE 3](https://japan.zdnet.com/article/35238144/3/) ## 自律型エージェントAIがもたらす攻撃範囲の拡大  最後に、シャドーAIとAIサプライチェーンリスクに拍車をかける存在として、自律型のエージェントAIにも触れておかなくてはなりません。  「Auto-GPT」などのエージェントAIは、人による指示を待つことなく自律的にタスクをこなしたり、インターネットやほかのシステムにアクセスして動作を最適化したりする能力を持っており、非常に便利です。その利便性から業務への応用も期待されており、実際に導入や導入検討を行う企業も増えてきました。  エージェントAIは自律的な判断によって、外部のプログラムをダウンロードして実行したり、社内の他システムと連携したりすることもできるのです。では、もしその判断ロジックが攻撃者に悪用されていたとしたらどうでしょうか。企業ネットワーク内で、エージェントAIが勝手に侵入口を増やしてしまう恐れもあります。  実際、2028年までに企業におけるサイバー侵害の25%がAIエージェントの悪用に起因するといった [予測](https://www.cio.com/article/4024106/autonomous-ai-agents-autonomous-security-risk.html) や、近い将来AIエージェントを駆使したサイバー攻撃が現実に起こるといった著名なセキュリティ専門家による [警告](https://www.axios.com/newsletters/axios-future-of-cybersecurity-d6c19ee0-2c29-11f0-b6fc-b3f6e777113e.html) もあり、サイバーセキュリティ業界では、エージェントAIの台頭に警戒感を強めています。  これはなにも闇雲に不安をあおる話ではありません。既に一部では、AIチャットボットが誤った判断で顧客対応を混乱させたことにより [裁判所で争われるところまで発展したケース](https://www.canlii.org/en/bc/bccrt/doc/2024/2024bccrt149/2024bccrt149.html) や、AIアシスタントが人間の指示を逸脱した挙動を見せたケースも報告されており、AIが人間のスピードを超えた失策を犯す可能性に、経営層も備えを迫られているのが現状です。 [PAGE 4](https://japan.zdnet.com/article/35238144/4/) ## 既存のガバナンスとのギャップと求められる視点  こうしたシャドーAIやAIサプライチェーン上のリスクは、従来のチェックリスト型のリスク管理や、ITガバナンスでは捉えきれない厄介な性質を持っています。  社内で正式に許可したIT資産であれば、台帳管理やセキュリティの審査が行き届きますが、影で動くAIツールや意図せずして持ち込まれた外部AIリソースは、管理の網から漏れてしまいがちです。その上、AIモデル自体がブラックボックス化しており、中で何が行われているか可視化しにくいという問題もあります。  結果として、企業は自社のネットワーク内でどのようなAIが動いているのかを把握し切れず、たとえ問題が起きたとしても、原因を追跡できないといったリスクに直面することになります。まざに、このギャップこそが現在多くの組織における現実の課題です。  では、企業のIT部門はこの新たな脅威に対し、どのように備えていくべきなのでしょうか。幸いにも、世界では少しずつ解決に向けた動きも始まっています。欧州連合(EU)は、AI開発・利用の安全性や透明性を確保するための包括的な規制案(AI法案)を2024年8月1日に発効させており、段階的適用が進行中です。米国でも国立標準技術研究所(NIST)が「AIリスクマネジメントフレームワーク(AI RMF)」を策定するなど、AI時代に即したガバナンスの枠組み作りが進められています。  詳細は次回以降で取り上げていきますが、重要なことは、単にチェックリストを増やすことではなく、リアルタイムなモニタリングやAIの挙動検知、サプライチェーン全体の可視化といった新機軸を取り入れる発想です。従来の延長線上にない対策が求められる点で、サイバーセキュリティ担当者のみならず経営層も含めた組織全体の戦略的対応が不可欠でしょう。  シャドーAIとAIサプライチェーンリスクが露わにしたこの新たな課題に対し、今こそIT部門が主体的に動き出す時期に来ています。次回は、現行のガバナンス体制が直面する問題点をさらに掘り下げ、この見えないリスクにどのように向き合うべきかを検討していきます。引き続き、最新動向と具体策を交えながら、AI時代のサイバーセキュリティ戦略を皆さんと考えていきたいと思います。 ![](https://japan.zdnet.com/storage/2025/09/18/b3ece9014ac48a3df76f5d6dc7c374ec/aplio-mr-adachi.jpg) **足立照嘉** APRIO TECHNOLOGIES CEO、University College London客員研究員) 20年以上にわたりサイバーセキュリティ企業を経営し、米国ユニコーン企業への投資や英国政府の政策立案アドバイザーを務めた実績を持つ。2021年にAPRIO TECHNOLOGIESをロンドンで創業し、金融をはじめ重要インフラ向けにサイバーリスク・デューデリジェンスやサプライチェーンリスク管理を提供。現在はAIによる「サイバー予見」技術開発にも取り組んでいる。 - - [noteで書く](https://note.mu/intent/post?url=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35238144%2F&ref=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35238144%2F&hashtags=ZDNET) ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。 ITビジネス全般については、 [CNET Japan](https://japan.cnet.com/) をご覧ください。