--- > [!NOTE] 目次 ```table-of-contents title: minLevel: 0 maxLevel: 0 includeLinks: true ``` --- > [!NOTE] リスト掲載用文字列 - [リスクか、保護か--AIでも必須になる5つのセキュリティ対策ポイント](https://japan.zdnet.com/article/35244907/)【ZDNET JAPAN】(2026年03月13日) --- > [!NOTE] この記事の要約(箇条書き) - AI時代のセキュリティ確保のため、チーム内でのセキュリティ知見の共有が重要です。 - セキュリティ・バイ・デザインなどの基本的な慣行に立ち返り、AIを既存のフレームワークに統合すべきです。 - AIを目的ではなく「補助手段」と捉え、データ管理とガバナンスを通じて安全に活用するべきです。 - AIの安全性に関する責任はエンドユーザーに課せられる傾向があるため、そのリスクを認識することが不可欠です。 - AIを開発プロセスに取り込み、新しいコードのセキュリティリスクや論理的な不備を人間以上にチェックさせるべきです。 > [!NOTE] 要約おわり --- - [ZDNET Japan](https://japan.zdnet.com/) - [セキュリティ](https://japan.zdnet.com/security/) - - [noteで書く](https://note.mu/intent/post?url=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35244907%2F&ref=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35244907%2F&hashtags=ZDNET) - - 印刷する - - メールで送る - テキスト - HTML - 電子書籍 - PDF - - ダウンロード - テキスト - 電子書籍 - PDF - - クリップした記事をMyページから読むことができます  専門家は、組織を新たな脅威にさらしたくないと考える一方で、AIを導入して競争優位性を築こうとする他社に遅れを取るリスクも認識している。この困難な難題に対し、どのように向き合うべきか。5人のビジネスリーダーが、AI時代に強固なセキュリティを確保するための5つの手法を提示した。 ## 1\. セキュリティの知見を共有する  保険仲介グループのHowdenでグループ最高データ責任者を務めるBarry Panayi氏は、自組織で働く大きな利点として、多くの職員がAIに伴うサイバーリスクを熟知している点を挙げた。  同社はサイバー保険を提供しており、技術担当者やデータ、AIの専門家だけでなく、この領域を理解する人材が豊富だという。AIを安全かつ確実に導入する責任を負うPanayi氏は、あらゆる組織の専門職に対し、自身の役割においてセキュリティに関する知識を深めるよう促している。  AIのサイバーセキュリティは多面的であるため、今後はチーム間で知識を共有し、役割を入れ替えることで、より強力なアプローチを生み出す新しい職責が登場すると同氏は予測する。  優れたセキュリティ専門家はAIチームと対話し、逆にAIチームは情報セキュリティの専門家と協議して、システムをより安全にする過程でプロセスが妨げにならないよう努めている。 ## 2\. セキュリティの基本に立ち返る  リコー欧州現地法人のリコー・ヨーロッパで最高情報責任者(CIO)を務めるNick Pearson氏は、AI時代のサイバーセキュリティ管理には多角的なアプローチが必要であり、日々新たな側面が見つかると指摘する。  Pearson氏は、新興技術に関連する脅威の幅広さに圧倒される専門職もいるだろうと述べつつ、同社の最高情報セキュリティ責任者(CISO)らとの対話を通じ、AIによる脅威を文脈の中で捉える重要性を強調した。  優れたセキュリティとは、依然としてセキュリティ・バイ・デザインによる安全の確保や標準化、分析、チェックとバランスをとるチームといった、適切な慣行という基本に立ち返るものだとする。  同氏は、データを効果的に管理・統治することを推奨し、“車輪の再発明”ではなく、既存のフレームワークにAIを組み込む方法を見つけるべきだと説く。そうしなければ、同社で15年間にわたり運用されてきたデータ漏えい対策などの優れた慣行から、AIだけが切り離されてしまう恐れがある。 ## 3\. 支援の力を認識する  英郵便事業のRoyal Mailでサイバーポートフォリオおよびアーキテクチャー担当ディレクターを務めるMartin Hardy氏は、同社のサイバーアプローチにおける不可欠な要素として、社内のAIガバナンスフォーラムを挙げた。  同社では、AIの利用を禁止してはいないものの、アプリケーションにAIを組み込む際には一定のガバナンスを確保している。成功の鍵は、自社のデータがどこにあり、どのようなデータがAIソリューションに投入されているか、そして、そのソリューションに何をさせているかを把握することにある。  Hardy氏は、新興技術の潜在的な力を過小評価すべきではないとしつつ、専門家はAIを目的そのものではなく、ツールとして見るべきだと強調した。  AIを効果的かつ安全に活用するには、データを管理し、潜在的なユースケースを解読することが重要だ。「AIを使用して失敗する例は今後も出てくるだろうが、成功するためには、AIを『答え』ではなく『補助手段』と捉える意識改革が必要」と述べる。 [PAGE 2](https://japan.zdnet.com/article/35244907/p/2/) ## 4\. 「信号無視」のような危険性を説く  Gartnerのディスティングイッシュトバイスプレジデント アナリスト 最高予測責任者のJohn-David Lovelock氏は、デジタルリーダーやビジネス専門職に対し、2026年にかけてAIへの投資を行う際は、サイバー脅威を考慮すべきだと述べている。  Lovelock氏は、組織がまだ測定・定義・認定可能なAIの安全性を享受できていないことが大きな問題だと指摘する。つまり、プロバイダーの多くがエンドユーザーのセキュリティ要件を満たせない可能性が高い。  同氏はAIの現状を、「シートベルトの有無や、時速25マイルでの衝突への耐性が不明な状態」と例えた。さらに、1920年代に自動車業界がロビー活動を通じて「ジェイウォーキング」(無秩序な道路横断などの危険行為)を法規制化した歴史に言及し、現在のAIの安全性を取り巻く状況をこれに重ね合わせた。  かつては交通弱者として被害者の立場にあった歩行者だが、その歩行者による不注意で事故が起きれば逆に責任を問われるようになったように、現在のベンダー契約は、AIの安全性に関する責任をテクノロジープロバイダーではなくエンドユーザーに負わせる傾向にある。  専門職は、この現実を認識し、受け入れることが極めて重要だ。 ## 5\. プロセスにAIを取り込む  全米プロ・ロデオカウボーイ協会(PRCA)の最高技術責任者(CTO)を務めるJeff Love氏は、100年近い歴史を持つ同組織が、AIを用いて困難なレガシーITの課題を克服した事例を明かした。  ここでは、生成AIモデルが古いコードを解析できなかった際、Love氏はビジネスロジックを分析して平易な英語に翻訳するエージェント型プラットフォーム「Zencoder」を活用した。この新興技術を取り入れたことで、同氏のチームは、AIをプロセスの一部として活用し、セキュリティの問題を未然に防げるようになったという。  Love氏は、他の専門職にも同様の機会を探るよう勧めている。新しいコードをリリースする際は、人間よりも全体像を把握できるAIにセキュリティリスクや論理的な不備をチェックさせることで、見落としがちな問題を指摘させることが可能になる。  「今日の社会において、セキュリティリスクへの懸念は不可欠であり、AIはより良いコードを作成するための強力な監視役となるだろう」(Love氏) ![提供:Andriy Onufriyenko/Getty Images](https://japan.zdnet.com/storage/2026/03/12/cceb6c08bda0f1a99c4404f8ace0164f/gettyimages-1442132626.jpg) 提供:Andriy Onufriyenko/Getty Images この記事は海外Ziff Davis発の [記事](https://www.zdnet.com/article/5-ways-to-ensure-great-security-in-an-age-of-ai/) を4Xが日本向けに編集したものです。