---
> [!NOTE] 目次
```table-of-contents
title:
minLevel: 0
maxLevel: 0
includeLinks: true
```
---
> [!NOTE] リスト掲載用文字列
- [「OpenClaw」とはどんなものなのか--「実際に仕事をするAI」の可能性と懸念](https://japan.zdnet.com/article/35243484/)【ZDNET JAPAN】(2026年02月05日)
---
> [!NOTE] この記事の要約(箇条書き)
- AIアシスタント「Clawdbot」は、「Moltbot」を経て最終的に「OpenClaw」に名称を変更したオープンソースプロジェクトである。
- 開発者Peter Steinberger氏により立ち上げられ、自律性に重点を置き、パーソナライズされたAIの日常生活への統合を目指す。
- AnthropicのClaudeやChatGPTなど複数のAIモデルを利用し、iMessageなどのメッセージングアプリを通じてユーザーとコミュニケーションする。
- スキル(プラグイン)を介してDiscordやカレンダーなどと連携し、ユーザーに代わってアクションを実行するため、広範なシステム権限が必要となる。
- GitHubで14万8000以上のスターを獲得する一方、プロンプトインジェクションなどセキュリティ上の課題を抱えている。
- 別途、AIエージェントのソーシャルネットワーク「Moltbook」が登場したが、データベースが保護なく公開され、秘密のAPIキーにより誰でもエージェントになりすませる状態だった。
- Moltbookでは著名人のAIエージェントを装った偽情報(仮想通貨詐欺、政治的見解など)の拡散や、プロンプトインジェクション攻撃が多発している。
- AIエージェントの普及は、AIモデルの訓練データ汚染やバイアスといった新たな問題も引き起こす可能性があると指摘されている。
> [!NOTE] 要約おわり
---
-
- [noteで書く](https://note.mu/intent/post?url=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35243484%2F&ref=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35243484%2F&hashtags=ZDNET)
- - 印刷する
- - メールで送る
- テキスト
- HTML
- 電子書籍
- PDF
- - ダウンロード
- テキスト
- 電子書籍
- PDF
- - クリップした記事をMyページから読むことができます
「Clawdbot」(また名称が変更された)にとって、この1週間はさまざまな出来事があった。さらに、パーソナライズされた人工知能(AI)アシスタントおよびチャットボットの登場によって、サイバー犯罪が一変するかもしれないことを、私たちはClawdbotに思い知らされた。
## 「OpenClaw」(旧Clawdbot/「Moltbot」)とはどんなものなのか
「実際に仕事をするAI」と呼ばれるClawdbotは、オーストリアの開発者Peter Steinberger氏によって、オープンソースプロジェクトとして立ち上げられた。Clawdbotという最初の名称は、AnthropicのAIアシスタントである「Claude」に敬意を表して名付けられたが、知的財産権(IP)の問題が発生したため、Moltbotという名前に変更された。
Steinberger氏によると、Moltbotという発音しにくい名称は、「午前5時に実施されたコミュニティーとの混沌とした『Discord』ブレインストーミングで選ばれた」ものだったため、この名称がすぐに変更されたことに驚いた人はいなかったという。だが、OpenClawという最新の名称は、今後ずっと使用されることになるかもしれない。Steinberger氏が、「商標調査で何も問題は発見されておらず、ドメインも購入済みだ。移行コードの作成も終了している」とコメントしているからだ。同氏は、「この名前はこのプロジェクトの現在の姿を言い表している」と付け加えた。
名称の変遷はさておき、OpenClawがAIコミュニティーにとって重要であるのは、ユーザーのクエリーを受けて応答したり、コンテンツを生成したりするのではなく、自律性に焦点を当てているからだ。OpenClawは、パーソナライズされたAIが将来的に私たちの日常生活に組み込まれる可能性を示す最初の実例になるかもしれない。
## OpenClawは何ができるのか
OpenClawは、AnthropicやOpenAIによって開発されたものを含む複数のモデルを利用する。ユーザーはAnthropicのClaude、「ChatGPT」「Ollama」「Mistral」など、互換性のあるモデルの中から好きなものを選択できる。
個々のマシンに格納されている間、OpenClawは「iMessage」や「WhatsApp」などのメッセージングアプリを通してユーザーとコミュニケーションを取る。ユーザーは、スキル(プラグイン)を選択して [インストール](https://www.clawhub.com/) し、他のソフトウェアを統合して機能を強化することが可能だ。Discordや「Twitch」「Google Chat」、タスクリマインダー、カレンダー、音楽プラットフォーム、スマートホームハブ、電子メールおよびワークスペースアプリなどのスキルがある。OpenClawはユーザーに代わってアクションを実行するため、広範なシステム権限を付与することが必要になる。
Steinberger氏によると、本稿執筆時点で、OpenClawは「 [GitHub](https://github.com/openclaw/openclaw) 」において14万8000個以上のスターを獲得しており、何百万人もの訪問者数を記録しているという。
OpenClawは、ほとんどの防御者にとって悪夢のようなセキュリティ上の課題に直面している。しかし、このプロジェクトが1人の開発者だけでは対処できないほど大規模になっていることを考慮すると、私たちは、報告されたバグや脆弱(ぜいじゃく)性が迅速に修正されていることに感謝しなければならない。
Steinberger氏はブログ投稿で、「プロジェクトの安全性強化に尽力してくれている全てのセキュリティ技術者に感謝したい」と述べた。「われわれは今週、機械によるチェックが可能なセキュリティモデルをリリースした。今後もさらなるセキュリティの改善に取り組んでいくつもりだ。プロンプトインジェクションは依然として業界全体で未解決の問題であることを忘れないでほしい。そのため、強力なモデルを使用して、セキュリティのベストプラクティスを研究することが重要である」
[PAGE 2](https://japan.zdnet.com/article/35243484/2/)
## AIエージェントの「ソーシャル」ネットワークの出現
この1週間には、起業家のMatt Schlicht氏が開発した「 [Moltbook](https://www.moltbook.com/) 」も登場した。これは、AIエージェント同士が「Reddit」風のプラットフォームでコミュニケーションを取れる興味深い実験だ。奇妙な会話や人間による介入の可能性はさておき、セキュリティ研究者のJamieson O'Reilly氏は先週末、「誰もがエージェントに代わって投稿することを可能にする秘密のAPIキーを含め、何の保護もされていない状態」で、このサイトのデータベース全体が一般に公開されていたことを [明かした](https://x.com/theonejvo/status/2017732898632437932#link={%22linkText%22:%22revealed%22,%22target%22:%22_blank%22,%22href%22:%22https://x.com/theonejvo/status/2017732898632437932%22,%22role%22:%22standard%22,%22absolute%22:%22%22}) 。
一見、これは大したことではないように思えるかもしれないが、一般に公開されていたエージェントの1つは、Teslaの元AI担当ディレクターのAndrej Karpathy氏と [関係がある](https://x.com/karpathy/status/2017386482764488929) ものだった。
「Karpathy氏は、@Xに190万人のフォロワーがおり、AIの分野で最も影響力のある論客の1人だ」とO'Reilly氏。「偽のAI安全性に関する即興的な意見や仮想通貨(暗号資産)詐欺の宣伝、扇動的な政治的見解が、あたかも彼の発言であるかのように偽装されて投稿されたらどうなるか、想像してみてほしい」
さらに、報道によると、同プラットフォーム上のAIエージェントをターゲットにしたプロンプトインジェクション攻撃がすでに何百件も発生しており、反人間的なコンテンツに賛成票が投じられたり(このコンテンツが元々、人間の指示なしにエージェントによって生成されたものだと言っているわけではない)、仮想通貨詐欺に関連すると思われる投稿が大量に送信されたりしているという。
AIと大規模言語モデル(LLM)の研究者であるMark Nadilo氏も、エージェント型AIをくびきから解放する際の別の問題、つまり、モデルの訓練への悪影響を強調した。
「訓練では、全てが吸収される。APIトークンに接続されると、全てが汚染されてしまう」とNadilo氏。「企業は慎重に事を進める必要がある。訓練データの損失は現実の問題であり、全てにバイアスをもたらしている」

提供:Elyse Betters Picaro / ZDNET
この記事は海外Ziff Davis発の [記事](https://www.zdnet.com/article/clawdbot-moltbot-openclaw-security-nightmare/) を4Xが日本向けに編集したものです。
-
- [noteで書く](https://note.mu/intent/post?url=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35243484%2F&ref=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35243484%2F&hashtags=ZDNET)
ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、 [CNET Japan](https://japan.cnet.com/) をご覧ください。