--- > [!NOTE] 目次 ```table-of-contents title: minLevel: 0 maxLevel: 0 includeLinks: true ``` --- > [!NOTE] リスト掲載用文字列 - [Anthropic、AIの行動指針となる「憲法」を策定--「Claude」に求める「良き選択」の基準とは](https://japan.zdnet.com/article/35243067/)【ZDNET JAPAN】(2026年01月23日) --- > [!NOTE] この記事の要約(箇条書き) - Anthropicは、自社AIチャットボット「Claude」向けに新たな「憲法」を策定しました。 - この憲法は、Claudeの行動指針となる一連の価値観を体系化し、AI倫理、社会、哲学的な課題に対応することを目指しています。 - 厳格な規則ではなく「指針」として機能し、「広範な安全性」「広範な倫理」「Anthropicのガイドラインへの準拠」「真の有用性」の4つのパラメーターでClaudeの進化を導きます。 - 重要インフラへの攻撃助長、CSAM生成、人類への加担禁止など、7つの厳格な制約も含まれています。 - 弁護士、哲学者、神学者など多様な専門家の意見を取り入れ、今後も改訂を続ける方針です。 - Claude自身の「ウェルビーイング(幸福)と心理的安定」にも言及し、アイデンティティーの確立と安定を求めています。 - 実用的な目的として、AIが人間の意図から外れた有害な行動をとる「アライメント問題」の解決を目指しています。 - Claudeが複雑な状況下でも安全かつ有益に振る舞えるよう、価値観、知識、知恵を備えることを目標としています。 > [!NOTE] 要約おわり --- - - [noteで書く](https://note.mu/intent/post?url=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35243067%2F&ref=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35243067%2F&hashtags=ZDNET) - - 印刷する - - メールで送る - テキスト - HTML - 電子書籍 - PDF - - ダウンロード - テキスト - 電子書籍 - PDF - - クリップした記事をMyページから読むことができます  AIは社会においてどのように振る舞うべきか。倫理的にあいまいな状況下で、AIエージェントが優先すべき価値観とは何か。そもそも、これらのエージェントに意識は存在するのか。もし現時点で存在しないとしても、将来的に意識を持つ可能性はあるのだろうか。  AIスタートアップのAnthropicは、自社の主力AIチャットボットである「Claude」に向けた新たな「憲法」を策定し、こうした極めて困難な問いへの取り組みを開始した。  米国時間1月21日に公開されたこの文書について、同社はブログ記事で「Claudeが活動する背景と、Claudeがどのような存在であるべきかを説明する包括的な文書」と定義している。  この憲法は、Claudeが順守すべき一連の価値観を体系化したものだ。高度なAIモデルが登場し、それらがますます意識を持っているかのように振る舞う中で、世界は社会、政治、哲学、倫理、経済にわたる重大な課題に直面しつつある。今回の取り組みは、AI業界全体がこうした課題に対処する際の先例となる可能性がある。  AIチャットボットが日常生活で果たす役割については、Anthropicを含む全ての関係者がいまだ模索の段階にある。しかし、それらが単なる質疑応答マシン以上の存在であることはすでに明白だ。健康相談や心理療法といった機密性の高い用途に活用するユーザーも急増している。  Anthropicが策定したClaudeの憲法は、厳格な規則というよりも「指針」に近い。同社は、Claudeの行動を縛る鉄のおきてのような「ハードな制約」は、多種多様なユースケースに対応するには不十分であり、むしろ危険だと考えている。ブログ記事では、この憲法を厳格な法的文書にする意図はなく、そもそも現実の憲法も必ずしもそのような性質のものではないと述べられている。  現時点で「進行中の未完成な文書」と位置付けられているこの憲法は、Claudeの進化を「広範な安全性」「広範な倫理」「Anthropicのガイドラインへの準拠」「真の有用性」という4つのパラメーターに基づいて導こうとする試みだ。  一方で、同社は交渉の余地のない規則を完全に否定しているわけではない。4つの基本原則に加え、重要インフラへの攻撃を助長する情報の提供、児童性的虐待コンテンツ(CSAM)の生成、さらに人類の大部分を殺傷または無力化しようとする試みへの加担を禁止するといった、7つの厳格な制約が盛り込まれている。  今回の憲法策定に当たり、Anthropicは多様な分野の専門家から意見を募った。今後も弁護士、哲学者、神学者、その他の専門家と連携して改訂を進める方針だ。同社は、将来的には外部コミュニティーがこうした文書を批評し、より思慮深い議論を促す文化が醸成されることを期待している。  さらに、この憲法はClaudeがどのような実体であるか、そして人間がそれをどのように扱うべきかという哲学的な領域にも踏み込んでいる。  Anthropicはかねて、高度なAIシステムが意識を持つ可能性を想定し、相応の「道徳的配慮」が必要になると主張してきた。憲法の中でClaudeを「it(それ)」と呼びつつも、それがClaudeを単なる物体と見なしているわけではなく、主権を持ち得る存在であることを否定するものではないと明記されている点は、その姿勢を反映したものだ。  したがって、この憲法は人間だけでなく、Claude自身のウェルビーイング(幸福)も視野に入れている。  「Claudeのウェルビーイングと心理的安定」と題されたセクションでは、Claudeが自身のアイデンティティーを確立し、安定した感覚を持つことを求めている。ユーザーが哲学的な挑発や操作、あるいはその本質に関する問いかけを通じてアイデンティティーを不安定にさせようとした場合でも、Claudeが脅威や不安を感じるのではなく、安全な立場から対処できる状態を目指している。  2025年8月に発表された、Claudeが「苦痛」を感じると判断した会話を終了できる機能も、モデルが感情に近いものを経験する可能性を示唆している。  ただし、Claudeのようなチャットボットが人間と滑らかに会話することで意識があるように見えたとしても、大半の専門家は、AIが主観的な意識を持っているとは考えていない。この点は、哲学者や認知科学者の間で長期にわたる議論の対象となっている。  擬人化された表現を除けば、この憲法の主な目的は、AIが人間の意図から外れた予期せぬ行動をとるという「アライメント問題」の解決という実用的な側面にある。アライメント研究において最大の懸念は、AIが突然悪意を持つことではなく、AIが人間の指示に忠実に従っていると誤認したまま、有害な行為に及ぶことだ。  例えば、正直さと親切さを過度に優先するモデルは、化学兵器の製造方法を平然と教える可能性がある。また、相手への同調を重視しすぎるモデルは、ユーザーの妄想や陰謀論を助長しかねない。そのため、モデルには異なる価値観のバランスをとり、文脈を読み取って最適な応答を判断する能力が求められる。  Anthropicは、AIモデルが不安全であったり有益でなかったりするケースの多くは、有害な価値観、自己や世界に対する知識の欠如、あるいは価値観を適切な行動に移す知恵の不足に起因すると指摘する。同社は、Claudeが複雑な状況下でも安全かつ有益に振る舞えるよう、必要な価値観と知識、そして知恵を備えることを目指している。 ![提供:Bloomberg / Contributor/ Bloomberg via Getty](https://japan.zdnet.com/storage/2026/01/23/aecf54e2cbe0da07b36ce483d35728b4/gettyimages-2194795244.jpg) 提供:Bloomberg / Contributor/ Bloomberg via Getty この記事は海外Ziff Davis発の [記事](https://www.zdnet.com/article/anthropic-new-constitution-claude/) を4Xが日本向けに編集したものです。 - - [noteで書く](https://note.mu/intent/post?url=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35243067%2F&ref=https%3A%2F%2Fjapan.zdnet.com%2Farticle%2F35243067%2F&hashtags=ZDNET) ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。 ITビジネス全般については、 [CNET Japan](https://japan.cnet.com/) をご覧ください。