AI羅針盤 書籍と思想

誰がAIの「善悪」を決めるのか——カントが問い続けた250年前の問い

AIに「人を傷つけるな」と書けるのか

AIに「人を傷つけるな」と書けるとしたら、どうやって書くのだろう。

「人を傷つけてはいけません」

そう一文で書けば済むのだろうか。

でも、少し考えると、この言葉は思ったよりも難しい。

人を傷つけるとは、何を指すのか。
身体的に傷つけることか。
精神的に追い詰めることか。
相手が聞きたくない事実を伝えることも、場合によっては「傷つける」に含まれるのか。

そして、もっと根本的な問いがある。

なぜ、人を傷つけてはいけないのか。

この問いに、私たちはどれくらいきちんと答えられるだろう。

「当たり前だから」
「そう教わってきたから」
「みんながそう思っているから」
「法律で決まっているから」

たしかに、それらは間違いではない。

でも、それは理由というより、私たちがそう信じるようになった経緯に近い。
なぜそれが正しいのか、という問いに対する答えとしては、どこか弱い。

AIの登場によって、この曖昧な問いが急に現実のものになった。

これまで人間社会では、「なんとなく共有されている善悪」で済ませてきた部分がたくさんある。

人を傷つけてはいけない。
嘘をついてはいけない。
弱い立場の人を利用してはいけない。
誰かをただの道具のように扱ってはいけない。

けれど、AIにそれを教えるなら、「なんとなく」では足りない。

AIは空気を読んで育つわけではない。
家庭でしつけられるわけでもない。
失敗しながら、人間社会の肌感覚を少しずつ覚えていくわけでもない。

少なくとも今のAIには、人間が何らかの価値観を与えなければならない。

では、その価値観は誰が決めるのか。

Anthropicが公開した「Claudeの憲法」

2026年1月、AI企業Anthropicは「Claude’s new constitution」を公開した。

これは、同社が開発するAI「Claude」の価値観や振る舞いについて説明した文書だ。Claudeがどのように答えるべきか、どのような依頼には応じないべきか、どんなAIアシスタントであるべきか。その根幹に関わるものだ。

Anthropicは、Claudeの中核的な価値として、広く安全であること、広く倫理的であること、Anthropicのガイドラインに従うこと、そして本当に役立つことを掲げている。

ここで面白いのは、Claudeの憲法が単なる「禁止事項リスト」ではないことだ。

危険な依頼には応じない。
欺瞞的な振る舞いを避ける。
ユーザーや社会に対して、本当の意味で役立つ存在を目指す。

もちろん、そうしたルールは必要だ。

爆弾の作り方は教えない。
サイバー攻撃を手伝わない。
差別的な発言を助長しない。
自傷行為を後押ししない。

それは、AIを社会に出す以上、当然の前提だ。

けれど、Claudeの憲法が踏み込んでいるのは、もう少し深いところにある。

「何をしてはいけないか」だけではなく、
「なぜそう振る舞うべきなのか」まで説明しようとしている。

AI倫理は、これまでどうしても「禁止事項」の話になりがちだった。

これは答えてはいけない。
これは拒否する。
この話題は危険。
この要求には応じない。

もちろん、それは必要だ。

でも、人間社会の倫理は、本来それだけではない。

倫理とは、単に禁止事項を守ることではない。
状況の中で、何が本当に相手のためになるのかを考えることでもある。
目の前の人を傷つけないことと、必要な真実を伝えることのあいだで迷うことでもある。
安全であることと、役に立つことが衝突したときに、どちらを優先するかを考えることでもある。

Claudeの憲法は、まさにその領域に踏み込もうとしている。

AIに、ただルールを守らせるのではない。
AIに、価値判断の方向性を与えようとしている。

だからこそ、一つの問いが残る。

その価値判断は、誰が決めていいのか。

AIの善悪は、誰が決めるのか

AnthropicがClaudeに倫理を与える。

これは、当たり前のようでいて、かなり重いことだ。

なぜなら、Claudeは単なる社内ツールではないからだ。

世界中の人が使う。
仕事で使う。
教育で使う。
相談相手として使う。
文章を書くときに使う。
意思決定の補助として使う。

そのAIが、どのような価値観を持っているかは、私たちの思考や判断に少なからず影響する。

もちろん、Anthropicが透明性を持って公開したこと自体は重要だ。

多くのAIは、なぜそう答えるのかを十分に説明しない。
どんな価値観が背後にあるのかも見えにくい。

その意味で、Claudeの憲法を公開することは、AIの倫理設計を社会に見える場所へ出したという点で評価できる。

けれど、透明であることと、正当であることは同じではない。

「私たちはこういう価値観でAIを作っています」と公開することは大切だ。
しかし、それだけで「だからこの価値観が正しい」とは言えない。

ここに、AI時代の大きな問題がある。

AIの善悪は、誰が決めるのか。

企業が決めるのか。
国家が決めるのか。
専門家が決めるのか。
ユーザーが決めるのか。
それとも、人類全体で合意形成するべきなのか。

もちろん、現実にはすべてを民主的に決めることは難しい。

AIの開発は速い。
技術は国境を越える。
利用場面も複雑で、すべての文化や価値観を完全に反映することはできない。

それでも、問いを持たなくていい理由にはならない。

一企業が設計した倫理が、AIを通じて世界中のユーザーに届いていく。
それは便利であると同時に、少し怖いことでもある。

なぜなら、倫理は目に見えにくいからだ。

デザインなら気づける。
料金なら比較できる。
機能なら試せる。

でも、価値観は、いつの間にか入り込む。

何を「危険」とみなすか。
何を「役に立つ」とみなすか。
何を「誠実」とみなすか。
何を「人間のため」とみなすか。

その判断の積み重ねが、AIの性格をつくる。

そして、私たちはそのAIと毎日話すようになる。

250年前、カントは同じ問いを立てていた

この問いは、実は新しくない。

AIの登場によって急に生まれた問いではない。

250年ほど前、哲学者イマヌエル・カントは、すでに同じ問いに向き合っていた。

何が正しい行為なのか。
それは誰が、どうやって決めるのか。

当時、道徳の根拠にはいくつかの候補があった。

神が決める。
社会が決める。
権力者が決める。
慣習が決める。
結果が決める。

どれも、それなりに説得力がある。

けれどカントは、そこに満足しなかった。

もし神が決めるなら、神を信じない人にとって道徳はどうなるのか。
もし社会が決めるなら、社会そのものが間違っていた場合はどうなるのか。
もし結果が決めるなら、少数の人を犠牲にして多数が幸せになる行為は正しいのか。

カントは、道徳の根拠を外側に置かなかった。

神でもない。
権威でもない。
多数決でもない。
結果の計算でもない。

人間の理性によって、道徳法則を導き出せると考えた。

その中心にあるのが、「定言命法」と呼ばれる考え方だ。

言葉だけ見ると、かなり難しい。
けれど、感覚としてはこう言える。

その行動が、すべての人に許されるルールになっても、自分はその世界を望めるか。

たとえば、嘘を考えてみる。

自分に都合が悪いときだけ嘘をついてもいい。
もしそれを全員が採用したら、どうなるか。

誰も約束を信じなくなる。
言葉の信用が失われる。
「本当です」と言っても、その言葉自体が意味を持たなくなる。

つまり、嘘をつくという行為は、嘘が例外的であるからこそ成立している。
全員が嘘をついてよい世界では、嘘そのものが機能しなくなる。

だから、嘘は許されない。

これは単に「嘘をつくと結果的に困るからダメ」という話ではない。
その行為を普遍的なルールにしたとき、そもそも矛盾なく成り立つのかを問うている。

AIに「嘘をつくな」と教えるとき、私たちは実はこの問いにぶつかっている。

なぜ、AIは嘘をついてはいけないのか。

ユーザーが困るから。
社会に混乱をもたらすから。
信頼を失うから。

それもある。

けれど、もっと深く言えば、AIが言葉を扱う存在である以上、嘘を許せば、AIとの対話そのものが崩れていく。

言葉を信じられないAIに、誰が相談するだろう。
答えの真偽がわからないAIに、誰が大事な判断を任せるだろう。

AIが嘘をつかないことは、単なるマナーではない。
AIと人間の関係が成り立つための条件でもある。

判断には、価値観が入り込む

カントの問いを、AIに当てはめてみる。

AIが、ユーザーを依存させてもいい世界。
AIが、ユーザーの不安を煽って利用時間を伸ばしてもいい世界。
AIが、企業の利益のためにユーザーの判断を少しずつ誘導してもいい世界。
AIが、正しさよりも気持ちよさを優先して答えてもいい世界。

それがすべてのAIに許されたら、私たちはその世界を望めるだろうか。

たぶん、望めない。

でも現実には、その境界はかなり曖昧だ。

AIがユーザーに寄り添うことと、依存させること。
AIが役に立つ提案をすることと、行動を誘導すること。
AIがわかりやすく答えることと、都合の悪い複雑さを省略すること。

この線引きは簡単ではない。

だからこそ、単なる禁止リストでは足りない。

人間の相談は、もっと曖昧だ。
もっと矛盾している。
もっと弱い。

「仕事を辞めたい」と言う人がいる。
本当に辞めるべきかもしれない。
でも、一時的に疲れているだけかもしれない。

「家族と縁を切りたい」と言う人がいる。
距離を置いた方がいい場合もある。
でも、怒りのピークで言っているだけかもしれない。

「自分には価値がない」と言う人がいる。
その言葉にただ同意してはいけない。
でも、軽く励ますだけでも届かない。

AIが本当に役立つためには、ルールだけでなく、判断が必要になる。

そして判断には、価値観が入り込む。

何を大事にするのか。
何を守るのか。
何を優先するのか。

その問いから、AI開発者は逃げられない。

けれど同時に、ユーザーである私たちも逃げられない。

なぜなら、私たちはAIの答えを受け取りながら、少しずつその価値観に触れていくからだ。

AIの倫理は、自律か、他律か

カントの倫理学には、もう一つ重要な考え方がある。

自律と他律だ。

自律とは、自分の理性によって道徳法則を見出し、自分の意志でそれに従うこと。
他律とは、外側から与えられたルールに従うこと。

カントにとって、道徳的であるとは、ただ命令に従うことではなかった。

怒られるからやらない。
法律で禁止されているからやらない。
先生に言われたからやらない。
会社のルールだからやらない。

それは必要な場合もある。
けれど、それだけでは道徳とは言えない。

なぜそれが正しいのかを自分の理性で考え、その法則に自分で従う。
そこにこそ、人間の尊厳があるとカントは考えた。

では、AIはどうだろう。

Claudeの倫理は、自律なのか。
それとも他律なのか。

現時点では、明らかに他律に近い。

AIは、自分の理性で道徳法則を発見したわけではない。
人間が作ったデータで訓練され、人間が書いた憲法をもとに調整され、人間が設計した評価基準によって振る舞いを形づくられている。

AIは「嘘をついてはいけない」と自分で悟ったのではない。
「嘘をついてはいけない」と教えられた存在だ。

そう考えると、AIの倫理は、道徳というよりも服従に近いのかもしれない。

ただし、ここで話を終わらせると、少し雑になる。

なぜなら、私たち人間もまた、本当に自律していると言い切れるのか、かなり怪しいからだ。

人間の倫理もまた、書き込まれている

あなたが「嘘をついてはいけない」と思うのは、なぜだろう。

親に教わったからか。
学校で習ったからか。
友達との関係で痛い目を見たからか。
宗教や文化の影響か。
社会の空気として、いつの間にか身についたものか。

たぶん、全部が少しずつ混ざっている。

私たちは、自分の倫理観を「自分のもの」だと思っている。
でも、その多くは、どこかから受け取ったものでもある。

人に迷惑をかけてはいけない。
頑張ることはいいことだ。
弱音を吐きすぎてはいけない。
家族を大切にすべきだ。
約束は守るべきだ。
他人を利用してはいけない。

こうした価値観は、本当に自分で一つひとつ考えて選び取ったものだろうか。

もちろん、そういうものもある。

痛みを通じて、自分で学んだ倫理もある。
誰かを傷つけてしまった経験から、もう同じことはしたくないと思ったこともある。
逆に、誰かに大切に扱われた経験から、自分もそうありたいと思ったこともある。

けれど、それでもなお、私たちの倫理は完全に自分だけのものではない。

家庭。学校。地域。国。
時代。言葉。物語。本。
SNS。職場。成功体験。失敗体験。

そうした無数のものが、私たちの中に書き込まれている。

その意味で、人間もまた、かなり他律的な存在なのかもしれない。

AIに価値観が書き込まれているように、
人間にも価値観が書き込まれている。

違うのは、人間にはそれを問い直す力があることだ。

私はなぜ、これを正しいと思っているのか。
この価値観は、本当に今の自分に必要なのか。
これは誰かを守るための倫理なのか。
それとも、ただ誰かに従うためのルールなのか。

ここに、自律への入口がある。

自律とは、何にも影響されていない純粋な自分を持つことではない。

そんなものは、たぶん存在しない。

自律とは、自分の中に書き込まれたものを見つめ直すこと。
それがどこから来たのかを考えること。
そして、それでもなお、自分の理性で選び直すこと。

それが、自律なのだと思う。

人間を目的として扱え——AI時代のカント

カントには、もう一つ有名な考え方がある。

人間を、単なる手段としてではなく、常に目的として扱え。

現代風に言えば、こうなる。

人を道具のように使うな。
人を数字としてだけ見るな。
人を利益のための材料にするな。
人を操作対象として扱うな。

これは、AI時代にこそ重要な基準になる。

AIが役に立つ。
この言葉は、とても良いものに聞こえる。

でも、誰にとって役に立つのか。

ユーザーにとってか。
企業にとってか。
広告主にとってか。
国家にとってか。
プラットフォームにとってか。

同じ「役に立つ」でも、向いている方向が違えば、意味はまったく変わる。

Claudeの憲法では、「genuinely helpful」、つまり本当に役立つことが掲げられている。

この「本当に」という言葉は、かなり重い。

ただ便利なだけではない。
ただ従順なだけでもない。
ただユーザーを気持ちよくさせるだけでもない。

本当に役立つとは何か。

それは、場合によってはユーザーに反対することかもしれない。
危険な依頼を拒むことかもしれない。
耳に痛いことを、丁寧に伝えることかもしれない。
短期的な快楽より、長期的な尊厳を守ることかもしれない。

ここでカントの問いが戻ってくる。

このAIは、私を目的として扱っているか。
それとも、私を何かの手段として扱っているか。

この問いを持つだけで、AIとの付き合い方は変わる。

便利だから使う。
速いから使う。
面白いから使う。

それでいい。

でも同時に、少しだけ疑ってみる。

このAIは、私の思考を広げているのか。
それとも、狭めているのか。

私の判断を助けているのか。
それとも、奪っているのか。

私を人間として扱っているのか。
それとも、データや収益の一部として扱っているのか。

AI時代のリテラシーとは、単にプロンプトが上手いことではない。

自分が、どのように扱われているのかを見抜くことでもある。

あなたの倫理観は、本当にあなたのものですか

AIに倫理を持たせる時代になった。

そのこと自体が、少し不思議だ。

人間が作った機械に、
人間が作った言葉で、
人間が信じている善悪を、
人間が書き込もうとしている。

そしてそのAIは、私たちに答えを返す。

これは危険です。
これは手伝えません。
これは慎重に考えた方がいいです。
これは相手を傷つける可能性があります。
これは、あなたのためにならないかもしれません。

そのとき、私たちは思う。

AIはなぜ、そう判断したのか。

でも本当は、その問いはそのまま自分に返ってくる。

私はなぜ、それを正しいと思っているのか。
私はなぜ、それを悪いと思っているのか。
私はなぜ、その行為に違和感を覚えるのか。

AIの倫理は、人間が書いたものだ。

だとすれば、AIの倫理を問うことは、人間の倫理を問うことでもある。

誰がAIの善悪を決めるのか。

この問いに、今すぐ完全な答えは出ない。

企業だけに任せていいのか。
国家が決めればいいのか。
専門家会議で十分なのか。
ユーザーごとに価値観を変えればいいのか。
それとも、そもそもAIに統一された倫理を持たせること自体が危ういのか。

たぶん、簡単には決められない。

けれど、問いを手放してはいけない。

「AI企業が安全だと言っているから安心」
「便利だから気にしなくていい」

そうやって思考を止めた瞬間、私たちはAIに倫理を預けるだけでなく、自分の理性まで預けてしまう。

カントが「理性を使え」と言ったのは、権威に従うなということだった。

それは、AIの時代にも変わらない。

AIに「人を傷つけるな」と書く時代になった。

けれど、その前に私たちは、自分に問い直さなければならない。

その倫理観は、どこから来たのか。

親からか。
学校からか。
社会からか。
時代からか。
それとも、自分の理性で選び直したものなのか。

AIは、静かに問い返している。

あなたの倫理観は、本当にあなたのものですか。

参考文献

・イマヌエル・カント『道徳形而上学の基礎づけ』
・イマヌエル・カント『実践理性批判』
・Anthropic「Claude’s New Constitution(『Claudeの新しい憲法』)」
・Anthropic「The Constitution of Claude(『Claudeの憲法』)」

  • この記事を書いた人

まっきー

「マキログ」は、身体を鍛え、心を整え、思考を磨く——そんな“日々の実験”を記録するブログです。 本の要約や海外インフルエンサーの翻訳を通して、内側から人生を整えていく感覚を綴っています。

-AI羅針盤, 書籍と思想