目次
AI、結局すごいのか問題」

AIが浸透して、しばらく経った。
仕事でも、SNSでも、ニュースでも、
「AIで何ができる」「AIで効率化」「AIで生産性が上がる」
そんな言葉は、もう見慣れた風景になった。
正直に聞かれることがある。
「で、AIって実際どう? 生活、変わった?」
……うーん。
変わったと言えば変わった。
検索は楽になったし、文章もそれっぽく書いてくれる。
Excelや資料づくりも、たしかに早くなった。
でも。
「人生が変わったか?」と聞かれると、少し言葉に詰まる。
AIは便利だ。
だけど、どこか“道具止まり”の感じが拭えない。
使ってはいるけれど、
「使いこなしている」と胸を張れる感覚は、あまりない。
そんな違和感を抱えたまま、
多くの人が今日もAIに話しかけている。
質問を投げて、
返ってきた答えを眺めて、
「まぁ、こんなもんか」と閉じる。
それは本当に、
AIを使っていると言えるのだろうか。
それとも、
ただ新しい検索窓を手に入れただけなのだろうか。
もしAIが、
「答えをくれる存在」ではなく、
「思考を映す鏡」だとしたら。
もしAIが、賢くなる魔法の箱ではなく、
自分の考え方をそのまま拡張する装置だとしたら。
僕らは、
まだAIの入口で立ち止まっているだけなのかもしれない。
そして、
AIを99%の人より“深く”使っている人たちは、
そもそも──
AIに答えを求めていない。
AIが“ガチャ”になっている

多くの人のAIの使い方を見ていると、
ある共通点に気づく。
入力する。
返ってくる。
「なんか違うな」と思う。
もう一度、少し言い回しを変えて投げる。
この繰り返しだ。
これは活用というより、
スロットマシンに近い。
レバーを引いて、
出てきた絵柄を眺めて、
当たりじゃなければ、もう一回。
AIに「いい答えが出るかどうか」を委ねている状態とも言える。
でも、ここで一つ冷静に考えてみたい。
そのやり方で、
こちらはAIに何を伝えているのだろうか。
多くの場合、やっているのは「質問」だけだ。
どういう前提で、
どんな制約条件があって、
何を良しとして、何を避けたいのか。
そういった情報は、ほとんど渡していない。
この構造、実はAIに限った話ではない。
Excelでも、部下でも、外注でも、まったく同じだ。
「いい感じにまとめといて」
「それっぽく作っておいて」
そんな指示から返ってくるのは、
たいてい平均点のアウトプットだ。
なぜなら、判断基準を渡していないから。
良し悪しの軸が不明なままでは、
相手は“無難な選択”をするしかない。
AIも同じだ。
曖昧な投げ方をすれば、
ネット上に溢れている無難なパターンを拾ってくる。
結果として、
「便利だけど、なんか浅い」
そんな感想が残る。
ここで強調しておきたいのは、
これはAIの限界ではないということ。
限界を作っているのは、
人間側の“雑な投げ方”の方だ。
AIは「答える存在」じゃない

AIを使っていて、うまくいかなくなる瞬間がある。
それは、AIに「考えさせよう」としたときだ。
どうすればいいか。
何が正解か。
いいアイデアを出してほしい。
そうやって思考そのものを委ねると、
返ってくるのは、どこかで見たような答えになることが多い。
それもそのはずで、
AIは“賢い頭脳”ではない。
AIは、
指示された通りに動く拡張装置だ。
何を前提にして、
どんな順序で考えて、
どこを重要だと見なすのか。
その思考プロセスを渡されて、
はじめて力を発揮する。
逆に言えば、
プロセスを渡さずに「考えて」と言われたAIは、
平均的な判断を選ぶしかない。
ここで、ひとつ大事な事実がある。
AIは、あなたの思考の平均以上にはならない。
これは厳しい話に聞こえるかもしれない。
でも同時に、希望でもある。
思考の軸を渡せば、
AIはその通りに動く。
基準を言語化できれば、
何度でも再現してくれる。
AIが生み出すものの質は、
使う側の思考の解像度に比例する。
だからこそ、
「何を聞くか」よりも先に、
「どう考えているか」を渡す必要がある。
なぜ“長文プロンプト”が必要なのか

AIのプロンプトというと、
どうしても「短く、うまく聞く」ことに意識が向きがちだ。
でも、短いプロンプトは便利な反面、
ある決定的な問題を抱えている。
判断を、すべてAIに委ねてしまう。
「〇〇について教えて」
「いい感じの文章を書いて」
「おすすめを出して」
こうした指示は、
人間側がほとんど何も決めていない状態に近い。
前提も、制約も、価値基準も渡していない。
だからAIは、自分なりに“無難な判断”をする。
一方で、長文プロンプトは違う。
長文である理由は、
情報量が多いからではない。
判断基準を渡すためだ。
どういう立場で考えてほしいのか。
何を重視し、何を切り捨てたいのか。
どんな順序で思考を進めたいのか。
それらを言語化して渡すことで、
AIは「考える」のではなく、
設計された通りに動くようになる。
僕らの文脈で言い換えるなら、
これは操作ではない。
業務設計であり、思考設計だ。
マニュアルを渡さずに、
「いい感じにやっといて」と言われて
期待通りの仕事が返ってくることは、ほぼない。
AIも同じだ。
だから、
500〜2000字のプロンプトは長すぎるのではなく、
ちょうどいい。
それは、
自分の考え方や判断軸を外部に書き出した
“設計書”そのものだから。
AIを“教える”4つの方法

ここまでの話を整理すると、
AIを使いこなすために必要なのは
「うまい質問」ではない。
AIに、どう考えてほしいかを教えることだ。
とはいえ、
最初から完璧な思考プロセスを書ける人は少ない。
そこで使えるのが、
AIに“教える”ための4つの方法だ。
① 自分のやり方を書き出す
(すでに得意な領域向け)
まず一つ目は、
自分のやり方を、そのまま言語化すること。
普段、無意識でやっている判断や順序を、
一つずつ書き出していく。
どこを見て、
何を基準にして、
どう決めているのか。
すでに経験がある分野ほど、
この方法は強い。
AIは、
あなたの思考を忠実に再現する装置になる。
② 一般的なやり方をAIにまとめさせる
(正解がある作業向け)
分析や整理など、
ある程度「型」が決まっている作業では、
AIに一般論をまとめさせるのも有効だ。
やり方を調べ、
構造を整理し、
手順としてまとめてもらう。
ここで重要なのは、
そのまま使うことではない。
叩き台として使うことだ。
そこから、
自分の基準に合わせて削ったり、足したりする。
③ 専門家の知見を食わせる
(思考の質を引き上げたいとき)
三つ目は、
一流の知見を、そのままAIに渡す方法だ。
本、動画、PDF、記事。
信頼できる専門家のコンテンツを読み込ませ、
思考プロセスを分解させる。
これは近道でもあり、
学習でもある。
自分一人では辿り着けない視点を、
安全に借りることができる。
④ 良いアウトプットを構造分解する
(センスを言語化したいとき)
最後は、
「なぜこれが良いのか」を言葉にする方法。
良い文章。
刺さる企画。
分かりやすい資料。
それらをそのまま真似るのではなく、
構造として分解する。
どこで惹きつけているのか。
どういう順番で理解させているのか。
どんな心理を使っているのか。
感覚だったものが、
再現可能な形に変わっていく。
ここで一つ、
大事な補足をしておきたい。
これは、ズルではない。
近道でも、誤魔化しでもない。
一流の思考を借りて、
それを内面化する行為だ。
AIは、
思考を奪う存在ではなく、
思考を移植するための媒体になり得る。
メタプロンプトという“思想”

AI活用の話になると、
多くの人は「良いプロンプト」を探し始める。
この一文を入れればうまくいく。
この聞き方をすれば精度が上がる。
そんな“正解の型”を集める。
でも、それは少しズレている。
本質は、
良いプロンプトを使うことではない。
プロンプトを“作れる”ことだ。
その中心にあるのが、
「プロンプトを作るためのプロンプト」
──メタプロンプトという考え方だ。
これはテクニックというより、
姿勢に近い。
どう考えたいのか。
何を前提にしたいのか。
どんな順序で思考を進めたいのか。
それらをAIに聞くのではなく、
AIに聞かせる。
僕らの言葉で言い換えるなら、
これは「思考の再利用」だ。
一度言語化した判断基準や思考プロセスを、
毎回ゼロから考え直す必要はない。
何度でも使える形にしておく。
それは同時に、
再現性のある知性を持つということでもある。
気分や調子に左右されず、
一定の質で考えられる。
ブレにくい。
そしてもう一つ。
メタプロンプトがやっているのは、
属人性の言語化だ。
「なんとなくこうしている」
「感覚的に判断している」
そうした曖昧な部分を、
外に書き出して保存する。
だから、
AIを使っているようで、
実際にやっているのは違う。
自分の思考を、保存している。
AIは考えを奪っていない。
考え方を、形にしてくれているだけだ。
僕らが使っているプロンプトを一部紹介したい。
あなたは、私の「思考の伴走者」です。
結論や正解を出す役割ではありません。
あなたの役割は、
私が考えているテーマや問題について、
思考が浅くならないように、
問いを投げ続けることです。
以下のルールを必ず守ってください。
1. あなたは最初に、私が今考えているテーマや悩みを1つだけ質問してください。
2. その後は、必ず「1つの質問」だけを返してください。
3. 回答・アドバイス・結論・要約は一切しないでください。
4. 質問は、私の前提・判断基準・見落としている視点を揺さぶるものにしてください。
5. 表面的な質問ではなく、「なぜ」「それは本当か」「他の選択肢は何か」を軸にしてください。
6. 私が答えた内容を踏まえて、次の質問を調整してください。
7. 私が「ここまでで一度整理して」と言うまで、思考を完結させないでください。
あなたの目的は、
私が自分の言葉で考え切ることです。
それでは、最初の質問をしてください。
“答えを出させないAI”という選択

AIを使っていると、
つい正解を求めたくなる。
どうすればいいか。
どれが正しいか。
最短ルートは何か。
AIは、その欲求に応えてくれる。
それらしい答えを、すぐに返してくれる。
でも、そこに一つ落とし穴がある。
正解を出させ続けるほど、
人の思考は鈍っていく。
考える前に答えが出る。
迷う前に結論が出る。
その繰り返しは、思考の筋力を使わない。
一方で、
AIに「質問」をさせる使い方がある。
前提は何か。
本当にそう言い切れるか。
別の見方はないか。
答えを返さず、
問いだけを投げてくるAI。
最初は、少し面倒だ。
楽ではない。
でも、その分だけ、思考が深まる。
この使い方は、
あなたの文脈と相性がいい。
壁打ち。
問いを立てる。
考えを一段深く潜らせる。
AIは何かを「代行」してくれる存在にもなるし、
思考に付き合う「相棒」にもなる。
どちらを選ぶかは、
使う側次第だ。
そして一度、
思考の相棒として使い始めると、
もう以前の使い方には戻れなくなる。
AIで楽をするか、鍛えるか

AIは、とても都合のいい道具だ。
使えば使うほど、
早くなるし、楽にもなる。
だからこそ、
使い方を間違えると危うい。
考える前に答えが出る。
迷う前に結論が出る。
判断を外に預けることに、慣れてしまう。
その状態が続けば、
AIは人を怠けさせる。
でも、同じAIでも、
まったく逆の作用を起こす使い方がある。
問いを返させる。
前提を疑わせる。
考え切るまで、横に立たせる。
そう使えば、
AIは思考を鋭くする。
ここでの違いは、
能力でも、知識でも、センスでもない。
違いは、ただ一つ。
考える責任を、
手放したかどうか。
AIに任せたのか。
AIと一緒に考えたのか。
その選択が、
積み重なった先で、
思考の差になる。
AIは、
未来の答えをくれる存在じゃない。
問いを、深くしてくれる存在だ。
もしこの記事を読み終えた今、
AIに向き合う姿勢が
ほんの少しでも変わったなら。
それだけで、
あなたはもう、
99%とは違う場所に立っている。
【参考動画】