
- Yamashita
- 2026.02.05
本連載は全3回で構成されています。
- 第1回(本記事):プロンプトは「呪文」ではない ― 問いを立てる力の重要性
- 第2回:AIは能力の格差を増幅する ― 鏡に映る思考の質
- 第3回:優しい人がAIを使いこなせる理由 ― 企業が成果を出すために
「AIが使えない」という人の正体
「ChatGPTを使ってみたけど、大したことなかった」
こうした声を聞くことがある。同じAIツールを使っているはずなのに、劇的な成果を上げる人と、「使えない」と匙を投げる人がいる。この差はどこから生まれるのだろうか。
AIの性能差ではない。モデルのバージョンでもない。
結論から言えば、AIは使う人の思考を映し返す「鏡」なのだ。曖昧な問いには曖昧な答えが、深い問いには深い答えが返ってくる。AIの出力に不満があるなら、まず自分の入力を見直す必要がある。
本連載では、この「AIは鏡である」という視点から、AIを使いこなせる人の特徴を学術研究に基づいて解き明かしていく。そして意外なことに、その特徴は「技術力」ではなく「人間力」に関わるものだった。
第1章:プロンプトを「呪文」だと思っていないか
魔法の箱としてのAI
AIに関する相談を受けていると、ある傾向に気づく。
「このプロンプトをコピペすれば良い回答が出る」
「〇〇さんが作ったテンプレートを使えば大丈夫」
「正しい呪文さえ知っていれば、AIは答えてくれる」
こうした発想でAIに向き合う人が少なくない。まるでプロンプトが「呪文」であり、正しい言葉を唱えれば魔法のように望みが叶うかのように。
SF作家アーサー・C・クラークの有名な言葉がある。
"Any sufficiently advanced technology is indistinguishable from magic."
十分に発達した技術は魔法と見分けがつかない
AIは多くの人にとって「ブラックボックス」だ。入力と出力の間で何が起きているのか見えない。だからこそ、「呪文」として捉えてしまう心理が働く。
研究が示す「魔法的思考」の影響
2025年にScienceDirectに掲載された研究「Eastern Ease and Western Worries」は、AIやブロックチェーンなどの「ブラックボックス技術」に対するユーザーの受容度を調査した。興味深い発見があった。
"A strong belief in magic (e.g., lucky numbers) increases user acceptance."
魔法への信念(例えばラッキーナンバー)が強い人ほど、自律的なブラックボックス技術を受け入れやすい
つまり、AIを「理解しようとせず魔法として受け入れる傾向」が存在するのだ。ラッキーナンバーを信じるような「魔法的思考」の持ち主ほど、AIの仕組みを問わずに受け入れる。
これは一見、適応力が高いように見えるかもしれない。しかし問題がある。
呪文思考の限界
プロンプトを「呪文」として捉えると、以下の問題が生じる。
1. 「なぜ効くのか」を考えない
呪文は唱えれば効く。理由を問う必要がない。しかしプロンプトは違う。なぜそのプロンプトが効果的なのかを理解していなければ、文脈が変わった瞬間に使えなくなる。
2. 応用・調整ができない
コピペしたプロンプトが期待通りの結果を出さなかったとき、呪文思考の人は「このプロンプトは使えない」と判断する。しかし問題は多くの場合、プロンプトではなく、自分の状況との「ずれ」にある。そのずれを調整する力が育っていない。
3. 思考力が衰える
最も深刻な問題は、プロンプトを書く行為そのものをスキップしてしまうことで、「何を知りたいのか」「何を解決したいのか」を言語化する訓練の機会を失うことだ。
Gabriel Krieshokは「Magical Thinking of AI」というエッセイで、こう警告している。
"We are more and more crossing a threshold of trusting algorithms more and more... We assume an intelligence behind the decision."
私たちはますますアルゴリズムを信頼するようになっている…決定の背後に知性があると仮定してしまう
アルゴリズムへの過度な信頼は、自分自身で考える力を弱体化させる。AIを魔法の箱として扱う限り、その罠から逃れることはできない。
参考文献:
- ScienceDirect「Eastern Ease and Western Worries? How collectivism and belief in magic increase user acceptance of operationally autonomous blackbox technologies」(2025)
- Gabriel Krieshok「Magical Thinking of AI」(2020)
第2章:コピペする人、問いを立てる人
研究が明らかにした3つのプロンプト行動
2024年、Taylor & Francisに掲載された研究「Analyzing Student Prompts and Their Effect on ChatGPT's Performance」は、学生がChatGPTをどのように使っているかを詳細に分析した。
研究チームは学生のプロンプト行動を分析し、3つのパターンを特定した。
1. Single Copy & Paste Prompting (SCP)
問題文をそのままコピー&ペーストする。自分の言葉を一切加えない。
2. Modified Prompting
問題文を基にしつつ、自分なりに文脈を追加したり、条件を調整したりする。
3. Iterative Prompting
AIとの対話を通じて、段階的に深掘りしていく。最初の回答を踏まえて追加の質問をする。
学習成果との相関
この研究で注目すべきは、プロンプト行動と学習成果の相関だ。
"The qualitative analysis of students' prompts yielded three types of prompting strategies... clustered students based on their utilization of different prompting strategies and reported the average final exam grades for each cluster."
学生のプロンプトに対する質的分析により、3つのプロンプト戦略が特定された。…異なるプロンプト戦略の活用状況に基づいて学生をクラスター化し、各クラスターの期末試験の平均成績を報告した
結果として、SCPを多用する学生は、成績が低い傾向にあった。一方、Modified PromptingやIterative Promptingを活用する学生は、より高い学習成果を示した。
なぜコピペでは学べないのか
この結果は直感的にも理解できる。
プロンプトを書く行為は、単なる「AIへの指示」ではない。それは「自分は何を知りたいのか」「何を解決したいのか」を言語化する行為だ。
問題文をそのままコピペするとき、この言語化のプロセスがスキップされる。AIが答えを出しても、その答えを自分の文脈で評価し、活用する力が育たない。
南ユタ大学の図書館ガイドは、AI活用について明確に警告している。
"Never just copy and paste straight from AI, but use it as a tool to help you improve your own workflow and boost your creativity. It's better used to help you make the process easier, and not to replace the process altogether. Never outsource your thinking!"
AIからそのままコピペしてはいけない。自分のワークフローを改善し、創造性を高めるツールとして使うべきだ。プロセス全体を置き換えるのではなく、プロセスを楽にするために使う。思考を外注してはいけない!
「思考を外注してはいけない」という言葉は重い。AIはあくまで思考を「補助」するツールであり、思考そのものを「代替」するものではない。
問いを立てる行為の放棄
コピペの本質的な問題は、「問いを立てる」という認知的負荷を避けていることにある。
「問いを立てる」とは、曖昧な状況から本質的な疑問を抽出し、言葉にすることだ。これは認知的に負荷の高い作業であり、だからこそ人はそれを避けたがる。
しかし、その負荷こそが学習と成長の源泉なのだ。
AIの登場により、「答えを得る」コストは劇的に下がった。だが「良い問いを立てる」コストは変わらない。むしろ、答えが簡単に得られるようになった分、問いの質がより決定的な差を生むようになった。
楽をした分だけ、思考力が衰える。これはAI時代の残酷な真実だ。
参考文献:
- Taylor & Francis「Analyzing student prompts and their effect on ChatGPT's performance」(2024)
- Southern Utah University Library「AI Prompt Engineering - Information Literacy & Library Research」
第3章:問いを立てる力は、教育で育てられてこなかった
情報リテラシーの課題
問いを立てる力の欠如は、AI時代に突然現れた問題ではない。それは長年の教育の中で見過ごされてきた課題が、AIという「鏡」によって可視化されたに過ぎない。
スタンフォード大学教育大学院の研究(2016年)は、デジタル時代における情報評価能力の不足を明らかにした。
調査によると、82%の中学生(11〜14歳)が、ウェブサイト上で「sponsored content(スポンサード・コンテンツ)」とラベル付けされた広告を、実際のニュース記事と区別できなかったという。
これは批判的思考の一側面である「情報源の信頼性評価」のスキルが十分に育成されていないことを示している。子どもたちの能力の問題というより、デジタル情報リテラシー教育の不足という教育システムの問題と捉えるべきだろう。
教師の質問の大半は「低次認知」
2013年にAmerican Journal of Pharmaceutical Educationに掲載された研究「Best Practice Strategies for Effective Use of Questions as a Teaching Tool」は、教室での質問の実態を明らかにした。
"Teachers in classroom and experiential learning environments frequently use lower-order, recall-type questions, and the overuse of this type of question hampers efforts to promote deeper, higher-order, critical thinking in students."
教室や体験学習の環境において、教師は低次の想起型の質問を頻繁に使用しており、このタイプの質問の多用は、生徒のより深い高次の批判的思考を促進する取り組みを妨げている
この論文がレビューした複数の研究によると、教師が発する質問の大半が「低次認知質問」(事実確認や暗記を問うもの)であることが報告されている。具体的には、ある研究では68.9%、別の研究では91.2%が低次認知質問であり、分析・評価・創造を求める「高次認知質問」の割合は極めて低い。
つまり、教育の現場において「問いを立てる力」を育てる機会が圧倒的に不足しているのだ。
「正解を探す」訓練と「問いを生み出す」訓練
日本の教育を振り返ってみよう。
私たちは長年、「正解を探す」訓練を受けてきた。試験には正解があり、その正解を効率よく見つけることが評価される。しかし「良い問いを立てる」訓練は、どれだけ受けてきただろうか。
受験教育において、問題は「与えられるもの」であり、「自分で生み出すもの」ではなかった。この習慣が、AI活用における格差として顕在化している。
AIに「何を聞けばいいかわからない」という人は、実は「問いを立てる」経験が不足しているのかもしれない。これは個人の能力の問題ではなく、教育システムの副産物だ。
批判的思考の障壁
2023年にPMCに掲載されたレビュー論文「An Evaluative Review of Barriers to Critical Thinking」は、批判的思考を阻害する要因を包括的に分析した。
"Critical thinking may be impeded by psychological and sociological factors such as: belief and confirmation bias, inadequate CT skills and dispositions, epistemological misunderstanding, intuitive judgment, and emotion."
批判的思考は、心理的・社会的要因によって阻害されうる。例えば、信念と確証バイアス、批判的思考スキルおよび性向の不足、認識論的誤解、直感的判断、そして感情などである
批判的思考の障壁として挙げられているのは、スキルの不足、性向の欠如、認識論的誤解、直感的判断、バイアスと感情だ。
特に重要なのは「なぜそう考えるのか」を問い直す習慣の欠如だ。私たちは自分の考えを当然のものとして受け入れ、その根拠を問い直すことを怠りがちだ。
AIとの対話において、これは致命的な弱点となる。AIが返す答えを批判的に評価できなければ、誤った情報をそのまま受け入れてしまう。
逆説的な希望
しかし、希望もある。
ScienceDirectに掲載された研究によれば、「良い問いを立てる能力は訓練で獲得可能」だという。
"Humans have an innate ability to ask questions, and the ability to ask a 'good question' can be acquired through training and coaching."
人間には質問をする生来の能力が備わっている。そして『良い質問』をする能力は、訓練やコーチングを通じて習得することができる
問いを立てる力は、生まれつきの才能ではない。訓練によって身につけられるスキルなのだ。
そしてここに、AI活用の逆説的な可能性がある。AIとの対話を「問いを立てる訓練の場」として活用できるのだ。
AIは何度質問しても疲れない。曖昧な質問をしても怒らない。自分の問いの質を試し、改善していく絶好の練習相手になりうる。
問題は、多くの人がその可能性に気づかず、「答えを得るツール」としてしかAIを見ていないことだ。
参考文献:
- Stanford History Education Group「Evaluating Information: The Cornerstone of Civic Online Reasoning」(2016)
- PMC「Best Practice Strategies for Effective Use of Questions as a Teaching Tool」(2013)
- PMC「An Evaluative Review of Barriers to Critical Thinking in Educational and Real-World Settings」(2023)
- ScienceDirect「Questioning Training and Critical Thinking of Undergraduate Students of Health and Social Sciences」(2024)
まとめ:プロンプトの向こう側にあるもの
ここまでの議論を整理しよう。
1. プロンプトは「呪文」ではない
- AIを魔法の箱として捉える「魔法的思考」は、応用力の欠如を招く
- プロンプトがなぜ効くのかを理解しなければ、文脈が変わったときに対応できない
2. コピペは思考の放棄
- 研究によれば、コピペでプロンプトを使う学生は学習成果が低い
- プロンプトを書く行為は「何を知りたいか」を言語化する行為
- その過程をスキップすることは、思考そのものを外注することに等しい
3. 問いを立てる力の教育が不足している
- 中学生の82%が広告とニュース記事を区別できないという調査結果(情報リテラシーの課題)
- 教師の質問の大半が低次認知質問
- しかし、問いを立てる力は訓練で獲得可能
次回は、AIが使う人の能力をどのように「増幅」するのか、そして自分の思考パターンをどのように可視化するのかを、さらなる研究に基づいて掘り下げていく。
- 第1回(本記事):プロンプトは「呪文」ではない
- 第2回:AIは能力の格差を増幅する ― 鏡に映る思考の質
- 第3回:優しい人がAIを使いこなせる理由 ― 企業が成果を出すために
本記事は2026年2月時点の研究・情報に基づいて執筆されています。









