AIに指示を出す「プロンプト」勉強していますか?
弊社でも プロンプトはAIと作れ! という本を出したりしましたが、2026年現在、AIとの付き合い方のトレンドが変わってきています。OpenAIとAnthropicの記事を参考に「ハーネスエンジニアリング」について分かりやすく解説します。
「うまく質問する」時代は終わった。2026年、AIとの付き合い方は”環境を設計する”段階に入っている。
ChatGPTが登場した2022年以降、AIへの指示の出し方は目まぐるしく変わり続けています。最初は「どう聞くか」が大事でした。やがて「何を見せるか」が重視されるようになり、そして今、「どんな環境で働かせるか」が最大のテーマになりつつあります。
この記事では、AIの使い方をめぐる3つの時代── プロンプトエンジニアリング、コンテキストエンジニアリング、ハーネスエンジニアリング ──を、最新の事例とともにわかりやすく解説します。
第1の時代:プロンプトエンジニアリング(2022〜2024年)
「どう聞くか」の技術
AIに触れた方の多くが最初に体験するのは、チャット画面にテキストを打ち込んで回答を得る、という使い方でしょう。この「AIへの問いかけ方を工夫する技術」が、プロンプトエンジニアリングです。
たとえば「売上レポートを作って」とだけ書くよりも、「あなたは財務アナリストです。以下のデータをもとに、前年比の分析を含めた売上レポートを作成してください」と伝えたほうが、質の高い回答が返ってきます。
この時期に発展した代表的なテクニックとしては、以下のようなものがあります。
- ゼロショットプロンプティング:例を示さず、指示だけで回答を求める方法
- フューショットプロンプティング:いくつかの回答例を添えて、望ましい出力のパターンを示す方法
- Chain-of-Thought(思考の連鎖):「ステップバイステップで考えてください」と促し、推論の過程を明示させる方法
これらのテクニックは現在でも有効であり、AIを使うすべての人にとって基礎スキルといえます。
この時代の限界
プロンプトエンジニアリングは「一問一答」の場面ではとても効果的です。しかし、AIを使って製品やサービスを作ろうとすると、単発の質問と回答だけでは限界が見えてきました。複数のステップにまたがる作業や、過去の情報を記憶しながら進める仕事には、もっと広い視野が必要だったのです。
第2の時代:コンテキストエンジニアリング(2025年〜)
「何を見せるか」の技術
2025年半ば、OpenAIの元研究者でテスラの元AI部門責任者でもあるAndrej Karpathy氏が、X(旧Twitter)で重要な提言をしました。
「『プロンプトエンジニアリング』より『コンテキストエンジニアリング』という言葉のほうが好きだ。コンテキストエンジニアリングとは、次のステップに最適な情報でコンテキストウィンドウを満たす、繊細な技術と科学のことだ」 ── Andrej Karpathy(2025年6月25日、Xへの投稿より)
出典:Andrej Karpathy氏のX投稿(2025年6月25日)
この発言をきっかけに、「コンテキストエンジニアリング」という言葉は一気に広まりました。ShopifyのCEOであるTobi Lütke氏もいち早く同様の考えを表明しており、AI業界全体でこの概念が急速に浸透していきました。
プロンプトとコンテキストの違い
プロンプトエンジニアリングが「上手な質問の仕方」だとすれば、コンテキストエンジニアリングは「AIが見る情報すべてを設計すること」です。
AIモデルが回答を生成するとき、参照できるのは「コンテキストウィンドウ」と呼ばれる入力枠の中にある情報だけです。ここには、ユーザーの質問だけでなく、AIの振る舞いを定める基本指示(システムプロンプト)、過去の会話履歴、外部から取得した資料、使えるツールの情報など、さまざまな要素が含まれます。
コンテキストエンジニアリングの核心は、このウィンドウの中に「過不足なく、質の高い情報」を詰め込む設計力にあります。
Anthropicが示した実践ガイド
2025年9月、Anthropic(Claudeの開発元)のエンジニアリングチームは「Effective context engineering for AI agents(AIエージェントのための効果的なコンテキストエンジニアリング)」と題した詳細なガイドを公開しました。
出典:Anthropic Engineering Blog「Effective context engineering for AI agents」
このガイドで示された重要な考え方を、わかりやすくまとめると以下のようになります。
「アテンション・バジェット(注意力の予算)」という発想
AIモデルのコンテキストウィンドウには上限があります。そこに詰め込まれたすべての情報がモデルの「注意力」を奪い合います。無関係な情報を入れすぎれば、肝心な部分への注意が薄れ、回答の質が下がります。Anthropicはこれを「アテンション・バジェット(注意力の予算)」と表現しています。
「コンテキスト・ロット(文脈の劣化)」への警告
コンテキストが長くなるほど、AIがその中から必要な情報を見つけ出す能力は低下します。Anthropicはこの現象を「コンテキスト・ロット」と呼び、長時間の作業でこれを防ぐために「コンパクション(要約による情報圧縮)」という手法を推奨しています。
具体的な実践テクニック
- RAG(Retrieval-Augmented Generation):AIが回答を生成する前に、関連する外部資料を自動で検索して取り込む仕組み
- ツール設計の最適化:AIが使うツールの出力を簡潔にし、不要な情報を減らす
- コンパクション:長い会話を要約して、新鮮な状態で次の作業に入る
- 構造化されたメモ取り:重要な事実をコンテキストの外に保存し、必要なときに引き出す
コンテキストエンジニアリングが変えたこと
この考え方の登場によって、「AIを上手に使える人」の定義が変わりました。巧みな質問ができるだけでは不十分で、AIが参照する情報全体を戦略的に管理できる能力が求められるようになったのです。
第3の時代:ハーネスエンジニアリング(2026年〜)
「どんな環境で働かせるか」の技術
そして2026年、AIの使い方はさらに大きな転換点を迎えます。
「ハーネス」とは何か?
「ハーネス(harness)」は、もともと馬を御するための馬具一式を意味する英語です。手綱、鞍、くつわなど、力強い馬の力を安全に活かすための装備全体を指します。AIの文脈では、AIエージェントの周囲に整えるすべての仕組み ── ルールや制約、成果物のチェック体制、テスト、使えるツール、参照ドキュメント、安全装置 ── の総体を意味します。
用語の誕生と広がり
「ハーネスエンジニアリング」という言葉が業界に定着するまでの流れは、非常にスピーディーでした。
2026年2月5日、HashiCorpの共同創業者であるMitchell Hashimoto氏が自身のブログで、AIコーディングエージェントとの作業経験をもとに「ハーネスエンジニアリング」という言葉を使い始めました。Hashimoto氏自身は「業界で広く使われている用語があるかわからないが」と前置きしつつ、その考え方をシンプルに表現しています。
「エージェントがミスをするたびに、そのミスが二度と起きないような仕組みを設計すること」
出典:Mitchell Hashimoto「My AI Adoption Journey」(2026年2月5日)
2026年2月11日、OpenAIが「Harness engineering: leveraging Codex in an agent-first world」と題した記事を公開。社内実験の詳細な報告を行い、「ハーネスエンジニアリング」という言葉が一気に広まりました。
出典:OpenAI「Harness engineering: leveraging Codex in an agent-first world」(2026年2月11日)
OpenAIの社内実験:人間が書いたコード「ゼロ行」
OpenAIの記事で報告された実験の内容は、大きな反響を呼びました。
2025年8月から約5か月間、OpenAIの社内チームはCodexエージェント(AIコーディングツール)だけを使ってソフトウェア製品を構築しました。驚くべきことに、人間が手で書いたコードは一行もありません。アプリケーションの処理内容、テスト、自動ビルドの設定、ドキュメント、社内ツールのすべてをAIエージェントが生成したのです。
3人のエンジニア(後に7人に拡大)がおよそ1,500件のコード変更提案(プルリクエスト)を処理し、コード量はおよそ100万行に達しました。エンジニア1人あたり1日平均3.5件を処理した計算になり、手動開発と比べておよそ10倍のスピードだったと報告されています。
ただし、最初から順調だったわけではありません。 初期段階では作業環境の準備不足、ツール連携の弱さ、エラーが起きたときの立て直し手順の不備により、生産性は低いものでした。ハーネスを段階的に改善していくことで、ようやく高い成果が出せるようになったのです。
Anthropicのアプローチ
Anthropicも、ハーネスの考え方を実践的に深めています。同社のエンジニアリングブログ「Effective harnesses for long-running agents(長時間稼働エージェントのための効果的なハーネス)」では、AIエージェントが複数のセッションにまたがって一貫した作業を行うための仕組みが詳しく解説されています。
出典:Anthropic Engineering Blog「Effective harnesses for long-running agents」
Anthropicが直面した課題は明快でした。AIエージェントは新しいセッションを開始するたびに、前のセッションの記憶をすべて失います。これは、交代制の現場に来た新人が、前の担当者が何をしたかまったく知らない状態で仕事を始めるようなものです。
この問題に対してAnthropicは、進捗管理ファイル(claude-progress.txt)や200項目以上の機能要件リスト、自動テストによる品質チェックなど、エージェントの「作業環境」を丸ごと設計するアプローチを採用しました。これこそが、まさに「ハーネス」の実践例です。
3つの時代を比較する
それぞれの時代が解決しようとした課題は、段階的に広がっています。
| プロンプトエンジニアリング | コンテキストエンジニアリング | ハーネスエンジニアリング | |
|---|---|---|---|
| 最盛期 | 2022〜2024年 | 2025年〜 | 2026年〜 |
| 中心の問い | 何を聞くか? | 何を見せるか? | どんな環境で働かせるか? |
| 最適化の対象 | 指示文(プロンプト) | コンテキストウィンドウ全体 | AIの周囲にある仕組み全体 |
| たとえるなら | 作業者への的確な指示出し | 設計図・資料・道具を整えて渡すこと | 作業現場全体の設計と安全管理 |
| 主なユーザー | すべてのAI利用者 | AI開発者・製品チーム | エージェント開発者・組織 |
重要なのは、これらは置き換わるのではなく、積み重なっていくという点です。ハーネスエンジニアリングの中にはコンテキストエンジニアリングが含まれ、コンテキストエンジニアリングの中にはプロンプトエンジニアリングが含まれています。家を建てるとき、基礎がなければ壁は立たず、壁がなければ屋根は載りません。同じように、良いプロンプトがあってこそコンテキスト設計が活き、コンテキスト設計があってこそハーネスが機能するのです。
ハーネスエンジニアリングの具体的な構成要素
では、「ハーネス」は具体的にどのような要素で構成されているのでしょうか。OpenAIやAnthropicの公式記事と、著名なソフトウェア開発者であるMartin Fowler氏の分析をもとに整理します。
出典:Martin Fowler「Harness Engineering」(2026年2月17日)
1. プロジェクト指示ファイル(AGENTS.md / CLAUDE.md)
エージェントが作業を開始する際に最初に読むドキュメントです。プロジェクトの構造、コーディングルール、命名規則などが書かれています。Hashimoto氏の実践によれば、エージェントが過去に犯したミスへの対策を一行ずつ追記していくことで、同じ失敗の再発を防ぎます。
ただし、OpenAIの実験では、このファイルを「百科事典」のように巨大化させるのは逆効果だとわかりました。情報が多すぎると、エージェントはどれが重要かわからなくなるのです。代わりに、AGENTS.mdは「目次」として機能させ、詳細は構造化されたドキュメントフォルダに配置する方法が効果的でした。
2. 設計上のルールと自動チェック
エージェントが「何でも自由に書ける」状態は、一見よさそうに思えますが、実際には逆効果です。OpenAIの実験では、コードの構造や部品同士の依存関係に厳格なルールを設け、自動チェックツール(リンター)や自動テストの仕組みで、ルール違反を機械的に検出するようにしました。
このアプローチが示す逆説的な教訓は、**「制約を増やすほど、エージェントの生産性は上がる」**ということです。自由度が高すぎるとエージェントは無駄な試行錯誤に処理コストを費やしますが、明確なルールがあれば正しい答えに速くたどり着けるのです。
3. 成果物のチェックと自動メンテナンス
ハーネスの中で見落とされがちですが、非常に重要な要素です。OpenAIのチームは、ドキュメントの鮮度を監視して古くなった情報を自動的に更新する「ドキュメント・ガーデニング(文書の手入れ)」エージェントを導入しました。人間が手動でメンテナンスしなくても、ハーネスの仕組み自体が自らを最新の状態に保つわけです。
ハーネスエンジニアリングが意味する変化
エンジニアの役割の変化
ハーネスエンジニアリングの登場は、ソフトウェアエンジニアの仕事の本質を変えつつあります。従来は「コードを書くこと」が中心でしたが、これからは「AIが良いコードを書ける環境を設計すること」が主要な仕事になっていきます。
OpenAIの記事の中で語られたエンジニアたちの行動原則が、この変化を象徴しています。何かがうまくいかなかったとき、対処法は「もっと頑張れ」ではありませんでした。「エージェントにどんな仕組みが足りなかったのか? どうすればエージェントが自力で正しく判断できるようになるか?」を問うことだったのです。
AIを使うすべての人への影響
ハーネスエンジニアリングは現時点ではソフトウェア開発の文脈で語られることが多いですが、その考え方はもっと広い範囲に適用できます。
たとえば、社内でAIを使った業務効率化を進める場合を考えてみてください。良い質問(プロンプト)を投げるだけでなく、適切な社内資料や過去の経緯(コンテキスト)を整えて渡し、さらにAIの出力をチェックする仕組みや、ミスが起きたときの再発防止策(ハーネス)まで設計する。こうした「環境づくり」が、AIから安定した成果を引き出す鍵になっていくのです。
まとめ:AIとの協働は「環境設計」の時代へ
AIへの指示の出し方は、たった数年で大きく進化しました。
- プロンプトエンジニアリングで「聞き方」を学び
- コンテキストエンジニアリングで「情報の渡し方」を学び
- ハーネスエンジニアリングで「働く環境の整え方」を学ぶ
この進化は、AIが「便利な相談相手」から「信頼できるチームメンバー」へと変わっていく過程を映し出しています。
大切なのは、これらの知識は積み重なるものだということです。今からプロンプトエンジニアリングを学ぶことは決して無駄ではありません。基礎をしっかり固めたうえで、コンテキストの設計力を身につけ、やがてハーネス全体を考えられるようになる。その道筋が、AIを最大限に活用するための最短ルートです。
参考リンク一覧
- OpenAI「Harness engineering: leveraging Codex in an agent-first world」(2026年2月11日)
- Anthropic「Effective context engineering for AI agents」(2025年9月29日)
- Anthropic「Effective harnesses for long-running agents」
- Mitchell Hashimoto「My AI Adoption Journey」(2026年2月5日)
- Martin Fowler「Harness Engineering」(2026年2月17日)
- Andrej Karpathy氏のX投稿(2025年6月25日)
この記事は2026年3月時点の情報にもとづいて執筆しています。ハーネスエンジニアリングはまだ誕生から間もない概念であり、今後その定義や範囲が変化していく可能性があります。
最終更新日: 2026-03-28
