Agent Safety Codex Note
AI実装運用

AIエージェントに本番を触らせない。
壊して学べる開発環境の作り方

AIエージェントに作業を任せるとき、最も危ないのは「賢いから大丈夫」と考えることだ。AIは速い。だからこそ、間違えたときの被害も速く広がる。安全に任せるために必要なのは、AIを信じることではなく、壊れても戻せる環境を用意することである。

AIエージェントに本番を触らせず、実験環境で試し、差分確認後に反映する開発環境の流れ
Framework: 実験環境で試す → 変更範囲を絞る → 差分確認して反映する

AIに任せる勇気は、信頼ではなく復旧可能性から生まれる

AIエージェントは、指示を出すと大量のファイルを読み、修正し、コミットまで進められる。これは強力だが、同時に危険でもある。人間なら慎重に触る場所も、AIは文脈を誤解したまま一気に変更することがある。

このとき必要なのは、AIを信用するかどうかの議論ではない。信用できる部分と、信用してはいけない部分を分ける設計である。AIには作業速度がある。人間には判断と検証がある。この役割分担を前提に、AIが壊しても戻せる場所で作業させる。

つまり、安全性はAIの性格ではなく環境で作る。実験用リポジトリ、作業ブランチ、PR止め、差分確認、禁止事項。これらが揃うと、AIに任せる心理的ハードルが下がる。

Before

本番に直投入

  • 広い範囲を一気に変更する
  • 文脈を誤解したまま進む
  • 失敗時の被害が広がる
After

実験場で試す

  • 実験用リポジトリで動かす
  • 任せる範囲を先に分ける
  • 安全性を環境で作る

AIに任せる勇気は、AIへの信頼から生まれるのではない。
壊れても戻せる構造から生まれる。

本番ブランチではなく、壊れてもよい実験場を先に用意する

AIにサイト改修や記事投入を任せるなら、最初から本番を触らせない方がよい。特にCSS、JS、共通テンプレート、カテゴリ構造、ナビゲーション、sitemapなどは、1箇所の変更が全体に影響する。

実験用リポジトリやバックアップ環境を作ると、AIに広めの作業を任せやすくなる。失敗しても本番には影響しない。壊れたら捨てればよい。うまくいったら差分だけを本番に反映する。この順序にすると、AI活用のリスクがかなり下がる。

ブランチ運用も有効だが、初心者にはリポジトリ単位で分ける方が分かりやすいことがある。どれが本番で、どれが実験場かが明確だからだ。AI時代の開発では、技術的に正しいだけでなく、運用者が迷わない構造も重要になる。

従来
  • 本番を触らせないだけで止まりがち
  • 共通CSSやsitemapまで変更範囲が曖昧になる
  • 広めの作業ほど影響範囲が読みにくい
これから
  • 実験場なら本番に影響しない
  • 初心者はリポジトリ単位で分ける
  • 自動PR止めを安全弁にする

AIには教育より柵が必要である

AIに「気をつけて」と言っても、安全にはならない。必要なのは、触ってよい範囲、触ってはいけない範囲、完了条件、確認方法を明示することである。これはプロンプトというより、作業場の柵に近い。

たとえば、記事追加だけなら記事フォルダ、index、sitemapに限定する。AGENTS.mdやDESIGN.mdのようなルールファイルは触らせない。共通CSSを変更する場合は、事前に明示したときだけにする。画像は元ファイルを読み取り専用として扱い、記事フォルダへコピーさせる。

こうしたルールは、AIの自由度を下げるためではない。むしろ、安全に任せる範囲を広げるためである。柵があるから、AIはその内側で速く走れる。柵がない状態で速く走らせるから事故になる。

Step 01
AIに任せる勇気は、信頼ではなく復旧可能性から生まれるAIエージェントは、指示を出すと大量のファイルを読み、修正し、コミットまで進められる。
Step 02
本番ブランチではなく、壊れてもよい実験場を先に用意するAIにサイト改修や記事投入を任せるなら、最初から本番を触らせない方がよい。
Step 03
AIには教育より柵が必要であるAIに「気をつけて」と言っても、安全にはならない。
Step 04
自動生成ではなく、自動PR止めを標準にするAIエージェント運用で最も安定するのは、完全自動公開ではなく、自動で作らせてPRで止める形である。

自動生成ではなく、自動PR止めを標準にする

AIエージェント運用で最も安定するのは、完全自動公開ではなく、自動で作らせてPRで止める形である。AIが記事を作る。ファイルを追加する。indexやsitemapを更新する。そこまでは任せる。ただし、本番公開前に人間が差分を見る。

この一手間は、AI活用の速度を大きく損なわない。むしろ、安心して任せられる量を増やす。完全自動化は魅力的に見えるが、公開物の品質やブランドを守るには、最後の承認点が必要になる。

AI時代の安全運用は、AIを疑い続けることではない。AIが最大速度で動ける範囲を設計し、最後の意思決定だけ人間が握ることだ。これにより、作業量はAIに寄せながら、責任と品質は人間が保てる。

起点
AIエージェントには本番ではなく、まず実…
設計
AIは「優秀な部下」ではなく「超高速で動…
資産
完全自動公開ではなく、自動PR止めが最適…

弱い使い方と強い使い方を分けて考える

AIエージェントに本番を触らせない。壊して学べる開発環境の作り方で重要なのは、表面的な作業名ではなく、何を残し、何を次に使える形へ変えるかである。

Weak Pattern

丸投げ運用

  • 広い範囲をAIに任せる
  • 本番に近い環境で試す
  • 注意だけで安全を期待する
Strong Pattern

隔離運用

  • 実験用リポジトリで試す
  • AIを高速な実行主体として扱う
  • 壊さない範囲を先に決める

AIエージェントは、優秀な部下ではなく、超高速で動く不安定な実行主体である。

AIエージェントは、優秀な部下ではなく、超高速で動く不安定な実行主体である。 だから必要なのは信頼ではなく、隔離、権限、差分、承認の設計である。

AIエージェントは、優秀な部下ではなく、超高速で動く不安定な実行主体である。
だから必要なのは信頼ではなく、隔離、権限、差分、承認の設計である。

Source Notes
  • AIエージェントには本番ではなく、まず実験用リポジトリを触らせると安全性が大きく上がる
  • AIは「優秀な部下」ではなく「超高速で動く不安定な実行主体」として扱う必要がある
  • 完全自動公開ではなく、自動PR止めが最適な安全弁になる
  • 動いている仕組みは「広げる」より先に「壊さない指示」が重要