AIエージェントって、できることはかなり増えてきました。
でも実運用の現場では、こんな不安がつきまといます。
tilde.run は、その不安に真正面から答えようとしているサービスです。
一言でいうと、AIエージェントの実行を「トランザクション」化して、安全に本番データへ触らせるための基盤です。
個人的には、これはかなり筋のいい発想だと思います。
AIを便利にするサービスはたくさんありますが、「便利さ」より前に「事故を防ぐ仕組み」を前面に出しているのが、現場感があるんですよね。
AIエージェントの実行を“戻せる”
失敗したら rollback、成功したら commit という考え方
GitHub / S3 / Google Drive を1つの filesystem として扱える
ばらばらのデータを、エージェントが扱いやすい形にまとめる
ネットワーク通信はすべて監査・制御される
外に勝手に送信するのを防ぐ
人間の承認をはさめる
重要な操作は approval gate で止められる
CLI / Python SDK / Claude Code などから使える
既存の開発フローに入りやすい
lakeFS を作ったチームが開発
データ versioning の実績を土台にしている
tilde.run のキャッチコピーは、
Let AI agents loose on production. Without the risk.
つまり、
「AIエージェントを本番環境で自由に動かしていい。でも危険は減らす」
という挑戦です。
ここでいう production は、ざっくり言えば実データがある本番環境のことです。
開発用のダミーデータではなく、実際の業務データや社内文書、S3 のデータ、GitHub のコードなどに触れる世界ですね。
AIエージェントは、うまく動けばかなり頼もしい存在です。
でも、現実には「暴走」「誤操作」「情報漏えい」が怖い。
tilde.run はそこを、**“安全に試せる箱”を作る**ことで解決しようとしているわけです。
このサービスの核にあるのは、every agent run is a transaction という考え方です。
トランザクションは、金融やデータベースでよく出てくる言葉ですが、かんたんに言うと、
という仕組みです。
tilde.run では、AIエージェントの1回の実行をこの考え方で扱います。
つまり、エージェントがファイルを編集したり、レポートを書いたり、何か処理をしたりしても、最後に commit するか rollback するかを人間が決められる。
これは地味に見えて、かなり重要です。
AIに任せるときの最大の怖さは「何かがおかしかったとき、元に戻せない」ことなので、最初から戻せる設計にしてしまうのは、かなり賢いと思います。
tilde.run の面白い点のひとつが、
GitHub、Amazon S3、Google Drive をひとつの versioned filesystem として見せるところです。
この3つは普通、それぞれ別のサービスです。
人間でも面倒なのに、AIエージェントから見るともっと面倒です。

tilde.run は、これらをまとめて ~/sandbox のような単一の作業空間として扱えるようにしています。
しかも、ただの統合ではなく、各ファイルが versioned(バージョン管理される) のがポイントです。
これはつまり、
「どのデータを使って、どのファイルをどう変えたか」を追えるということ。
実務ではこの差が大きいです。AIが生成した成果物って、便利な一方で「それ本当にどの入力からできたの?」が曖昧になりがちなので、そこを最初から見える化しているのはかなりよい設計です。
AIエージェントに自由を与えると、次に怖いのが外向き通信です。
たとえば、
こういう事故は、現場では本当に嫌われます。
tilde.run はここを default-deny、つまり最初は全部止める考え方で設計しています。
必要な通信だけ許可し、しかも すべて監査ログに記録 する。
記事中の例では、
となっていました。
ここ、かなり実戦的です。
AIの問題って「賢さ」より「外に漏らさない」「余計なことをしない」が先に来るので、ネットワークを締めるのは本当に大事だと思います。
tilde.run には audit trail、つまり監査証跡があります。
簡単に言うと、
を追える仕組みです。
記事では、timeline を見て commit ごとの差分を確認し、必要なら 瞬時に revert できることが示されていました。
これはAI時代にはかなり重要です。
人間の作業でも「誰がやったか」は大事ですが、AIが混ざると責任の所在がさらにぼやけやすい。
だからこそ、全部の行動に記録がつくのは、安心材料として強いです。
個人的には、AI導入の現場で一番つらいのは「便利だけど怖くて使えない」状態だと思っています。
tilde.run は、その怖さを「見える化」と「巻き戻し」で減らそうとしている。ここが本質ではないでしょうか。
RBAC は Role-Based Access Control の略で、
日本語ではざっくり 権限管理 のことです。
tilde.run では、これを人間だけでなく agent にも適用 します。
つまり、
/data/*.csv を読むのはOK/reports/* への書き込みは人間承認が必要/secrets/* には触らせないみたいに、agent ごと、repo ごと、action ごとに細かく制御できます。
これ、かなり現場向きです。
AIエージェントに「アカウントを貸す」のではなく、必要最小限の能力だけを渡す発想だからです。
雑に言えば、
「便利だからフル権限を渡す」は事故のもと。
「読める場所、書ける場所、止める場所」を分けるのが安全です。
これは昔からのセキュリティの基本ですが、AI時代になると一気に重要度が上がるなと思います。
tilde.run は、単なるWeb画面のデモで終わっていません。
CLI、Python SDK、Claude Code との連携など、開発者の手元で使える形をかなり意識しています。
tilde exec で sandbox を立ち上げて、スクリプトを実行し、完了後に commit できます。
tilde shell で対話的な shell を開くことも可能です。
Python から repository を扱って、sandbox を起動し、結果を受け取り、timeline を読む流れが示されています。

自然言語で「このデータを分析してレポートを書いて」と頼むと、sandbox を作って実行し、最後に commit を待つ、という流れです。
ここで感じるのは、tilde.run が「AI用の特別な世界」を作りたいというより、今ある開発の流れにAIを安全に差し込もうとしている点です。
この姿勢はかなり実務的で、好感が持てます。
記事では、以下のような流れが紹介されていました。
tilde exec で agent を sandbox 実行tilde shell で対話的に作業この「まず動かして、あとで確定する」感じは、Git 的でもあり、データ基盤っぽくもあります。
AIを「毎回一発勝負」で使うのではなく、試して、確認して、確定する文化に寄せているのがいいですね。
記事から見えてくる用途は、たとえばこんな感じです。
要するに、本番データに触るけど、事故は困る作業です。
ここに刺さるのはかなり明確で、
「AIに任せたい。でも責任は人間が取りたい」
というニーズに正面から応えている感じがあります。
記事の最後で強調されていたのが、lakeFS のチームが作っているという点です。
lakeFS は、オープンソースの data versioning layer として知られていて、
大量のデータをバージョン管理する世界で実績があります。
つまり tilde.run は、急に思いついた勢い任せの製品ではなく、
データの versioning を長年やってきたチームが、その思想を AI エージェント向けに広げたものと見られます。
これはかなり説得力があります。
AIの安全性は、派手なモデル名より、地味な基盤設計で決まることが多いので、こういうバックグラウンドは信頼材料になります。
tilde.run の面白さは、AIの能力を直接上げることではなく、
AIを実務で使える状態に持っていくところにあります。
最近のAI関連サービスは、「何ができるか」を競いがちです。
でも本当に現場で効くのは、「事故らずに継続利用できるか」です。
その意味で、tilde.run はかなり地に足がついていると思います。
もちろん、実際にどこまで運用しやすいかは、使ってみないと分からない部分もあります。
たとえば、
このあたりは今後の評価ポイントでしょう。
でも方向性としてはかなり筋がいい。
AIを「野放し」ではなく「管理可能な自動化」にする、という発想は、これからますます重要になるはずです。
tilde.run は、AIエージェントを本番データに接続するうえでの最大の壁――
安全性、監査性、巻き戻し可能性――を、かなり真正面から解こうとしているサービスです。
という設計は、AIを「便利なおもちゃ」から「業務で使える道具」に引き上げるための土台として、とてもよくできていると思います。
AIエージェントを本当に実運用したい人にとって、かなり気になる存在ではないでしょうか。
参考: tilde.run - Let AI agents loose on production. Without the risk.