Verifiable Reasoning Infrastructure
AI は道具ではない。 毎日査定される、新入社員である。
- 実績で権限が広がる。
- 疑わしければ即座に剥がす。
- 触れた情報は、最小限しか見せない。
いま、ほぼすべての企業が、AI について同じ二択を迫られている。
経営は全社 AI 導入を望んでいる。情報セキュリティは承認できない。法務は判断できない。 情シスは監査できないものを管理できない。その結果、多くの企業が静かに二つの答えのどちらかを選んでいる。 どちらも、正しい答えではない。
Aegis は第三の答えだ。禁止とリスクの二択を終わらせる。AI を採用しなさい。試用期間を設けなさい。 実績を出したら昇格させなさい。疑わしければ即座に剥がしなさい。機密情報にアクセスする新入社員と 同じように扱いなさい。実際にそれと同じものなのだから。
Aegis は、製品として設計されたものではありません。
2025 年末、私は自社の本番環境で AI エージェントシステムを運用していました。毎日、 私は同じ選択を迫られていました。エージェントを止めれば、作っていたプロダクトが死ぬ。 信じれば、次の教訓事例になるリスクがある。監視するとして、何を使って、誰が見るのか。
ある朝、気づきました。私は AI を「採用」していなかった。試用期間で評価していなかった。 権限を広げる基準もなければ、広げるべきでない時に剥がす仕組みもなかった。 顧客データにアクセスする自律的なエージェントをデプロイしておきながら、 新人のインターン以下の管理で動かしていたのです。
その週のうちに作ったものが Aegis です。これはセキュリティ製品ではありません。 私の現場で欠けていた人事レイヤーそのもので、結果として、どの現場でも同じように欠けていました。
Contrarian Thesis
2025 年に、AI エージェントはデモから本番へと移行した。2026 年に、それらは顧客データ、 取締役会資料、規制対象レコードに触れはじめた。2027 年までに、本気の企業は 1 社あたり 1,000 体のエージェントを運用する。そのとき問われるのは「セキュアかどうか」ではない。 「信頼制御と共に出荷するか、出荷しないか」だ。AI の人事基盤はインフラスタックに まだ存在しない。このギャップは、一度きりしか埋まらない。埋めた者がカテゴリを所有する。
隣接する既存ベンダー (Okta、Kong、Palo Alto、CrowdStrike、Microsoft、Adobe) は、 すべて同じ前提に立っている。「データは受動的であり、主体がそれに作用し、境界は 主体に関するルールで強制される」。Aegis は逆の前提に立っている。「データは能動的であり、 自らポリシーを運び、境界はデータ自身が強制する」。これは既存製品に後付けできる機能では ない。競合がゼロから作り直す必要のある基盤設計であり、そのコストは彼らの既存ビジネスを 壊すことと等しい。私たちは、その瞬間が誰の予想よりも早く訪れると考えている。