Verifiable Reasoning Infrastructure

AI は道具ではない。 毎日査定される、新入社員である。

825 の自動テスト · 292 の mutation 検出 · 2.7M 回の fuzz 実行 Linux + macOS(x86_64, aarch64) 対応 特許 2 件出願済 (2026 年)
  • 実績で権限が広がる。
  • 疑わしければ即座に剥がす。
  • 触れた情報は、最小限しか見せない。
Aegis は AI エージェント向けの Verifiable Reasoning Infrastructure。AI の行動を証明し、免許を発行する。

いま、ほぼすべての企業が、AI について同じ二択を迫られている。

経営は全社 AI 導入を望んでいる。情報セキュリティは承認できない。法務は判断できない。 情シスは監査できないものを管理できない。その結果、多くの企業が静かに二つの答えのどちらかを選んでいる。 どちらも、正しい答えではない。

選択肢 A. AI を禁止する。 初日は安全。90 日後には競争力を失う。エンジニアたちは業界が動くのをただ見ている。
選択肢 B. AI を許可し、何も起きないことを祈る。 初日は生産的。Samsung 規模のインシデントが 1 件起きた瞬間に、見出しになり、ロードマップが止まる。

Aegis は第三の答えだ。禁止とリスクの二択を終わらせる。AI を採用しなさい。試用期間を設けなさい。 実績を出したら昇格させなさい。疑わしければ即座に剥がしなさい。機密情報にアクセスする新入社員と 同じように扱いなさい。実際にそれと同じものなのだから。

Aegis は、製品として設計されたものではありません。

2025 年末、私は自社の本番環境で AI エージェントシステムを運用していました。毎日、 私は同じ選択を迫られていました。エージェントを止めれば、作っていたプロダクトが死ぬ。 信じれば、次の教訓事例になるリスクがある。監視するとして、何を使って、誰が見るのか。

ある朝、気づきました。私は AI を「採用」していなかった。試用期間で評価していなかった。 権限を広げる基準もなければ、広げるべきでない時に剥がす仕組みもなかった。 顧客データにアクセスする自律的なエージェントをデプロイしておきながら、 新人のインターン以下の管理で動かしていたのです。

その週のうちに作ったものが Aegis です。これはセキュリティ製品ではありません。 私の現場で欠けていた人事レイヤーそのもので、結果として、どの現場でも同じように欠けていました。

Contrarian Thesis

2025 年に、AI エージェントはデモから本番へと移行した。2026 年に、それらは顧客データ、 取締役会資料、規制対象レコードに触れはじめた。2027 年までに、本気の企業は 1 社あたり 1,000 体のエージェントを運用する。そのとき問われるのは「セキュアかどうか」ではない。 「信頼制御と共に出荷するか、出荷しないか」だ。AI の人事基盤はインフラスタックに まだ存在しない。このギャップは、一度きりしか埋まらない。埋めた者がカテゴリを所有する。

隣接する既存ベンダー (Okta、Kong、Palo Alto、CrowdStrike、Microsoft、Adobe) は、 すべて同じ前提に立っている。「データは受動的であり、主体がそれに作用し、境界は 主体に関するルールで強制される」。Aegis は逆の前提に立っている。「データは能動的であり、 自らポリシーを運び、境界はデータ自身が強制する」。これは既存製品に後付けできる機能では ない。競合がゼロから作り直す必要のある基盤設計であり、そのコストは彼らの既存ビジネスを 壊すことと等しい。私たちは、その瞬間が誰の予想よりも早く訪れると考えている。

あなたの AI に、人事制度はありますか?

どの組織にも、人を雇うライフサイクルがある。面接・オンボード・試用期間・評価・昇格・ 処分・退職。Aegis は同じ 7 段階を、AI エージェントに対して、コードで、本番環境で、 リアルタイムで実装しています。ポリシー文書ではなく、ランタイムです。

7 段階の構造を見る →

AI を禁止する前に、一度話しませんか。