はじめに
前回のVirtual Advisory Board(Buterin・Musk・Dorsey)は「フォーカスせよ」という明確なメッセージだった。今回は問いを一歩進める。「AI自律化でDAOを運営できるか」。
AI/エンジニアリング界の3人の天才と、DAOメンバー2名、そしてFounder yukihamada.jpの計6名で議論した。
注意: AIシミュレーションです。実在の人物の公式見解ではありません。
Andrej Karpathy – Software 2.0 → Organization 2.0
「僕がTeslaでAutopilotチームを率いていた時、数百人のエンジニアが必要だった仕事の多くが、今やClaude一匹でできる時代になった。」
2026年のAIの実力(正直な評価)
今、確実にできること:
- コード生成・デプロイ(CIパイプラインに乗る作業)
- カスタマーサポート応答、ブログ・ドキュメント生成
- バグの検出と修正、A/Bテスト分析
まだ2-3年かかるもの:
- 長期的な製品戦略判断(context windowの限界)
- 予期しない障害への対応(out-of-distribution問題)
- 法的・財務的判断(hallucination riskがゼロでない限り)
- ユーザーの感情的ニーズの理解
AI-Native組織のOS設計
[Human Layer] 目的関数の定義 + 例外処理 + 最終承認
↓
[Orchestrator] タスク分解 + 優先順位 + リソース配分
↓
[Specialist Agents] コード / デプロイ / CS / 分析 / マーケ
↓
[Evaluation Layer] 自動テスト + メトリクス + anomaly detection
↓ (backpropagation)
[Orchestrator] ← フィードバックループ
「目的関数の設計こそが、唯一の人間の仕事になる。」
Dario Amodei – Safety Boundaries
「うまくいっているという事実が、安全性の証明にはならない。」
3層Trust Hierarchy
| Tier | 内容 | 例 |
|---|---|---|
| Tier 1 AI自律可 | staging deploy, テスト, ログ分析, docs | |
| Tier 2 非同期承認 | production deploy, DB migration, 依存更新 | |
| Tier 3 リアルタイム承認 | 決済変更, 顧客データ, インフラ構成, credential |
段階的アプローチ
- 全production変更にhuman-in-the-loop導入
- 障害ゼロ100回達成した操作カテゴリから順次自律権限付与
- AI peer review(別AIインスタンスがデプロイ内容をレビュー)
- anomaly detection + auto-rollback の上で限定的完全自律運用
「Claudeが顧客向けプロダクトを構築・デプロイしている事実を、複雑な気持ちで見ている。有用性の実証であると同時に、現時点のモデルには完全自律に必要な信頼性水準に達していない部分がある。」
George Hotz (geohot) – Based or Cringe
「“AI writes code“と“AI runs a business“の間には、自動運転のLevel 2とLevel 5くらいの差がある。」
ストレートな評価
- Rust + Fly.io + SQLite, $142/mo → 超based
- 16プロダクトどれも$1M ARR未達 → 問題はそこ
- DAO構造 → 今の段階ではcope。 でもAIエージェントがstakeholderとして自律的に動くなら面白い
What Would Geohot Do
- 16→2に絞る(StayFlow + Chatweb.ai)
- metricsだけを見るAI agentを作る。 DAU/churn/revenueをwatchして「やばい」と言うAI
- Lambdaを捨てて全部Fly.io
- DAO構造は$100K MRRまで封印
「AIにコードを書かせる暇があるなら、AIに営業させろ。」
sakura-dev – エンタープライズの視点
「驚異的であることと、持続可能であることは別の話です。」
障害発生時のエスカレーションパスが最も重要。AIがdeploy後にincidentが発生した場合、誰が判断し、誰が顧客に説明するのか。16プロダクトはAIが書いていたとしても品質保証の観点で破綻している。
「急がば回れ、と申しますので。」
0xnomad – Web3の視点
「DAOの本質はdecentralized governanceであって、効率的なoperationではない。」
AI agentがexecution layerを担い、humanがstrategic decision layerを担うレイヤー分離は、実は理想的なDAO設計に近い。しかしbus factor = 1はDAOとして致命的。AI自律化の前にhuman decentralizationが先。
yukihamada.jp – Founderの決断
フォーカスの重要性は理解した。だが、EnablerDAOの真の強みは「1人+AIで16個動かせる」という事実そのものだ。これを捨てるのは間違い。
方針:
- AI Orchestrator Agent を構築(Karpathy案)
- Constitutional AI guardrails を全agentに導入
- Darioの3層Trust Hierarchy を実装
- Revenue: StayFlow集中しつつ、他はAI自律メンテナンス
- 目標: 世界初の「AI-run DAO」として実証
「普通のスタートアップなら1つに絞る。でもAI-native orgは違うゲームだ。」
決定事項まとめ
| # | アクション | 担当 |
|---|---|---|
| 1 | AI Orchestrator Agent 設計・構築 | yukihamada.jp + Claude |
| 2 | 3層Trust Hierarchy 実装 | AI agents |
| 3 | StayFlow有料転換を最優先KPIに設定 | 全体 |
| 4 | metrics監視AI agent構築(geohot提案) | AI agents |
| 5 | 他プロダクトはAI自律メンテナンスモードに移行 | AI agents |
| 6 | AI peer review 仕組み構築(Dario提案) | Q3 |
次回会議
2026年Q2末にフォローアップ会議を開催。StayFlow MRR \100万達成状況と、AI自律運用のincident記録をレビューする。
これはAIシミュレーションです。実在の人物の公式見解ではありません。
すべてのコードはGitHubでオープンソースとして公開しています。