Jumpei's blog

From Slogans to World Models

In software engineering, LLMs have fundamentally changed how we work. Prompt and context design, coding agents, evals, harnesses, workflow automation. The optimization for shipping higher-quality work, faster, with fewer people, is racing forward every day.

Look over at the management side, and things haven't changed much. The CEO might be deepening their thinking through conversations with an LLM, but as an organization, AI adoption means meeting summaries, deck generation, formatting — peripheral work. The things that actually matter to the company — strategy, values, decision principles, priorities — barely touch AI.

Somehow, we're still printing the company credo on the back of employee badges, having the CEO recite it at all-hands, and pushing it down through a telephone-game of middle management. This is pre-LLM information transmission, end to end. Since everyone uses LLMs anyway, shouldn't the company's strategy, values, and decision principles be embedded as Meta Context in each employee's LLM? It would cascade down by team, with team-specific Meta Context layering on top.

If that happened, the company's thinking would stop being a speech given a few times a year and start functioning inside the daily context of work. Culture stops being a slogan. It becomes the initial condition of every decision. A founder's words still carry symbolic weight and help with emotional synchronization, sure — but that stops being the main channel.

It sounds great, but it's not simple in practice. For one, in most companies strategy isn't articulated to that degree. What do we prioritize, what do we drop, where do we win? Even if it's in the founder's head, it's rarely put into words.

And most of a company's knowledge isn't in documents — it's in people. The senior salesperson's instinct, the sharp PM's sense of priority, the floor manager's exception handling, the founder's unspoken judgment. The actual intelligence running the company doesn't live in the wiki, and it doesn't fit neatly into a workflow. The moment you try to standardize it, politics kicks in. Whose judgment do we encode? Who owns the updates? Writing a prompt is easy; writing a company's rules is not.

In the end, this isn't an LLM adoption problem. It's a company design problem.

Around the time I was chewing on this, I read "From Hierarchy to Intelligence", co-authored by Jack Dorsey (CEO of Block) and Roelof Botha (Sequoia). They treat AI not as a productivity tool but as a premise for redesigning organizational structure itself. They propose reshaping the traditional hierarchy into three roles: ICs as deep specialists supported by a world-model context, DRIs (Directly Responsible Individuals) owning cross-cutting problems on a 90-day cycle, and player-coaches who replace the information-routing manager — building while mentoring.

The phrase at the heart of the piece is: the intelligence lives in the system, the people are on the edge. The company's world model is maintained by machines; humans, on top of that, focus on judgment at the edge, closer to the customer. The world model here means the live state of the company — strategy, decision history, debates, KPIs, customer signals, progress — continuously maintained by AI as a representation.

What Dorsey and Botha list as things to accumulate: decision history (what was decided and why), discussions, dissents, unresolved questions, implementation artifacts like code and designs, operational data like KPI anomalies and customer complaints, and customer signals — transactions, sends, savings, borrowing, repayment. They lean especially hard on customer signals, calling them the Economic Graph and positioning it as Block's core competitive advantage. Millions of merchants and consumers, both sides of every transaction, financial behavior observed in real time by AI.

The crux of this design is that the world model's data accumulates as a byproduct of work, not as an added documentation burden. The wall mentioned earlier — strategy not articulated, knowledge stuck in people — can't be scaled over by someone heroically writing everything down. The organization and the way work happens have to be redesigned so that AI-readable data falls out naturally. When that works, each employee's LLM automatically carries the Meta Context of their layer, and the company's thinking becomes the initial condition of every daily decision.

This is not the same as feeding your company's files to RAG. No matter how strong RAG gets, wikis and Google Drive are frozen records — stopped at the moment someone wrote them. A world model is a live representation of what the company currently understands, what it's doing, and what's happening, updated every time the company moves.

Most companies are adopting AI as a tool for meeting summaries and deck generation. That's the surface layer. The real thing is making the company's strategy, decisions, customer signals, progress, and friction points readable by AI — turning the company itself into a world model. AI adoption, done seriously, is not a tool rollout. It's a rewrite of management itself.

AI時代、会社は何をLLMに読ませるべきか

ソフトウェアエンジニアリングの世界では、LLM によって仕事の進め方そのものが激変しました。Prompt/Context 設計、Coding Agent、Eval、Harness、Workflow automation。高品質な成果物を、より速く、より少人数で作るための最適化が、日々爆速で進んでいます。1年前 Claude 3.7でiOSのアプリを作っていたわけですが、今だとはるかに簡単に早くできます。進化がすごい。

ふと経営側を見ると、そこまで変わっていません。社長が LLM と対話して考えを深めていることはあるかもしれませんが、組織として見ると、LLM 活用といっても議事録要約、資料生成補助、整形など周辺業務が中心です。会社として本当に重要なこと — 戦略、価値観、意思決定原則、優先順位 — に LLM はほとんど使われていない。

例えば、いまだに社訓を社員証の裏に印刷して、会社の全体会議で社長が語り、管理職が伝言ゲームで下ろしている。完全に LLM 以前の情報伝達方法です。どうせ社員は LLM を使っているのだから、会社の戦略や価値観、判断原則は Meta Context として各従業員の LLM に埋め込まれるべきではないでしょうか。それがチームごとにカスケードされ、チーム固有の Meta Context も重なっていく状況です。

そうすれば、会社の思想は年に数回のスピーチではなく、毎日の仕事の文脈の中で機能し始めます。文化は標語ではなく、判断の初期条件になる。もちろん経営者が語ることには象徴的な力があり、組織の感情的同期にも役立つでしょうが。

とはいえ、この発想は魅力的だけど、実際には簡単ではありません。そもそも多くの会社で、戦略がそこまで明文化されていない。何を優先し、何を捨て、どこで勝つのか。経営者の頭の中にあっても、そこまで言語化されていないケースは多い。

さらに、会社の知識の多くは文書ではなく、人に埋まっています。ベテラン営業の勘、優秀な PM の優先順位感覚、現場マネージャーの例外処理、創業者の暗黙の判断基準。会社を回している本当の知能は Wiki には載っていないし、ワークフロー化も困難です。加えて標準化しようとすると政治が始まる。誰の判断基準を採用するのか、更新責任者は誰か。プロンプトを書くこと自体は簡単でも、会社のルールを書くことは簡単ではない。

結局、LLM 導入の問題というより、会社そのものの設計問題なのです。

こんなことを考えていたとき、Block の CEO である Jack Dorsey と、Sequoia の Roelof Botha が共著した "From Hierarchy to Intelligence" を読みました。彼らは AI を単なる生産性ツールではなく、組織構造そのものを変える前提として扱っています。従来の階層型組織を、深い専門性を持つ IC、90日単位で横断課題を担う DRI、作りながら育てる Player-Coach、という3つの役割に再編する提案です。

記事の核にあるフレーズは、「知能はシステムに宿り、人はエッジに立つ (the intelligence lives in the system, the people are on the edge)」というものでした。会社の世界モデルを機械が維持し、人はその上で現場の判断と対顧客に集中する。ここでいう世界モデルとは、戦略・意思決定履歴・議論・KPI・顧客シグナル・進捗といった会社の生きた状態が、AI によって常時維持されている表象のことです。

Dorsey と Botha が蓄積すべきものとして挙げているのは、何を決めたか・なぜ決めたかといった意思決定履歴、議論や異論や未解決論点、コードや設計などの実装物、KPI 異常や遅延や顧客クレームといった問題と進捗、そして取引や送金などの顧客シグナルです。特に顧客シグナルを重視していて、Economic Graph と呼んで Block の中核的な競争優位に位置づけています。何百万の加盟店と消費者、取引の両側のリアルタイムな金融行動を、AI が常時把握できている状態です。

この発想の勘所は、世界モデルのデータが「追加の文書化負担」ではなく「仕事の副産物」として蓄積される点にあります。戦略が明文化されていない、知識が人に埋まっているという壁は、誰かが頑張って書き下すだけでは越えられない。組織と働き方そのものを、AI が読める形で自然にデータが残るように設計し直す必要があります。そのとき、各従業員の LLM 利用には所属階層の Meta Context が自動で載り、会社の思想が毎日の判断の初期条件になる。

会社のファイルを RAG で食わせるのとは別物です。RAG がどれだけ強力でも、Wiki や Google Drive の中身は結局、人が書いた時点で止まった記録にすぎません。世界モデルは、会社が今何を理解し、何をしていて、何が起きているかが、会社が動くたびに更新されていく生きた表象です。

多くの企業は、AI を議事録要約や資料作成のツールとして導入しています。でもそれは AI 活用の表層にすぎません。本質は、会社の戦略、意思決定、顧客シグナル、進捗、摩擦点を AI が理解できる状態にすること、つまり会社そのものを世界モデル化することです。AI 活用とは、ツール導入ではなく、経営そのものの改革である。

#AI #Management #Writing