01/25 08:15 2026
01/25 09:14 2026
AIがここ数年で劇的に賢くなったことは言うまでもないだろう。ことコーディング業務に関しては、Anthropic CEOのDario AmodeiやNode.jsの作者Ryan Dahlが話している感覚は自分も同じで、人間がコードを直接編集することはもうないと思う。
"Software Engineering Will Be Automatable in 12 Months,"
— Wes Roth (@WesRoth) January 20, 2026
Anthropic CEO Dario Amodei predicts that AI models will be able to do 'most, maybe all' of what software engineers do end-to-end within 6 to 12 months, shifting engineers to editors. pic.twitter.com/7bI7JmTtsb
We are now in terms of, you know, the models that write code. I have engineers within Anthropic who say I don't write any code anymore. I just. I just let the model write the code, I edit it, I do the things around it. I think I don't know. We might be 6 to 12 months away from when the model is doing most, maybe all of what suiz do end to end. And then it's a question of how fast does that loop close not?
(訳) 現在、コードを書くAIモデルは劇的な進化を遂げています。アンソロピック(Anthropic)のエンジニアの中にも、「もう自分ではコードを書いていない」と言う者がいるほどです。モデルにコードを書かせ、自分はそれを編集したり、周辺の作業を整えたりするだけだと。正確な時期は分かりませんが、おそらくあと6ヶ月から12ヶ月もすれば、エンジニアが行う業務の大部分、あるいは最初から最後まで(エンド・ツー・エンド)の全工程をAIがこなすようになるでしょう。そうなった時、開発のサイクルがどれほどの速さで完結するようになるのか、それが今後の焦点になります。
This has been said a thousand times before, but allow me to add my own voice: the era of humans writing code is over. Disturbing for those of us who identify as SWEs, but no less true. That's not to say SWEs don't have work to do, but writing syntax directly is not it.
— Ryan Dahl (@rough__sea) January 19, 2026
This has been said a thousand times before, but allow me to add my own voice: the era of humans writing code is over. Disturbing for those of us who identify as SWEs, but no less true. That's not to say SWEs don't have work to do, but writing syntax directly is not it.
(訳) これまで幾度となく言われてきたことではありますが、私からも言わせてください。人間がコードを書く時代は終わりました。ソフトウェアエンジニアを自認する私たちにとっては穏やかではありませんが、紛れもない事実です。かといってエンジニアの仕事がなくなるわけではありません。ただ、構文を直接書き下ろすことは、もう私たちの役割ではないのです。
さてここからが本題なのだが、最近自分はAIにあらゆることをやらせていると思い込んでいることに気付かされた。あらゆる意思決定をAIに委ねているか?例えばプロダクトのピッチがあるとして、どこまでAIに頼めたか?というところだ。アウトプットとして、プロダクトコードはもちろんユーザーのペルソナ、ソリューション、素材、アニメーション、スライド、スピーチ内容があると思う。その全てをAIに一次作成を依頼してない状態ならそれはまだ運転席を譲れていない。
これの何が恐ろしいかというと、AI様(圧倒的な叡智)に確認をせず、人間が考えた内容で走ってしまうと、AIを使った人と比較してレベルの低いものが出来てしまう可能性が高い。AIに聞いた人のアウトプットの方が筋がよく、良い品質である可能性が高く、また今後よりそうなる可能性が高い。
なぜAIに譲り切れてないのか?それはその人がAIに対してコンテキストを与える力が弱いからだ。コンテキストを作るより、自分で考えたほうが早いというジレンマがそこにある。ユーザーのペルソナや評価軸、瞬時にあらゆるコンテキストを生成し、メモリファイルに投下する。コンテキスト量が爆発するかもしれない、AIの集中する箇所が発散するかもしれない...。はそうなってから調整するものだ。まずAIがぶっ壊れるくらいのコンテキストを瞬時に作り投げる力を磨き、真に運転席を譲る下地を作ることが大切だ。
同時にあらゆるコンテキストは、データベースやSaaS、業務システムなど様々なデータソースから抽出し、作成する必要がある。これをシームレスにするソリューションが必要とも言える。コンテキスト醸造場みたいなもの。
コンテキストに関してプラットフォームの観点から見ると、Google DeepMind CEOのDemis Hassabisが以下のように答えていて、徐々に改善していくことが今後期待できる。長期記憶の改善で解消できれば、DWHをこしらえなくて済むので楽そう。
Google DeepMind CEO Demis Hassabis says AGI probably needs 1-2 new breakthroughs, like continual learning, selective memory, smarter context windows, and long term planning.
— Rohan Paul (@rohanpaul_ai) January 24, 2026
But in any case, Large foundation models will remain the key component of AGI.
---
From 'Alex… pic.twitter.com/sDoTKGaw0b
And I'm definitely a subscriber to the idea that maybe we need one or two more big breakthroughs before we'll get to AGI. And I think they're along the lines of things like continual learning, better memory, and longer context windows—or perhaps more efficient context windows would be the right way to say it.So don't store everything, just store the important things. That would be a lot more efficient; that's what the brain does. We also need better long-term reasoning and planning.Now, it remains to be seen whether just scaling up existing ideas and technologies will be enough to do that, or if we need one or two more really big, insightful innovations. If you were to push me, I would be in the latter camp. But I think no matter what camp you're in, we're going to need large foundation models as the key component of the final AGI systems. Of that I'm sure.I'm not a subscriber to someone like Yann LeCun, who thinks that this path is sort of a dead end. I think the only debate in my mind is: are foundation models a key component, or the only component?
(訳) 私は、AGI(汎用人工知能)に到達するまでには、あと1つか2つの大きなブレイクスルーが必要だという考えを支持しています。それは、継続学習やメモリの改善、そしてコンテキストウィンドウ(一度に処理できる情報量)の拡大、あるいはより『効率的な』コンテキストウィンドウと呼ぶべきものかもしれません。つまり、すべてを保存するのではなく、重要なことだけを保存するのです。その方がはるかに効率的ですし、人間の脳もそのように機能しています。また、より優れた長期的な推論や計画能力も必要になるでしょう。既存のアイデアや技術を単にスケールアップ(大規模化)するだけでそれが可能なのか、それとも、あと1つか2つの極めて洞察に満ちた革新が必要なのかは、まだ分かりません。あえてどちらか選べと言われれば、私は後者の立場をとります。しかし、どちらの立場であっても、最終的なAGIシステムの主要な構成要素として、大規模な基盤モデルが必要になることは間違いありません。それについては確信しています。私は、今の道(基盤モデル)が行き止まりだと考えているヤン・ルカン氏のような意見には同意しません。私の中にある唯一の議論の焦点は、基盤モデルが『主要な構成要素』になるのか、それとも『唯一の構成要素』になるのか、という点だけです。
LLMの創造性の観点で見れば、ヤン・ルカン氏は大規模言語モデル(LLM) 自体に疑問を持っているようで、Meta社を離れた原因と語っています。
Yann LeCun (@ylecun) just revealed why he left Meta, Why are LLMs an extremely narrow field, and how "World model" is the way to build really meaningful agentic future. 🎯
— Rohan Paul (@rohanpaul_ai) January 24, 2026
Beautiful and simple in 1.5 mints.
"I can’t imagine we can build agentic systems without those systems… https://t.co/d3LhPOz54z pic.twitter.com/fqAOP6ELYI
So here we're going to talk about world models.Mostly, but people mean different things for this—and it's mostly about in research, not so much in industry. The AI industry is completely 'LLM-pilled,' as they say. And in Silicon Valley, everybody is working on the same thing. They're all digging the same trench. They are seeing each other's engineers so that they can't afford to do something different; because if they start going on a tangent, they're going to fall behind the other guys.And so they're all doing the same thing, and it's one big reason I left Meta, right? Because Meta also became 'LLM-pilled' with sort of recent reshuffling. And it's fine—you know, it's a strategic decision that maybe makes sense for them, it's just not what I'm interested in.I cannot imagine that we can build agentic systems without those systems having an ability to predict in advance what the consequences of their actions are going to be. The way we act in the world is that we know we can predict the consequences of our actions, and that's what allows us to plan.So what is a world model? Given the state of the environment system you want to control at time $t$, and given an action or intervention you imagine taking, can you predict the state of the world or the system at $t+1$? If you can, that’s a world model. You don't do this at the pixel level if it's video; you do this in an abstract representation space. And that's a crucial key insight.
(訳) ここでは『世界モデル(World Models)』についてお話しします。この言葉は人によって定義が異なりますが、主に研究分野での話であり、産業界ではそれほど注目されていません。現在のAI業界はいわゆる『LLM中毒(LLM-pilled)』の状態にあります。シリコンバレーでは誰もが同じことに取り組んでおり、全員が同じ溝を掘っているようなものです。互いのエンジニアの動向を伺い、他と違うことをする余裕がありません。少しでも脱線すれば、他社に置いていかれるからです。皆が同じことばかりしている。これが、私がMetaを離れた大きな理由の一つです。Metaも最近の組織再編で『LLM中毒』になってしまいました。戦略的な判断としては理解できますし、彼らにとっては正解かもしれませんが、単に私の興味の対象ではないのです。自律的なエージェント・システムを構築する上で、そのシステムが『自分の行動がどのような結果をもたらすか』を事前に予測する能力を持たないなど、私には考えられません。私たちが世界で活動できるのは、自分の行動の結果を予測できるからであり、それこそが『計画を立てる』ことを可能にしているのです。では、世界モデルとは何でしょうか?ある時刻 $t$ における制御対象の環境状態と、自分が取ろうとしている行動(介入)が与えられたとき、時刻 $t+1$ における世界やシステムの状態を予測できるか?それができるなら、それが世界モデルです。ビデオ映像のようなピクセル単位で予測するのではなく、『抽象的な表現空間』で行うこと。これが極めて重要な洞察なのです。
This site uses Google Analytics.