Claudeの利用上限を大幅引き上げ。SpaceXと提携、将来的な宇宙AIデータセンター構想も
Yusuke Sakakura
Yusuke Sakakura
ブログメディア「携帯総合研究所」を運営しています。学生時代に開設して今年が16年目。スマートフォンの気になる最新情報をいち早くお届けします。各キャリア・各メーカーの発表会に参加し、取材も行います。SEの経験を活かして料金シミュレーターも開発しています。

Anthropicが、Claude CodeとClaude APIの利用上限を引き上げると発表しました。
これにより、Pro、Max、Team、シートベースのEnterpriseプランでは、Claude Codeの5時間あたりの利用制限が2倍に引き上げられます。
また、ProおよびMaxアカウントでは、ピーク時間帯にClaude Codeの利用上限が引き下げられる仕組みも廃止されます。さらに、Claude OpusモデルのAPIレート制限も大幅に引き上げられます。
SpaceXとの提携で計算資源を大幅拡大
今回の利用上限引き上げは、イーロン・マスク氏率いるSpaceXとの新たなパートナーシップによって実現したものです。
Anthropicは、SpaceXのColossus 1データセンターが持つすべての計算資源を利用する契約を締結。これにより、1か月以内に300メガワットを超える電力規模の計算基盤、22万基以上のNVIDIA GPUにアクセスできると説明しています。
なお、イーロン・マスク氏は、生成AI「Grok」を展開するxAIを率いており、Claudeを提供するAnthropicとはAI市場で競合する関係にありますが、巨大な計算基盤をAnthropicに提供する形になります。
もっとも、Anthropicはこれまでもクラウド事業者などとの提携を通じて、AIの学習や運用に必要な計算資源を拡大してきました。
Amazonとは最大5ギガワット規模の契約を結んでおり、2026年末までに約1ギガワットの新たな容量が追加される予定です。GoogleおよびBroadcomとも5ギガワット規模の契約を締結しており、こちらは2027年から順次稼働を開始する見込みです。
さらに、MicrosoftおよびNVIDIAとは戦略的パートナーシップを結び、300億ドル分のAzure容量を確保。Fluidstackとは、米国内のAIインフラに500億ドルを投じる取り組みも進めています。
Anthropicは、Claudeの学習と運用にAWS Trainium、Google TPU、NVIDIA GPUなど、複数のAIハードウェアを活用しています。特定のクラウドや半導体に依存するのではなく、利用できる選択肢を広げながら、計算資源を確保していく方針です。
さらに今回の契約の一環として、Anthropicは将来的に宇宙空間にAI向けの計算基盤を構築することにも関心を示しています。
これまでAIの競争はモデルの改善にフォーカスされていましたが、需要の拡大に伴い、計算資源をどれだけ確保できるかも重要な競争軸になっています。




コメントを残す