無料でGPUとLLMをVS Codeから使えるサービス

私はLLMを使って開発を行いたいが、自前のGPUを持っていないため、外部のサービスを探すことにした。

サービスに対する要件

サービスに求める要件を優先度の高い順に挙げた。

  1. 無料
  2. 高性能なLLMを動かせる
    • VRAM容量が大きい
  3. VS Codeと連携できる
  4. vLLMが使える
  5. サービスが利用できなくなった場合に別のサービスに移行しやすい

サービスの一覧

サービス名GPUとVRAMの性能vLLMの使用可否
Google Colab15GB VRAM可能
Kaggle Notebooks16GB VRAM
Paperspace Gradient16GB VRAM
Saturn Cloud Free Tier16GB VRAM
Hugging Face SpacesGPUは有料

VRAMが16GBだと8B程度のパラメーター数のLLMでも不十分

LLMのAPI を提供するサービス

利用可能なモデル備考
OpenRouterFree Models
Kimi K2
qwen3
deepseek-r1, v3
glm-4.5
Gemini 2.0 Flash
Gemma 3
Throughput が50tps以上のモデルを推奨
Google AI Studioモデル一覧と利用上限
Gemini 2.5, 2.0
Gemma 3
利用状況
Groqモデル一覧と利用上限
Kimi K2
gpt-oss-120b
Cerebrasモデル一覧と利用上限
Qwen 3 235B Instruct
Z.ai GLM 4.6

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です