私はLLMを使って開発を行いたいが、自前のGPUを持っていないため、外部のサービスを探すことにした。
サービスに対する要件
サービスに求める要件を優先度の高い順に挙げた。
- 無料
- 高性能なLLMを動かせる
- VRAM容量が大きい
- VS Codeと連携できる
- vLLMが使える
- サービスが利用できなくなった場合に別のサービスに移行しやすい
サービスの一覧
| サービス名 | GPUとVRAMの性能 | vLLMの使用可否 |
| Google Colab | 15GB VRAM | 可能 |
| Kaggle Notebooks | 16GB VRAM | |
| Paperspace Gradient | 16GB VRAM | |
| Saturn Cloud Free Tier | 16GB VRAM | |
| Hugging Face Spaces | GPUは有料 | |
VRAMが16GBだと8B程度のパラメーター数のLLMでも不十分
LLMのAPI を提供するサービス
| 利用可能なモデル | 備考 | |
| OpenRouter | Free Models Kimi K2 qwen3 deepseek-r1, v3 glm-4.5 Gemini 2.0 Flash Gemma 3 | Throughput が50tps以上のモデルを推奨 |
| Google AI Studio | モデル一覧と利用上限 Gemini 2.5, 2.0 Gemma 3 | 利用状況 |
| Groq | モデル一覧と利用上限 Kimi K2 gpt-oss-120b | |
| Cerebras | モデル一覧と利用上限 Qwen 3 235B Instruct Z.ai GLM 4.6 |