-
-
-
-
-
-
Inference Providers
Active filters:
F16
prithivMLmods/Qwen2.5-Coder-7B-Instruct-GGUF
Text Generation
•
8B
•
Updated
•
142
•
2
prithivMLmods/Qwen2.5-Coder-7B-GGUF
Text Generation
•
8B
•
Updated
•
134
•
4
prithivMLmods/Qwen2.5-Coder-3B-GGUF
Text Generation
•
3B
•
Updated
•
81
•
4
prithivMLmods/Qwen2.5-Coder-1.5B-GGUF
Text Generation
•
2B
•
Updated
•
305
•
5
prithivMLmods/Qwen2.5-Coder-1.5B-Instruct-GGUF
Text Generation
•
2B
•
Updated
•
87
•
3
prithivMLmods/Qwen2.5-Coder-3B-Instruct-GGUF
Text Generation
•
3B
•
Updated
•
67
•
5
prithivMLmods/Llama-3.2-3B-GGUF
Text Generation
•
3B
•
Updated
•
97
•
2
prithivMLmods/QwQ-LCoT-3B-Instruct-GGUF
Text Generation
•
3B
•
Updated
•
47
•
7
michelkao/Ollama-3.2-GGUF
Text Generation
•
3B
•
Updated
•
369
prithivMLmods/DeepSeek-R1-Llama-8B-F32-GGUF
Text Generation
•
Updated
•
57
•
2