Ich geh einfach mal davon aus, dass Ollama in der einen oder anderen Variante schon läuft. Dabei ist es egal ob es nativ auf einem Rechner läuft oder in einem Docker-Container.
Als Model nutzen wir Qwen3:8b. Wir starten das Model in Ollama via
ollama run qwen3:8b
darin ändern wir
num_ctx und speichern es unter neuen Namen ab. Das ist EXTREM wichtig, weil sonst die Agentic Tools (z.B. schreiben von Dateien) nicht funktionieren werden.. ich habe es probiert.
/set parameter num_ctx 16384
/save qwen3:8b-16k
/bye
Nun installieren wir OpenCode (Linux):
curl -fsSL https://opencode.ai/install | bash
Und legen die Config (~/.config/opencode/config.json) an:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"options": {
"baseURL": "http://your_ollama_server:11434/v1"
},
"models": {
"qwen3:8b-16k": {
"tools": true
}
}
}
}
}
Nun kann man OpenCode mit
opencode starten und das Model per
/models auswählen und loslegen.
gemma:latest funktioniert auch, wenn man die num_ctx Anpassung vornimmt.