Bonjour tout le monde,

J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois.
Je ne sais pas trop pourquoi ? merci pour votre aide !!!

En ligne de commande, Deepseek répond bien

Nom : deep.PNG
Affichages : 55
Taille : 14,1 Ko


J'ai cette réponse :

{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" }


Mon code :


APIURL est une chaîne = "http://localhost:11434/api/generate"

reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"

sParam est une chaîne
sParam2 est un JSON



sParam=[

{
"model": "deepseek-r1:7b",
"messages": [
{
"role": "system",
"content": "tu es un scientifique"
},
{
"role": "user",
"content": "%1%"
}],
"stream": false,
"temperature": 0.7,
"max_tokens": 1000
}
]

// Info(sParam2)

sParam2=ChaîneConstruit(sParam,SAI_PROMPT)
reqGPT.Contenu = sParam2
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)

Reponse est un JSON = RepGPT.Contenu

Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)

SAI_REP=Reponse