Bonjour tout le monde,
J'ai installé en local le modèle de language deepseek-r1:7b à travers Ollama mais j'ai une réponse vide à chaque fois.
Je ne sais pas trop pourquoi ? merci pour votre aide !!!
En ligne de commande, Deepseek répond bien
J'ai cette réponse :
{ "model":"deepseek-r1:7b", "created_at":"2025-02-05T04:23:08.6281415Z", "response":"", "done":true, "done_reason":"load" }
Mon code :
APIURL est une chaîne = "http://localhost:11434/api/generate"
reqGPT est un httpRequête
reqGPT.URL = APIURL
reqGPT.ContentType = "application/json"
sParam est une chaîne
sParam2 est un JSON
sParam=[
{
"model": "deepseek-r1:7b",
"messages": [
{
"role": "system",
"content": "tu es un scientifique"
},
{
"role": "user",
"content": "%1%"
}],
"stream": false,
"temperature": 0.7,
"max_tokens": 1000
}
]
// Info(sParam2)
sParam2=ChaîneConstruit(sParam,SAI_PROMPT)
reqGPT.Contenu = sParam2
reqGPT.Méthode = httpPost
RepGPT est un httpRéponse = HTTPEnvoie(reqGPT)
Reponse est un JSON = RepGPT.Contenu
Info(RepGPT.Contenu+RC+RepGPT.CodeEtat+RC+RepGPT.DescriptionCodeEtat+RC+RepGPT.ContentType)
SAI_REP=Reponse
Partager