Comme dans mon lien donné, il n'y a pas de différence d'api entre chatgpt et une ia locale.
Exemple
llama3 la
doc est claire c'est une bête api où l'on envoie son texte et on a en réponse du json. Comme tu peux le voir, c'est même plus simple que la majorité des api web qui l'on utilise couramment. Comme le montre cette doc, il n'y a rien de particulier pour python à utiliser une ia "locale", on fait une requete http et on analyse le résultat, python n'a aucun avantage particulier pour cela.
Par rapport à mon lien, existe une
lib python si difficile à prendre en main...
Il faut bien comprendre que cela ne change strictement rien au niveau python si l'api retourne un calcul mathématique ou un truc approximatif d'une IA, ce qui se passe derrière la boite noire ne change pas notre code python. Moi, simple codeur, je fais simplement une requête (http, sql,...) et j'attends une réponse à analyser, que le serveur http ou serveur BD
ou IA soit local ou non ne change strictement rien.
...
EDIT
Tu peux aussi regarder du coté de LM studio, on a un chat local qui se connecte à diverses ia locales et, fournit une même lib (python) quel que soit l'ia.
Demande au minimum 16Go et 6Go de vram(sur carte graphique)
Partager