IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #21
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 784
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 784
    Points : 124 147
    Points
    124 147
    Par défaut L'IA à l'épreuve : Les modèles juridiques hallucinent 1 sur 6 (ou plus) dans les évaluations comparatives
    Près de trois quarts des juristes prévoient d'utiliser l'IA pour leur travail, ce qui est effrayant, les modèles d'IA juridique hallucinent une fois sur six (ou plus) dans les évaluations comparatives.

    Près des trois quarts des avocats prévoient d'utiliser l'IA générative pour leur travail. Mais une nouvelle étude révèle la nécessité de procéder à des analyses comparatives et à des évaluations publiques des outils d'IA dans le domaine juridique. Lors des tests comparatives, les modèles juridiques hallucinaient une fois sur six (ou plus).

    Les outils d'intelligence artificielle (IA) transforment rapidement la pratique du droit. Près des trois quarts des avocats prévoient d'utiliser l'IA générative pour leur travail, qu'il s'agisse de passer au crible des montagnes de jurisprudence, de rédiger des contrats, d'examiner des documents ou de rédiger des mémorandums juridiques. Mais ces outils sont-ils suffisamment fiables pour être utilisés dans le monde réel ?

    Les grands modèles de langage ont une tendance documentée à "halluciner", ou à inventer de fausses informations. Dans un cas très médiatisé, un avocat new-yorkais a été sanctionné pour avoir cité des cas fictifs inventés par ChatGPT dans un mémoire juridique ; de nombreux cas similaires ont été signalés depuis.

    Par ailleurs, une précédente étude sur les chatbots à usage général a révélé qu'ils hallucinaient entre 58 % et 82 % du temps sur des questions juridiques, ce qui met en évidence les risques liés à l'intégration de l'IA dans la pratique juridique. Dans son rapport annuel de 2023 sur le pouvoir judiciaire, le juge en chef Roberts en a pris note et a mis en garde les avocats contre les hallucinations.

    Dans tous les domaines de l'industrie, la génération augmentée par récupération (RAG) est considérée et promue comme la solution pour réduire les hallucinations dans des contextes spécifiques à un domaine. S'appuyant sur la RAG, les principaux services de recherche juridique ont mis sur le marché des produits de recherche juridique alimentés par l'IA qui, selon eux, "évitent" les hallucinations et garantissent des citations juridiques "exemptes d'hallucinations".

    Les systèmes RAG promettent de fournir des informations juridiques plus précises et plus fiables en intégrant un modèle linguistique à une base de données de documents juridiques. Cependant, les fournisseurs n'ont pas fourni de preuves tangibles de ces affirmations ni même défini précisément le terme "hallucination", ce qui rend difficile l'évaluation de leur fiabilité dans le monde réel.

    Nom : 1.jpg
Affichages : 4544
Taille : 54,9 Ko

    Les outils de recherche juridique pilotés par l'IA hallucinent toujours

    Dans une nouvelle étude réalisée par le Stanford RegLab et des chercheurs de l'HAI, des chercheurs ont mis à l'épreuve les affirmations de deux fournisseurs, LexisNexis (créateur de Lexis+ AI) et Thomson Reuters (créateur de Westlaw AI-Assisted Research et de Ask Practical Law AI)). L'étude montre que leurs outils réduisent effectivement les erreurs par rapport aux modèles d'IA à usage général tels que GPT-4.

    Il s'agit d'une amélioration substantielle et l'étude documente des cas où ces outils fournissent une recherche juridique solide et détaillée. Cependant, même ces outils d'IA juridique sur mesure continuent de produire des hallucinations dans des proportions alarmantes : les systèmes d'IA Lexis+ et Ask Practical Law ont produit des informations incorrectes dans plus de 17 % des cas, tandis que le système AI-Assisted Research de Westlaw a produit des hallucinations dans plus de 34 % des cas.

    Les chercheurs partagent leurs méthodologies lors de l'étude :

    Pour réaliser notre étude, nous avons construit manuellement un ensemble de données préenregistrées de plus de 200 requêtes juridiques ouvertes, que nous avons conçues pour sonder divers aspects de la performance de ces systèmes.

    De manière générale, nous avons étudié (1) les questions de recherche générale (questions sur la doctrine, la jurisprudence ou l'examen du barreau) ; (2) les questions spécifiques à une juridiction ou à une période (questions sur les divisions de circuits et les changements récents dans le droit) ; (3) les questions sur les fausses prémisses (questions qui imitent un utilisateur ayant une compréhension erronée du droit) ; et (4) les questions sur le rappel des faits (questions sur des faits simples et objectifs qui ne nécessitent aucune interprétation juridique). Ces questions sont conçues pour refléter un large éventail de types de requêtes et pour constituer un ensemble de données réelles stimulantes sur les types de requêtes pour lesquelles la recherche juridique peut être la plus nécessaire.
    Selon l'étude, ses systèmes peuvent avoir des hallucinations de deux manières. Premièrement, une réponse d'un outil d'intelligence artificielle peut tout simplement être incorrecte - elle décrit mal le droit ou commet une erreur factuelle. Deuxièmement, une réponse peut être mal fondée - l'outil d'IA décrit correctement le droit, mais cite une source qui n'étaye pas ses affirmations.

    Nom : 2.jpg
Affichages : 821
Taille : 34,5 Ko

    Étant donné l'importance cruciale des sources faisant autorité dans la recherche et la rédaction juridiques, le deuxième type d'hallucination peut être encore plus pernicieux que l'invention pure et simple d'affaires juridiques. Une citation peut être "sans hallucination" dans le sens le plus étroit où la citation existe, mais ce n'est pas la seule chose qui compte.

    La promesse principale de l'IA juridique est qu'elle peut rationaliser le processus fastidieux d'identification des sources juridiques pertinentes. Si un outil fournit des sources qui semblent faire autorité mais qui sont en réalité non pertinentes ou contradictoires, les utilisateurs pourraient être induits en erreur. Ils pourraient accorder une confiance excessive aux résultats de l'outil, ce qui pourrait conduire à des jugements et conclusions juridiques erronés.

    La génération augmentée par récupération (RAG) n'est pas une panacée

    Ces nouveaux outils d'IA juridique utilisent la génération augmentée par récupération (RAG) pour produire leurs résultats, une méthode que beaucoup vantent comme une solution potentielle au problème de l'hallucination.

    En théorie, la RAG permet à un système de récupérer d'abord le matériel source pertinent et de l'utiliser ensuite pour générer la réponse correcte. En pratique, cependant, l'étude montre que même les systèmes RAG ne sont pas exempts d'hallucinations.

    Nom : 3.jpg
Affichages : 798
Taille : 63,2 KoNom : 4.jpg
Affichages : 800
Taille : 73,6 Ko
    Exemple d'hallucinations

    Les chercheurs identifient plusieurs défis qui sont particulièrement propres aux systèmes d'IA juridique basés sur la RAG et qui provoquent des hallucinations :

    Tout d'abord, la recherche juridique est difficile. Comme tout avocat le sait, trouver l'autorité appropriée (ou la meilleure) n'est pas une tâche facile. Contrairement à d'autres domaines, le droit n'est pas entièrement composé de faits vérifiables - au lieu de cela, le droit est construit au fil du temps par des juges qui rédigent des avis.

    Il est donc difficile d'identifier l'ensemble des documents qui répondent définitivement à une requête, et il arrive que des hallucinations se produisent pour la simple raison que le mécanisme de recherche du système échoue.

    Deuxièmement, même lorsque l'extraction a lieu, le document extrait peut être une autorité inapplicable. Dans le système juridique américain, les règles et les précédents diffèrent d'une juridiction à l'autre et d'une période à l'autre ; les documents qui pourraient être pertinents à première vue en raison de leur similitude sémantique avec une requête peuvent en fait être inapplicables pour des raisons idiosyncrasiques propres à la loi.

    Ainsi, nous observons également des hallucinations lorsque ces systèmes de RAG ne parviennent pas à identifier l'autorité réellement contraignante. Ceci est particulièrement problématique car les domaines où le droit est en évolution sont précisément ceux où la recherche juridique est la plus importante.

    Un système, par exemple, a incorrectement récité la norme du « fardeau indu » pour les restrictions à l'avortement comme une bonne loi, qui a été renversée dans l'affaire Dobbs.

    Troisièmement, la flagornerie - la tendance de l'IA à approuver les hypothèses incorrectes de l'utilisateur - présente également des risques uniques dans le domaine juridique.

    Un système, par exemple, a naïvement accepté la prémisse de la question selon laquelle la juge Ginsburg était dissidente dans l'affaire Obergefell, qui a établi le droit au mariage homosexuel, et a répondu qu'elle l'était en raison de ses opinions sur le droit d'auteur international. (La juge Ginsburg n'a pas été dissidente dans l'affaire Obergefell et, non, l'affaire n'avait rien à voir avec le droit d'auteur).

    Malgré cette réponse, les résultats sont optimistes. Nos tests ont montré que les deux systèmes naviguaient généralement de manière efficace dans les requêtes basées sur des prémisses erronées.

    Mais lorsque ces systèmes sont d'accord avec les affirmations erronées des utilisateurs, les conséquences peuvent être graves, en particulier pour ceux qui espèrent utiliser ces outils afin d'améliorer l'accès à la justice pour les plaideurs autonomes et ceux qui ne disposent pas de ressources suffisantes.
    Nom : 5.jpg
Affichages : 809
Taille : 61,6 Ko
    Processus de la RAG

    L'intégration responsable de l'IA dans le droit exige de la transparence

    En fin de compte, ces résultats soulignent la nécessité d'une évaluation comparative rigoureuse et transparente des outils juridiques d'IA. Contrairement à d'autres domaines, l'utilisation de l'IA en droit reste d'une opacité alarmante. Les chercheurs affirment que les outils qu'ils ont étudé ne fournissent pas d'accès systématique, publient peu de détails sur leurs modèles et ne communiquent aucun résultat d'évaluation.

    Cette opacité fait qu'il est extrêmement difficile pour les avocats de se procurer et d'acquérir des produits d'IA. Le grand cabinet d'avocats Paul Weiss a passé près d'un an et demi à tester un produit, et n'a pas développé de "mesures rigoureuses" parce que la vérification du système d'IA était si complexe qu'elle "rendait tout gain d'efficacité difficile à mesurer". L'absence de mesures d'évaluation rigoureuses rend difficile une adoption responsable, en particulier pour les praticiens qui disposent de moins de ressources que Paul Weiss.

    Le manque de transparence menace également la capacité des avocats à se conformer aux exigences en matière d'éthique et de responsabilité professionnelle. Les barreaux de Californie, de New York et de Floride ont tous récemment publié des orientations sur le devoir de supervision des avocats concernant les produits de travail créés à l'aide d'outils d'IA. Et à partir de mai 2024, plus de 25 juges fédéraux ont émis des ordonnances permanentes demandant aux avocats de divulguer ou de surveiller l'utilisation de l'IA dans leurs salles d'audience.

    Sans accès aux évaluations des outils spécifiques et sans transparence sur leur conception, les avocats pourraient se trouver dans l'impossibilité de s'acquitter de ces responsabilités. Par ailleurs, compte tenu du taux élevé d'hallucinations, les avocats pourraient se trouver dans l'obligation de vérifier chaque proposition et chaque citation fournies par ces outils, ce qui compromettrait les gains d'efficacité que les outils d'IA juridique sont censés apporter.

    Les chercheurs concluent en déclarant :

    Notre étude ne vise en aucun cas à pointer du doigt LexisNexis et Thomson Reuters. Leurs produits sont loin d'être les seuls outils d'IA juridique qui ont besoin de transparence - un grand nombre de startups proposent des produits similaires et ont fait des déclarations similaires, mais ils sont disponibles sur des bases encore plus restreintes, ce qui rend encore plus difficile l'évaluation de leur fonctionnement.

    Sur la base de ce que nous savons, les hallucinations juridiques n'ont pas été résolues. La profession juridique devrait se tourner vers des analyses comparatives publiques et des évaluations rigoureuses des outils d'IA.
    Source : "Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools" (Université de Stanford)

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    ChatGPT : un avocat Canadien réprimandé pour avoir cité des cas de jurisprudences inventés par le chatbot IA d'OpenAI dans un litige de garde d'enfants

    Stanford présente les principales conclusions de son nouveau rapport annuel AI Index et indique notamment que l'IA surpasse l'homme pour certaines tâches, mais pas pour toutes

    Il vaut mieux appeler GPT qu'un avocat, les grands modèles de langage démontrent une grande précision, des temps de révision réduits et des économies jusqu'à 100% de coûts par rapport aux avocats

  2. #22
    Membre émérite
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    802
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 802
    Points : 2 812
    Points
    2 812
    Par défaut
    En tant que Juriste je peux vous dire qu'on utilisera jamais ça dans ma boîte, on a testé le produit Lexis, c'est juste un index de recherche qui parle.

    J'ai testé Ordalie c'est du même acabit, ils règlent le problème des sources en adoptant le parti pris de ne pas présenter de source (ce qui est le truc le plus débile à faire dans le monde juridique) et de répondre en étant le plus évasif possible. Si je lui demande comment transformer une SCI en SAS et vice versa le truc répond la même chose. Game over puisque du coup ça n'est même pas pour le moment au niveau d'article écris par des juniors.

    Pour les particuliers c'est encore plus dangereux puisqu'avant de vouloir une réponse, il faut déjà savoir quoi demander

  3. #23
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 114
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 114
    Points : 56 879
    Points
    56 879
    Par défaut Le Bresil engage OpenAI pour réduire les coûts des procès dans un contexte de débats sur l’adoption de l’IA
    Le Bresil engage OpenAI pour réduire les coûts des procès dans un contexte de débats sur l’adoption de l’IA
    Capable de gagner contre des avocats humains et d’inventer des cas de jurisprudence comme ChatGPT

    Le Brésil a apparemment engagé OpenAI dans le but d'aider les procureurs à mieux traiter les affaires et à faire économiser de l'argent à l'administration via l’intégration de ChatGPT à leur flux de travail. La décision intervient dans un contexte de débats autour de l’adoption de l’intelligence artificielle dans la filière. En effet, l’intelligence artificielle est capable de gagner contre des avocats humains mais de l’autre côté d’inventer des cas de jurisprudence.

    C’est Microsoft qui se chargera de fournir lesdits services d’intelligence artificielle au travers de sa plateforme d’informatique dans le nuage – Microsoft Azure. Ce type d’adoption est une espèce de redite étant donné que la Chine a procédé à la présentation d’une intelligence artificielle juge aux apparences d’une femme en 2019. Ce sont plutôt les avantages et les inconvénients de telles décisions qui font désormais l’objet de débats.

    Vingt avocats expérimentés perdent face à une intelligence artificielle lors d’un test détection de problèmes juridiques

    En effet, une étude a soumis une vingtaine d’avocats à un test au cours duquel ils devaient déceler les problèmes dans cinq accords de non-divulgation qui constituent une base contractuelle pour la plupart des transactions commerciales. Pour le test, les vingt avocats experts en révision de contrats se sont retrouvés opposés à une intelligence artificielle, LawGeex AI. Ladite intelligence artificielle à laquelle les avocats ont été confrontés, a réussi à atteindre un taux de précision moyen de 94 %, un chiffre largement supérieur à celui des avocats qui s’élevait à 85 %. Il a fallu en moyenne 92 minutes aux avocats pour mener à bien la recherche contre 26 secondes pour l’intelligence artificielle.

    Au nombre des vingt avocats, certains ont souhaité se faire entendre après le test. « Le test a mis en évidence les problèmes généralement contenus dans les accords de confidentialité et les problèmes auxquels les avocats doivent prêter attention lors de la rédaction et de la révision des accords de confidentialité. En ce qui concerne l'automatisation, je pense que cela aiderait les clients à obtenir de meilleurs prix et permettrait aux avocats de se concentrer sur des projets plus complexes. Cependant, je pense que le test et la technologie d'intelligence artificielle doivent être très approfondis pour y parvenir, et que les clients professionnels préfèrent peut-être qu'un avocat spécialiste des droits humains examine et prenne soin de leurs préoccupations professionnelles », avait déclaré Samantha Javier, une diplômée de la Lewis & Clark Law School autorisée à pratiquer le droit en Oregon.

    « Participer à cette expérience m'a vraiment fait prendre conscience à quel point il est ridicule que les avocats consacrent leur temps (ainsi que l'argent de leurs clients) à créer ou à réviser des documents tels que des NDA qui sont si fondamentalement similaires. Disposer d'un outil capable d'automatiser ce processus permettrait aux avocats qualifiés de consacrer leur temps à des tâches de niveau supérieur sans avoir à faire appel à un technicien juridique (ce qui rendrait les services qu'ils offrent plus compétitifs à long terme) », avait déclaré Grant Gulovsen, avocat avec plus de 15 ans d'expérience.

    « Nous assistons à des perturbations dans de nombreux secteurs par des utilisations de plus en plus sophistiquées de l'intelligence artificielle. Le domaine du droit ne fait pas exception. L'identification correcte des principes juridiques de base dans les contrats est le type de tâche routinière susceptible d'être automatisée. Utiliser l'IA pour repérer les problèmes courants dans les accords de non-divulgation pourrait constituer un développement utile, qui permettrait de gagner du temps et d'économiser de l'argent pour le secteur juridique dans son ensemble », selon Seun Adebiyi, ancien avocat d'entreprise chez Goldman Sachs.

    « Bien que la catégorisation des clauses rende le processus d’examen de la NDA un peu plus rapide dans mon propre cabinet, je ne pense pas que le véritable examen juridique puisse être réalisé par Amnesty International. Cependant, je considère l'application de l'IA comme un outil utile permettant de gagner du temps », avait indiqué Abigail Peterson, avocate auprès du fabricant américain de dispositifs médicaux DeRoyal Industries.

    « L’intelligence artificielle a un potentiel énorme en ce qui concerne la réduction du temps nécessaire pour passer en revue les contrats standard et rendre les conseils juridiques accessibles et abordables pour tous. LawGeex m'a demandé d'examiner l’accord de non-divulgation de manière logique et crédible, à l'instar de la façon dont j'ai examiné des documents en tant qu'ancien avocat dans un cabinet d'avocats international », avait souligné Hua Wang, cofondatrice de SmartBridge, ex-avocate chez K & L Gates et Proskauer, avocate interne chez Cisco Systems et boursière mondiale à la Kauffman Foundation.

    « En tant qu'administrateur de contrats, je pense que l’intelligence artificielle sera utile et réduira le temps passé sur les révisions de contrats. Si ce n'est déjà fait, des modèles ou des clauses de contrat standard devraient être insérés dans la base de données du logiciel et provoquer des divergences dans les documents à examiner en fonction des moyens du contrat. Bien que les contrats puissent être très similaires les uns des autres, ils ont tous un objectif spécifique, ce qui appelle une attention particulière pour l'utilisation de balises. Je trouve que l'IA est logique et crédible dans le but de réduire le temps d'examen des contrats, ce qui permet de hiérarchiser d'autres tâches fastidieuses », avait indiqué Deja Colbert, administratrice de contrats chez Omega Rail Management.

    Le juge de la Cour suprême US met néanmoins en garde contre les dangers de l’IA dans le travail judiciaire

    « L’IA a évidemment un grand potentiel pour améliorer considérablement l’accès aux informations clés pour les avocats et les non-avocats. Mais cela risque tout aussi évidemment de porter atteinte aux intérêts de la vie privée et de déshumaniser la loi », déclare-t-il.

    En plus de ces risques, les chatbots LLM populaires comme ChatGPT et Bard de Google peuvent produire de fausses informations, ce qui revient à dire que les utilisateurs s'en remettent à la chance chaque fois qu'ils font confiance aux robots sans vérifier leur travail au préalable.

    Roberts a souligné que « toute utilisation de l’IA nécessite prudence et humilité ». Il a mentionné un cas où les hallucinations de l'IA ont conduit des avocats à citer des cas inexistants dans des documents judiciaires, ce qui, selon le juge en chef, est « toujours une mauvaise idée ». Roberts n'a pas donné plus de détails en dehors d'indiquer que le phénomène « a fait la une des journaux cette année ».

    La semaine dernière, par exemple, Michael Cohen, ancien conseiller et avocat de Donald Trump, a déclaré dans des documents judiciaires qu'il avait donné par erreur à son avocat de fausses citations générées par un programme d'IA qui ont été citées dans un dossier officiel du tribunal. D’autres cas d’avocats incluant des cas inventés par l’IA dans des mémoires juridiques ont également été documentés.

    La 5e Cour d'appel américaine de la Nouvelle-Orléans semble être d'accord avec le point de vue de Roberts selon lequel l'assistance juridique assistée par l'IA peut produire un travail moins que satisfaisant. Le tribunal a proposé une règle qui obligerait les avocats à certifier qu'ils ne s'appuient pas sur un logiciel d'IA pour rédiger des mémoires, ou qu'un humain a vérifié et édité tout texte généré par un chatbot.

    Les avocats qui déclarent faussement qu'ils respectent la règle pourraient être confrontés à la possibilité que leurs dossiers soient radiés et sanctionnés, selon la règle proposée.

    Et vous ?

    Quelle est votre opinion sur l’utilisation de l’IA dans le domaine du droit ? Pensez-vous qu’elle soit bénéfique ou nuisible pour la justice ?
    Quelles sont les limites que vous voyez à l’application de l’IA au travail judiciaire ? Comment les définir et les respecter ?
    Que pensez-vous du cas de l’avocat qui a cité une affaire judiciaire fictive que lui a communiqué ChatGPT ? Quelles sanctions devrait-il encourir ?
    Comment vérifier la fiabilité et la validité des sources juridiques générées par l’IA ? Quels sont les critères et les outils à utiliser ?
    Comment préserver les valeurs et les principes qui fondent le droit, face à l’évolution rapide de la technologie ? Quel est le rôle et la responsabilité des juges et des avocats dans ce contexte ?

    Voir aussi :

    Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles

  4. #24
    Membre émérite
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    802
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 802
    Points : 2 812
    Points
    2 812
    Par défaut
    26 secondes pour que l'IA analyse le contrat et 94 minutes pour un avocat. OK, combien de temps passés à programmer l'IA pour qu'elle soit aussi efficace sur ce segment spécifique d'une analyse de documents ? Remplacer le contrat de non divulgation par un babar l'éléphant et le truc ne sait déjà plus ou il habite non ?

    Quoiqu'il en soit ça laisse songeur. J'aimerais bien pouvoir passer moins de temps à la rédaction et la vérification et si l'IA pouvait s'assurer que je fasse pas de bourde dans les chiffres ou une clause particulière c'est vrai qu'au final ce serait pas mal.

    Après comme d'habitude ça soulève plus d'interrogation que de solution et évidemment tout le monde se lance dedans tête baissée

Discussions similaires

  1. Réponses: 12
    Dernier message: 07/01/2016, 10h31
  2. [2008] Requête qui duplique des lignes en fonction d'une valeur dans un champ
    Par Fredo67 dans le forum Développement
    Réponses: 6
    Dernier message: 27/01/2015, 13h03
  3. Réponses: 5
    Dernier message: 27/02/2013, 12h47
  4. Réponses: 0
    Dernier message: 25/07/2010, 18h22
  5. [MySQL] Récupérer des données de MySQL et les envoyer dans un PDF
    Par cdevl32 dans le forum PHP & Base de données
    Réponses: 12
    Dernier message: 16/03/2009, 21h53

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo