Les modèles de ChatGPT seraient étonnamment doués pour la géographie,
capacité impressionnante, risques sous-estimés : le double visage de la géolocalisation par IA

L'émergence de fonctionnalités d'IA comme la « recherche de lieu inversée » dans ChatGPT relance les débats sur les frontières entre innovation technologique et respect de la vie privée. Les commentateurs soulignent que si la reconnaissance d'images par des humains ou des outils basiques existait déjà, l'automatisation à grande échelle par des modèles comme GPT-4o change radicalement la donne. Certains y voient une simple évolution technique, tandis que d'autres alertent sur les risques de surveillance généralisée, où chaque photo partagée en ligne, volontairement ou non, devient une pièce d'un puzzle exploitable massivement. L'argument selon lequel « ce qui est public peut être analysé » est contesté : la capacité à agréger et croiser des données à l'échelle industrielle, comme le fait l'IA, transforme une observation ponctuelle en une atteinte systémique à l'anonymat.

Par ailleurs, les limites techniques de ces modèles, hallucinations, erreurs de localisation, sont perçues comme une fragile barrière de protection. Les exemples cités (comme l'identification d'un bar clandestin) montrent que l'IA excelle dans la détection de motifs subtils, mais aussi que ses succès sont imprévisibles. L'absence de garde-fous explicites dans les rapports d'OpenAI inquiète, d'autant que les utilisateurs détournent ces outils pour des jeux géolocalisés (GeoGuessr) ou des investigations intrusives. La question centrale reste celle du consentement : dans un monde où même les photos d'arrière-plan ou partagées par des tiers peuvent être tracées, la vie privée semble dépendre désormais d'une abstinence numérique irréaliste.

Nom : o3.PNG
Affichages : 712
Taille : 71,1 Ko

OpenAI a annoncé le lancement de o3 et o4-mini, de nouveaux modèles de raisonnement d'IA conçus pour faire une pause et étudier les questions avant d'y répondre. L'entreprise qualifie o3 de modèle de raisonnement le plus avancé à ce jour, surpassant les précédents modèles de l'entreprise dans des tests mesurant les capacités de mathématiques, de codage, de raisonnement, de science et de compréhension visuelle. De son côté, o4-mini offre, selon OpenAI, un compromis compétitif entre le prix, la vitesse et les performances, trois facteurs que les développeurs prennent souvent en compte lorsqu'ils choisissent un modèle d'IA pour leurs applications.

Contrairement aux modèles de raisonnement précédents, o3 et o4-mini peuvent générer des réponses à l'aide d'outils de ChatGPT tels que la navigation web, l'exécution de code Python, le traitement d'images et la génération d'images. À partir d'aujourd'hui, les modèles, ainsi qu'une variante de o4-mini appelée « o4-mini-high » qui passe plus de temps à élaborer des réponses afin d'améliorer sa fiabilité, sont disponibles pour les abonnés aux plans Pro, Plus et Team d'OpenAI.

Ces nouveaux modèles s'inscrivent dans le cadre des efforts déployés par OpenAI pour devancer Google, Meta, xAI, Anthropic et DeepSeek dans la course mondiale à l'IA. Si OpenAI a été la première à publier un modèle de raisonnement, o1, ses concurrents ont rapidement suivi avec des versions qui égalent ou dépassent les performances de la gamme d'OpenAI. En fait, les modèles de raisonnement ont commencé à dominer le domaine, les laboratoires d'IA cherchant à tirer davantage de performances de leurs systèmes.

O3 a failli ne pas être publié dans ChatGPT. Le PDG d'OpenAI, Sam Altman, a indiqué en février que l'entreprise avait l'intention de consacrer davantage de ressources à une alternative sophistiquée intégrant la technologie d'O3. Mais la pression de la concurrence semble avoir incité OpenAI à faire marche arrière. OpenAI affirme que o3 atteint des performances de pointe sur SWE-bench vérifié (sans échafaudage personnalisé), un test mesurant les capacités de codage, avec un score de 69,1 %. Le modèle o4-mini atteint des performances similaires, avec un score de 68,1 %. Le deuxième meilleur modèle d'OpenAI, o3-mini, a obtenu 49,3 % au test, tandis que Claude 3.7 Sonnet a obtenu 62,3 %.

Citation Envoyé par OpenAI
Aujourd'hui, nous lançons OpenAI o3 et o4-mini, les derniers-nés de notre série o de modèles entraînés à réfléchir plus longtemps avant de répondre. Ce sont les modèles les plus intelligents que nous ayons publiés à ce jour, ce qui représente un changement radical dans les capacités de ChatGPT pour tous les utilisateurs, qu'ils soient curieux ou chercheurs avancés. Pour la première fois, nos modèles de raisonnement peuvent utiliser et combiner de manière active tous les outils de ChatGPT, y compris la recherche sur le Web, l'analyse des fichiers téléchargés et d'autres données avec Python, le raisonnement approfondi sur les entrées visuelles et même la génération d'images. Ces modèles sont entraînés à raisonner sur le moment et la manière d'utiliser les outils pour produire des réponses détaillées et réfléchies dans les bons formats de sortie, généralement en moins d'une minute, afin de résoudre des problèmes plus complexes. Cela leur permet d'aborder plus efficacement des questions à multiples facettes, ce qui constitue une étape vers un ChatGPT plus agentique, capable d'exécuter des tâches en votre nom. La puissance combinée d'un raisonnement de pointe et d'un accès complet aux outils se traduit par des performances nettement plus élevées dans les tests académiques et les tâches du monde réel, établissant une nouvelle norme en matière d'intelligence et d'utilité.
OpenAI affirme que o3 et o4-mini sont ses premiers modèles capables de « penser avec des images ». En pratique, les utilisateurs peuvent télécharger des images sur ChatGPT, telles que des croquis de tableau blanc ou des diagrammes de PDF, et les modèles analyseront les images pendant leur phase de « chaîne de pensée » avant de répondre. Grâce à cette nouvelle capacité, o3 et o4-mini peuvent comprendre des images floues et de faible qualité et effectuer des tâches telles que zoomer ou faire pivoter des images pendant qu'ils raisonnent.

Au-delà des capacités de traitement d'images, o3 et o4-mini peuvent exécuter du code Python directement dans un navigateur grâce à la fonction Canvas de ChatGPT, et effectuer des recherches sur le web lorsqu'ils sont interrogés sur des événements d'actualité. En plus de ChatGPT, les trois modèles - o3, o4-mini et o4-mini-high - seront disponibles via les points de terminaison d'OpenAI destinés aux développeurs, l'API Chat Completions et l'API Responses, permettant aux ingénieurs de créer des applications avec les modèles de l'entreprise à des tarifs basés sur l'utilisation.

Ce qui a changé

OpenAI o3 est notre modèle de raisonnement le plus puissant qui repousse les frontières du codage, des mathématiques, de la science, de la perception visuelle et plus encore. Il établit un nouveau SOTA sur des benchmarks tels que Codeforces, SWE-bench (sans construire un échafaudage personnalisé spécifique au modèle), et MMMU. Il est idéal pour les requêtes complexes nécessitant une analyse à plusieurs facettes et dont les réponses peuvent ne pas être immédiatement évidentes. Il est particulièrement performant pour les tâches visuelles telles que l'analyse d'images, de tableaux et de graphiques. Dans les évaluations réalisées par des experts externes, o3 commet 20 % d'erreurs majeures de moins qu'OpenAI o1 sur des tâches difficiles du monde réel, excellant particulièrement dans des domaines tels que la programmation, le commerce/le conseil et l'idéation créative. Les premiers testeurs ont souligné sa rigueur analytique en tant que partenaire de réflexion et ont insisté sur sa capacité à générer et à évaluer de manière critique de nouvelles hypothèses, en particulier dans les contextes de la biologie, des mathématiques et de l'ingénierie.

OpenAI o4-mini est un modèle plus petit optimisé pour un raisonnement rapide et rentable. Il atteint des performances remarquables pour sa taille et son coût, en particulier dans les tâches mathématiques, de codage et visuelles. Il s'agit du modèle de référence le plus performant sur AIME 2024 et 2025. Bien que l'accès à un ordinateur réduise sensiblement la difficulté de l'examen AIME, nous avons également constaté que o4-mini obtient 99,5 % de réussite@1 (100 % de consensus@8) à l'examen AIME 2025 lorsqu'il a accès à un interpréteur Python. Bien que ces résultats ne doivent pas être comparés à la performance des modèles sans accès aux outils, ils sont un exemple de l'efficacité avec laquelle o4-mini exploite les outils disponibles ; o3 montre des améliorations similaires sur AIME 2025 grâce à l'utilisation d'outils (98.4 % pass@1, 100 % consensus@8).

Dans les évaluations d'experts, o4-mini surpasse également son prédécesseur, o3-mini, sur des tâches non-STEM ainsi que dans des domaines tels que la science des données. Grâce à son efficacité, o4-mini supporte des limites d'utilisation beaucoup plus élevées que o3, ce qui en fait une option solide pour les questions à haut volume et à haut débit qui bénéficient d'un raisonnement. Les évaluateurs experts externes ont estimé que les deux modèles démontraient un meilleur suivi des instructions et des réponses plus utiles et vérifiables que leurs prédécesseurs, grâce à l'amélioration de l'intelligence et à l'inclusion de sources web. Par rapport aux itérations précédentes de nos modèles de raisonnement, ces deux modèles devraient également sembler plus naturels et conversationnels, en particulier parce qu'ils font référence à la mémoire et aux conversations passées pour rendre les réponses plus personnalisées et plus pertinentes.

Localisation inversée par IA : une menace pour l’anonymat dans l’ère post-réseaux sociaux ?

OpenAI facture aux développeurs un prix relativement bas pour o3, compte tenu de ses performances améliorées : 10 dollars par million de jetons d'entrée (environ 750 000 mots, plus longs que la série Le Seigneur des anneaux) et 40 dollars par million de jetons de sortie. Pour o4-mini, OpenAI facture le même prix que pour o3-mini, soit 1,10 dollar par million de jetons d'entrée et 4,40 dollars par million de jetons de sortie.

Dans les semaines à venir, OpenAI prévoit de lancer o3-pro, une version d'o3 qui utilise davantage de ressources informatiques pour produire ses réponses, exclusivement pour les abonnés de ChatGPT Pro. Le PDG d'OpenAI, Sam Altman, a indiqué que o3 et o4-mini pourraient être les derniers modèles de raisonnement IA autonomes dans ChatGPT avant GPT-5, un modèle qui, selon l'entreprise, unifiera les modèles traditionnels comme GPT-4.1 avec ses modèles de raisonnement.

Dans de nombreux cas, les modèles ne semblent pas s'appuyer sur les « souvenirs » des conversations ChatGPT passées, ni sur les données EXIF, c'est-à-dire les métadonnées jointes aux photos qui révèlent des détails tels que l'endroit où la photo a été prise. X est rempli d'exemples d'utilisateurs donnant à ChatGPT des menus de restaurants, des photos de quartier, des façades et des autoportraits, et demandant à o3 d'imaginer qu'il joue à « GeoGuessr », un jeu en ligne qui met les joueurs au défi de deviner des lieux à partir d'images de Google Street View.

Il s'agit d'un problème potentiel évident de protection de la vie privée. Rien n'empêche un acteur malveillant de faire une capture d'écran de la Story Instagram d'une personne et d'utiliser ChatGPT pour essayer de la dénoncer.

Bien sûr, cela pourrait être fait avant même le lancement de o3 et o4-mini. TechCrunch a fait passer un certain nombre de photos par o3 et un modèle plus ancien sans capacités de raisonnement d'image, GPT-4o, pour comparer les compétences des modèles en matière de localisation. Étonnamment, GPT-4o est arrivé plus souvent qu'autrement à la même réponse correcte que o3, et ce, en moins de temps.

Il y a eu au moins un cas où o3 a trouvé un endroit que GPT-4o n'a pas pu trouver. À la vue de la photo d'une tête de rhinocéros violette montée dans un bar faiblement éclairé, o3 a correctement répondu qu'elle provenait d'un bar clandestin de Williamsburg et non, comme l'avait deviné GPT-4o, d'un pub britannique. Cela ne veut pas dire qu'o3 est sans faille à cet égard. Plusieurs de nos tests ont échoué - o3 est resté bloqué dans une boucle, incapable d'arriver à une réponse dont il était raisonnablement sûr, ou a proposé un lieu erroné. Les utilisateurs de X ont également noté qu'o3 peut être assez loin dans ses déductions de localisation.

Mais cette tendance illustre certains des risques émergents présentés par des modèles d'IA plus performants, dits « raisonnants ». Il semble qu'il y ait peu de mesures de protection en place pour empêcher ce type de « recherche de localisation inversée » dans ChatGPT, et OpenAI, la société à l'origine de ChatGPT, n'aborde pas la question dans son rapport de sécurité pour o3 et o4-mini.

De GeoGuessr à la surveillance de masse : les dérives de la recherche inversée par IA

L’émergence de fonctionnalités d’IA comme la « recherche de lieu inversée » illustre un paradoxe technologique : d’un côté, une avancée fascinante en matière d’analyse d’images, de l’autre, une menace sournoise pour la vie privée. Si certains estiment qu’il s’agit simplement d’automatiser ce que les humains faisaient déjà, cette vision minimise l’impact systémique de l’IA. La différence entre un individu reconnaissant un lieu et une machine le faisant à l’échelle globale est comparable à celle entre une goutte d’eau et un tsunami : l’un est anecdotique, l’autre transforme radicalement le paysage.

L’argument « ne partagez pas si vous voulez rester privé » est de plus en plus déconnecté de la réalité. Dans un monde interconnecté, même ceux qui évitent les réseaux sociaux peuvent être tracés via des photos prises par des tiers, des caméras de surveillance ou des bases de données biométriques. La question n’est plus seulement celle du consentement individuel, mais aussi de la surveillance passive et omniprésente. L’IA ne se contente pas de reproduire le regard humain ; elle le systématise, le stocke et le combine avec d’autres données, créant des profils détaillés sans aucun contrôle démocratique.

Les erreurs de l’IA (hallucinations, localisations erronées) ne constituent pas une protection fiable. Au contraire, elles introduisent un nouveau risque : celui d’accusations infondées basées sur des déductions algorithmiques biaisées. Si un modèle identifie mal un lieu, cela peut avoir des conséquences réelles ; harcèlement, surveillance injustifiée, ou même atteinte à la réputation.

Enfin, l’absence de régulation claire et de transparence de la part des entreprises comme OpenAI est préoccupante. Si ces outils sont déjà utilisés pour du « GeoGuessr » ludique, rien n’empêche leur détournement à des fins de doxxing ou de surveillance intrusive. La vie privée ne devrait pas reposer sur une abstinence numérique impossible, mais sur des garde-fous technologiques et législatifs robustes. Sans cela, nous nous dirigeons vers une société où chaque pas dans l’espace public ; réel ou virtuel ; sera tracé, analysé et potentiellement exploité.

Source : OpenAI

Et vous ?

Quel est votre avis sur le sujet ?

Cette technologie va-t-elle dissuader les gens de partager des photos, par peur d’être tracés ?

Peut-on encore échapper à la traçabilité dans un monde où même l’arrière-plan d’une photo peut nous trahir ?

Voir aussi :

Un défenseur de l'Open Source affirme que DeepSeek est plus qu'un LLM : « C'est un mouvement, c'est Linux à nouveau », l'IA open source devient un acte de résistance face à l'hégémonie des GAFAM

Le DOGE d'Elon Musk est en train de constituer une « base de données géante » d'informations sensibles sur les Américains, regroupant des données provenant de diverses agences fédérales