L’IA générative ChatGPT est au cœur d’une nouvelle polémique suite à une nouvelle tendance devenue virale après la polémique sur les images version Ghibli. Depuis le lancement de ses nouveaux modèles o3 et o4-mini, la tendance est maintenant de jouer à GeoGuessr avec l’IA générative. Une tendance qui, en fin de compte, est loin d’amuser mais commence à faire peur.
La « recherche inversée » de ChatGPT enflamme et inquiète
On pourrait que ChatGPT n’est plus à ça de nous fasciner. C’est pourtant le contraire avec cette nouvelle tendance virale. D’une photo, l’IA générative peut trouver la localisation du lieu sur l’image. Mais elle ne fait pas que fasciner, elle commence sérieusement à s’éloigner de la confidentialité.
Jouer à un GeoGuessr ultra-performant avec ChatGPT
Depuis que les nouveaux modèles o3 et o4-mini ont été lancés, les internautes défient maintenant ChatGPT de localiser des endroits à partir d’une photo. Une nouvelle capacité qui repose sur un raisonnement visuel consistant à analyser les images téléchargées pour en extraire des indices géographiques. Des détails minuscules qui peuvent nous échapper : architecture de bâtiment, style de panneaux de signalisation ou encore végétation environnante. L’expérience donne même des résultats exacts avec une photo floue ou déformée. Grâce à ces indices, l’IA générative peut localiser jusqu’à une rue près des lieux précis (bars, restaurants…). On se croirait dans une version du jeu en ligne GeoGuessr. Un jeu qui consiste à deviner des endroits à partir d’images mais à un niveau dangereusement ultra-performant.
La « recherche inversée » : Un flirt dangereux avec l’intrusion
Mais à chaque nouvelle fonctionnalité tendance de l’IA générative, son lot d’inquiétudes. Cette « recherche inversée » amène certains à s’interroger sur la question importante qu’est la confidentialité. Elle peut constituer un risque sur la vie privée ainsi que sur la sécurité des utilisateurs. Effectivement, rien ne peut empêcher des personnes malveillantes de localiser une personne simplement à partir d’une story postée par exemple. L’expérience peut même effectuer un doxing – la diffusion publique d’informations privées. Cette fonctionnalité augmente le risque de violations de vie privée. Les précédents modèles pouvaient déjà offrir cette fonctionnalité mais les nouveaux modèles sont de plus en plus efficaces et précis. Certes, ChatGPT peut se tromper, il n’en reste pas pour autant menaçant.
Des garde-fous contournables
Cette capacité au raisonnement visuel de l’IA générative suscite des interrogations sur la protection de la vie privée. De nouvelles régulations sont nécessaires pour cela. D’autant plus qu’OpenAI n’a pas abordé ces préoccupations de façon significative dans son dernier rapport de sécurité pour ses nouveaux modèles o3 et o4-mini. Conscient de ce qui se passe, l’entreprise a déclaré se pencher sur le problème pour le limiter les risques. Elle entraîne par exemple ses modèles à ne pas répondre aux demandes qui pourraient révéler des détails de vie privée et sensibles. Cela n’est toutefois pas toujours suffisant. Un prompt peut tout à fait être rédigé de plusieurs manières pour obtenir les réponses attendues. Comme quoi, à malin, malin et demi. Ces garde-fous peuvent très bien être contournés.
Commentaires récents