Développé par Microsoft et OpenAI, ChatGPT et l’outil d’IA générative la plus utilisée au monde. En effet, en ce décembre 2023, le nombre de ses utilisateurs est estimé à 100 millions. A noter qu’il n’a été lancé qu’il y a seulement un an. Des utilisateurs qui font appel à ce service pour diverses raisons. On peut en citer l’analyse de marché, l’assistanat virtuel, la rédaction web, mais aussi le journalisme. Et justement, sur ce dernier aspect, New York Times accuse ChatGPT de violer les droits d’auteur. Guide entreprise a donc décidé de plonger sur cette affaire pour voir ce qu’il en est.

Créateurs de ChatGPT, pourquoi Microsoft et OpenAI sont-ils poursuivis par New York Times ?

Mercredi dernier, le New York Times a déposé une plainte contre Microsoft et OpenAI. Il les accuse d’utiliser illégalement ses articles pour le développement de leurs technologies d’intelligence artificielle.

Un chatbot d’IA entraîné sur des œuvres protégées

ChatGPT est un chatbot développé par Microsoft et OpenAI. Il utilise l’intelligence artificielle pour générer des textes à partir de requêtes des utilisateurs. Il est basé sur un modèle de langage appelé GPT-3.5. Ce dernier a été entraîné sur un corpus massif de documents provenant du web. ChatGPT peut interagir de manière conversationnelle, répondre à des questions, admettre ses erreurs, contester des prémisses incorrectes et rejeter des demandes inappropriées. Il peut aussi créer des contenus créatifs, comme des images, des poèmes, des codes, des parodies de célébrités et plus encore.

ChatGPT peut générer autant de contenus grâce à sa capacité à apprendre de ses propres interactions avec les utilisateurs. Il utilise une technique appelée apprentissage par renforcement à partir de retours humains (RLHF). Cela consiste à ajuster son comportement en fonction des évaluations de qualité fournies par des formateurs humains. Ainsi, ChatGPT s’améliore au fil du temps et devient plus pertinent, cohérent et original. Seulement, il a retiré toute sa connaissance à partir d’œuvres protégés, mais dont il n’a pas eu le consentement.

ChatGPT de Microsoft et OpenAI : des violations du droit d’auteur et de la vie privée

Dans la plainte soumise au tribunal fédéral de Manhattan, le journal américain allègue que OpenAI, créateur de l’intelligence artificielle ChatGPT, et Microsoft tirent profit de l’investissement considérable du Times dans son contenu journalistique pour concevoir des produits de substitution sans autorisation ni compensation financière. Néanmoins, il ne s’agit pas de la seule plainte déposée à l’encontre de cet IA générative. Il y a déjà eu une action collective de recours en justice dont les motifs ont été les suivants :

  • Violation de la vie privée : les entreprises auraient collecté et utilisé des informations privées volées, y compris des informations personnelles identifiables, de centaines de millions d’utilisateurs d’Internet, y compris des enfants, sans les informer ni obtenir leur consentement.
  • Violation du droit d’auteur : les entreprises auraient utilisé des œuvres écrites et des revues académiques de plusieurs auteurs, dont des best-sellers du New York Times, pour entraîner leur modèle de langage, sans leur permission ni leur rémunération.
  • Violation de la sécurité informatique : les entreprises auraient intercepté des communications entre services tiers, enfreignant ainsi la loi sur la protection de la vie privée électronique et la loi sur la fraude et les abus informatiques.

A ce moment-là, les plaignants ont demandé trois milliards de dollars de dommages et intérêts. Quand au New York Times, aucune somme n’a encore été mentionnée. Le fait est que, le journal a estimé un préjudice de plusieurs milliards de dollars.

La réglementation de l’IA et l’éthique des données

La réglementation de l’IA et l’éthique des données sont des sujets importants et complexes, qui visent à encadrer l’utilisation de l’intelligence artificielle (IA) et des données personnelles dans le respect des droits et des libertés des individus. Il existe plusieurs initiatives et propositions au niveau européen et national pour définir des principes et des normes communes en matière d’IA et de données, ainsi que pour prévenir les risques et les abus liés à ces technologies.

L’éthique de l’IA et des données est également un sujet qui concerne les acteurs privés. Ils doivent se poser des questions sur la finalité, la transparence, la responsabilité, la sécurité et la fiabilité de leurs systèmes d’IA et de leurs traitements de données. Il existe des recommandations et des bonnes pratiques, comme celles proposées par l’ADP Canada. Elles suggèrent cinq principes à considérer pour une utilisation éthique des données et de l’IA. Elles reposent sur la confiance, la transparence, le contrôle, la sécurité et la conformité.