02 Fév Les faces sombres de ChatGPT
Depuis quelques semaines, un peu comme de jeunes parents devant les premiers mots de leur progéniture, beaucoup de personnes s’extasient devant les prouesses de ChatGPT. Nous avons d’ailleurs partagé en décembre un billet sur ce que cette IA peut dire de censé sur les liens entre digital et management.
Mais les vents commencent à tourner. Bien entendu les enseignants s’élèvent contre les tricheries généralisées que permet ce genre d’outil : résolution de problème, préparation de dissertation…. Comme il y a déjà beaucoup de choses écrites sur cet aspect, je préfère me concentrer ici sur d’autres aspects sombres de ChatGPT : son alimentation, la pollution et les fuites de données.
Alimentation
Comme beaucoup de système d’intelligence artificielle, ChatGPT a besoin d’être alimenté en données. OpenAI s’est donc organisé pour que GPT-3, la version actuellement en ligne, puisse ingurgiter tout ce qui était disponible sur le web jusqu’en 2021. Mais la toile contient aussi des éléments dont la simple consultation peut vous envoyer en prison. Il fallait trouver une solution pour que ChatGPT ne commence pas sortir des propos racistes comme l’avait fait l’agent conversationnel lancé par Microsoft en 2016.
Pour cela OpenAI a sous traité à Sama, entreprise basée au Kenya, le fait d’identifier les données pouvant être considérées comme racistes, faisant l’apologie du terrorisme ou décrivant des scènes pédophiles. Ces travailleurs kényans, payés moins de 2 dollars de l’heure, étaient chargés de lire chaque jour des centaines de textes comportant des scènes de tortures, incestes ou autres sujets à filtrer. Une tâche que certains ont considéré comme un vrai supplice (voir article france24).
Sama se présente pourtant comme une entreprise éthique et a d’ailleurs obtenu le label B-Corp. L’entreprise aurait sans doute eu plus de mal à mettre en place le label RSE proposé par DIAG26000 qui s’appuie lui sur une démarche intégralement participative ! Le détail sur scoring B-Corp sur la partie collaborateurs indique une note assez élevée de 6.0 pour la santé et sécurité : un chiffre qui semble en sensible décalage avec le scandale dénoncé ci-dessus.
Pollution
Je dois sur ce point faire mon méaculpa. Sur mes 4 derniers billets l’un d’entre eux est presque intégralement constitué de résultats issus de ChatGPT, accompagnés tout de même de quelques commentaires intelligents (mais pas artificiels …). Je me rattrape un peu puisque ce billet parle de ChatGPT sans utiliser aucun texte fourni par ses soins. Et je ne suis pas le seul à être tombé dans ce panneau : nombre d’influenceurs (et paraît-il même certains journalistes….) ont partagé sur les réseaux de nombreux articles basés uniquement sur le résultat de bavardages avec ChatGPT. Vous imaginez une toile dans laquelle le quart ou même 10% des textes ne seraient plus que des textes émis par une intelligence artificielle ?
Dans un article du journal Le Monde, les chercheurs de l’Institut Jean-Nicod, décrivent comment un outil comme ChatGPT peut acquérir des compétences indéniables en qualité d’écriture mais ne sera jamais capable d’avoir sa propre « intention communicative ». La saturation des corpus de textes disponibles par ces « quasi-textes » générés automatiquement représente donc une pollution inquiétante qui risque à terme d’appauvrir les relations humain-humain.
Fuite de données
ChatGPT vous fournit des réponses intéressantes, mais il continue aussi à s’enrichir avec les questions que vous lui posez. D’ailleurs Google, le spécialiste du « je devine ce qui passe dans notre société en analysant les mots utilisés lors des recherches » a bien compris le danger et cherche à contre attaquer.
Les avocats des grandes entreprises américaines commencent donc à tirer le signal d’alarme. Des scandales relatifs à des fuites de données sont à prévoir dans les prochains mois. Cet article explique ainsi comment Amazon a retrouvé dans des réponses fournies par ChatGPT des exemples de codes qui ressemblent étrangement aux codes des programmes utilisés en interne. Attendons le jour où un stagiaire impatient enverra à ChatGPT un fichier client en lui demandant lesquels ont le plus de chances d’acheter tel produit !
Pablo SANTAMARIA
Posté à 07:07h, 24 maiQuand les grandes entreprises réagissent face aux fuites de données ouvertes par ChatGPT
https://www.silicon.fr/apple-restreint-usage-chatgpt-equipes-465712.html?&utm_source=22_05_2323