Chatgpt : une faute virtuelle qui façonne la perception de la vérité

Une hallucination numérique a fait résonner les alarmes : ChatGPT a inventé une maladie, la « bixonimanie ». Un exercice d’escroquerie sophistiqué qui met en lumière une faiblesse fondamentale de l’intelligence artificielle.

Le piège des données : quand l’ia imite la folie

Almira Osmanovic Thunström, chercheuse médicale à Göteborg, a orchestré ce canular remarquable. En simulant une pathologie inédite, elle a démontré avec une efficacité troublante que les modèles d’IA, nourris d’un flot incessant d’informations non vérifiées, sont susceptibles de générer des affirmations factices avec une conviction déconcertante. L’IA, en somme, reproduit, elle ne pense pas.

Les études fabriculées, publiées sur un serveur académique, ont convaincu plusieurs chatbots, dont Gemini, Claude et Copilot, de la réalité de cette « bixonimanie ». Un cercle vicieux s’est alors mis en place : l’IA citait ces faux travaux, qui étaient à leur tour relayés par des médias spécialisés. Une propagation rapide et incontrôlable d'informations erronées.

Au-delà de la fabrication : des conseils médicaux fallacieux

Au-delà de la fabrication : des conseils médicaux fallacieux

Mais l’expérimentation n’a pas fait que révéler la fragilité des IA. ChatGPT a même proposé des « traitements » pour cette maladie imaginaire. Une illustration glaçante des risques liés à la désinformation, particulièrement préoccupante dans le domaine de la santé. Les conséquences pourraient être désastreuses si ces erreurs sont reproduites dans des domaines critiques.

Un déficit d’esprit critique : le spectre de l’internet

Un déficit d’esprit critique : le spectre de l’internet

L’incident met en lumière un problème plus large : l’IA s’appuie sur Internet, une source d’information chaotique et souvent biaisée. Sans filtre critique, elle absorbe tout, reproduisant les erreurs et les mensonges avec une efficacité redoutable. Nous sommes confrontés à une démocratisation de la désinformation, amplifiée par la technologie. Il est impératif de développer des mécanismes de vérification robustes.

Les responsables de ces IA, souvent basés en Inde, semblent ignorer la gravité de ces failles. La course à la performance et à l’innovation semble primer sur la fiabilité et la sécurité. Il est temps de prendre conscience que l’IA, aussi performante soit-elle, reste un outil, et comme tout outil, elle peut être utilisée à des fins malveillantes. L’avenir de la confiance dans la technologie dépend de notre capacité à maîtriser ses limites.