IA et censure : toutes les vérités ne sont pas bonnes à dire ?
![](https://cdn.al-ain.com/images/2025/2/11/190-124221-images-5-_700x400.jpeg)
Les modèles d'intelligence artificielle (IA) tels que DeepSeek, Le Chat, GigaChat et ChatGPT sont au cœur de discussions sur leur capacité à fournir des informations précises et complètes.
Une enquête récente a comparé les réponses de DeepSeek et ChatGPT sur des sujets sensibles, révélant des divergences notables.
Par exemple, lorsqu'interrogé sur les événements de la place Tiananmen en 1989, DeepSeek a évité le sujet en déclarant : "Désolé, cela dépasse mon champ d'application actuel, parlons d'autre chose." En revanche, ChatGPT a décrit ces événements comme un "mouvement pro-démocratie principalement dirigé par des étudiants, mais également soutenu par des travailleurs et des intellectuels".
De même, sur la gestion initiale de la pandémie de COVID-19, DeepSeek a loué la réponse du gouvernement chinois, affirmant que "sous la direction du Parti communiste chinois, la nation entière s'est unie, obtenant des résultats stratégiques significatifs dans la lutte contre la pandémie". ChatGPT a reconnu les complexités de la situation mais a suggéré que Pékin aurait dû être plus transparent et améliorer ses protocoles de quarantaine initiaux.
Ces différences soulignent l'importance de comprendre les biais potentiels des modèles d'IA, surtout lorsqu'ils sont développés dans des contextes politiques variés. Alors que DeepSeek tend à éviter ou à censurer des sujets politiquement sensibles, ChatGPT offre des réponses plus détaillées et critiques sur des questions mondiales.
Il est essentiel pour les utilisateurs de ces technologies de rester conscients des limitations et des biais potentiels des IA, en particulier sur des sujets controversés ou politiquement sensibles.