Ekhbary
Thursday, 29 January 2026
Breaking

X (ex-Twitter) pourrait étiqueter les médias manipulés

X (ex-Twitter) pourrait étiqueter les médias manipulés
Ekhbary Editor
3 hours ago
4

France - Agence de Presse

La plateforme X, anciennement connue sous le nom de Twitter et désormais sous la houlette d'Elon Musk, semble préparer le terrain pour une nouvelle fonctionnalité visant à signaler les "médias manipulés". L'annonce, apparue sur le compte X de DogeDesigner, souvent utilisé comme relais pour les nouvelles fonctionnalités, suggère que X pourrait bientôt identifier et avertir les utilisateurs sur les images et vidéos modifiées.

Cependant, les informations concernant cette nouvelle fonctionnalité sont pour le moins sibyllines. Elon Musk a brièvement mentionné "Avertissement sur les visuels modifiés" dans un message, sans toutefois clarifier les critères précis qui permettront de déterminer ce qui constitue un "média manipulé". La question cruciale demeure : cette détection s'appliquera-t-elle uniquement aux contenus générés par l'intelligence artificielle, ou inclura-t-elle également les images retouchées par des outils traditionnels comme Photoshop ?

Les détails fournis par DogeDesigner indiquent que cette fonctionnalité pourrait rendre "plus difficile pour les médias traditionnels de diffuser des clips ou des images trompeuses", affirmant par ailleurs qu'elle est nouvelle pour X. Il est important de noter qu'avant son changement de nom et d'acquisition, Twitter avait déjà une politique concernant les médias manipulés, alternant entre étiquetage et suppression pour les contenus jugés "manipulés, altérés de manière trompeuse ou fabriqués". Cette politique ne se limitait pas à l'IA, englobant des modifications telles que le montage, le recadrage, le ralentissement ou la manipulation des sous-titres, comme l'avait indiqué Yoel Roth, responsable de l'intégrité du site, en 2020.

L'incertitude plane quant à savoir si X adoptera les mêmes règles ou apportera des changements significatifs pour lutter contre la désinformation générée par l'IA. La documentation d'aide actuelle mentionne une politique contre le partage de médias inauthentiques, mais son application semble erratique, comme l'a récemment démontré le partage d'images non consensuelles. Le contexte politique actuel, où la diffusion de contenus manipulés est fréquente, rend d'autant plus nécessaire une compréhension claire de la manière dont X déterminera ce qui est "édité" ou potentiellement généré/manipulé par l'IA.

Les utilisateurs devraient pouvoir connaître les critères de détection et s'il existe un processus de contestation au-delà des "Community Notes" de X. L'expérience de Meta, qui avait introduit un étiquetage des images IA en 2024, souligne la complexité du processus. La plateforme avait initialement mal étiqueté des photographies réelles comme étant "faites avec l'IA", car les fonctions IA sont de plus en plus intégrées dans les outils créatifs standards, comme ceux d'Adobe. Finalement, Meta a ajusté son étiquetage pour plus de nuance.

Des initiatives comme la C2PA (Coalition for Content Provenance and Authenticity) travaillent à l'établissement de normes pour vérifier l'authenticité des contenus numériques. Bien que X ne figure pas encore parmi les membres de la C2PA, il est à espérer que la plateforme s'alignera sur des processus reconnus pour l'identification du contenu IA. L'absence de transparence sur ce point soulève des interrogations quant à l'engagement de X dans la lutte contre la désinformation.

  • X prépare une fonctionnalité d'étiquetage des "médias manipulés".
  • Les critères de détection (IA vs. retouche traditionnelle) restent flous.
  • La plateforme cherche à contrer la désinformation, mais manque de transparence.
  • D'autres plateformes comme Meta et TikTok ont déjà mis en place des systèmes similaires.
  • La C2PA est une initiative travaillant sur la provenance et l'authenticité des contenus numériques.

Pour l'instant, X n'a pas répondu aux demandes de commentaires concernant cette nouvelle fonctionnalité.

Visitez X