Adam Mosseri, directeur d'Instagram, a récemment partagé ses craintes concernant la prolifération des contenus générés par intelligence artificielle (IA) sur les réseaux sociaux. Alors que cette tendance augmente, il souligne que l'authenticité risque de devenir une denrée rare, rendant encore plus difficile la distinction entre le réel et le faux.
En 2025, la popularité croissante des outils d’IA permet à quiconque de créer des médias indiscernables des œuvres authentiques, entraînant une remise en question de la crédibilité des contenus partagés par les utilisateurs. "Tout ce qui conférait une force singulière aux créateurs devient désormais accessible grâce aux avancées technologiques," a-t-il déclaré sur la plateforme.
Les deepfakes et les médias générés par IA, comme ceux créés par des outils récents tels que Grok ou Sora 2 d'OpenAI, suscitent des inquiétudes croissantes. De nombreux utilisateurs, face à cette nouvelle réalité, pourraient devenir sceptiques quant à la véracité des images ou vidéos qui défilent sur leur fil d’actualités. Selon Mosseri, cette évolution pourrait conduire à une vigilance accrue de la part des utilisateurs : "Nous pourrions nous demander, qui partage ce contenu et dans quel but ?" Une approche qui modifierait notre manière d'interagir avec les informations en ligne.
Les experts soulignent également que si l'IA continue d'évoluer, les contenus générés pourraient finir par rivaliser en qualité avec ceux créés humainement, compliquant encore davantage la quête de l'authenticité. Mark Zuckerberg, quant à lui, défend farouchement les possibilités offertes par l'IA, mettant en avant ses bénéfices dans le cadre de l'innovation des réseaux sociaux. Mais Mosseri, sceptique, plaide pour une approche plus prudente.
Il met en lumière la nécessité d’un étiquetage clair des contenus générés par IA et annonce la demande de mesures aux fabricants d’appareils photo qui devront prouver l'authenticité des images via des signatures cryptographiques. Il appelle également à renforcer la transparence des comptes, permettant ainsi aux utilisateurs d'effectuer un choix informé sur les contenus qu'ils consomment.
Dans le contexte où l'UI est capable de corriger les erreurs, les images floues ou moins flatteuses risquent de devenir des signes d'authenticité. Toutefois, Mosseri avertit que cette tendance pourrait aussi évoluer avec les avancées de l'IA, offrant des contenus qui simulent également les imperfections humaines. Cette réalité est déjà débattue dans plusieurs médias, qui s'interrogent sur l'impact de ces changements sur l'intégrité de l'information dans les années à venir.







