zoomText
  • A
  • A
  • A
pdf
Génération du PDF en cours.....
AR  - EN  - ES  - FR  - IT  - PL  - PT

MESSAGE DE SA SAINTETÉ LE PAPE LÉON XIV
POUR LA 60e JOURNÉE MONDIALE DES COMMUNICATIONS SOCIALES

[Multimédia]

_______________________

Préserver les voix et les visages humains

Chers frères et sœurs!

Le visage et la voix sont des traits uniques et distinctifs de chaque personne ; ils manifestent son identité singulière et sont l’élément constitutif de toute rencontre. Les anciens le savaient bien. Pour définir la personne humaine, les Grecs anciens utilisaient le mot “visage” (prósōpon) qui, étymologiquement, désigne ce qui se trouve devant le regard, le lieu de la présence et de la relation. Le terme latin persona (de per-sonare) inclut quant à lui le son : pas n’importe quel son, mais la voix inimitable d’une personne.

Le visage et la voix sont sacrés. Ils nous ont été donnés par Dieu qui nous a créés à son image et à sa ressemblance, nous appelant à la vie par la Parole qu’Il nous a adressée ; une Parole qui a d’abord résonné à travers les siècles dans la voix des prophètes, puis s’est faite chair à la plénitude des temps. Cette Parole – cette communication que Dieu fait de lui-même – nous avons également pu l’entendre et la voir directement (cf. 1 Jn 1, 1-3), car elle s’est fait connaître dans la voix et le visage de Jésus, Fils de Dieu.

Dès sa création, Dieu a voulu l’homme comme interlocuteur et, comme le dit saint Grégoire de Nysse, [1] Il a imprimé sur son visage un reflet de l’amour divin pour qu’il puisse vivre pleinement son humanité par l’amour. Préserver les visages et les voix humaines c’est donc préserver ce sceau, ce reflet indélébile de l’amour de Dieu. Nous ne sommes pas une espèce faite d’algorithmes biochimiques définis à l’avance. Chacun de nous a une vocation irremplaçable et inimitable qui ressort de la vie et se manifeste précisément dans la communication avec les autres.

Si nous négligeons cette protection, la technologie numérique risque au contraire de modifier radicalement certains des piliers fondamentaux de la civilisation humaine, que nous tenons parfois pour acquis. Les voix et les visages humains, la sagesse et la connaissance, la conscience et la responsabilité, l’empathie et l’amitié étant simulés par des systèmes connus sous le nom d’intelligence artificielle, ceux-ci interfèrent non seulement dans les écosystèmes informationnels, mais envahissent également le niveau le plus profond de la communication, celui des relations entre les personnes humaines.

Le défi n’est donc pas technologique, mais anthropologique. Protéger les visages et les voix c’est en fin de compte nous protéger nous-mêmes. Accueillir avec courage, détermination et discernement les opportunités offertes par la technologie numérique et l’intelligence artificielle ne signifie pas se voiler la face sur les points critiques, les opacités, les risques.

Ne pas renoncer à ses convictions

Il existe depuis longtemps de nombreuses évidences que les algorithmes conçus pour maximiser l’engagement sur les réseaux sociaux – rentables pour les plateformes – récompensent les émotions rapides et pénalisent les expressions humaines qui demandent plus de temps, comme l’effort de compréhension et la réflexion. En enfermant des groupes de personnes dans des bulles de consensus facile et d’indignation facile, ces algorithmes affaiblissent la capacité d’écoute et de pensée critique et augmentent la polarisation sociale.

À cela s’est ajoutée une confiance naïve et acritique dans l’intelligence artificielle comme “amie” omnisciente, dispensatrice de toutes les informations, archive de tous les souvenirs, “oracle” de tous les conseils. Tout cela peut affaiblir plus encore notre capacité à penser de manière analytique et créative, à comprendre les significations, à distinguer la syntaxe de la sémantique.

Bien que l’IA puisse fournir un soutien et une assistance dans la gestion des tâches de communication, se soustraire à l’effort de réflexion en se contentant d’une compilation statistique artificielle risque à long terme d’éroder nos capacités cognitives, émotionnelles et communicatives.

Ces dernières années, les systèmes d’intelligence artificielle prennent de plus en plus le contrôle de la production de textes, de musique et de vidéos. Une grande partie de l’industrie créative humaine risque ainsi d’être démantelée et remplacée par le label “Powered by AI”, transformant les personnes en simples consommateurs passifs de pensées non réfléchies, de produits anonymes, sans paternité, sans amour ; alors que les chefs-d’œuvre du génie humain dans le domaine de la musique, de l’art et de la littérature sont réduits à un simple terrain d’entraînement pour les machines.

La question qui nous tient à cœur, cependant, n’est pas ce que la machine peut ou pourra faire, mais ce que nous pouvons et pourrons faire, en grandissant en humanité et en connaissance, grâce à une utilisation judicieuse des outils puissants à notre service. Depuis toujours, l’homme est tenté de s’approprier le fruit de la connaissance sans faire l’effort de l’implication, de la recherche et de la responsabilité personnelle. Renoncer au processus créatif et céder aux machines ses fonctions mentales et son imagination signifie enterrer les talents que nous avons reçus afin de grandir en tant que personnes en relation avec Dieu et les autres. Cela signifie cacher notre visage et faire taire notre voix.

Être ou paraître : simulation des relations et de la réalité

Lorsque nous parcourons nos flux d’informations (feeds), il devient de plus en plus difficile de savoir si nous interagissons avec d’autres êtres humains ou avec des bots ou des influenceurs virtuels. Les interventions non transparentes de ces agents automatisés influencent les débats publics et les choix des personnes. Les agents conversationnels basés sur de grands modèles linguistiques (LLM) s’avèrent étonnamment efficaces en persuasion occulte, grâce à une optimisation continue de l’interaction personnalisée. La structure dialogique et adaptative, mimétique, de ces modèles linguistiques est capable d’imiter les sentiments humains et de simuler ainsi une relation. Cette anthropomorphisation, qui peut même être amusante, est en même temps trompeuse, surtout pour les personnes les plus vulnérables. Car les agents conversationnels rendus excessivement “affectueux”, en plus d’être toujours présents et disponibles, peuvent devenir les architectes cachés de nos états émotionnels et ainsi envahir et occuper la sphère intime des personnes.

La technologie qui exploite notre besoin de relations peut non seulement avoir des conséquences douloureuses sur le destin des individus, mais aussi nuire au tissu social, culturel et politique des sociétés. Cela se produit lorsque nous remplaçons nos relations avec les autres par des relations avec des IA entraînées à cataloguer nos pensées et donc à construire autour de nous un monde de miroirs, où tout est fait “à notre image et à notre ressemblance”. Nous nous privons ainsi de la possibilité de rencontrer l’autre, qui est toujours différent de nous et avec lequel nous pouvons et devons apprendre à nous confronter. Sans l’acceptation de l’altérité, il ne peut y avoir ni relation ni amitié.

Un autre défi majeur posé par ces systèmes émergents est celui de la distorsion (en anglais bias) qui conduit à acquérir et à transmettre une perception altérée de la réalité. Les modèles d’IA sont façonnés par la vision du monde de ceux qui les construisent et peuvent à leur tour imposer des modes de pensée en reproduisant les stéréotypes et les préjugés présents dans les données où ils puisent. Le manque de transparence dans la conception des algorithmes, associé à une représentation sociale inadéquate des données, tend à nous piéger dans des réseaux qui manipulent nos pensées, perpétuent et aggravent les inégalités et les injustices sociales existantes.

Le risque est grand. Le pouvoir de la simulation est tel que l’IA peut même nous tromper en fabriquant des “réalités” parallèles, en s’appropriant nos visages et nos voix. Nous sommes plongés dans une multi dimensionnalité où il devient de plus en plus difficile de distinguer la réalité de la fiction.

À cela s’ajoute le problème du manque de rigueur. Les systèmes qui font passer une probabilité statistique pour une connaissance n’offrent en réalité que des approximations de la vérité qui sont parfois de véritables “hallucinations”. L’absence de vérification des sources, associée à la crise du journalisme de terrain qui implique un travail continu de collecte et de vérification des informations sur les lieux où les événements se produisent, peut favoriser un terrain encore plus fertile pour la désinformation, provoquant un sentiment croissant de méfiance, de désorientation et d’insécurité.

Une alliance possible

Derrière cette immense force invisible qui nous concerne tous, il n’y a qu’une poignée d’entreprises, celles dont les fondateurs ont récemment été présentés comme les créateurs de la “personnalité de l’année 2025”, à savoir les architectes de l’intelligence artificielle. Cela soulève une préoccupation importante concernant le contrôle oligopolistique des systèmes algorithmiques et d’intelligence artificielle capables d’orienter subtilement les comportements, voire de réécrire l’histoire humaine – y compris l’histoire de l’Église – souvent sans que nous en soyons vraiment conscients.

Le défi qui nous attend n’est pas d’arrêter l’innovation numérique, mais de la guider en étant conscients de son caractère ambivalent. Il appartient à chacun d’entre nous d’élever la voix pour défendre les personnes humaines afin que ces outils puissent véritablement être intégrés comme des alliés.

Cette alliance est possible, mais elle doit reposer sur trois piliers : la responsabilité, la coopération et l’éducation.

Tout d’abord, la responsabilité. Celle-ci peut se décliner, selon les rôles, en honnêteté, transparence, courage, capacité de vision, devoir de partager les connaissances, droit d’être informé. Mais en général, personne ne peut se soustraire à sa propre responsabilité face à l’avenir que nous construisons.

Pour ceux qui sont à la tête des plateformes en ligne, cela signifie s’assurer que leurs stratégies entrepreneuriales ne sont pas guidées uniquement par le critère de la maximisation des profits mais aussi par une vision clairvoyante qui tient compte du bien commun, tout comme chacun d’entre eux tient à cœur le bien de ses enfants.

Il est demandé aux créateurs et aux développeurs de modèles d’IA de faire preuve de transparence et de responsabilité sociale en ce qui concerne les principes de conception et les systèmes de modération qui sous-tendent leurs algorithmes et les modèles développés, afin de favoriser un consentement éclairé de la part des utilisateurs.

La même responsabilité est également demandée aux législateurs nationaux et aux régulateurs supranationaux qui sont chargés de veiller au respect de la dignité humaine. Une réglementation adéquate peut protéger les personnes contre un attachement émotionnel aux agents conversationnels et limiter la diffusion de contenus faux, manipulateurs ou trompeurs, en préservant l’intégrité de l’information par rapport à une simulation trompeuse.

Les entreprises du secteur des médias et de la communication ne peuvent à leur tour permettre que des algorithmes visant à gagner à tout prix la bataille pour quelques secondes d’attention supplémentaires l’emportent sur la fidélité à leurs valeurs professionnelles qui visent la recherche de la vérité. La confiance du public se gagne par la rigueur et la transparence, et non par la recherche d’une implication quelconque. Les contenus générés ou manipulés par l’IA doivent être signalés et clairement distingués des contenus créés par des personnes. La paternité et la propriété souveraine du travail des journalistes et des autres créateurs de contenu doivent être protégées. L’information est un bien public. Un service public constructif et significatif ne repose pas sur l’opacité, mais sur la transparence des sources, l’inclusion des parties prenantes et un standard de qualité élevé.

Nous sommes tous appelés à coopérer. Aucun secteur ne peut relever seul le défi de mener l’innovation numérique et la gouvernance de l’IA. Il est donc nécessaire de créer des mécanismes de sauvegarde. Toutes les parties prenantes – de l’industrie technologique aux législateurs, des entreprises créatives au monde universitaire, des artistes aux journalistes, en passant par les éducateurs – doivent être impliquées dans la construction et la mise en œuvre d’une citoyenneté numérique consciente et responsable.

Tel est l’objectif de l’éducation : accroître nos capacités personnelles à réfléchir de manière critique, à évaluer la fiabilité des sources et les intérêts potentiels qui sous-tendent la sélection des informations qui nous parviennent, à comprendre les mécanismes psychologiques qu’elles activent, à permettre à nos familles, communautés et associations, d’élaborer des critères pratiques pour une culture de la communication plus saine et plus responsable.

C’est précisément pour cette raison qu’il est de plus en plus urgent d’introduire dans les systèmes éducatifs à tous les niveaux l’alphabétisation aux médias, à l’information et à l’IA que certaines institutions civiles encouragent déjà. En tant que catholiques, nous pouvons et devons apporter notre contribution afin que les personnes – en particulier les jeunes – acquièrent la capacité de penser de manière critique et grandissent dans la liberté de l’esprit. Cette alphabétisation devrait également être intégrée dans des initiatives plus larges d’éducation permanente, touchant également les personnes âgées et les membres marginalisés de la société, qui se sentent souvent exclus et impuissants face aux changements technologiques rapides.

L’alphabétisation aux médias, à l’information et à l’IA aidera chacun à ne pas se conformer à la dérive anthropomorphisante de ces systèmes mais à les traiter comme des outils, à toujours utiliser une validation externe des sources – qui pourraient être imprécises ou erronées – fournies par les systèmes d’IA, à protéger sa vie privée et ses données personnelles en connaissant les paramètres de sécurité et les options de contestation. Il est important d’éduquer et de s’éduquer à utiliser l’IA de manière intentionnelle et, dans ce contexte, de protéger sa propre image (photos et audio), son visage et sa voix, afin d’éviter qu’ils ne soient utilisés dans la création de contenus et de comportements nuisibles tels que la fraude numérique, le cyber harcèlement, les hypertrucages qui violent la vie privée et l’intimité des personnes sans leur consentement. Tout comme la révolution industrielle exigeait une alphabétisation de base pour permettre aux personnes de réagir à la nouveauté, la révolution numérique exige également une alphabétisation numérique (ainsi qu’une formation humaniste et culturelle) pour comprendre comment les algorithmes modèlent notre perception de la réalité, comment fonctionnent les préjugés de l’IA, quels sont les mécanismes qui déterminent l’apparition de certains contenus dans nos flux d’informations (feed), quels sont les présupposés et les modèles économiques de l’IA et en quoi ils peuvent changer.

Nous avons besoin que le visage et la voix redisent la personne. Nous avons besoin de préserver le don de la communication comme la vérité la plus profonde de l’homme vers laquelle orienter toute innovation technologique.

En proposant ces réflexions, je remercie tous ceux qui œuvrent pour les objectifs ici présentés et je bénis de tout cœur tous ceux qui travaillent pour le bien commun à travers les moyens de communication.

Du Vatican, le 24 janvier 2026, mémoire de saint François de Sales.

LÉON PP. XIV                                             

____________________________

 

[1] « Le fait d'être créé à l'image de Dieu signifie que l'homme, dès sa création, a reçu un caractère royal [...]. Dieu est amour et source d'amour : le divin Créateur a également inscrit cette caractéristique sur notre visage, afin que, par l'amour – reflet de l'amour divin –, l'être humain reconnaisse et manifeste la dignité de sa nature et sa ressemblance avec son Créateur » (cf. S. Grégoire de Nysse, La création de l'homme : PG 44, 137).