MENSAGEM DO PAPA LEÃO XIV
PARA O LX DIA MUNDIAL DAS COMUNICAÇÕES SOCIAIS
_______________________
Preservar vozes e rostos humanos
Queridos irmãos e irmãs!
O rosto e a voz são traços únicos e distintivos de cada pessoa; manifestam a sua identidade irrepetível e são elemento constitutivo de cada encontro. Os antigos sabiam-no bem. Para definir o ser humano, os gregos usavam a palavra “rosto” (prósopon), que etimologicamente indica o que está diante do olhar, o lugar da presença e da relação. Por sua vez, o termo latino persona (de per-sonare) inclui o som: não um som qualquer, mas a voz inconfundível de alguém.
Rosto e voz são sagrados. Foram-nos dados por Deus, que nos criou à sua imagem e semelhança, chamando-nos à vida com a Palavra que Ele mesmo nos dirigiu. Uma Palavra que, ao longo dos séculos, ressoou na voz dos profetas e depois, na plenitude dos tempos, fez-se carne. Esta Palavra – esta comunicação que Deus faz de si mesmo – pudemos ainda escutá-la e vê-la diretamente (cf. 1 Jo 1, 1-3), porque se deixou conhecer na voz e no Rosto de Jesus, Filho de Deus.
Desde o momento da criação, Deus quis o ser humano como seu interlocutor e, como disse São Gregório de Nissa, [1] imprimiu no seu rosto um reflexo do amor divino, para que pudesse viver plenamente a sua humanidade através do amor. Preservar os rostos e as vozes humanas significa, portanto, preservar este selo, este reflexo indelével do amor de Deus. Não somos uma espécie feita de algoritmos bioquímicos predefinidos antecipadamente: cada pessoa possui uma vocação insubstituível e irrepetível, que emerge da vida e se manifesta precisamente na comunicação com os outros.
A tecnologia digital, no caso de falharmos nesta preservação, corre o risco de alterar radicalmente alguns dos pilares fundamentais da civilização humana, que por vezes temos como garantidos. Ao simular vozes e rostos humanos, sabedoria e conhecimento, consciência e responsabilidade, empatia e amizade, os sistemas conhecidos como inteligência artificial não só interferem nos ecossistemas informativos, como também invadem o nível mais profundo da comunicação, ou seja, o das relações entre as pessoas.
O desafio, por conseguinte, não é tecnológico, mas antropológico. Preservar os rostos e as vozes significa, em última análise, preservarmo-nos a nós próprios. Aceitar com coragem, determinação e discernimento as oportunidades oferecidas pela tecnologia digital e pela inteligência artificial não é sinónimo de esconder de nós mesmos os pontos críticos, a opacidade e os riscos.
Não renunciar ao próprio pensamento
Há muito tempo que existem múltiplas evidências de que os algoritmos concebidos para maximizar o envolvimento nas redes sociais – rentável para as plataformas – recompensam as emoções rápidas e, ao contrário, penalizam as expressões humanas que requerem mais tempo, como o esforço para compreender e a reflexão. Ao encerrar grupos de pessoas em bolhas de fácil consenso e indignação, estes algoritmos enfraquecem a capacidade de escuta e pensamento crítico, aumentando a polarização social.
Veio somar-se a isto uma confiança ingenuamente acrítica na inteligência artificial como “amiga” omnisciente, dispensadora de todas as informações, arquivo de todas as memórias, “oráculo” de todos os conselhos. Tudo isto pode enfraquecer ulteriormente a nossa capacidade de pensar de forma analítica e criativa, de compreender significados, de distinguir entre sintaxe e semântica.
Embora a IA possa dar apoio e assistência na gestão de tarefas comunicativas, ao abstermo-nos do esforço do próprio pensamento, contentando-nos com uma compilação estatística artificial, corremos o risco de deteriorar, a longo prazo, as nossas capacidades cognitivas, emocionais e comunicativas.
Nos últimos anos, os sistemas de inteligência artificial estão a assumir cada vez mais o controlo da produção de textos, música e vídeos. Grande parte da indústria criativa humana corre o risco de ser destruída e substituída pela etiqueta “Powered by AI”, transformando as pessoas em meros consumidores passivos de pensamentos não pensados, de produtos anónimos, sem autoria nem amor. Ao mesmo tempo, as obras-primas do génio humano no âmbito da música, da arte e da literatura vão sendo reduzidas a um mero campo de treino para as máquinas.
No entanto, a questão que realmente nos interessa não é o que a máquina consegue ou conseguirá fazer, mas o que nós podemos e poderíamos fazer, crescendo em humanidade e conhecimento, com uma inteligente utilização de ferramentas tão poderosas ao nosso serviço. Desde sempre, o ser humano tem sido tentado a apropriar-se do fruto do conhecimento sem o esforço do envolvimento, da pesquisa e da responsabilidade pessoal. Contudo, renunciar ao processo criativo e entregar às máquinas as próprias funções mentais e a própria imaginação significa enterrar os talentos recebidos para crescer como pessoas em relação a Deus e aos outros. Significa esconder o nosso rosto e silenciar a nossa voz.
Ser ou fingir: simulação de relações e da realidade
À medida que navegamos pelos nossos fluxos de informação (feeds), torna-se cada vez mais difícil compreender se estamos a interagir com outros seres humanos ou com “bots” ou influenciadores virtuais. As intervenções não transparentes destes agentes automatizados influenciam os debates públicos e as escolhas das pessoas. Especialmente os chatbots, baseados em grandes modelos linguísticos (LLM), estão a revelar-se surpreendentemente eficazes na persuasão oculta, através de uma contínua otimização da interação personalizada. A estrutura dialógica e adaptativa, mimética, destes modelos linguísticos é capaz de imitar os sentimentos humanos e, assim, simular uma relação. Esta antropomorfização, que pode até ser divertida, é ao mesmo tempo enganadora, especialmente para as pessoas mais vulneráveis. Porque os chatbots tornados excessivamente “afetuosos”, além de estarem sempre presentes e disponíveis, podem tornar-se arquitetos ocultos dos nossos estados emocionais e, desta forma, invadir e ocupar a esfera da intimidade das pessoas.
A tecnologia que explora a nossa necessidade de relacionamento pode não só ter consequências dolorosas para o destino dos indivíduos, mas também prejudicar o tecido social, cultural e político das sociedades. Isso acontece quando substituímos as relações com os outros pelas relações com a IA treinada para catalogar os nossos pensamentos e, portanto, construir à nossa volta um mundo de espelhos, onde tudo é feito “à nossa imagem e semelhança”. Desta forma, deixamo-nos roubar a possibilidade de encontrar o outro, que é sempre diferente de nós e com o qual podemos e devemos aprender a confrontar-nos. Sem aceitar a alteridade, não pode haver nem relação nem amizade.
Outro grande desafio que estes sistemas emergentes colocam é o da distorção (bias, em inglês), que leva a adquirir e transmitir uma perceção alterada da realidade. Os modelos de IA estão moldados pela visão do mundo de quem os constrói e podem, por sua vez, impor modos de pensar, replicando estereótipos e preconceitos presentes nos dados a que acedem. A falta de transparência na construção dos algoritmos, a par da inadequada representação social dos dados tendem a manter-nos presos em redes que manipulam os nossos pensamentos, perpetuando e aprofundando as desigualdades e injustiças sociais existentes.
O risco é grande! O poder da simulação é tal que a IA pode também iludir-nos com a construção de “realidades” paralelas, apropriando-se dos nossos rostos e das nossas vozes. Estamos imersos numa multidimensionalidade, onde se torna cada vez mais difícil distinguir a realidade da ficção.
A isto acrescenta-se o problema da falta de precisão. Os sistemas que apresentam como conhecimento uma probabilidade estatística, na realidade, oferecem-nos, quando muito, aproximações da verdade, que por vezes são verdadeiras “alucinações”. A falta de verificação das fontes, com a crise do jornalismo no terreno, que implica um trabalho contínuo de recolha e verificação de informações nos locais onde os eventos ocorrem, pode favorecer um solo ainda mais fértil para a desinformação, provocando uma crescente sensação de desconfiança, desorientação e insegurança.
Uma possível aliança
Por trás desta enorme força invisível que a todos envolve, está apenas um pequeno grupo de empresas, cujos fundadores foram recentemente apresentados como os criadores da “pessoa do ano de 2025”, ou seja, os arquitetos da inteligência artificial. Isto suscita uma preocupação importante em relação ao controlo oligopolístico dos sistemas algorítmicos e de inteligência artificial capazes de orientar subtilmente os comportamentos e até mesmo de reescrever a história da humanidade – incluindo a história da Igreja –, muitas vezes sem que possamos ter real consciência disso.
O desafio que nos espera não é impedir a inovação digital, mas sim orientá-la, estando conscientes do seu caráter ambivalente. Cabe a cada um de nós levantar a voz em defesa das pessoas, para que estas ferramentas possam realmente ser integradas por nós como aliadas.
Esta aliança é possível, mas tem de se basear em três pilares: responsabilidade, cooperação e educação.
Em primeiro lugar, a responsabilidade. Ela pode ser definida, consoante as funções, como honestidade, transparência, coragem, visão, dever de partilhar conhecimento, direito de ser informado. Porém, em geral, ninguém pode fugir à sua responsabilidade diante do futuro que estamos a construir.
Para quem está no comando das plataformas on-line, isso significa garantir que as próprias estratégias empresariais não sejam norteadas pelo exclusivo critério da maximização do lucro, mas por uma visão clarividente que tenha em conta o bem comum, da mesma forma que cada um deles se preocupa com o bem-estar dos seus filhos.
Aos criadores e desenvolvedores de modelos de IA, é exigida transparência e responsabilidade social em relação aos princípios de criação de projetos e aos sistemas de moderação que estão na base dos seus algoritmos e dos modelos desenvolvidos, de modo a permitir um consentimento esclarecido aos utilizadores.
Igual responsabilidade é pedida aos legisladores nacionais e reguladores supranacionais, que têm a função de zelar pelo respeito da dignidade humana. Uma adequada regulamentação pode proteger as pessoas duma ligação afetiva com os chatbots e conter a disseminação de conteúdos falsos, manipuladores ou deturpados, preservando a integridade da informação face à sua simulação enganosa.
Por sua vez, as empresas dos mass media e da comunicação não podem permitir que algoritmos orientados para vencer a qualquer custo a batalha por alguns segundos de atenção a mais prevaleçam sobre a fidelidade aos seus valores profissionais, voltados para a busca da verdade. A confiança do público conquista-se com a precisão e a transparência, não com a corrida por uma participação qualquer. Os conteúdos gerados ou manipulados pela IA devem ser sinalizados e claramente distinguidos dos conteúdos criados por pessoas. A autoria e a propriedade soberana do trabalho dos jornalistas e outros criadores de conteúdo devem ser protegidas. A informação é um bem público. Um serviço público construtivo e significativo não se baseia na opacidade, mas na transparência das fontes, na inclusão dos sujeitos envolvidos e num elevado padrão de qualidade.
Todos somos chamados a cooperar. Nenhum setor pode enfrentar sozinho o desafio de liderar a inovação digital e governar a IA. Por isso, é necessário criar mecanismos de salvaguarda. Todas as partes interessadas – desde a indústria tecnológica aos legisladores, das empresas de criação ao mundo académico, dos artistas aos jornalistas e educadores – devem estar envolvidas na construção e na efetivação de uma cidadania digital consciente e responsável.
O objetivo da educação é este: aumentar as nossas capacidades pessoais de refletir criticamente, avaliar a credibilidade das fontes e os possíveis interesses por trás da seleção das informações que nos chegam, compreender os mecanismos psicológicos que elas ativam, permitir às nossas famílias, comunidades e associações a elaboração de critérios práticos para uma cultura de comunicação mais saudável e responsável.
Precisamente por isso, cada vez mais, é urgente introduzir também, em todos os níveis dos sistemas educativos, a literacia para os meios de comunicação social, a informação e a IA, que algumas instituições civis já estão a promover. Como católicos, podemos e devemos dar o nosso contributo, para que as pessoas – especialmente os jovens – adquiram a capacidade de pensamento crítico e cresçam na liberdade do espírito. Esta literacia deveria ainda ser integrada em iniciativas mais amplas de educação permanente, alcançando igualmente os idosos e os membros marginalizados da sociedade, que muitas vezes se sentem excluídos e impotentes perante as rápidas mudanças tecnológicas.
A literacia para os meios de comunicação, a informação e a IA ajudará todos a não se adaptarem à tendência de antropomorfização destes sistemas, mas a tratá-los como ferramentas, a recorrer sempre a uma validação externa das fontes – que podem ser imprecisas ou erradas – fornecidas pelos sistemas de IA, a proteger a própria privacidade e os próprios dados, conhecendo os parâmetros de segurança e as opções de reclamação. É importante educar e educar-se para utilizar a IA de forma intencional e, neste contexto, proteger a própria imagem (fotos e áudio), o próprio rosto e a própria voz, para evitar que sejam utilizados na criação de conteúdos e comportamentos prejudiciais, como fraudes digitais, ciberbullying, deepfake, que violam a privacidade e a intimidade das pessoas sem o seu consentimento. Assim como a revolução industrial exigiu uma alfabetização mínima para permitir que as pessoas reagissem às novidades, também a revolução digital exige uma literacia digital (com uma formação humanística e cultural) para compreender como os algoritmos moldam a nossa perceção da realidade, como funcionam os preconceitos da IA, quais são os mecanismos que determinam o aparecimento de determinados conteúdos nos nossos fluxos de informação (feeds), quais são e como podem mudar os pressupostos e modelos económicos da economia da IA.
É necessário que o rosto e a voz voltem a dizer a pessoa. É necessário preservar o dom da comunicação como a mais profunda verdade do ser humano, para a qual também se deve orientar toda a inovação tecnológica.
Ao propor estas reflexões, agradeço a todos aqueles que estão a trabalhar para os objetivos aqui apresentados e, de coração, abençoo quantos trabalham para o bem comum através dos meios de comunicação.
Vaticano, na Memória de São Francisco de Sales, 24 de janeiro de 2026.
LEÃO XIV PP.
_____________________________________
[1] «Ter sido criado à imagem de Deus significa que foi impresso no homem, desde o momento da sua criação, um carácter régio [...]. Deus é amor e fonte de amor: o divino Criador também colocou esta característica no nosso rosto, para que, através do amor – reflexo do amor divino –, o ser humano reconheça e manifeste a dignidade da sua natureza e a semelhança com o seu Criador» (cf. São Gregório de Nissa, A criação do homem: PG 44, 137).
Copyright © Dicastério para a Comunicação - Libreria Editrice Vaticana