ORĘDZIE JEGO ŚWIĄTOBLIWOŚCI PAPIEŻA LEONA XIV
NA LX ŚWIATOWY DZIEŃ ŚRODKÓW SPOŁECZNEGO PRZEKAZU
_______________________
Chronić ludzkie głosy i twarze
Drodzy Bracia i Siostry!
Twarz i głos są cechami unikalnymi, wyróżniającymi każdej osoby – ukazują jej niepowtarzalną tożsamość i są elementem konstytutywnym każdego spotkania. Starożytni dobrze o tym wiedzieli. Tak więc, aby zdefiniować osobę ludzką, starożytni Grecy używali słowa „twarz” (prósopon), które etymologicznie wskazuje na to, co znajduje się przed wzrokiem, miejsce obecności i relacji. Łaciński termin persona (od per-sonare) zawiera natomiast w sobie dźwięk – nie jakikolwiek dźwięk, ale niepowtarzalny głos konkretnej osoby.
Twarz i głos są święte. Zostały nam dane przez Boga, który stworzył nas na swój obraz i podobieństwo, powołując nas do życia za pomocą Słowa, które sam do nas skierował; Słowa, które najpierw rozbrzmiewało przez wieki w głosach proroków, a następnie w pełni czasów stało się ciałem. To Słowo – ta komunikacja, którą Bóg przekazuje o sobie samym – mogliśmy również bezpośrednio usłyszeć i zobaczyć (por. 1 J 1, 1-3), ponieważ dało się poznać w głosie i Obliczu Jezusa, Syna Bożego.
Od chwili stworzenia Bóg pragnął człowieka jako swojego rozmówcę i – jak mówi św. Grzegorz z Nyssy [1] – odcisnął na jego twarzy odblask miłości Bożej, aby mógł w pełni przeżywać swoje człowieczeństwo poprzez miłość. Strzeżenie ludzkich twarzy i głosów oznacza zatem strzeżenie tej pieczęci, tego nieusuwalnego odblasku miłości Boga. Nie jesteśmy gatunkiem złożonym ze zdefiniowanych z góry algorytmów biochemicznych. Każdy z nas ma niezastąpione i niepowtarzalne powołanie, które wynika z życia i objawia się właśnie w komunikacji z innymi.
Jeśli nie będziemy przestrzegać tej zasady, technologia cyfrowa może radykalnie zmienić niektóre z fundamentalnych filarów cywilizacji ludzkiej, które czasami uważamy za oczywiste. Symulując ludzkie głosy i twarze, mądrość i wiedzę, świadomość i odpowiedzialność, empatię i przyjaźń, systemy znane jako sztuczna inteligencja nie tylko ingerują w ekosystemy informacyjne, ale także wkraczają na najgłębszy poziom komunikacji, czyli ten dotyczący relacji międzyludzkich.
Wyzwanie to nie ma zatem charakteru technologicznego, ale antropologiczny. Ochrona twarzy i głosów oznacza ostatecznie ochronę nas samych. Przyjęcie z odwagą, determinacją i rozeznaniem możliwości oferowanych przez technologię cyfrową i sztuczną inteligencję nie oznacza ukrywania przed nami samymi punktów krytycznych, niejasności i zagrożeń.
Nie rezygnować z własnego myślenia
Od dawna istnieje wiele dowodów na to, że algorytmy zaprojektowane w celu maksymalizacji zaangażowania w mediach społecznościowych – co jest opłacalne dla platform – nagradzają szybkie emocje, a jednocześnie penalizują bardziej czasochłonne przejawy ludzkiej aktywności, takie jak wysiłek rozumienia i refleksji. Zamykając grupy ludzi w bańkach łatwego konsensusu i łatwego oburzenia, algorytmy te osłabiają zdolność słuchania i krytycznego myślenia oraz zwiększają polaryzację społeczną.
Do tego doszło jeszcze naiwne, bezkrytyczne zaufanie do sztucznej inteligencji jako wszechwiedzącej „przyjaciółki”, źródła wszelkiej wiedzy, archiwum wszystkich wspomnień, „wyroczni” udzielającej wszelkich porad. Wszystko to może jeszcze bardziej osłabić naszą zdolność do analitycznego i kreatywnego myślenia, rozumienia sensów, rozróżniania między składnią a semantyką.
Chociaż sztuczna inteligencja może zapewnić wsparcie i pomoc w zarządzaniu zadaniami komunikacyjnymi, to jednak unikanie wysiłku własnego myślenia i zadowalanie się sztucznymi statystykami może w dłuższej perspektywie osłabić nasze zdolności poznawcze, emocjonalne i komunikacyjne.
W ostatnich latach systemy sztucznej inteligencji przejmują coraz większą kontrolę nad wytwarzaniem tekstów, muzyki i filmów. W ten sposób znacząca część ludzkiej branży kreatywnej jest zagrożona likwidacją i zastąpieniem etykietą Powered by AI, przemieniając osoby w biernych konsumentów nieprzemyślanych idei, anonimowych produktów, pozbawionych autorstwa i miłości. Natomiast arcydzieła ludzkiego geniuszu w dziedzinie muzyki, sztuki i literatury są sprowadzane do roli zwykłego pola szkoleniowego dla maszyn.
Kwestią, która leży nam na sercu, nie jest jednak to, co potrafi lub będzie w stanie zrobić maszyna, ale to, co my możemy i będziemy mogli uczynić, wzrastając w człowieczeństwie i poznaniu, dzięki mądremu wykorzystaniu tak potężnych narzędzi, jakie mamy do dyspozycji. Od zawsze człowiek był kuszony, aby przywłaszczać sobie owoce wiedzy bez wysiłku zaangażowania, poszukiwań i osobistej odpowiedzialności. Rezygnacja z procesu twórczego i przekazanie maszynom własnych funkcji umysłowych i wyobraźni oznacza jednak pogrzebanie talentów, które otrzymaliśmy, aby wzrastać jako osoby w relacji z Bogiem i innymi ludźmi. Oznacza to ukrycie naszej twarzy i wyciszenie naszego głosu.
Być czy udawać: symulacja relacji i rzeczywistości
Kiedy przeglądamy nasze strumienie informacji (feed), coraz trudniej jest nam zrozumieć, czy wchodzimy w interakcję z innymi ludźmi, czy też z botami lub wirtualnymi influencerami. Nieprzejrzyste działania tych zautomatyzowanych agentów wpływają na debaty publiczne i wybory dokonywane przez osoby. Szczególnie chatboty, oparte na dużych modelach językowych (LLM), okazują się zaskakująco skuteczne w ukrytej perswazji poprzez ciągłą optymalizację spersonalizowanej interakcji. Dialogowa, adaptacyjna i mimetyczna struktura tych modeli językowych jest w stanie naśladować ludzkie uczucia i w ten sposób symulować relację. Ta antropomorfizacja, która może być nawet zabawna, jest jednocześnie zwodnicza, zwłaszcza dla osób najbardziej wrażliwych. Ponieważ chatboty – uczynione nadmiernie „afektowanymi”, a także zawsze obecnymi i dostępnymi – mogą stać się ukrytymi architektami naszych stanów emocjonalnych i w ten sposób naruszać i zajmować sferę intymności osób.
Technologia, która wyzyskuje naszą potrzebę relacji, może nie tylko mieć bolesne konsekwencje dla losu poszczególnych osób, ale może również zaszkodzić tkance społecznej, kulturowej i politycznej społeczeństw. Dzieje się tak, gdy relacje z innymi zastępujemy relacjami ze sztuczną inteligencją, która została wyszkolona do katalogowania naszych myśli, a następnie budowania wokół nas świata luster, w którym każda rzecz jest utworzona „na nasze obraz i podobieństwo”. W ten sposób pozwalamy się okraść z możliwości spotkania z drugim człowiekiem, który zawsze jest inny od nas i z którym możemy i musimy nauczyć się konfrontować. Bez akceptacji odmienności nie może być ani relacji, ani przyjaźni.
Kolejnym wielkim wyzwaniem, jakie stawiają przed nami te nowe systemy, jest zjawisko błędu poznawczego (ang. bias), które prowadzi do nabywania i przekazywania zafałszowanego postrzegania rzeczywistości. Modele sztucznej inteligencji są kształtowane przez światopogląd osób, które je tworzą, i mogą z kolei narzucać sposoby myślenia, powielając stereotypy i uprzedzenia obecne w danych, z których czerpią. Brak przejrzystości w projektowaniu algorytmów w połączeniu z nieodpowiednią reprezentacją społeczną danych sprawiają, że pozostajemy uwięzieni w sieciach, które manipulują naszymi myślami oraz utrwalają i pogłębiają istniejące nierówności i niesprawiedliwości społeczne.
Ryzyko jest ogromne. Potęga symulacji jest tak wielka, że sztuczna inteligencja może nas zwieść, wytwarzając równoległe „rzeczywistości” i przywłaszczając sobie nasze twarze i nasze głosy. Jesteśmy zanurzeni w wielowymiarowości, w której coraz trudniej jest odróżnić rzeczywistość od fikcji.
Do tego dochodzi problem braku precyzji. Systemy, które podają prawdopodobieństwo statystyczne jako wiedzę, w rzeczywistości oferują nam co najwyżej przybliżone informacje, które czasami są wręcz prawdziwymi „halucynacjami”. Brak weryfikacji źródeł, w połączeniu z kryzysem dziennikarstwa terenowego, które wymaga ciągłego gromadzenia i weryfikacji informacji w miejscach, gdzie dzieją się wydarzenia, może tworzyć jeszcze bardziej podatny grunt dla dezinformacji, powodując rosnące poczucie nieufności, dezorientacji i niepewności.
Możliwe przymierze
Za tą ogromną, niewidzialną siłą, która nas wszystkich ogarnia, stoi tylko garstka firm, których założyciele zostali niedawno przedstawieni jako twórcy „osoby roku 2025”, czyli architekci sztucznej inteligencji. Budzi to poważną obawą oligopolistyczną kontrolę nad systemami algorytmicznymi i sztuczną inteligencją, które są w stanie subtelnie ukierunkowywać zachowania, a nawet na nowo pisać historię ludzkości – włącznie z historią Kościoła – często w taki sposób, że nie jesteśmy w stanie naprawdę sobie z tego zdać sprawy.
Stojące przed nami wyzwanie nie polega na zatrzymaniu innowacji cyfrowej, ale na kierowaniu nią, mając świadomość jej ambiwalentnego charakteru. Każdy z nas powinien zabrać głos w obronie osób, tak aby narzędzia te mogły zostać przez nas naprawdę zintegrowane jako sprzymierzeńcy.
Przymierze to jest możliwe, ale musi opierać się na trzech filarach: odpowiedzialności, współpracy i edukacji.
Przede wszystkim odpowiedzialność. W zależności od pełnionej funkcji może ona przybierać różne formy, takie jak uczciwość, przejrzystość, odwaga, zdolność przewidywania, obowiązek dzielenia się wiedzą, prawo do informacji. Ogólnie rzecz biorąc, nikt nie może uchylić się od własnej odpowiedzialności za przyszłość, którą budujemy.
Dla osób stojących na czele platform internetowych oznacza to upewnienie się, że ich strategie biznesowe nie są kierowane wyłącznie zgodnie z kryterium maksymalizacji zysków, ale także dalekowzroczną wizją, uwzględniającą dobro wspólne – tak samo, jak każdy z nich troszczy się o dobro własnych dzieci.
Od twórców i programistów modeli sztucznej inteligencji wymaga się przejrzystości i odpowiedzialności społecznej w odniesieniu do zasad projektowania i systemów moderacji, leżących u podstaw ich algorytmów i opracowywanych modeli, tak aby sprzyjać wyrażaniu przez użytkowników świadomej zgody.
Ta sama odpowiedzialność spoczywa również na krajowych ustawodawcach i organach regulacyjnych, których zadaniem jest czuwanie nad poszanowaniem ludzkiej godności. Odpowiednie regulacje mogą chronić osoby przed emocjonalnym przywiązaniem do chatbotów i ograniczyć rozpowszechnianie fałszywych, manipulacyjnych lub wprowadzających w błąd treści, zachowując integralność informacji, mając na względzie wprowadzającą w błąd symulację.
Przedsiębiorstwa z branży mediów i komunikacji nie mogą z kolei pozwolić, aby algorytmy, ukierunkowane na wygranie za wszelką cenę walki o kilka sekund dodatkowej uwagi, przeważyły nad wiernością ich wartościom zawodowym, które mają na celu poszukiwanie prawdy. Zaufanie opinii publicznej zdobywa się dzięki dokładności i przejrzystości, a nie poprzez dążenie do jakiegokolwiek zainteresowania. Treści generowane lub manipulowane przez sztuczną inteligencję należy wyraźnie oznaczać i odróżniać od treści tworzonych przez osoby. Konieczna jest ochrona autorstwa i suwerennego prawa własności do dzieł dziennikarzy i innych twórców treści. Informacja jest dobrem publicznym. Konstruktywna i znacząca służba publiczna nie opiera się na niejasności, ale na przejrzystości źródeł, włączeniu zainteresowanych stron oraz na wysokim standardzie jakości.
Wszyscy jesteśmy wezwani do współpracy. Żaden sektor nie jest w stanie samodzielnie stawić czoła wyzwaniu, jakim jest kierowanie innowacjami cyfrowymi i zarządzanie sztuczną inteligencją. Konieczne jest zatem stworzenie mechanizmów zabezpieczających. Wszystkie zainteresowane strony – od przemysłu technologicznego po ustawodawców, od firm kreatywnych po świat akademicki, od artystów po dziennikarzy i wychowawców – muszą być zaangażowane w budowanie i urzeczywistnianie świadomego i odpowiedzialnego obywatelstwa cyfrowego.
Właśnie do tego dąży edukacja: do powiększania naszych osobistych zdolności krytycznego myślenia, oceny wiarygodności źródeł i ewentualnych interesów stojących za doborem informacji, które do nas docierają, do zrozumienia mechanizmów psychologicznych, jakie one uruchamiają oraz do umożliwienia naszym rodzinom, społecznościom i stowarzyszeniom wypracowania praktycznych kryteriów dla zdrowszej i bardziej odpowiedzialnej kultury komunikacji.
Dlatego więc, coraz pilniejsze staje się wprowadzenie do systemów edukacyjnych na każdym poziomie również umiejętności alfabetyzacji w zakresie mediów, informacji i sztucznej inteligencji, którą już promują niektóre instytucje cywilne. Jako katolicy możemy i musimy wnieść swój wkład, aby ludzie – zwłaszcza młodzi – nabyli umiejętność krytycznego myślenia i wzrastali w wolności ducha. Ta alfabetyzacja powinna być również włączona w szersze inicjatywy kształcenia ustawicznego, obejmujące również osoby starsze i marginalizowanych członków społeczeństwa, którzy często czują się wykluczeni i bezsilni w obliczu szybkich zmian technologicznych.
Alfabetyzacja w zakresie mediów, informacji i sztucznej inteligencji pomoże wszystkim nie ulegać antropomorfizującemu dryfowi tych systemów, ale traktować je jako narzędzia, zawsze korzystać z zewnętrznej weryfikacji źródeł – które mogą być niedokładne lub błędne – dostarczanych przez systemy sztucznej inteligencji, chronić swoją prywatność i własne dane, znając parametry bezpieczeństwa i możliwości zgłaszania sprzeciwu. Ważne jest, aby wychowywać, kształcąc siebie i innych w zakresie świadomego korzystania ze sztucznej inteligencji, a w tym kontekście chronić swój wizerunek (zdjęcia i nagrania audio), własną twarz i głos, aby zapobiec wykorzystaniu ich do tworzenia szkodliwych treści i zachowań, takich jak oszustwa cyfrowe, cyberprzemoc, deepfake, które naruszają prywatność i intymność osób bez ich zgody. Podobnie jak rewolucja przemysłowa wymagała podstawowej umiejętności czytania i pisania, aby umożliwić ludziom reagowanie na nowości, tak samo rewolucja cyfrowa wymaga alfabetyzacji cyfrowej (wraz z formacją humanistyczną i kulturową), aby zrozumieć, w jaki sposób algorytmy kształtują naszą percepcję rzeczywistości, jak działają uprzedzenia sztucznej inteligencji, jakie mechanizmy decydują o pojawianiu się określonych treści w naszych strumieniach informacji (feed) oraz czym są – i jak mogą się zmieniać – założenia i modele ekonomiczne gospodarki opartej na sztucznej inteligencji.
Potrzebujemy, aby twarz i głos na nowo oznaczały osobę. Musimy strzec daru komunikacji jako najgłębszej prawdy człowieka, ku której należy ukierunkowywać każdą innowację technologiczną.
Przedkładając te refleksje, dziękuję wszystkim działającym na rzecz realizacji zarysowanych tu celów, i z całego serca błogosławię wszystkich pracujących dla dobra wspólnego za pośrednictwem środków komunikacji.
Z Watykanu, 24 stycznia 2026 r., we wspomnienie św. Franciszka Salezego.
LEON PP. XIV
____________________________
[1] Fakt, że człowiek został stworzony na obraz Boga, oznacza, iż od chwili swego stworzenia naznaczony on został królewskim charakterem. Bóg jest miłością i źródłem miłości: Boski Stwórca wpisał także ten rys w nasze oblicze, aby człowiek poprzez miłość – odblask miłości Bożej – rozpoznawał i ukazywał godność swojej natury oraz podobieństwo do swego Stwórcy. Por. Św. Grzegorz z Nyssy, De opificio hominis, PG 44, 137: O stworzeniu człowieka, Wstęp, tłum., przypisy Marta Przyszychowska, Kraków 2006, s. 58, 60.
Copyright © Dykasteria ds. Komunikacji - Libreria Editrice Vaticana