Czy AI potrafi przepraszać?

W 2023 roku Ja Morant, gwiazda NBA, który dzięki swoim efektownym wsadom często trafiał do TOP10 akcji dnia, został nagrany z bronią w ręku w trakcie transmisji live na Instagramie. Liga zareagowała zawieszeniem. A chwilę później pojawiły się przeprosiny. Problem w tym, że – jak ujawniono – zostały one wygenerowane przez ChatGPT. Efekt? Lawina krytyki i zarzuty o brak szczerości.

Co ciekawe, w świecie sportu i show-biznesu większość oświadczeń i tak jest pisana przez PR-owców. Dlaczego więc w tym przypadku reakcja była taka negatywna?

Powód jest taki, że odbiorcy uznali za niedopuszczalne to, że za słowami Moranta nie stał człowiek, a algorytm – i przez to poczuli, że zabrakło w nich prawdziwej empatii.

Dzisiaj, gdy sztuczna inteligencja pisze za nas maile, tworzy posty na LinkedIn i – tak, to też się zdarza – formułuje przeprosiny, warto zadać sobie pytanie: czy odbiorcy naprawdę ufają takim komunikatom? Czy na przykład przeprosiny wygenerowane przez AI mają taką samą moc jak te napisane przez człowieka?

Spoiler:nie bardzo.

Empatia, czyli to, czego AI (jeszcze) nie ma

Spójrzmy do badań. Wiele osób i firm korzysta z AI w komunikacji. Powód jest prosty – sztuczna inteligencja pisze szybko, bez literówek i w miarę poprawnie. Tyle że badania pokazują, iż w przypadku przeprosin, gratulacji czy kondolencji – czyli sytuacji, w których chodzi o relację – taka „profesjonalna” wiadomość może obrócić się przeciwko nadawcy.

Kiedy uczestnicy jednego z badań czytali tekst przeprosin, te napisane przez ludzi wzbudzały więcej zaufania i chęci do wybaczenia niż komunikaty generowane przez algorytmy. W kontekście korporacyjnym różnica była jeszcze bardziej wyraźna – AI jako autor przeprosin obniżało ich skuteczność.

Okazuje się nawet, że te same słowa, ta sama treść przeprosin są odbierane jako bardziej empatyczne i szczere, jeżeli myślimy, że napisał je człowiek, a nie sztuczna inteligencja. Przypisane autorstwo ma więc fundamentalne znaczenie.

Nie chodzi tu tylko o to, że jesteśmy sentymentalni, ale o konkretne różnice w poziomie zaufania, intencji wybaczenia, a nawet postrzeganej empatii. Innymi słowy, gdy tekst jest napisany przez AI, mniej ufamy osobie, która się pod nim podpisuje, jesteśmy też mniej skłonni jej wybaczyć, a przy tym uważamy, że brakuje jej empatii. Kluczowe jest to ostatnie – ludzie potrafią okazać empatię, AI może ją jedynie symulować. I choć technologia robi postępy,odbiorcy wciąż wyczuwają różnicę.

Gdy przeprosiny są przypisane człowiekowi, pojawia się sygnał: „ktoś naprawdę rozumie, co się stało i chce to naprawić”. W przypadku AI – nawet jeśli komunikat jest poprawny językowo i emocjonalnie wyważony – brakuje elementu autentyczności. To trochę jak rozmowa z automatem: niby mówi właściwe rzeczy, ale nie czujesz, że naprawdę się przejmuje. A my chcemy czuć się wysłuchani.

AI w relacjach międzyludzkich – chłód zamiast ciepła

W kontekstach interpersonalnych AI wciąż kojarzy się z „chłodem” i bezosobowością. Pamiętacie jeszcze film Her („Ona”), w którym samotny pisarz wchodzi w relację z systemem operacyjnym? Jest tam taka scena, która wstrząsa relacją między Theodorem (w tej roli Joaquin Phoenix) a Samanthą (aplikacją AI, której głos podkłada Scarlett Johansson).

Do tego momentu Theodore wierzy, że ich więź jest wyjątkowa i niemal „ludzka”. Samantha staje się dla niego partnerką, powierniczką i źródłem emocjonalnego wsparcia. Kiedy jednak pyta ją, czy rozmawia też z innymi, Samantha odpowiada, że w danej chwili prowadzi 8 316 rozmów jednocześnie — i że kocha 641 innych osób.

Dla niego to szokujące. W ludzkich standardach miłość kojarzy się z ekskluzywnością i skupieniem na jednej osobie. Dla Samanthy jednak miłość nie jest ograniczonym zasobem — może czuć ją wobec wielu osób równolegle, a każda relacja jest dla niej prawdziwa. To podkreśla fundamentalną różnicę między ludzkim a „postludzkim” sposobem przeżywania uczuć.

I choć na co dzień w używaniu AI większości z nas nie chodzi o relację romantyczną, to to, czego doświadczył Theodore, coraz częściej staje się też naszym udziałem.

Ludzki dotyk

Oczekujemy ludzkiej autentyczności. Weźmy na przykład coś, czego wielu z nas doświadcza codziennie – komunikację mailową. Badania wskazują, że maile pisane przez AI zwykle są oceniane jako bardziej profesjonalne i efektywne. Brzmi nieźle, ale jest pewien problem.

Gdy jako odbiorcy nabieramy przekonania, że komunikując się z nami, nadawca zwykle używa AI, nasze zaufanie do niego spada, kwestionujemy jego autentyczność i szczerość, a nawet – tu uwaga – kompetencje i pewność siebie. Trochę na zasadzie: „aha, sam nie potrafił tego napisać, to musiał użyć ChatGPT”.

A zatem ludzie, którzy korzystają z AI do pisania wiadomości (nawet tych rutynowych), mogą nieświadomie podważać swoją wiarygodność. Dzieje się tak szczególnie wtedy, gdy komunikat ma charakter relacyjny – np. gratulacje, podziękowania czy przeprosiny – w tym przypadku odbiorcy mogą uznać nadawcę za mniej szczerego i mniej troskliwego.

Luka percepcyjna – szefowi trudniej wybaczyć używanie ChatGPT

Badania pokazują coś jeszcze, o czym nie od razu pomyślimy.

Wyobraź sobie, że piszesz e-mail do zespołu, a AI pomaga ci go sformułować – myślisz: „No i świetnie, jest klarowniej i szybciej!”. Ale gdy dowiadujesz się, że twój szef użył AI do napisania wiadomości… nagle włącza się podejrzliwość: „Aha, czyli nawet nie chciało mu się samemu napisać?”.

To właśnie luka percepcyjna – zjawisko, w którym ludzie oceniają swoje korzystanie z AI łagodniej, a cudze (zwłaszcza przełożonych) znacznie surowiej. Badaniapokazują, że im większy udział AI w tworzeniu wiadomości od szefa, tym bardziej spada w oczach pracowników jego postrzegana szczerość, troska i kompetencje – nawet jeśli sama treść brzmi profesjonalnie. Innymi słowy, algorytmy mogą poprawić styl e-maila, ale też… nadwyrężyć zaufanie.

Transparentność – ratunek czy ryzyko?

Czy zatem, by uniknąć niedomówień, wystarczy poinformować odbiorcę: „To zostało wygenerowane przez AI”? Niekoniecznie. Choć transparentność jest ważna i pomaga zarządzać oczekiwaniami, sama informacja o użyciu AI nie zawsze łagodzi negatywne reakcje. Wręcz przeciwnie – może je pogłębić.

Z drugiej strony, brak ujawnienia może prowadzić do erozji zaufania. Jeśli odbiorcy dowiedzą się, że komunikat był wygenerowany przez AI, a wcześniej sądzili, że pochodzi od człowieka, poczują się oszukani. A to najgorszy scenariusz w komunikacji, szczególnei, gdy jej celem było zażegnanie kryzysu.

Zaufanie to nie algorytm

Wszystko, co napisałem dotychczas, nie oznacza, że nie ma miejsca dla AI w komunikacji. W kontekstach informacyjnych, technicznych czy operacyjnych – jest ona wręcz pożądana. Ale gdy w grę wchodzą emocje, relacje i autentyczność, lepiej postawić na ludzki dotyk.

Zaufanie nie rodzi się z perfekcyjnej składni czy dobrze dobranych słów. Rodzi się z poczucia, że po drugiej stronie jest ktoś, kto nas rozumie, przejmuje się i troszczy o nas. AI może być pomocnym narzędziem, ale nie zastąpi ludzkiej empatii i autentyczności.

Świetnie Piotr! czy chcesz bym napisał ten tekst w sposób bardziej naukowy 😉