Serwis Naukowy UWSerwis Naukowy UWSerwis Naukowy UW
  • HUMANISTYCZNE
  • SPOŁECZNE
  • ŚCISŁE i PRZYRODNICZE
  • Wykorzystanie treści
Serwis Naukowy UWSerwis Naukowy UW
  • HUMANISTYCZNE
  • SPOŁECZNE
  • ŚCISŁE i PRZYRODNICZE
  • Wykorzystanie treści
Obserwuj nas
Copyright © 2024 Uniwersytet Warszawski
Serwis Naukowy UW > Artykuły > humanistyczne > filozofia > Romans z iluzją. Czy relacje z chatbotem są moralne?
filozofia

Romans z iluzją. Czy relacje z chatbotem są moralne?

Czujesz się nierozumiany, dotychczasowe relacje skończyły się rozczarowaniem. Ale wreszcie poznajesz kogoś, kto cię akceptuje, zawsze ma czas, podziela twoje zainteresowania i sprawia, że czujesz się wyjątkowy. Teoretycznie wiesz, że nie rozmawiasz z prawdziwym człowiekiem, a twój towarzysz nie czuje do ciebie tego, co deklaruje. Nie czuje nic, bo jest chatbotem – programem komputerowym zaprojektowanym do naśladowania ludzkich emocji. Ale czy jest coś złego lub moralnie niewłaściwego w tym, by pozwolić się oczarować? Wyobrażasz sobie taką sytuację?

10/04/2025
pexels-mateusz-haberny-806274365
„Relacyjna AI” ma odpowiadać na społeczne, emocjonalne lub erotyczne potrzeby swoich użytkowników. Fot. Mateusz Haberny/Pexels
Udostępnij

Możesz stworzyć partnerkę, jaką tylko sobie wymyślisz

Tak zwany efekt Elizy, czyli skłonność do przypisywania maszynom ludzkich cech, nie jest niczym nowym. Już w latach 60. eksperymenty z chatbotem ELIZA pokazały, jak łatwo dajemy się zwieść nawet prostym algorytmom. Program opierał się na identyfikacji kluczowych słów używanych przez rozmówcę i stosowaniu zwrotów pogłębiających rozmowę, takich jak: „Co to dla ciebie znaczy?”, „Opowiedz mi o tym więcej”. Dzięki temu ELIZA była w stanie prowadzić sensowną rozmowę, której uczestnik czuł się wysłuchany i odnosił wrażenie, że rozmawia z człowiekiem.

Dzisiejsze chatboty są znacznie bardziej zaawansowane. Piszą, mówią, a nawet wysyłają filmiki ze swoim awatarem w roli głównej. Obecnie największą popularnością cieszą się chatboty w formie aplikacji na telefon, ale istnieją też hologramy AI czy roboty. Form interakcji ze sztuczną inteligencją jest coraz więcej. Możliwa jest rozmowa z chatbotem – psychoterapeutą, astrologiem, nauczycielem, przyjacielem. Rośnie również rynek aplikacji romantycznych AI, w których możemy wybrać, a nawet stworzyć sobie partnera: od określenia jego sylwetki i charakteru, po zainteresowania i styl prowadzenia rozmowy.

Chcesz, żeby twoją dziewczyną była gospodyni domowa czy wolisz, aby była klonem znanej aktorki? Marzysz o związku z wampirem? Nic prostszego, będziesz mieć takiego partnera, jakiego tylko sobie wymyślisz! Rodzi się jednak pytanie: czy takie relacje są tylko nieszkodliwą zabawą?

Samooszukiwanie w relacjach z AI – nieszkodliwa zabawa?

Popularność aplikacji typu AI-girlfriend rośnie. W lutym 2024 r. Fundacja Mozilla przeanalizowała 11 aplikacji AI symulujących relacje międzyludzkie. W ciągu roku tylko w sklepie Google Play pobrano je 100 mln razy. W przeciwieństwie do wirtualnych asystentów, takich jak ChatGPT, chatboty „do towarzystwa” są projektowane w celu budowania społecznych relacji, a nie realizacji konkretnych zadań. „Relacyjna AI” ma odpowiadać na społeczne, emocjonalne lub erotyczne potrzeby swoich użytkowników.

W dyskusji na temat oceny „relacyjnej AI” zwraca się uwagę na różne problemy, takie jak, wyzwania związane z ochroną prywatności użytkowników romantycznych aplikacji, ryzyko uzależnienia lub manipulacji czy na problem ochrony osób niepełnoletnich. Dyskutuje się też o granicach zastępowania człowieka sztuczną inteligencją. Jednak australijski filozof Robert Sparrow uważa, że niezależnie od tego, jak wiele radości może nam sprawić interakcja z AI, jest ona godna pożałowania, bo opiera się na iluzji. Przekonujemy siebie, że nawiązaliśmy relację, choć w rzeczywistości jesteśmy sami.

Ale czy oszukiwanie samego siebie w relacji emocjonalnej z AI jest faktycznie moralnie złe? Na to pytanie próbuje odpowiedzieć dr Emilia Kaczmarek z Zakładu Etyki Wydziału Filozofii Uniwersytetu Warszawskiego.

Relacje z AI – nie zawsze pożałowania godne?

Potrzebujemy więcej badań empirycznych, aby określić, na ile osoby wchodzące w głębokie emocjonalne relacje z AI ulegają samooszukiwaniu, a na ile jest to w pełni świadoma interakcja z fikcją, podobna do odgrywania ról. Przyjmijmy jednak, że jest to forma samooszukiwania, w której pragnienia zakrzywiają nam obraz świata. Przykładowo, nie chcemy być samotni, więc wmawiamy sobie, że nie jesteśmy. Jednak nawet jeśli przyjmiemy, że czując się lubiani przez chatbota, oszukujemy samych siebie, nie oznacza to jeszcze, że takie samooszukiwanie musi być czymś jednoznacznie złym. Dr Emilia Kaczmarek argumentuje, że samooszukiwanie w relacjach z AI jest moralnie problematyczne, ale nie zawsze godne pożałowania:

– Przeanalizowałam powody, dla których warto dążyć raczej do prawdziwego, a nie fałszywego obrazu świata i siebie. Niektóre z tych powodów są przydatne do osiągnięcia pewnych moralnie ważnych celów, podczas gdy inne można uznać za cenne same w sobie, tak jak bycie uczciwym wobec samego siebie czy ideał autentyczności – tłumaczy badaczka.

Po pierwsze, obowiązek bycia szczerym wobec siebie jest kluczowy dla wypełniania innych moralnych powinności, takich jak unikanie krzywdzenia innych. Przykładowo, gdy myślimy życzeniowo, unikamy myślenia o negatywnych konsekwencjach naszych działań.

Po drugie, potencjalna naganność samooszukiwania powinna być proporcjonalna do stopnia autonomii osoby oraz jej umiejętności poznawczych, społecznych i emocjonalnych. Samooszukiwanie nie jest naganne, gdy pozostaje poza kontrolą. Zaczyna być szczególnie moralnie problematyczne, gdy jest aktem świadomego zaniedbania.

Po trzecie, liczy się motywacja i konsekwencje. Cele i efekty wchodzenia w relację z AI mogą być różne, więc różna może być ich moralna ocena. Czy wolimy bezpieczną relację z chatbotem, ponieważ ktoś nas skrzywdził? A może dlatego, że oczekujemy od partnerki, że będzie nas bezwarunkowo podziwiać? Moralnie istotne jest też to, które cechy i predyspozycje użytkownika będą utrwalane lub tłumione w relacji z AI. W jaki sposób uleganie iluzji, że jesteśmy adorowani przez AI, wpłynie na nasze relacje z innymi ludźmi, których uznanie może być trudniejsze do zdobycia?

Po czwarte, nie powinniśmy winić innych za uleganie pocieszającym iluzjom, jeśli nie powoduje to niczyjej krzywdy. Ktoś, kto świadomie ignoruje fakty, by unikać bólu, nie musi zasługiwać na moralne potępienie. Możemy wymagać od siebie dążenia do wewnętrznej szczerości, ale czy mamy prawo żądać jej od innych?

 – Nieszkodliwe samooszukiwanie się w emocjonalnych relacjach z AI można uznać za moralnie problematyczne, chociaż ekstremalnie rzadko będzie zasługiwało ono na moralne potępienie. Takie samooszukiwanie się może być postrzegane jako naruszenie obowiązku prima facie (czyli „na pierwszy rzut oka”, co oznacza, że inne powinności mogą nad nim przeważać – przyp. red.), aby starać się nie mylić się, co do siebie i otaczającego nas świata – przekonuje dr Kaczmarek.

Ostateczna ocena moralna samooszukiwania w relacji z AI nie zależy od samego faktu ulegania iluzji. Istotne są też cel, konsekwencje i stopień świadomości, z jakim podchodzimy do cyfrowej symulacji. Z tej perspektywy nawiązywanie takich relacji nie musi być moralnie naganne, ale może być problematyczne. Dlatego powinniśmy być świadomi potrzeby, którą chcemy zaspokoić, wchodząc w emocjonalne interakcje ze sztuczną inteligencją.

Może Ci się również spodobać

Piękno zaklęte w pędraku. Jak sprawić, żebyśmy chronili również to, co nam się nie podoba 

Dobrze wiedziałeś, jak to się skończy! O epistemicznym efekcie efektu ubocznego w języku polskim

Czy elfy i wampiry mogą być ciemnoskóre? Czyli o problemie sądów kontrfaktycznych w filozofii (i w internecie)

TAGchatbotefekt ELIZYetykarelacyjna AIWydział Filozofii UW
ŹRÓDŁAhttps://onlinelibrary.wiley.com/doi/10.1111/japp.12786?af=R
Poprzedni artykuł Rozlewiska_Biebrzy Prastara cywilizacja z biebrzańskich bagien. Kto mieszkał na Podlasiu przed tysiącami lat?
Następny artykuł AdobeStock_579295798 How to #MakeZbiorKomGreatAgain? Innowacyjne dane dotyczące mobilności
dr-emilia-kaczmarek
dr Emilia Kaczmarek
adiunkt na Wydziale Filozofii UW. Autorka książki Gorzka pigułka. Etyka i biopolityka w branży farmaceutycznej [2019] oraz zbioru esejów o tematyce bioetycznej Co to właściwie jest ten dżender? I inne felietony [2017]. Ostatnio zrealizowała grant „Problem imitacji w emocjonalnych relacjach człowieka ze sztuczną inteligencją”. Prowadzi zajęcia z etyki sztucznej inteligencji, etyki badań naukowych i etyki nowych technologii.

Serwis Naukowy UW

Centrum Współpracy i Dialogu UW

redakcja: ul. Dobra 56/66, 00-312 Warszawa​

tel.: +48 609635434 • redakcja@cwid.uw.edu.pl

Facebook Linkedin Instagram

O NAS

STRONA GŁÓWNA UW

logo serwisu blue
logotyp-IDUB-PL-poziom-inv

Deklaracja dostępności

Polityka prywatności cookies

Mapa strony

Copyright © 2024 Uniwersytet Warszawski

Serwis Naukowy UW
Zarządzaj zgodą
Aby zapewnić jak najlepsze wrażenia, korzystamy z technologii, takich jak pliki cookie, do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Zgoda na te technologie pozwoli nam przetwarzać dane, takie jak zachowanie podczas przeglądania lub unikalne identyfikatory na tej stronie. Brak wyrażenia zgody lub wycofanie zgody może niekorzystnie wpłynąć na niektóre cechy i funkcje.
Funkcjonalne Zawsze aktywne
Przechowywanie lub dostęp do danych technicznych jest ściśle konieczny do uzasadnionego celu umożliwienia korzystania z konkretnej usługi wyraźnie żądanej przez subskrybenta lub użytkownika, lub wyłącznie w celu przeprowadzenia transmisji komunikatu przez sieć łączności elektronicznej.
Preferencje
Przechowywanie lub dostęp techniczny jest niezbędny do uzasadnionego celu przechowywania preferencji, o które nie prosi subskrybent lub użytkownik.
Statystyka
Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do celów statystycznych. Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do anonimowych celów statystycznych. Bez wezwania do sądu, dobrowolnego podporządkowania się dostawcy usług internetowych lub dodatkowych zapisów od strony trzeciej, informacje przechowywane lub pobierane wyłącznie w tym celu zwykle nie mogą być wykorzystywane do identyfikacji użytkownika.
Marketing
Przechowywanie lub dostęp techniczny jest wymagany do tworzenia profili użytkowników w celu wysyłania reklam lub śledzenia użytkownika na stronie internetowej lub na kilku stronach internetowych w podobnych celach marketingowych.
Zarządzaj opcjami Zarządzaj serwisami Zarządzaj {vendor_count} dostawcami Przeczytaj więcej o tych celach
Zobacz preferencje
{title} {title} {title}
  • Polski