Możesz stworzyć partnerkę, jaką tylko sobie wymyślisz
Tak zwany efekt Elizy, czyli skłonność do przypisywania maszynom ludzkich cech, nie jest niczym nowym. Już w latach 60. eksperymenty z chatbotem ELIZA pokazały, jak łatwo dajemy się zwieść nawet prostym algorytmom. Program opierał się na identyfikacji kluczowych słów używanych przez rozmówcę i stosowaniu zwrotów pogłębiających rozmowę, takich jak: „Co to dla ciebie znaczy?”, „Opowiedz mi o tym więcej”. Dzięki temu ELIZA była w stanie prowadzić sensowną rozmowę, której uczestnik czuł się wysłuchany i odnosił wrażenie, że rozmawia z człowiekiem.
Dzisiejsze chatboty są znacznie bardziej zaawansowane. Piszą, mówią, a nawet wysyłają filmiki ze swoim awatarem w roli głównej. Obecnie największą popularnością cieszą się chatboty w formie aplikacji na telefon, ale istnieją też hologramy AI czy roboty. Form interakcji ze sztuczną inteligencją jest coraz więcej. Możliwa jest rozmowa z chatbotem – psychoterapeutą, astrologiem, nauczycielem, przyjacielem. Rośnie również rynek aplikacji romantycznych AI, w których możemy wybrać, a nawet stworzyć sobie partnera: od określenia jego sylwetki i charakteru, po zainteresowania i styl prowadzenia rozmowy.
Chcesz, żeby twoją dziewczyną była gospodyni domowa czy wolisz, aby była klonem znanej aktorki? Marzysz o związku z wampirem? Nic prostszego, będziesz mieć takiego partnera, jakiego tylko sobie wymyślisz! Rodzi się jednak pytanie: czy takie relacje są tylko nieszkodliwą zabawą?
Samooszukiwanie w relacjach z AI – nieszkodliwa zabawa?
Popularność aplikacji typu AI-girlfriend rośnie. W lutym 2024 r. Fundacja Mozilla przeanalizowała 11 aplikacji AI symulujących relacje międzyludzkie. W ciągu roku tylko w sklepie Google Play pobrano je 100 mln razy. W przeciwieństwie do wirtualnych asystentów, takich jak ChatGPT, chatboty „do towarzystwa” są projektowane w celu budowania społecznych relacji, a nie realizacji konkretnych zadań. „Relacyjna AI” ma odpowiadać na społeczne, emocjonalne lub erotyczne potrzeby swoich użytkowników.
W dyskusji na temat oceny „relacyjnej AI” zwraca się uwagę na różne problemy, takie jak, wyzwania związane z ochroną prywatności użytkowników romantycznych aplikacji, ryzyko uzależnienia lub manipulacji czy na problem ochrony osób niepełnoletnich. Dyskutuje się też o granicach zastępowania człowieka sztuczną inteligencją. Jednak australijski filozof Robert Sparrow uważa, że niezależnie od tego, jak wiele radości może nam sprawić interakcja z AI, jest ona godna pożałowania, bo opiera się na iluzji. Przekonujemy siebie, że nawiązaliśmy relację, choć w rzeczywistości jesteśmy sami.
Ale czy oszukiwanie samego siebie w relacji emocjonalnej z AI jest faktycznie moralnie złe? Na to pytanie próbuje odpowiedzieć dr Emilia Kaczmarek z Zakładu Etyki Wydziału Filozofii Uniwersytetu Warszawskiego.
Relacje z AI – nie zawsze pożałowania godne?
Potrzebujemy więcej badań empirycznych, aby określić, na ile osoby wchodzące w głębokie emocjonalne relacje z AI ulegają samooszukiwaniu, a na ile jest to w pełni świadoma interakcja z fikcją, podobna do odgrywania ról. Przyjmijmy jednak, że jest to forma samooszukiwania, w której pragnienia zakrzywiają nam obraz świata. Przykładowo, nie chcemy być samotni, więc wmawiamy sobie, że nie jesteśmy. Jednak nawet jeśli przyjmiemy, że czując się lubiani przez chatbota, oszukujemy samych siebie, nie oznacza to jeszcze, że takie samooszukiwanie musi być czymś jednoznacznie złym. Dr Emilia Kaczmarek argumentuje, że samooszukiwanie w relacjach z AI jest moralnie problematyczne, ale nie zawsze godne pożałowania:
– Przeanalizowałam powody, dla których warto dążyć raczej do prawdziwego, a nie fałszywego obrazu świata i siebie. Niektóre z tych powodów są przydatne do osiągnięcia pewnych moralnie ważnych celów, podczas gdy inne można uznać za cenne same w sobie, tak jak bycie uczciwym wobec samego siebie czy ideał autentyczności – tłumaczy badaczka.
Po pierwsze, obowiązek bycia szczerym wobec siebie jest kluczowy dla wypełniania innych moralnych powinności, takich jak unikanie krzywdzenia innych. Przykładowo, gdy myślimy życzeniowo, unikamy myślenia o negatywnych konsekwencjach naszych działań.
Po drugie, potencjalna naganność samooszukiwania powinna być proporcjonalna do stopnia autonomii osoby oraz jej umiejętności poznawczych, społecznych i emocjonalnych. Samooszukiwanie nie jest naganne, gdy pozostaje poza kontrolą. Zaczyna być szczególnie moralnie problematyczne, gdy jest aktem świadomego zaniedbania.
Po trzecie, liczy się motywacja i konsekwencje. Cele i efekty wchodzenia w relację z AI mogą być różne, więc różna może być ich moralna ocena. Czy wolimy bezpieczną relację z chatbotem, ponieważ ktoś nas skrzywdził? A może dlatego, że oczekujemy od partnerki, że będzie nas bezwarunkowo podziwiać? Moralnie istotne jest też to, które cechy i predyspozycje użytkownika będą utrwalane lub tłumione w relacji z AI. W jaki sposób uleganie iluzji, że jesteśmy adorowani przez AI, wpłynie na nasze relacje z innymi ludźmi, których uznanie może być trudniejsze do zdobycia?
Po czwarte, nie powinniśmy winić innych za uleganie pocieszającym iluzjom, jeśli nie powoduje to niczyjej krzywdy. Ktoś, kto świadomie ignoruje fakty, by unikać bólu, nie musi zasługiwać na moralne potępienie. Możemy wymagać od siebie dążenia do wewnętrznej szczerości, ale czy mamy prawo żądać jej od innych?
– Nieszkodliwe samooszukiwanie się w emocjonalnych relacjach z AI można uznać za moralnie problematyczne, chociaż ekstremalnie rzadko będzie zasługiwało ono na moralne potępienie. Takie samooszukiwanie się może być postrzegane jako naruszenie obowiązku prima facie (czyli „na pierwszy rzut oka”, co oznacza, że inne powinności mogą nad nim przeważać – przyp. red.), aby starać się nie mylić się, co do siebie i otaczającego nas świata – przekonuje dr Kaczmarek.
Ostateczna ocena moralna samooszukiwania w relacji z AI nie zależy od samego faktu ulegania iluzji. Istotne są też cel, konsekwencje i stopień świadomości, z jakim podchodzimy do cyfrowej symulacji. Z tej perspektywy nawiązywanie takich relacji nie musi być moralnie naganne, ale może być problematyczne. Dlatego powinniśmy być świadomi potrzeby, którą chcemy zaspokoić, wchodząc w emocjonalne interakcje ze sztuczną inteligencją.