W 2023 r. w prestiżowym konkursie fotograficznym Sony World Photography Awards nagrodzono w jednej z kategorii pracę zgłoszoną przez niemieckiego artystę Borisa Eldagsena. Na wyróżnionej „fotografii” widzimy dwie kobiety w różnym wieku. Starsza z nich stoi za młodszą – jej córką? – i ją obejmuje. Myślami kobieta jest jednak gdzieś indziej – jej nieobecny wzrok wbity jest w jakiś bliżej nieokreślony punkt. Młodsza bohaterka zdjęcia spogląda w bok i również patrzy na coś, czego odbiorca nie jest w stanie zobaczyć.
Po ogłoszeniu wyników przez komisję konkursową artysta odmówił przyjęcia nagrody, wyjawiając, że zgłoszona przez niego praca jest dziełem… AI. Jego intencją nie było jednak fałszywe przypisanie sobie autorstwa dzieła, lecz wywołanie ogólnej dyskusji. Dyskusji o przyszłości fotografii, a w szerszej perspektywie – sztuki w ogóle.
Uzasadniając swoją decyzję, Eldagsen zauważył, że fotografia i AI nie mogą ze sobą konkurować w tego rodzaju konkursach, gdyż dzieła stworzone przez AI nie są prawdziwymi fotografiami. Zgłaszając swą pracę chciał niejako sprawdzić, czy gremia jurorskie są w stanie rozpoznać, co jest dziełem człowieka, a co nim nie jest. Jego praca nie miała do złudzenia przypominać prawdziwego zdjęcia. Gdy na nią spojrzymy, możliwe, że poczujemy się nieswojo, coś – jak zaznacza sam Eldagsen – „jest z nią bowiem nie tak”.
Co ciekawe, na stronie internetowej organizatorzy informują, że w konkursie wyróżniani są fotografowie „opowiadający historie naszych czasów”. W tym kontekście znamienny jest tytuł wyróżnionego dzieła – „Pseudomnesia: The Electrician”, a zwłaszcza jego pierwszy człon. Pseudomnezja oznacza bowiem sytuację, w której jakaś osoba przywołuje lub opisuje fałszywe wspomnienia, czyli odnoszące się do wydarzeń, które nie miały miejsca. W konkursie nagrodzono zatem historię, która się nie wydarzyła…
Pojawienie się sztucznej inteligencji w świecie sztuki, muzyki czy literatury od samego początku budzi kontrowersje i rodzi wiele pytań, choć dyskusje na temat zdolności kreatywnych maszyn toczyły się na długo przed dynamicznym rozwojem AI.
Czy AI rzeczywiście może być kreatywna? Czy jest w stanie stworzyć coś wartościowego, o wysokim poziomie artystycznym? A w końcu: czy przed nami epoka, w której twórcy zostaną zastąpieni przez algorytmy? Odpowiedzi na te pytania szuka dr Łukasz Iwasiński z UW.

Kreatywność, czyli co?
Dr Iwasiński jest z wykształcenia socjologiem i inżynierem, jednak przez lata był związany ze światem kultury, pracując m.in. jako dziennikarz muzyczny i kulturalny. Temat, któremu poświęcił swój artykuł jest dla niego ważny nie tylko z punktu widzenia dyskusji akademickiej, lecz także z perspektywy osób zajmujących się na co dzień twórczością kulturalną.
Badacz przygląda się różnym formom wykorzystania sztucznej inteligencji w twórczości kulturalnej: przede wszystkim w muzyce, sztukach wizualnych, ale i w literaturze. W ten sposób szuka odpowiedzi na pytanie o to, czy – a jeśli tak, to w jaki sposób – sztuczna inteligencja może być kreatywna. Dr Iwasiński wykorzystuje w tym celu klasyfikację zaproponowaną przez brytyjską kognitywistkę Margaret Boden.
W jej ujęciu kreatywność to zdolność „tworzenia idei i artefaktów, które są nowe, zaskakujące i wartościowe”. Boden wyróżnia trzy rodzaje kreatywności: kombinacyjną, eksploracyjną i transformacyjną.
Pierwsza z nich ma polegać na nowatorskim łączeniu ze sobą odmiennych, lecz jednocześnie znanych już elementów czy idei, druga – na badaniu jakiegoś obszaru i odkrywaniu jego nowych właściwości.
Oba te rodzaje realizowane są w obrębie znanego nam już zbioru elementów czy koncepcji. Przejawem kreatywności jest zatem odpowiednie i umiejętne ich przetwarzanie. Z kolei kreatywność transformacyjna ma wychodzić poza ten obszar: chodzi o tworzenie nowych reguł, a jednocześnie odrzucenie dotychczasowych założeń.
Jak zauważa dr Iwasiński, problemem jest nieostrość użytych przez badaczkę pojęć, która uniemożliwia precyzyjne wyznaczenie granic między tym, co jest i nie jest kreatywne. Odpowiedź na to pytanie zależy w dużej mierze od tego, jak tę kreatywność i jej rodzaje skonceptualizujemy.
Bach czy AI?
Jednym z impulsów do rozwoju sztucznej inteligencji w obrębie muzyki była… twórcza blokada. Na początku lat 80. XX wieku kompozytor David Cope otrzymał zlecenie skomponowania opery, której stworzenie przychodziło mu jednak z wielkim trudem. W ramach walki z niemocą postanowił opracować program do kompozycji. Już w latach 70. Cope dostrzegł potencjał drzemiący w komputerach, co sprawiło, że zaczął rozwijać swoją wiedzę w tym obszarze.
Amerykański kompozytor na przestrzeni dekad opracowywał i rozwijał algorytm, który miał analizować dotychczas powstałe utwory muzyczne, a następnie tworzyć nowe dzieła, naśladujące ich styl.
W ten sposób wytrenowany przez Cope’a algorytm, który otrzymał nazwę EMI (Experiments in Musical Intelligence), był w stanie nauczyć się komponować w stylu Bacha, Mozarta, Chopina czy Gershwina. Jednak najpierw Cope nauczył go jego własnego stylu kompozytorskiego i dzięki temu był w stanie po ośmiu latach niemocy twórczej ukończyć zleconą operę. W 2005 r. Cope usunął bazę danych zebraną na potrzeby EMI. Nie był to jednak jego jedyny i ostatni projekt na pograniczu AI i muzyki.
W 1997 r. prof. Douglas Hofstadter z Uniwersytetu Oregonu przeprowadził muzyczną wersję testu Turinga, którego nazwa pochodzi od słynnego brytyjskiego matematyka, jednego z pionierów informatyki. Celem przeprowadzonego przez Hofstadtera eksperymentu było sprawdzenie, czy algorytm EMI jest w stanie stworzyć utwór, który przez odbiorców zostanie uznany za dzieło Bacha.
Przed zgromadzoną na terenie uniwersytetu publicznością, złożoną ze studentów i wykładowców, zaprezentowane zostały 3 utwory: jeden stworzony przez EMI, drugi autorstwa jednego z wykładowców uczelni, trzeci – skomponowany przez Bacha. Większość uczestników eksperymentu za dzieło Bacha uznało kompozycję przygotowaną przez EMI.
Podobnie było w przypadku innego, nowszego algorytmu o nazwie DeepBach, który został wytrenowany specjalnie po to, by naśladować styl najsłynniejszego kompozytora baroku. Program opanował tę umiejętność do perfekcji. Gdy zaprezentowano przygotowaną przez niego kompozycję studentom kompozycji, połowa słuchaczy uznała, że to kompozycja samego Bacha.
Sztuki wizualne są kolejnym obszarem, w którym postanowiono sprawdzić możliwości oferowane przez AI. W 2017 roku naukowcy z Uniwersytetu Rutgersa opublikowali wyniki swojego eksperymentu z użyciem wytrenowanych przez nich algorytmów (zmodyfikowanych generatywnych sieci przeciwstawnych, które nazwali kreatywnymi sieciami przeciwstawnymi).
Sieć wytrenowano na podstawie 81449 obrazów autorstwa 1119 artystów, które były dostępne w internetowej bazie WikiArt. Były to dzieła artystów tworzących od XV do XX wieku.
Zadaniem jednego algorytmu – generatora, było stworzenie czegoś, co drugi algorytm, zwany dyskryminatorem, uzna za dzieło sztuki, a nie szum. Jednocześnie generator był karany, jeśli jego dokonania mogły być przez dyskryminatora bezproblemowo przypisanie do znanego stylu.
W ten sposób udało się stworzyć obrazy, które spełniały ogólnie przyjęte kryteria twórczości artystycznej i przypominały prace człowieka, ale nie dały się łatwo wpisać w ramy żadnego znanego stylu czy nurtu.
Następnie naukowcy postanowili zaprezentować wygenerowane przez AI dzieła miłośnikom sztuki. To, co stworzyła sztuczna inteligencja, zestawiono z pracami żywych artystów: 25 obrazami będącymi przykładami ekspresjonizmu abstrakcyjnego (były to obrazy powstałe między 1945 a 2007 r.) i 25 obrazami, które zaprezentowano na światowych targach sztuki Art Basel w 2016 r.
53% obrazów wygenerowanych przez AI zostało uznanych za twory człowieka. W przypadku obrazów z targów Art Basel było to zaledwie 41% dzieł. Co ciekawe, miłośnicy sztuki biorący udział w eksperymencie ocenili prace wygenerowane przez sztuczną inteligencję lepiej niż te będące tworem żywych artystów. Kryteriami oceny były tu: intencjonalność, spójność wizualna, komunikatywność i zdolność do inspirowania.

Czy AI jest rzeczywiście kreatywna?
Zdaniem dr. Iwasińskiego przykłady zastosowania AI w muzyce czy sztukach wizualnych są bez wątpienia dowodem na to, że sztuczna inteligencja jest zdolna do kreatywności kombinacyjnej i eksploracyjnej. W przypadku kreatywności transformacyjnej, a więc wykraczającej poza obowiązujące reguły i odrzucającej dotychczasowe założenia, nie jest to już takie jasne.
W dyskusjach na temat AI – zarówno tych akademickich, jak i prowadzonych w środowiskach artystycznych – liczne są głosy odmawiające sztucznej inteligencji zdolności do „prawdziwej” kreatywności, wskazujące m.in. na to, że znaczenie ma tu nie tylko produkt, ale przede wszystkim sam proces twórczy, a więc osobiste doświadczenia, wyznawane wartości czy przeżywane emocje autora, właściwe ludziom, a nie maszynom.
Słynny amerykański psycholog, ekspert w badaniach nad kreatywnością – Mark. A. Runco proponuje rozszerzenie dotychczasowej definicji kreatywności o dwa elementy: „autentyczność” i „intencjonalność”, tak by odróżnić rzeczywistą – ludzką – kreatywność od kreatywności maszyn, którą nazywa „pseudo-kreatywnością” (pseudo-creativity).
Zdaniem dr. Iwasińskiego sprawa jednak nie jest taka oczywista.
– Osoby, które twierdzą, że sztuczna inteligencja tak prawdziwie, czyli transformacyjnie, kreatywna nigdy nie będzie, odwołują się do tego, że tak kreatywne mogą być tylko byty, które rzeczywiście czują, są świadome, potrafią działać intencjonalnie i potrafią nadawać sens rzeczywistości. Zaś sztuczna inteligencja jedynie wykonuje operacje na tokenach i poddaje je analizom statystycznym. Nic nie czując, nie nadając faktycznego sensu, nie działając intencjonalnie. Czy jednak sztuczna inteligencja musi mieć te przymioty? Czy musi przeżywać, musi rzeczywiście czuć, musi nadawać sens rzeczywistości, żeby być inteligentna transformacyjnie? To jest problem, który ja pozostawiam otwarty. Ja nie potrafię na to pytanie odpowiedzieć – wyjaśnia badacz.
Jak zauważa dr Iwasiński, problemem jest nie tylko nieostrość pojęć, których używamy do zdefiniowania tego, czym jest kreatywność, lecz także fakt, że nie wiemy, w jakim kierunku podąży rozwój nowoczesnych technologii.
– Tak jak wspomniałem, nie jestem pewien, czym tak naprawdę jest ta kreatywność transformacyjna. A poza tym nawet, jeżeli bym uznał, że AI nie jest jeszcze kreatywna transformacyjnie, to trudno nam jest przewidzieć, co będzie za pół roku, co będzie za rok albo za dwa. Może być też tak, że w jakiejś przyszłości kolejne generacje modeli, karmione wytworami wcześniejszych modeli, załamią się – o czym mówi idea „model collapse”. To też jest scenariusz możliwy – podkreśla badacz.
Realne zagrożenie vs. gigantyczne możliwości
Czy przed nami epoka, w której algorytmy zastąpią żywych twórców? Na Amazonie już teraz dostępnych jest bardzo wiele książek napisanych przez AI, m.in. powieści, poradników, przewodników czy biografii. Jednak, jak zauważa dr Iwasiński, są to dzieła na niskim poziomie artystycznym albo zupełnie go pozbawione. Nie oznacza to jednak, że w przyszłości algorytmy nie będą w stanie tworzyć literatury pięknej o wysokiej wartości i poruszającej odbiorców.
Kilka miesięcy temu z jednej z najpopularniejszych muzycznych platform streamingowych – Spotify – usunięto 75 milionów (!) utworów wygenerowanych przez AI. Jednocześnie firma zadeklarowała wzmocnienie ochrony twórców i zwiększenie transparentności w przypadku treści produkowanych przez sztuczną inteligencję. Mimo to na platformie wciąż roi się od tego rodzaju twórczości, bardzo często na niezwykle niskim poziomie, która do tego pasożytuje na dorobku prawdziwych twórców.
W zeszłym roku szerokim echem odbiła się nagłośniona przez „The Guardian” sprawa grupy muzycznej The Velvet Sundown, która okazała się wytworem sztucznej inteligencji. Udostępnione na platformie dwa albumy „zespołu” odsłuchano ponad milion razy…
Jak zwraca uwagę dr Iwasiński, mamy do czynienia z sytuacją bezprecedensową w historii, przełomy w obszarze AI dokonują się bowiem z miesiąca na miesiąc. Co to oznacza dla środowisk twórczych? Badacz mówi przede wszystkim o ogromnym zagrożeniu dla ich interesów.
– Dopuszczam możliwość, że algorytmy będą w stanie w końcu tworzyć rzeczy zaskakujące, poruszające, takie, które zaspokoją gust właściwie każdego potencjalnego odbiorcy. Takiego, który szuka treści wyrafinowanych, nietypowych, a tym bardziej takiego, który oczekuje rzeczy powtarzalnych i prostych. Z punktu widzenia twórców to rzeczywiście naprawdę ogromne zagrożenie – podkreśla dr Iwasiński.
Z kolei wielkim korporacjom rozwój AI oferuje ogromne możliwości.
– Dla korporacji to gigantyczne możliwości, bo okazuje się, że można tworzyć dowolny content bez ograniczeń. Czy my tego chcemy? Czy my w tym nie utoniemy? Nie wiem. Korporacje będą chyba musiały pójść w kierunku bardzo daleko posuniętego indywidualizmu, czyli dostosowywać te treści do jakichś mikrotargetów: mikrogrupek albo do indywidualnych odbiorców – dodaje naukowiec.
W obliczu zagrożeń, które może nieść z sobą niekontrolowana ekspansja treści generowanych przez AI, tak ważne jest wprowadzenie procedur i rozwiązań, które pozwolą odróżniać to, co stworzyła sztuczna inteligencja od tworów człowieka. Takie rozwiązania znalazły się w przyjętym w 2024 r. rozporządzeniu unijnym, znanym pod nazwą AI Act (Akt o sztucznej inteligencji), który ma być wdrożony w całości do 2027 r. Zawarte w nim przepisy mówią o konieczności oznaczania treści wygenerowanych bądź zmanipulowanych przez AI.
Rozporządzenie wprowadza także system klasyfikacji systemów sztucznej inteligencji według poziomu ryzyka – od minimalnego, przez wysokie, aż po systemy uznane za niedopuszczalne. Zakazane mają być m.in. rozwiązania wykorzystujące manipulację podprogową czy systemy oceny obywateli na wzór tzw. social scoring.
W przypadku systemów wysokiego ryzyka – wykorzystywanych np. w edukacji, zatrudnieniu czy wymiarze sprawiedliwości – przewidziano obowiązek przejrzystości działania, dokumentowania procesu trenowania modeli, kontroli jakości danych oraz zapewnienia nadzoru człowieka. Dodatkowo twórcy tzw. modeli ogólnego przeznaczenia (GPAI), w tym dużych modeli językowych, będą musieli ujawniać informacje o wykorzystywanych zbiorach treningowych oraz przestrzegać prawa autorskiego.
Rozporządzenie nie rozstrzyga sporów filozoficznych o naturę kreatywności, ale wyznacza ramy prawne dla funkcjonowania AI w przestrzeni społecznej i kulturowej. W tym sensie staje się nie tylko regulacją technologiczną, lecz także narzędziem kształtowania przyszłego ładu informacyjnego.
