Jeszcze niedawno historyk sztuki pracował przede wszystkim na ograniczonym korpusie dzieł: kanonie, wybranych archiwach, katalogach i reprodukcjach. Dziś coraz częściej patrzy na kulturę przez interfejs bazy danych, modelu komputerowego i wizualizacji. To przesunięcie nie oznacza jedynie, że badamy „więcej” obrazów i tekstów. Oznacza, że inaczej stawiamy pytania: nie tylko o pojedyncze arcydzieło, lecz także o wzory, serie, podobieństwa, sieci wpływów, obiegi obrazów i język metadanych. Właśnie tutaj zaczyna się przejście od big data do big aesthetics – od danych jako materiału badawczego do estetyki współtworzonej przez skalę, algorytmy i interfejsy.

Koniec samotnego arcydzieła? Jak zmienia się warsztat historyka sztuki
Historia sztuki długo była dyscypliną bliskiego oglądu. Liczyły się detal, kontekst, ikonografia, materiał, autorstwo, proweniencja i miejsce dzieła w historii stylu. Ten model nie znika, ale w epoce masowej digitalizacji zbiorów staje się niewystarczający. Gdy muzea, archiwa i biblioteki udostępniają setki tysięcy reprodukcji oraz rekordów katalogowych, badacz nie jest już w stanie „przeczytać” całości tradycyjnymi metodami. Potrzebuje narzędzi do filtrowania, grupowania, wizualizacji i modelowania.
Lev Manovich nazwał ten zwrot „cultural analytics”, czyli analityką kulturową. Jej celem nie jest zastąpienie interpretacji przez statystykę, lecz użycie metod data science do badania kultury na skalach wcześniej niedostępnych. Pytanie nie brzmi już tylko: „co oznacza to dzieło?”, ale także: „jakie wzory ujawniają się, gdy spojrzymy na 30 tysięcy fotografii, 170 tysięcy tytułów obrazów albo miliony obrazów z mediów społecznościowych?” (Manovich, 2020).
„How can we see a billion images?” (Manovich, 2020).
To krótkie pytanie dobrze streszcza nową sytuację badawczą. Skala nie jest tylko problemem technicznym. Skala zmienia epistemologię, czyli sam sposób produkowania wiedzy.
Od katalogu do algorytmu
Pierwszy etap przemiany można nazwać fazą digitalizacji. Instytucje kultury przez lata budowały cyfrowe katalogi, skany, repozytoria i standardy opisu. Sam dostęp do danych nie jest jednak jeszcze przełomem. Przełom zaczyna się wtedy, gdy zbiory stają się materiałem do nowych pytań badawczych, a nie tylko cyfrową półką z reprodukcjami.
W tym sensie analiza wielkich zbiorów zmienia historię sztuki podwójnie. Po pierwsze, zwiększa skalę obserwacji. Po drugie, przesuwa uwagę z jednostkowego dzieła ku relacjom między dziełami: podobieństwom formalnym, częstotliwościom motywów, przemianom słownictwa, geografiom wystaw, obiegom kopii i cytatów. Nie chodzi więc o to, by „maszyna sama zinterpretowała sztukę”, lecz by komputer pomógł zobaczyć wzory niewidoczne dla pojedynczego oka.
Tu przydatne staje się pojęcie „distant viewing” zaproponowane przez Trevora Arnolda i Lauren Tilton. To wizualny odpowiednik „distant reading” znanego z humanistyki cyfrowej: metoda badania dużych korpusów obrazów przy użyciu komputerowego rozpoznawania cech, kategoryzacji i eksploracji podobieństw. Arnold i Tilton podkreślają jednak rzecz kluczową: obrazy nie „mówią” same przez siebie, a każda ekstrakcja metadanych jest już interpretacją. Algorytm nie odsłania czystej prawdy o obrazie, tylko wytwarza jeden z możliwych porządków jego opisu (Arnold & Tilton, 2023).
Jak wygląda sztuka oglądana w skali masowej
Najbardziej przekonujące są konkretne przykłady. Projekt Selfiecity analizował selfie z pięciu miast świata, łącząc ilościową analizę z teorią obrazu i wizualizacją danych. W tym przypadku big data nie służyła do przewidywania zachowań konsumentów, lecz do uchwycenia stylów autoprezentacji: ułożenia głowy, mimiki, płciowych wzorców pozowania czy lokalnych różnic wizualnych. Podobnie Photogrammar organizuje i wizualizuje wielkie archiwum fotografii FSA-OWI, pozwalając badać zbiór nie tylko przez nazwiska fotografów, ale także przez mapę, czas i rozkłady tematów.
Te przykłady pokazują, że analiza na dużą skalę nie musi prowadzić do „odczłowieczenia” obrazu. Przeciwnie: może odsłonić społeczne reguły widzialności. Zamiast pytać jedynie o pojedynczą fotografię, pytamy o to, jakie gesty, pozy, kadry i sposoby opisywania obrazów stają się dominujące. W badaniach kulturowych jest to zmiana fundamentalna, ponieważ uwaga przesuwa się z wyjątkowego obiektu na wzory produkcji i recepcji wizualności.
Podobny ruch widać w projektach instytucjonalnych. Getty rozwija dziś badania z zakresu digital art history, a projekt Photography Unbound wykorzystuje computer vision do analizy dużego korpusu fotografii dziewiętnastowiecznych. Istotne jest to, że celem nie jest wyłącznie automatyczne tagowanie obiektów, lecz sprawdzenie, jakie pytania artystyczno-historyczne da się postawić dzięki narzędziom widzenia maszynowego. To ważna różnica. Gdy algorytm służy tylko do przyspieszenia pracy katalogowej, pozostaje narzędziem administracyjnym. Gdy zaczyna współkształtować pytania badawcze, wchodzi do centrum metodologii.
Tytuły, opisy, etykiety: ukryta warstwa danych o sztuce
Zmiana nie dotyczy wyłącznie obrazów. Badania kulturowe coraz częściej obejmują także wielkie zbiory tekstów: metadane muzealne, katalogi wystaw, teksty krytyczne, opisy obiektów, inwentarze, recenzje prasowe czy wpisy z mediów społecznościowych. Mike Bowman pokazał, że text mining tytułów ponad 170 tysięcy dzieł z 133 muzeów w 30 krajach pozwala uchwycić długie trwanie tematów i przesunięć językowych w sztuce nowoczesnej i współczesnej. Tytuł – często traktowany jako dodatek – okazuje się nośnikiem historii idei, trybów nazewnictwa i przemian pojęciowych (Bowman, 2023).
To bardzo ważna lekcja metodologiczna. W humanistyce dane nie są „surowe”. Tytuł obrazu, słowo kluczowe w katalogu czy opis obiektu to rezultat decyzji kuratora, instytucji, tłumacza, standardu metadanych, a czasem także dawnego kolonialnego słownika. Kiedy więc model językowy analizuje wielki zbiór tekstów o sztuce, nie bada czystej historii sztuki, lecz historię sztuki już uprzednio zredagowaną, skatalogowaną i wpisaną w określone kategorie.
Właśnie dlatego analiza tekstu może być jednocześnie odkrywcza i zdradliwa. Odkrywcza, bo pokazuje to, czego nie dostrzegamy w lekturze jednostkowej. Zdradliwa, bo łatwo pomylić regularność językową z prawdą historyczną. Jeśli w bazie danych częściej występują kategorie zachodnie, męskie albo modernistyczne, to model „zobaczy” właśnie taki świat – nie dlatego, że jest obiektywny, ale dlatego, że taki świat został wcześniej lepiej opisany.
Od big data do big aesthetics
Najciekawsza zmiana nie polega jednak na tym, że nowe narzędzia pomagają badać estetykę. Polega na tym, że same zaczynają ją współtworzyć. Tu właśnie proponuję pojęcie „big aesthetics”. Rozumiem przez nie sytuację, w której estetyka nie jest już tylko własnością dzieła albo doświadczenia odbiorcy, lecz wynikiem działania wielkich zbiorów danych, modeli podobieństwa, rankingów, rekomendacji i interfejsów wyszukiwania.
Dawniej pytaliśmy: „dlaczego ten obraz jest podobny do tamtego?”. Dziś coraz częściej pytamy: „dlaczego system uznał te obrazy za podobne?”. To przesunięcie jest ogromne. Podobieństwo formalne przestaje być wyłącznie kategorią historyka sztuki, a staje się także produktem embeddingu, klastrowania albo modelu multimodalnego. Innymi słowy, algorytm nie tylko przyspiesza widzenie; algorytm modeluje warunki widzialności.
W praktyce oznacza to, że interfejsy wyszukiwania, siatki miniaturek, mapy podobieństw i wizualizacje kolekcji stają się nowymi aparatami estetycznymi. Użytkownik nie ogląda już obrazu w izolacji, lecz wśród setek sąsiednich obrazów dobranych przez system. To zmienia percepcję. Dzieło zaczyna funkcjonować jako punkt w chmurze danych, jako element rozkładu, jako przypadek w serii. Zyskujemy potężne narzędzie porównawcze, ale tracimy coś z materialności, skali i jednostkowości obiektu.
Nie jest to argument przeciwko technologiom. To argument przeciwko naiwnemu zachwytowi. Big aesthetics może otwierać nowe formy wiedzy, ale może też normalizować estetykę poprzez uśrednianie. Modele uczone na dominujących zbiorach wzmacniają to, co już dobrze reprezentowane, a słabiej „widzą” to, co peryferyjne, lokalne, niejednoznaczne lub źle opisane. W efekcie sztuka niekanoniczna może zostać ponownie zmarginalizowana – tym razem nie przez podręcznik, lecz przez interfejs.
Co może pójść nie tak, gdy sztukę oddajemy danym
Żeby nie popaść ani w technofobię, ani w technoentuzjazm, warto wskazać najważniejsze napięcia.
| Obszar | Co obiecują metody obliczeniowe | Co realnie ryzykujemy |
|---|---|---|
| Skala | możliwość analizy ogromnych korpusów | redukcję dzieła do mierzalnych cech |
| Dostęp | demokratyzację badań i odkrywalność zbiorów | zależność od platform, licencji i jakości metadanych |
| Obiektywność | wykrywanie wzorów niewidocznych „gołym okiem” | pozór neutralności algorytmu |
| Automatyzacja | szybszy opis i porządkowanie kolekcji | niewidzialną pracę ludzi etykietujących dane |
| Generatywność | nowe interfejsy i formy eksploracji | homogenizację stylów oraz problemy prawne i etyczne |
Po pierwsze, problem stronniczości danych. Anna Foka i Gabriele Griffin pokazują, że bias nie jest wypadkiem przy pracy, lecz cechą dziedzictwa kulturowego i jego cyfrowych reprezentacji. Jeśli kolekcje historycznie faworyzowały określone regiony, klasy, style czy grupy społeczne, AI będzie te hierarchie reprodukować, a czasem wzmacniać (Foka & Griffin, 2024).
Po drugie, problem czarnej skrzynki. Elizabeth Mansfield zwraca uwagę, że historycy sztuki muszą świadomie wchodzić w epokę computer vision, a nie traktować modeli jak magicznych wyroczni. Im bardziej zaawansowane są systemy rozpoznawania obrazu, tym łatwiej ukryć za ich skutecznością serię niewidocznych decyzji: o tym, jakie dane włączono, jak opisano klasy, co uznano za podobieństwo i jakie błędy uznano za dopuszczalne (Mansfield, 2024).
Po trzecie, problem pracy. Jessica Craig trafnie przypomina, że za „automatyzacją” stoją ludzie: archiwiści, dokumentaliści, specjaliści od metadanych, osoby poprawiające etykiety i testujące modele. Narracja o samodzielnej inteligencji maszyny maskuje realną, często niedocenianą pracę infrastrukturalną (Craig, 2021).
Po czwarte, problem prawa i własności kulturowej. W ostatnich latach coraz wyraźniej widać, że dziedzictwo kulturowe staje się materiałem treningowym dla systemów AI, co rodzi pytania o granice text and data mining, interes publiczny oraz odpowiedzialne udostępnianie danych. Sam fakt, że coś jest zdigitalizowane, nie oznacza jeszcze, że powinno bezrefleksyjnie zasilać dowolny model generatywny.
Po piąte, problem metodologiczny. Claire Bishop już kilka lat temu krytykowała digital art history za skłonność do podporządkowania pytań humanistycznych logice mierzalności. Ta krytyka wciąż pozostaje aktualna. Nie każda rzecz, którą da się policzyć, jest poznawczo najważniejsza. W sztuce znaczące bywa to, co niejednoznaczne, materialne, afektywne, lokalne i oporne wobec standaryzacji (Bishop, 2018).
Czy algorytm może być historykiem sztuki?
Własną polemikę z uproszczonymi stanowiskami ująłbym tak: ani tradycyjna historia sztuki nie obroni się dziś bez kompetencji cyfrowych, ani analiza danych nie wystarczy bez kompetencji humanistycznych. To nie są dwa światy, które można po prostu zsumować. To raczej napięcie, które trzeba stale negocjować.
Najbardziej obiecujące wydają mi się projekty human-in-the-loop, w których model nie wydaje ostatecznych sądów, lecz wspiera badacza w formułowaniu hipotez. Komputer świetnie wykrywa powtarzalności, anomalie i korelacje; człowiek lepiej rozumie kontekst historyczny, wagę wyjątku, materialność obiektu i politykę archiwum. Jeśli jedna strona próbuje całkowicie zastąpić drugą, kończy się to albo romantycznym antytechnologicznym odruchem, albo naiwnym kultem dashboardu.
Dlatego przyszłość historii sztuki nie leży ani w czystej distant viewing, ani w nostalgii za samym close looking. Leży w metodach warstwowych: najpierw szerokie mapowanie pola, potem zawężenie, interpretacja, weryfikacja źródeł, a na końcu powrót do konkretnego dzieła. Tylko taki ruch między skalami pozwala wykorzystać potencjał big data bez utraty sensu estetycznego i historycznego.
Przyszłość historii sztuki: między interpretacją a interfejsem
Przejście od big data do big aesthetics oznacza, że analiza wielkich zbiorów obrazów i tekstów nie tylko poszerza warsztat historii sztuki i badań kulturowych, ale zmienia sam przedmiot tych badań. Kultura staje się coraz bardziej policzalna, wizualizowalna i przeszukiwalna, a zarazem coraz bardziej zależna od tego, jak działają modele, interfejsy i standardy opisu.
Nie powinniśmy jednak wyciągać z tego wniosku, że algorytm „zastąpi” historyka sztuki. Bardziej trafne jest inne rozpoznanie: historyk sztuki, który nie rozumie danych, będzie widział mniej; ale badacz danych, który nie rozumie historii, zobaczy tylko uporządkowany zbiór pikseli i słów. Stawką nie jest więc wybór między humanistyką a data science, lecz stworzenie takiej praktyki badawczej, w której ilość nie zabija znaczenia, a skala nie unieważnia interpretacji.
W tym sensie big aesthetics to nie moda, lecz ostrzeżenie. Skoro algorytmy coraz częściej współdecydują o tym, co wydaje się podobne, ważne, reprezentatywne i warte pokazania, to spór o metodę jest jednocześnie sporem o władzę nad kulturą. A to oznacza, że pytanie o dane w historii sztuki jest już zawsze pytaniem etycznym.
Literatura
- Arnold, T. B., & Tilton, L. (2023). Distant viewing: Computational exploration of digital images. MIT Press.
- Bishop, C. (2018). Against digital art history. International Journal for Digital Art History, 3, 122–131.
- Bowman, M. (2023). Text-mining metadata: What can titles tell us of the history of modern and contemporary art? Journal of Cultural Analytics, 8(1).
- Brown, K. (2024). After art history? Artworks as data. The Art Bulletin, 106(2), 33–36.
- Craig, J. (2021). Computer vision for visual arts collections: Looking at algorithmic bias, transparency, and labor. Art Documentation: Journal of the Art Libraries Society of North America, 40(2), 198–208.
- Foka, A., & Griffin, G. (2024). AI, cultural heritage, and bias: Some key queries that arise from the use of GenAI. Heritage, 7(11), 6125–6136.
- Manovich, L. (2020). Cultural analytics. MIT Press.
- Mansfield, E. (2024). Introduction: Art history after computer vision. The Art Bulletin, 106(2), 6–10. doi:10.1080/00043079.2024.2296269
- UNESCO Independent Expert Group. (2025). Artificial intelligence and culture: Report of the Independent Expert Group on Artificial Intelligence and Culture. UNESCO.
- Europeana. Discover Europe’s digital cultural heritage. (web project)
- Getty Research Institute. Digital Art History. (web project)
- Getty / Photography Unbound. (web project)
- Selfiecity. (web project)
- Photogrammar. (web project)
Tagi
historia sztuki, digital art history, cultural analytics, big data, AI, computer vision, text mining, humanistyka cyfrowa, etyka AI, dziedzictwo kulturowe
