Celem Targów Humanistyki Cyfrowej UJ jest zarówno promocja działań z zakresu humanistyki cyfrowej wśród studentów, doktorantów i pracowników Uniwersytetu Jagiellońskiego, jak również integracja samego środowiska działających tu humanistów cyfrowych.
Uczestnicy będą mogli wysłuchać prelekcji oraz porozmawiać o licznych projektach humanistyczno-cyfrowych realizowanych na Uniwersytecie Jagiellońskim w pierwszym dniu Targów. Krótkie wystąpienia panelowe zaplanowane są również jako podsumowanie związanych z nimi warsztatów i zachęta do wzięcia w nich udziału w drugim dniu wydarzenia. Wieczorem 19 stycznia, godz. 19.00-20.30 planowana jest część posterowo-dyskusyjna, która da szansę na wymianę uwag i doświadczeń pomiędzy uczestnikami Targów. Część posterową rozumiemy szeroko –zarówno jako propozycje tradycyjnych plakatów, jak i udostępnionych slajdów prezentacji.
01.01.2024.
8.01.2024.
Część wykładowa (pierwszy dzień) odbędzie się na Wydziale Filologicznym, al. Mickiewicza 9B, Collegium Paderevianum, V piętro, sala 505.
Część warsztatowa (drugi dzień) odbędzie się na Wydziale Filologicznym, al. Mickiewicza 9B, Collegium Paderevianum, IV piętro, sale komputerowe 403, 406.
Mapa budynku znajduje się w załączniku dostępnym poniżej.
Organizatorami THC UJ są Jagiellońskie Centrum Humanistyki Cyfrowej oraz PF Digital Humanities Lab.
Prezentacja struktury humanistyki cyfrowej UJ przedstawianej podczas Targów w ujęciu nadrzędnych kategorii semantycznych wraz z krótką charakterystyką jej metod, narzędzi i aplikacji.
Przedmiotem wystąpienia będzie problematyka roli bibliotek akademickich, a w szczególności Biblioteki Jagiellońskiej, w wspieraniu rozwoju humanistycznej data science. Po pierwsze biblioteczne zbiory i zasoby informacyjne zostaną ukazane jako dane badawcze. Po drugie syntetycznie przedstawione będą usługi biblioteczne zorientowane na dane. Po trzecie wskazane zostaną wynikające z realizacji projektu flagowego DiHeLib możliwości rozwoju zdolności Biblioteki Jagiellońskiej do wspierania humanistycznej data science.
Stulecie przekładu. Tłumacze i ich praca w literaturze polskiej po 1918 roku to panoramiczny projekt mający na celu napisanie historii polskiej literatury tłumaczonej ostatnich 100 lat. Jego główną ambicją jest interpretacja pracy tłumaczy w ramach sieci społecznych i kulturowych współzależności oraz nakreślenie wielowymiarowej mapy literatury tłumaczonej w polskim systemie literackim. Do realizacji tych celów projekt wykorzystuje obszerną bazę danych dzieł tłumaczonych na język polski, która powstała dzięki współpracy członków zespołu projektowego z bibliotekarzami z Biblioteki Narodowej.
W naszej prezentacji przedstawimy proces projektowania i rozwoju bazy danych, w tym trudności teoretyczne i techniczne związane z pozyskiwaniem danych z rekordów Biblioteki Narodowej, a także ulepszaniem zestawu na potrzeby projektu. Omówimy również perspektywy wykorzystania danych w ramach projektu i poza nim, a także niektóre ograniczenia związane z tego rodzaju bibliograficznym zbiorem danych.
Przedmiot wystąpienia:
- obecny stan edycji źródeł prawno-historycznych i związane z tym potrzeby
- dostosowanie narzędzi do bardzo zróżnicowanych potrzeb odbiorców
- repozytorium wyposażone w dodatkowe funkcjonalności
- wyzwania związane z opisem obiektów w metadanych
W wystąpieniu skupiam się na interdyscyplinarności oraz łączeniu metod humanistyki cyfrowej i analizy danych tekstowych w naukach społecznych, obejmujących analizę treści i analizę tematyczną. Podkreślam znaczenie łączenia logiki przetwarzania języka naturalnego i technik kodowania danych jakościowych, takich jak wywiady i artykuły, które przyczyniają się do głębszego zrozumienia i modelowania zjawisk społecznych przez identyfikację wzorców językowych, zarówno strukturalnych, jak i semantycznych. Omówię dwa przykłady z projektów badawczych, które pokazują, jak integracja metod humanistyki cyfrowej z tradycyjnymi metodami analizy tekstowej w naukach społecznych pozwala na tworzenie szczegółowych modeli analitycznych, wizualizację i dokładniejszą interpretację relacji w danych tekstowych. Wskazuję wyzwania etyczne i metodologiczne związane z zastosowaniem tych technologii, konieczność odpowiedzialnego i świadomego ich wykorzystywania w badaniach społecznych. W konkluzji, podkreślam wartość humanistyki cyfrowej jako narzędzia wzbogacającego analizę i interpretację, podejścia otwierającego nowe perspektywy w ukierunkowanej semantycznie analizie zjawisk i procesów społecznych.
Współczesna archeologia oprócz tradycyjnych metod badawczych, jak wykopaliska oraz opisy ceramiki i innych zabytków, to także dziedzina stosująca nowoczesne badania ukierunkowane na współpracę z naukami przyrodniczymi i ścisłymi, ale także wykorzystująca w dużym stopniu metody i techniki nieinwazyjne, cyfrowe i digitalizację. Wymienić tu można zaawansowane metody fotografii cyfrowej (m.in. fotogrametria), laserowe skanowanie 3D z powietrza/LiDAR i ziemi, ale także analizy przestrzenne z użyciem GIS/Geograficznego Systemu Informacji, ABM/modelowania agentowego, AI/sztucznej inteligencji oraz wizualizacji danych cyfrowych, która pomaga w odpowiedzi na pewne badania badawcze, ale też na przykład wymiernie w budowie wystaw muzealnych. Instytut Archeologii UJ w wielu projektach prowadzonych przez poszczególnych badaczy i zespoły stosuje te poszczególne metody przyczyniając się do nowoczesnej konserwacji i ochrony dziedzictwa kulturowego w Polsce, Europie i na świecie. Dużą część działań digitalizacyjnych IA UJ prowadzi także w ramach nowopowstałego Projektu Flagowego Mare Nostrum, ukierunkowanego m.in. na te nowoczesne metody archeologii (jako części humanistyki) cyfrowej.
Impulsem do poszukiwań bardziej wydajnych i innowacyjnych metod przechowywania i przetwarzania cyfrowych danych były prowadzone przez zespół Corpus Vitrearum prace inwentaryzacyjne witraży XIX i XX w. Znacząca ilość danych obrazowych i tekstowych zebranych i opracowanych w trakcie inwentaryzacji może być wykorzystana do przechowywania, udostępniania i wymiany informacji o zabytkach, a także do prowadzenia badań porównawczych i atrybucyjnych czy też badań nad rozprzestrzenianiem się podobnych wzorców ikonograficznych i formalnych w różnych regionach i krajach.
W ramach realizowanego projektu „Baza danych Corpus Vitrearum wraz z narzędziami do analizy obrazu” zaplanowano zaprojektowanie nowej bazy danych i aplikacji bazodanowej dostępnej na stronie WWW, która pozwalałaby na archiwizację zdjęć przedstawiających witraże oraz ich opis. Elementem wyróżniającym projektowaną aplikację bazodanową będzie implementacja metod analizy obrazu i uczenia maszynowego do wyszukiwana i analizy zdjęć witraży w celu wyszukiwania wybranych wzorników.
Zostaną przedstawione główne założenia projektowe i wykorzystane narzędzia informatyczne do stworzenia internetowej aplikacji bazodanowej. Omówione zostaną funkcjonalności zaimplementowane w aplikacji oraz wstępne wyniki testów wykorzystania metod uczenia maszynowego do wyszukiwania witraży, na których znajduje się wybrany wzornik. Przedstawiony zostanie plan dalszych działań oraz możliwości rozwijana stworzonej aplikacji.
Projekt IMPULSE powstał w odpowiedzi na zapytanie Komisji Europejskiej o przyszłość zdigitalizowanego dziedzictwa kulturowego Europy oraz procesów digitalizacji. Konsorcjum 11 Partnerów, reprezentujących uniwersytety, organizacje pozarządowe i przedsiębiorców, realizuje prace badawczo-rozwojowe, celem stworzenia ram i założeń, mających przyczynić się do rozwoju koncepcji Europejskiej Chmury Współpracy w obszarze Dziedzictwa Kulturowego. Poprzez stworzenie prototypów wykorzystania obiektów kultury w wirtualnych światach dla celów dydaktyki uniwersyteckiej oraz badań artystycznych, naukowcy zyskają unikalną szansę na stworzenie ram i założeń wykorzystania zdigitalizowanego dziedzictwa, w szczególności w zakresie potrzeb publiczności, standardów i interoperacyjności oraz ram prawnych. Projekt uzyskał finansowanie w ramach programu Horyzont Europa (Cluster 2, Research and Innovation Action) w kwocie 3,4 mln euro i potrwa do 2027 roku. Koordynatorem projektu jest Uniwersytet Jagielloński.
Prezentowany projekt zakłada przygotowanie edycji cyfrowej i drukowanej obszernego korpusu pism Piotra Skargi. Edycja, wyposażona w liczne objaśnienia i wykazy odmian, realizowana jest przez czternastoosobowy zespół i powstaje najpierw w formie cyfrowej. Dopiero z edycji cyfrowej generowane będą pliki do druku. Z punktu widzenia mediów oznacza to dokonanie najpierw translacji tekstu starego druku do edycji naukowej w środowisku cyfrowym, a następnie przeniesienie jej najważniejszych elementów z powrotem do druku. W swoim wystąpieniu pokażę, w jaki sposób narzędzia cyfrowe, dostępne na rynku i przygotowane specjalnie na potrzeby projektu, ułatwiają opracowanie tekstu i dlaczego warto po nie sięgać.
W trakcie wystąpienia zaprezentowane zostaną wybrane zagadnienia związane z problematyką społeczeństwa cyfrowego oraz przykłady zastosowania jego zdobyczy w życiu codziennym.
Wystąpienie dotyczyć będzie zarządzania danymi badawczymi w naukach humanistycznych i społecznych. Zagadnienie to jest szczególnie istotne w trakcie przygotowywania oraz rozliczania planów zarządzania danymi (ang.: Data Management Plan (DMP)), będących integralną częścią wniosków projektowych. Kolejnym ważnym tematem jest odpowiednie organizowanie dostępu i archiwizacja danych badawczych z wykorzystywaniem do tych procesów odpowiednio przygotowanego repozytorium. W trakcie wystąpienia przedstawione zostanie Repozytorium Otwartych Danych Badawczych Uczelni Krakowskich (RODBUK). DMP i RODBUK to ważne narzędzia, które mogą pomóc naukowcom w zarządzaniu danymi i udostępnianiu ich w sposób otwarty.
Centrum Informatyki zarządza wieloma usługami i infrastrukturą informatyczną w Uniwersytecie Jagiellońskim.
W wystąpieniu zaprezentowane zostaną wybranie zasoby IT, które mogą być wykorzystane przez pracowników i studentów w pracy badawczo-naukowej i dydaktyce. Uwypuklone zostaną te aspekty usług, które szczególnie istotne mogą być w obszarze humanistyki cyfrowej.
Prelekcja będzie stanowić wstęp do warsztatów, pokazujących i umożliwię własnoręczne wypróbowanie wybranych metod przetwarzania języka naturalnego do analizy tekstów pisanych.
Podczas prelekcji pokażę przykładową analizę porównawczą tłumaczeń za pomocą modułowego oprogramowania służącego interpretowalnej analizie stylometrycznej. Oprogramowanie to łączy nowoczesne metody przetwarzania tekstu, ekstrakcji cech za pomocą różnorakich narzędzi NLP, nowoczesny klasyfikator, moduł wyjaśniający i w końcu wizualizacje cech językowych odróżniających teksty lub grupy tekstów.
W wystąpieniu przedstawię kilka przykładów wykorzystania korpusów tekstowych do badań w zakresie gramatyki, a ściślej gramatyk wybranych języków. O ile korpus tekstowy jest dość oczywistym źródłem danych dla leksykologa, dla gramatyka wciąż to „zdanie z gwiazdką i bez gwiazdki” wydaje się lepszym wyborem w gramatyce. Niemniej w ostatnim dziesięcioleciu udało się odpowiedzieć na szereg pytań dotyczących gramatyki właśnie dzięki korpusom. Więcej – udało się postawić szereg pytań, które bez korpusu byłyby zawieszone w próżni.
Wystąpienie będzie skierowane do językoznawców i będzie miało na celu zachęcenie do szerszego korzystania z korpusów tekstowych w badaniach językoznawczych.
Prezentacja projektu badawczego finansowanego ze środków NCN (nr 2020/37/B/HS2/00169) i poświęconego problematyce interakcji pomiędzy kulturą gier cyfrowych i kulturami narodowymi. W przeciwieństwie do starszych mediów narracyjnych, związanych zwykle z językiem narodowym oraz wiązanymi z państwem i narodem środkami wytwarzania - gry cyfrowe powstają w warunkach gospodarki zglobalizowanej, przy użyciu narzędzi cyfrowych przepływających płynnie pomiędzy różnymi obszarami kulturowymi. Są również konsumowane i dyskutowane w obiegu ogólnoplanetarnym. A jednak! Istnieje tendencja uporczywego wiązania gier z kulturą narodową, zarówno w dyskursie użytkowników, jak regulacjach prawnych. Celem wystąpienia jest zaprezentować złożoność problematyki "gier narodowych" oraz metod jej badania.
Najpopularniejszym modelem wyjaśniającym strukturę rywalizacji politycznej jest tzw. model przestrzenny, w którym każdej partii przypisujemy pozycję w pewnej przestrzeni metrycznej i zakładamy, że pozycje te wyjaśniają m.in. zachowania wyborcze (wyborcy preferują partie bliższe ich własnej pozycji) czy parlamentarne (bliższe partie są bardziej skłonne do współpracy, np. w ramach formalnych koalicji). Stosowanie modeli przestrzennych wymaga jednak ustalenia pozycji partii, które nie są bezpośrednio obserwowalne. Jednym możliwym rozwiązaniem jest dokonanie tego w oparciu o teksty programów partyjnych. Osiągnięcia ostatniej dekady w zakresie przetwarzania języka naturalnego, a szczególnie duże modele językowe pozwalające generować wektorowe reprezentacje tekstów zachowujących strukturę semantyczną, wydają się tu być szczególnie obiecujące. Przegląd takich rozwiązań oraz ocena ich skuteczności jest głównym celem wystąpienia.
Krótka prezentacja prac prowadzonych nad analizą metadanych dotyczących historii kina w obszarze remaków oraz tłumaczeń tytułów filmowych w międzynarodowym obiegu. Przedstawienie podstaw metodologicznych, sposobu pozyskiwania i analizy danych, a także podstawowych odkryć, zalet oraz ograniczeń prowadzonych badań.
W trakcie warsztatów postaramy się odpowiedzieć na pytanie, dlaczego warto tworzyć edycje cyfrowe, jakie możliwości otwierają one przed badaczami i badaczkami oraz z jakimi wyzwaniami ich konfrontują, w szczególności, jeśli chodzi o edycje materiałów rękopiśmiennych. Za przykład posłuży nam opublikowana w październiku 2023 r. edycja „Female Writers in the Varnhagen Collection”, będąca rezultatem prac polsko-niemieckiego zespołu z Uniwersytetu Jagiellońskiego i Bauhaus Universität w Weimarze nad częścią zbiorów z byłej Pruskiej Biblioteki Państwowej w Berlinie w Bibliotece Jagiellońskiej w Krakowie. Na przykładzie tej edycji przedstawimy etapy tworzenia edycji cyfrowej i wybrane narzędzia, m.in. oprogramowanie Oxygen XML Edytor.
TBA
W większości obszarów współczesnej nauki o polityce oraz nauk pokrewnych dane pierwotne mają przede wszystkim postać tekstów: programów, wystąpień publicznych, aktów prawnych, projektów, raportów, etc. Przez dekady stanowiło to jedną z głównych barier w ilościowym podejściu do obszarów dotkniętych rzeczoną "przypadłością". Rozwój metod algorytmicznego przetwarzania języka naturalnego (NLP), a szczególnie pojawienie się najpierw metod wektorowej reprezentacji tekstu odzwierciedlającej semantykę, a następnie dużych modeli językowych, otwierają tu jednak nowe możliwości. W ramach warsztatów zostaną pokazane różne możliwe zastosowania NLP do analizy tekstów politycznych i prawnych wraz z przykładami z rzeczywistych prac naukowych.
Wbrew pozorom to nie szyk zdania czy "wielkie", znaczące słowa najłatwiej zdradzają, kto napisał dany tekst. Jeżeli mamy teksty kilku różnych autorów, najłatwiej pogrupować je według autorstwa licząc proporcje słów mało "znaczących", takich jak zaimki, przyimki czy czasowniki modalne. zresztą nie tylko według autorstwa: ta sama metoda często wskazuje chronologiczną kolejność w twórczości danego pisarza. Jednym z narzędzi takich analiz jest pakiet stylo; półtorej godziny warsztatu wystarczy, by każdy z uczestników przeprowadził swoje pierwsze badanie stylometryczne.
Do najważniejszych etapów opracownia cyfrowej edycji naukowej należy znakowanie struktury i znaczenia określonych elementów wydawanego tekstu za pomocą ściśle określonego zestawu znaczników bądź tagów. Uczestnicy warsztatów będą mieli okazję zapoznać się z podstawami znakowania tekstu za pomocą języka XML (standard TEI). Po teoretycznym wprowadzeniu zaprosimy uczestników do wykonania ćwiczeń ze znakowania w programie Oxygen XML Editor.
W językoznawstwie do badań jakościowych efektywnie wykorzystywane są narzędzia cyfrowe pozwalające na budowanie korpusów, ich anotację oraz sprawne przeszukiwanie. Na warsztatach przedstawimy prosty program AntConc umożliwiający szybkie tworzenie nieanotowanego korpusu na podstawie plików tekstowych oraz przeglądarkowy interfejs SpoCo, pozwalający na zaawansowaną analizę anotowanych korpusów ogólnych, równoległych i mówionych. Oba narzędzia umożliwiają analizę konkordancji, słów kluczowych, śledzenie istniejących list frekwencyjnych czy tworzenie tzw. profili kolokacyjnych.
Na warsztatach pokażę i umożliwię własnoręczne wypróbowanie wybranych metod przetwarzania języka naturalnego do analizy tekstów pisanych.
Uczestnicy będą pracować w interaktywnych notatnikach obliczeniowych Google Colaboratory dostępnych z poziomu przeglądarki internetowej. Będę korzystał z języków programowania Python (i ewentualnie R), ale uczestnictwo w warsztatach nie wymaga ich znajomości.
Prezentacja rozległego obszaru dynamicznie rozwijających się w ostatnich dekadach prac w obrębie filmoznawstwa skupionych na kwantyfikacji elementów formalnych i stylistycznych dzieła filmowego. Celem warsztatów jest skrótowe przybliżenie historii i najważniejszych założeń metodologicznych różnych prac prowadzonych w tym nurcie, a także przegląd służących temu narzędzi, podejść i sposobów konceptualizacji różnorodnych pytań i problemów. Warsztaty mają charakter bardziej metodologiczny i nie są skierowane wyłącznie do osób zainteresowanych badaniami filmu, podejmując raczej problem stosowania narzędzi ilościowych do materii artystycznej i badania dzieł sztuki.
Elyonim veTachtonim to system analizy jakościowej i ilościowej tradycji mówiących o istotach nadprzyrodzonych opierający się na teoretycznych i metodologicznych podstawach psychologii ewolucyjnej, lingwistyki kognitywnej, kognitywnych teorii religii oraz analizy formalnej. Niniejsze warsztaty mają na celu zapoznanie użytkowników i użytkowniczek z podstawami jego obsługi a przede wszystkim z niuansami konstrukcji elektronicznego inwentarza takich tradycji. Podczas zajęć zaprezentowane zostaną już istniejące bazy danych skonstruowane w oparciu o Biblię hebrajską i Talmud babiloński oraz przykłady pochodzące z innych korpusów tekstowych.
Warsztaty poświęcone metodom stosowanym w badaniach relacji między kulturą gier cyfrowych i kulturami narodowymi, zarówno stosowanym w finansowanym ze środków NCN projekcie "Polskie gry wideo? Kultury grania i branża gier w kontekście narodowym" (nr 2020/37/B/HS2/00169) jak innych, paralelnych badaniach.
Warsztaty prezentujące potencjał wirtualnych światów w procesie dydaktycznym
W trakcie warsztatów uczestnicy poznają podstawową terminologię dot. społeczeństwa informacyjnego i cyfrowego oraz przykłady baz danych związanych z informacją publiczną i jej wykorzystaniem.