Biorąc pod uwagę dynamicznie rozwijające się obszary (a) nauk społecznych uwarunkowane technologiami sieciowymi oraz (b) humanistyki cyfrowej (Digital Humanities), warto przeanalizować adekwatność socjologicznych metodologii analizy danych w tych nowych warunkach. Dostępność dużych zbiorów zdigitalizowanych danych stanowi nie tylko wyzwanie dla „klasycznych” metod analizy, które opracowane zostały w innych warunkach i dla innych celów. Jeszcze ważniejsza kwestia dotyczy tego czy podział na metody ilościowe i jakościowe, między którymi istnieje wyraźna linia demarkacyjna, ma sens w obliczu Big Data. W proponowanym referacie, na podstawie modelowania tematycznego (topic modelling), opartego na LDA (Latent Dirichlet allocation), stawiamy tezę, że ilościowe metody (probabilistyczne modele statystyczne) stanowią nie uzupełnienie lub punkt wyjścia do analiz jakościowych (standardowe podejście), lecz ich integralną część (Jacobs, Tschötschel 2019). Teza ta zostanie zilustrowana przykładem wyznaczenia tematów w obrębie zbioru ponad 10 tys. artykułów, opublikowanych w czasopismach indeksowanych w bazie Scopus w latach 2000-2020, na temat modelowania tematycznego. Ten empiryczny case study posłuży także do sformułowania szeregu uwag metateoretycznych na temat „kohezji” metod ilościowych i jakościowych w perspektywie uczenia maszynowego (machine learning) i przetwarzania języka naturalnego (natural language processing, NLP).