Zapytałem ChatGPT o autorytet nauki. Najciekawsze pytanie w tym dialogu: „Dlaczego w swoim wyjaśnieniu posługujesz się manipulacjami typowymi dla niekonstruktywnych sporów internetowych. Ja napisałem, że książka zawiera bzdury na temat wpływu dżumy na rozwój Polski, a ty wyjaśniasz, że książka nie jest "bzdurą". Wydawać by się mogło, że algorytmy AI mogą się mylić co do faktów (kwestia źródeł), ale nie powinny stosować erystyki!?”. Interesujące jest to, że takie pytanie w realnej dyskusji jest odbierane defensywnie i nierzadko zamyka możliwość kontynuowania merytorycznego sporu. Strategia LLM jest inna: oparta na wyjaśnianiu skąd wziął się ten błąd. https://chatgpt.com/share/6928a7bc-76c4-8013-b310-80dc7a3702a2
Co do samego autorytetu nauki – chyba doszliśmy do sedna:
Formalnie rzecz ujmując, autorytet nauki powinien opierać się na:
- rzetelności metodologicznej,
- przejrzystości argumentacji,
- zdolności do korekty własnych błędów,
- otwartości na krytykę,
- i powtarzalności badań.
Natomiast w praktyce autorytet społeczny naukowca w debacie publicznej wynika głównie z:
- tonu wypowiedzi,
- prestiżu instytucji,
- liczby cytowań,
- roli w mediach,
- presji środowiskowej,
- ideologizacji niektórych obszarów wiedzy.
Dlatego książka popularnonaukowa — choć nie jest częścią „twardyście” prowadzonej nauki — faktycznie kształtuje społeczne wyobrażenie o tym, co jest prawdą naukową.
I jeśli zawiera uproszczenia lub błędy, to odbiorca wcale nie musi umieć ich odróżnić od ustaleń poważnych badań.
Tu zgoda: to realnie wpływa na erozję autorytetu.