Na dużej konferencji technologicznej na Wybrzeżu dobry znajomy ostatnio spierał się ze mną, czy ChatGPT tworzy sądy analityczne czy syntetyczne, a priori czy a posteriori. To oczywiście było odwołanie do fundamentalnej klasyfikacji zdań dokonanej przez Immanuela Kanta, który wszelkie sądy wypowiadane przez człowieka, podzielił na te kategorie, dokonując „przewrotu kopernikańskiego” w filozofii.
Niedawno zaś na łamach „Plusa Minusa”, szukając odpowiedzi na pytanie, dlaczego generatywnej sztucznej inteligencji zdarza się zmyślać, pisać bzdury, powoływać na nieistniejące prace naukowe itp., dr Krzysztof Mazur przywołał klasyczną definicję prawdy u Arystotelesa. Otóż prawdą była adekwatność rzeczy do myśli. Czyli nasze myśli, wypowiadane zdania są prawdziwe, gdy odpowiadają rzeczywistości. ChatGPT składa zdania, które są poprawne językowo i statystycznie stanowią odpowiedź na dane pytanie, ale do rzeczywistości nie ma dostępu.