З досвіду використання штучного інтелекту істориком філософії: галюцинації та булшит, креативність та адаптивність
Анотації
The spread of digital education highlights the risks associated with the use of artificial intelligence (AI) in teaching and research on the history of philosophy, particularly violations of academic integrity through the application of large language models such as ChatGPT. To initiate a conceptual engagement with this problem, the author undertook an empirical exploration – a history-of-philosophy “experiment” with this AI agent. It turned out that the system’s responses, alongside a degree of adaptability and creativity, typically contain various distortions and gaps, falsifications and fabrications, including hallucinations and bullshit. The advantages of AI, while avoiding these pitfalls, can be harnessed through classical tools offered by the history of philosophy – careful Socratic questioning, contextual-interpretative reading of texts, and systematic historical-philological source criticism. Поширення цифрової освіти актуалізує загрози, пов’язані з використанням штучного інтелекту (ШІ) у вивченні та викладанні історії філософії, зокрема порушення принципів академічної доброчесності через застосування великих мовних моделей, як-от ChatGPT. Щоб ініціювати концептуальне осмислення цієї проблеми автор статті здійснив емпіричну розвідку – історико-філософське «випробування» цього агента ШІ. Виявилося, що у відповідях, які ним генеруються, поряд із певною адаптивністю та креативністю зазвичай трапляються різноманітні викривлення та прогалини, фальсифікації та фабрикації, зокрема галюцинації та булшит. Скористатися перевагами ШІ, уникаючи цих пасток, допомагають класичні інструменти з арсеналу історії філософії – уважне розпитування в дусі Сократа, контекстуально-інтерпретативне читання текстів та систематична історико-філологічна критика джерел.
URI:
https://ir.lib.vntu.edu.ua//handle/123456789/51528

