АВТОМАТИЗОВАНА КОНЦЕПТУАЛІЗАЦІЯ ПРЕДМЕТНИХ ОБЛАСТЕЙ ІЗ ВИКОРИСТАННЯМ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ У ПЕДАГОГІЧНОМУ ПРОЦЕСІ
DOI:
https://doi.org/10.37406/2521-6449/2026-1-17Ключові слова:
великі мовні моделі, автоматизована концептуалізація, організація знань, семантичне моделюванняАнотація
Статтю присвячено розробленню та дослідженню інформаційної технології автоматизованої концептуалізації предметних областей із використанням великих мовних моделей та обґрунтуванню можливостей її застосування в педагогічному процесі. Актуальність дослідження зумовлена зростаючою роллю мовних моделей у роботі з великими масивами текстових даних і потребою у формалізованих підходах до структурування знань, здатних забезпечити логічну узгодженість, відтворюваність і наукову коректність результатів, особливо в освітніх і гуманітарних контекстах. У роботі запропоновано поетапну інформаційну технологію концептуалізації, що охоплює формування первинної множини понять, встановлення семантичних зв’язків, побудову структурованої моделі знань, інтерпретацію прикладних артефактів і експертну валідацію результатів. Показано, що великі мовні моделі доцільно розглядати не як автономні генератори знань, а як інструменти підтримки концептуального аналізу, інтегровані у формалізований методологічний цикл із механізмами контролю якості та експертної оцінки. Практичну апробацію технології здійснено на прикладі концептуалізації предметної області DevOps як складного, динамічного та багатокомпонентного домену. Проведений експеримент дав змогу порівняти результати роботи кількох мовних моделей на різних етапах концептуалізації та показав, що поєднання автоматизованих і експертних процедур суттєво підвищує стійкість та узгодженість сформованих моделей знань. Окрему увагу приділено впровадженню результатів дослідження в освітній процес. Обґрунтовано, що запропонована технологія може використовуватись як методичний інструмент для розвитку навичок аналізу текстів, семантичного моделювання, критичної оцінки результатів роботи мовних моделей і формування цифрової гуманітарної компетентності. Отримані результати підтверджують універсальність технології та її перспективність для міждисциплінарних досліджень і педагогічної практики у сфері цифрової освіти.
Посилання
Глушков В. М., Амосов М. М., Артеменко І. О. Енциклопедія кібернетики : у 2-х т. / за ред. В. М. Глушкова. Київ : Головна редакція УРЕ, 1973.
Кунанець Н., Яромич М. Виділення концептів у літературних текстах із використанням великих мовних моделей. Вісник науки та освіти. 2025. № 2(32). С. 343–357. https://doi.org/10.52058/2786-6165-2025-2(32)-343-357
Пасічник В., Яромич М. Великі мовні моделі та онтології у філологічних дослідженнях. Актуальні питання гуманітарних наук. 2025. Вип. 83. Т. 3. С. 236–250. https://doi.org/10.24919/2308-4863/83-3-35
Akasiadis C., Nentidis A., Charalambidis A., Artikis A. Detecting and fixing inconsistencies in large knowledge graphs. The European Journal on Artificial Intelligence. 2025. https://doi.org/10.1177/30504554251353512.
Bian H. LLM-empowered knowledge graph construction: A survey. arXiv preprint arXiv:2510.20345. 2025. https://doi.org/10.48550/arXiv.2510.20345
Chen Y. J., Chu H. C., Chen Y. M., Chao, C. Y. Adapting domain ontology for personalized knowledge search and recommendation. Information & Management. 2013. V. 50. №. 6. P. 285–303. https://doi.org/10.1016/j.im.2013.05.001
Doumanas D., Soularidis A., Spiliotopoulos D. Fine-tuning large language models for ontology engineering: a comparative analysis of GPT-4 and Mistral. Applied Sciences. 2025. Vol. 15, № 4. P. 2146. https://doi.org/10.3390/app15042146
Fitsilis P., Damasiotis V., Kyriatzis V. DOLLmC: DevOps for large language model customization. https://arxiv.org/abs/2405.11581
Fogliato R. Expert-augmented machine learning. Proceedings of the National Academy of Sciences. 2020. Vol. 117, № 9.P. 4571–4577. https://doi.org/10.1073/pnas.1906831117
Fonseca C. M., Almeida J. P. A., Guizzardi G., Carvalho V. A. Multi-level conceptual modeling: Theory, language and application. Data & Knowledge Engineering. 2021. V. 134. P. 101894. https://doi.org/10.1016/j.datak.2021.101894
Glaser B. G. Conceptualization: on theory and theorizing using grounded theory. International Journal of Qualitative Methods. 2002. Vol. 1, № 2. P. 23–38. https://doi.org/10.1177/160940690200100203
Guo Y. Evaluating large language models: a comprehensive survey [Електронний ресурс]. 2023. URL: https://arxiv.org/abs/2310.19736
He Y., Chen J., Dong H., Horrocks I. Exploring large language models for ontology alignment. URL: https://arxiv.org/abs/2309.07172
Kaadoud I. C., Rougier N. P., Alexandre F. Knowledge extraction from the learning of sequences in a long short term memory (LSTM) architecture. Knowledge-Based Systems. 2022. V. 235. P. 107657. https://doi.org/10.1016/j.knosys.2021.107657
Kiefer C. Smarter learning: scaling personalization with AI. Training Industry. 2025. URL: https://trainingindustry.com/articles/artificial-intelligence/smarter-learning-personalization-at-scale-with-ai-driven-knowledge-graphs/
Kosch T. Risk or chance? Large language models and reproducibility in human-computer interaction research. URL: https://arxiv.org/abs/2404.15782
Manda P. Large language models in bio-ontology research: A review. Bioengineering. 2025. V. 12. № 11. P. 1260. https://doi.org/10.3390/bioengineering12111260
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.





