Детальная информация
| Название | Enhancing LLM Interpretation of Appraisals in Spanish Digital Discourse = Анализ оценочной лексики в испаноязычном цифровом дискурсе: преодоление ограничений больших языковых моделей // Terra Linguistica. – 2025. – Т. 16, № 4. — С. 159-183 |
|---|---|
| Авторы | Sikorskii S. ; Carrio-Pastor M. L. |
| Выходные сведения | 2025 |
| Коллекция | Общая коллекция |
| Тематика | Языкознание ; Прикладное языкознание ; evaluative vocabulary ; digital discourse ; Spanish ; large language models ; evaluative statements ; social media ; text corpora (linguistics) ; оценочная лексика ; цифровой дискурс ; испанский язык ; большие языковые модели ; оценочные высказывания ; социальные сети ; корпусы текстов (лингвистика) |
| УДК | 81'33 |
| ББК | 81.1 |
| Тип документа | Статья, доклад |
| Язык | Английский |
| DOI | 10.18721/JHSS.16410 |
| Права доступа | Свободный доступ из сети Интернет (чтение, печать, копирование) |
| Дополнительно | Новинка |
| Ключ записи | RU\SPSTU\edoc\78222 |
| Дата создания записи | 06.02.2026 |
This article examines the challenges Large Language Models (LLMs) face in interpreting evaluative language in digital discourse. These models often distort the semantics of evaluative expressions, hindering their accurate linguistic interpretation. The aim of the study is to determine whether integrating specialised knowledge improves a model's ability to correctly identify and classify evaluative meanings. Methodologically, the work draws on Martin and White's Appraisal Theory and includes an experimental evaluation of GPT-4 on a stratified corpus of posts from a social network. The analysis is conducted in two conditions - with and without external contextual knowledge - and the results are compared to expert annotations in terms of precision and recall. The findings demonstrate a substantial improvement in automatic classification: the accuracy of identifying evaluative categories increases, the range of detectable appraisal elements expands, and new patterns of meaning variation emerge. The conclusions emphasise that enriching LLMs with structured knowledge enhances the reliability of evaluative language analysis and provides deeper insight into how such meanings function in digital discourse. The proposed approach opens new avenues for improving automated methods for analysing evaluative meanings in linguistic research.
В статье рассматривается проблема понимания оценочной лексики большими языковыми моделями (БЯМ) в цифровом дискурсе. Отмечается, что языковые модели нередко искажают семантику оценочных высказываний, что затрудняет их корректную лингвистическую интерпретацию. Цель исследования - определить, улучшает ли интеграция специализированного знания способность модели точно идентифицировать и классифицировать оценочные значения. Методологически работа опирается на теорию оценки Мартина и Уайта и включает экспериментальную проверку модели GPT-4 на стратифицированном корпусе сообщений в социальной сети. Анализ проводится в двух режимах - с использованием внешнего знания и без него - с последующим сопоставлением результатов с экспертной разметкой по показателям точности и полноты. Результаты демонстрируют существенное улучшение качества автоматической классификации: повышается точность определения оценочных категорий, расширяется спектр обнаруживаемых элементов, выявляются новые паттерны смысловой вариативности. B выводах подчеркивается, что обогащение БЯМ структурированным знанием повышает надежность анализа оценочной лексики и позволяет глубже понять механизмы ее функционирования в цифровом дискурсе. Предложенный подход открывает перспективы для совершенствования автоматизированных методов анализа оценочных значений в лингвистических исследованиях.
Количество обращений: 66
За последние 30 дней: 58