Details
Title | Chat GPT and the Voices of Reason, Responsibility, and Regulation // Technology and Language. – 2024. – Т. 5, № 2. — С. 1-10 |
---|---|
Creators | Seredkina E.; Yongmou Liu |
Imprint | 2024 |
Collection | Общая коллекция |
Subjects | Радиоэлектроника; Искусственный интеллект. Экспертные системы; Философия; Философия науки; mind; large language models; theory of cognition; ethical shortcomings of the systems; ChatGPT; dialogue (philosophy); разум; большие языковые модели; теория познания; этические недостатки систем; диалог (философия) |
UDC | 004.8; 1 |
LBC | 32.873; 87.25 |
Document type | Article, report |
File type | |
Language | English |
DOI | 10.48417/technolang.2024.02.01 |
Rights | Свободный доступ из сети Интернет (чтение, печать, копирование) |
Additionally | New arrival |
Record key | RU\SPSTU\edoc\75474 |
Record create date | 3/17/2025 |
ChatGPT, a large language model (LLM) by OpenAI, is expected to have a transformative impact on many aspects of society. There is much discussion in the media and a rapidly growing academic debate about its benefits and ethical risks. This article explores the profound influence of Socratic dialogue on Western and non-Western thought, emphasizing its role in the pursuit of truth through active thinking and dialectics. Unlike Socratic dialogue, ChatGPT generates plausible-sounding answers based on pre-trained data, lacking the pursuit of objective truth, personal experience, intuition, and empathy. The LLM’s responses are limited by its training dataset and algorithms, which can perpetuate biases or misinformation. While a true dialogue is a creative, philosophical exchange filled with ontological, ethical, and existential meanings, interactions with ChatGPT are characterized as interactive data processing. But is this really true? Perhaps we are underestimating the evolutionary growth potential of large language models? These questions have important implications for theoretical debates in cognitive science, changing our understanding of what cognition means in artificial and natural intelligence. This special issue examines ChatGPT as a subject of philosophical analysis from a position of cautious optimism and rather harsh criticism. It includes six articles covering a wide range of topics. The first group of researchers emphasizes that machine understanding and communication matches human practice. Others argue that AI cannot reach human levels of intelligence because it lacks conceptual thinking and the ability to create. Such contradictory interpretations only confirm the complexity and ambiguity of the phenomenon.
Ожидается, что ChatGPT, большая языковая модель (LLM) от OpenAI, окажет огромное влияние на многие аспекты жизни общества. В средствах массовой информации ведется много дискуссий по поводу LLM, а ученые все чаще обсуждают ее преимущества и этические недостатки. В этой статье исследуется глубокое влияние диалога в сократовском значении на западную и незападную мысль, подчеркивая его роль в поисках истины посредством активного мышления и диалектики. В отличие от сократического диалога, ChatGPT генерирует правдоподобные ответы на основе заранее подготовленных данных, не стремясь к объективной истине, личному опыту, интуиции и сочувствию. Ответы LLM ограничены набором обучающих данных и алгоритмами, которые могут закреплять предвзятость или дезинформацию. В то время как сократический диалог представляет собой творческий, философский обмен, наполненный онтологическим, этическим и экзистенциальным смыслом, взаимодействие с ChatGPT характеризуется как интерактивная обработка данных. Но так ли это на самом деле? Возможно, мы недооцениваем потенциал эволюционного роста больших языковых моделей? Эти вопросы имеют важные последствия для теоретических дебатов в когнитивной науке, меняя наше понимание того, что означает познание в искусственном и естественном интеллекте. В этом специальном выпуске ChatGPT как предмет философского анализа рассматривается с позиций сдержанного оптимизма и довольно жесткой критики. В него вошли шесть статей, охватывающих широкий круг тем. Первая группа исследователей подчеркивает, что в некоторых аспектах машинное познание напоминает когнитивные процессы человека. Другие утверждают, что ИИ не может достичь человеческого уровня интеллекта, потому что ему не хватает концептуального мышления и способности творить. Столь противоречивые интерпретации лишь подтверждают сложность и неоднозначность изучаемого феномена.
- Chat GPT and the Voices of Reason, Responsibility, and Regulation
- REFERENCES
Access count: 37
Last 30 days: 37