Китайская комната экспериментирует с компьютерами с разумом?
Ментальный эксперимент китайской комнаты Это гипотетическая ситуация, предложенная американским философом Джоном Сирлом для демонстрации того, что способность упорядоченно манипулировать набором символов не обязательно означает, что существует понимание или лингвистическое понимание этих символов. То есть способность понимать не возникает из синтаксиса, который ставит под сомнение вычислительную парадигму, разработанную когнитивными науками для понимания функционирования человеческого разума..
В этой статье мы увидим, в чем именно состоит этот мысленный эксперимент и какие философские дебаты он породил.
- Статья по теме: «Как психология и философия похожи?»
Машина Тьюринга и вычислительная парадигма
Развитие искусственного интеллекта является одной из величайших попыток 20-го века понимать и даже воспроизводить человеческий разум с помощью компьютерных программ. В этом контексте одной из самых популярных моделей была машина Тьюринга..
Алан Тьюринг (1912-1954) хотел показать, что запрограммированная машина может вести разговоры, как человек. Для этого он предложил гипотетическую ситуацию, основанную на имитации: если мы запрограммируем машину, чтобы имитировать лингвистические способности говорящих, то мы поставим ее перед судьями и добьемся того, чтобы 30% этих судей думали, что разговаривают с ними. для реального человека это было бы достаточным доказательством того, что машина может быть запрограммирована таким образом, чтобы воспроизводить психические состояния людей; и наоборот, это также будет объяснительной моделью того, как работают психические состояния человека..
Исходя из вычислительной парадигмы, часть когнитивного течения предполагает, что наиболее эффективный способ получения знаний о мире - через все более усовершенствованное воспроизведение правил обработки информации, так что, независимо от субъективности или истории каждого, мы могли функционировать и реагировать в обществе. Таким образом, разум был бы точной копией реальности, он является местом знаний и инструментом для представления внешнего мира..
После машины Тьюринга даже были запрограммированы некоторые компьютерные системы, которые пытались пройти тест. Одним из первых был ELIZA, разработанный Джозефом Вейзенбаумом, который отвечал пользователям с помощью модели, ранее зарегистрированной в базе данных, что заставляло некоторых собеседников полагать, что они разговаривают с человеком.
Среди самых последних изобретений, похожих на машину Тьюринга, мы находим, например, CAPTCHA для обнаружения спама или SIRI операционной системы iOS. Но, как были те, кто пытался доказать, что Тьюринг был прав, так и были те, кто ставил это под сомнение..
- Может быть, вы заинтересованы: «Проблема Молинье: любопытный мысленный эксперимент»
Китайская комната: ум работает как компьютер?
Из экспериментов, которые пытались утвердить тест Тьюринга, Джон Сирл проводит различие между слабым искусственным интеллектом (тот, который имитирует понимание без состояний преднамеренности, то есть он описывает ум, но не равен ему); и Сильный искусственный интеллект (например, когда машина имеет умственные состояния, подобные состоянию человека), если она может понимать истории, как человек).
Сирл не может создать сильный искусственный интеллект, то, что он хотел доказать с помощью мысленного эксперимента, известного как китайская комната или китайское произведение. Этот эксперимент состоит из постановки гипотетической ситуации, которая выглядит следующим образом: носитель английского языка, который не знает китайского языка, заперт в комнате и должен ответить на вопросы об истории, рассказанной на китайском языке..
Как вы отвечаете? через книга правил, написанных на английском языке, которые служат для синтаксического упорядочения китайских символов не объясняя их значения, только объясняя, как их следует использовать. Посредством этого упражнения человек, находящийся в комнате, правильно отвечает на вопросы, даже если этот человек не понял его содержания..
Теперь предположим, что есть внешний наблюдатель, что вы видите? То, что человек в комнате ведет себя точно так же, как человек, который понимает китайский.
Для Сирла это показывает, что компьютерная программа может имитировать человеческий разум, но это не значит, что компьютерная программа равна человеческому разуму, потому что У него нет семантической способности или интенциональности.
Влияние на понимание человеческого разума
С точки зрения людей, вышесказанное означает, что процесс, посредством которого мы развиваем способность понимать язык, выходит за рамки наличия набора символов; необходимы другие элементы, которые компьютерные программы не могут иметь.
Не только это, но из этого эксперимента были расширены исследования о том, как строится смысл, и где это значение. Предложения очень разнообразны, начиная от когнитивных взглядов, которые говорят, что оно находится в голове каждого человека, происходит от набора психических состояний или которые даны врожденным образом, до более конструктивистских взглядов, которые спрашивают, как устроены социальные системы и практики, которые являются историческими и придают социальный смысл (что термин имеет значение не потому, что он находится в головах людей, а потому, что он входит в набор практических правил языка).
Критика мысленного эксперимента китайской комнаты
Некоторые исследователи, которые не согласны с Сирлом, считают, что эксперимент недействителен потому что, даже если человек в комнате не понимает китайский, возможно, что в сочетании с элементами, которые его окружают (та же комната, недвижимость, руководство по правилам), существует понимание китайского.
Перед этим Сирл отвечает новой гипотетической ситуацией: даже если мы исчезнем из элементов, окружающих человека, находящегося в комнате, и попросим его запомнить руководства по правилам, чтобы манипулировать китайскими символами, этот человек не будет понимать китайский, который не делает вычислительный процессор либо.
Ответом на эту же критику стало то, что китайская комната - технически невозможный эксперимент. В свою очередь, ответом было то, что технически невозможно не значит что это логически невозможно.
Другой наиболее популярной критикой была критика Деннетта и Хофштадтера, которая применима не только к эксперименту Сирла, но и к ментальным экспериментам, разработанным в последние столетия, поскольку достоверность сомнительна, поскольку они не имеют эмпирической реальности. строгий, но умозрительный и близкий к здравому смыслу, с которым они, прежде всего, «бомба интуиции».
Библиографические ссылки:
- Гонсалес, Р. (2012). Китайская пьеса: мысленный эксперимент с декартовой предвзятостью? Чилийский журнал нейропсихологии, 7 (1): 1-6.
- Сандовал, J. (2004). Репрезентация, дискурсивность и продуманность действий. Критическое введение в социальную психологию знаний. Университет Вальпараисо: Чили.
- Гонсалес, Р. (S / A). «Насосы интуиции», разум, материализм и дуализм: проверка, опровержение или эпоха? Репозиторий Университета Чили. [Интернет]. По состоянию на 20 апреля 2018 г. Доступно по адресу http://repositorio.uchile.cl/bitstream/handle/2250/143628/Bombas%20de%20intuiciones.pdf?sequence=1..