Файл: Пеноуз Роджер. Тени разума. В поисках науки о сознании.doc
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 29.06.2024
Просмотров: 770
Скачиваний: 0
СОДЕРЖАНИЕ
1.2. Спасут ли роботы этот безумный мир?
1.3. Вычисление и сознательное мышление
1.5. Вычисление: нисходящие и восходящие процедуры
1.6. Противоречит ли точка зрения в тезису Черча—Тьюринга?
1.9. Невычислительные процессы
1.11. Обладают ли компьютеры правами и несут ли ответственность?
1.12. «Осознание», «понимание», «сознание», «интеллект»
1.13. Доказательство Джона Серла
1.14. Некоторые проблемы вычислительной модели
1.15. Свидетельствуют ли ограниченные возможности сегодняшнего ии в пользу ?
1.16. Доказательство на основании теоремы Гёделя
1.17. Платонизм или мистицизм?
1.18. Почему именно математическое понимание?
1.19. Какое отношение имеет теорема Гёделя к «бытовым» действиям?
1.20. Мысленная визуализация и виртуальная реальность
1.21. Является ли невычислимым математическое воображение?
2.1. Теорема Гёделя и машины Тьюринга
2.3. Незавершающиеся вычисления
2.4. Как убедиться в невозможности завершить вычисление?
2.5. Семейства вычислений; следствие Гёделя — Тьюринга
2.6. Возможные формальные возражения против
2.7. Некоторые более глубокие математические соображения
2.8. Условие -непротиворечивости
2.9. Формальные системы и алгоритмическое доказательство
2.10. Возможные формальные возражения против (продолжение)
Приложение а: геделизирующая машина тьюринга в явном виде
3 О невычислимости в математическом мышлении
На этом этапе робот еще не добирается до парадокса — так же, как не добрался до него и Гёдель в своих рассуждениях о человеческом интеллекте (см. цитату в). Однако, поскольку роботу доступен для исследования набор гипотетических механизмова не просто отдельная формальная системаон может повторить свое рассуждение и перейти от системы к системе, обоснованность которой он по-прежнему полагает простым следствием из гипотезы. Именно это и приводит его в конечном итоге к противоречию (чего мы, собственно, и добивались). (См. также, где мы продолжим рассмотрение системыи ее кажущейся связи с «парадоксальными рассуждениями».)
Вывод: ни одно обладающее сознанием и имеющее понятие о математике существо — иначе говоря, ни одно существо со способностью к подлинному математическому пониманию — не может функционировать в соответствии с каким бы то ни было набором постижимых им механизмов, вне зависимости от того, знает ли оно в действительности о том, что именно эти механизмы, предположительно, направляют его на его пути к неопровержимой математической истине. (Вспомним и о том, что «неопровержимой математической истиной» это существо полагает всего лишь то, что оно способно установить математическими методами, — т. е. с помощью «математического доказательства», причем совсем необязательно «формального».)
Если конкретнее, то на основании предшествующих рассуждений мы склонны заключить, что не существует такого постижимого роботом и не содержащего подлинно случайных компонентов набора вычислительных механизмов, какой робот мог бы принять (даже в качестве возможности) как основу своей системы математических убеждений, — при условии, что робот готов согласиться с тем, что специфическая процедура, предложенная мною для построения формальной системына основе механизмов, и в самом деле охватывает всю совокупность Щ -высказываний, в истинность которых он неопровержимо верит, а также, соответственно, с тем, что формальная система охватывает всю совокупность-высказываний, которые, как он неопровержимо верит, следуют из гипотезы. Кроме того, если мы хотим, чтобы робот смог построить собственную потенциально непротиворечивую систему математических убеждений, следует ввести в набор механизмовкакие-либо подлинно случайные составляющие.
Эти последние оговорки мы рассмотрим в последующих разделахВопрос о введении в набор механизмов возможных случайных элементов (вариант (с)) представляется удобным обсудить в рамках общего рассмотрения варианта (b). А для того чтобы рассмотреть вариант (b) с должной тщательностью, нам следует прежде в полной мере прояснить для себя вопрос об «убежденности» робота, который мы уже мимоходом затрагивали в конце
3.17. Робот ошибается и робот «имеет в виду»?
Важнейший вопрос из тех, с какими нам предстоит разобраться на данном этапе, звучит так: готов ли робот безоговорочно согласиться с тем, что — при условии его построения в соответствии с некоторым набором механизмов— формальная системакорректным образом включает в себя всю систему его математических убеждений в отношении-высказываний (равно как и с соответствующим предположением для системы)? Такое согласие подразумевает, прежде всего, что робот верит в обоснованность системы — т. е. в то, что все-высказывания, являющиеся-утверждениями, действительно истинны. Наши рассуждения требуют также, чтобы всякое-высказывание, в истинность которого робот в состоянии безоговорочно поверить, являлось непременно теоремой системы(т. е. чтобы в рамках системыробот мог бы определить «машину для доказательства теорем», аналогичную той, возможность создания которой в случае математиков-людей допускал Гёдель, см.). Вообще говоря, существенно не то, чтобы системадействительно играла такую универсальную роль в отношении потенциальных способностей робота, связанных с-высказываниями, а лишь то, чтобы она была достаточно обширна для того, чтобы допускать применение гёделевского доказательства к самой себе (и, соответственно, к системе). Позднее мы увидим, что необходимость в таком применении возникает лишь в случае некоторых конечных систем-высказываний.
Таким образом, мы — как, собственно, и робот — должны учитывать возможность того, что некоторые из-утверждений робота окажутся в действительности ошибочными, и то, что робот может самостоятельно обнаружить и исправить эти ошибки согласно собственным внутренним критериям, сути дела не меняет. А суть дела заключается в том, что поведение робота в этом случае становится как нельзя более похоже на поведение математика-человека. Человеку ничего не стоит оказаться в ситуации, когда он (или она) полагает, что истинность (или ложность) того или иного -высказывания неопровержимо установлена, в то время как в его рассуждениях имеется ошибка, которую он обнаружит лишь значительно позднее. Когда ошибка наконец обнаруживается, математик ясно видит, что его ранние рассуждения неверны, причем в соответствии с теми же самыми критериями, какими он руководствовался и ранее; разница лишь в том, что ранее ошибка замечена не была, — и вот-высказывание, полагаемое неопровержимо истинным тогда, воспринимается сейчас как абсолютно ложно.е (и наоборот).
Мы вполне можем ожидать подобного поведения и от робота, т. е. на его-утверждения, вообще говоря, полагаться нельзя, пусть даже он и удостоил их самолично статуса. Впоследствии робот может исправить свою ошибку, однако ошибка-то уже сделана. Каким образом это обстоятельство отразится на нашем выводе относительно обоснованности формальной системы? Очевидно, что системане является целиком и полностью обоснованной, не «воспринимает» ее как таковую и робот, так что его гёделевскому предположениюдоверять нельзя. К этому, в сущности, и сводится суть оговорки (Ь).
Попробуем выяснить, может ли наш робот, приходя к тому или иному «неопровержимому» заключению, что-либо иметь в виду, и если да, то что именно. Уместно сопоставить эту ситуацию с той, что мы рассматривали в случае математика-человека. Тогда нас не занимало, что конкретно случилось обнаружить какому-либо реальному математику, нас занимало лишь то, что может быть принято за неопровержимую истину в принципе. Вспомним также знаменитую фразу Фейнмана: «Не слушайте, что я говорю; слушайте, что я имею в виду!». Похоже, нам нет необходимости исследовать то, что робот говорит, исследовать нужно то, что он имеет в виду. Не совсем, впрочем, ясно (особенно если исследователь имеет несчастье являться приверженцем скорее точки зрения, нежели), как следует интерпретировать саму идею того, что робот способен что бы то ни было иметь в виду. Если бы было возможно опираться не на то, что робот *-утверждает, а на то, что он в действительности «имеет в виду», либо на то, что он в принципе «должен иметь в виду», то тогда проблему возможно неточности его-утверждений можно было бы обойти. Беда, однако, в том, что в нашем распоряжении, по всей видимости, нет никаких средств, позволяющих снаружи получить доступ к информации о том, что робот «имеет в виду» или о том, что, «как ему кажется, он имеет в виду». До тех пор, пока речь идет о формальной системе, нам, судя по всему, придется полагаться лишь на доступные-утверждения, в достоверности которых мы не можем быть полностью уверены.
Не здесь ли проходит возможная операционная граница между точками зренияи? Не исключено, что так оно и есть; хотя позицииэквивалентны в отношении принципиальной возможности внешних проявлений сознательной деятельности в поведении физической системы, люди, этих позиций придерживающиеся, могут разойтись в своих ожиданиях как раз в вопросе о том, какую именно вычислительную систему можно рассматривать как способную осуществить эффективное моделирование мозговой активности человека, находящегося в процессе осознания справедливости того или иного математического положения (см. конец). Как бы то ни было, возможные расхождения в такого рода ожиданиях не имеют к нашему исследованию сколько-нибудь существенного отношения.
3.18. Введение случайности: ансамбли всех возможных роботов
В отсутствие прямого операционного метода разрешения этих семантических проблем нам придется полагаться на конкретные-утверждения, которые наш робот будет делать, побуждаемый механизмами, управляющими его поведением. Нам придется смириться с тем, что некоторые из этих утверждений могут оказаться ошибочными, однако такие ошибки исправимы и, во всяком случае, чрезвычайно редки. Разумно будет предположить, что всякий раз, когда робот допускает ошибку в одном из своих *-утверждений, ошибку эту можно приписать (по меньшей мере, частично) каким-то случайным факторам, присутствующим в окружении или во внутренних процедурах робота. Если вообразить себе второго робота, функционирующего в соответствии с механизмами того же типа, что управляют поведением первого робота, однако при участии иных случайных факторов, то этот второй робот вряд ли совершит те же ошибки, что и первый, — однако вполне может совершить другие. Упомянутые факторы могут привноситься теми самыми подлинно случайными элементами, которые определяются либо как часть информации, поступающей на вход робота из внешнего окружения, либо как компоненты внутренних процедур робота. Как вариант, они могут представлять собой псевдослучайные результаты неких детерминистских, но хаотических вычислений, как внешних, так и внутренних.
В рамках настоящего рассуждения я буду полагать, что ни один из подобных псевдослучайных элементов не играет в происходящем иной роли, чем та, которую могут выполнить (по меньшей мере, с тем же успехом) элементы подлинно случайные. Вполне естественная, на мой взгляд, позиция. Впрочем, не исключается и возможность обнаружения в поведении хаотических систем (отнюдь не сводящемся только лишь к моделированию случайности) чего-то такого, что может послужить приближением какой-либо интересующей нас разновидности невычислительного поведения. Я не припомню, чтобы такая возможность где-либо всерьез обсуждалась, хотя есть люди, которые твердо убеждены в том, что хаотическое поведение представляет собой фундаментальный аспект деятельности мозга. Лично для меня подобные аргументы останутся неубедительными до тех пор, пока мне не продемонстрируют какое-нибудь существенно неслучайное (т. е. непсевдослучайное) поведение такой хаотической системы — поведение, которое может в сколько-нибудь сильном смысле являться приближением поведения подлинно невычислительного. Ни один намек на подобного рода демонстрацию моих ушей пока не достиг. Более того, как мы подчеркнем несколько позднее , в любом случае маловероятно, что хаотическое поведение сможет проигнорировать те сложности, которые представляет для вычислительной модели разума гёделевское доказательство.
Допустим пока, что любые псевдослучайные (или иным образом хаотические) элементы в поведении нашего робота или в его окружении можно заменить элементами подлинно случайными, причем без какой бы то ни было потери эффективности. Для выяснения роли подлинной случайности нам необходимо составить ансамбль из всех возможных альтернативных вариантов. Поскольку мы предполагаем, что наш робот имеет цифровое управление, и, соответственно, его окружение также можно реализовать в каком-либо цифровом виде (вспомним о «внутренних» и «внешних» участках ленты нашей описанной выше машины Тьюринга; см. также), то количество подобных возможных альтернатив непременно будет конечным. Это число может быть и очень большим, и все же полное описание всех упомянутых альтернатив представляет собой задачу чисто вычислительного характера. Таким образом, и сам полный ансамбль всех возможных роботов, каждый из которых действует в соответствии с заложенными нами механизмами, составляет всего-навсего вычислительную систему — пусть даже такую, какую нам вряд ли удастся реализовать на практике, используя те компьютеры, которыми мы располагаем в настоящее время или можем вообразить в обозримом будущем. Тем не менее, несмотря на малую вероятность практического осуществления совокупного моделирования всех возможных роботов, функционирующих в соответствии с набором механизмов, само вычисление «непознаваемым» считаться не может; иначе говоря, мы способны понять (теоретически), как построить такой компьютер — или машину Тьюринга, — который с подобным моделированием справится, пусть даже оно и не осуществимо практически. В этом состоит ключевой момент нашего рассуждения. Познаваемым механизмом или познаваемым вычислением является тот механизм или то вычисление, которое человек способен описать, совсем не обязательно действительно выполнять это вычисление ни самому человеку, ни даже компьютеру, который человек в состоянии в данных обстоятельствах построить. Ранее (в комментарии к ) мы уже высказывали весьма похожее соображение; и то, и другое вполне согласуются с терминологией, введенной в начале
3.19. Исключение ошибочных-утверждений
Вернемся к вопросу об ошибочных (но допускающих исправление)-утверждениях, которые может время от времени выдавать наш робот. Предположим, что робот такую ошибку все-таки совершил. Если мы можем допустить, что какой-либо другой робот, или тот же робот несколько позднее, или другой экземпляр того же робота такую же ошибку вряд ли совершит, то мы, в принципе, сможем установить факт ошибочности данного-утверждения, проанализировав действия ансамбля из всех возможных роботов. Представим себе, что моделирование поведения всей совокупности возможных роботов осуществляется в нашем случае таким образом, что различные этапы развития различных экземпляров нашего робота мы рассматриваем как одновременные. (Это делается лишь для удобства рассмотрения и никоим образом не подразумевает, что для такого моделирования непременно требуется параллельное выполнение действий. Как мы уже видели, принципиальных различий, помимо соображений эффективности, между параллельным и последовательным выполнением вычислений нет; см.). Такой подход должен, в принципе, дать нам возможность уже на стадии рассмотрения результата моделирования выделить из общей массы корректных-утверждений редкие (относительно) ошибочные *-утверждения, воспользовавшись тем обстоятельством, что ошибочные утверждения «исправимы» и будут посему однозначно идентифицироваться как ошибочные подавляющим большинством участвующих в модели экземпляров нашего робота, — по крайней мере, с накоплением с течением времени (модельного) различными экземплярами робота достаточного параллельного «опыта». Я вовсе не требую, чтобы подобная процедура была осуществима на практике; достаточно, чтобы она была вычислительной, а лежащие в основе всего этого вычисления правила— в принципе «познаваемыми».