Шрифт:
Интервал:
Закладка:
Я надеюсь, что читателю мое мнение достаточно ясно: я считаю, что проблема понимания свойств сознания гораздо более многогранна, чем можно извлечь непосредственно из экспериментов с ИИ. Тем не менее, я уверен в необходимости признания этой области исследований и уважительного отношения к ней. При этом я не собираюсь утверждать, будто бы достижения в задаче моделирования действительного интеллекта велики (если они вообще есть). Но нужно всегда помнить о том, что сам предмет очень «молод».
Компьютеры станут быстрее, будут обладать высокоскоростным доступом к более вместительным устройствам хранения информации, иметь большее количество логических элементов и научатся выполнять большее число операций параллельно. Улучшится логическая структура и техника программирования. Эти машины — носители философии ИИ — значительно и всесторонне улучшат свои возможности. Более того: сама философия отнюдь не является абсурдной по самой своей сути. Возможно, что человеческий разум может и в самом деле быть смоделирован с очень большой степенью точности при помощи электронных компьютеров — тех самых, которыми мы располагаем сегодня и принципы действия которых нам уже понятны, — но более мощных по своим характеристикам, чье появление в ближайшие годы вполне предсказуемо. Вероятно даже, что эти устройства и вправду будут разумными; возможно, они будут думать, чувствовать и иметь собственный интеллект. Или же, наоборот, они не будут разумными, и потребуются какие-то новые принципы, в которых мы сегодня остро нуждаемся. В этом-то и заключается вопрос, от которого нельзя просто отмахнуться. Я постараюсь предоставить в ваше распоряжение факты так, как я их вижу; затем я приведу свои собственные соображения на этот счет.
Сильный ИИ и китайская комната Серла
Существует точка зрения, называемая сильный ИИ, которая занимает весьма радикальную позицию по этим вопросам[31]. Согласно теории сильного ИИ, не только вышеупомянутые устройства будут разумны и наделены интеллектом — свойства разума могут быть присущи логическим действиям любого вычислительного устройства, даже простейших из них, механических, одним из которых является, например, термостат[32]. Основная идея заключается в том, что умственная деятельность — это просто выполнение некоторой хорошо определенной последовательности операций, часто называемой алгоритмом. Далее я уточню это понятие. А пока нам будет достаточно определить алгоритм как своего рода вычислительную процедуру. В случае термостата алгоритм чрезвычайно прост: устройство фиксирует повышение или понижение температуры по отношению к заданной величине и размыкает или замыкает цепь, соответственно. Алгоритм, соответствующий более-менее нетривиальной деятельности головного мозга, должен быть гораздо более сложноструктурированным, но — согласно концепции сильного ИИ — это будет все же алгоритм. Он будет очень значительно отличаться от простейшего алгоритма термостата по степени сложности, но не обязательно будет иметь принципиальные отличия. Таким образом, с точки зрения сильного ИИ, существенная разница между деятельностью человеческого мозга (включая все проявления сознания) и работой термостата состоит единственно в этой самой усложненности (или, возможно, «структуре более высокого порядка», или «способности обращения к самому себе», или в любом другом свойстве, которое можно приписать алгоритму), имеющей место в первом случае.
И, что более важно, все свойства ума — мышление, способность чувствовать, интеллект, понимание, сознание — должны рассматриваться, согласно этому подходу, просто как разные аспекты сложной деятельности; иными словами, они есть не более, чем свойства алгоритма, выполняемого мозгом. Достоинства любого конкретного алгоритма заключаются в его «технических характеристиках», таких как точность результатов, область применимости, экономичность и скорость выполнения. Алгоритм, нацеленный на подражание тому, что, как предполагается, действует в мозге человека, должен быть невообразимо сложным. Но если такой алгоритм для мозга существует — а это как раз то, что с уверенностью утверждают поборники идеи сильного ИИ, — то он в принципе мог бы быть запущен на компьютере. В сущности, он мог бы выполняться на любом современном компьютере общего назначения, если бы не имеющиеся ограничения по скорости и пространству для хранения данных. (Обоснование этого замечания будет дано позднее, когда мы перейдем к рассмотрению универсальной машины Тьюринга.) Предполагается, что такие ограничения будут сняты с появлением в недалеком будущем мощных быстродействующих машин. Тогда такой алгоритм, если он будет открыт, мог бы, вероятно, пройти тест Тьюринга. И как только он будет запущен, считают сторонники сильного ИИ, он будет сам по себе испытывать чувства, обладать сознанием, быть разумом.
Далеко не каждый согласится с тем, что разумные состояния и алгоритмы можно считать идентичными в указанном контексте. Наиболее остро критиковал эту точку зрения американский философ Джон Серл [1980, 1987]. Он приводил в пример ситуации, когда должным образом запрограммированный компьютер проходил упрощенную версию теста Тьюринга, и все же — он подкрепляет эти выводы очень сильными аргументами — «понимание» как свойство интеллекта полностью отсутствовало. Один из таких примеров базируется на компьютерной программе, разработанной Роджером Шенком (Шенк, Абельсон [1977]). Задачей программы была имитация понимания простых историй типа: «Мужчина вошел в ресторан и заказал гамбургер. Когда гамбургер принесли, оказалось, что он сильно подгорел, и рассерженный мужчина выскочил из ресторана, не заплатив по счету и не оставив чаевых». В качестве второго примера можно взять другую историю: «Мужчина вошел в ресторан и заказал гамбургер. Когда его принесли, мужчина остался им очень доволен. И, покидая ресторан, он дал официанту щедрые чаевые перед тем, как заплатить по счету». Чтобы проверить «понимание» этих историй компьютером, его «попросили» определить, съел ли мужчина гамбургер в каждом отдельном случае (факт, который не был упомянут в тексте явным образом). На этот простой вопрос к таким простым историям компьютер может дать ответ, совершенно неотличимый от того, что дал бы англоговорящий человек, а именно: «нет» в первом случае и «да» — во втором. Так что в этом, очень узком, смысле машина уже прошла тест Тьюринга!
Вопрос, к которому мы должны далее обратиться, будет таким: действительно ли подобный положительный результат указывает на истинное понимание, демонстрируемое компьютером — или, возможно, заложенной в него программы? Как аргумент в пользу отрицательного ответа на этот вопрос, Серл предлагает свою концепцию «китайской комнаты». Он сразу же оговаривает, что истории должны рассказываться на китайском, а не на английском языке — совершенно несущественная замена — и что все команды для компьютерного алгоритма в этом конкретном случае должны быть представлены набором (английских) инструкций для работы со счетами, на которые нанесены китайские символы. Проводя мысленный эксперимент, Серл представлял, что он сам выполняет все манипуляции внутри запертой комнаты. Последовательность символов, описывающая истории, и вопросы к ним подаются в комнату через небольшие прорези. Никакой другой информации извне не допускается. В конце, когда все действия выполнены, последовательность, содержащая ответ, выдается из той же прорези наружу. Поскольку все эти операции есть не что иное, как составляющие процедуры выполнения алгоритма по программе Шенка, то эта последовательность должна содержать просто китайские символы, означающие «да» или «нет» и дающие корректный ответ на вопрос, который — как, собственно, и сама история — был изложен по-китайски. При этом Серл недвусмысленно дает понять, что он не знает ни слова по-китайски, и посему не имеет ни малейшего представления о содержании рассказанных историй. Тем не менее, выполнив ряд действий, составляющих алгоритм Шенка (инструкции к которому были даны ему на английском языке), он справился бы с задачей не хуже китайца, способного без труда понять эти истории. Довод Серла — и весьма сильный, по моему мнению, — заключается в том, что простое выполнение подходящего алгоритма еще не говорит о понимании. (Воображаемый) Серл, запертый в китайской комнате, не понимает ни на йоту, о чем идет речь в этих историях!
Против доказательства Серла был выдвинут ряд возражений. Я изложу здесь только те из них, которые — на мой взгляд — имеют серьезное значение. Прежде всего, фраза «не знает ни слова», если рассматривать ее в вышеприведенном контексте, является не вполне корректной. Понимание относится не только к отдельным словам, но и к определенным шаблонам. И при выполнении подобных алгоритмов можно в достаточной степени разобраться в структурах, которые составлены из символов, значение каждого из которых в отдельности останется непонятным. Например, китайский иероглиф, соответствующий «гамбургеру» (если он вообще существует), можно заменить на название какого-нибудь другого блюда, допустим, «чоу мейн»[33]), существенно не изменив при этом содержание истории. Однако, мне все-таки кажется, что настоящий смысл историй (даже если считать такие подстановки незначительными) едва ли «дойдет» до того, кто будет просто скрупулезно выполнять шаг за шагом подобные алгоритмы.
- Ткань космоса: Пространство, время и текстура реальности - Брайан Грин - Физика
- Предчувствия и свершения. Книга 1. Великие ошибки - Ирина Львовна Радунская - Физика
- Популярно о конечной математике и ее интересных применениях в квантовой теории - Феликс Лев - Математика / Физика
- Куда течет река времени - Новиков Игорь Дмитриевич - Физика
- Элегантная Вселенная. Суперструны, скрытые размерности и поиски окончательной теории - Грин Брайан - Физика
- Гравитация. От хрустальных сфер до кротовых нор - Александр Петров - Физика
- Мир физики и физика мира. Простые законы мироздания - Джим Аль-Халили - Прочая научная литература / Физика
- Как устроен этот мир - Алексей Ансельм - Физика
- Баландин - От Николы Теслы до Большого Взрыва. Научные мифы - Рудольф Баландин - Физика
- Неизвестный алмаз. «Артефакты» технологии - Владимир Карасев - Физика