Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лекция по философии 1к 2с.docx
Скачиваний:
10
Добавлен:
20.06.2023
Размер:
749.47 Кб
Скачать

3. "Трудная проблема сознания"

4. Искусственный интеллект как философская проблема

В ХХ веке вопрос о соотношении сознания и его материального носителя неожиданно приобрел новое значение в связи с проблемой создания искусственного интеллекта. Здесь выделяются две конкурирующие гипотезы: гипотеза сильного искусственного интеллекта (ИИ) и гипотеза слабого ИИ. Сторонники гипотезы сильного ИИ утверждают, что различие между мозгом и компьютером имеет чисто количественный, а не качественный характер. Иными словами, с точки зрения этих авторов создание искусственного интеллекта – вопрос времени и совершенствования мощности компьютеров и программного обеспечения. Сторонники гипотезы слабого ИИ утверждают, что разница между компьютером и человеком имеет качественный характер, иными словами, с точки зрения этой гипотезы, компьютеры в принципе не способны обрести способность мыслить и осознавать себя. Следует отметить, что этот вопрос напрямую затрагивает ряд весьма значимых тем. С одной стороны, он имеет значение для определения стратегий, которыми исследователи могли бы прийти к созданию искусственного интеллекта: возможно ли в принципе воспроизведение сознания в компьютере или же для этого необходим биологический носитель? При этом, если мы допускаем возможность создания ИИ, то это порождает целый ряд проблем социального и философского характера, которые не раз ставились в различных произведениях современной литературы и кинематографа. Если создание искусственного интеллекта возможно, то, очевидно, с определенного момента мы должны будем начинать рассматривать машины не как простые механизмы, но как полноценных субъектов общения. Иными словами, раз механизм обретет сознание, мы вынуждены будем общаться с ним именно как с полноценным и равным нам живым существом со всеми вытекающими последствиями, например, с наделением его гражданскими правами.

Действительно, в какой момент мы должны будем признать за роботом такие фундаментальные права как право на собственные суждения и их свободное выражение, право самостоятельно определять свою профессию, получать образование и, наконец, право голосовать на выборах и вообще принимать участие в управлении жизнью общества? Очевидно также то, что повседневное использование роботов, обладающих все более сложным «интеллектом» может постепенно изменить сам строй общества, породив некое подобие рабовладельческого строя, где в качестве рабов будут выступать уже не люди, а роботы. Но не станет ли следующим шагом восстание порабощенных против своих поработителей? Эта тема, пожалуй, одна из самых популярных в фантастике, от «Дюны» Ф. Герберта до популярного фильма «Я, робот», основанного на произведениях А. Азимова. С другой стороны, рассматриваемая тема связана с самоопределением человека, поскольку она напрямую связана с ответом на вопрос о том, отличается ли чем-то человек от машины, и если да, то чем. Если же такого отличия нет, то у развития работы в области ИИ появляется еще одно заманчивое (и, в то же время, пугающее) дополнительное приложение, связанное с потенциальным бессмертием человека, сознание которого гипотетически могло бы быть записано на электронный носитель. Идея технологического «усовершенствования» человека с перспективой полной перезаписи сознания на электронный носитель на сегодняшний день, между прочим, имеет немало сторонников, объединенных в довольно неоднородное движение под названием «трансгуманизм». Но и помимо этого появление искусственного интеллекта несет в себе массу принципиально новых проблем для развития общества. Некоторые из них были отмечены в статье С. Хокинга, С. Рассела, М. Тегмарка и Ф. Вильчека, опубликованной весной 2014 года. Хокинг и его соавторы, представляющие крупнейшие технологические ВУЗы США, прогнозируют, что уже в ближайшие десятилетия может быть создан искусственный интеллект, способный принимать самостоятельные решения и самосовершенствоваться. Большие подвижки в этом направлении связаны с созданием беспилотных автомобилей (в частности, с проектом Google Chauffeur), компьютеров, побеждающих людей в интеллектуальных играх, таких, как шахматы, и программ-персональных помощников, способных на основе распознавания голосовых команд отвечать на вопросы и давать пользователю рекомендации (Siri от Apple, Google Now от Google и Cortana от Microsoft). Вполне вероятно, что в ближайшем будущем человек будет все больше и больше полгаться на искусственный интеллект, доверяя ему все более сложные и ответственные задачи. Однако решения, которые предложит искусственный интеллект, вполне могут оказаться за гранью человеческого понимания, и тем более за гранью наших представлений о добре и зле, а потому последствия таких решений могут быть поистине катастрофическими. Поэтому, как отмечает Хокинг, всеми преимуществами искусственного интеллекта человек может пользоваться только до тех пор, пока он может контролировать искусственный интеллект. Однако никто не может однозначно предсказать, какими последствиями обернется выход искусственного интеллекта из-под контроля, из-за чего он может произойти и что делать в таком случае человечеству. Более того, исследования в данной области (во многом, надо сказать, философского характера) значительно отстают от темпов развития технологических разработок в сфере создания искусственного интеллекта. Поэтому можно констатировать, что человечество по-прежнему относится к комплексу философских проблем, связанных с созданием искусственного интеллекта, скорее как к сюжету из научной фантастики, чем как к реальным проблемам, несмотря на то, что их актуальность возрастает буквально с каждым годом, что подтверждается обращением к этой теме таких личностей как Стивен Хокинг.

Помимо этических вопросов в сфере изучения искусственного интеллекта существует целый ряд не менее серьезных проблем, напрямую связанных с философией. Первой такой проблемой является проблема критериев наличия сознания, которая напрямую связана с ответом на прикладной вопрос о том, как определить факт наличия сознания у машины. В 1950 году А. Тьюринг предложил для этого специальную процедуру, именуемую «Тестом Тьюринга». Тест проводится следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы – ввести человека в заблуждение, заставив сделать неверный выбор». Предполагается, что если программа проходит тест Тьюринга, мы можем говорить о наличии у нее сознания. В 1980 году известный философ Серл сформулировал мысленный эксперимент «Китайская комната», который стал центром полемики в этой области на следующие десятилетия. Суть эксперимента излагается следующим образом: предположим, что испытуемого, не знающего китайского языка, заперли в комнате для того, чтобы подвергнуть его тесту Тьюринга на китайском языке. Поскольку испытуемый не знает китайского языка, его снабдили справочником, содержащим формулы вида: «Если увидите иероглиф, похожий на те, что лежат в корзине № 3, то положите подле него иероглиф из корзинки № 1». Пользуясь этим справочником (если он будет достаточно совершенным), по мысли Серла, испытуемый сможет убедить собеседников, что он понимает китайский язык, в то время как в действительности данный процесс представляет собой не более, чем механическое соединение иероглифов по определенным правилам: испытуемый может даже не понимать, о чем идет речь. За время, прошедшее с 1980 года, данный эксперимент был подвергнут критическому разбору и многократно корректировался Серлом, однако основная идея Серла осталась неизменной: «сознание» компьютера будет, по его мнению, оставаться совокупностью чисто механических процедур, в которых не будет присутствовать реального понимания. Такой подход Серла связан с пониманием им сознания не как самостоятельной реальности, но как атрибута нервных клеток, нейронов. Отношение сознания к нейрону можно уподобить тому отношению, которое существует между текучестью и единственной молекулой воды. Сама по себе молекула воды не обладает свойством текучести, однако большое количество молекул воды, находящихся в одном месте, порождают текучесть. Точно также массив нейронов порождает сознание, о котором, возможно, точнее было бы говорить как о сознательности. Критически настроен по отношению к перспективам создания искусственного интеллекта и известный математик Р. Пенроуз.

Если общая идея Серла и Пенроуза связана с уникальностью мозга как биологического носителя сознания, то их главный оппонент, Д. Деннет, утверждает, что никакой специфики у человеческого мозга не существует и что сознание может быть с легкостью перемещено на другой носитель, например, в компьютер. Более того, Деннет предполагает, что сознание, по сути, вообще не является эмерджентным (внезапно появляющимся) свойством и что разница, например, между человеком и тараканом в отношении сознания носит чисто количественный, но не качественный характер (у таракана меньше сознания, чем у человека). Говорить о сознании и психике в целом, с точки зрения Деннета, следует в терминах функций, поэтому такую позицию называют функционализмом. Для пояснения точки зрения Деннета можно провести такую параллель: стулья могут быть сделаны из разных материалов (дерева, пластика и т.п.), но вне зависимости от того, из чего они сделаны, их объединяет исполняемая ими функция служить для сидения. Точно также и сознание во всем многообразии своих проявлений может быть реализовано на различном субстрате, будь то мозг или какие-нибудь микросхемы в компьютере.