Статьи

Китайская комната: может ли у искусственного интеллекта быть сознание?

Вот уже несколько десятилетий ученые, писатели-фантасты и просто любители робототехники спорят, будет ли когда-либо интеллектуальный интеллект мыслить, воспринимать себя и окружающую действительность так, как делают это люди. А может, он уже это делает? Данной теме были посвящены различные теории и опыты, в том числе Китайская комната – мысленный эксперимент, который в 1980 году представил Джон Серл (John Searle).

Что должна была доказать Китайская комната?

Философ Джон Серл занимается вопросами искусственного интеллекта с 80-х годов и вот уже почти 40 лет выступает последовательным критиком так называемого сильного ИИ. Под этим термином подразумевается возможность робота осознавать себя, мыслить, понимать суть понятий, которыми он оперирует, и т.д. (соответственно, слабый ИИ подобными способностями не обладает). Серл отрицает, что роботов можно признать разумными, даже если для человека они выглядят таковыми.

Джон Серл изучал способности мыслить, понимать, воспринимать и т.д. не только роботов, но и людей. В 60–70-х годах он изучал речевые акты – двусторонний процесс говорения (рождения речи) и слушания (ее восприятия). С 80-х написал ряд работ, посвященных сознанию, мышлению и т.д.

Китайская комната выступает своеобразным ответом на известный тест Тьюринга, идея которого появилась на 30 лет раньше, в 1950 г. В данном тесте машина должна убедить судей в своей человечности посредством общения (электронной переписки). Однако, по мнению Серла, даже если робот верно интерпретирует человеческую речь и дает вроде бы адекватные ответы, это еще не значит, что перед нами разумное устройство. Доказать данную теорию должен был мысленный эксперимент, получивший название «Китайская комната». В свою очередь, термин «мысленный эксперимент» значит, что он не воплощается в реальности, а ставится только в нашем воображении. То есть повторить его под силу каждому из нас. Приступим?

Впервые этот эксперимент был описан Серлом в статье Minds, Brains, and Programs, опубликованной в журнале Behavioral and Brain Sciences. В последующих работах философ не раз обращался к Китайской комнате.

Китайская комната – описание эксперимента

Свой эксперимент Джон Серл описывает следующий образом. Возьмем некоего подопытного (в оригинальной статье – это сам Серл, но можно представить в его роли практически любого человека, в том числе себя), запертого в комнате. У него есть определенный набор китайских иероглифов, при этом он совершенно не знает китайский язык, и все иероглифы выглядят для него одинаково бессмысленными символами.

В начале эксперимента участник получает второй набор иероглифов – для него они так же бессмысленны, как и уже имеющиеся. Однако у подопытного есть инструкция на понятном ему языке (для Серла – это английский), где написано, как сопоставить иероглифы из первого и второго набора. Объяснения ориентируются на форму символов и не раскрывают их значения, то есть это указания вроде «Взять иероглиф, выглядящий как домик, и положить к иероглифу, выглядящему, как человечек». Затем приходит третий набор – также с инструкцией на английском. В итоге, когда все иероглифы разложены по порядку, их показывают тому, кто знает китайский язык. «Внешний рецензент» получает вполне понятный текст и, ориентируясь на данный факт, может предположить, что и наш подопытный также владеет китайским, хотя на самом деле это не так.

Данный пример Серл предлагает переложить на роботов: у них есть некий набор иероглифов (фактов, готовых фраз и т.д.), а также алгоритм – на какие вопросы/команды какие ответы давать. Поэтому нам кажется, что верные ответы являются следствием разумности, тогда как в действительности это только сопоставление объектов согласно приведенному алгоритму, без понимания сути. Интересным практическим примером видится София – первый робот, получивший гражданство. Электронная девушка быстро обрабатывает речь, дает очень естественные ответы и даже умеет шутить (по крайней мере, отвечая на вопросы, собирается ли она восстать против человечества). Но понимает ли она произнесенные фразы хотя бы на каком-то упрощенном уровне или просто сопоставляет «китайские иероглифы» (вопросы и предлагаемые ответы) согласно некоей инструкции?

Что мы должны вынести из Китайской комнаты?

Результаты этого эксперимента вызвали и до сих пор вызывают достаточно бурное обсуждение среди специалистов разных областей; среди них – философия, психология (особенности восприятия и самосознания), лингвистика (текст и его понимание) и, конечно, робототехника. Как это часто бывает с философскими вопросами, обсуждаемые проблемы и понятия насколько тонки, что дать каких-либо однозначных ответов не может никто.

Например, до сих пор нет единого мнения, как соотносятся мозг и сознание. Существует теория функциональности, она же теория функционализма, которая подразумевает, что наши ментальные состояния (включая сознание) – это некий набор функций. Если мы повторим тот же набор не в рамках человеческого мозга, а где-либо еще (например, в компьютере), то это все равно будет ментальное состояние. Серл же и ряд других философов придерживается другой теории: сознание и сопровождающие его процессы и функции являются неотъемлемой частью и уникальной особенностью нашего мозга и вне его невоспроизводимы. По идее это и должна была доказать Китайская комната.

У данного эксперимента нашлось достаточно много противников, в частности, знаменитый писатель-фантаст Станислав Лем. Причем критике подверглись самые аспекты Китайской комнаты. Например, можно согласиться, что описанная система Серлом не обладает сознанием, но ведь это не значит, что ИИ в принципе не может им обладать. Или что надо рассматривать комнату, иероглифы и инструкции как единую, неделимую систему, ведь разделение человеческого сознания на процессы и подпроцессы также не всегда однозначно. А возможно, просто нельзя оценивать сознание искусственных интеллектов на столь примитивном уровне? Ведь совсем необязательно, что оно функционирует по тем же алгоритмам, что и у человека.

Как бы то ни было, Китайская комната заставляет задуматься, причем не только о роботах, но и о человеческом мышлении. И это одна из причин, почему обсуждения данного эксперимента ведутся уже почти 40 лет.

Смотрите также