ЯЗЫК В СИСТЕМЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: СИНТАКСИС И СЕМАНТИКА | Гуманитарная информатика. 2004. № 1.

ЯЗЫК В СИСТЕМЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: СИНТАКСИС И СЕМАНТИКА

ЯЗЫК В СИСТЕМЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: СИНТАКСИС И СЕМАНТИКА.pdf Каково соотношение человеческого сознания и системы иску с- ственного интеллекта? Способен ли компьютер на осуществление мы с- лительных операций? Можем ли мы всерьез называть такие операции проявлением разумной деятельности? Как показывает полувековая тр а- диция AI-философии (философии искусстве нного интеллекта), такие вопросы не являются праздными и вовсе не предполагают, как могло бы показаться с первого взгляда, однозначные отрицательные ответы. Дело в том, что для определения степени разумности системы ИИ необходи- мо сначала установить критерии осуществления разумных действий по отношению к самому человеческому сознанию. Необходимо опреде- лить, что мы будем понимать под существенными признаками разумн о- сти вообще, чтобы потом попытаться обнаружить эти признаки в систе- мах ИИ. С того момента, как ф илософия обратилась к обсуждению пр о- блем, связанных с появлением искусственного интеллекта, было пре д- ложено немало теорий, каждая из которых по -своему определяла суще- ственные признаки разумности. Отсюда и ответы об интеллектуальных способностях искусственных систем также оказывались различными - одни приписывали им признаки мыследеятельности и сознательного поведения, другие отрицали их. Статья посвящена анализу одного из подходов к определению р а- зумности. Исследователи, разрабатывающие этот подход, утверж дают, что существенные признаки сознательного поведения можно выявить, исходя из рассмотрения того, каким образом человек использует свой естественный язык при осуществлении коммуникативных действий. В таком случае вышеуказанная общая проблема начинает обс уждаться на лингвистическом уровне. Искусственный интеллект является также коммуникативной системой. В данном случае используется особый язык-интерфейс, который обеспечивает интерактивную форму взаим о- действия человека и компьютера, т. е. их коммуникацию. Возникает вопрос: Использует ли компьютер язык точно так же, как и человек? Если мы сможем ответить на этот вопрос положительно, то системе ИИ будет приписано свойство разумного поведения, если же ответ будет 72    Гум анитарная информатика. Вып. 1.    отрицательным, значит, нам удастся выяснить то, чего не достает ко мпьютеру, чтобы подняться до уровня человеческого сознания. Одним из самых известных в истории AI-философии критических аргументов относительно разумности искусственных систем в рамках лингвистического подхода стал так называемый «аргуме нт китайской комнаты», выдвинутый американским философом Д. Серлом в начале 80-х годов [1]. Суть этого аргумента сводится к следующему. Допустим, человека, владеющего только английским, помещают в изолированную от внешнего мира комнату и предоставляют ему для чтения текст на китайском. Естественно, ввиду того, что он не имеет ни малейшего представления о значении китайских иероглифов, текст оказывается для него набором чернильных закорючек на листе бумаги - человек ничего не понимает. Затем ему дают еще один лист бумаги, исписанный по - китайски, и в придачу к этому определенную инструкцию на родном ему английском о том, как можно было бы сравнить два китайских те к- ста. Эта инструкция научает выявлению тождественных символов и определению закономерности их вхождения в более общий контекст. Когда приносят третий китайский текст, к нему прилагают вторую а н- глийскую инструкцию о сравнении последнего с двумя предыдущими и т. д. В итоге после продолжительных упражнений испытуемому прин о- сят чистый лист бумаги и просят что-нибудь написать по -китайски. К этому времени человек из китайской комнаты настолько хорошо освоил формальные символические закономерности, что, на удивление, де й- ствительно оказался способным написать вполне связный и понятный любому грамотному китайцу текст. Ну и, наконец, чтобы произвести должный эффект, человека выводят из комнаты на обозрение широкой публике и представляют как англичанина, изучившего китайский, что сам виновник презентации не замедлит подтвердить своим безукори з- ненным знанием иероглифического письма. Так понимает ли наш испытуемый китайский? Серл дает категор ически отрицательный ответ на этот вопрос. Понимание должно сопр о- вождаться актами так называемой первичной интенциональности, в к о- торых сознание, еще до всякого обращения к каким -либо материальным носителям, т. е. к речи или письму, способно концентрироваться на внутренних интенциональных (смысловых) содержаниях, как не реду- цируемых ни к чему другому фактах автономной психической жизни. Интенциональность языка производна, она возни кает при намеренном наделении изначально пустых знаков значением, посредством замещ е- ния внутреннего смыслового содержания пропозициональным содерж а- нием синтаксически организованных структур.    Гум анитарная информатика. Вып. 1.    73 Для общественности, которая оценивала результаты обучения чело- века из китайской комнаты, возникла иллюзия того, что экзаменуемый действительно овладел китайским. Причина этой иллюзии кроется в той привычке, в соответствии с которой люди предположили за пропоз ици- ональными содержаниями продуцированных человеком синтаксич еских форм его внутренние интенциональные содержания, явившиеся основой первых. Но на деле обучение в китайской комнате принесло прямо пр о- тивоположные результаты. Человек научился формальным операциям со знаковой системой без какого -либо собственного «интенционального участия» в этом предприятии. Пропозициональные соде ржания пред- ставленного на обозрение китайского письма имели смысл только для тех, кто действительно мог подкрепить их более фундаме нтальными интенциональными содержаниями своей психики. Человек из китайской комнаты сам не понял ничего из того, что написал. По мысли Серла, действия испытуемого англичанина полностью аналогичны работе AI. Искусственный интеллект, несмотря ни на какие интенсификации в сфере технологий, никогда не сможет достичь уров ня человеческого сознания именно из-за невозможности преодолеть фу н- даментальный разрыв между первичной и производной интенционал ь- ностями. С помощью специальных программ, настраивающих на фо р- мальное оперирование символическими образованиями, AI может со- здавать иллюзии мощнейшей мыслительной активности, многократно превышающей способности человеческого сознания. Результаты такой деятельности AI оказываются, в самом деле, чрезвычайно полезными для человека. И тем не менее у нас нет никаких оснований тешить себ я иллюзией существования «братьев по разуму». AI не мыслит. Всю рабо- ту по содержательному наполнению пустых символических структур берет на себя человек, «прикрепляя» последние к внутренним инте нци- ональным содержаниям - подлинным элементам разумной жизни. С позиции лингвистического подхода в AI-философии серлевский аргумент утверждает то, что язык искусственных систем не имеет с е- мантики. Вся работа в системе интерфейса человек - компьютер со сто- роны машины происходит исключительно на синтаксическом уровне. Компьютер «обучен» определенным программам -алгоритмам связи символических элементов знаковой системы так, что возникает впеча т- ление относительно их семантической нагруженности. Возьмем в качестве примера работу географической электронной энциклопедии. Система ИИ запрограммирована так, чтобы, получив от человека запрос: «Как называется столица Непала?», выдавать ответ: «Катманду». При этом очевидно, что компьютер не понимает, что со б- ственно стоит за теми знаками языка, которые использованы в данном 74    Гум анитарная информатика. Вып. 1.    запросе, семантически они для него пусты. Просто в соответствующей программе дана директива: «при запросе, представляющем собой один синтаксический комплекс, выдавать в качестве ответа другой». Машина может действовать как формальный логик. Отвлекаясь от какого-либо содержательного наполнения, она способна к оценке и с- тинности сложных высказываний на основании анализа истинностных функций составляющих их простых атрибутивных суждений. Она сп о- собна оценить истинность вывода как в случае содержательно напо л- ненного высказывания «Если на улице идет дождь, то асфальт мокрый», так и в случае высказывания, продуцированного на «тарабарском» яз ы- ке: «Если жунсы губеют, то брунсы тернеют». Путем объединения ло- гических электронных микросхем, принцип работы которых будет соо т- ветствовать истинностным функциям для логических союзов, в общую схему мы можем построить электрическую цепь, моделирующую вес ь- ма сложные дедуктивные рассуждения. Мы знаем, что в логике, посре д- ством метода истинностных таблиц, можно оценить достоверность в ы- вода из некоторого числа посылок. Возьмем для примера рассуждение: «В преступлении подозреваются трое: Иванов, Петров, Сидоров. Они дали следующие показания. Иванов утверждал, что если преступление совершил Сидоров, то Петров его не совершал. Петров настаив ал на том, что если Иванов совершил преступление, то Сидоров тоже в этом участвовал; но если Иванов ни при чем, то это сделали либо он сам, л и- бо Сидоров. Сидоров отрицал свою вину, но настаивал на виновности либо Петрова, либо Иванова. При условии, что все говорили правду, кто виновен?» Формализуем его так, чтобы оценить достоверность вывода о виновности каждого из подозреваемых: ((C   П)  ((И  С)  ((И  (П V С)))  ( С  (П V И)))  И ((C   П)  ((И  С)  ((И  (П V С)))  ( С  (П V И)))  П ((C   П)  ((И  С)  ((И  (П V С)))  ( С  (П V И)))  С При построении соответствующих таблиц истинности выяснится, что мы можем с достоверностью утверждать виновность Петрова. К точно такому же выводу придет и система ИИ, причем данные логич е- ские вычисления она проделает значительно быстрее человека. Однако эта «дедуктивная ловкость» машины будет только подтверждать тезис Серла - в работе компьютера нас завораживает именно эта невероятная синтаксическая мощь, скорость оперирования знаками. Тем не ме нее какими бы головокружительными ни были операции, связанные с си н- таксисом формальной знаковой системы, компьютер никогда не сможет самостоятельно задать им какую -либо семантическую интерпретацию.    Гум анитарная информатика. Вып. 1.    75 На основании информации о морфологии языка машина может даже имитировать продуцирование связанного текста. Известно, что те или иные части речи подчиняются специфическим законам словообразов а- ния и потому данный процесс также можно формализовать. Например, читая фразу: «Глокая куздра бодланула бокра и бодрячит бо кренка» мы вполне можем предположить здесь наличие частей речи - существи- тельных, глаголов и прилагательных, - структура которых формально будет напоминать обычные, т. е. семантически нагруженные термины нашего естественного языка. Данные морфологические э лементы, опять же в соответствии с определенными синтаксическими правилами, будут занимать соответствующие места в предложениях - места подлежащего, сказуемого, определений и т. д. Если машину запрограммировать на соответствие всем этим правилам, то ее успехи также могут быть очень впечатляющими. Однако в данном случае система ИИ будет себя вести в точном подобии с упоминаемым выше персонажем из китайской ко м- наты, который научился лишь филигранному оперированию синтакс и- ческими элементами знаковой системы по определенным правилам без какой-либо семантической интерпретации. Итак, на основании серлевского аргумента китайской комнаты мы можем утверждать, что с точки зрения лингвистического подхода в AI-философии существенным признаком разумной деятельно сти будет считаться способность к семантической интерпретации знаковой систе- мы. И именно этим признаком не обладают системы искусственного интеллекта. Аргумент китайской комнаты вызвал бурные обсуждения в рамках традиции AI-философии. Здесь нашлись как е го приверженцы (см., например, [2]), так и оппоненты (см., например, [3]). Одни утверждали, что системе ИИ действительно никак нельзя приписать способность к семантической интерпретации, другие настаивали на том, что в опреде- ленном смысле эту способность нельзя приписать даже и человеку. При этом все молчаливо согласились с тезисами относительно синтаксиса. Интересный момент в исследовании данной проблемы, на который мы хотели бы обратить внимание в данной статье, заключается в том, что спустя десятилетие тот же Д. Серл [4] весьма оригинальным обр а- зом пересмотрел свой собственный аргумент. На этот раз вопрос был поставлен о синтаксисе. А можем ли мы, в самом деле, утверждать - так как мы это делали ранее, - что машина способна на выполнение синта к- сических процедур в рамках заданной знаковой системы? Теперь ам е- риканский философ дал отрицательный ответ и на этот вопрос. Для того чтобы прояснить смысл серлевской аргументации, вновь вспомним, для начала, англичанина, изучающего китайский. Критич е- 76    Гум анитарная информатика. Вып. 1.    ский аргумент относительно семантики начинался с того, что человек не понимает значений написанных на бумаге символов. Осваивая фо р- мальные правила операций с данными символами, он овладевает опр е- деленной синтаксической техникой, которая создает иллюзию семанти- ческой осведомленности. Однако не пропустили ли мы здесь, при оп и- сании данного лингвистического действия, оди н важный момент, на который нам следовало бы обратить внимание еще до начала формул и- ровки критического аргумента относительно семантики? Что именно может увидеть человек на предоставленных в его распоряжение листах бумаги? Строго говоря, на физическом уровне на листе бумаги виден лишь хаотический набор чернильных пятен различной формы. Получ а- ется, что прежде чем констатировать свою неосведомленность относ и- тельно семантики языка, человек из китайской комнаты уже должен задать определенную синтаксическую интерпретацию! Он должен п о- нять вот эти чернильные пятна на листе бумаги именно как знаки, кото- рые, возможно, объединены какой-либо системой правил функционир о- вания, составляя при этом единое целое - язык. Он должен понять, что вот эти чернильные пятна в принципе могут что -то обозначать. При рассмотрении того, как тот или иной субъект - неважно, человек или машина - овладевает и пользуется языком, синтаксис не должен возни- кать по принципу Deus ex machina. На физическом уровне в среде мате- риальных носителей языковых структур нет никакого синтаксиса. Для того чтобы тот или иной материальный объект оказался знаком, ему следует задать не только семантическую интерпретаци ю, которая пока- жет, что, собственно, этот знак обозначает, но и, прежде всего, инте р- претацию синтаксическую, которая покажет, что данный материальный объект в принципе может что -то обозначать, т. е. является знаком. Известно, что в основание информатики б ыла положена гениальная в своей простоте идея, которую продуцировали американские матем а- тики и техники, в частности Клод Шеннон, - объединение логики и электричества. К тому времени - 30-м годам ХХ в. - в логике уже проч- но зарекомендовал себя новый подход, основанный на слиянии фо р- мально-логической символики и языка математики. Сначала на основе алгебры Дж. Буля, которая представляла собой формализацию арифм е- тических действий, было предложено воспользоваться алгебраическим языком и для формализации логического процесса рассуждения. Были введены символы для всех возможных логических констант, характер и- зующих формальные элементы в суждениях, - логических союзов. От- рицание «-», дизъюнкция «V», конъюнкция «&», импликация « », тож- дество «». Затем было предложено заменить логические референты «истина» и «ложь» арифметическими символами 1 и 0. Далее Г. Фреге и    Гум анитарная информатика. Вып. 1.    77 другие философы аналитической традиции построили систему рефере н- ций для каждого логического союза - это были так называемые таблицы истинности. Таким образом , появилась возможность оценивать истин- ность какого-либо сложного высказывания на основе анализа соста вля- ющих его простых высказываний и их истинностных функций. Все это, в свою очередь, привело к возможности формального контроля над с и- стемой дискурсивного рассуждения вообще, т.е. к оценке логической последовательности и необходимости выводов из посылок какой угодно степени сложности. Новизна идеи информатики заключалась лишь в том, что было предложено интерпретировать наличие или отсутствие напряжения в электрической цепи как знаки арифметических символов 1 и 0 соотве т- ственно. Так и возник цифровой компьютер. Теперь все логические наработки по анализу рассуждений можно было бы смоделировать на электрическом уровне путем создания соответствующих элементов ц епи - сначала электрических ламп, затем транзисторов, и, в конце ко н- цов, электронных микросхем, закодированных на выполнение -имита- цию истинностной функции какого -либо логического союза. Еще раз обратим внимание на ключевые элементы данного процесса интерпретации. Сначала цифры 1 и 0 были поняты как знаки логических референтов «истина» и «ложь». Арифметика в данном случае оказыв а- лась синтаксисом для логической семантики. Но составляет ли этот си н- таксис «онтологию машины»? То есть действительно ли hardware ком- пьютера - это нагромождение нулей и единиц? Если бы это было так, то идея информатики не представляла бы какой -либо ценности. В том -то и дело, что физика не имеет синтаксиса вообще. Наличие напряжения в электрической цепи - это еще не единица. Это лишь наличие напряже- ния в электрической цепи. Представим себе по ходу ситуацию, что мы вкручиваем лампочку в патрон настольной лампы с плохим качеством контакта проводников тока. Лампочка то загорается, то гаснет - будем ли мы считать данные события физического уровня передачей, скажем, какого-либо зашифрованного кода? В данном случае, конечно же, нет. В этом как раз и состоит первичный интерпретативный шаг - понять определенный уровень электрического напряжения как знак. И пока неважно знак чего: логического референта или, скажем, предупрежде- ния об опасности пожара. Физический уровень в качестве материальн о- го носителя языковых выражений прежде семантической должен внач а- ле получить синтаксическую интерпретацию, которая задается внешним образом, через пользователя данной знаковой системой. Если при использовании электронной энциклопедии я задаю вопрос о столице Непала и получаю надлежащий ответ, то машина не только не 78    Гум анитарная информатика. Вып. 1.    понимает значений символов, с которыми она оперирует в соответствии с определенным алгоритмом, она не представляет собой даже и фо р- мальную синтаксическую систему. На физическом уровне вслед за о д- ним случаем высокого уровня напряжения в определенном участке цепи возникает другой случай - только и всего. Для того чтобы эти факты высокого напряжения понять как знаки, которые могут подчиняться определенным операциональным правилам их сочетания, необходимо задать первичную синтаксическую интерпретацию, на которую в даль- нейшем и будет опираться программист при формулировке соотве т- ствующего алгоритма операций. Интересно, что в связи с появлением данного аргумента в отнош ении синтаксиса системы ИИ в когнитивной науке с новой силой вспы х- нули дискуссии вокруг так называемой проблемы гомункулуса. Пара л- лельно развитию информатики и AI-философии в когнитивной науке, основанной на современных достижениях нейрофизиологии, очень а к- тивно стали проявлять себя исследования, основанные на интерпрета- ции мозга как цифрового компьютера. Известно, что на физическом уровне движение нейронов представляет собой, в определенном смы сле, движение электрических зарядов, а нейронные цепи можно уподобить цепям электрическим. Если понимать компьютер как скопление инфо р- мации, закодированной в цифровом виде, то точно так же можно было бы отнестись и к работе головного мозга. В таком предста влении мозг оказывался подобным машине, где “ hardware” представляет собой ф и- зическое наличие нейронных связей, на которые накладываются синта к- сическая и семантическая интерпретации. Однако если даже синтаксис не свойствен физике, а привносится на материальный уровень внешним образом, то здесь возникает проблема. Кто задает подобные синтакс и- ческие интерпретации? С компьютером, который мы покупаем в маг а- зине, все проще - здесь интерпретацию задает пользователь. Но как быть с головным мозгом? Получается, что кроме того, кто является ф и- зическим носителем нейронных связей, должен существовать еще и тот, кто интерпретирует эти нейронные соединения как синтаксические эл е- менты системы. Так возникает проблема гомункулуса - своеобразного «разума в разуме», того, кто интерпретирует физику. По сути же, с то ч- ки зрения материалистической онтологии, в мозге, как и в компьютере, нет никаких нулей и единиц. В целом проблема гомункулуса заслуживает большего внимания и может стать предметом исследования отдельной работы. Мы н е будем далее развивать здесь эту тему. В соответствии с намеченной целью нам следовало разобраться в вопросе различий в использовании языка с и- стемой ИИ и человеком, с тем, чтобы зафиксировать существенные пр и-    Гум анитарная информатика. Вып. 1.    79 знаки разумности. Выводы, к которым мы приходим на основании из- ложенной выше суммы аргументов, являются следующими. 1. Существенными признаками разумности с точки зрения лингв и- стического подхода в AI-философии следует считать способность чело- веческого сознания к заданию как семантической, так и, прежде всего, синтаксической интерпретаций каким -либо материальным образовани- ям мира природы так, чтобы эти образования получали статус знаковой системы. 2. Система искусственного интеллекта вышеизложенными спосо бностями не обладает.

Ключевые слова

Авторы

ФИООрганизацияДополнительноE-mail
Ладов В.А.
Всего: 1

Ссылки

Searle J. Is the Brain a Digital. Computer? // Proceedings and Addresses of the American Philosophical Association. 1991. 64.
Dennett D. Evolut ion, Error and Intentionaly // Sourcebook on the Foundations of Artificial Intelligence, in Y.Wilks and D. Part ridge, eds. New Mexico Universit y P ress, 1988.
Hauser L. Why Isn't My Pocket Calculator a Thinking Thing? // Minds and Machines. 1993. Vol. 3, №. 1. February.
Searle J. Minds, Brains, and Programs // The Philosophy of Artificial Intelligence, in M. Boden, ed. New York: Oxford University Press, 1990.
 ЯЗЫК В СИСТЕМЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: СИНТАКСИС И СЕМАНТИКА | Гуманитарная информатика. 2004. № 1.

ЯЗЫК В СИСТЕМЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: СИНТАКСИС И СЕМАНТИКА | Гуманитарная информатика. 2004. № 1.