hitthelimit: (Default)
[personal profile] hitthelimit


Для того, чтобы сразу понять, что термин ИИ не означает нечто совершенно конкретное, достаточно заглянуть на страничку «Интеллект» в Википедии. Если сам интеллект трактуется столь размыто, то что тогда говорить об искусственном интеллекте? Не считать же в самом деле перечисление всего того, что разные исследователи относят к интеллекту, проясняющим моментом.

 

Таким образом, с самого начала имеем примерно ту же самую ситуацию, что и с обсуждением, например, сознания - все та же обманчивая очевидность. Между тем этот вопрос не так уж сложно прояснить.

 

Взгляните на дельфинов, к примеру. Весьма развитый мозг, сложное поведение, большой запас сигналов для коммуникации, высочайшая адаптативность, передача навыков из поколения в поколение, исключительно сложный мозг, наконец (хотя последнее, впрочем, не совсем убедительный довод). Однако, несмотря на огромные усилия энтузиастов и солидных научных заведений, окончательного вердикта относительно разумности дельфинов как не было, так и нет. А ведь чего проще, казалось бы! И ничего создавать не надо, и материала для изучения предостаточно. Одних видов — 30! Самое время спросить: может «в консерватории что-то не так»? А именно, в наших ожиданиях относительно того, что мы готовы назвать интеллектом? Если столь мощная система, какой является мозг дельфина, не считается со всей очевидностью «разумной», значит, самое время определиться, что именно мы создаем под вывеской «ИИ».

 

Как считает Пенроуз в книге, комментарии к которой я привел постом ниже, человеческое понимание отличается тем, что позволяет нам делать некоторые простые на первый взгляд вещи, которые для компьютера пока что являются непреодолимым вызовом. Углубимся в этот момент. Первое, что хочется сказать, так это то, что мы таким образом делаем нечто необходимое нам. С другой стороны, требуя от компьютера этого же действия, мы требуем опять же что-то необходимое нам. Добавив к этому нашему умению свой превилигированный доступ к состоянию, связанному с выполнение данной функции, мы гордо заявляем, что машины — тупая, бездушная, и ни о каком понимании у нее не может даже идти речь. Можно не сомневаться, что с таким подходом мы еще долго будем создавать ИИ. Следуя мысли проф. Преображенского, а не проще ли нарожать?

 

Я полагаю, следует четко определиться с тем, что самое главное на наш взгляд в ИИ. Практически все сойдутся как минимум в одном требовании: ИИ должен выполнять некоторые действия. Нет, это я не пошутил. Ключевое слово здесь - «должен». Собственно, при таком раскладе, тему ИИ можно было бы считать закрытой. Если нам ИИ должен, то это уже никак не интеллект, по крайней мере, таковым мы его никогда не признаем. Что думал рабовладелец о своих рабах? Может показаться, что я передергиваю. В конце концов, ИИ может быть должен демонстрировать независимое мышление, или еще чего-то в этом духе. Увы, и в этом щедром варианте кроется все та же ловушка. Из чего следует, что дельфины не демонстрируют независимого мышления? А ведь они очень индивидуальны! Значит, не хватает чего-то существенного... для нас. Значит, опять кто-то должен нам!

 

Технически, сказанного достаточно, чтобы приступить к выводам.

 

Не существует никакого интеллекта, вообще.

Есть способность систем демонстрировать некоторые действия.

Собственные состояния систем при этом не должны считаться релевантными. Точнее даже не собственные состояния, и всего лишь их интерполяции, так как сами состояния не экстраполируются в неизменном виде во вне. Все тот же привилегированный доступ, видите ли.

Поэтому нет никакого смысла говорить о (нашем, или любой другой системы) понимании, а только о способности к неким действиям.

 

Допустим, больше всего нас интересует когнитивная способность и способность к эвристической деятельности при решении задач. Но это не так просто — вот так сказать. Необходимы некоторые существенные уточнения. Все уточнения на этот счет сведутся к тому, что речь идет о таковой деятельности... для человека. Видите ли, есть такая физическая система — человек. И шутка заключается в том, что мозг человека работает, как бы это сказать, что б не обидно... не только сам на себя. Строго говоря, уровень автореференции даже у самого продвинутого на этот счет мозга попросту плачевный. То, что мы поднимаем на щит в качестве высшей пробы своей разумности - осознание, понимание, есть не более чем пена на поверхности ментального варева, глубинная суть которого для нас совершенно не доступна. Вывод: интеллект нашего мозга — это интеллект нашего мозга, а вовсе не абстрактный интеллект. Тот факт, что при этом мы имеем математику, сути дела не меняет.

 

Отсюда мораль: любой ИИ, который мы склепаем, будет либо (1) простым набором изощренных программ, работающих с человеческой информационной требухой, либо (2) самостоятельной системой с набором собственных состояний, для экстраполяции которых потребуется нешуточной сложности система конвертации смыслов. Первое уже полным ходом делается, и успехи в этом направлении просто гарантированны. Но это никогда не будет признано ИИ, а только симулятором ИИ. (Я хочу подчеркнуть, что вопрос, будет ли это искусственным интеллектом на самом деле, не имеет смысла). А второе... А дельфины? А оно нам надо? Следует четко понимать, что любая система, созданная по второму сценарию, т.е. полностью самообучающаяся система, ориентированная на свои сенсоры, конструкцию и потребности, будет иметь свои собственные состояния, свою когнитивистику, свою эвристику, а в силу несовершенства конструкции — также свои эмоции. Однако конвертация всех этих состояний в человеческие аналоги станет, возможно, непреодолимым вызовом. Тогда напрашивается выход: задать конструкцией и базовым программным обеспечением заведомую близость в ее активном поведении параметрам человеческой психики. Но... тогда мы опять не признаем ее интеллектом, ибо она делает то, что она нам должна, и никому и в голову не придет думать о ее собственных состояниях как о равных человеческим. Повторится история, рассказанная в фильме «Двухсотлетний человек».

 

Создание системы по второму сценарию (полностью автономной) может иметь только академический интерес, но в случае успеха такая система все равно будет зависать, хотя несовершенные модели могут нешуточно доставить падкой на сенсации публике.

 

По теме.

Date: 2010-12-29 10:17 pm (UTC)
From: [identity profile] hitthelimit.livejournal.com
По теме. Смеяться или плакать, вот в чем вопрос...
Имя этого человека часто мелькает на разных страницах в сети. Ученый?...
Вот описание его мысленного эксперимента (каким я нашел его тут: http://www.mgimo.ru/files/119789/119789.pdf )

«Сирл предлагает мысленный эксперимент. Представим закрытую комнату, где есть лишь одна щель для передачи листов бумаги. Внутри комнаты находится профессор Сирл с огромным количеством инструкций на английском языке. Кто-то передает лист бумаги, исписанный каракулями, в комнату. Сирл консультируется с книгой инструкций. В ней говорится, что если в комнату передается лист с каракулями, то из комнаты должен выйти другой, но четко описанный набор каракулей. Он делает это. Чуть позже поступает еще один набор каракулей.
Он снова смотрит в инструкции и выдает другой набор и т.д.
Эти наборы каракулей, совершенно незнакомые Сирлу, являются
китайскими иероглифами, составляющими вопросы на китайском языке.
Наборы каракулей, исходящие из комнаты, являются подходящими ответами на эти вопросы. Люди, находящиеся снаружи, говорят, что так как комната может ответить на любой вопрос, заданный на китайском, то она должна понимать китайский.
Нет, не должна – отвечает Сирл. Он, Джон Сирл, совершенно не знает
китайского языка. И именно это и происходит в компьютере. Компьютер бессмысленно следует набору инструкций – программе: он не обладает пониманием, и при этом подходе к ИИ никогда не будет им обладать.»

Лично меня берет оторопь, когда я читаю такое, написанное и обсуждаемое на полном серьезе. Даже комментировать как-то неудобно. (Эта цитата приведена в связи с обсуждением проблем ИИ, в частности, отсутствие у машин «понимания». Уровень, однако?...)
PS Как хорошо, что есть ученые, которым нас@&ть на "понимание".

Profile

hitthelimit: (Default)
hitthelimit

March 2019

S M T W T F S
     12
3456789
10111213141516
17181920212223
242526272829 30
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 1st, 2025 04:24 am
Powered by Dreamwidth Studios