Искусственный Интеллект (ИИ)
Aug. 15th, 2010 08:39 pm![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Для того, чтобы сразу понять, что термин ИИ не означает нечто совершенно конкретное, достаточно заглянуть на страничку «Интеллект» в Википедии. Если сам интеллект трактуется столь размыто, то что тогда говорить об искусственном интеллекте? Не считать же в самом деле перечисление всего того, что разные исследователи относят к интеллекту, проясняющим моментом.
Таким образом, с самого начала имеем примерно ту же самую ситуацию, что и с обсуждением, например, сознания - все та же обманчивая очевидность. Между тем этот вопрос не так уж сложно прояснить.
Взгляните на дельфинов, к примеру. Весьма развитый мозг, сложное поведение, большой запас сигналов для коммуникации, высочайшая адаптативность, передача навыков из поколения в поколение, исключительно сложный мозг, наконец (хотя последнее, впрочем, не совсем убедительный довод). Однако, несмотря на огромные усилия энтузиастов и солидных научных заведений, окончательного вердикта относительно разумности дельфинов как не было, так и нет. А ведь чего проще, казалось бы! И ничего создавать не надо, и материала для изучения предостаточно. Одних видов — 30! Самое время спросить: может «в консерватории что-то не так»? А именно, в наших ожиданиях относительно того, что мы готовы назвать интеллектом? Если столь мощная система, какой является мозг дельфина, не считается со всей очевидностью «разумной», значит, самое время определиться, что именно мы создаем под вывеской «ИИ».
Как считает Пенроуз в книге, комментарии к которой я привел постом ниже, человеческое понимание отличается тем, что позволяет нам делать некоторые простые на первый взгляд вещи, которые для компьютера пока что являются непреодолимым вызовом. Углубимся в этот момент. Первое, что хочется сказать, так это то, что мы таким образом делаем нечто необходимое нам. С другой стороны, требуя от компьютера этого же действия, мы требуем опять же что-то необходимое нам. Добавив к этому нашему умению свой превилигированный доступ к состоянию, связанному с выполнение данной функции, мы гордо заявляем, что машины — тупая, бездушная, и ни о каком понимании у нее не может даже идти речь. Можно не сомневаться, что с таким подходом мы еще долго будем создавать ИИ. Следуя мысли проф. Преображенского, а не проще ли нарожать?
Я полагаю, следует четко определиться с тем, что самое главное на наш взгляд в ИИ. Практически все сойдутся как минимум в одном требовании: ИИ должен выполнять некоторые действия. Нет, это я не пошутил. Ключевое слово здесь - «должен». Собственно, при таком раскладе, тему ИИ можно было бы считать закрытой. Если нам ИИ должен, то это уже никак не интеллект, по крайней мере, таковым мы его никогда не признаем. Что думал рабовладелец о своих рабах? Может показаться, что я передергиваю. В конце концов, ИИ может быть должен демонстрировать независимое мышление, или еще чего-то в этом духе. Увы, и в этом щедром варианте кроется все та же ловушка. Из чего следует, что дельфины не демонстрируют независимого мышления? А ведь они очень индивидуальны! Значит, не хватает чего-то существенного... для нас. Значит, опять кто-то должен нам!
Технически, сказанного достаточно, чтобы приступить к выводам.
Не существует никакого интеллекта, вообще.
Есть способность систем демонстрировать некоторые действия.
Собственные состояния систем при этом не должны считаться релевантными. Точнее даже не собственные состояния, и всего лишь их интерполяции, так как сами состояния не экстраполируются в неизменном виде во вне. Все тот же привилегированный доступ, видите ли.
Поэтому нет никакого смысла говорить о (нашем, или любой другой системы) понимании, а только о способности к неким действиям.
Допустим, больше всего нас интересует когнитивная способность и способность к эвристической деятельности при решении задач. Но это не так просто — вот так сказать. Необходимы некоторые существенные уточнения. Все уточнения на этот счет сведутся к тому, что речь идет о таковой деятельности... для человека. Видите ли, есть такая физическая система — человек. И шутка заключается в том, что мозг человека работает, как бы это сказать, что б не обидно... не только сам на себя. Строго говоря, уровень автореференции даже у самого продвинутого на этот счет мозга попросту плачевный. То, что мы поднимаем на щит в качестве высшей пробы своей разумности - осознание, понимание, есть не более чем пена на поверхности ментального варева, глубинная суть которого для нас совершенно не доступна. Вывод: интеллект нашего мозга — это интеллект нашего мозга, а вовсе не абстрактный интеллект. Тот факт, что при этом мы имеем математику, сути дела не меняет.
Отсюда мораль: любой ИИ, который мы склепаем, будет либо (1) простым набором изощренных программ, работающих с человеческой информационной требухой, либо (2) самостоятельной системой с набором собственных состояний, для экстраполяции которых потребуется нешуточной сложности система конвертации смыслов. Первое уже полным ходом делается, и успехи в этом направлении просто гарантированны. Но это никогда не будет признано ИИ, а только симулятором ИИ. (Я хочу подчеркнуть, что вопрос, будет ли это искусственным интеллектом на самом деле, не имеет смысла). А второе... А дельфины? А оно нам надо? Следует четко понимать, что любая система, созданная по второму сценарию, т.е. полностью самообучающаяся система, ориентированная на свои сенсоры, конструкцию и потребности, будет иметь свои собственные состояния, свою когнитивистику, свою эвристику, а в силу несовершенства конструкции — также свои эмоции. Однако конвертация всех этих состояний в человеческие аналоги станет, возможно, непреодолимым вызовом. Тогда напрашивается выход: задать конструкцией и базовым программным обеспечением заведомую близость в ее активном поведении параметрам человеческой психики. Но... тогда мы опять не признаем ее интеллектом, ибо она делает то, что она нам должна, и никому и в голову не придет думать о ее собственных состояниях как о равных человеческим. Повторится история, рассказанная в фильме «Двухсотлетний человек».
Создание системы по второму сценарию (полностью автономной) может иметь только академический интерес, но в случае успеха такая система все равно будет зависать, хотя несовершенные модели могут нешуточно доставить падкой на сенсации публике.
no subject
Date: 2012-04-02 07:44 am (UTC)http://lib.rus.ec/b/211853/read
Автор не глубоко копает, но его концепция устройства ИИ и мозга похожа на правду.
Суть в следующем.
Мозг воспринимает входящие сигналы, обнаруживает повторяющиеся паттерны и образует в нейронной сети алгоритм, постоянно предсказывающий входные сигналы в реальном времени.
Т.е. грубо говоря, если на вход мозга подавать синусоиду, то через некоторое время нейронная сеть аппроксимирует этот паттерн и начинает генерировать параллельно входящей синусоиде точно такую же синусоиду, которая подается обратно во входные области мозга параллельно настоящему входящему сигналу. Генерированная синусоида смешивается с входной и дополняет ее на случай перебоев в работе входного рецептора, незначительных флуктуаций и др.
Дальше, специальные нейроны сверяют генерированную синусоиду с настоящей входной и молчат, пока имеется полное совпадение. Если входная синусоида перестает совпадать с генерированной, это означает, что обнаружен новый незнакомый паттерн и процесс аппроксимации запускается снова. Таким образом, раз за разам мозг получает все боле точную аппроксимацию для всех вариантов входных сигналов, т.е. отражение реальности.
Автор не пишет о снах и воображении, но в принципе, при такой модели понятно что такое воображение и сны: мозг имея аппроксимацию действительности спонтанно гоняет ее в реальном времени. При этом механизм сверки с реальностью временно отключается и входные сигналы полностью подменяются генерированными. Этот процесс может захватывать самый верхний уровень нейронов (возбуждение которых соответствует общим образам), или может распространяться почти до органов чувств. В последнем случае воображаемая картина будет очень детальной.
Во время бодрствования мозг постоянно видит "сон наяву", точно так же как и во сне, генерируя реальность с использованием имеющейся в нейронной сети аппроксимации. Только в отличии от настоящего сна "реальный сон" постоянно корректируется при возникновении расхождения между входными сигналами и сигналами предсказанными аппроксимацией.
Дальше возникает вопрос о принятии решений и действии.
Тут автор вводит идею о том, что действие имеет тот же механизм, что и восприятие.
Фишка в том, что сигналы, получаемые мышцами, для аппроксимирующей машины мозга представляют собой равноправную часть аппроксимируемой картины (несмотря на то, что они мозгом же и созданы). Сигналы к мышцам - точно такая же часть "сна", как и сигналы от органов чувств. Соответственно, когда мозг запускает в воображении некий паттерн, в него включено предсказание как входных сигналов, так и выходных. Т.е. мозг предсказывает и собственные выходные сигналы тоже, не делая отличия где его сигналы, а где внешние.
Таким образом, если мозг хочет чего-то, ему нужно найти в памяти и запустить аппроксимированный паттерн, который соответствует выполнению желания.
Т.е. если мозг хочет чего-либо, он это просто воображает. Только, в отличии от чистого воображения, паттерн запускается не в свободном режиме, а в режиме синхронизации со входной действительностью. Поскольку паттерн включает и сигналы к мышцам, сон становиться явью.
Для того, чтобы это работало автор вводит смутные понятия "иерархичности" и "инвариантности паттернов".
Инвариантность паттернов заключается в том, что они хранят не просто аппроксимацию отрезка входных сигналов, а аппроксимацию всех возможных вероятных вариантов развития ситуации, усвоенными паттерном на опыте.
Понятие "иерархичности" нейронной сети вводится (ИМХО - автор этого возможно не осознает) для включения в работу мозга принципа Окама. Реальность держится на принципе наибольшей эффективности наипростейших объяснений. Это означает, что каждый паттерн должен быть представлен в памяти как можно более компактной аппроксимацией. Эта цель и достигается частично за счет введения в структуру сети иерархичности, при которой каждый последующий слой нейронов упрощает входную информацию к перечню символов, которые аппроксимируются последующим слоем.
Описываю вам это в основном для того, чтобы самому лучше понять.