К линейности мышления.
Oct. 19th, 2014 11:27 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Хочу еще раз обратить внимание на катострофическую линейность человеческого мышления, очевиднейшим образом проявляющуюся, например, в вопросах эволюции интеллекта. Вот типичный пример:
“... As an AI got smarter, it would no doubt need to make its own components to get even smarter. Initially, the AI could likely increase its processing power by paying for already existing cloud computing. But eventually an AI racing to superintelligence would reach the limit of what existing products could give it and would need to manufacture its own computer equipment. (Singularity Rising: Surviving and Thriving in a Smarter, Richer, and MoreDangerous World: James D. Miller)
Собственно, подобных мест в книге, которые могли бы быть взяты в качестве исходного примера, очень много.
Самая первая ошибка - обращение с понятием интеллекта как с очевидной данностью. Суть интеллекта совершенно не очевидна и при этом очень конвенциональна. Увы, даже рамки конвенциональности, как правило не уточняются, потому что это исключительно трудный вопрос: при достаточно строгом подходе любые конвенциональные рамки трещат по швам. Если человек подразумевает под интеллектом что-то свое, как ему кажется, вполне понятное всем остальным, то его футурологические потуги могут вызвать только усмешку. А если доходит до обсуждения, то со стороны это может выглядеть и вовсе как говорение “в языках”.
Вторая, третья и все последующие ошибки покоятся на фундаменте первой, однако их анализ позволяет лучше понять масштаб первой ошибки. Так, упоминание о необходимости новых компонентов для ИИ говорит о том, что автор исходит из совершенно определенной конструкции ИИ, эффективность которой линейно зависит от конструктивных частей. Но у осторожного участника дискуссии сразу должен возникнуть вопрос: а эффективность в данном случае - это что? Эффективность вне критериальности - нонсенс. Значит, автор имеет в виду, но не выражает прямым образом, некую критериальность эффективности интеллекта. Крокодилу - исключительно эффективному организму с примитивной ЦНС - никогда не придет в голову закрывать своей тушкой амразуру дота. А человеку - запросто. Т.е., даже эффективность - здесь не есть нечто очевидное.
Автор также пишет, что ИИ придется платить за пользование существующими уже вычислительными мощностями. Эта фраза буквально как сорванный кран на водонапорной колонке: бьющая во все стороны вода (в переносном смысле) четко выявляет границы конвенциональности автора по данному вопросу. Оказывается, ИИ и его эффективность - это объем цифровых вычислений? Но как автор провел параллель между эволюцией интеллекта и ростом производительности цифровых вычислений?
Также, автор пишет о гонке “сверх-интеллектуальности” так, как будто совершенно ясно, в чем эта интеллектуальность заключается на имеющемся сегодня уровне. Что это? Объем перерабатываемых данных?
Эти моменты указывают на то, что автор не задается вопросом о каузальности процессов глобальной эволюции того, что он считает интеллектом. По какой-то причине у автора это вообще не вызывает вопросов. Почему? Причина тут, как мне кажется, заключается в том, что иначе рассматриваемый вопрос сразу же транформируется в нечто, что обсуждать нет никакой возможности. Остановлюсь на этом подробно.
Взгляните на работу любой программы: там есть условные переходы, суть которых заключается в учете нового текущего состояния. Зависимость от этого состояния является стопроцентной (“если, то”). В этой точке проявляется стопроцентная непосредственная каузальность, если угодно. А теперь представьте себе программу, которая работаетнесколько иначе: если она в результате вычисления дает основание для изменения текущего состояния, то такое изменение может и не наступить, потому что над этим условием находятся другие условия, чей приоритет выше. Каузальность остается стопроцентной (а какой же она еще может быть?), но многоходовой, более условной. Таким образом можно программно реализовать принцип весового порога для изменения текущего состояния (осуществления условного перехода).
Но программа может быть какой угодно, в том числе и с ошибками. Для одного вида вычислений вес условного перехода может быть ниже, для другого - выше. Говоря бытовым языком и возвращаясь к психике, можно сказать, что кто-то чрезвычайно чувствителен к незначительным деталям в поступающих данных, но совершенно неспособен понять и отреагировать на существенный поток данных иного свойства.
В этой “бытовухе” есть фундаментальная закономерность, которая и есть суть глобальной эволюции интеллекта: более развитому интеллекту соответствует большая способность менять каузальные установки на более высоких уровнях (с большим количеством вложенных “если), нежели менее развитому. Например, примитивная нервная система, например, муравья, имеет сильно граниченное количество иерархических “если, то”, и они скорее выстроены в параллельную структуру, при этом ни добраться до своего “DOSа”, ни изменить функционально высшие по уровню (приоритету) “если, то”, у этой системы нет никаких шансов. Зато каузальность одноуровневых переходов у такой системы управления проста и надежна. У человека, же напротив, есть принципиальная возможность менять параметры условных переходов и на более высоких приоритетных уровнях, но это требует определенной организации программы и, видимо, дополнительных энергетических затрат.
Так вот, суть глобальной эволюции интеллекта имеет совершенно определенное в этих терминах выражение: вектор эволюции имеет направление ко все более полному учету потока входящих данных в правилах условных переходов на все более высоких каузальных (мотивационных) уровнях.
Как это вообще происходит? В сущности, довольно просто: система (любая), в рамках своей функциональности, моделирует окружающий мир. Так, или иначе - неважно, как. На любое возмущение система реагирует в соотвествии с той моделью, которая в данном случае ей доступна. Как ЦНС того же муравья. Примитивные модели - примитивные ответы, жесткая прямая связь. Качество (сложность) модели, которую в принципе способна создать система, зависит от количества ее воспроизводимых состояний и от способности установить между этими состояниями связи.
Здесь я прихожу к важному выводу: эволюция идет по нелинейному пути, создавая “рецепторы рецепторов”, обогащая таким образом комбинаторику воспроизводимых состояний. Еще раз: не за счет тупого наращивания объема цифровых вычислений, что в лушем случае привело бы к наращиванию параллельно выстроенных рецепторов по принципу ЦНС муравья, а за счет наращивания древовидной, фрактальной структуры управления, с неизменным увеличением чувствительности каждого последующего уровня к нижележащему.
Так вот, глобальная эволюция интеллекта - это параллельно идущие два процесса: увеличение фрактальности каузальности (мотивационности) с одновременным повышением чувствительности на всех уровнях.
Что такое повышение чувствительности? Это не какой-то специфический конструкционный процесс, для которого ИИ должен сам создавать детали, это усложнение функциональной модели мира. Если какая-то связь в модели установлена и проверена, то она и обладает высокой чувствительностью для условного перехода в случае, если поток данных синхронизируется именно с этой связью. Таким образом, модель мира должна быть: а) как можно более функционально полной, и б) как можно более консистентной.
Теперь можно вернуться к цитате из книги Джеймса Миллера. Функциональная полнота модели мира автора цитаты нарушена, что приводит к потери чувствительности к измененным собственным состояниям на определенном уровне. А именно, на уровне, после которого должно последовать существенное изменение в мотивационных установках высокого приоритета. Точно также как ЦНС муравья не в состоянии изменить структуру реакций на химические раздражители за счет изменения базовой функциональности, так и наш мозг не в состоянии повлиять произвольно на свою способность изменяться на уровнях, близких к базовым, с тем, чтобы изменить реакцию на нижележащих уровнях.
Если вернуться к языку программирования, то это можно описать как степень несовершенства программы, не позволяющей осуществлять коррекцию условных переходов на более высоких уровнях по причине программной “слепоты”, когда программа не снабжена средствами распознования условных состояний на более низких уровнях, вследствии чего они остаются неучтенными. Естественно, в реальных программах такого не может быть, разве что в виде глюка. Зато в реальных системах управления, в НС организмов, такое встречается спошь и рядом.
Действительно, для человеческой психики обсуждение эволюции интеллекта является сверхвызовом. Для того, чтобы такое обсуждение имело смысл адекватности модели мира, такая модель либо должна уже быть, либо формироваться тут же, в процессе формирования утверждений. Тогда каждый следующий шаг будет учитывать произошедшее изменение в самом наблюдателе, и это совершенно необходимое условие. Не в наших произвольных возможностях обеспечить такое условие (такова сущность нашей действительности - это большой отдельный вопрос), зато в наших возможностях заметить/констатировать невыполнение этого условия!
Но приведите мне пример хотя бы одного человека, кто это делает...
no subject
Date: 2014-10-20 01:05 pm (UTC)Почему? В СМД-методологии это базовый принцип :) - схема описывающая интеллект (мышление, понимание, рефлексию) должна быть "надета" на себя и использована как "усилитель" собственного интеллекта (или "интеллекта группы", что чаще). Иначе не считается :)
Впрочем, чаще был обратный порядок - представления и описания возникали из рефлексии собственной (групповой) деятельности, мышления и т.п.
no subject
Date: 2014-10-20 09:25 pm (UTC)no subject
Date: 2014-10-21 05:28 am (UTC)no subject
Date: 2014-10-21 10:56 am (UTC)no subject
Date: 2014-11-13 09:12 pm (UTC)Вот, интересный доклад попался.
Нижний предел миниатюризации многоклеточных животных (на материале мельчайших насекомых) задан функционалом нервной системы.
Алексей Полилов. Строение мельчайших насекомых (http://youtu.be/NAXFHeM9BM0)
no subject
Date: 2014-11-13 09:30 pm (UTC)