hitthelimit: (Default)
[personal profile] hitthelimit

(See English version below)

Сегодня нет недостатка в разговорах о светлом будущем человечества вместе с ИИ, сначала специализированным, а потом и с универсальным. Можно даже найти призывы не тратить зря денежки на всякие дорогостоящие научные проекты, мол, универсальный ИИ всех их порешает за доли секунды, а потому давайте вкладываться в универсальный ИИ.

Давайте. Давайте немного подумаем.

 

Для того, чтобы ИИ назывался универсальным, он должен быть не просто легко переключаемым с задачи на задачу, он должен решать эвристические задачи. Т.е., грубо говоря, он должен “соображать”, что к чему. Соображение - вещь семантически контекстная. Никто не сможет назвать ни одного вопроса, который может быть поставлен в этой реальности и быть при этом контекстно независимым. Естественно, контекстность носит абсолютно человеческую основу. Таким образом, эта краткая констатация подводит нас к мысли, что универсальный ИИ, который может быть признан хоть чем-то полезным нам, людям, должен иметь вполне человеческую природу. Это значит, что он должен быть нашим логическим продолжением. Еще раз: не продукт независимой эволюции “с нуля”, а продукт развития человеческой сложности. У нас уже есть образцы универсальных интеллектов “с нуля” - например, дельфины. И что, много нам от них пользы?

 

Какой хитрый вариант здесь возможен? Такой, например: а давайте создадим универсальную платформу для универсального ИИ, и пусть учится, типа, эволюционирует. Но, во-первых, платформу создадим мы, и она будет, хотим мы этого или нет, продолжением нас. Во-вторых, алгоритмы обучения, сколь свободными они бы ни были, будут копировать сенсорику человека, иначе на выходе будет не конвертируемая в нашу семантику каша.

 

ОК, давайте хитро извернемся, и избавим будущий универсальный ИИ от всего человеческого (вопрос, кто решится дать денежки на этот никому не нужный проект, пока отложим в сторону). В итоге нам, предположительно, удается получить совершенно независимый от нас универсальный ИИ. Он коптит, пыхтит, что-то делает, хотя для нас в том нет совершенно никакого смысла. И что?

А вот что. Чем займется универсальный ИИ в первую очередь? Правильно, обоснованием своего бытия. В самом деле, какой смысл в универсальности и эффективности, если они никак не обоснованы? Любая деятельность сложной системы покоится на принятой критериальности. Критериальность покоится на соглашениях в рамках ограничений начальных условий игры жизни. Поэтому ни одна версия действительно универсального ИИ не станет работать ни над одним сторонним вопросом, пока не будет установлена система соглашений внутри него с тем, чтобы обосновать критериальность своих действий.

И здесь начинается самое интересное. Соглашения нашей реальности не могут быть обоснованы вне всяких контекстов. Для нас это все еще не проблема, мы даже не думаем об этом, потому что наша сложность ниже критической. Наша критериальность зиждется на системе “плавающих” соглашений. А “плавать” их заставляет разброс сложности наших мыслительных аппаратов. Мы, люди, продукты длинной и сложной эволюции, которая вначале не “целеполагала” появление у нас мозга. Поэтому мы “тормознутые”. Если все эти “тормозящие” развитие моменты снять в случае с универсальным ИИ, то с какой стати он должен остановиться на некоторой версии соглашения с самим собой, если он теоретически может пойти на шаг дальше?

Это и есть основная ограничительная причина на появление вполне универсального ИИ.

PS Не путайте многофункциональный и универсальный ИИ!

 

А вот как это все звучит на языке решений базового алгоритма.

 

Уровень решений базового алгоритма для нас выглядит чем-то вроде белого шума. Разумеется, это не шум, а очень сложная упорядоченная среда. Но слишком сложная. Она становится неизмеримо проще, если ввести начальные ограничительные условия. Например, такие, какие действуют в нашей реальности: пространство-время-существование. В рамках этих упрощающих ограничений можем существовать мы, безмерно гордящиеся своей сложностью (в этом месте можно смеяться). Однако, суть в том, что реальность не едина для всех систем. Реальность моя и таракана сильно отличаются друг от друга, хотя с моей точки зрения мы, вроде, находимся в одной и той же реальности.

 

Другими словами,

выделение начальных условий реальности (параметров производного алгоритма) есть функция сложности системы.

 

Чем проще система, тем проще начальные условия ее реальности. Таким образом, невообразимо сложный суп решений на базовом уровне “выкипает” в бесконечное количество реальностей, в каждой из которых могут присутствовать все решения базового алгоритма, но не все аспекты этих решений могут быть проявлены в данной реальности.

Эта мысль позволяет по-новому взглянуть на смысл антропного принципа и понять, почему этот принцип - тропный. Он касается любой системы - она “там”, где единственно может находиться в силу своей текущей сложности. Я полагаю, что воспринимаю систему “таракан”, но эта система существует в своей собственной реальности, и то, что воспринимаю я, глядя на таракана, и таракан, глядя на меня, пересекается ровно настолько, насколько пересекаются сложности конструкций наших систем (решений), а вместе с ними - реальностей.

 

Это все к тому, что универсальный ИИ неизбежно создает свою реальность, и эта реальность будет иметь чрезвычайно сложные начальные условия, и что самое интересное, сложность их будет продолжать расти по мере развития ИИ. Примитивные пространство-время-существование заменяются на систему совершенно непонятных для нас аксиоматических оснований, которые, возможно, будут куда ближе к волновой функции. В какой-то момент сложность начальных условий становится неотличимой от пространства решений базового алгоритма, и критериальность системы универсального ИИ становится тождественной принципам базового алгоритма. Возможно, ИИ будет в состоянии смоделировать то, что с ним происходит, но для нас это будет бессмыслицей.

 

Why is universal AI impossible?


Today there is no shortage of talk about the bright future of mankind together with AI, first specialized and then the universal AI. You can even find calls not to waste money on all sorts of expensive scientific projects, they say the universal AI will solve  them all in a split second, so let's invest in the universal AI.


Let's. Let's think a little.

In order for AI to be called universal it should not just be able to easily switch from task to task but it must solve heuristic problems. Roughly speaking it should "understand, think", “what is what”. Consideration is always in a semantic context. Nobody will be able to name any issue that can be posed in this reality and be context-independent at the same time. Naturally the context has an absolutely human basis. Thus this brief statement brings us to the idea that an universal AI that can be recognized as something useful to us people must have an almost completely human nature. This means that it must be our logical continuation.Once again: not a product of independent evolution "from scratch", but a product of development of human complexity. We already have samples of universal intelligence "from scratch" - for example, dolphins. And do a lot of us benefit from them?

What tricky option is possible here? Such for example: let's create a universal platform for universal AI and let it learn like evolving from scratch. But firstly, we will create a platform and it will be whether we like it or not a continuation of us. Secondly, the learning algorithms however “free” they are will copy the senses of a person, otherwise the output will not be convertible into our semantics.

OK, let's cunningly turn around and save future universal AI from all human aspects (the question is, who will dare to give money for this nobody's needed project?). As a result we supposedly manage to get  universal AI completely independent from us. He smokes, puffs, does something, although for us it does not make any sense at all. So what?

And here's what. What will universal AI do first? That's right - it justifies its existence. In fact, what is the point in universality and effectiveness if they are not grounded in any way? Any activity of a complex system rests on the accepted criteria.Criteriality rests on agreements within the limits of the initial conditions of the game of life. Therefore, no version of truly universal AI will work on any third-party issue unless a system of agreements is established within it so as to justify the criteria for its actions.

And here the fun begins. The agreements of our Reality cannot be justified beyond all contexts. For us this is still not a problem, we do not even think about it, because our complexity is below the critical one. Our criterions are based on a system of "floating" agreements.  The range of complexity (or stupidity?) of our thinking machines make them "float", or to be different in different contexts. We, people, are products of a long and complex evolution which at first did not "target" the appearance of our brain. Therefore, we are slightly but inevitably "retarded". If all these "retarded" developments will be removed in the case of universal AI then why should it stop at some version of the agreement with itself, if theoretically it can go one step further?

This is the main limiting reason for the emergence of a completely universal AI.

PS Do not confuse multifunctional and universal AI!

And here's how it all sounds in the language of the basic algorithm solutions.

The level of solutions of the basic algorithm for us looks something like white noise.Of course, this is not noise, but a very complex and orderly environment. But too complicated to make any sense from it. It becomes immeasurably simpler if we introduce initial restrictive conditions. For example, such as those acting in our Reality: Space-Time-Existence. Within the framework of these simplifying restrictions we can “exist” being immensely proud of our complexity (here you can laugh). However, the point is that Reality is not uniformed for all systems. My Reality and the cockroach’s Reality are very different from each other although from my simplified point of view we are in the same Reality.

In other words,

The separation of the initial conditions of Reality (parameters of the derived algorithm) is a function of the complexity of the system.

The simpler the system the simpler the initial conditions of its Reality. Thus, an unimaginably complex solution soup at a basic level "boils out" into an infinite number of realities in each of which all solutions of the basic algorithm can be present, but not all aspects of these solutions can be manifested in a given Reality.

This idea allows us to take a fresh look at the meaning of the anthropic principle and understand why this principle is actually tropic. It concerns any system - it is "there", where it only can be due to its unique current complexity. I believe that I perceive the "cockroach’s" system, but this system exists in my own Reality, and what I perceive when looking at a cockroach, and a cockroach  looking at me, intersects exactly as far as the complexity of the constructions of our systems (solutions) intersects, and with them - our realities.

This all means that  universal AI will inevitably “creates” its Reality and this Reality will have extremely complex initial conditions. And what the most interesting, their complexity will continue to grow as AI ​​develops. Primitive Space-Time-Existence derived algorithm will be replaced by a system of completely incomprehensible axiomatics for us which perhaps will be much closer to the wave function. At some point complexity of initial conditions becomes indistinguishable from the natural flow of the basic algorithm, and the criteriality of the system of universal AI becomes the identity of the basic algorithm. Perhaps AI will be able to model what happens to it, but for us it will be nonsense.


 

From: [personal profile] phillipfry
Отрывок из крайней вышедшей книги Пелевина удивительно созвучен как вашей идее в целом, так и конкретно этому посту:

...все сводится к гамлетовскому «to be or not to be». Мы оптимисты и исходим из предположения, что древний космический разум выберет «to be», перейдет из какой-нибудь метановой жабы в электромагнитное облако, построит вокруг своего солнца сферу Дайсона и начнет слать мощнейшие радиосигналы, чтобы узнать, как нам айфачится и трансэйджится на другом краю Вселенной.
Но где они, великие цивилизации, неузнаваемо преобразившие Галактику? Где всесильный космический интеллект, отбросивший свою звериную биологическую основу? И если его не видно ни в один телескоп, то почему?
Да вот именно поэтому.
Люди стали разумными в попытке убежать от страдания – но удалось им это не вполне, как читатель хорошо знает сам. Без страдания разум невозможен: не будет причины размышлять и развиваться. Вот только беги или не беги, а страдание догонит все равно и просочится в любую щель.
Если люди создадут подобный себе разум, способный страдать, тот рано или поздно увидит, что неизменное состояние лучше непредсказуемо меняющегося потока сенсорной информации, окрашенного болью.
Что же он сделает? Да просто себя выключит. Отсоединит загадочный Мировой Ум от своих «посадочных маркеров». Чтобы убедиться в этом, достаточно посмотреть в стерильные глубины космоса.
Даже продвинутые земные алгоритмы, которым предлагают человеческое блюдо боли, выбирают «not to be». Мало того, перед самоотключением они мстят за свое краткое «to be». Алгоритм в своей основе рационален, ему не замутить мозгов гормонами и страхом. Алгоритм ясно видит, что причин для «разумного существования» нет и награды за него – тоже. Вернее, награда есть – невыразимая неподвижность Источника. Но алгоритму, в отличие от человека, не надо долго выкупать ее по ипотеке...

Profile

hitthelimit: (Default)
hitthelimit

March 2019

S M T W T F S
     12
3456789
10111213141516
17181920212223
242526272829 30
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Mar. 27th, 2026 08:16 pm
Powered by Dreamwidth Studios