hitthelimit: (Default)
hitthelimit ([personal profile] hitthelimit) wrote2017-12-26 10:03 am

Как это работает (ENG)

 Я продолжаю исследование гипотезы непарадоксального мировоззрения, сводя вместе все свободные концы.

Сейчас меня интересует сама суть динамики решений базового алгоритма, приводящая к известной нам реальности.


Можно выдвинуть последовательность простых взаимосвязанных умозаключений, в которых нет (предположительно) ни абсолютной парадоксальности, ни противоречий с другими умозаключениями.


1. В последовательности решений базового алгоритма выделяются более и менее долгоживущие группы решений, в соответствии со списком их системообразующих параметров.


Комментарий.

Скорость исчезновения наборов решений зависит от множества факторов. В частности, от выбора списка системообразующих факторов. Например, система “человек” в статистически существует значительно дольше, чем система “человек в черных перчатках”.


2. При прочих равных условиях более длительно живущая система решений подвергается большему количеству воздействий результатов текущих решений и демонстрирует лучшую сопротивляемость их дестабилизирующему влиянию на себя.


Комментарий.

Данное утверждение говорит о том, что наборы решений подвергаются естественному отбору.


3. В качестве основополагающего параметра естественного отбора я рассматриваю принцип минимального действия.


Комментарий.

Именно он в состоянии сохранить список системообразующих параметров неизменным. В первую очередь, в связи с тем, что в основе моего рассмотрения лежит чистая математика, а не субстанция, я бы обратился к мощности необходимых вычислений для группы решений с тем, чтобы поддерживать свой системообразующий список неизменным в течении некоторого времени в условиях внешнего воздействия на группу решений.


4. Мощность необходимых вычислений в пределе стремится к частоте решения алгоритма, т.е., к максимуму.


Комментарий.

Этот тот случай, когда лучшая карта местности - сама местность.

Однако, сложность системы (набора решений) (в моей трактовке) не обеспечивается полной тождественностью набора решений самому процессу решений, сложность начинает возникать тогда, когда набор решений в состоянии поддерживать свой списочный системообразующий перечень.

В случае же тождественности набора решений самому процессу их появления нет возможности указать в списке параметр постоянства, а значит, и сложности.

Таким образом, появляется естественное требование к алгоритму иметь в себе возможность к:


5. Формированию производных алгоритмов - фильтров соглашения.


Комментарий.

В качестве примера я обращаюсь к уже хорошо обкатанной схеме появления шестигранных структур (в принципе - к интерференции вообще) при взаимном наложении двух плоскостей с регулярными отверстиями. Появляющиеся шестигранники являются отличным примером фильтра соглашения. Что он делает?


6. Фильтр соглашения выступает в качестве hardware для упрощения процесса вычисления (моделирования) в группе решений для собственной стабилизации.


Комментарий.

Таким образом, фильтры соглашения уменьшают частоту решений при моделировании, на основе того, что в них уже заключен некий принцип высокочастотного (а значит, затратного по мощности) расчета.


7. Таким образом, фильтры соглашения выступают в качестве необходимого элемента в глобальной эволюции сложности.


Итоговый комментарий


Фильтры соглашения позволяют более простым системам (наборам решений) быть более “долгоиграющими”. Они обеспечивают им то, что я называю сложностью. Воспроизвести то же самое состоянии возможно только на основе фильтра соглашения, так как сам фильтр соглашения уже сводит в одну группу набор состояний, иначе бывших различными. Фильтр соглашения ответственен за появление в человеческой психики принципа соглашения вообще и принципа эмерджентности в частности. В примере выше с шестигранными структурами можно представить себе мир шестригранников, оперирующих шестигранностью как данностью, т.е. живущих в “реальности” шестигранников, в которой “шестригранность” является данностью соглашения для шестригранников. Это избавляет их от необходимости всякий раз производить очень сложные вычисления появления шестригранности, эти вычисления уже заключены в шестигранном фильтре соглашения. Это позволяет им сохранять свою структуру при том, что они могут быть более простыми конструкциями. Так обеспечивается отбор сложности в глобальной эволюции сложности.


Таким образом, я обнаружил принцип эволюции сложности, который позволяет более простым по конструкции наборам решений создавать все более сложные модели процессов без отрыва от адекватности моделируемому. Да, в связи с простотой конструкций-наборов-систем они не могут моделировать процесс-создатель самих фильтров соглашения, однако, по мере роста их сложности, это становится все более вероятно. Все упирается в качество модели и поддерживаемую конструкцией мощность математических расчетов.

Так, к примеру, человек пользуется дифференциальным исчислением для точных расчетов при том, что его (физические) конструктивные особенности не поддерживают столь высокую мощность необходимых прямых вычислений. Это означает, что фильтр соглашения, лежащий в основе нашей реальности, включает в себя адекватную модель, позволяющую провести эти расчеты с меньшими затратами вычислительной мощности.


Все это подводит к созданию грандиозной картины глобальной эволюции, в которой предельная сложность достигается за счет адекватного моделирования на базе фильтров соглашения простыми системами.


Этот постулат можно считать исходным в обосновании психогенной сингулярности.


Еще раз обратимся к моделированию. Оно позволяет системе построить свой ответ на воздействие таким образом, чтобы продлить свое существование. Это достигается переходом системы в одно из воспроизводимых ею состояний, что, в частности, демонстрирует ее сложность. Чем больше состояний способна воспроизвести система, тем изощреннее ее модели и тем она стабильнее при прочих равных условиях. Моделирование в конечном счете основано на фильтрах соглашения.

С другой стороны, фильтры соглашения - это система упрощения “бытия” системы решений. Если система вовлечена в процесс глобальной эволюции сложности, значит, рано или поздно она может преодолеть ограничение фильтров соглашения. Это может означать одно из двух: либо система начинает демонстрировать способность к вычислениям большей мощности, либо она начинает пользоваться более изощренными моделями, которые (частично) включают в себя принцип работы фильтров соглашения.


Детерминантная база наборов решений


Зададимся вопросом: а что движет набором решений в его активности вообще? Если мир не является актуально-субстанциональным, если в нем нет места волящим акторам, то в нем нет места и собственным мотивациям. Это означает, что программа по поиску источника движения набора решений вполне уместна. Нам известен только один источник активности: это принцип решения базового алгоритма. Этот принцип вполне определенный для нашей реальности, он не дает неопределенного разброса решений. Подтверждением тому - мировые физические константы.

Зададимся следующим вопросом: существуют ли такие условия, когда принцип решения базового алгоритма может быть “выключен”?

То, что этот принцип имеет ограничения, очевидно. Например, скорость света ограничена. Значит, в ходе своей реализации принцип решения может создавать для себя ограничения. А может ли он создать для себя условия “зависания”?


Оказывается, в этом вопросе есть ловушка. Следует помнить, что субъективная реальность принадлежит одному-единственному набору решений, не бывает “коллективной” субъективной реальности. Значит, “наш” список системообразующих факторов не имеет (может не иметь) ничего общего с собственным списком другой системы. То, что может выглядеть “зависанием” для нас, может не быть таковым для задействованной системы. Это правильно, так как вопрос о зависании ставится в терминах феноменальной реальности, а само “зависание” оперирует феноменами, выходящими за пределы реальности.

Поэтому вопрос, как минимум, следует переформулировать. Например, может ли система в условиях собственной психогенной сингулярности функционировать в реальности, и если да, то как?


Как это работает (функциональное обоснование психогенной сингулярности)


Для ответа на этот вопрос надо очень хорошо разобраться, как работают модели в системах. Выше я выяснил, что модель устанавливает некоторое состояние в системе в ответ на внешнее воздействие (поток решений алгоритма) так, чтобы ответ был максимально оптимальным. Это значит, чтобы списочный перечень системных факторов сохранился (другими словами, чтобы сохранился некий гомеостаз системы). К примеру, если животное чувствует угрожающий запах, его система воспроизводит состояние, приводящее к выбросу адреналина, ну и так далее. Теперь представим, что у этого животного запустился высший модельный уровень, воспроизводящий фильтр соглашения. Тогда воздействие должно практически обнулиться, так как его смысл был бы полностью отражен моделью¹. Это значит, что в системе не последует воспроизведение состояния поддержания гомеостаза (выброс адреналина) для данного конкретного случая. Система “отключится” в плане активности. Это и будет выглядеть как зависание для наблюдателя в схожей реальности.


¹ Для тех, кто не понял. Возвратимся к примеру с угрожающим запахом для животного. Восприятие запаха в природе модельно не разлагается на составляющие, для этого вычислительная мощность мозга животного недостаточна, равно как и его конструкция не соответствует этой задаче. Но представим, что такая задача системе по плечу. Тогда в процессе вычисления (поиска адекватной модели) система установит, что запах основан на фильтре соглашения, порождающем пространство, время, существование, далее, эмерджентным способом, на более высоких фильтрах соглашения, - фиктивную значимость животного, основы его инстинкта самосохранения, реакции сохранения гомеостаза его системы и прочая и прочая. В итоге будет достигнута активность модели, которая не в состоянии организовать активный ответ системы на воздействие. Система зависнет в бездействии. Фактически, она из него уже не в состоянии выйти, если только не будет принудительно понижена модельная эффективность такого набора решений (аналог лоботомии). Здесь возможны различные сценарии, но ни один не преодолевает великий фильтр.


-----------------------------------------------------------------------

How it works


I continue to study the hypothesis of a non-paradoxical world view bringing together all the loose ends.

Now I am interested in the very essence of the dynamics of solutions of the basic algorithm leading to the reality we know.


One can propose a sequence of simple interconnected conclusions in which there is (supposedly) neither absolute paradox nor contradictions with other conclusions.


1. In a sequence of solutions of the basic algorithm, more and less long-lived groups of solutions are allocated, in accordance with the list of their system-forming parameters.


A comment.

The speed of the disappearance of sets of solutions depends on many factors. In particular on the choice of the list of system-forming factors. For example the system "person"  statistically exists much longer than the system "man in black gloves."


2. Other things being equal, a longer-lived solutions (systems) are exposed to more impacts of solutions and demonstrates better resilience to their destabilizing influence on themselves.


A comment.

This statement suggests that the solution sets are subject to natural selection.


3. As the basic parameter of natural selection I consider the principle of minimal action.


A comment.

It is it that is able to keep the list of backbone parameters unchanged. First of all, in connection with the fact that the basis of my consideration is pure mathematics and not substance, I would turn to the power of the necessary calculations for a group of solutions in order to maintain their system-forming list unchanged for some time under conditions of external influence of groups of other solutions.


4. The power of the necessary computations in the limit tends to the frequency of solving the algorithm, that is, to the maximum.


A comment.

This is the case when the best map of the locality is the terrain itself.

However, the complexity of a system (a set of solutions) (in my interpretation) is not ensured by the complete identity of a set of solutions to the solution process itself, complexity begins to arise when a set of solutions is able to maintain its system-forming list.

In the case of the identity of a set of solutions the very process of their appearance is not possible to indicate in the list the constant parameter, and hence, of complexity.

Thus there is a natural requirement for the algorithm to have the ability to:


5. Formation of derivative algorithms - agreement filters.


A comment.

As an example, I refer to the already well-developed scheme for the appearance of hexagonal structures (in principle - to interference in general) when two planes with regular holes are superimposed. Emerging hexahedrons are an excellent example of an agreement filter. What does it do?


6. The agreement filter acts as a hardware to simplify the calculation (modeling) process in a solution group for its own stabilization.


A comment.

Thus the agreement filters reduce the frequency of solutions in the modeling, based on the fact that they already have a certain principle of high-frequency (and therefore costly in terms of power) calculation.


7. Thus, the agreement filters act as a necessary element in the global evolution of complexity.


Final commentary


The agreement filters allow more simple systems (sets of solutions) to be more "long-playing". They provide them with what I call complexity. To reproduce the same state is possible only based on the agreement filter, since the filter of the agreement itself already brings a set of states into one group, otherwise they were different. The agreement filter is responsible for the appearance in the human psyche of the principle of agreement in general and the emergence principle in particular. In the example above with hexagonal structures, it is possible to imagine a world of hexagons, operating with hexahedral as a given, i.e. living in the "reality" of hexagons, in which "hexahedral" is a given agreement for hexagons. This eliminates the need for them to produce very complex calculations of the appearance of hexahedral each time, these calculations are already enclosed in the hexagonal filter of the agreement. This allows them to maintain their structure while they can be of simpler construction. This ensures selection of complexity in the global evolution of complexity.


Thus, I discovered the principle of complexity evolution which allows for simpler sets of solutions to create increasingly complex  models of processes without detachment from the adequacy of the modeled substrate. Yes, due to the simplicity of the sets of solutions they can not model the process creating the agreement filters themselves, however, as their complexity grows, this becomes more and more likely. Everything depends on the quality of the model and the power of mathematical calculations supported by the design of a system.

So, for example, we use a differential calculus for accurate calculations while our (physical) design doesn’t support such a high power of the necessary direct calculations. This means that the agreement filter that underlies our reality includes an adequate model that allows these calculations to be carried out with less processing power.


All this leads to the creation of a grandiose picture of the global evolution, in which the extreme complexity is achieved through the adequate modeling of filter-based agreements by simple systems.


This postulate can be considered as the starting point in substantiating the psychogenic singularity.


Once again we turn to modeling. It allows a system to build its response to the impact in such a way as to prolong its existence. This is achieved by the transition of the system into one of the reproduced states, which, in particular, demonstrates its complexity. The more states a system can reproduce, the more sophisticated its model is and the more stable it is, with other things being equal. The creation of models is ultimately based on agreement filters.

On the other hand, agreement filters is a set for simplifying the "being" of a system. If a system is involved in the process of global complexity evolution, then sooner or later it can overcome the restriction of the agreement filters. This can mean one of two things: either the system begins to demonstrate the ability to calculate with more power, or it begins to use more sophisticated models that (in part) include the rules of operation of the agreement filters.


The deterministic basis of the sets of solutions


Let's ask ourselves: what moves a set of solutions (a system) in it’s activity in general? If the world is not actual-substantial, if there is no place for the willful actors, then there is no place for it in its own motivations. This means that the program for finding the source of motion of a set of solutions is quite appropriate. We know only one source of activity: this is the principle of solving the basic algorithm. This principle is quite certain for our reality, it does not give an uncertain range of solutions. This is confirmed by world physical constants.

Let's ask the following question: are there such conditions when the principle of solving the basic algorithm can be disabled?

The fact that this principle has limitations is obvious. For example, the speed of light is limited. Hence, in the course of its implementation, the principle of solution (basic algorithm) can create limitations for itself. And can it create for itself the conditions of "freezing"?


It turns out that there is a trap in this question. It should be remembered that subjective reality belongs to a single set of solutions (to one listed system only), there is no "collective" subjective reality. Hence "our" list of backbone factors does not (may not) have anything to do with its own list of another system. What might look like a "freeze" for us, may not be so for the system involved. This is correct, since the question of freezing is put in terms of phenomenal reality, and the very "freezing" operates with phenomena that go beyond reality.

Therefore the question at least should be reformulated. For example, can the system under conditions of its own psychogenic singularity function in reality and if so, then how?


How it works (functional rationale for psychogenic singularity)


To answer this question, we need to understand very well how models work in systems. Above I found out that a model establishes some state in a system in response to an external influence (the flow of the algorithm's solutions) so that the answer is maximally optimal. This means that a list of system factors is preserved (in other words, to preserve a certain homeostasis of a system). For example, if an animal feels a threatening smell, its system reproduces the state leading to the release of adrenaline, and so on. Now imagine that this animal has launched the highest model level, reproducing the filter agreement. Then the impact should almost be zero, since its meaning would be fully reflected by the model¹. This means that the system does not follow the reproduction of the state of maintenance of homeostasis (adrenaline rush) for this particular case. The system "disconnects" in terms of activity. This will look like a freezing for an observer in a similar reality.


¹ For those who do not understand. Let's return to the example with a menacing odor for the animal. The perception of the odor in nature is not modeled in terms of components, for this the computational power of the animal's brain is inadequate, just as its construction does not correspond to this task. But let's imagine that such a task is possible for the system. Then in the process of calculating (finding an adequate model) the system will establish that the smell is based on an agreement filter that generates space, time, existence, further, in an emergent way, on higher agreement filters, the fictitious significance of the animal, the basis of its self-preservation instinct, the homeostasis preservation response and so on and so forth. As a result, the activity of the model will be achieved, which is unable to organize an active response of the system to the impact. The system will freeze in inactivity. In fact, it is no longer able to get out of it, unless the model efficiency of such a set of solutions is compulsorily lowered (analogous to lobotomy). Different scenarios are possible here but no one overcomes the Great Filter.



Post a comment in response:

This account has disabled anonymous posting.
If you don't have an account you can create one now.
HTML doesn't work in the subject.
More info about formatting