![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Методологический принцип минимальности имеет смысл только в ограниченном контексте соглашения о существовании объяснения. Если мы пришли к соглашению, что феномен объясняется двумя и более наборами аргументов, то в качестве более целесообразного следует выбрать тот, который использует меньшее количество аргументов. Ключевым словом здесь является «объясняется».
Я заметил, что этот момент упускается критиками новейших гипотез в космологии и КМ, в частности: антропный принцип, гипотеза Мультиверса, многомировая интерпретация КМ, множественность возможных миров как следствие многообразия Калаби — Яу в струнных теориях. Эта критика, по-существу, разделяет научный мир на два лагеря, как мне кажется: на тех, кто надеется дать научное объяснение и обоснование генезиса именно нашей действительности, и тех, кто полагает, что нашей действительностью реальность не ограничивается.
Этот спор имеет явно выраженный философский аспект, адресуясь к методологии онтологического уровня. С одной стороны, кажется, что «лишние сущности» действительно умножаются. Но давайте задумаемся о том, что может значить Бритва Оккама на уровне гипотез, посягающих на проверку достоверности нашей аксиоматики. Отрезание «лишнего» до того, как что-либо получило научно-достоверное подтверждение, может привести к сужению поля эвристического поиска. Вторым аспектом опасности бритвы в фундаментальных вопросах является то обстоятельство, что минимизируя варианты аксиоматических наборов, мы тяготеем к «единственной абсолютной истине», что можно рассматривать как абсолютный антипод «умножению сущностей».
Таким образом, я делаю заключение, что принцип Бритвы Оккама не применим в области уточнения аксиоматических оснований мировоззрения в науке, где он может играть реакционную роль.
В качестве простого примера я предлагаю к рассмотрению классический "вечный" вопрос «Почему Я?». Со всей исчерпывающей очевидностью ответ на него только один: как частное следствие антропного принципа, нравится вам или нет. Альтернатива этому ответу — только теистическая.
no subject
Date: 2013-09-05 08:03 pm (UTC)Представьте себе картинку работы мозга. С одной стороны, есть внешний мир - некий алгоритм, который создает входные сигналы для мозга. С другой стороны, есть мозг, основная задача которого состоит в том, чтобы построить функцию, интерполирующую входные сигналы. Функция должна быть максимально компактной. Чем компактнее функция, тем с большей вероятностью она предсказывает поведения внешнего мира в ситуациях, с которыми мозг еще не сталкивался (это следует из того, что возможных компактных алгоритмов меньше, чем возможных больших).
Другими словами, задача мозга состоит в том, чтобы воспроизвести (интерполировать) внешний алгоритм.
Правда, на самом деле все не совсем так. Мозг в первую очередь воспроизводит аспекты внешнего алгоритма, которые важны для его выживания. Так делает голодный и примитивный мозг. Предположительно, сытый и продвинутый мозг может интерполировать действительность более беспристрастно - интерполяция ради интерполяции.
Тут у меня возникает два вопроса:
1. Если контекст выживания полностью исключен, возможна ли вообще интерполяция?
2. Если мозг только интерполятор, тогда не являются ли все сверх-идеи пустой демагогией?
Исходя из принципа простоты ответ на эти вопросы будет "нет" и "да".
Смущает первая подпорка мира.
no subject
Date: 2013-09-06 01:25 am (UTC)Например, что из себя представляет феноменальная сложность алгоритмической развертки (что есть суть эмерджентности)? Должна ли она быть обязательно подлежащей полной редукции до исходных кодов, и иметь, таким образом, абсолютно виртуальный статус, или есть основание для утверждения о редукционной несводимости феноменальной сложности? Этот вопрос является также вызовом со стороны парадокса марионетки и практическим применением рассуждений Пенроуза о невычислимости сознания.
Если феноменальная сложность виртуальна, то это значит, что в исходнике (формуле «всего») заложены ВСЕ принципы сложности, обнаруживаемые нами при формализации феноменальных систем (в частности, должна быть выводима ВСЯ математика), и не очевидно, что так оно и есть. Либо выводимость реализуется через методологию, которая нам, как феноменальным системам, (пока) недоступна. Тогда возникает еще более интересный вопрос: предусматривает ли наша глобальная эволюция такую стадию сложности, которая могла бы смоделировать пути выводимости ВСЕЙ феноменальной сложности.
Для рассуждений в рамках вопросов такого рода приходится полностью сменить экзистенциальную парадигму, исключив из набора аксиом феноменальность вообще, и только вводить ее по мере глобальной эволюции алгоритма как теорему, требующую доказательства.
Вот это действительно вопрос, настоящий вызов.
no subject
Date: 2013-09-08 07:58 pm (UTC)Еще пару слов в контексте этой модели.
Представьте некую несложную программу. Это будет "мир". Представьте, что другая программа (субъект) подключена к выходам этого алгоритма. Задача программы - научиться воспроизводить самостоятельно то, что она наблюдает на входах. Здесь мы не имеем ничего интересного. Программа-субъект просто станет копией программы-мира.
А программа-мир проста.
Теперь представьте, что имеется еще одна программа, которая оценивает эффективность действий программы-субъекта. Задача программы субъекта - достичь максимума эффективности.
Для этого программа-субъект должна в себе как минимум воспроизводить программу-мир и программу-оценщика. Но этого недостаточно. Она должна еще воспроизвести некий потенциально возможный алгоритм оптимального поведения.
А этот алгоритм может оказаться гораздо сложнее алгоритма-мира и алгоритма-оценщика. Таким образом, мы получаем повышение уровня организации всей системы.
Дальше, мир, отраженный в этой системе и выраженный в ее терминах обретает ту сложность, о которой говорят вводя понятие эмерджентности. Такова моя модель порождения сложности. Причем усвоена она в основном от вас же.
Минус этой модели - слишком высокоуровневая база понятий.
Перейти ниже я могу, но пробелы в схеме всегда остаются.