Контраргумент Пенроузу.
Jun. 8th, 2013 10:08 pm![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Р.Пенроуз придерживается взгляда на принципиальную неалгоритмичность основ работы мышления. Одним из аргументов в пользу такой точки зрения является принципиальная невычислимость ряда математических задач, с которыми наше мышление, тем не менее, может как-то справиться (например, покрытие плоскости плитками полиомино).
Другим обстоятельством, заставляющим Пенроуза придерживаться неалгоритмической гипотезы мышления, являются доказательства Геделя. В самом деле, если наше мышление алгоритмизировано до самого своего основания, то к нему приложимы выводы Геделя, что автоматически ограничивает мышление (делает его «механизм неполным»), и мы не могли бы наблюдать случаев решения нами неалгоритмизируемых задач.
Согласно сложности по Колмогорову, максимальное количество алгоритмической информации заключено в алгоритмически случайной последовательности.
Тогда, прямое понимание, «схватывание» решения неалгоритмизируемой задачи выглядит совершенно эзотерическим актом, так как совпадение решения мышлением с фактически правильным решением реальной проблемы требует конкретного механизма, и простое совпадение выглядит совершенно невероятным, хотя и математически отличным от нуля, но не в тех статичтических пропорциях, которые мы имеем в реальности. Никакие массивы микротрубочек, находящиеся в когерентных состояниях не могут обеспечить совпадение «просто так». Фактически, нет смысла говорить о конкретном механизме, пока не будет предложена гипотеза функционального обеспечения неалгоритмического решения.
Я предполагаю следующее.
Математический формализм, алгоритмизация, доказательства — все это относится к феноменальной части реальности. Однако, программа Гильберта провалилась, что можно ассоциировать с принципиальными изъянами в математике (на фоне целостной реальности). Мы никак не можем усилить аксиоматическую мощность математики с тем, чтобы она без проблем моделировала реальность — и это уже доказано. Это обстоятельство должно было бы заставить серьезно усомниться в адекватности аксиоматических наборов, используемых в математике. В чем проблема?
Проблема заключается в том, что доказательство Геделя срабатывает на нас, как формальных системах, продуцирующих другие формальные системы (математику). В результате получаем уникальный феномен, когда наши аксиомы не являются нашими. Наши аксиомы, по существу, являются теоремами на базе недоступной для нас аксиоматики, лежащей за пределами нашей феноменальной реальности. Это полностью согласуется с идеей некаузальности феноменальной реальности.
Далее разгадка поблем вычислимости и прочих становится тривиальной. Для математики мы используем не аксиомы, а теоремы, причем — не доказанные формально. Поэтому математика и столкнулась с крахом программы Гильберта. Но в то же самое время мышление, мозг, пользуется вычислением на базе не заявленных аксиом, аксиоматики, недоступной к отчетности в этой реальности, но задающей правила вычисления отличные, от созданных нами для математики.
Именно поэтому мы можем схватывать неалгоритмические (принципиально неалгоритмические!) решения реальных задач, так как они отражают соотношения феноменальной реальности, целостной и алгоритмически разрешимой за пределами доказательства Геделя. Доказательства Геделя имеют смысл только в математике каузальной реальности. Соотношения элементов, правила операций, последовательности — это все неявные аттрибуты каузальности. И это заканчивается на наборах аксиом, на которых построена математика, но все начинается значительно раньше!
Другим обстоятельством, заставляющим Пенроуза придерживаться неалгоритмической гипотезы мышления, являются доказательства Геделя. В самом деле, если наше мышление алгоритмизировано до самого своего основания, то к нему приложимы выводы Геделя, что автоматически ограничивает мышление (делает его «механизм неполным»), и мы не могли бы наблюдать случаев решения нами неалгоритмизируемых задач.
Согласно сложности по Колмогорову, максимальное количество алгоритмической информации заключено в алгоритмически случайной последовательности.
Тогда, прямое понимание, «схватывание» решения неалгоритмизируемой задачи выглядит совершенно эзотерическим актом, так как совпадение решения мышлением с фактически правильным решением реальной проблемы требует конкретного механизма, и простое совпадение выглядит совершенно невероятным, хотя и математически отличным от нуля, но не в тех статичтических пропорциях, которые мы имеем в реальности. Никакие массивы микротрубочек, находящиеся в когерентных состояниях не могут обеспечить совпадение «просто так». Фактически, нет смысла говорить о конкретном механизме, пока не будет предложена гипотеза функционального обеспечения неалгоритмического решения.
Я предполагаю следующее.
Математический формализм, алгоритмизация, доказательства — все это относится к феноменальной части реальности. Однако, программа Гильберта провалилась, что можно ассоциировать с принципиальными изъянами в математике (на фоне целостной реальности). Мы никак не можем усилить аксиоматическую мощность математики с тем, чтобы она без проблем моделировала реальность — и это уже доказано. Это обстоятельство должно было бы заставить серьезно усомниться в адекватности аксиоматических наборов, используемых в математике. В чем проблема?
Проблема заключается в том, что доказательство Геделя срабатывает на нас, как формальных системах, продуцирующих другие формальные системы (математику). В результате получаем уникальный феномен, когда наши аксиомы не являются нашими. Наши аксиомы, по существу, являются теоремами на базе недоступной для нас аксиоматики, лежащей за пределами нашей феноменальной реальности. Это полностью согласуется с идеей некаузальности феноменальной реальности.
Далее разгадка поблем вычислимости и прочих становится тривиальной. Для математики мы используем не аксиомы, а теоремы, причем — не доказанные формально. Поэтому математика и столкнулась с крахом программы Гильберта. Но в то же самое время мышление, мозг, пользуется вычислением на базе не заявленных аксиом, аксиоматики, недоступной к отчетности в этой реальности, но задающей правила вычисления отличные, от созданных нами для математики.
Именно поэтому мы можем схватывать неалгоритмические (принципиально неалгоритмические!) решения реальных задач, так как они отражают соотношения феноменальной реальности, целостной и алгоритмически разрешимой за пределами доказательства Геделя. Доказательства Геделя имеют смысл только в математике каузальной реальности. Соотношения элементов, правила операций, последовательности — это все неявные аттрибуты каузальности. И это заканчивается на наборах аксиом, на которых построена математика, но все начинается значительно раньше!
no subject
Date: 2013-06-11 11:49 pm (UTC)Если бы мы имели такой закон, как например, имеем закон тяготения, либо хотя бы были уверены, что таковой существует, то мы бы могли сказать, что то, что выглядит совершенно случайным и (при данных условиях) имеющим близкую к нулю вероятность, на самом деле является закономерным, то есть имеет вероятность, близкую к единице. Так, случайное прохождение Землёй траектории своей солнечной орбиты совершенно невероятно, но учитывая закон тяготения - оно совершенно необходимо.
Вам кажется совершенно невероятным решение человеком неалгоритмических задач, однако, это было бы так только в том случае, если бы мышление человека полностью соответствовало работе алгоритмической машины. Очевидно, что никакая алгоритмическая машина, со "скрытыми параметрами" или без, решать неалгоритмические задачи не способна по-определению. Из этого (вместе с примерами решения подобных задач) прямо следует, что человек - не алгоритмическая машина. Хотя о механизме работы мозга в данном случае нам ничего не известно. Представьте, что есть эмпирический закон, подобный ньютоновскому, согласно которому человек за время t способен разрешить в среднем n подобных задач, но мы не знаем ничего о природе такой "гравитации".
no subject
Date: 2013-06-12 12:35 am (UTC)Имейте, что вам мешает? В основе работы высшей нервной системы лежит механизм самообучающегося автомата, динамическая открытая неустойчивая система. Этих данных достаточно для модели, адекватно описывающей все, касающееся мышления в интересующей нас сфере.
Отбор результатов обучения идет на основе статистичекой обработки результатов решения и закрепления оптимального. Далее он используется как элемент харда, т.е. никакого процессирования-решения вообще не происходит. (Сильно рекомендую книгу Who's in Charge?
by Michael S. Gazzaniga — много вопросов отпадает сразу).
Следующий уровень — уровень отсутствия заготовок для новых ситуаций. Именно этот уровень нас и интересует.
Сначала идет поиск заготовок по функциональным модулям, неудача, далее связь между модулями — усложнение первого уровня, неудача, далее внутреннее отражение наиболее значимых результатов — усложнение второго уровня, неудача, разбор полетов. Все абсолютно прозрачно. И где-то в этой какофонии неудач вдруг всплывает решение, алгоритмическое расписание которого тянет на дисер. Каким образом?
Говоря о задаче узнавания лиц, измененных временем, так и хочется отказаться от алгоритмичности в поиске. Мы, однако, не хотим принять в расчет следующее жесткое обстоятельство: начиная с классических данных об образовании нервного импульса, и далее, имея в виду четкие механизмы передачи сигналов через синапсы, учитывая всю химию и электронику —мы должны констатировать, что в основе организации нервной ткани лежат совершенно жесткие принципы, алгоритмизации которых не мешает абсолютно ничего.
Далее мы имеем дело с классическим усложнением системы, эмерджентизмом.
Вопрос выкипает к следующему:
Готовы ли мы согласиться на несводимость свойств большего к свойствам частей, или мы остаемся на научной платформе и редуцируем весь путь от эффектов высших уровней к базовой формальной основе функционирования системы? Вот с чего надо начинать, но мы с вами, кажется, уже начинали :)
В зависимости от вашего ответа на этот вопрос мы или продолжаем искать решение, или останавливаемся.