hitthelimit: (Default)
[personal profile] hitthelimit
Р.Пенроуз придерживается взгляда на принципиальную неалгоритмичность основ работы мышления. Одним из аргументов в пользу такой точки зрения является принципиальная невычислимость ряда математических задач, с которыми наше мышление, тем не менее, может как-то справиться (например, покрытие плоскости плитками полиомино).

Другим обстоятельством, заставляющим Пенроуза придерживаться неалгоритмической гипотезы мышления, являются доказательства Геделя. В самом деле, если наше мышление алгоритмизировано до самого своего основания, то к нему приложимы выводы Геделя, что автоматически ограничивает мышление (делает его «механизм неполным»), и мы не могли бы наблюдать случаев решения нами неалгоритмизируемых задач.

Согласно сложности по Колмогорову, максимальное количество алгоритмической информации заключено в алгоритмически случайной последовательности.

Тогда, прямое понимание, «схватывание» решения неалгоритмизируемой задачи выглядит совершенно эзотерическим актом, так как совпадение решения мышлением с фактически правильным решением реальной проблемы требует конкретного механизма, и простое совпадение выглядит совершенно невероятным, хотя и математически отличным от нуля, но не в тех статичтических пропорциях, которые мы имеем в реальности. Никакие массивы микротрубочек, находящиеся в когерентных состояниях не могут обеспечить совпадение «просто так». Фактически, нет смысла говорить о конкретном механизме, пока не будет предложена гипотеза функционального обеспечения неалгоритмического решения.

Я предполагаю следующее.

Математический формализм, алгоритмизация, доказательства — все это относится к феноменальной части реальности. Однако, программа Гильберта провалилась, что можно ассоциировать с принципиальными изъянами в математике (на фоне целостной реальности). Мы никак не можем усилить аксиоматическую мощность математики с тем, чтобы она без проблем моделировала реальность — и это уже доказано. Это обстоятельство должно было бы заставить серьезно усомниться в адекватности аксиоматических наборов, используемых в математике. В чем проблема?
Проблема заключается в том, что доказательство Геделя срабатывает на нас, как формальных системах, продуцирующих другие формальные системы (математику). В результате получаем уникальный феномен, когда наши аксиомы не являются нашими. Наши аксиомы, по существу, являются теоремами на базе недоступной для нас аксиоматики, лежащей за пределами нашей феноменальной реальности. Это полностью согласуется с идеей некаузальности феноменальной реальности.

Далее разгадка поблем вычислимости и прочих становится тривиальной. Для математики мы используем не аксиомы, а теоремы, причем — не доказанные формально. Поэтому математика и столкнулась с крахом программы Гильберта. Но в то же самое время мышление, мозг, пользуется вычислением на базе не заявленных аксиом, аксиоматики, недоступной к отчетности в этой реальности, но задающей правила вычисления отличные, от созданных нами для математики.
Именно поэтому мы можем схватывать неалгоритмические (принципиально неалгоритмические!) решения реальных задач, так как они отражают соотношения феноменальной реальности, целостной и алгоритмически разрешимой за пределами доказательства Геделя. Доказательства Геделя имеют смысл только в математике каузальной реальности. Соотношения элементов, правила операций, последовательности — это все неявные аттрибуты каузальности. И это заканчивается на наборах аксиом, на которых построена математика, но все начинается значительно раньше!


 

Date: 2013-06-09 01:45 pm (UTC)
From: [identity profile] hitthelimit.livejournal.com
Это верное замечание. Я имел в виду случаи, когда компьютер при всей своей скорости не делает то, что мышление. Кстати, способ поиска ответа на викторине компом "Ватсон" - это обычный, хотя и параллельный, перебор. А вот знаменитая задача по идентификации лица знакомого, которого не видел 20 лет... которую мы проделываем за секунду... Как-то пытались посчитать, сколько времени должно уйти на ее решение известными способами. Впечатляет.

Date: 2013-06-09 02:03 pm (UTC)
From: [identity profile] staerum.livejournal.com
Я полагаю вы видели пример циклопической нейронной сети, обученной без учителя на роликах в ютубе и показавшей по итогам способность классифицировать различные классы изображений.

Задачи распознавания, оптимизации, игровые задачи. Это всё задачи слабого ИИ, малоинтересные по большому счёту (хотя весьма занятные технологически).

Date: 2013-06-09 02:12 pm (UTC)
From: [identity profile] hitthelimit.livejournal.com
«Это всё задачи слабого ИИ»

Конечно. Именно об этом моя заметка. Я хочу обратить внимание на фундаментальные механизмы мышления, говоря о базовом языке самого глубинного субстрата. Согласитесь, достижения, о которых вы говорите, потребовали выработки довольно сложных алгоритмов несколько нетривиальными методами — обучением. Как раз то, о чем я писал. А теперь положите в основу не готовый нейрон/модель нейрона, отшлифованный миллионами лет эволюции, а нечто иное, которое так же могло бы быть отшлифовано, только быстрее. Программу, например... в виртуальной среде:) Только вот проблемы с языком программирования будут. Но это временные трудности, я надеюсь.

Date: 2013-06-09 02:22 pm (UTC)
From: [identity profile] staerum.livejournal.com
Я бы не сказал, что методы столь уже нетривиальные. В основе лежат довольно простые соображения. Но требующий большого опыта, выч. ресурсов и настройки для эффективной работы (как, собственно, многие инженерные системы и процессы, начиная от монолитного строительства и заканчивая собственно вычислительными процессорами или накопителями дискретной информации).

Человечество двигается маленькими шагами. И возможно небольшое изменение точки зрения приведёт к созданию новых подходов о которых вы говорите. Возможно они уже существуют.

Profile

hitthelimit: (Default)
hitthelimit

March 2019

S M T W T F S
     12
3456789
10111213141516
17181920212223
242526272829 30
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jun. 28th, 2025 01:28 am
Powered by Dreamwidth Studios