hitthelimit: (Default)
[personal profile] hitthelimit


Для того, чтобы сразу понять, что термин ИИ не означает нечто совершенно конкретное, достаточно заглянуть на страничку «Интеллект» в Википедии. Если сам интеллект трактуется столь размыто, то что тогда говорить об искусственном интеллекте? Не считать же в самом деле перечисление всего того, что разные исследователи относят к интеллекту, проясняющим моментом.

 

Таким образом, с самого начала имеем примерно ту же самую ситуацию, что и с обсуждением, например, сознания - все та же обманчивая очевидность. Между тем этот вопрос не так уж сложно прояснить.

 

Взгляните на дельфинов, к примеру. Весьма развитый мозг, сложное поведение, большой запас сигналов для коммуникации, высочайшая адаптативность, передача навыков из поколения в поколение, исключительно сложный мозг, наконец (хотя последнее, впрочем, не совсем убедительный довод). Однако, несмотря на огромные усилия энтузиастов и солидных научных заведений, окончательного вердикта относительно разумности дельфинов как не было, так и нет. А ведь чего проще, казалось бы! И ничего создавать не надо, и материала для изучения предостаточно. Одних видов — 30! Самое время спросить: может «в консерватории что-то не так»? А именно, в наших ожиданиях относительно того, что мы готовы назвать интеллектом? Если столь мощная система, какой является мозг дельфина, не считается со всей очевидностью «разумной», значит, самое время определиться, что именно мы создаем под вывеской «ИИ».

 

Как считает Пенроуз в книге, комментарии к которой я привел постом ниже, человеческое понимание отличается тем, что позволяет нам делать некоторые простые на первый взгляд вещи, которые для компьютера пока что являются непреодолимым вызовом. Углубимся в этот момент. Первое, что хочется сказать, так это то, что мы таким образом делаем нечто необходимое нам. С другой стороны, требуя от компьютера этого же действия, мы требуем опять же что-то необходимое нам. Добавив к этому нашему умению свой превилигированный доступ к состоянию, связанному с выполнение данной функции, мы гордо заявляем, что машины — тупая, бездушная, и ни о каком понимании у нее не может даже идти речь. Можно не сомневаться, что с таким подходом мы еще долго будем создавать ИИ. Следуя мысли проф. Преображенского, а не проще ли нарожать?

 

Я полагаю, следует четко определиться с тем, что самое главное на наш взгляд в ИИ. Практически все сойдутся как минимум в одном требовании: ИИ должен выполнять некоторые действия. Нет, это я не пошутил. Ключевое слово здесь - «должен». Собственно, при таком раскладе, тему ИИ можно было бы считать закрытой. Если нам ИИ должен, то это уже никак не интеллект, по крайней мере, таковым мы его никогда не признаем. Что думал рабовладелец о своих рабах? Может показаться, что я передергиваю. В конце концов, ИИ может быть должен демонстрировать независимое мышление, или еще чего-то в этом духе. Увы, и в этом щедром варианте кроется все та же ловушка. Из чего следует, что дельфины не демонстрируют независимого мышления? А ведь они очень индивидуальны! Значит, не хватает чего-то существенного... для нас. Значит, опять кто-то должен нам!

 

Технически, сказанного достаточно, чтобы приступить к выводам.

 

Не существует никакого интеллекта, вообще.

Есть способность систем демонстрировать некоторые действия.

Собственные состояния систем при этом не должны считаться релевантными. Точнее даже не собственные состояния, и всего лишь их интерполяции, так как сами состояния не экстраполируются в неизменном виде во вне. Все тот же привилегированный доступ, видите ли.

Поэтому нет никакого смысла говорить о (нашем, или любой другой системы) понимании, а только о способности к неким действиям.

 

Допустим, больше всего нас интересует когнитивная способность и способность к эвристической деятельности при решении задач. Но это не так просто — вот так сказать. Необходимы некоторые существенные уточнения. Все уточнения на этот счет сведутся к тому, что речь идет о таковой деятельности... для человека. Видите ли, есть такая физическая система — человек. И шутка заключается в том, что мозг человека работает, как бы это сказать, что б не обидно... не только сам на себя. Строго говоря, уровень автореференции даже у самого продвинутого на этот счет мозга попросту плачевный. То, что мы поднимаем на щит в качестве высшей пробы своей разумности - осознание, понимание, есть не более чем пена на поверхности ментального варева, глубинная суть которого для нас совершенно не доступна. Вывод: интеллект нашего мозга — это интеллект нашего мозга, а вовсе не абстрактный интеллект. Тот факт, что при этом мы имеем математику, сути дела не меняет.

 

Отсюда мораль: любой ИИ, который мы склепаем, будет либо (1) простым набором изощренных программ, работающих с человеческой информационной требухой, либо (2) самостоятельной системой с набором собственных состояний, для экстраполяции которых потребуется нешуточной сложности система конвертации смыслов. Первое уже полным ходом делается, и успехи в этом направлении просто гарантированны. Но это никогда не будет признано ИИ, а только симулятором ИИ. (Я хочу подчеркнуть, что вопрос, будет ли это искусственным интеллектом на самом деле, не имеет смысла). А второе... А дельфины? А оно нам надо? Следует четко понимать, что любая система, созданная по второму сценарию, т.е. полностью самообучающаяся система, ориентированная на свои сенсоры, конструкцию и потребности, будет иметь свои собственные состояния, свою когнитивистику, свою эвристику, а в силу несовершенства конструкции — также свои эмоции. Однако конвертация всех этих состояний в человеческие аналоги станет, возможно, непреодолимым вызовом. Тогда напрашивается выход: задать конструкцией и базовым программным обеспечением заведомую близость в ее активном поведении параметрам человеческой психики. Но... тогда мы опять не признаем ее интеллектом, ибо она делает то, что она нам должна, и никому и в голову не придет думать о ее собственных состояниях как о равных человеческим. Повторится история, рассказанная в фильме «Двухсотлетний человек».

 

Создание системы по второму сценарию (полностью автономной) может иметь только академический интерес, но в случае успеха такая система все равно будет зависать, хотя несовершенные модели могут нешуточно доставить падкой на сенсации публике.

 

самообман

Date: 2010-09-08 11:14 pm (UTC)
From: [identity profile] hitthelimit.livejournal.com
"...на каком оновании он отрицает в жизни то, делает ее жизнью..."
Вам не приходит в голову, что линия вашей аргументации имеет сильную аналогию с линией аргументации верующих? Существует правило: всякое утверждение, в том числе и отрицательное, требует доказательства. Так, если кто-то утверждает, что есть бог, то это надо доказать, иначе — вера. Вопросы веры я не обсуждаю, разве что ее глобальный, академический аспект. А вот продвинутые атеисты не говорят, что бога нет. Они спрашивают: а что это такое? Потому что любому мало-мальски независимо соображающему человеку понятно, что введение бога в мировоззрение не отвечает ни на какие вопросы, а только порождает новые.
Это касается и свойств живого. Я процитировал вашу фразу — вы делаете то, на что я совсем недовно обратил ваше внимание: приписываете мне позицию. Я ничего не отрицал. Я просто чего-то не обнаруживал. Вы обнаружили? Прекрасно! Расскажите нам. Только воздержитесь от перечисления признаков жизни по версии БСЭ и лирики. За лирикой я хожу на другие страницы сети.

Re: самообман

Date: 2010-09-09 07:04 pm (UTC)
From: [identity profile] sageserjant.livejournal.com
Намекаете на "китайский фарфоровый чайник" Б. Рассела? - Нет, таких у меня не припасено, увы... хотя не исключаю вариант, что я их просто "не обнаруживал" (не наблюдаете симметричность нашей "аргументации"?).
Смотря какого "Бога" (если антропоморфного, с нимбом на макушке, то и я ровно того же мнения). Давайте оставим его в покое, это разговор для другой темы.
Есть такая штуковина "Theory of mind" (знакомы?). Я пытаюсь понять Вас, а Вы меня?
Мы с Вами по разные стороны забора, на заборе кошка с моей стороны. С моей точки зрения Вы ее отрицаете, с Вашей - не обнаруживаете. Предложение - попробуйте прелезть забор...

Самое минимальное "доказательство":
Жизнь есть движение иногда не подчиняющееся "законам природы", т.е. "естественно не оптимальное" (с точки зрения физики, химии, биорефлекторики и т.п.). Причем отклонения стабильны (не случайны) относительно метки "интерес" (с обоими знаками). Живое стремиться "закрыться" от того, что "отрицательно интересно" (спрятаться, убежать) и тянется к тому, что "положительно интересно" (проявляет активность, идет на сближение и т.п.). Интерес же можно описать как простейшую эмоцию "нравится - безразлично - не нравится". Чем больше эмоций, тем больше и сложнее отклонения в поведении от "оптимальных", самая сильная - любовь (по сути - собрание всех эмоций воедино). Пропадает интерес к жизни - нет препятствий к суициду (зачем зря коптить небо, а вдруг там, за чертой что-то есть интересное). Смотрите далее Вашу же аргументацию о "системной сингулярности", у меня к ней замечаний нет.
Это эмпирика (получено из наблюдений), у меня нет "теории жизни", тем более абиотической.

ИИ (второго рода - "нейронные сети" или "обучаемое ПО") строится точно также. Задается интегральный критерий деятельности (аналог "интереса") прошивается в основе. Далее идет "обучение" при котором "интересом" управляет экспериментатор (точно как учат ребенка). Пока он это делает ИИ обучается и "накапливает опыт". Как только прекращает - ИИ быстро колапсирует до состояния "внутреннего хаоса" и далее ведет себя строго как "физическое тело" (естественно оптимально по "законам природы"). До сих пор не найдено средств превратить "интегральный критерий" в "живой интерес", ибо любая "прошивка" - рефлекс (жесткая связь), а "интерес" - смыслозадающий целеуказатель (не связь, не жесткая и не рефлекс). Т.е. живая эмоция - не рефлекс и не может быть объективно описана (она сугубо "субъективна" и относительна).

Re: самообман

Date: 2010-09-09 08:20 pm (UTC)
From: [identity profile] sageserjant.livejournal.com
Да, извините, не описал почему "коллапсирует" (для меня это "очевидно")... :(
Дело в том, что полученный в результате действия "результат" ИИ нужно "оценить" в референции к "интересу" (чтобы понять "хорош" результат или "плох"). Именно поэтому тот же самый "интерес" должен и "оценивать" результат "с точки зрения себя самого". Получается функция "оценки" типа х=Fn(х, у,...). Далее, думаю, уже понятно...

Re: самообман

Date: 2010-09-10 06:50 am (UTC)
From: [identity profile] muha-a.livejournal.com
> Дело в том, что полученный в результате действия "результат" ИИ нужно "оценить" в референции к "интересу" (чтобы понять "хорош" результат или "плох"). Именно поэтому тот же самый "интерес" должен и "оценивать" результат "с точки зрения себя самого".

Это непонятно. Вы имеетве ввиду, что сеть может обучаться на отдельных уроках, но неясно как это заставить работать в реальном времени?

Наверно для этого ИИ нужна "психика" т.е. тонко настроенный механизм, активизирующий и подавляющий различные вычислительные процессы и обеспечивающий поддержание стабильного познавательного процесса.
Судя по вашим словам, работающую модель психики никому создать пока не удалось.
Ну не все сразу...

Re: самообман

Date: 2010-09-10 05:51 pm (UTC)
From: [identity profile] sageserjant.livejournal.com
Так все и происходит "в реальном времени" (и обучение и самообучение)...
Замысел был такой:
- управляем заранее "прошитым" интегральным критерием (типа "интерес"), создавая вокруг ИИ разнообразные учебные ситуации. При оценке результата действий ИИ вмешиваемся в оценку, поощряя с помощью того же критерия "правильное поведение", и не поощряя "неправильное". ИИ запоминает "опыт", причем в референции к критерию, этот опыт входит в функцию оценки наравне с критерием. Набрав достаточно опыта включаем внутри "обратную связь", одновременно отключая управление. ИИ маниакально "тянется" в новой учебной ситуации к результату, сам себя оценивает, получает новый опыт и так далее, постепенно усложняясь при самообучении...
Но не вышло, при "отпускании на вольные хлеба" быстро (на 1-й, максимум на 2-й ситуации происходит "коллапс"), либо остается голый "маниакализм" (очень редко), либо полностью исчезает всякая активность (пропал интерес). При проверке "системной памяти" (опыта) обнаруживаем там полный хаос... Коллеги из США решили, что это от малой "вычислительной мощности", получили колоссальные бабки и сейчас строют "суперкомпьютер" (поживем, увидим что получится).
Там ничего не надо "подавлять" (нет "конкурирующих" процессов) моделируется самое простое поведение (типа: найти скорейший путь из точки А в точку Б с объездом препятствий). Проблему многие видят лишь одну - рекурсивность "оценочной функции" (чисто математически), а по простому - "прошитый рефлекс" не может заменить живую эмоцию (он тождественно мертв).
А Вы мне не верьте наслово, наберите в поисковике "нейронные сети результат" и гляньте сами (остерегайтесь пиара и рекламы)... :)

Re: самообман

Date: 2010-09-10 10:25 pm (UTC)
From: [identity profile] muha-a.livejournal.com
Пока ничего не понял. Что за обратная связь включается и каким образом ИИ сам себя оценивает?
ИИ сам вычисляет целевую функцию? Что за "интегральный критерий типа интерес"?
Что они пытались создать? ИИ, действующий в среде в реальном времени, или простой оптимизатор, в который подается задача и выдается оптимальное решение.

В любом случае, то что вы описываете не напоминает мышление животных или человека.
ИМХО, целевые критерии, максимума которых следует добиваться у животных прошиты жестко (в генетическом коде) и не подлежат коррекции. Плавающими являются только ассоциации с целевыми ситуациями.

Кроме того, подход американцев, который вы описали внешне напоминает изобретение вечного двигателя. Если бы все было так просто, первая же амеба стала бы океаном Соляриса.
Мозг не выглядит как единый однородный каогломерат из нейронов. Напротив, в нем очемь много явно специализированных частей, каждая их которых тонко настроена на выполнение своей функции. Врятли мозг проще, чем весь остальной организм.

Хотя, путь, по которому они пошли может сработать: пишем ИИ на суперкомпьютере, обнаруживаем его нестабильность. Дополняем его механизмом, искусственно стабилизирующим ситуацию, обнаруживаем, что механизм работает не всегда, дополняем механизм и так далее до победного конца.
Естесственно, лучше это пробовать на суперкомпьютере, поскольку лучше один раз увидеть, чем сто раз измыслить.

При этом лучше сразу пытаться создать ИИ, который вел бы себя относительно оптимально в реальном времени в постых ситуациях. Например, ползал бы и искал еду чуть лучше, чем в него изначально это заложили.

Реальные организмы в природе организмы никогда не сталкиваются с проблемами типа оптимизации пути и вообще не сталкиваются с проблемами, решение которых требует перебора слишком большого числа вариантов. Вспомните, что детеныши копытных умеют почти все, что умеют взрослые сразу после рождения, без всякого обучения.
Т.е. реальное животное попадает в ситуацию, когда у него уже есть эффективно работающий набор программм и остается только понемногу его корректировать. Никое повышение сложности с нуля и до небес не требуется. Оно и невозможно.

Re: самообман

Date: 2010-09-12 04:20 pm (UTC)
From: [identity profile] sageserjant.livejournal.com
Я выше уже описал "целевую функию" (пример) - "проехать от начала до конца маршрута без столкновений".
ИИ пытались сделать (который может сам оценить "обстановку"). Оптимизаторы давно реализованы на базе GPS, например.

А никто и не пытался (почти) скопировать человека (зачем? - проще "нарожать")...
Ваше ИМХО (как и все, включая мои) - это "фантастические обяснения" неосознанного. Ибо ИМХО рефлекторно. Нью-Васюки, короче...

Вот эта "проблема океана Соляриса" как раз и является одним из основных возражений против эволюционной теории. Объясните сначала почему Эволюция не пошла путем "Соляриса" (без мистики, естественным путем). Сможете?
В том то и фокус, что спец-части в мозге разумеется есть, но они "толстые", а не "тонкие", да еще и "плавающие" (по современным данным). Разумеется мозг не проще, чем остальной человек.

> При этом лучше сразу пытаться создать ИИ, который вел бы себя относительно оптимально в реальном времени в постых ситуациях.

Именно это и пытаюстя почти все создать. А "еду" ему искать не за чем, какой от него тогда прок (кто деньги даст на такую показуху?)?

> Реальные организмы в природе организмы никогда не сталкиваются с проблемами типа оптимизации пути и вообще не сталкиваются с проблемами, решение которых требует перебора слишком большого числа вариантов.

??? - Вы когда идете по тротуару Вы не обходите прохожих или Вам "по фигу" как идти на работу - прямым путем или через Владивосток?

> Вспомните, что детеныши копытных умеют почти все, что умеют взрослые сразу после рождения, без всякого обучения.

Это устаревшая гипотеза. Ныне многие исследователи придерживаются того, что "генетически запрограммированных повденческих реакций" (инстинктов) у животных нет, само это слово упоминать ныне в научной среде "правило дурного тона". Вам неизвестны, например, случаи воспитания хищниками детенышей своих жертв?

> Т.е. реальное животное попадает в ситуацию, когда у него уже есть эффективно работающий набор программм и остается только понемногу его корректировать. Никое повышение сложности с нуля и до небес не требуется. Оно и невозможно.

Мы не о животных говорим, а об ИИ. Копировать животных незачем, проще "развести" в нужном количестве ("нарожать").

Re: самообман

Date: 2010-09-12 08:01 pm (UTC)
From: [identity profile] muha-a.livejournal.com
> Это устаревшая гипотеза. Ныне многие исследователи придерживаются того, что "генетически запрограммированных повденческих реакций" (инстинктов) у животных нет, само это слово упоминать ныне в научной среде "правило дурного тона". Вам неизвестны, например, случаи воспитания хищниками детенышей своих жертв?

Естесственно, в генах заложены не конкреные детали инстинкта, а базовые поведенческие установки, которые во взаимодействии со средой развиваются в конкретную реализацию инстинкта.
Но алгоритм инстинкта развивается в мозге до определенной степени автономно без обратной связи с самой программой работы мозга. Хотя, с другой стороны, естесственно, это процесс на грани устойчивости, как и все в организме.

Profile

hitthelimit: (Default)
hitthelimit

March 2019

S M T W T F S
     12
3456789
10111213141516
17181920212223
242526272829 30
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jun. 29th, 2025 10:27 am
Powered by Dreamwidth Studios