hitthelimit: (Default)
[personal profile] hitthelimit


Для того, чтобы сразу понять, что термин ИИ не означает нечто совершенно конкретное, достаточно заглянуть на страничку «Интеллект» в Википедии. Если сам интеллект трактуется столь размыто, то что тогда говорить об искусственном интеллекте? Не считать же в самом деле перечисление всего того, что разные исследователи относят к интеллекту, проясняющим моментом.

 

Таким образом, с самого начала имеем примерно ту же самую ситуацию, что и с обсуждением, например, сознания - все та же обманчивая очевидность. Между тем этот вопрос не так уж сложно прояснить.

 

Взгляните на дельфинов, к примеру. Весьма развитый мозг, сложное поведение, большой запас сигналов для коммуникации, высочайшая адаптативность, передача навыков из поколения в поколение, исключительно сложный мозг, наконец (хотя последнее, впрочем, не совсем убедительный довод). Однако, несмотря на огромные усилия энтузиастов и солидных научных заведений, окончательного вердикта относительно разумности дельфинов как не было, так и нет. А ведь чего проще, казалось бы! И ничего создавать не надо, и материала для изучения предостаточно. Одних видов — 30! Самое время спросить: может «в консерватории что-то не так»? А именно, в наших ожиданиях относительно того, что мы готовы назвать интеллектом? Если столь мощная система, какой является мозг дельфина, не считается со всей очевидностью «разумной», значит, самое время определиться, что именно мы создаем под вывеской «ИИ».

 

Как считает Пенроуз в книге, комментарии к которой я привел постом ниже, человеческое понимание отличается тем, что позволяет нам делать некоторые простые на первый взгляд вещи, которые для компьютера пока что являются непреодолимым вызовом. Углубимся в этот момент. Первое, что хочется сказать, так это то, что мы таким образом делаем нечто необходимое нам. С другой стороны, требуя от компьютера этого же действия, мы требуем опять же что-то необходимое нам. Добавив к этому нашему умению свой превилигированный доступ к состоянию, связанному с выполнение данной функции, мы гордо заявляем, что машины — тупая, бездушная, и ни о каком понимании у нее не может даже идти речь. Можно не сомневаться, что с таким подходом мы еще долго будем создавать ИИ. Следуя мысли проф. Преображенского, а не проще ли нарожать?

 

Я полагаю, следует четко определиться с тем, что самое главное на наш взгляд в ИИ. Практически все сойдутся как минимум в одном требовании: ИИ должен выполнять некоторые действия. Нет, это я не пошутил. Ключевое слово здесь - «должен». Собственно, при таком раскладе, тему ИИ можно было бы считать закрытой. Если нам ИИ должен, то это уже никак не интеллект, по крайней мере, таковым мы его никогда не признаем. Что думал рабовладелец о своих рабах? Может показаться, что я передергиваю. В конце концов, ИИ может быть должен демонстрировать независимое мышление, или еще чего-то в этом духе. Увы, и в этом щедром варианте кроется все та же ловушка. Из чего следует, что дельфины не демонстрируют независимого мышления? А ведь они очень индивидуальны! Значит, не хватает чего-то существенного... для нас. Значит, опять кто-то должен нам!

 

Технически, сказанного достаточно, чтобы приступить к выводам.

 

Не существует никакого интеллекта, вообще.

Есть способность систем демонстрировать некоторые действия.

Собственные состояния систем при этом не должны считаться релевантными. Точнее даже не собственные состояния, и всего лишь их интерполяции, так как сами состояния не экстраполируются в неизменном виде во вне. Все тот же привилегированный доступ, видите ли.

Поэтому нет никакого смысла говорить о (нашем, или любой другой системы) понимании, а только о способности к неким действиям.

 

Допустим, больше всего нас интересует когнитивная способность и способность к эвристической деятельности при решении задач. Но это не так просто — вот так сказать. Необходимы некоторые существенные уточнения. Все уточнения на этот счет сведутся к тому, что речь идет о таковой деятельности... для человека. Видите ли, есть такая физическая система — человек. И шутка заключается в том, что мозг человека работает, как бы это сказать, что б не обидно... не только сам на себя. Строго говоря, уровень автореференции даже у самого продвинутого на этот счет мозга попросту плачевный. То, что мы поднимаем на щит в качестве высшей пробы своей разумности - осознание, понимание, есть не более чем пена на поверхности ментального варева, глубинная суть которого для нас совершенно не доступна. Вывод: интеллект нашего мозга — это интеллект нашего мозга, а вовсе не абстрактный интеллект. Тот факт, что при этом мы имеем математику, сути дела не меняет.

 

Отсюда мораль: любой ИИ, который мы склепаем, будет либо (1) простым набором изощренных программ, работающих с человеческой информационной требухой, либо (2) самостоятельной системой с набором собственных состояний, для экстраполяции которых потребуется нешуточной сложности система конвертации смыслов. Первое уже полным ходом делается, и успехи в этом направлении просто гарантированны. Но это никогда не будет признано ИИ, а только симулятором ИИ. (Я хочу подчеркнуть, что вопрос, будет ли это искусственным интеллектом на самом деле, не имеет смысла). А второе... А дельфины? А оно нам надо? Следует четко понимать, что любая система, созданная по второму сценарию, т.е. полностью самообучающаяся система, ориентированная на свои сенсоры, конструкцию и потребности, будет иметь свои собственные состояния, свою когнитивистику, свою эвристику, а в силу несовершенства конструкции — также свои эмоции. Однако конвертация всех этих состояний в человеческие аналоги станет, возможно, непреодолимым вызовом. Тогда напрашивается выход: задать конструкцией и базовым программным обеспечением заведомую близость в ее активном поведении параметрам человеческой психики. Но... тогда мы опять не признаем ее интеллектом, ибо она делает то, что она нам должна, и никому и в голову не придет думать о ее собственных состояниях как о равных человеческим. Повторится история, рассказанная в фильме «Двухсотлетний человек».

 

Создание системы по второму сценарию (полностью автономной) может иметь только академический интерес, но в случае успеха такая система все равно будет зависать, хотя несовершенные модели могут нешуточно доставить падкой на сенсации публике.

 

Date: 2010-08-16 05:29 am (UTC)
From: [identity profile] igor-dzhadan.livejournal.com
==Но это никогда не будет признано ИИ, а только симулятором ИИ.==

- Вы гарантируете?) Никогда не говори "никогда"...

И потом: наиболее переспективным направлением мне представляется создание гибридного интеллекта, так что и тут рассмотренная Вами альтернатива между прогами и дельфинами - может оказаться ложной. Какой нибудь генетически спланированный индивид гуманоидного облика с дополнительным программным контролем через твердотельный контур - как Вам такой вариант ИИ?)

Кстати, не смотрели сериал "Крейсер Галактика"?

Date: 2010-08-16 11:59 am (UTC)
From: [identity profile] hitthelimit.livejournal.com
"Какой нибудь генетически спланированный индивид гуманоидного облика с дополнительным программным контролем через твердотельный контур - как Вам такой вариант ИИ?"

Разумеется. Только зачем нам гуманоид? Мы и есть гуманоиды :)
Это уже идущее полным ходом наступление на фронте усиления когнитивных функций человека за счет человек-машинных интерфейсов. Спринтерская дорожка к близкому финишу - я уже неоднократно это упоминал. Психогенная сингулярность может наступить раньше, чем создание ИИ второго вида.

Что касается "никогда" - речь, разумеется, идет о текущем статусе сознания человечества. Понятное дело, что несколько позже все изменится. Но, скорее, в том плане, что терминология и классификация подобного рода будет признана бессмысленной.

Date: 2010-08-16 12:26 pm (UTC)
From: [identity profile] igor-dzhadan.livejournal.com
==Психогенная сингулярность может наступить раньше, чем создание ИИ второго вида==

- Знаете, не верю я в сингулярности. Актуальные бесконечности - суть плод нашего воображения и результат неполноты наших знаний. Расходимости теории - проблема теории, а не природы, как обычно выясняется. Думаю, что вместо Вашей гипотетической психогенной сингулярности, будет нечто, что представить себе сейчас невозможно. Предполагаю, что никакого безудержного прогресс ИИ вследствие получения доступа к собственному исходному коду не предвидится. Ведь должна быть воля, чтобы что-то менять, а откуда ей взяться? Воля человека - продукт миллиарднолетней эволюции, да и то - она не у всех людей развита, как можно наблюдать.

Date: 2010-08-16 04:29 pm (UTC)
From: [identity profile] hitthelimit.livejournal.com
Надо полагать, вы не погружались с головой в эту проблему. Для меня это не вера - я вообще ни во что не верю. Есть гипотеза, есть какие-то обоснования. Контрдоводов, увы, вы нигде не найдете. Никто ничего по существу мне пока что не возразил. Это не признак моей правоты, конечно.
Не хочу в духе худших традиций доморощенных форумов отправлять вас читать "мои труды", но в этом журнале приводится довольно много мыслей в поддержку такой гипотезы. И я всегда готов обсуждать это с заинтересованными людьми. Сингулярности - не плод моего воображения, в виде экстремумов функций они проявляются и в реальности, для реальных систем. Это вообще банальность - вечных систем не бывает. Вопрос только в нахождении или предсказании условий, при которых та или иная система достигнет своего предела, в развитии или существовании в целом.

Date: 2010-08-16 07:07 pm (UTC)
From: [identity profile] igor-dzhadan.livejournal.com
Сингулярности , возникающие в теориях - не есть реальные пределы, поскольку реальность Едина и не имеет никаких реальных частей или пределов. Сингулярности - это предельные условия работы наших представлений, только и всего. То, что Вы пытаетесь назвать "реальными системами", всего лишь наши представления о независимой от нашего разума реальности. И утверждение "вечных систем не бывает" - следует понимать именно так: всякое представление о системе должно иметь граничные временные условия. То есть - в том месте, в котором наши представления дают сингулярность, они просто перестают быть адекватными реальности, вот и всё. На самом же деле ничего катастрофического в точке сингулярности может и не происходить. По мере приближения к ней мы (или кто-нибудь вместо нас) наверняка раздвинем горизонты познаваемого, и "сингулярность" перестанет быть для нас сингулярностью...

(no subject)

From: [identity profile] hitthelimit.livejournal.com - Date: 2010-08-16 08:28 pm (UTC) - Expand

(no subject)

From: [identity profile] igor-dzhadan.livejournal.com - Date: 2010-08-17 06:52 am (UTC) - Expand

Date: 2010-08-16 04:46 pm (UTC)

Date: 2010-08-23 12:26 pm (UTC)
From: [identity profile] muha-a.livejournal.com
> Не существует никакого интеллекта, вообще.
> Есть способность систем демонстрировать некоторые действия.
> Собственные состояния систем при этом не должны считаться релевантными. Точнее даже не собственные состояния, и всего лишь их интерполяции, так как сами состояния не экстраполируются в неизменном виде во вне. Все тот же привилегированный доступ, видите ли.
> Поэтому нет никакого смысла говорить о (нашем, или любой другой системы) понимании, а только о способности к неким действиям.
Я бы это выразил другими словами.
Когда человек задается вопросом есть ли у некого объекта интеллект (сознание и др.), он рассуждает следующим образом: у меня есть интеллект, значит объект обладает интеллектом (сознанием) в той степени, в которой он похож на меня по ряду критериев.
Критерии выбираются в зависимости от того, что оценивается - интеллект, сознание или др.
При оценке интеллекта центральный критерий - способность предсказывать последующие события на основе наблюдения предыдущих в тех же ситуациях, в которых это могу делать "Я".

На первый взгляд, этот критерий субъективен и не имеет смысла. Но с другой стороны, для нас смысл имеет все, что работает, а такой критерий может работать. Важно только понимать его субъективную природу.

> Следует четко понимать, что любая система, созданная по второму сценарию, т.е. полностью самообучающаяся система, ориентированная на свои сенсоры, конструкцию и потребности, будет иметь свои собственные состояния, свою когнитивистику, свою эвристику, а в силу несовершенства конструкции — также свои эмоции. Однако конвертация всех этих состояний в человеческие аналоги станет, возможно, непреодолимым вызовом.

Лично мне весь мой опыт говорит о том, что физическая вселенная - очень тесный мир. В нем нет места для нескольких в корне различных систем, обладающих перечисленными вами атрибутами (самообучение, потребности).
Помните старую фантастику, в которой жизнь возникает везде - и в недрах звезд и на основе кремния вместо углерода... Сейчас уже почти очевидно, что это все чушь.
Аналогично и с интеллектом. Вселенная, в которой существет материя и детерминированные физические законы - это место, где живет человек, такой, какой он есть и никакой другой.
Любая конструкция, которую можно впереть в рамки любой физической вселенной, и которая обладает некоторыми атрибутами человека будет очень похожей на человека.
Естесственно, к ИИ не подойдешь, не похлопаешь по плечу типа "хороший парень" и он не будет разделять американские ценности. Но если рассмотреть будущий ИИ с достаточной долей научной трезвости, наверняка он будет восприниматься как существо наделенное сознанием, интеллектом и очень сходное с человеком.

> Создание системы по второму сценарию (полностью автономной) может иметь только академический интерес.

Думаю, что он начнет работать только тогда, когда в нем будут повторяться все основные психические механизмы человека. Соответственно он будет иметь огромную ценность в продвижении нашего понимания того что мы есть.

Date: 2010-08-23 04:08 pm (UTC)
From: [identity profile] hitthelimit.livejournal.com
В целом все так.
Я, однако, не рискнул бы отказать в возможности развития иных - принципиально иных - разумных систем. То, что их не видно, не аргумент, так как есть психогенная сингулярность, которая не зависит от типа структуры.Правда, о разумности придется поговорить.

Date: 2010-08-26 04:28 pm (UTC)
From: [identity profile] muha-a.livejournal.com
Это потому, что вы оптимист, а я скептик.

В первом приближении я представляю реальность, как неделимое бытие и систему выделяющую саму себя внутри этого бытия со всеми вытекающими.

По-моему, ваш оптимизм заключается в том, что вы верите, что система могла бы быть выделена множеством принципиально различных способов. Или даже, что система могла бы отстаться не выделенной и все равно это было бы в каком-то смысле бытие.

Мой пессимизм заключается в том, что я не верю в бытие вне акта выделения. И не верю в возможность другого выделения, нежели мы имеем.

Соответственно, оптимизм мне приходится искать в другом месте. Если наблюдаемый акт выделения единственно возможный, то тогда мы не случайная частичка бытия, а скорее его центр. Соответственно, тот принцп, который позволил нам (мне?) воплотиться в бытие, позволит в дальнейшем и куда-то двигаться.

Мое бытие - заботливая клетка. Ваше - безразличный простор.

Хуже всего, что бытие может оказаться даже безразличной клеткой.
В последнее я не верю. Этого в принципе не может быть, хотя все именно на это указывает :).

Date: 2010-08-26 04:48 pm (UTC)
From: [identity profile] hitthelimit.livejournal.com
Оптимист, пессимист... Тяга к дуализму - уже смертный грех. Толстый перст, указующий на заблуждение. "Неделимая реальность с возможностью деления" - это такая аксиоматическая посылка, которая отрицает возможность решения задачки. У меня большие сомнения, что решение вопроса лежит в плоскости дускурса, что б там не говорили постмодернисты. Это может быть только прямым пониманием (если), но структура, генерирующая понимание не может быть равна структуре, генерирующей дискурс. До тех пор, пока система находится в пузыре своего внимания, такое понимание невозможно. А если оно возможно, то система уже не равна прежней системе. Впрочем, вопрос о системной преемственности пока можно не поднимать.

Интеллект, ИИ и самообман

Date: 2010-09-05 08:29 pm (UTC)
From: [identity profile] sageserjant.livejournal.com
Доброго здравия Вам!
Прошлый раз мы, увы, не достигли взаимопонимания (не исключаю, что по моей вине), но надеюсь что новая моя попытка не будет Вами рассматриваться в контексте старого неудачного дискурса. Работу над ошибками я провел, разумеется в меру своей "испорченности".

То, что Вы называете "состоянием мозга", я, с Вашего позволения, буду называть "состоянием психики" (там, где использование определенного термина "мозг" для меня недопустимо настолько же, насколько неудачное поименование мной основополагающих для Вас явлений привело к прекращению нашего прошлого дискурса). Надеюсь для Вас это не принципиально?

Насколько мне удалось уловить (схватить) цель данной публикации, Вы демонстрируете ею движение мыслей от состояний меток высого уровня к начальным, демонстрируя что пирамида меток и связанных с ними сосотояний психики от этого ничуть не изменяется. Тем самым и попутно доказывая читателю, что неуспехи в создании ИИ объясняются неопределенностью, а еще точнее - отсутствием (несуществованием) такой метки (понятия), как "Интеллект" (метка эта голимо надуманная, излишняя). Это так?

[b]На этом заканчиваю вступительную часть, перехожу к существу вопроса.[/b]
1. Неопределеность понятия (метки) "Интеллект", т.е. отсутствие согласия разных индивидов в этом вопросе, позволяет Вам сделать вывод о том, что Интеллекта может не существовать как отдельного состояния психики, и далее показать что это так и есть, а потому эту метку в своей психике каждый ставит совершенно произвольно и даже, излишне. Если это так, то у меня первый вопрос к Вам:
- (А) Вы не видите других причин (или, может быть, рационально отрицаете их), которые могут привести к тому же результату - отсутствию конвенционального и однозначного понятия "Интеллект"?

2. Про дельфинов вопросов нет. Тем более и я приветствую Ваш вопрос (рационально выводимый из описания дельфиньих сопособностей) - «в консерватории что-то не так»? А вот переход Вашей мысли от "что-то" к "надо" вызывает у меня вопросы (наверное я не уловил здесь рациональности, т.е. не понял Вас):
Сразу оговорюсь, что "защитить" ход мыслей Пенроуза от Вашей критики попытаюсь в предыдущей теме.
Мне тоже "очевидно" понятно, что исследователь дельфинов (ищущий у них "Интеллект") ищет нечто, что оправдало бы его собственные ожидания (его представления об искомом). Конечно в общем виде это можно сформулировать и так - "он ищет необходимое ему", но эта формулировка (на мой взгляд) еще более затуманивает главный вопрос [b]- рационально ли поставлена задача поиска этим экспериментатором?[/b] - Давайте это рассмотрим?
Не зная сам, что есть "Интеллект" (термин корректно не определен, см. выше), экспериментатор пытается выделить произвольно выбранные им параметры своей психики и найти их в психике дельфина, даже не удосужившись уведомить дельфина о том, что именно он хочет от дельфина, чтобы тот ему показал. Это рационально?
А поиск "работающего телевизора" на свалке исходя из представления, что "работающий телевизор" должен показывать (прямо на свалке, как лежит) ту телепередачу, которую "загадал" ищущий перед поисками, менее рационален?
Вполне уместен и Ваш вопрос (оппонентам, см. ниже) - А с чего это экспериментатор решил, что к психике дельфина у него столь же привилегированный доступ, как и к своей психике?
А я бы к Вашему вопросу добавил еще и свой - А с чего он взял, что у него "экспертный" уровень доступа даже к своей психике (что он понимает, как эта психика работает, а потому имеет основания считать себя "экспертом по психике" человека)?
Теперь вопросы к Вам (выше они были скорее риторические, для прояснения ситуации):
- (Б) Как из нерациональности постановки задач поиска "необходимого" (многими, увы, экспериментаторами) Вам удалось сделать вывод о нерациональности любых (даже рационально поставленных) поисков этого "необходимого"?
- (В) Не повлияло ли на Ваш вывод (см. вопрос Б) то обстоятельство, что Вы априори не допускаете наличия такого "состояния психики" (не важно чьей), для которого метка "Интеллект" была бы не излишней, т.е. реально описывала бы некое "особое" и вполне критериально идентифицируемое "состояние психики", характерное не для всех психик?

Есть вопросы и далее по тексту, но ограничусь пока этими (чтобы не перегружать дискурс).
From: [identity profile] hitthelimit.livejournal.com
И вы здравствуйте.

По вопросу Б:
Вы говорите, что я сделал вывод о нерациональности. Уточните форму моего вывода, и если не трудно, дайте контекстную цитату. Нерациональность — сильно нагруженный многими смыслами термин. Будет хорошо так же, если вы переформулируете вопрос в целом, так как я его не вполне понимаю.

По вопросу В:
Ваше предположение, что я не допускаю
«наличия такого "состояния психики" (не важно чьей), для которого метка "Интеллект" была бы не излишней, т.е. реально описывала бы некое "особое" и вполне критериально идентифицируемое "состояние психики", характерное не для всех психик» ошибочно.
Разумеется, такие состояния встречаются в психике в изобилии. Это привилегия психики - ставить метки на собственные состояния. Поскольку собственные состояния не выносятся, а коммутируют опосредовано, то процесс согласования смысла метки не имеет полной корреляции с самим исходным состоянием данной системы, что позволяет называть что угодно как угодно. Волюнтаризм, одним словом.

ЗЫ У меня есть дельный совет: при формулировке вопросов старайтесь избегать включения в них предположений о моем статусе (утверждениях, предположениях и т.д. - без контекстных ссылок), это существенно облегчит мне возможность ответа на них :)
С уважением.
From: [identity profile] sageserjant.livejournal.com
И Вам здравия и благополучия!

Нет, так не говорил. Это я предложил Вам отказаться от "перегруженного" термина "необходимость" и заменить его в рассуждениях на более прагматичный - "рациональность". Вижу, что он не годится. Может быть подойдет "смысл", который Вы сами употребили (меня он устроит)?

1. Хотел лишь показать, что постановка задачи исследований может сама по себе быть бессмысленной. Бывают бессмысленными и сами поиски (при осмысленной постановке задачи) поскольку ищут то, чего нет. Я лишь хотел понять те основания, на которых Вы сделали вывод (цитирую): "Можно не сомневаться, что с таким подходом мы еще долго будем создавать ИИ".
Можете пояснить как он у Вас получился (у меня не выходит)?

2. Про "волюнтаризм" понятно. Не понятно другое, как тогда при таком всеобщем "волюнтаризме" мы умудряется осмысленно общаться и понимать (нередко) друг друга?
Может быть есть путаница между "произвольным поименованием" метки и ее "произвольным описанием" (поименование произвольно, а описание нет)?

Теперь пару слов о Ваших выводах и самом ИИ.
ИИ, который "делает то, что нам необходимо" давно создан в огромном числе вариантов (это всякие "умные машины", которые нас окружают - от фотоаппарата до Шаттла). Поэтому меня и удивил тот Ваш вывод (см. п.2). "Технология" создания такого ИИ уже давно разработана и применяется, но, как Вы и предвидели, эти "умные машины" никто не называет ИИ, по банальной причине отсутствия у них даже следов интеллекта.

Почти все, кто говорит ныне об ИИ, озабочены созданием ИИ второго вида, - который делает нечто осмысленное (т.е. умеет сам себе поставить задачу и грамотно ее решить, выдав на гора осмысленный результат). В создании такого ИИ (а этим занимаются все кому не лень, от военных до фирм, выпускающих компьютерные игры), увы, успехи тождественно равны нулю. ИИ упорно отказывается и "обучаться" и "мыслить" самостоятельно более чем полностью... Сам 20-ти летний опыт имею в этом вопросе (и в "нейронных сетях" и в "самообучаемом ПО"), плачевный опыт, показавший мне отчасти чего не хватает "изобретателям" для создания ИИ. - Не получается вложить в свои "творения" ни смысла, ни эмоций, а без них "интеллекта" похоже не бывает (даже "искусственного")...

А в части интеллекта дельфинов и обезьян все, видимо, куда проще. Посмотрите по ссылке (в теме о Пенроузе) те критерии "разума", которые люди последовательно искали у животных (и историю этих поисков). Как только оказывалось, что животных нужно признать "разумными" (по ранее выбранному критерию) мы тут же "поднимали планку" (мы просто не хотим признать их разумными!).
Для себя я уже давно сделал вывод о разумности "высших животных", ибо они способны вступать с нами в общение (понимать нас, а мы их). Одна обезьянка даже смогла обучить языку глухонемых человека.
Если бы кому-то удалось создать ИИ по возможностям сравнимый хотя бы со стрекозой или улиткой (о той обезьянке вообще молчу), это был бы фуррор (это бы ведь сделал человек, а не обезьяна!)!

ЗЫ Я постараюсь. Хотя мне гораздо легче придерживаться рамок дискурса когда обозначена его цель. Но я гость, а потому без претензий. :)
From: [identity profile] muha-a.livejournal.com
> 1. Хотел лишь показать, что постановка задачи исследований может сама по себе быть бессмысленной. Бывают бессмысленными и сами поиски (при осмысленной постановке задачи) поскольку ищут то, чего нет. Я лишь хотел понять те основания, на которых Вы сделали вывод (цитирую): "Можно не сомневаться, что с таким подходом мы еще долго будем создавать ИИ".
Можете пояснить как он у Вас получился (у меня не выходит)?

Позволю себе вмешаться. Суть замечания в том, что не нужно пытаться создать нечто, что казалось бы нам интеллектом. Нужно создавать нечто, что действовало бы эффективно в достаточно широком спектре ситуаций. Это нечто автоматически будет иметь интеллект, хотя возможно, на первых порах не будет выглядеть таковым.
Собственно это камень в огород Пенроуза, который считает качеством интеллекта способность решать нерешаемые задачи или вести себя РАЗУМНО. Первое спорно а второе субъективно.

> Если бы кому-то удалось создать ИИ по возможностям сравнимый хотя бы со стрекозой или улиткой (о той обезьянке вообще молчу), это был бы фуррор ...

Стрекоза или улитка - это скорее всего просто очень хорошо подобранный эволюцией алгоритм.
Воспроизводство его врятли будет шагом к ИИ. Это просто очень сложная программистская задача, которую эволюция решала миллиард лет.
Когнитивные механизмы появились в нервной системе позже в более сложных организмах.
Принципы работы этих механизмов и представляют наибольший интерес.

самообман

From: [identity profile] hitthelimit.livejournal.com - Date: 2010-09-08 11:14 pm (UTC) - Expand

Re: самообман

From: [identity profile] sageserjant.livejournal.com - Date: 2010-09-09 07:04 pm (UTC) - Expand

Re: самообман

From: [identity profile] sageserjant.livejournal.com - Date: 2010-09-09 08:20 pm (UTC) - Expand

Re: самообман

From: [identity profile] muha-a.livejournal.com - Date: 2010-09-10 06:50 am (UTC) - Expand

Re: самообман

From: [identity profile] sageserjant.livejournal.com - Date: 2010-09-10 05:51 pm (UTC) - Expand

Re: самообман

From: [identity profile] muha-a.livejournal.com - Date: 2010-09-10 10:25 pm (UTC) - Expand

Re: самообман

From: [identity profile] sageserjant.livejournal.com - Date: 2010-09-12 04:20 pm (UTC) - Expand

Re: самообман

From: [identity profile] muha-a.livejournal.com - Date: 2010-09-12 08:01 pm (UTC) - Expand

Date: 2010-09-15 05:17 pm (UTC)
From: [identity profile] dralkin.livejournal.com
Вот эти два места не могу соединить:

// любой ИИ...будет... (2) самостоятельной системой с набором собственных состояний,
для экстраполяции которых потребуется нешуточной сложности система конвертации смыслов.//

и //любая система, созданная по второму сценарию... будет иметь свои...
Однако конвертация всех этих состояний в человеческие аналоги станет, возможно, непреодолимым вызовом.//

Разве не получается так, что "система конвертации смыслов" или "система конвертация состояний в человеческие аналоги" будут иметь сложность, превышающую сложность систем самих разработчиков и ИИ? Если экстремум есть, то он может быть достигнут еще до того, как заработает агрегат. Разве не так?

И еще.
Мне кажется, что заявляя о невозможности создания ИИ2, Вы тем самым как бы модифицируете задачу на его разработку. Это я не в защиту разработки ИИ говорю, но делюсь соображениями от прочтения. Модифицированная задача для ИИ2 (а то и для ИИ1) может быть следующей: экспериментально проверить гипотезу о пределе сложности системы, а также выяснить условия прохождения точки экстремума.

Date: 2010-09-15 05:31 pm (UTC)
From: [identity profile] dralkin.livejournal.com
//еще до того, как заработает агрегат//
в смысле, что пока будут разрабатывать системы экстраполяции/конвертации сами нарастят собственную сложность.
From: [identity profile] hitthelimit.livejournal.com
«системы экстраполяции/конвертации смысла»

Я не растекался по этому поводу, потому как считаю этот аспект несложным в понимании. Это нетривиальная задача, не имеющая строгого решения, а сводящаяся только к соглашению о приемлимости результата. Собственные состояния разнородных систем принципиально несводимы друг к другу, а конвертация не сохраняет всего спектра конвертируемого. Представьте себя ножницами, например. Другой пример: конвертация основных состояний дельфинов нам тоже не по зубам, до такой степени, что мы не можем воспроизвести ощущение/состояние их разумности. Но это не имеет прямого отношения к вопросу сложности в том виде, в каком я его обсуждаю на этих страницах. Это не та сложность — это скорее принятие факта разнородности. С таким же успехом можно говорить о совмещении смыслов красного и зеленого — они различны, и эта задача может иметь смысл только в рамках более широкого представления. Для нас и дельфинов мы не смогли пока что найти такие расширенные рамки, но здесь нет никакой сложной системы, есть сложная задача. А вот о сложной системе, как средстве решения вопросов конвертации смыслов говорить как раз можно, и это будет система, собственные состояния которой настолько широки, что объединяют сравниваемые. Так вот у такой системы сложность может превышать критически допустимую, тут я согласен. Но это не практический вопрос, так как нам пока не под силу создать даже ИИ, что уж говорить об экспертной системе оценки его собственных состояний!
From: [identity profile] dralkin.livejournal.com
//о сложной системе, как средстве решения вопросов конвертации смыслов говорить как раз можно//

да, я об этом.
Только широта ее состояний будет скорее не объединением спектра состояний "исходных" систем, но произведением одного множества на другое.
From: [identity profile] dralkin.livejournal.com
По поводу экстраполяции/конвертации такой вопрос.
Разве описание вкусовых ощущений зрительными образами не есть уже экстраполяция (конвертация?) состояний?

И вообще. Вот яблоко. Вот я его откусил. С какой стати вкусовые ощущения, зрительные и всякие там прочие объединились в одно (яблоко)? Такое может быть только в том случае, если НЕЧТО (яблоко в данном случае) в момент контакта с ним УЖЕ представлено по всем каналам восприятия как ТО_что_сейчас_воспринимается, с чем в данный момент выполняется "контакт". Т.е., прежде появления всех ощущений, целостность этого НЕЧТО (или, в Вашей терминологии, параметры выделения нечто) уже "известны" (ощущаемы?) однозначно, без каких-либо сомнений: мол, яблоко - оно и есть яблоко, чего тут говорить.
Если такого предвоспринятого (до зрения, вкуса и прочих) НЕЧТО система не отражает, то получется как раз тот самый вопрос, что я задал: почему в описание ощущений, полученных из разных источников, могут быть использованы одни и те же метки.

Мне удобно использовать слово "ощущение", хотя Вы, наверное, будете против него возражать. Вы предпочитаете "отражение". Я имею это в виду. Просто чтобы выразить на Вашем языке мысль, приходится выкручиваться, не всегда удобно. Поэтому Вы когда будете читать, понимайте "ощущение" так, как Вы его понимаете. Ну, если только я не напутал чего ))
From: [identity profile] dralkin.livejournal.com
(Дополнение)

Не является ли такое описание (вкуса через цвет, например) той самой экстраполяцией, которой, как Вы говорите, нету места?
Вообще, я не совсем понимаю нюанса, который позволит отличить конвертацию от экстраполяции. И та и другая операция предполагает, что система должна принять такое состояние, в котором возможны сразу два описания: того и этого (одновременно, беру в скобки).
From: [identity profile] dralkin.livejournal.com
Деление системы пополам, на пару подсистем - очень странный процесс.
Ведь это ни в коем случае не ПНД. Или я что-то не так понимаю?
Как процесс УСЛОЖНЕНИЯ может быть реализацией принципа НАИМЕНЬШЕГО действия?
Мне кажется, что где-то вопрос уже в обсуждении всплывал, но не помню где.

Ветка выше пусть пока висит.

Date: 2010-09-15 05:29 pm (UTC)
From: [identity profile] dralkin.livejournal.com
А еще вспомнилась статья command_er'а про демиурга №2.
Куда он пропал?

Date: 2010-10-27 10:18 am (UTC)
From: [identity profile] sahonko.livejournal.com
http://sahonko.livejournal.com/51137.html

По теме.

Date: 2010-12-29 10:17 pm (UTC)
From: [identity profile] hitthelimit.livejournal.com
По теме. Смеяться или плакать, вот в чем вопрос...
Имя этого человека часто мелькает на разных страницах в сети. Ученый?...
Вот описание его мысленного эксперимента (каким я нашел его тут: http://www.mgimo.ru/files/119789/119789.pdf )

«Сирл предлагает мысленный эксперимент. Представим закрытую комнату, где есть лишь одна щель для передачи листов бумаги. Внутри комнаты находится профессор Сирл с огромным количеством инструкций на английском языке. Кто-то передает лист бумаги, исписанный каракулями, в комнату. Сирл консультируется с книгой инструкций. В ней говорится, что если в комнату передается лист с каракулями, то из комнаты должен выйти другой, но четко описанный набор каракулей. Он делает это. Чуть позже поступает еще один набор каракулей.
Он снова смотрит в инструкции и выдает другой набор и т.д.
Эти наборы каракулей, совершенно незнакомые Сирлу, являются
китайскими иероглифами, составляющими вопросы на китайском языке.
Наборы каракулей, исходящие из комнаты, являются подходящими ответами на эти вопросы. Люди, находящиеся снаружи, говорят, что так как комната может ответить на любой вопрос, заданный на китайском, то она должна понимать китайский.
Нет, не должна – отвечает Сирл. Он, Джон Сирл, совершенно не знает
китайского языка. И именно это и происходит в компьютере. Компьютер бессмысленно следует набору инструкций – программе: он не обладает пониманием, и при этом подходе к ИИ никогда не будет им обладать.»

Лично меня берет оторопь, когда я читаю такое, написанное и обсуждаемое на полном серьезе. Даже комментировать как-то неудобно. (Эта цитата приведена в связи с обсуждением проблем ИИ, в частности, отсутствие у машин «понимания». Уровень, однако?...)
PS Как хорошо, что есть ученые, которым нас@&ть на "понимание".

Date: 2012-04-02 07:44 am (UTC)
From: [identity profile] muha-a.livejournal.com
Ознакомился с идеями в области создания ИИ:
http://lib.rus.ec/b/211853/read

Автор не глубоко копает, но его концепция устройства ИИ и мозга похожа на правду.
Суть в следующем.
Мозг воспринимает входящие сигналы, обнаруживает повторяющиеся паттерны и образует в нейронной сети алгоритм, постоянно предсказывающий входные сигналы в реальном времени.
Т.е. грубо говоря, если на вход мозга подавать синусоиду, то через некоторое время нейронная сеть аппроксимирует этот паттерн и начинает генерировать параллельно входящей синусоиде точно такую же синусоиду, которая подается обратно во входные области мозга параллельно настоящему входящему сигналу. Генерированная синусоида смешивается с входной и дополняет ее на случай перебоев в работе входного рецептора, незначительных флуктуаций и др.
Дальше, специальные нейроны сверяют генерированную синусоиду с настоящей входной и молчат, пока имеется полное совпадение. Если входная синусоида перестает совпадать с генерированной, это означает, что обнаружен новый незнакомый паттерн и процесс аппроксимации запускается снова. Таким образом, раз за разам мозг получает все боле точную аппроксимацию для всех вариантов входных сигналов, т.е. отражение реальности.
Автор не пишет о снах и воображении, но в принципе, при такой модели понятно что такое воображение и сны: мозг имея аппроксимацию действительности спонтанно гоняет ее в реальном времени. При этом механизм сверки с реальностью временно отключается и входные сигналы полностью подменяются генерированными. Этот процесс может захватывать самый верхний уровень нейронов (возбуждение которых соответствует общим образам), или может распространяться почти до органов чувств. В последнем случае воображаемая картина будет очень детальной.
Во время бодрствования мозг постоянно видит "сон наяву", точно так же как и во сне, генерируя реальность с использованием имеющейся в нейронной сети аппроксимации. Только в отличии от настоящего сна "реальный сон" постоянно корректируется при возникновении расхождения между входными сигналами и сигналами предсказанными аппроксимацией.
Дальше возникает вопрос о принятии решений и действии.
Тут автор вводит идею о том, что действие имеет тот же механизм, что и восприятие.
Фишка в том, что сигналы, получаемые мышцами, для аппроксимирующей машины мозга представляют собой равноправную часть аппроксимируемой картины (несмотря на то, что они мозгом же и созданы). Сигналы к мышцам - точно такая же часть "сна", как и сигналы от органов чувств. Соответственно, когда мозг запускает в воображении некий паттерн, в него включено предсказание как входных сигналов, так и выходных. Т.е. мозг предсказывает и собственные выходные сигналы тоже, не делая отличия где его сигналы, а где внешние.
Таким образом, если мозг хочет чего-то, ему нужно найти в памяти и запустить аппроксимированный паттерн, который соответствует выполнению желания.
Т.е. если мозг хочет чего-либо, он это просто воображает. Только, в отличии от чистого воображения, паттерн запускается не в свободном режиме, а в режиме синхронизации со входной действительностью. Поскольку паттерн включает и сигналы к мышцам, сон становиться явью.
Для того, чтобы это работало автор вводит смутные понятия "иерархичности" и "инвариантности паттернов".
Инвариантность паттернов заключается в том, что они хранят не просто аппроксимацию отрезка входных сигналов, а аппроксимацию всех возможных вероятных вариантов развития ситуации, усвоенными паттерном на опыте.
Понятие "иерархичности" нейронной сети вводится (ИМХО - автор этого возможно не осознает) для включения в работу мозга принципа Окама. Реальность держится на принципе наибольшей эффективности наипростейших объяснений. Это означает, что каждый паттерн должен быть представлен в памяти как можно более компактной аппроксимацией. Эта цель и достигается частично за счет введения в структуру сети иерархичности, при которой каждый последующий слой нейронов упрощает входную информацию к перечню символов, которые аппроксимируются последующим слоем.

Описываю вам это в основном для того, чтобы самому лучше понять.

Profile

hitthelimit: (Default)
hitthelimit

March 2019

S M T W T F S
     12
3456789
10111213141516
17181920212223
242526272829 30
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jun. 29th, 2025 06:09 am
Powered by Dreamwidth Studios