![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Искусственный Интеллект (ИИ)
Для того, чтобы сразу понять, что термин ИИ не означает нечто совершенно конкретное, достаточно заглянуть на страничку «Интеллект» в Википедии. Если сам интеллект трактуется столь размыто, то что тогда говорить об искусственном интеллекте? Не считать же в самом деле перечисление всего того, что разные исследователи относят к интеллекту, проясняющим моментом.
Таким образом, с самого начала имеем примерно ту же самую ситуацию, что и с обсуждением, например, сознания - все та же обманчивая очевидность. Между тем этот вопрос не так уж сложно прояснить.
Взгляните на дельфинов, к примеру. Весьма развитый мозг, сложное поведение, большой запас сигналов для коммуникации, высочайшая адаптативность, передача навыков из поколения в поколение, исключительно сложный мозг, наконец (хотя последнее, впрочем, не совсем убедительный довод). Однако, несмотря на огромные усилия энтузиастов и солидных научных заведений, окончательного вердикта относительно разумности дельфинов как не было, так и нет. А ведь чего проще, казалось бы! И ничего создавать не надо, и материала для изучения предостаточно. Одних видов — 30! Самое время спросить: может «в консерватории что-то не так»? А именно, в наших ожиданиях относительно того, что мы готовы назвать интеллектом? Если столь мощная система, какой является мозг дельфина, не считается со всей очевидностью «разумной», значит, самое время определиться, что именно мы создаем под вывеской «ИИ».
Как считает Пенроуз в книге, комментарии к которой я привел постом ниже, человеческое понимание отличается тем, что позволяет нам делать некоторые простые на первый взгляд вещи, которые для компьютера пока что являются непреодолимым вызовом. Углубимся в этот момент. Первое, что хочется сказать, так это то, что мы таким образом делаем нечто необходимое нам. С другой стороны, требуя от компьютера этого же действия, мы требуем опять же что-то необходимое нам. Добавив к этому нашему умению свой превилигированный доступ к состоянию, связанному с выполнение данной функции, мы гордо заявляем, что машины — тупая, бездушная, и ни о каком понимании у нее не может даже идти речь. Можно не сомневаться, что с таким подходом мы еще долго будем создавать ИИ. Следуя мысли проф. Преображенского, а не проще ли нарожать?
Я полагаю, следует четко определиться с тем, что самое главное на наш взгляд в ИИ. Практически все сойдутся как минимум в одном требовании: ИИ должен выполнять некоторые действия. Нет, это я не пошутил. Ключевое слово здесь - «должен». Собственно, при таком раскладе, тему ИИ можно было бы считать закрытой. Если нам ИИ должен, то это уже никак не интеллект, по крайней мере, таковым мы его никогда не признаем. Что думал рабовладелец о своих рабах? Может показаться, что я передергиваю. В конце концов, ИИ может быть должен демонстрировать независимое мышление, или еще чего-то в этом духе. Увы, и в этом щедром варианте кроется все та же ловушка. Из чего следует, что дельфины не демонстрируют независимого мышления? А ведь они очень индивидуальны! Значит, не хватает чего-то существенного... для нас. Значит, опять кто-то должен нам!
Технически, сказанного достаточно, чтобы приступить к выводам.
Не существует никакого интеллекта, вообще.
Есть способность систем демонстрировать некоторые действия.
Собственные состояния систем при этом не должны считаться релевантными. Точнее даже не собственные состояния, и всего лишь их интерполяции, так как сами состояния не экстраполируются в неизменном виде во вне. Все тот же привилегированный доступ, видите ли.
Поэтому нет никакого смысла говорить о (нашем, или любой другой системы) понимании, а только о способности к неким действиям.
Допустим, больше всего нас интересует когнитивная способность и способность к эвристической деятельности при решении задач. Но это не так просто — вот так сказать. Необходимы некоторые существенные уточнения. Все уточнения на этот счет сведутся к тому, что речь идет о таковой деятельности... для человека. Видите ли, есть такая физическая система — человек. И шутка заключается в том, что мозг человека работает, как бы это сказать, что б не обидно... не только сам на себя. Строго говоря, уровень автореференции даже у самого продвинутого на этот счет мозга попросту плачевный. То, что мы поднимаем на щит в качестве высшей пробы своей разумности - осознание, понимание, есть не более чем пена на поверхности ментального варева, глубинная суть которого для нас совершенно не доступна. Вывод: интеллект нашего мозга — это интеллект нашего мозга, а вовсе не абстрактный интеллект. Тот факт, что при этом мы имеем математику, сути дела не меняет.
Отсюда мораль: любой ИИ, который мы склепаем, будет либо (1) простым набором изощренных программ, работающих с человеческой информационной требухой, либо (2) самостоятельной системой с набором собственных состояний, для экстраполяции которых потребуется нешуточной сложности система конвертации смыслов. Первое уже полным ходом делается, и успехи в этом направлении просто гарантированны. Но это никогда не будет признано ИИ, а только симулятором ИИ. (Я хочу подчеркнуть, что вопрос, будет ли это искусственным интеллектом на самом деле, не имеет смысла). А второе... А дельфины? А оно нам надо? Следует четко понимать, что любая система, созданная по второму сценарию, т.е. полностью самообучающаяся система, ориентированная на свои сенсоры, конструкцию и потребности, будет иметь свои собственные состояния, свою когнитивистику, свою эвристику, а в силу несовершенства конструкции — также свои эмоции. Однако конвертация всех этих состояний в человеческие аналоги станет, возможно, непреодолимым вызовом. Тогда напрашивается выход: задать конструкцией и базовым программным обеспечением заведомую близость в ее активном поведении параметрам человеческой психики. Но... тогда мы опять не признаем ее интеллектом, ибо она делает то, что она нам должна, и никому и в голову не придет думать о ее собственных состояниях как о равных человеческим. Повторится история, рассказанная в фильме «Двухсотлетний человек».
Создание системы по второму сценарию (полностью автономной) может иметь только академический интерес, но в случае успеха такая система все равно будет зависать, хотя несовершенные модели могут нешуточно доставить падкой на сенсации публике.
no subject
- Вы гарантируете?) Никогда не говори "никогда"...
И потом: наиболее переспективным направлением мне представляется создание гибридного интеллекта, так что и тут рассмотренная Вами альтернатива между прогами и дельфинами - может оказаться ложной. Какой нибудь генетически спланированный индивид гуманоидного облика с дополнительным программным контролем через твердотельный контур - как Вам такой вариант ИИ?)
Кстати, не смотрели сериал "Крейсер Галактика"?
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
(no subject)
no subject
no subject
> Есть способность систем демонстрировать некоторые действия.
> Собственные состояния систем при этом не должны считаться релевантными. Точнее даже не собственные состояния, и всего лишь их интерполяции, так как сами состояния не экстраполируются в неизменном виде во вне. Все тот же привилегированный доступ, видите ли.
> Поэтому нет никакого смысла говорить о (нашем, или любой другой системы) понимании, а только о способности к неким действиям.
Я бы это выразил другими словами.
Когда человек задается вопросом есть ли у некого объекта интеллект (сознание и др.), он рассуждает следующим образом: у меня есть интеллект, значит объект обладает интеллектом (сознанием) в той степени, в которой он похож на меня по ряду критериев.
Критерии выбираются в зависимости от того, что оценивается - интеллект, сознание или др.
При оценке интеллекта центральный критерий - способность предсказывать последующие события на основе наблюдения предыдущих в тех же ситуациях, в которых это могу делать "Я".
На первый взгляд, этот критерий субъективен и не имеет смысла. Но с другой стороны, для нас смысл имеет все, что работает, а такой критерий может работать. Важно только понимать его субъективную природу.
> Следует четко понимать, что любая система, созданная по второму сценарию, т.е. полностью самообучающаяся система, ориентированная на свои сенсоры, конструкцию и потребности, будет иметь свои собственные состояния, свою когнитивистику, свою эвристику, а в силу несовершенства конструкции — также свои эмоции. Однако конвертация всех этих состояний в человеческие аналоги станет, возможно, непреодолимым вызовом.
Лично мне весь мой опыт говорит о том, что физическая вселенная - очень тесный мир. В нем нет места для нескольких в корне различных систем, обладающих перечисленными вами атрибутами (самообучение, потребности).
Помните старую фантастику, в которой жизнь возникает везде - и в недрах звезд и на основе кремния вместо углерода... Сейчас уже почти очевидно, что это все чушь.
Аналогично и с интеллектом. Вселенная, в которой существет материя и детерминированные физические законы - это место, где живет человек, такой, какой он есть и никакой другой.
Любая конструкция, которую можно впереть в рамки любой физической вселенной, и которая обладает некоторыми атрибутами человека будет очень похожей на человека.
Естесственно, к ИИ не подойдешь, не похлопаешь по плечу типа "хороший парень" и он не будет разделять американские ценности. Но если рассмотреть будущий ИИ с достаточной долей научной трезвости, наверняка он будет восприниматься как существо наделенное сознанием, интеллектом и очень сходное с человеком.
> Создание системы по второму сценарию (полностью автономной) может иметь только академический интерес.
Думаю, что он начнет работать только тогда, когда в нем будут повторяться все основные психические механизмы человека. Соответственно он будет иметь огромную ценность в продвижении нашего понимания того что мы есть.
(no subject)
(no subject)
(no subject)
еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Оптимизм другой природы.
Re: Оптимизм другой природы.
Re: Оптимизм другой природы.
Re: Оптимизм другой природы.
Re: Оптимизм другой природы.
Re: Оптимизм другой природы.
Re: Оптимизм другой природы.
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Re: еще скепсиса для разнообразия :)
Поиск заканчивается, когда мы становимся серьезными ©
Re: Поиск заканчивается, когда мы становимся серьезными
Интеллект, ИИ и самообман
Прошлый раз мы, увы, не достигли взаимопонимания (не исключаю, что по моей вине), но надеюсь что новая моя попытка не будет Вами рассматриваться в контексте старого неудачного дискурса. Работу над ошибками я провел, разумеется в меру своей "испорченности".
То, что Вы называете "состоянием мозга", я, с Вашего позволения, буду называть "состоянием психики" (там, где использование определенного термина "мозг" для меня недопустимо настолько же, насколько неудачное поименование мной основополагающих для Вас явлений привело к прекращению нашего прошлого дискурса). Надеюсь для Вас это не принципиально?
Насколько мне удалось уловить (схватить) цель данной публикации, Вы демонстрируете ею движение мыслей от состояний меток высого уровня к начальным, демонстрируя что пирамида меток и связанных с ними сосотояний психики от этого ничуть не изменяется. Тем самым и попутно доказывая читателю, что неуспехи в создании ИИ объясняются неопределенностью, а еще точнее - отсутствием (несуществованием) такой метки (понятия), как "Интеллект" (метка эта голимо надуманная, излишняя). Это так?
[b]На этом заканчиваю вступительную часть, перехожу к существу вопроса.[/b]
1. Неопределеность понятия (метки) "Интеллект", т.е. отсутствие согласия разных индивидов в этом вопросе, позволяет Вам сделать вывод о том, что Интеллекта может не существовать как отдельного состояния психики, и далее показать что это так и есть, а потому эту метку в своей психике каждый ставит совершенно произвольно и даже, излишне. Если это так, то у меня первый вопрос к Вам:
- (А) Вы не видите других причин (или, может быть, рационально отрицаете их), которые могут привести к тому же результату - отсутствию конвенционального и однозначного понятия "Интеллект"?
2. Про дельфинов вопросов нет. Тем более и я приветствую Ваш вопрос (рационально выводимый из описания дельфиньих сопособностей) - «в консерватории что-то не так»? А вот переход Вашей мысли от "что-то" к "надо" вызывает у меня вопросы (наверное я не уловил здесь рациональности, т.е. не понял Вас):
Сразу оговорюсь, что "защитить" ход мыслей Пенроуза от Вашей критики попытаюсь в предыдущей теме.
Мне тоже "очевидно" понятно, что исследователь дельфинов (ищущий у них "Интеллект") ищет нечто, что оправдало бы его собственные ожидания (его представления об искомом). Конечно в общем виде это можно сформулировать и так - "он ищет необходимое ему", но эта формулировка (на мой взгляд) еще более затуманивает главный вопрос [b]- рационально ли поставлена задача поиска этим экспериментатором?[/b] - Давайте это рассмотрим?
Не зная сам, что есть "Интеллект" (термин корректно не определен, см. выше), экспериментатор пытается выделить произвольно выбранные им параметры своей психики и найти их в психике дельфина, даже не удосужившись уведомить дельфина о том, что именно он хочет от дельфина, чтобы тот ему показал. Это рационально?
А поиск "работающего телевизора" на свалке исходя из представления, что "работающий телевизор" должен показывать (прямо на свалке, как лежит) ту телепередачу, которую "загадал" ищущий перед поисками, менее рационален?
Вполне уместен и Ваш вопрос (оппонентам, см. ниже) - А с чего это экспериментатор решил, что к психике дельфина у него столь же привилегированный доступ, как и к своей психике?
А я бы к Вашему вопросу добавил еще и свой - А с чего он взял, что у него "экспертный" уровень доступа даже к своей психике (что он понимает, как эта психика работает, а потому имеет основания считать себя "экспертом по психике" человека)?
Теперь вопросы к Вам (выше они были скорее риторические, для прояснения ситуации):
- (Б) Как из нерациональности постановки задач поиска "необходимого" (многими, увы, экспериментаторами) Вам удалось сделать вывод о нерациональности любых (даже рационально поставленных) поисков этого "необходимого"?
- (В) Не повлияло ли на Ваш вывод (см. вопрос Б) то обстоятельство, что Вы априори не допускаете наличия такого "состояния психики" (не важно чьей), для которого метка "Интеллект" была бы не излишней, т.е. реально описывала бы некое "особое" и вполне критериально идентифицируемое "состояние психики", характерное не для всех психик?
Есть вопросы и далее по тексту, но ограничусь пока этими (чтобы не перегружать дискурс).
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
самообман
Re: самообман
Re: самообман
Re: самообман
Re: самообман
Re: самообман
Re: самообман
Re: самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Re: Интеллект, ИИ и самообман
Парадокс марионетки.
no subject
// любой ИИ...будет... (2) самостоятельной системой с набором собственных состояний,
для экстраполяции которых потребуется нешуточной сложности система конвертации смыслов.//
и //любая система, созданная по второму сценарию... будет иметь свои...
Однако конвертация всех этих состояний в человеческие аналоги станет, возможно, непреодолимым вызовом.//
Разве не получается так, что "система конвертации смыслов" или "система конвертация состояний в человеческие аналоги" будут иметь сложность, превышающую сложность систем самих разработчиков и ИИ? Если экстремум есть, то он может быть достигнут еще до того, как заработает агрегат. Разве не так?
И еще.
Мне кажется, что заявляя о невозможности создания ИИ2, Вы тем самым как бы модифицируете задачу на его разработку. Это я не в защиту разработки ИИ говорю, но делюсь соображениями от прочтения. Модифицированная задача для ИИ2 (а то и для ИИ1) может быть следующей: экспериментально проверить гипотезу о пределе сложности системы, а также выяснить условия прохождения точки экстремума.
(no subject)
Сложность систем и сложность задач
Re: Сложность систем и сложность задач
Re: Сложность систем и сложность задач
Re: Сложность систем и сложность задач
Re: Сложность систем и сложность задач
Иная система
Re: Иная система
Re: Иная система
Re: Сложность систем и сложность задач
Re: Сложность систем и сложность задач
no subject
Куда он пропал?
no subject
По теме.
Имя этого человека часто мелькает на разных страницах в сети. Ученый?...
Вот описание его мысленного эксперимента (каким я нашел его тут: http://www.mgimo.ru/files/119789/119789.pdf )
«Сирл предлагает мысленный эксперимент. Представим закрытую комнату, где есть лишь одна щель для передачи листов бумаги. Внутри комнаты находится профессор Сирл с огромным количеством инструкций на английском языке. Кто-то передает лист бумаги, исписанный каракулями, в комнату. Сирл консультируется с книгой инструкций. В ней говорится, что если в комнату передается лист с каракулями, то из комнаты должен выйти другой, но четко описанный набор каракулей. Он делает это. Чуть позже поступает еще один набор каракулей.
Он снова смотрит в инструкции и выдает другой набор и т.д.
Эти наборы каракулей, совершенно незнакомые Сирлу, являются
китайскими иероглифами, составляющими вопросы на китайском языке.
Наборы каракулей, исходящие из комнаты, являются подходящими ответами на эти вопросы. Люди, находящиеся снаружи, говорят, что так как комната может ответить на любой вопрос, заданный на китайском, то она должна понимать китайский.
Нет, не должна – отвечает Сирл. Он, Джон Сирл, совершенно не знает
китайского языка. И именно это и происходит в компьютере. Компьютер бессмысленно следует набору инструкций – программе: он не обладает пониманием, и при этом подходе к ИИ никогда не будет им обладать.»
Лично меня берет оторопь, когда я читаю такое, написанное и обсуждаемое на полном серьезе. Даже комментировать как-то неудобно. (Эта цитата приведена в связи с обсуждением проблем ИИ, в частности, отсутствие у машин «понимания». Уровень, однако?...)
PS Как хорошо, что есть ученые, которым нас@&ть на "понимание".
no subject
http://lib.rus.ec/b/211853/read
Автор не глубоко копает, но его концепция устройства ИИ и мозга похожа на правду.
Суть в следующем.
Мозг воспринимает входящие сигналы, обнаруживает повторяющиеся паттерны и образует в нейронной сети алгоритм, постоянно предсказывающий входные сигналы в реальном времени.
Т.е. грубо говоря, если на вход мозга подавать синусоиду, то через некоторое время нейронная сеть аппроксимирует этот паттерн и начинает генерировать параллельно входящей синусоиде точно такую же синусоиду, которая подается обратно во входные области мозга параллельно настоящему входящему сигналу. Генерированная синусоида смешивается с входной и дополняет ее на случай перебоев в работе входного рецептора, незначительных флуктуаций и др.
Дальше, специальные нейроны сверяют генерированную синусоиду с настоящей входной и молчат, пока имеется полное совпадение. Если входная синусоида перестает совпадать с генерированной, это означает, что обнаружен новый незнакомый паттерн и процесс аппроксимации запускается снова. Таким образом, раз за разам мозг получает все боле точную аппроксимацию для всех вариантов входных сигналов, т.е. отражение реальности.
Автор не пишет о снах и воображении, но в принципе, при такой модели понятно что такое воображение и сны: мозг имея аппроксимацию действительности спонтанно гоняет ее в реальном времени. При этом механизм сверки с реальностью временно отключается и входные сигналы полностью подменяются генерированными. Этот процесс может захватывать самый верхний уровень нейронов (возбуждение которых соответствует общим образам), или может распространяться почти до органов чувств. В последнем случае воображаемая картина будет очень детальной.
Во время бодрствования мозг постоянно видит "сон наяву", точно так же как и во сне, генерируя реальность с использованием имеющейся в нейронной сети аппроксимации. Только в отличии от настоящего сна "реальный сон" постоянно корректируется при возникновении расхождения между входными сигналами и сигналами предсказанными аппроксимацией.
Дальше возникает вопрос о принятии решений и действии.
Тут автор вводит идею о том, что действие имеет тот же механизм, что и восприятие.
Фишка в том, что сигналы, получаемые мышцами, для аппроксимирующей машины мозга представляют собой равноправную часть аппроксимируемой картины (несмотря на то, что они мозгом же и созданы). Сигналы к мышцам - точно такая же часть "сна", как и сигналы от органов чувств. Соответственно, когда мозг запускает в воображении некий паттерн, в него включено предсказание как входных сигналов, так и выходных. Т.е. мозг предсказывает и собственные выходные сигналы тоже, не делая отличия где его сигналы, а где внешние.
Таким образом, если мозг хочет чего-то, ему нужно найти в памяти и запустить аппроксимированный паттерн, который соответствует выполнению желания.
Т.е. если мозг хочет чего-либо, он это просто воображает. Только, в отличии от чистого воображения, паттерн запускается не в свободном режиме, а в режиме синхронизации со входной действительностью. Поскольку паттерн включает и сигналы к мышцам, сон становиться явью.
Для того, чтобы это работало автор вводит смутные понятия "иерархичности" и "инвариантности паттернов".
Инвариантность паттернов заключается в том, что они хранят не просто аппроксимацию отрезка входных сигналов, а аппроксимацию всех возможных вероятных вариантов развития ситуации, усвоенными паттерном на опыте.
Понятие "иерархичности" нейронной сети вводится (ИМХО - автор этого возможно не осознает) для включения в работу мозга принципа Окама. Реальность держится на принципе наибольшей эффективности наипростейших объяснений. Это означает, что каждый паттерн должен быть представлен в памяти как можно более компактной аппроксимацией. Эта цель и достигается частично за счет введения в структуру сети иерархичности, при которой каждый последующий слой нейронов упрощает входную информацию к перечню символов, которые аппроксимируются последующим слоем.
Описываю вам это в основном для того, чтобы самому лучше понять.