я уже вроде давал линк на это: http://community.livejournal.com/carians/546004.html?thread=15395796#t15395796
Гонка за более мощным ИИ просто гарантирует его почти мгновенный, по человеческим меркам, приход в точку психогенной сингулярности. Если есть угроза человечеству со стороны ИИ, то только в виде осознания причины его зависания. Это и есть фактор риска со стороны ИИ. Если Юдковски сказал то же самое - молодец :)
Re: или-или
Date: 2009-10-31 01:19 pm (UTC)http://community.livejournal.com/carians/546004.html?thread=15395796#t15395796
Гонка за более мощным ИИ просто гарантирует его почти мгновенный, по человеческим меркам, приход в точку психогенной сингулярности. Если есть угроза человечеству со стороны ИИ, то только в виде осознания причины его зависания. Это и есть фактор риска со стороны ИИ. Если Юдковски сказал то же самое - молодец :)