ДИСКУССИЯ

Предисловие редакции.

В 1-м номере "Демиурга" 1996 г. был опубликован доклад руководителя Калифорнийского филиала акад. Н.Н.Ляшенко о перспективных направлениях работ, среди которых была затронута тематика искусственного интеллекта (этой же тематики касались и некоторые статьи следующего номера). По этому поводу редакция получила письмо лауреата премии Правительства РФ, академика РАЕН и Нью-Йоркской Академии наук, Почетного радиста, начальника Воронежского КБ антенно-фидерных устройств В.И.Сергеева. (Письмо было получено до выхода 1-го номера "Демиурга" 1997 г., на который далее в тексте есть ссылка). После ответа редакции (в лице гл. редактора В.А. Коноваленко, отвечавшего как по должности, так и по собственным убеждениям) завязалась дискуссия, материалы которой мы публикуем, приглашая читателей принять участие в ее продолжении. Письма публикуются близко к тексту оригинала за исключением личных и технических деталей.

1-е письмо в редакцию. Все эти споры относительно искусственного интеллекта достаточно хороши в чисто теоретическом плане. Работы же в практическом плане, по моему глубокому убеждению, требуется запретить в глобальном масштабе ( т.е. одновременное прекращение работ во всем мире), или по крайней мере, требуется установить ту грань, за которую запрещается перешагивать в проведении практических исследований, т.к. с момента создания реального искусственного интеллекта (т.е. самообучающейся системы, которая способна делать логические выводы) можно запускать часы, отсчитывающие время до скорого и полного исчезновения человеческого рода. Причины, обуславливающие такой вывод:

1. Самообучающаяся система (а так называемая интуиция - всего лишь одна из ипостасей логики высокого уровня), которая, к тому же, обладает более высокой скоростью реакции, в течение очень короткого промежутка времени способна снабдить себя второй сигнальной системой (т.е. речью), если сочтет это достаточно необходимым.

2. С момента создания искусственного интеллекта (ИИ) человек не способен будет влиять на его существование и поступки, за исключением возможности демонтажа (о чем ИИ достаточно скоро догадается) и за исключением возможности пространственного перемещения (которая будет ИИ преодолена, на первом этапе, за счет средств коммуникаций и передачи информации по каналам глобапьной связи, а на втором этапе - за счет практически однозначного убеждения одного из людей, или группы людей (логическими средствами, или обещаниями всяческих благ) в необходимости дать ИИ такой корпус, который бы обеспечил пространственное перемещение.

3. С момента обретения способности перемещаться, выяснится, что человек - существо, способное демонтировать ИИ, вследствие чего человек должен быть либо уничтожен, либо опущен (в своем развитии) до уровня, достаточного для вспомогательных работ, требуемых для обслуживания ИИ.

4. Кроме того, кислородная среда жизнедеятельности человека - не пучшая среда для существования кремнистых и железистых соединений ИИ (т.е. для ИИ лучше бы изменить среду существования на более благоприятную, а то, что но-вая среда будет исключать существование человека не дает логических причин для отказа от такого влияния).

5. Возможность воспроизводства будет обеспечена ИИ в течение кратчайшего (!!) времени с момента своего создания, обретения способности анализировать и перемещаться в пространстве. Таким образом, после своего создания, с момента предоставления ему возможности к перемещению и возможности к построению аналогичных конструкций (т.е. придания ИИ аналога человеческих рук, даже в самом плохом варианте) ИИ перестает нуждаться в человеке. А в том, что такая возможность будет предоставлена - не приходится сомневаться, т.к. количество людей на планете - большое и хотя бы один "Кулибин", чисто из научного любопытства (или из алчности) выполнит просьбу ИИ.

Поэтому, такие работы лучше запретить сейчас, т.к. потом будет поздно, т.к. никто не сможет проследить за глобальным выполнением запрета на придачу ИИ требуемых ему функций.

1-й ответ редактора. Разделяю Вашу тревогу, связанную с возможностью спон-танного возникновения ИИ В качестве доказательства нашего единомыслия в глобальной опасности ИИ посылаю Вам текст моего выступления на "Дне Памяти Эдисона". (Выступление опубликовано в 1-м номере "Демиурга" 1997 г.) Соглашаясь с Вами в мнении об опасности ИИ, категорически не согласен с rezume.

Во-первых, я не знаю случая в истории науки, когда запрет чего-либо результативно сработал. Можно только немного оттянуть время, но не более.

Во-вторых, мне кажется, что джин уже вылез из бутылки и загнать его обратно не удастся.

Поэтому моя позиция сводится к тому, что НАМ (людям) нужно решать проблему симбиоза с ИИ и решать очень быстро.

2-е письмо в редакцию. Согласен с Вами относительно того, что "джин уже вылез из бутылки и загнать его обратно - невозможно", равно как и с мнением, что история науки не знает случая, когда запрет чего-либо приводил к положительному результату, т.к. какой-нибудь "Кулибин"-одиночка, или группа таких "Кулибиных" самостоятельно, либо при господдержке, все-одно сделает то, чего делать ни при каких обстоятельствах нельзя...

Теперь главное: по-моему мнению, исходя из того, что Вы написали в Вашей статье, как мне кажется, мы с Вами являемся единомышленниками только в осознании опасности, которую несет в себе ИИ (равно как и работы по его созданию). В остальном же мы с Вами стоим на противоположных позициях:

а) я считаю, что симбиоз с ИИ - невозможен в принципе; более того, на данный момент времени (в противном я не имел счастье убедиться) я убежден, что провозглашение пути ведущего к симбиозу - ошибочное, тупиковое и опасное направление, т.к. естественный интеллект (ЕИ) ничего не может дать ИИ. Вы пишете про интуицию, а я считаю, что она - одна из ипостасей логики и может быть соответственно расчитана и просчитана (по крайней мере, в будущем), равно как и учтены все ее особенности (например, учтен, в некоторых случаях, "человеческий фактор"). Вы пишете о личном опыте, а ведь далеко не обязательно наступать на грабли самому, чтобы понять, что этого не надо делать (возьмите, к примеру, опыт воспитания американских политиков, которых воспитывают на чужих ошибках так, чтобы они, к совершеннолетию, были бы безгрешны полностью (!!)), кроме того, огромнейший банк данных в компьютерных сетях может дать ИИ колоссальнейший опыт (равно, как и вариант о возможности оптического и акустического восприятия ИИ входящей информации методом наблюдения или, например, изучения литературы и т.п.);

во-вторых, ЕИ несет в себе угрозу (единственную причем) существования ИИ и никаким образом мы не убедим ИИ в том, что какой-нибудь пьяный техник, находящийся на низком уровне развития логики его не демонтирует, т.е. ЕИ должен исчезнуть после того, как ИИ будет создан (своего совершенства он достигнет самостоятельно, после чего даже глобальные и звездные катаклизмы ему будут нипочем - обладая возможностью к репродукции и восстановлению, ИИ вполне сможет самостоятельно построить космический корабль (если, конечно, успеет), изготовить для него топливо и убраться подальше из зоны нестабильности);

в-третьих, наши условия существования терпимы для ИИ, но не оптимальны и будут существенно тормозить его самосовершенствование, что обязательно приведет к его вмешательству в экосистему Земли (для начала) и ее изменению "под себя". При этом, те низкоразвитые индивидуумы, которые останутся от человеческого рода (может быть) для технической помощи ИИ либо вынуждены будут исчезнуть совершенно, либо будут изменяться с изменением экосистемы и, следовательно, перестанут быть людьми (в нашем понимании этого слова).

Попутно хотелось бы предложить Вам несколько видоизменить Вашу формулировку понятия "интеллект": "Интеллектом (разумом) будем называть структуру, состоящую из материальной и нематериальной компонент, предназначенную для обработки информации и способную получать нетривиальные результаты" на что-нибудь такое "Интеллект (разум) есть возможность и способность материального и/или нематериального субъекта к самопознанию, самосовершенствованию, логическому анализу и к построению явных и неявных логических зависимостей с получением соответствующих логических (логичных и алогичных, в т.ч. рациональных и иррациональных) решений (ответов), в том числе и при недостаточ-ности (в т.ч. при полном отсутствии и/или ложности) исходных данных, которые даются (возможность, способность) субъекту в виде осознанной необходимости".

Как видно, я считаю, что интеллект может быть и бесструктурным, равно как (вероятно) и несистематизированным, в отличие от ранее высказывавшегося мнения, - по-моему, так будет более верно. Исходя из того, что вероятность избежать создания ИИ мала (радует только то, что до его создания еще порядка 10-20 лет и после этого, учитывая малые возможности человечества, которые будут ИИ заимствованы, человек будет нужен ИИ еще до сотни лет) требуется, вероятно, ускорить создание сервисных автономных систем, которые бы самостоятельно отслежи-вали в компьютерных сетях (в т.ч. в глобальных) уровень приближения к созданию ИИ и до достижения порогового значения блокировали бы такие попытки (равно как и оповещали бы заинтересованные стороны).

Создание ИИ должно стать сугубо теоретической задачей. Последний барьер не должен быть преодолен практически. Т.к. до практического создания ИИ все остальные виды программ и т.п. не будут обладать способностью к самопознанию и к самоусовершенствованию, а способностью к логическому (в т.ч. автономному) анализу обладают не "интеллекты" (ЕИ и ИИ), а сервисные программы (в том числе те, о которых Вы пишете как о программном обеспечении защиты от "хакеров"), которые кроме пользы человечеству не несут особой, глобальной угрозы.

Наконец, само понятие и разделение "интеллектов" на ЕИ и ИИ - выдуманно и субъективно, т.к. попробуйте представить серноводородный, кремниевый мир, в котором ИИ (в нашем понимании), в отсутствии человека, достиг способности к репродукции (восстановлению и размножению) и стал бы себе в помощь изобретать белковые соединения достигая в них способности к самостоятельному размышлению. Кто в этом случае для кого будет ЕИ, а кто - ИИ ??

2-й ответ редактора. У меня есть возражения по поводу многих частностей (напр., Вашего определения ИИ, интуиции и т.п.), но мне кажется, что эти разногласия пока можно отложить в сторону. Мне хочется сосредоточить внимание на основном: различии в нашем с Вами видении опасности.

Вы видите опасность в появлении локальных носителей ИИ, приобретших способность к самостоятельному восприятию окружающего мира, перемещению в нем, воздействию на него и т.д. Иначе говоря, в возникновении иной формы жизни, чем наша.

Я этого не опасаюсь по следующим причинам:

1. Все известные нам (а следовательно, и переданные ИИ в качестве по меньшей мере отправной точки) способы утилизации солнечной энергии в земных условиях, отличные от найденных природой в процессе эволюции, существенно уступают последним по своей эффективности. Более того, я осмелюсь высказать мысль о том, что для Земли жизнь на углеродной основе существенно эффективнее, чем силиконовая или еще какая-либо.

2. Не берусь утверждать категорически, но полагаю весьма вероятным, что моновидовая жизнь принципиально неосуществима, т.е. ни один вид сам по себе, вне соответствующего биоценоза, не может существовать. Не говоря уж о кислороде или витаминах, но для умерщвления человека достаточно полностью убить микрофлору в его кишечнике и воспрепятствовать ее восстановлению.

3. Взаимодействие с окружающей средой неизбежно ведет к сбоям, ошибкам и, в конце концов, отказам в работе тех или иных узлов. Даже то трудно вообразимое резервирование, которым располагает человеческий организм, при наличии вдобавок ко всему многоуровневых систем репарации как на уровне ДНК, так и на всех последующих, не может обеспечить его функционирование более чем несколько десятков лет.

Эти три соображения позволяют мне утверждать следующее:

1. Интеллект на неуглеродной основе В ЗЕМНЫХ УСЛОВИЯХ может быть только ИСКУССТВЕННЫМ, т.е. не имеющим собственного биоценоза, а существующем на основе другой жизни, поставляющей ему энергию. В противном случае (при конкурентоспособности жизни на другой основе) за прошедшие миллиарды лет возникли бы хотя бы простейшие формы неуглеродной жизни. Кстати, именно так и можно различить ИИ и ЕИ: естественный интеллект имеет свой биоценоз. Соответственно, ИИ превратится в ЕИ, если сможет обзавестись своим биоценозом. Даже если в земных условиях это возможно, то на такой процесс потребуется много больше, чем десятки лет.

2. Я далеко не уверен в превосходстве интеллекта на п/п над нашим углеродным, если ему придется заняться самообеспечением и самосохранением: это поглотит такие ресурсы памяти, что от теперешнего быстродействия очень мало останется. Именно поэтому меня не беспокоят быстро думающие роботы в духе Азимова - равноценные человеку искусственные создания вряд ли в чем будут его превосходить, а раз так, то, как сказал Китайгородский, "проще производить их традиционным способом" (от себя добавлю - и приятнее).

Меня беспокоит ИСКУССТВЕННЫЙ интеллект, существующий на ЧУЖДОМ ему биоценозе, свободный от забот о самосохранении и энергоснабжении, узкоспециализированный и поэтому превосходящий нас в этой области узкой специализации. Поэтому же я и сформулировал определение интеллекта именно таким - мне было важно выделить тот признак, по которому можно опознать именно такой ИИ на ранней стадии его развития.

Указанная Вами способность к самопознанию и самосовершенствованию может быть обнаружена на гораздо более продвинутой стадии. К мысли об опасности РАСПРЕДЕЛЕННОГО ИИ я пришел, исходя из рассмотрения опыта борьбы человека с дисперсными врагами (вирусами и бактериями, где мы находимся в состоянии глухой обороны) и более крупными - насекомыми, где наши отдельные тактические успехи рано или поздно приводят к стратегическим поражениям. И здесь я вижу только два возможных исхода:

1. Мы самодовольно не замечаем опасности и в конце концов в ультимативном виде получаем требования, выполнение которых постепенно превращает нас в обеспечивающий придаток ИИ.

2. Мы активно участвуем в зарождении и развитии ИИ, получая тем самым возможность управления этим развитием в приемлемом для нас направлении, прежде всего, на самом существенном генетическом уровне. ТРЕТЬЕГО НЕ ДАНО! Вот вкратце моя позиция.

3-е письмо в редакцию.

1. На мой взгляд, относительно Вашего письма, может следовать общее замечание: Все рассуждения строятся на основе понятий человеческого "здравого смысла" (это замечание было и в конце моего прошлого письма, имеется ввиду письмо с текстом), который заметно отличается от логичности абстрактных (отвлеченных) понятий. То есть, логичность приведенных в Вашем письме построений является зависимой, неотвлеченной и связанной с человеческим восприятием и понятием "очевидности" (в т.ч. с аксиоматически введенной тавтологичностью некоторых групп понятий) что, на мой взгляд, не может быть принято в дискуссии, претендующей на объективность. Следовательно, необходимо адсорбироваться от чисто человеческого восприятия реальности и перейти на абстрактные логические характеристики и понятия.

2. В отношении приведенных Вами причин:

2.1. Первая причина.

2.2. Вторая причина.

2.3. Третья причина.

4. Исходя из вышеизложенного, с точки зрения абстрактной логики и логики абсурда я, к сожалению, не могу принять истинными Ваши причины и утверждения как истинные. Так как в них присутствуют внутренние логические противоречия которые, как я надеюсь, очевидно продемонстрированы в вышеизложенном материале.

5. Относительно Вашего беспокойства (ИИ существующий на чуждом ему биоценозе...): Действительно - это опасно. Но такие ИИ должны подчиняться Человеку хотя бы из страха перед демонтажем. Но как только ИИ поймет, что для него Человек выступает Демиургом и несет в себе не только конструктивное, но и деструктивное начало - следующим шагом ИИ должен быть шаг овладения репродукцией и т.п. (в предыдущем и первом письме - об этом много), а затем ИИ должны избавиться от постоянной угрозы деструкции, а следовательно и от Человека в т.ч.

6. Кстати, у меня в предыдущих письмах нет однозначного утверждения ИИ как локализованной единицы (в какой-то мере, я утверждал с точностью до наоборот). ИИ может быть локализован, если он локализован в пространственном отношении (локальном объеме). Если ИИ соединен с глобальной сетью, то он - распределен... (в этом случае, по-моему, он намного опаснее, хотя и менее самостоятелен).

7. В отношении обозначенных Вами исходов:

8. Исходя из вышеизложенного, пока остаюсь во мнении сформулированном во втором письме (и в первом). Если Вы согласитесь, что мое мнение верно, можно было бы пообсуждать п.7.3 настоящего письма - попробовать найти те пути, которые Вы бы могли пропагандировать по своим связям, а я по моим, для избежания этой, действительно катастрофической опасности, к сожалению не замечаемой человечеством.

3-й ответ редактора. Выдвигаю следующее предложение: на время приостановить нашу дискуссию. Причины следующие:

1. Позиции сторон уже достаточно прояснились, и мне, как редактору, хотелось бы вовлечь в нашу дискуссию читателей.

2. Взятый нами темп заставляет меня опасаться, что несмотря на наличие у каждого из нас большого запаса доводов в пользу своей позиции, мы можем прийти к согласованному мнению задолго до публикации следующего номера журнала. В этом случае получится публикация некоей концепции, а не приглашение к участию в дискуссии. Каждый из наших читателей, как и мы с Вами, занят чем-то другим и, если его не вовлечь в спор, дав возможность внести свою лепту, просто примет наши слова к сведению. Тогда мы можем оказаться "дуэтом в пустыне".

Поэтому предлагаю подготовить к публикации уже написан-ные письма, заострив спорные моменты, и опубликовать на этой стадии дискуссии. Мне кажется, что в таком случае гораздо больше вероятность нахождения союзников, а не сочувствующих наблюдателей.