Интеллекты и рулетка
(редакционный обзор)
Илон Маск, сооснователь Apple Стив Возняк и ещё 1000 влиятельных представителей
IT-индустрии подписали письмо с просьбой приостановить хотя бы на полгода
разработку систем мощнее GPT-4, чтобы успеть подготовить протоколы безопасности.
GPT – это чат-бот, разработанный американской компанией OpenAI. Он способен
выполнять задания, ранее недоступные для подобных систем: от создания художественных
произведений до программирования. Сегодня на базе GPT производят уникальные
сервисы, начиная с персонального ИИ-советника в области инвестиций и заканчивая
решениями, помогающими врачам установить правильный диагноз и подобрать
оптимальное лечение. По заданию немецкого издания Berliner Zeitung ChatGPT
подготовил проект мирного договора между Россией и Украиной по урегулированию
конфликта, а также тексты писем федерального канцлера ФРГ Шольца Путину
и Зеленскому с призывом к миру... Известны также случаи, когда ChatGPT
использовали в сомнительных или откровенно незаконных целях: GPT сдавал
экзамены в вузах, генерировал ключи лицензионных программ, выигрывал в
лотерее...
«Общественность» давно беспокоит вопрос взаимодействия ИИ и ЕИ, а точнее:
будет ли «война» между ними? Ответ очевиден: всенепременно! Ибо человек
не изобрёл до сих пор ничего, от «кельта» до лазеров и космических
ракет, что бы он не использовал во вред самому себе и себе подобным! Причём
неблагоприятного исхода ожидают многие. Так, один из опросов показал: почти
половина из 738 специалистов по машинному обучению дали не менее 10 % вероятности
«крайне плохого исхода» в результате развития ИИ. В другом исследовании,
в котором опросили 44 экспертов в области безопасности ИИ, вероятность
«апокалипсиса» оказалась равна 30%, причём отдельные специалисты оценили
её выше 50%. Сабети из Силиконовой долины по этому поводу отметил, что
шанс проиграть в русскую рулетку с шестизарядным револьвером всего навсего
– 17%.
Выхода ИИ из-под контроля боятся и неспециалисты, и руководители ведущих
технологических компаний. Почти треть россиян (30%) считает, что в ближайшие
полвека произойдёт восстание машин. Однако, как показал апрельский опрос
ВЦИОМ, 50% наших сограждан в такую угрозу не верят. Ещё один недавний опрос,
проведённый порталом Superjob, показал, что развития ИИ боятся всего 17%
экономически активных взрослых россиян, а 43% такая перспектива не пугает
(остальные 40% респондентов затруднились ответить). При этом люди, разбирающиеся
в нейросетях, допускают возникновение проблем на рынке труда. Страхи обоснованы
– по мнению экспертов банка Goldman Sachs, искусственный интеллект, а также
основанные на нём сервисы и приложения приведут к сокращению 300 млн рабочих
мест по всему миру. В зоне риска – профессии, связанные с бухгалтерией,
офисной и административной работой. Сгущаются тучи и над работниками транспорта
и сферы услуг.
Но экспертов по IT куда больше пугает вероятность выхода ИИ из-под контроля
ЕИ. По мнению Илона Маска ИИ намного опаснее ядерного оружия. Это важная
мысль: ядерная энергия, которая сейчас широко применяется в мирных целях,
как известно, сперва была использована наихудшим образом – в качестве бомб.
Переход на мирное использование атомной энергии занял 9 лет (1945 – 1954).
В Pause Giant AI Experiments: An Open Letter подписанты просят полгода.
Достаточно ли этого? История знает множество примеров, когда прогресс пытались
остановить (те же луддиты в Англии), но ни разу это не получилось.
Первый автомобиль на улице
Лондона: впереди идёт человек с флагом!
Более того, по мнению некоторых специалистов предотвратить неблагоприятное
для людей развитие ИИ уже нельзя – опоздали! В марте вышла четвёртая версия
программы. Исследования показали наличия у неё «искр разума». Как известно,
искры бывают разные: некоторые зажигают пламя, другие просто гаснут в тумане...
Эксперты выделяют три типа искусственного интеллекта (как с «искрами»,
так и без них). Все существующие ИИ относятся к ANI (Artificial Narrow
Intelligence) – узкому ИИ, направленному на выполнение определённых заданий.
Следующая стадия – AGI (Artificial General Intelligence), общий искусственный
интеллект или сильный ИИ – сможет решать любые задачи, доступные человеку.
Продолжением должен стать ASI (Asyncronous Serial Interface) – суперинтеллект,
нечто из области фантастики (пока не очень научной). По идее именно он
может что-либо поджечь.
Однако, многие российские эксперты в области IT-технологий неоднозначно
оценивают саму возможность перехода существующих систем ИИ на новый, «самостоятельный»
уровень. Некоторые специалисты считают, что технологической основы для
такого перехода пока не существует. Чтобы перерасти в сильный ИИ, система
должна научиться изменять свой первичный код. «Именно так делают люди,
постоянно переписывая нейронные связи в мозге. ИИ придётся запросить модификацию
своего кода у разработчика либо обойти этот барьер и выполнить модификацию
самостоятельно. При этом он должен обладать достаточным уровнем мышления,
чтобы не допустить ошибку в переписывании кода и, например, не заблокировать
себя. Пока мы далеки от создания такого интеллекта», – уверен Макеев.
Наконец, некоторые эксперты отмечают, что даже с самим понятием «общего
ИИ» не всё однозначно. «Сперва нужно прийти к общему пониманию, что же
такое AGI и точно ли он достижим. Однозначных критериев пока нет. Мы до
сих пор не до конца понимаем, как работает память, мышление и многие другие
биологические процессы», – объясняет руководитель группы группы машинного
обучения Positive Technologies Мурзина. По её словам, мы «и близки к цели,
и одновременно далеки от неё». «Развитие технологий нелинейно, и трудно
предсказать, когда будет следующий прорыв, чтобы приблизиться к AGI», –
считает она. Если предотвратить появление AGI не удастся (а это, безусловно,
так), то ограничить его технологические возможности – более чем реально,
полагают специалисты (напрасно полагают, что сами тут же и доказывают!).
«Для обучения нейросетей нужны совершенно конкретные вычислительные мощности,
наборы данных. Без доступа к технологической инфраструктуре, «на коленке»,
никакие системы, угрожающие человечеству, создать нельзя. Бигтехов в мире
не так и много, вполне можно договориться об ограничениях, тем более на
государственном уровне», – говорит декан факультета «Цифровая экономика
и массовые коммуникации» МТУСИ Гатауллин. По мнению экспертов, людям не
о чем беспокоиться, пока они контролируют материальный мир. «Любое ИИ-решение
– это программный код, который запускает аппаратное обеспечение: физически
существующие сервера, мощные компьютеры. У аппаратного обеспечения есть
кнопка выключения. У программы нет возможности нажать её самостоятельно.
А сценарий, при котором роботы на базе ИИ будут мешать человеку нажать
на эту кнопку, сейчас нельзя реализовать из-за слабого развития робототехники»,
– указывает профессор Зараменских.
В теории ИИ может обойти это ограничение, децентрализовав себя на пользовательских
устройствах – то есть на наших ноутбуках или смартфонах. «Но крупные компании-производители
смартфонов и ноутбуков имеют возможность удалённо заблокировать устройства
– при этом даже децентрализованный ИИ потеряет существенную часть вычислительных
мощностей», – убежден эксперт. Для контроля над AGI рассматривают несколько
подходов. «Помимо ограничения доступа к физическим ресурсам человечество
может противопоставить независимому ИИ «дружественную» нам систему, в основе
которой будут лежать этические и социальные нормы и ограничения», говорит
ст. инженер по работе с данными «Лаборатории Касперского» Латыпова. «Многие
исследователи и организации разрабатывают стандарты и нормативы, которые
могут помочь регулировать создание и использование AGI, – отмечает она.
– Это может включать международные соглашения, регулирующие производство
и использование AGI, а также документы, определяющие поведение ИИ в таких
областях, как медицина, автономная техника и промышленность».
Российские эксперты считают маловероятной возможность экзистенциальной
угрозы человечеству со стороны ИИ. Для уничтожения нашего вида искусственному
интеллекту понадобилось бы создать «индустриальную пирамиду», получив доступ
к металлам, электричеству, нефти и другим ресурсам. А для этого необходимо
полностью исключить людей из производственных цепочек. «Но мировая промышленность
всё ещё в значительной степени зависит от ручного труда. Перед тем как
ИИ сможет истребить человечество, нашему виду нужно произвести полную автоматизацию
производства и функционирования всего на свете. В обозримой перспективе
это не выглядит реалистичным», – рассуждает директор по развитию компании
по разработке ПО «Формат Кода» Жуков. И тем не менее независимый синтетический
разум способен нанести людям существенный вред.
«Представьте, что он контролирует информационную повестку разных регионов
мира и провоцирует конфликты, манипулируя фактами. Если эти факты частично
основаны на реальных данных, некоторые люди им поверят – последствия будут
непредсказуемы», – предупреждает Кобозев, директор направления Data fusion
Лиги цифровой экономики. Мурзина полагает, что AGI, возможно, не главная
угроза человечеству. Люди по-прежнему сталкиваются с новыми вирусами, военными
конфликтами и техногенными катастрофами. «Точно ли AGI успеет появиться
и навредить раньше, чем другие риски?» – задаётся вопросом эксперт. Другие
специалисты настроены оптимистично. «На мой взгляд, общий искусственный
интеллект или суперинтеллект будет достаточно разумен, чтобы осознать,
почему его собрали и обучили», – говорит Макеев. По его мнению, ИИ учтёт
и сильные, и слабые стороны своих создателей и поэтому «с пониманием отнесётся
к людям».
Таковы вкратце плоды умозрительных построений теоретиков от кибернетики.
Примечательно, что большинство из них, предлагая очередной тезис, раньше
или позже сами же его и опровергают. Встречать новое «в багинеты» – характерная
особенность нашего социума: так встречали ткацкие станки, паровозы, автомобили
и многие другие новинки. К тому же, подписанты письма о приостановке разработок
систем мощнее GPT-4 опоздали: ИИ в их понимании уже стоят в автомобилях,
в ходовых рубках судов и кабинах поездов... Более того, ИИ в прицелах и
головках самонаведения уже решают кого убивать, а кого миловать! Илон Маск,
подписант Pause Giant AI Experiments, он же один из основателей компании
OpenAI, разработавшей чат-бот GPT, не может об этом не знать! К счастью,
нынешние ИИ даже в виде нейронных сетей всё ещё на уровне интеллекта муравейника.
Беда в том, что человек сам лезет в муравейник голым... Ведь в русской
рулетке дуэлянт сам нажимал на курок!
Справочно: В ВМ № 1 сего года
опубликована статья «Мозг: кристаллы и полимеры», посвящённая ЕИ и ИИ.
В ней идёт речь о, так сказать, тактико-технических их характеристиках
и физических основах взаимодействия между ними.
В
оглавление