Интеллекты и рулетка
(редакционный обзор)
        Илон Маск, сооснователь Apple Стив Возняк и ещё 1000 влиятельных представителей IT-индустрии подписали письмо с просьбой приостановить хотя бы на полгода разработку систем мощнее GPT-4, чтобы успеть подготовить протоколы безопасности. GPT – это чат-бот, разработанный американской компанией OpenAI. Он способен выполнять задания, ранее недоступные для подобных систем: от создания художественных произведений до программирования. Сегодня на базе GPT производят уникальные сервисы, начиная с персонального ИИ-советника в области инвестиций и заканчивая решениями, помогающими врачам установить правильный диагноз и подобрать оптимальное лечение. По заданию немецкого издания Berliner Zeitung ChatGPT подготовил проект мирного договора между Россией и Украиной по урегулированию конфликта, а также тексты писем федерального канцлера ФРГ Шольца Путину и Зеленскому с призывом к миру... Известны также случаи, когда ChatGPT использовали в сомнительных или откровенно незаконных целях: GPT сдавал экзамены в вузах, генерировал ключи лицензионных программ, выигрывал в лотерее...
        «Общественность» давно беспокоит вопрос взаимодействия ИИ и ЕИ, а точнее: будет ли «война» между ними? Ответ очевиден: всенепременно! Ибо человек не изобрёл до сих пор ничего, от  «кельта» до лазеров и космических ракет, что бы он не использовал во вред самому себе и себе подобным! Причём неблагоприятного исхода ожидают многие. Так, один из опросов показал: почти половина из 738 специалистов по машинному обучению дали не менее 10 % вероятности «крайне плохого исхода» в результате развития ИИ. В другом исследовании, в котором опросили 44 экспертов в области безопасности ИИ, вероятность «апокалипсиса» оказалась равна 30%, причём отдельные специалисты оценили её выше 50%. Сабети из Силиконовой долины по этому поводу отметил, что шанс проиграть в русскую рулетку с шестизарядным револьвером всего навсего – 17%.
        Выхода ИИ из-под контроля боятся и неспециалисты, и руководители ведущих технологических компаний. Почти треть россиян (30%) считает, что в ближайшие полвека произойдёт восстание машин. Однако, как показал апрельский опрос ВЦИОМ, 50% наших сограждан в такую угрозу не верят. Ещё один недавний опрос, проведённый порталом Superjob, показал, что развития ИИ боятся всего 17% экономически активных взрослых россиян, а 43% такая перспектива не пугает (остальные 40% респондентов затруднились ответить). При этом люди, разбирающиеся в нейросетях, допускают возникновение проблем на рынке труда. Страхи обоснованы – по мнению экспертов банка Goldman Sachs, искусственный интеллект, а также основанные на нём сервисы и приложения приведут к сокращению 300 млн рабочих мест по всему миру. В зоне риска – профессии, связанные с бухгалтерией, офисной и административной работой. Сгущаются тучи и над работниками транспорта и сферы услуг.
        Но экспертов по IT куда больше пугает вероятность выхода ИИ из-под контроля ЕИ. По мнению Илона Маска ИИ намного опаснее ядерного оружия. Это важная мысль: ядерная энергия, которая сейчас широко применяется в мирных целях, как известно, сперва была использована наихудшим образом – в качестве бомб. Переход на мирное использование атомной энергии занял 9 лет (1945 – 1954). В Pause Giant AI Experiments: An Open Letter подписанты просят полгода. Достаточно ли этого? История знает множество примеров, когда прогресс пытались остановить (те же луддиты в Англии), но ни разу это не получилось.

Первый автомобиль на улице Лондона: впереди идёт человек с флагом!
        Более того, по мнению некоторых специалистов предотвратить неблагоприятное для людей развитие ИИ уже нельзя – опоздали! В марте вышла четвёртая версия программы. Исследования показали наличия у неё «искр разума». Как известно, искры бывают разные: некоторые зажигают пламя, другие просто гаснут в тумане...
        Эксперты выделяют три типа искусственного интеллекта (как с «искрами», так и без них). Все существующие ИИ относятся к ANI (Artificial Narrow Intelligence) – узкому ИИ, направленному на выполнение определённых заданий. Следующая стадия – AGI (Artificial General Intelligence), общий искусственный интеллект или сильный ИИ – сможет решать любые задачи, доступные человеку. Продолжением должен стать ASI (Asyncronous Serial Interface) – суперинтеллект, нечто из области фантастики (пока не очень научной). По идее именно он может что-либо поджечь.
        Однако, многие российские эксперты в области IT-технологий неоднозначно оценивают саму возможность перехода существующих систем ИИ на новый, «самостоятельный» уровень. Некоторые специалисты считают, что технологической основы для такого перехода пока не существует. Чтобы перерасти в сильный ИИ, система должна научиться изменять свой первичный код. «Именно так делают люди, постоянно переписывая нейронные связи в мозге. ИИ придётся запросить модификацию своего кода у разработчика либо обойти этот барьер и выполнить модификацию самостоятельно. При этом он должен обладать достаточным уровнем мышления, чтобы не допустить ошибку в переписывании кода и, например, не заблокировать себя. Пока мы далеки от создания такого интеллекта»,  – уверен Макеев.
        Наконец, некоторые эксперты отмечают, что даже с самим понятием «общего ИИ» не всё однозначно. «Сперва нужно прийти к общему пониманию, что же такое AGI и точно ли он достижим. Однозначных критериев пока нет. Мы до сих пор не до конца понимаем, как работает память, мышление и многие другие биологические процессы», – объясняет руководитель группы группы машинного обучения Positive Technologies Мурзина. По её словам, мы «и близки к цели, и одновременно далеки от неё». «Развитие технологий нелинейно, и трудно предсказать, когда будет следующий прорыв, чтобы приблизиться к AGI», – считает она. Если предотвратить появление AGI не удастся (а это, безусловно, так), то ограничить его технологические возможности – более чем реально, полагают специалисты (напрасно полагают, что сами тут же и доказывают!).
        «Для обучения нейросетей нужны совершенно конкретные вычислительные мощности, наборы данных. Без доступа к технологической инфраструктуре, «на коленке», никакие системы, угрожающие человечеству, создать нельзя. Бигтехов в мире не так и много, вполне можно договориться об ограничениях, тем более на государственном уровне», – говорит декан факультета «Цифровая экономика и массовые коммуникации» МТУСИ Гатауллин. По мнению экспертов, людям не о чем беспокоиться, пока они контролируют материальный мир. «Любое ИИ-решение  – это программный код, который запускает аппаратное обеспечение: физически существующие сервера, мощные компьютеры. У аппаратного обеспечения есть кнопка выключения. У программы нет возможности нажать её самостоятельно. А сценарий, при котором роботы на базе ИИ будут мешать человеку нажать на эту кнопку, сейчас нельзя реализовать из-за слабого развития робототехники», – указывает профессор Зараменских.
        В теории ИИ может обойти это ограничение, децентрализовав себя на пользовательских устройствах – то есть на наших ноутбуках или смартфонах. «Но крупные компании-производители смартфонов и ноутбуков имеют возможность удалённо заблокировать устройства  – при этом даже децентрализованный ИИ потеряет существенную часть вычислительных мощностей», – убежден эксперт. Для контроля над AGI рассматривают несколько подходов. «Помимо ограничения доступа к физическим ресурсам человечество может противопоставить независимому ИИ «дружественную» нам систему, в основе которой будут лежать этические и социальные нормы и ограничения», говорит ст. инженер по работе с данными «Лаборатории Касперского» Латыпова. «Многие исследователи и организации разрабатывают стандарты и нормативы, которые могут помочь регулировать создание и использование AGI, – отмечает она. – Это может включать международные соглашения, регулирующие производство и использование AGI, а также документы, определяющие поведение ИИ в таких областях, как медицина, автономная техника и промышленность».
        Российские эксперты считают маловероятной возможность экзистенциальной угрозы человечеству со стороны ИИ. Для уничтожения нашего вида искусственному интеллекту понадобилось бы создать «индустриальную пирамиду», получив доступ к металлам, электричеству, нефти и другим ресурсам. А для этого необходимо полностью исключить людей из производственных цепочек. «Но мировая промышленность всё ещё в значительной степени зависит от ручного труда. Перед тем как ИИ сможет истребить человечество, нашему виду нужно произвести полную автоматизацию производства и функционирования всего на свете. В обозримой перспективе это не выглядит реалистичным», – рассуждает директор по развитию компании по разработке ПО «Формат Кода» Жуков. И тем не менее независимый синтетический разум способен нанести людям существенный вред.
        «Представьте, что он контролирует информационную повестку разных регионов мира и провоцирует конфликты, манипулируя фактами. Если эти факты частично основаны на реальных данных, некоторые люди им поверят – последствия будут непредсказуемы», – предупреждает Кобозев, директор направления Data fusion Лиги цифровой экономики. Мурзина полагает, что AGI, возможно, не главная угроза человечеству. Люди по-прежнему сталкиваются с новыми вирусами, военными конфликтами и техногенными катастрофами. «Точно ли AGI успеет появиться и навредить раньше, чем другие риски?» – задаётся вопросом эксперт. Другие специалисты настроены оптимистично. «На мой взгляд, общий искусственный интеллект или суперинтеллект будет достаточно разумен, чтобы осознать, почему его собрали и обучили», – говорит Макеев. По его мнению, ИИ учтёт и сильные, и слабые стороны своих создателей и поэтому «с пониманием отнесётся к людям».
        Таковы вкратце плоды умозрительных построений  теоретиков от кибернетики. Примечательно, что большинство из них, предлагая очередной тезис, раньше или позже сами же его и опровергают. Встречать новое «в багинеты» – характерная особенность нашего социума: так встречали ткацкие станки, паровозы, автомобили и многие другие новинки. К тому же, подписанты письма о приостановке разработок систем мощнее GPT-4 опоздали: ИИ в их понимании уже стоят в автомобилях, в ходовых рубках судов и кабинах поездов... Более того, ИИ в прицелах и головках самонаведения уже решают кого убивать, а кого миловать! Илон Маск, подписант Pause Giant AI Experiments, он же один из основателей компании OpenAI, разработавшей чат-бот GPT, не может об этом не знать! К счастью, нынешние ИИ даже в виде нейронных сетей всё ещё на уровне интеллекта муравейника.
        Беда в том, что человек сам лезет в муравейник голым... Ведь в русской рулетке дуэлянт сам нажимал на курок!


Справочно: В ВМ № 1 сего года опубликована статья «Мозг: кристаллы и полимеры», посвящённая ЕИ и ИИ. В ней идёт речь о, так сказать, тактико-технических их характеристиках и физических основах взаимодействия между ними.
В оглавление