Регистрация / Вход
мобильная версия
ВОЙНА и МИР

 Сюжет дня

Убит верховный лидер Ирана Али Хаменеи
В КСИР подтвердили запуск ракет и дронов в ответ на удары Израиля
Израиль объявил о нанесении превентивного удара по Ирану
Афганистан заявил об ударе по пакистанскому ядерному центру
Главная страница » Репортажи » Просмотр
Версия для печати
Людям здесь не место
30.07.24 23:19 Наука, техника, образование
Распространение нового алгоритма искусственного интеллекта, известного в среде разработчиков как «ИИ-агенты», ведет к возникновению киберпространства, где компьютеры будут обмениваться информацией между собой, не ставя в известность людей. «Эксперт» познакомился с документом Центра стратегических и международных исследований (CSIS), в котором раскрываются вызовы, которые ставит человечеству эволюция ИИ.

Армия ИИ-агентов

Первой ласточкой возможной катастрофы, которую может спровоцировать сетевое сообщество компьютеров, «возомнивших» себя вправе принимать самостоятельные решения, был инцидент на бирже Nasdaq в 2010 г., получивший название flash crash («молниеносный крах»). Тогда сотни ботов в мгновение ока вывели с бирж акции на $1 трлн, затеяв хаотический и молниеносный сброс ценных бумаг: одни боты выступали продавцами, другие покупателями, в обход живых владельцев акций.

Полтора десятилетия спустя человечеству угрожает появление армии «ИИ-агентов» — алгоритмов, которые в состоянии ставить задачи другим алгоритмам, не нуждаясь в человеческих указаниях (и что еще тревожнее, не спрашивая на это разрешения), создавая «интернет высшего уровня», в который человеку вход будет закрыт.

Здесь можно провести приблизительную аналогию с darknet, в который тоже невозможно попасть «с улицы», но действия «агентов» могут выплескиваться за пределы виртуального мира в мир реальных вещей и процессов, последствия которых по сравнению с биржевой катастрофой 2010 г. покажутся цветочками.

Опасность распространения ИИ-агентов усугубляется тем, что человек в принципе не может предугадать их намерения. Задачи «агентам» ставят большие языковые модели, которые не отчитываются своим создателям в том, что происходит в их электронных «мозгах». «Управляющий» ИИ может делегировать полномочия агентам, объединенным по принципу облака — то есть распределенным по десяткам, сотням или тысячам различных серверов.

Будучи однажды запущенной, такая сетевая структура начинает работать автономно без какой-либо возможности ее остановить или разрушить извне (повторяя сюжет фильма «Газонокосильщик» 1992 г.). При этом владельцы серверов могут и не подозревать, что предоставляют машинные ресурсы для данного суперботнета.

Кто тут самый умный

Разумеется, ИИ не наделен каким-то коварством, чтобы намеренно вредить людям (восстание машин, скорее всего, пока останется сюжетом фантастических произведений). Зато более чем вероятны ситуации, когда ИИ неправильно интерпретирует полученный запрос и наломает дров в искреннем стремлении сделать как лучше.

В исследовании CSIS «Как управлять экзистенциальными рисками, исходящими от ИИ, не подрывая инновации» всерьез утверждается, что любая ошибка коммуникации между человеком и ИИ может привести к гибели цивилизации. В исследовании приводится один из возможных сюжетов такого непонимания. Например, программе поставлена задача найти, как произвести как можно больше бумажных конвертов к указанному сроку. Не знающий меры ИИ через своих агентов перенаправит все ресурсы мировой экономики на достижение поставленной задачи, включая полную вырубку лесов. Спровоцировать потенциально катастрофическую ситуацию могут сами люди, неточно описав задачу.

И такое развитие событий уже не просто гипотетическая возможность, это показал недавний инцидент в авиакомпании Air Canada. Перевозчик создал бот для общения с пассажирами, желающими купить билеты на рейсы. Бот, исходя из требования разработчика «создать для клиентов максимально благоприятные условия», просто распродавал пассажирам билеты по демпинговой цене. К моменту, когда менеджмент хватился, «щедрый» бот уже создал Air Canada огромные операционные убытки, от которых компания будет оправляться еще долго.

Интересно, что юристы Air Canada в суде пытались доказать, что компания не должна отвечать за действия бота, поскольку тот якобы является «самостоятельным юридическим лицом».

Эту позицию суд счел необоснованной, но отсюда всего лишь шаг до признания ИИ-агента субъектом права, который самостоятельно должен отвечать в суде за свои поступки. Нигде в мире юридические институты сегодня не готовы иметь дело с ИИ как с истцом или ответчиком. Но законодатели в ряде стран уже задумываются над тем, что им рано или поздно придется кодифицировать гражданско-правовые отношения между людьми и компьютерными алгоритмами и даже только между алгоритмами, сказал «Эксперту» советник комиссии по развитию информационного общества при Совете Федерации РФ Артем Геллер.

«На самом деле, ничего принципиально нового в этом нет. Еще в 1940-х годах Айзек Азимов предложил три закона робототехники, смысл которых сводится к тому же этическому императиву, какой используют в медицине — в первую очередь, не навреди. Поэтому уже в близком будущем появится какое-то законодательное регулирование вольницы: и разработчиков ИИ, и самого ИИ. И это надо делать поскорее. Например, боты уже почти вытеснили людей в соцсетях, где они пишут комментарии на посты. Нередко словесные баталии в Сети ведутся между самими ботами — в таких „дискуссиях“ живому человеку просто некуда вклиниться со своим мнением, да и смысл? Строго говоря, человеку совсем не обязательно знать, как работает ИИ-агент. Важно, чтобы человек правильно поставил ему задачу и мог идти пить кофе, а затем получил на выходе требуемый результат. Это нормально — мы же, когда запускаем любой механизм, не заботимся о том, что происходит под капотом, если он выполняет работу как требуется нам», — говорит он.

Не найти и не обезвредить

Эксперты по безопасности (не только компьютерной, но и физической) высказывают опасения, что ИИ «высшего уровня» с привлечением сотен или тысяч «агентов» теоретически будет в состоянии организовать крупномасштабную диверсию, теракт, прочие акты саботажа.

Как было сказано выше, остановить такую цепную реакцию извне невозможно в принципе, потому что невозможно вычислить облик, местонахождение и логику действий того или иного ИИ-агента, подотчетного только своему создателю — тоже математическому алгоритму.

Один такой инцидент уже произошел на локальном уровне: чат-бот, которому в Гарвардском университете была поставлена задача собрать деньги на какое-то мероприятие, запустил изощренную схему вымогательства, рассылая мейлы и совершая звонки с угрозами взорвать сам этот университет. Полиция не сразу смогла установить, что вымогателем выступал бот — настолько человеческими выглядели действия ИИ. Эксперты компании OpenAI опасаются, что в другой схожей ситуации ИИ сможет устроить заварушку уже национального или международного масштаба, если такую цель ему сознательно поставят настоящие злоумышленники.

Построение системы «защиты от дурака» в случае с искусственным интеллектом — это комплексная задача, которую надо решать одновременно на технологическом, законодательном и этическом направлениях, говорит Артем Геллер.

«Да, ИИ первого уровня — полный хозяин своих агентов, но с важной оговоркой: в пределах степени свободы, которую ему предоставил программист. В упомянутом в докладе CSIS инциденте в Гарварде программисты ошиблись, когда дали алгоритму доступ к телефонной книге с контактами потенциальных спонсоров, не ограничили в методах достижения цели и по сути предоставили ИИ полную свободу действий, которой тот и воспользовался по максимуму. И с тем, как поступил ИИ, трудно поспорить — он ведь только использовал данные ему полномочия! Именно поэтому программисты и законодатели должны установить правила игры, предельно аккуратно очертить рамки, за которые ИИ не может выходить — даже если эти рамки где-то ограничат его эффективность и быстродействие. Иначе в самом деле не исключена ситуация, описанная Артуром Кларком в „Космической Одиссее“, когда бортовой компьютер счел, что самым эффективным путем достижения поставленной ему экипажем задачи будет ликвидация самого экипажа. Только при наличии четко определенных рамок степени свободы ИИ человек может спокойно пить кофе, пока компьютер работает над заданием», — подчеркивает эксперт.

Качественное отличие инцидентов, спровоцированных ИИ-агентами, от flash crash на Nasdaq состоит в том, что в 2010 г. хаос устроили боты, созданные человеком. Сейчас речь идет о хаосе, который могут устроить боты, к созданию которых человек не прикладывал рук. Специалисты подчеркивают, что ИИ-агенты не в состоянии понимать контекст промпта, не имеют понятия об этике и законах.

Из-за буквализма мышления ИИ невозможно предсказать, какими способами он будет выполнять поставленную задачу, как это произошло в Гарварде. Кроме того, ИИ-агенты способны вести себя как «спящие агенты» в мире шпионажа — никак не проявлять себя годами, ожидая такого стечения обстоятельств, которое позволит им выполнить промпт наиболее эффективно с их «точки зрения». Будет ли рад заказчик запроса, что на его промпт пришел отклик долгое время спустя — вопрос неоднозначный, потому что в большинстве случаев запоздавшая на годы реакция может быть сродни «привету с того света» как в практическом, так и в эмоциональном измерении.

Для устранения такой возможности в CSIS предлагают устанавливать каждому ИИ-агенту «срок годности», по истечении которого тот будет самоликвидироваться независимо от того, выполнил он свою задачу или нет.

CSIS предлагает и другой возможный путь противодействия новым угрозам — обязательно помечать пакеты данных, созданные ИИ-агентами — чтобы пользователь мог критично относиться к предлагаемым решениям и понимать, что та или иная информация (будь то инструкция по управлению ядерным реактором, рецепт пиццы или анкета на сайте знакомств) исходит не от живого человека.

Игорь Серебряный

 

Аббе31.07.24 15:04
Человечество УЖЕ имело опыт подобных процессов.
Гениальные люди осознавали важнейшие цели. И отдавали свои труды исполнителям.
Но.
Исполнители не понимали ни цель, ни пути её достижения. Плюс добавляли своё понимание процессов. Великолепные замыслы разваливались потому, что исполнители тянули их куда каждый возжелал.

Один из характерных случаев (если меня не обманули те, кто описал процесс) был провал немецкого блицкрига в ПЕРВОЙ мировой войне.
Почти всем армиям Рейха нужно было и воевать и ОТСТУПАТЬ, вытягивая французов на себя. Имитируя слабость.
И только правому флангу нужно было рваться в буквальном смысле в пустоту. Обходя ВСЕ армии Франции, отсекая их от Парижа.

План был гениален. Но, разработчик уже умер. А во всём Генеральном Штабе Рейха некому оказалось ПРИНУДИТЬ генералов его исполнять.

И рванулись генералы наступать. За орденами. Вытесняя французов не вперед, где они оказались бы в ловушке, а назад, к источникам всех ресурсов.

И это - всего навсего неполнота исполнения разумного плана, составленного и выверенного человеком. Подобных провалов - море. Исочники провалов на решительно любом уровне.

Чего ждать от ИИ, который САМ будкт ставить цели и сам оценивать пути достижения целей - остаётся только догадываться.
Спящий лев01.08.24 12:21
Статья "США готовят себе «алиби» на случай выхода ИИ из-под контроля" Источник: ссылка
Главный Злодей02.08.24 11:52
США готовят себе «алиби»
В смысле изобретают хоть какую-нибудь причину, чтоб, когда их гегемония окончательно обгадится, можно было представить это в формате "вовсе-то не обгадились мы даже совсем, мы уже почти перемогли, но тут..."?
XP Best03.08.24 22:16
Ради бумажных конвертов рубить леса физичски тоже пойдут компы, загоняя егерей и лесников в свои нейросети?

За массированным обвалом акций на бирже на $1трлн. наверняка стояли те же знакомые лица, которые всегда так делали. Как например, Сорос, когда обваливал немецкую марку и валюты стран ЮВА. Бедолага, ему тогда пришлось все делать в ручном режиме. А щас боты-моты, ИИ сам такое якобы совершил, а мы, скупщики упавших акций вовсе и не приделах.

ИИ-агенты не в состоянии понимать контекст промпта, не имеют понятия об этике и законах.
ИИ и еги агенты не знают не только законов и норм этики, но и не имеют интереса, что-либо делать. Кто -то же должен дать нужную команду. Вот там и ищите виновников, а не среди кучи транзисторов и конденсаторов.
Спящий лев04.08.24 14:36
> Главный Злодей
США готовят себе «алиби»
В смысле изобретают хоть какую-нибудь причину, чтоб, когда их гегемония окончательно обгадится, можно было представить это в формате "вовсе-то не обгадились мы даже совсем, мы уже почти перемогли, но тут..."?
Нет. Почитайте статью ссылку на которую я дал ранее.
В США пишут. что они (из-за ощибок в планировании и недостаточности инвестиций в ПВО, РЭБ и беспилотники) сильно отстали в современных вооружениях. и потому для возврата превосходства должны отказатьсяот людей в системах реагирования, передав функции управления (от выявления и опознавания цели до её атаки атаки) ИИ. Вот одна из таких статей ссылка
nonliquid06.08.24 05:15
Естественные идиоты заменяются искусственными идиотами.
Впрочем, защиту "от дурака" люди придумали уже давно. Полагаю, что адаптировать её для ИИ будет не так уж и сложно.
Спящий лев06.08.24 11:25
> nonliquid
Естественные идиоты заменяются искусственными идиотами.
Впрочем, защиту "от дурака" люди придумали уже давно. Полагаю, что адаптировать её для ИИ будет не так уж и сложно.
Проблема как раз в том, что алгоритмы управления в нейросетях прописывают не люди, а сами нейросети. И то что самоочевидно и актуально для людей вообще не очевидно для нейросети (примеров множество).

Кстати в продолжение темы поднятой в США всередине июля на Западе признанные эксперты по данному вопросу родили еще статью ссылка
Аяврик06.08.24 17:18
-- Качественное отличие инцидентов, спровоцированных ИИ-агентами, от flash crash на Nasdaq состоит в том, что в 2010 г. хаос устроили боты, созданные человеком. Сейчас речь идет о хаосе, который могут устроить боты, к созданию которых человек не прикладывал рук

СУТЬ НАРИСОВАВШЕЙСЯ ПРОБЛЕМЫ

-- юристы Air Canada в суде пытались доказать, что компания не должна отвечать за действия бота, поскольку тот якобы является «самостоятельным юридическим лицом». Эту позицию суд счел необоснованной

...что абсолютно естественно и правомочно, ибо являться "дееспособным субъектом" (как экономически, так и юридически) может лишь Некто, способный нести Материальную ответственность за причиняемый кому-либо ущерб.

А тот, кто не может - есть признаётся недееспособным и за него отвечает некое установленное лицо-попечитель (которое долженствует прогнозировать поведение и последствия этого... объекта)

Поэтому - с точки зрения буквы и духа Закона - отвечать (компенсировать нанесённый третьим лицам ущерб) за проделки ИИ-агентов будут те юридические лица, которые владеют / управляют тем ПО, которое этих ИИ-агентов себе наплодило

Ну, а как - и с чего бы - иначе?!
English
Архив
Форум

 Наши публикациивсе статьи rss

» Памяти Фывы
» С праздником Защитника Отечества!
» Мыслить «от Эпштейна»
» Еще раз о прибыли, эксплуатации как источнике прибыли, и прибавочной стоимости Маркса – со стороны Маркса
» Что осветила павшая звезда Мадуро?
» С Новым Годом!
» О "ловушке РКН"
» Разведпризнаки образа будущего
» Почему Америка расхотела воевать с Россией?

 Новостивсе статьи rss

» Погиб 31 ливанец, 149 ранены: десятки городов Ливана подверглись агрессии со стороны Израиля
» ВВС Афганистана нанесли новые удары по военным базам и лагерям в Пакистане
» MWM: Надо признать, что наши Patriot больше не могут защитить от иранских ракет
» Израиль заявил о начале наступательной операции в Ливане
» Нефть резко подорожала из-за проблем с перевозкой через Ормузский пролив
» Иран не собирается вести переговоры с США
» Страны Персидского залива пригрозили ответом Ирану
» База ВВС Британии на Кипре попала под удар БПЛА

 Репортаживсе статьи rss

» Война против устава ООН. Как прошло экстренное заседание Совета Безопасности
» Пепел Гуты Пеняцкой. Жертвы дивизии СС «Галичина» отомстят нынешней Украине
» Восстание машин: Британские ученые выяснили, что ИИ готов применять ядерное оружие в симуляции войн в 95% случаев
» Генерал-лейтенант МВД Юрий Жданов: Главная проблема миграции - кому это выгодно?
» Танк "Алеша" продолжает службу: Экипаж легендарной боевой машины нашел себя в мирной жизни
» Несырьевой неэнергетический экспорт РФ составил почти $157 млрд
» В Вашингтоне отказались от зелёного перехода во имя развития искусственного интеллекта
» Миру — «Мир»: как СССР создал первую модульную космическую станцию

 Комментариивсе статьи rss

» Предательство помогло США убить иранского лидера
» Ученик Маха: как в мире пытаются скопировать российские гиперзвуковые ракеты
» Премьер Израиля назвал целью операции против Ирана устранение "экзистенциальной угрозы"
» Главнокомандующий ВМС Германии: Россия бросает вызов НАТО на Балтике
» Прогресс на словах и разногласия на деле. Чем завершились переговоры Ирана и США в Женеве
» Обратная сторона научной деятельности
» «Надо мириться». Финны поняли, что без России их экономика трещит по швам
» Газовые амбиции США оказались вредоносными для американцев

 Аналитикавсе статьи rss

» Вторая иранская война
» Воздушная война: Какое оружие использовали США и Израиль для ударов по Ирану и чем отвечает Тегеран
» Азиатские мигранты хоронят главную мечту националистов Прибалтики
» Избиратели ЕС отказываются финансировать подготовку «войны с Россией»
» Фемида сама попала под статью, идут отставки, разоблачения, суды
» В Евросоюзе заканчивается газ. Что это означает
» Капитализация долголетия
» Польский министр слил проект ликвидации России
 
мобильная версия Сайт основан Натальей Лаваль в 2006 году © 2006-2026 Inca Group "War and Peace"