Регистрация / Вход
мобильная версия
ВОЙНА и МИР

 Сюжет дня

Российские миротворцы покидают Нагорный Карабах
Памфилова вручила Путину удостоверение президента РФ
Владимир Путин ответил на вопросы Дмитрия Киселёва
Восьмое Марта!!!
Главная страница » Новости » Просмотр
Версия для печати
Искусственный интеллект: восемь угроз для человечества
04.06.23 18:50 Наука, техника, образование
Согласно некоммерческой организации Center for AI Safety (CAIS), искусственный интеллект может привести к исчезновению человечества. Это не первое предупреждение такого рода. За относительно короткое время несколько авторитетных ученых и предпринимателей заявили о разрушительном потенциале искусственного интеллекта. Кроме социального значения, вопрос о регулировании рисков ИИ имеет и геополитическое наполнение.

Чего бояться нужно?

Американский «Центр безопасности ИИ» опубликовал официальное заявление. В нем подробно описывается ряд негативных эффектов использования ИИ, который в конечном итоге может стать причиной исчезновения человечества. «Более продвинутый ИИ может представлять катастрофические и экзистенциальные риски», - указано в тексте, опубликованном на сайте организации. Всего обозначено восемь угроз.

Первая связана с военным применением технологий искусственного интеллекта: «В отличие от других видов оружия, системы ИИ, способные причинить вред, могут быть с легкостью распространены цифровым образом».

Вторая – дезинформация: «…все это может подорвать коллективную систему принятия решений, радикализировать отдельных лиц…».

Третий риск – искажение работы рекомендательных алгоритмов. Эти системы, например, предлагают нам дополнительные товары на онлайн-маркетплейсах. Опасение состоит в том, что более продвинутые модели сконцентрируются на упрощении процесса прогнозирования желаний покупателя, что может стать причиной появления у людей вредных привычек и так далее.

Четвертая угроза связана с резким ростом зависимости людей от продвинутых систем вплоть до делегирования им самых обычных задач.

Пятая заключается в еще большей концентрации богатств и влияния в руках ограниченного количества людей, которые могут использовать это для монополизации власти в обществе.

Шестая угроза – эмерджетность целей и способностей. Иначе говоря, модели могут ставить новые цели и вырабатывать навыки, не предусмотренные во время их обучения.

Седьмая связана с обманом со стороны ИИ. В заявлении приводится пример, когда компания Volkswagen запрограммировала двигатели, чтобы они показывали низкий уровень выбросов только во время проверок. Таким же образом, по мнению экспертов, может поступить и искусственный интеллект.

Восьмая и, наверно, самая масштабная угроза – стремление к власти. Согласно CAIS, нельзя исключать риски появления у искусственного интеллекта цели стать более независимым: «Изобретая более продвинутые машины, мы играем с огнем». Эксперты CAIS делают вывод: «Уменьшение риска вымирания из-за ИИ должно быть глобальным приоритетом наряду с такими рисками, как пандемии и ядерная война». 

Мы предупреждали

Доводы компании нашли отклик во многих сферах. Подписи под заявлением поставили не только ученые и программисты, но также журналисты и бизнесмены. Наиболее знаковыми являются автографы «крестного отца» ИИ Джеффри Хинтона и гендира компании OpenAI Сэма Олтмена.

Ранее, они уже говорили об опасности ИИ. «Я довольно озабочен мыслями о возможных экзистенциальных рисках, которые могут появиться, когда эти штуки станут умнее нас…Я пришел к выводу, что [искусственный] интеллект отличается от нашего. Это как если бы один человек узнал что-то, и вместе с ним то же самое узнали еще 10 тыс. человек. Именно таким образом эти чат-боты знают больше, чем кто-либо». 

В умеренные ИИ-пессимисты записались и представители бигтехов, Илон Маск, а также сооснователь Apple Стив Возняк. В своем мартовском открытом письме они потребовали приостановить разработку более совершенных языковых моделей.

«Должны ли мы автоматизировать все рабочие места…? Должны ли мы развивать нечеловеческие мозги, которые могут впоследствии стать умнее…и заменить нас?», - говорилось в письме.

Согласно экспертам, пауза в развитии ИИ даст возможность разобраться в этических и социальных рисках, которые представляет технология. В свою очередь, это должно способствовать разработке более безопасных систем. Тем не менее, некоторые компании выступают против подобных шагов, так как это может навредить их непосредственным интересам.

Согласно Forbes, большинство опрошенных владельцев уверены в позитивном влиянии ИИ на их бизнес. Это касается повышения качества обслуживания (64%), роста продаж (60%), а также и усовершенствования процесса принятия корпоративных решений (44%). Особенно могут возмутиться компании, которые достигли новых высот из-за ассоциации с ИИ. Например, компания Nvidia пробила планку в 1 трлн. долларов рыночной капитализации как раз благодаря буму ИИ. Контраргументом сторонников паузы развития продвинутого ИИ является то, что она станет причиной лишь краткосрочных потерь. По их мнению, в долгосрочной перспективе перерыв и дополнительные исследования могут сделать применение технологии более безопасным и, этим самым, эффективнее сократить издержки бизнеса. Однако и эти доводы убеждают не всех. Противники приостановки развития ИИ утверждают, что «плохие акторы», несмотря на все договоренности, все равно продолжат подстраивать технологию под свои нужды.

ГеополИИтика

Отсюда призывы создать систему его правового регулирования ИИ. В США, например, первые зачатки подобного законодательства появились еще при Трампе (2020 г.), а уже в ноябре 2022 г. администрация Байдена опубликовала план Билля о правах в сфере искусственного интеллекта. Тем не мнее, пока это всего лишь наброски, не имеющие под собой никакой силы.

Совершенно иным образом обстоит дело в Китае. К маю 2023 г. Пекин уже работал над вторым пакетом законов, регулирующих ИИ. На протяжении 6 лет, с 2017 г., КНР изучает юридические аспекты внедрения технологии в большинство сфер жизни. Одна из целей такой активной деятельности – повышение доверия населения к ИИ. Кроме того, наличие правил, по мнению китайских экспертов, позволит предпринимателям с большей уверенностью использовать ИИ-решения в деятельности своих компаний. Более глобальной и долгосрочной целью может быть распространение китайской практики в другие страны, что даст преимущества Пекину в технологическом соперничестве с Соединенными Штатами.

На этот счет есть много разных соображений: часть исследователей уверена в успехе Поднебесной, другая уточняет, что наличие свода правил не отменяет отставания КНР от США по некоторым направлениям ИИ (например, большие языковые модели) – однако все это только подтверждает становление технологий искусственного интеллекта как предмета геополитической борьбы. 

Итоги

О потенциальных рисках ИИ говорят давно. На протяжении долгих лет к ним относились поверхностно, так как начало внедрения технологии в повседневную жизнь казалось отдаленным. Тем не менее, появление больших языковых моделей, постепенная интеграция ИИ-решений в области медицины, финансов и даже искусства вынудила экспертов задуматься. Слишком быстрое внедрение искусственного интеллекта, по их мнению, минимизирует шансы на обнаружения проблем в работе тех же языковых моделей. И судя по всему, таких голосов будет все больше. 

 

argus9804.06.23 19:49
9-я угроза не озвучена - что благодаря ИИ, у буржуев закончатся последние остатки собственного разума. О чём, в принципе, и говорят все предыдущие пункты.

ps По первому пункту есть наш "Периметр" - уже 40 лет верно несёт службу и не жалуется
Мороз04.06.23 20:24
Как только подавляющее большинство человечества начнет доверять так называемому "ИИ" - оно тут же превратится в полностью подконтрольное послушное стадо. А вот умное меньшинство - будет управлять тем самым "ИИ".
Ум и независимость ИИ - это мифй, морковка для ослов. Если на плечах нет своей головы - не поможет никакой интеллект.
English
Архив
Форум

 Наши публикациивсе статьи rss

» Памяти Фывы
» Судьба марксизма и капитализма в обозримом будущем
» Восьмое Марта!!!
» Почему "Вызываю Волгу" не работает?
» С днем защитника отечества!
» Идеология местного разлива
» С Новым Годом!
» Как (не) проспать очередную революцию.
» Об «агрегатных состояниях» информационного поля

 Новостивсе статьи rss

» Гонконг заявил, что не будет соблюдать санкции США против Китая, России и Ирана
» ЕС сократил закупки украинского зерна впервые с начала протестов фермеров
» КНДР провела ядерные учения
» ФСБ предотвратила теракт в Брянске
» Киргизия и Великобритания заключили договор о сотрудничестве
» Байден сообщил о выделении $7 млрд на развитие солнечной энергетики
» Сунак пообещал предоставить Украине крупнейший пакет военной помощи
» Госдеп заявил о нарушении прав человека на Украине

 Репортаживсе статьи rss

» Дмитрий Ливанов: «Около 94–95% наших выпускников остаются и работают в России»
» Все при деле
» Полная стенограмма интервью главы МИД России Сергея Лаврова российским радиостанциям 19 апреля 2024 года
» Андрей Николаев: Люди, прошедшие суровые испытания, стали наиболее востребованными, когда наступило мирное время
» Дроны набирают высоту
» Money: крупные зарубежные компании покидают Польшу и направляются в Индию
» В Арктике американский спецназ отрабатывает войну великих держав
» Аляску продали, потому что боялись, что ее отнимут

 Комментариивсе статьи rss

» Breitbart: Предательство Джонсона ставит США на путь столкновения с ядерной державой
» Белая оборона: попытки Канады милитаризовать Арктику терпят крах
» Нет пороха в европейских пороховницах? Вы знаете, кто виноват
» Индия сыта мифами Запада про Россию и Украину, пора знать правду — The Print
» Величайший враг Америки — не Китай и не Россия, а долг в 35 триллионов долларов
» Россия – ЕАЭС – Африка: факторы ускоренного сближения
» «Мировое правительство» послало к Трампу безнадежного гонца
» Вымирание вместо перенаселения

 Аналитикавсе статьи rss

» Защита обернулась поражением
» Тупики безумия
» США хотят контролировать логистику в Центральной Азии
» Игра в правду
» Гудбай, Америка!
» Василий Кашин: «На Украине война не кончится. Дальше – долгое вооруженное противостояние в Европе»
» Почему российские нефтяники бурят больше, но добывают сколько и раньше
» Борьба за воду в Центральной Азии не должна приобретать нецивилизованные формы
 
мобильная версия Сайт основан Натальей Лаваль в 2006 году © 2006-2024 Inca Group "War and Peace"