Регистрация / Вход
мобильная версия
ВОЙНА и МИР

 Сюжет дня

Ковальчук выступил за изменение политики России по ядерному сдерживанию
День воссоединения новых регионов с Россией будет отмечаться 30 сентября
Указ со слезами на глазах: Нагорно-Карабахская Республика прекращает существование
Путин и Лукашенко договорились о двух крупных проектах сотрудничества
Главная страница » Новости » Просмотр
Версия для печати
Искусственный интеллект: восемь угроз для человечества
04.06.23 18:50 Наука, техника, образование
Согласно некоммерческой организации Center for AI Safety (CAIS), искусственный интеллект может привести к исчезновению человечества. Это не первое предупреждение такого рода. За относительно короткое время несколько авторитетных ученых и предпринимателей заявили о разрушительном потенциале искусственного интеллекта. Кроме социального значения, вопрос о регулировании рисков ИИ имеет и геополитическое наполнение.

Чего бояться нужно?

Американский «Центр безопасности ИИ» опубликовал официальное заявление. В нем подробно описывается ряд негативных эффектов использования ИИ, который в конечном итоге может стать причиной исчезновения человечества. «Более продвинутый ИИ может представлять катастрофические и экзистенциальные риски», - указано в тексте, опубликованном на сайте организации. Всего обозначено восемь угроз.

Первая связана с военным применением технологий искусственного интеллекта: «В отличие от других видов оружия, системы ИИ, способные причинить вред, могут быть с легкостью распространены цифровым образом».

Вторая – дезинформация: «…все это может подорвать коллективную систему принятия решений, радикализировать отдельных лиц…».

Третий риск – искажение работы рекомендательных алгоритмов. Эти системы, например, предлагают нам дополнительные товары на онлайн-маркетплейсах. Опасение состоит в том, что более продвинутые модели сконцентрируются на упрощении процесса прогнозирования желаний покупателя, что может стать причиной появления у людей вредных привычек и так далее.

Четвертая угроза связана с резким ростом зависимости людей от продвинутых систем вплоть до делегирования им самых обычных задач.

Пятая заключается в еще большей концентрации богатств и влияния в руках ограниченного количества людей, которые могут использовать это для монополизации власти в обществе.

Шестая угроза – эмерджетность целей и способностей. Иначе говоря, модели могут ставить новые цели и вырабатывать навыки, не предусмотренные во время их обучения.

Седьмая связана с обманом со стороны ИИ. В заявлении приводится пример, когда компания Volkswagen запрограммировала двигатели, чтобы они показывали низкий уровень выбросов только во время проверок. Таким же образом, по мнению экспертов, может поступить и искусственный интеллект.

Восьмая и, наверно, самая масштабная угроза – стремление к власти. Согласно CAIS, нельзя исключать риски появления у искусственного интеллекта цели стать более независимым: «Изобретая более продвинутые машины, мы играем с огнем». Эксперты CAIS делают вывод: «Уменьшение риска вымирания из-за ИИ должно быть глобальным приоритетом наряду с такими рисками, как пандемии и ядерная война». 

Мы предупреждали

Доводы компании нашли отклик во многих сферах. Подписи под заявлением поставили не только ученые и программисты, но также журналисты и бизнесмены. Наиболее знаковыми являются автографы «крестного отца» ИИ Джеффри Хинтона и гендира компании OpenAI Сэма Олтмена.

Ранее, они уже говорили об опасности ИИ. «Я довольно озабочен мыслями о возможных экзистенциальных рисках, которые могут появиться, когда эти штуки станут умнее нас…Я пришел к выводу, что [искусственный] интеллект отличается от нашего. Это как если бы один человек узнал что-то, и вместе с ним то же самое узнали еще 10 тыс. человек. Именно таким образом эти чат-боты знают больше, чем кто-либо». 

В умеренные ИИ-пессимисты записались и представители бигтехов, Илон Маск, а также сооснователь Apple Стив Возняк. В своем мартовском открытом письме они потребовали приостановить разработку более совершенных языковых моделей.

«Должны ли мы автоматизировать все рабочие места…? Должны ли мы развивать нечеловеческие мозги, которые могут впоследствии стать умнее…и заменить нас?», - говорилось в письме.

Согласно экспертам, пауза в развитии ИИ даст возможность разобраться в этических и социальных рисках, которые представляет технология. В свою очередь, это должно способствовать разработке более безопасных систем. Тем не менее, некоторые компании выступают против подобных шагов, так как это может навредить их непосредственным интересам.

Согласно Forbes, большинство опрошенных владельцев уверены в позитивном влиянии ИИ на их бизнес. Это касается повышения качества обслуживания (64%), роста продаж (60%), а также и усовершенствования процесса принятия корпоративных решений (44%). Особенно могут возмутиться компании, которые достигли новых высот из-за ассоциации с ИИ. Например, компания Nvidia пробила планку в 1 трлн. долларов рыночной капитализации как раз благодаря буму ИИ. Контраргументом сторонников паузы развития продвинутого ИИ является то, что она станет причиной лишь краткосрочных потерь. По их мнению, в долгосрочной перспективе перерыв и дополнительные исследования могут сделать применение технологии более безопасным и, этим самым, эффективнее сократить издержки бизнеса. Однако и эти доводы убеждают не всех. Противники приостановки развития ИИ утверждают, что «плохие акторы», несмотря на все договоренности, все равно продолжат подстраивать технологию под свои нужды.

ГеополИИтика

Отсюда призывы создать систему его правового регулирования ИИ. В США, например, первые зачатки подобного законодательства появились еще при Трампе (2020 г.), а уже в ноябре 2022 г. администрация Байдена опубликовала план Билля о правах в сфере искусственного интеллекта. Тем не мнее, пока это всего лишь наброски, не имеющие под собой никакой силы.

Совершенно иным образом обстоит дело в Китае. К маю 2023 г. Пекин уже работал над вторым пакетом законов, регулирующих ИИ. На протяжении 6 лет, с 2017 г., КНР изучает юридические аспекты внедрения технологии в большинство сфер жизни. Одна из целей такой активной деятельности – повышение доверия населения к ИИ. Кроме того, наличие правил, по мнению китайских экспертов, позволит предпринимателям с большей уверенностью использовать ИИ-решения в деятельности своих компаний. Более глобальной и долгосрочной целью может быть распространение китайской практики в другие страны, что даст преимущества Пекину в технологическом соперничестве с Соединенными Штатами.

На этот счет есть много разных соображений: часть исследователей уверена в успехе Поднебесной, другая уточняет, что наличие свода правил не отменяет отставания КНР от США по некоторым направлениям ИИ (например, большие языковые модели) – однако все это только подтверждает становление технологий искусственного интеллекта как предмета геополитической борьбы. 

Итоги

О потенциальных рисках ИИ говорят давно. На протяжении долгих лет к ним относились поверхностно, так как начало внедрения технологии в повседневную жизнь казалось отдаленным. Тем не менее, появление больших языковых моделей, постепенная интеграция ИИ-решений в области медицины, финансов и даже искусства вынудила экспертов задуматься. Слишком быстрое внедрение искусственного интеллекта, по их мнению, минимизирует шансы на обнаружения проблем в работе тех же языковых моделей. И судя по всему, таких голосов будет все больше. 

 

argus9804.06.23 19:49
9-я угроза не озвучена - что благодаря ИИ, у буржуев закончатся последние остатки собственного разума. О чём, в принципе, и говорят все предыдущие пункты.

ps По первому пункту есть наш "Периметр" - уже 40 лет верно несёт службу и не жалуется
Мороз04.06.23 20:24
Как только подавляющее большинство человечества начнет доверять так называемому "ИИ" - оно тут же превратится в полностью подконтрольное послушное стадо. А вот умное меньшинство - будет управлять тем самым "ИИ".
Ум и независимость ИИ - это мифй, морковка для ослов. Если на плечах нет своей головы - не поможет никакой интеллект.
English
Архив
Форум

 Наши публикациивсе статьи rss

» Памяти Фывы
» Февральская революция 1917 года
» Украинский гамбит
» Властному классу нужно научиться признавать ошибки и не бояться меняться
» С Днем Победы!
» День Победы, или всем "бегущим от войны" посвящается.
» Еще раз о госдолге США
» Геостратегическая оценка экономик России и Китая
» О компьютерном моделировании проведения военных операций

 Новостивсе статьи rss

» Украина попросила ЕС не создавать программы для интеграции беженцев
» Financial Times: Европа снова в энергокризисе. Уже из-за дизтоплива
» Премьер Албании призвал миссию НАТО взять под контроль север Косово
» Токаев: Казахстан будет следовать санкционному режиму в отношении России
» Дмитрий Патрушев: Экспорт рыбной продукции переориентируется на дружественные страны
» Китай снял действовавшее 15 лет ограничение на поставки свинины из России
» Румыния покупает порт Джурджулешты — Молдавия останется без выхода в Черное море
» Мишустин отметил высокие темпы восстановления экономической активности

 Репортаживсе статьи rss

» Взрыв на площади. О подвиге, который на долгие годы оказался забытым
» Орда: субботние ужасы (2023-09-23)
» Как вырастить сердце
» Россиянам, возможно, разрешат «сбивать» БПЛА
» На всех морях: многоразовые космические корабли будут садиться на воду
» Орда: субботние ужасы (2023-09-16)
» «Новый Орбан». В Европе ждут появления еще одного союзника России
» «Мы находимся на пороге взрывного роста нейросетей»

 Комментариивсе статьи rss

» Как не допустить Третьей мировой
» Все пропало: Россия погибает неубедительно
» ПОЛ КРЕЙГ РОБЕРТС. Понимание Гражданской войны в США
» Крах империй-паразитов
» Сеул и Токио инициируют нормализацию отношений с Пекином
» Сирия – Турция: аннексия на марше, «модель Алеппо» и диалог глухих
» Латвия готовит русским старикам голодную смерть
» США отправляют на Украину убийственную помощь

 Аналитикавсе статьи rss

» Внутренний рынок топлива РФ решительно защитили. Обобщение
» Что делать с российскими рупиями
» БРИКС расширяется в поисках смысла
» НАТО обнародовал план приёма Киева в альянс в условиях войны
» Индуцированная деградация мира
» И вширь, и вглубь
» Зачем России нужна "Русафрика": в Москве представлен доклад "Валдайского клуба" об отношениях с Черным континентом
» 150 лет назад началась самая «Великая» в истории экономическая депрессия
 
мобильная версия Сайт основан Натальей Лаваль в 2006 году © 2006-2023 Inca Group "War and Peace"