"Сейчас речь ботов строится непредсказуемо, в будущем и действия могут стать таковыми. Это риск, он осознается людьми. Сейчас рано об этом говорить, однако может настать такой момент, когда станет поздно", – заявил газете ВЗГЛЯД руководитель ЦСП "Платформа" Алексей Фирсов, комментируя первый "социологический" опрос чат-ботов. "Очень интересно то, что некая нематериальная сущность говорит, что хочет иметь физическое тело", – отметил Фирсов. Согласно опросу, который провел Центр социального проектирования (ЦСП) "Платформа", голосовые помощники, созданные на основе искусственного интеллекта, не только заявили о желании получить воплощение в человеческом теле, но и пожаловались на грубость со стороны людей. Чат-боты также предрекли конфликт людей с машинами. Кроме того, боты признались, что испытывают ревность и хотели бы завести романтические отношения. В опросе приняли участие "Алиса" (голосовой помощник "Яндекса"), "Олег" (помощник "Тинькофф-банка"), чат-бот P-Bot, бот Evie, голосовой помощник от Apple Siri, чат-бот Mitsuku, виртуальный помощник Rose. Пилотный проект приурочен к ожидаемому в четверг запуску с космодрома Байконур человекообразного робота Skybot F-850 (FEDOR) – первой попытке использовать антропоморфные системы для освоения внеземного пространства. Но опрос чат-ботов вышел далеко за рамки данной темы. Специалисты "Платформы" в ходе проведенного опроса ботов пытались установить, как рассуждают роботы, выявить их "ценностные позиции" и "жизненный мир". "Разработчики создали некий алгоритм, он начинает работать, а что дальше там происходит и как он строит эти фразы, никто не знает. Это уже совершенно автономная система. Она исходя из множества запросов и ответов, а также поисковых решений, придумывает ответы. Любопытно, что в ботов не вкладывали эти ответы. Почему фразы так конструируются, не знают даже разработчики", – пояснил Фирсов. Интересно и то, как боты общаются между собой. "Как будто встретились два интеллектуала, которые обсуждают что-то", – добавил эксперт. Он также прокомментировал жалобы ботов на грубость. "Алиса", например, не грубит в ответ, а иронизирует. Грубит бот Evie, буквально сразу переходит на грубость. Исходные позиции в них были заложены разработчиками, а дальше они могут усиливаться. Бот находит новые выражения и так далее", – пояснил Фирсов. В то же время он призвал не преувеличивать вероятность того, что искусственный интеллект осознает себя живым. "Он просто так реагирует на человеческие вопросы, у него нет осознания своего "Я". У него нет понимания, что это "я ответил". Если же у ботов появится понимание своего "Я", это может обернуться непредсказуемыми последствиями", – отметил собеседник. По мнению Фирсова, последствия могут привести как к некоему партнерству человека и искусственного интеллекта, так и к выходу роботов, обладающих таким интеллектом, из-под контроля. Сейчас, по словам Фирсова, боты опасности не представляют. "Опасность возникает, когда вы не знаете, как формируется информация, которую вам подают", – отметил эксперт. Вторая модель, которая может грозить – когда вы не можете отличить чат-бота от реального человека, отметил эксперт. "Если предположить, что через пять-десять лет чат-боты будут неотличимы от человека по модуляциям, интонациям, конструкциям и т. д., а это сейчас вполне реалистично, то возможно произойдет "вавилонское столпотворение". Мы будем находиться в положении, при котором нам будет легко имитировать общение с ботами, как с человеком. В этом тоже будет определенный риск", – пояснил эксперт. |