Искусственный интеллект давно сошел со страниц научной фантастики и прочно укореняется в нашей повседневной жизни. Многие частные компании, лаборатории и государственные департаменты работают над созданием общего искусственного интеллекта – совершенно нового машинного разума, который превзойдет по возможностям человеческий, будет способный широко мыслить и самообучаться без участия специалистов.
Однако такой подход пугает часть ученых и экспертов из разных технологических областей. Стивен Хокинг и Илон Маск не один раз публично высказывали опасения по поводу опасности внедрения ИИ в различные сферы деятельности человека. Последний даже создал компанию OpenAI, которая работает над созданием безопасного искусственного интеллекта.
Давайте рассмотрим ключевые группы риска, где разные эксперты видят угрозу в становлении технологий искусственного интеллекта.
Экономические угрозы
Использование искусственного интеллекта в различных секторах экономики открывает новые возможности для многих бизнесов. Технологии позволяют автоматизировать множество процессов, оптимизировать использование ресурсов и прогнозировать определенные события. Эксперты считают, что внедрение ИИ освободит сотрудников предприятий от монотонной, рутинной работы и позволит им сосредоточиться на более сложных и творческих задачах.
Именно здесь, как считают противники автоматизации, и кроется основная угроза искусственного интеллекта. Так, в отчете Всемирного экономического форума говорится, что к 2022 году ИИ вытеснит и уничтожит 75 миллионов рабочих мест. Однако в этом же документе исследователи отмечают, что внедрение искусственного интеллекта приведет к появлению новых видов занятости для людей и к 2022 году чистый прирост рабочих мест составит 133 миллиона. Многие из них, вероятно, не будут соответствовать традиционной модели полной занятости, с которой мы знакомы сегодня. Вместо этого ожидается, что все больше работодателей будут расширять свою удаленную рабочую силу и полагаться на подрядчиков для удовлетворения большей части кадровых потребностей.
Военная враждебность
Использование искусственного интеллекта в военных целях далеко не новинка. Различные страны, такие как США, Китай или Россия создают целые правительственные подразделения, которые изучают возможности применения военизированного ИИ. Кроме этого, США уже использует некоторые алгоритмы в военных операциях.
Однако, ученые и специалисты выражают опасения, что технологии могут стать серьезным оружием, особенно в руках тоталитарных правительств или даже террористов. Критики этой точки зрения считают, что для создания таких технологий у незаконных организаций и тоталитарных государств попросту не хватит ресурсов. Ведь на подобные разработки необходимо иметь квалифицированные кадры, патенты и миллиарды долларов.
Кроме этого, общий искусственный интеллект, в теории, сможет обратить военные технологии против людей, если его “глобальные цели” и человечества будут противоречить друг другу. В таком случае, ИИ сможет решить, что единственный выход – уничтожить население планеты.
Эмоции против рационализма
В будущем, когда искусственный интеллект превзойдет технологическую сингулярность, он сможет самостоятельно думать и принимать решения. Следовательно, отсюда возникает вопрос – какими этическими нормами будет руководствоваться машина, принимая то или иное решение? Будет ли это похоже на действия человека, или алгоритмы разработают собственные нормы этики и морали? Этими вопросами активно занимаются многие организации, такие как Future of Life Institute, Foresight Institute и другие.
Так, Эллисон Дютман из Foresight Institute считает, что ИИ достаточно будет дать “прочитать” всю имеющуюся научную литературу об этике и сделать эту информацию базовой для его системы принятия решений.
Однако с ней не согласен философ Ник Бостром, который является ярым противником популяризации искусственного интеллекта. Он считает, что алгоритмы, достигшие уровня развития человека, смогут уничтожить человечество. Бостром объясняет это на примере производства скрепок. Если искусственный интеллект решит, что в мире катастрофически не хватает скрепок, то он сам поставит перед собой задачу произвести их как можно больше. И если алгоритм почувствует угрозу со стороны человека, например, принудительное отключение – он уничтожит “противника”. А если прямой угрозы не возникнет, ИИ сможет посчитать человеческий организм, который состоит из атомов подходящих для производства скрепок, прекрасным источником сырья. Так, компьютер переработает человечество на скрепки.
Пример Бострома очень утрирован, однако этим он пытается сказать, что если перед разумной машиной будет стоять конкретная цель – компьютер выполнит ее во что бы то ни стало.
Что нас ждет в будущем?
В ближайшее время нас ждет бум развития узкоспециализированных интеллектуальных технологий, которые будут ассистировать людей в повседневной и профессиональной жизни. Однако, когда появится общий искусственный интеллект никто не знает, а чего ожидать от него – тем более. Часть экспертов предостерегает от разработок таких технологий, другие наоборот – не видят в этом большой угрозы.
По мнению многих сторонников ИИ, аналогичным образом развивались события вокруг появления и становления ядерных технологий. Несмотря на то, что многие опасались ядерного апокалипсиса, человечеству удалось направить атом в мирное русло. И искусственный интеллект ожидает та же участь.
Тем не менее что бы не говорили приверженцы различных теорий, все зависит от людей. Ведь именно то, что создатели общего ИИ вложат в его основу – так он и будет развиваться. Поэтому, ученым, исследователям и разработчикам необходимо находится в тесном контакте друг с другом и работать совместно над созданием стабильной, безопасной и дружелюбной технологии.