18 сентября 2020

Искусственный интеллект: прошлое, настоящее, будущее

Сейчас едва ли не каждый день появляются новости о новых разработках в области искусственного интеллекта. О его развитии говорят исследователи, политики и люди, довольно далекие от мира высоких технологий. Возможно, даже не осознавая этого, каждый из нас сейчас использует алгоритмы ИИ, заказывая такси или же листая ленту в Instagram. И это не говоря о более масштабных его применениях.

Однако еще совсем недавно искусственный интеллект был своего рода фантазией, или же мечтой футуристов, которые не могли сильно продвинуться от дискуссии к применению. Так как же искусственному интеллекту удалось пройти путь от несбыточной мечты до технологии, ставшей предметом быта миллионов людей? Давайте разберемся. 

История искусственного интеллекта начинается, пожалуй, еще с развития вычислительных процессов, а следом за этим и появления идеи создания интеллектуальных машин. Человеку свойственно стремление к прогрессу. Так когда-то было придумано колеса, затем паровозы, а позже поезда. То же произошло и с компьютерными технологиями. Но обо всем по порядку. 

От ЭВМ к искусственному интеллекту

С появлением первых электронно-вычислительных машин в первой половине XX века исследователи стали задаваться вопросом: а способна ли машина на большее, чем вычисления? Лучше всего этот вопрос сформулировал исследователь Алан Тьюринг, изобретения и идеи которого во многом опередили свое время. Так, в 1950 году в статье «Может ли машина мыслить?» он разработал тест, который позже стали называть его именем. Суть теста заключалась в том, что человек, взаимодействуя с машиной и другим человеком и при этом не видя их, должен распознать компьютер, общаясь с ними. Задача машины – своими ответами запутать человека. В тот момент, когда машину не удастся отличить от человека, будет доказано, что она способна мыслить на том же уровне, что и он.

Алан Тьюринг

50-е года прошлого века стали знаковыми для направления. В 1956 году ученые в области информатики со всего мира провели Дартмутскую конференцию, на которой в течении двух месяцев они рассматривали один-единственный вопрос: можно ли моделировать рассуждения, интеллект и творческие процессы с помощью вычислительных машин. Кстати, именно на этой конференции американский информатик Джон Маккарти впервые употребляет термин “искусственный интеллект”. Тогда он сделал акцент на том, что слово “интеллект” слишком абстрактно и в данном определении его необходимо понимать как вычислительную составляющую способности достигать целей в мире. 

Тогда же зародилось новое направление в искусственном интеллекте – Natural Language Processing или естественная обработка речи. В 1954 году сотрудники Джорджтаунского университета провели публичную демонстрацию своего алгоритма машинного перевода текста с одного языка на другой. В ходе эксперимента исследователи в автоматическом режиме переводили короткие предложения с русского языка на английский. Мероприятие широко освещалось в СМИ, а американское правительство приняло решение инвестировать миллионы долларов в развитие отрасли компьютерных вычислений. Однако на практике использовать машинный перевод тогда время не получилось: мощностей компьютеров оказалось недостаточно для обработки объемных текстов. Как итог, развитие NLP приостановилось на десятилетия, а финансирование прекратилось.

Время проб и ошибок

С 50-х годов начался довольно долгий период “застоя” в развитии ИИ. Определив основные понятия в теории, ученые долгое время не могли определиться с практической реализацией искусственного интеллекта.

Дело в том, что сначала исследователи искали какой-то универсальный алгоритм обучения машин, однако так и не смогли прийти к какому-то консенсусу. И в 70-х годах наконец появилась идея развивать экспертные системы, и учить компьютер выполнению какой-то одной конкретной задачи. Классическим примером такой системы является американская система MYCIN – медицинская программа, которая по описанию симптомов болезни пациента ставила диагноз. На практике ее практически не применяли, но не из-за низкой точности предсказаний, а из-за долгой обработки введенных данных. 

80-е годы искусственный интеллект заново родился. В 1986 году один из ведущих исследователей искусственного интеллекта Ле Кун создал метод машинного обучения, основываясь на алгоритме обратного распространения нейронной сети, что заложило основы глубокого обучения.

Машина vs Человек

В 1996 году происходит по-настоящему важное событие в области развития искусственного интеллекта. Компьютер Deep Blue от IBM обыгрывает гроссмейстера Гари Каспарова в шахматы. Весь мир поражен – игра, испокон веков прославляющая человеческий разум, выиграна машиной.

Шахматная партия Гари Каспарова против Deep Blue

Кроме того, с этого периода компьютерная техника начинает стремительно развиваться. Если еще в 90-х наличие компьютера считается привилегией высшего класса, то уже в начале 2000-х он становится предметом быта большинства населения.

При этом, в соответствии с законом Мура, размеры машин становятся все меньше, а вычислительные мощности растут с каждым новым поколением микропроцессоров. И это становится тем самым толчком, которого не хватало исследователям для претворения идеи об искусственном интеллекте в реальность.

Текущий подход к пониманию ИИ

В наше время искусственный интеллект служит определением сразу нескольким технологиям, которые наделяют компьютеры интеллектуальными способностями, в частности машинное обучение, нейронные сети и большие данные.

Практическое использование ИИ в наше время сводится к упрощению многих задач для организаций и потребителей. С точки зрения коммерции, машинное обучение активно применяется для персонализированных рекомендаций медиаконтента и таргетирования рекламы в социальных медиа. В настоящее время генерируется и копится такое количество данных, что справится с их обработкой способна только машина, которая в конечном итоге помогает людям принимать качественные решения.

Нейронные сети, в свою очередь, “научили” машины видеть и слышать окружающий нас мир, которых к настоящему времени существует десятки их видов. Такие компании как Microsoft, Google, Apple, IBM и Facebook активно применяют нейронные сети для обработки фото и видеоматериалов, а также текста или речи.

27 различных типов архитектуры нейронных сетей, Фьодор ван Вин, исследователь глубокого обучения в Институте Азимова (Нидерланды)

В целом, индустрия движется к созданию интеллектуальных систем, которые смогут анализировать огромные массивы данных и самостоятельно принимать решения за доли секунды, в то время как у человека на это уходит недели. 

Однако мы еще далеки от этого. Сегодня ИИ отлично справляется с небольшими и однотипными задачами. Они не способны мыслить на одном уровне с людьми. По крайней мере, сейчас.

Будущее ИИ

Будущее искусственного интеллекта пока не предопределено. Существует безграничное количество мнений того, каким должен быть настоящий ИИ. Однако большинство экспертов сходится в одном мнении, предложив концепцию общего искусственного интеллекта, который сможет понимать и развязать любую интеллектуальную задачу точно так же, как это делает человек. Исследователи считают, что создать такой ИИ будет возможно путем развития нейронных сетей и глубокого обучения. Ведь если раньше ученые пытались или сразу создать сильный искусственный интеллект, либо же решать узкоспециализированные задачи с помощью ИИ. На самом же деле, в представлении научного сообщества, общий искусственный интеллект находится где-то посредине.