Можно ли свести чат-бота с ума и зачем вообще проводить такие эксперименты? Об этом и не только — в новом подкасте серии Universum. Гость: Борис Галицкий, специалист по машинному обучению.
Искусственные галлюцинации
Какие новшества вам удалось привнести в сферу разработки корпоративных чат-ботов?
Основной подход в построении большинства чат-ботов сегодня — это глубокое обучение. Например, так работает ChatGPT. Но этот же метод становится причиной нескольких проблем и главная из них — неправда. Нет никакой гарантии, что информация, сгенерированная глубоким обучением, правдива, так как подобное обучение происходит на базе огромного корпуса знаний, содержимое которых «усредняется». Если проводить медицинские параллели, то это то же самое, что лечить больных, ориентируясь на среднюю температуру по палате.
Я же использую дискурсивный анализ для организации диалога. Существуют совершенно четкие правила, в соответствии с которыми люди обмениваются информацией. Например, сначала у пользователя надо спросить А и Б, потом предложить варианты 1, 2, 3 и уже после этого сформулировать предложение. Тогда мы моделируем, по сути, весь диалог с его вариативностью и сложной структурой, в отличие от современного ChatGPT, который в ответ на возражение со стороны пользователя просто переформулирует первичный ответ.
Насколько такие боты отличаются от чат-ботов общего назначения?
Их отличает именно то, что называется task-oriented, — это чат-бот, сфокусированный на специфической задаче. Про все остальное он ничего не знает и не может сказать, но свою тему отработает намного лучше, чем боты общего назначения. Также чат-боты, подобные нашему, с одной стороны ограничены познанием (чтобы не было лишней информации, а, как следствие, усреднений и смешиваний), а с другой стороны, имеет более широкую базу знаний по логике организации диалога. Это позволяет как можно более точно получить запрос пользователя.
Получается, что такой подход позволяет решить вопрос с «галлюцинациями» чат-ботов?
Да, ведь эти «галлюцинации» появляются просто за счет того, что мы берем информацию из разных источников, не всегда точных, и склеиваем их, усредняем по общему фону. Для предсказания, например, погоды, это нормально, но для написания качественных текстов не подойдет. Да, можно получить с виду хороший, плавный материал, не отклоняющийся от темы, но правильных значений внутри него таким способом добиться не получится. То есть для творческой и гейм-индустрии такие боты подходят, а вот для финансов — совсем нет.
Пробовали ли вы свести ChatGPT с ума?
Да, пробовал. Но такой бот, работающий с усреднением, крайне устойчив. «Вывести его из себя», чтобы он начал нести полный бред, не получается. Да, он может выдать неправильные параметры, например, в моих вопросах он перепутал жену Пушкина и маму. Но это случаи с фактами, а не с целым пластом текста. Усреднение не гарантирует верную информацию, но гарантирует стабильность.
ИИ в медицине
В 2016 году у вас вышла книга «Computational Autism», которая широко используется родителями детей с особенностями аутического спектра. Правда ли, что аутичное мышление близко к математическому?
Действительно, аутичные дети — это маленькие математики. Обычные дети развиваются и всегда имеют выбор: остаться дома решать задачи или пойти в гости, пообщаться во дворе и т. д. Именно в случае детей с аутизмом второй путь для них закрыт, поэтому они зачастую показывают гениальные способности в обучении.
В книге я пытался объяснить, как такие дети могут общаться и как можно компенсировать их развитие через аналитику, через логические рассуждения. Например, я учил детей с аутизмом обманывать, притворяться, так как естественным образом они этому не учатся. Им для этого необходимо усвоить непростые порой логические цепочки и взаимосвязи.
Кому бы вы доверили свой диагноз при плохом самочувствии: реальному врачу или многообещающему боту?
Я бы с интересом послушал, что скажет мне нейросеть, но потом пошел бы сначала в интернет, чтобы проверить ответы, а потом и к реальному доктору, чтобы обсудить, так ли я понял найденные статьи. Все-таки медицина — серьезная тема. А я давно занимаюсь созданием алгоритмов, уменьшающих количество ошибок в том же ChatGPT, поэтому знаю, что они возможны и проверять лучше все параметры.
Каким вы видите будущее медицины: будут ли вытеснены люди из сферы диагностирования?
Я думаю, что многое из диагностирования можно автоматизировать, но конечное решение все равно должен принимать доктор, подобному тому, как сейчас обстоят дела в авиации. Конечно, очень многое можно автоматизировать, систематизировать, что касается в особенности подготовки к диагнозу, а не его вынесению, но финальное слово пока должно быть за человеком.
Насколько можно формализовать человека и его природу?
Когда простые дети начинают говорить в четыре года, это очень сложно формализовать, практически невозможно. Сейчас много разговоров о неэтичности искусственного интеллекта. Но, на мой взгляд, если взять современное общество и посмотреть на то, как ведут себя те же правительства разных стран, то это они недостойны искусственного интеллекта. Я много путешествую, но еще не видел страны, где было бы действительно хорошее правовое государство.
Войны чат-ботов
Как вы считаете, скоро ли мы сможем передать полномочия человека искусственному интеллекту?
Я думаю, что это очень зависит от предметной области. Медицина будет одной из последних, а вот образование, домашние дела, государственные услуги очень легко и эффективно можно автоматизировать. При этом плохой и грустный результаты пока показывают автоматически управляемые машины, хотя попыток было немало. Но, в целом, чем дальше — тем больше областей, которые можно почти полностью доверить ИИ.
Может ли произойти война алгоритмов? Например, если один искусственный интеллект защищает одну базу данных, а другой искусственный интеллект должен найти проход в эту базу.
Я предвижу такие войны между OpenAI от Microsoft и Google, потому что они оба будут создавать искусственный контент и его выявлять. А кого судить в описанной ситуации — сложный вопрос, но, наверное, создателей. Или можно придумать какой-то алгоритм и попытаться судить саму программу, ограничивать ее. Возможно, пора заняться разработкой правовых программ для ИИ, некоторой системы ограничений, которая существует и у людей.
Применение в лингвистике
Какие главные лингвистические школы для тех, для кто разрабатывает языковые сервисы?
Сейчас самые современные — это, конечно, топ-тройка компаний в Америке (Microsoft, Amazon, Google) и ведущие университеты: Карнеги, Стэнфорд, Массачусетский технологический институт. Они фактически создали эти языковые модели и теперь на данном поле конкурируют. Почти у всех перечисленных компаний есть образовательные материалы на открытых ресурсах, на YouTube. Но для их понимания, конечно, нужно освежить историю машинного обучения, без чего будет сложно понять тему.
Как вы считаете, может ли языковая модель вроде ChatGPT изобрести новый язык?
Думаю, что да, если взять и усреднить уже существующие языки. Но сама идея универсального языка была актуальна, когда не было машинных переводчиков и все нужно было делать вручную. В наше время эта задача не так важна, но, тем не менее, было бы хорошо создать идеальную грамматику, то есть упростить имеющиеся правила для простого понимания каждого.
Может ли искусственный интеллект помочь в спасении вымирающих языков?
Да, ведь он способен размножить его корпус. Вопрос в том, что тот же ChatGPT может создать на базе маленького корпуса языкового большой и во втором соврать. Поэтому в итоге главное не перепутать настоящий маленький корпус и искусственный большой.
Пригодилось ли вам знание лингвистики вне сферы профессиональной деятельности?
Я сталкивался с юридическими проблемами и даже уголовными. Мне нужно было написать программу, которая состыковывает описание преступления, телефонные звонки и банковские переводы. Тогда я изобрел такой метод, как мультимодальные дискурсивные деревья — как для криминальных расследований в уголовной в сфере соединить информацию о тексте, телефонных звонках, банковских переводах и системах контроля потока положения машин. Именно этот метод позволяет получить полную картину преступления. А самое смешное, что грамоту за этот патент у меня из дома украли.
Все другие выпуски подкаста Universum доступны здесь.