Добрый и злой ИИ

ВЗГЛЯД / АВГУСТ #5_2023
Текст: Влада Баянкина, Артем Самойлов, Яна Лысюк / Фото: Unsplash.com

Искусственный интеллект по праву стал темой номер один в этом году: он не только двигает вперед науку, меняет образовательные стандарты и облегчает жизнь представителям разных профессий, но и создает новые глобальные угрозы. Эти темы обсуждали на конференции «Искусственный интеллект и общество» в НИУ ВШЭ.

В 2010 году началась пятая технологическая революция, обусловленная развитием искусственного интеллекта — ​об этом на конференции рассказал профессор-­исследователь НИУ ВШЭ, ведущий научный сотрудник Научно-­исследовательского института искусственного интеллекта и руководитель группы Байесовских методов Дмитрий Ветров.

Технологии искусственного интеллекта начали развиваться еще в 1950‑х годах, однако ИИ стал полноценной частью научного и производственного мира лишь в последние несколько лет: в нулевых годах случился прорыв в области компьютерного зрения, в 2019 году — ​в области больших языковых моделей, а в 2022 году компания OpenAI запустила нейросеть ChatGPT.

Д. Ветров отметил: ученые пока не знают, что именно происходит в процессе обучения нейросетей. «Мы решаем задачи оптимизации функций в миллиардмерных пространствах, слабо представляя себе свой­ства оптимизируемой функции», — ​говорит он.
Нейросети не отберут у нас работу
К вероятности того, что ИИ полностью заменят человека на рынке труда, Д. Ветров относится скептически. Нейросети умеют имитировать человеческие действия, но не обладают эмпатией. Они не смогут заменить сотрудников, работающих с людьми, разве что станут их помощниками. «Другое важное ограничение работы ИИ — ​отсутствие целеполагания и планирования», — ​рассказывает эксперт. Нейросеть способна очень быстро обрабатывать массивы данных и генерировать тексты, но задачи ей ставит человек. «Иными словами, нейросети нужен оператор», — ​отмечает Д. Ветров.

Однако рынок труда все равно ждут перемены. Прогнозируется взрывной рост интеллектуальной мощности больших языковых моделей. Способности ИИ позволяют ему освоить не все, но некоторые профессии, поэтому ученые ожидают роста трудовой миграции.

Есть несколько способов контроля за развитием ИИ. Один из них — ​законодательные ограничения во всех странах, участвующих в разработке систем ИИ.

В будущем Д. Ветров ждет вовлечения в исследования больших языковых моделей специалистов гуманитарного профиля. В частности, они нужны для работы в сфере AI-safety, для того чтобы оценивать риски использования нейросетей и разрабатывать протоколы защиты от возможных угроз.
Как искусственный интеллект помогает науке
Один из главных «выгодополучателей» развития ИИ — ​наука. Уже сейчас технологии нейросети используются во многих предметных дисциплинах.

Пример задачи для нейросетей — ​количественный анализ текстов, рассказал директор Центра стратегической аналитики и больших данных Института статистических исследований и экономики знаний НИУ ВШЭ Константин Вишневский.

Он привел такой пример: исследователи проанализировали с использованием нейросетей произведения русских писателей XIX—XX вв.еков. ИИ помог составить карту словосочетаний, близких по смыслу к концепту «совесть»: «глубина души», «смертный одр» и «низкий поклон». «Это пример того, как искусственный интеллект может анализировать тонкие душевные переживания, отраженные в художественных текстах», — ​прокомментировал К. Вишневский.

Другие примеры применения ИИ для исследований более прикладные. Например, ученые картировали профессиональные компетенции, наиболее важные для российского бизнеса. Среди самых популярных — ​"облачные технологии", «разработка ПО» и «защита данных».

Научный сотрудник Института когнитивных наук НИУ ВШЭ Нтуманис Иоанис рассказал о своем опыте использования ИИ для исследований. Например, задействуя иерархические регрессионные модели, сотрудники института изучили связь между соблюдением эпидемиологических норм во время пандемии COVID‑19 и личностными качествами людей. Авторы выяснили: люди, соблюдавшие ковидные ограничения, чаще других проявляют сочувствие к другим и не имеют психопатических черт характера.
ИИ против токсичности
Любопытный пример использования ИИ для исследований в социальных науках привела заведующая Лабораторией социальной и когнитивной информатики НИУ ВШЭ (СПб) Олеся Кольцова. Один из крупных проектов Лаборатории — ​проект EthnoHate, направленный на распознавание этнической нетерпимости в текстах из Сети. Для этого ученые задействуют как традиционные классификаторы, так и нейросети. Правда, работа ИИ неидеальна: алгоритмы не всегда считывают иронию, плохо понимают сложные синтаксические конструкции, такие как множественные отрицания. Сейчас идут эксперименты с использованием более новых языковых моделей, включая предобученные на сходных задачах. Однако, отметила О. Кольцова, более четкое распознавание тематической классификации лексики станет возможно, когда искусственный интеллект сможет привлекать опыт из других областей.
Что такое большие языковые модели?
Большие языковые модели (БЯМ) — ​это особые нейросети, которые пишут тексты. Они анализируют большое количество текстов и вычисляют вероятность упоминания слов вместе. Модели могут предсказывать следующее слово в предложении — ​так им удается писать тексты, похожие на созданные человеком. Большими называют модели, учитывающие более 1 млрд параметров при определении вероятностного сочетания слов.
Снизится ли ценность гуманитарного образования?
Один из страхов, связанных с развитием ИИ, — нивелирование ценности образования. Многие преподаватели утверждают, что уникальность студенческих работ с появлением ИИ снизилась, а уровень компетенций студентов не отвечает требованиям программ.

Кандидат философских наук и доцент Школы философии и культурологии Владислав Терехович признаёт, что такой риск действительно существует: сейчас почти невозможно распознать, написан ли текст нейросетью или человеком.

«ИИ-текст — это не копипаст, не парафраз, он уникален. Нельзя доказать, что текст искусственный, и поставить за работу оценку „ноль“. ИИ может переформулировать полный копипаст так, чтобы он выглядел как „человеческий“. Для этого достаточно добавить к запросу: „Напиши как студент-­новичок“ или: „Перефразируй простым языком с небольшими стилистическими ошибками“», — объясняет В. Терехович. Однако он уверен: это не повод отказываться от ИИ: «Конечно, можно игнорировать ИИ и бояться использовать его возможности. А можно задействовать его потенциал для ответа на ключевой вопрос гуманитарных наук: в чем заключается творческая миссия автора?» — рассуждает В. Терехович. «Возможности искусственного интеллекта для развития гуманитарных дисциплин намного шире, чем примитивное написание студенческих работ, поэтому запрет ИИ не исправит ситуацию», — уверен эксперт.

В. Терехович дал преподавателям несколько советов, помогающих предотвратить использование студентами ИИ для написания «бездумных» работ. Прежде всего, необходимо менять требования к эссе и курсовым работам, уменьшая элемент реферирования в пользу обязательного анализа и критического осмысления темы. Распознать «руку» ИИ в тексте могут помочь более внимательная проверка работ и уменьшение их объема. Полезным может оказаться возвращение формата контрольных работ, которые пишутся прямо в аудитории. Искусственный интеллект может использовать и сам преподаватель, например, для автоматической проверки логики текста.

«Ценность гуманитарной экспертизы будет возрастать. Создавать тексты — не проблема, но теперь все больше будут цениться смысл и глубина написанного, а не информация в чистом виде», — подчеркнул В. Терехович.
ИИ в руках киберпреступников
Есть и «темные» стороны развития ИИ: так, он может стать серьезной киберугрозой. Ведущий научный сотрудник Института Европы РАН Дарья Базаркина рассказала о том, как ИИ используют киберпреступники и террористы: первые создают убедительные дипфейки, вымогая у жертв деньги, вторые с помощью ботов вербуют новых членов.

Искусственный интеллект способен угрожать также безопасности физических объектов. Д. Базаркина отметила: создаются новые продукты ИИ, в которые внедряются голосовая биометрия и даже прямое управление физическими объектами. Кроме того, ИИ задействуют и в управлении дронами — с помощью такого дрона в 2018 году было совершено покушение на президента Венесуэлы Николаса Мадуро.

«Необходимо осознавать и распространять сведения о злонамеренном использовании ИИ-технологий», — резюмирует Д. Базаркина.
ДРУГИЕ МАТЕРИАЛЫ