Содержание
Впервые исследователи-ученые из Нью-Джерси (США) описали работу ботов, которые “трудятся” в англоязычном сегменте наиболее крупного отдела “Википедии”. За все время количество ботов составило 16021 - их разделили по функционалу на 9 групп. В зависимости от отделов на них приходилась разная доля активности, к примеру, в Wikidata они выполняли до 88 % всей работы.
Основную часть “работников” направили на исправление ошибок и за время работы они сделали уже 80 миллионов правок. В ноябре 2019 года издание Proceedings of the ACM on Human-Computer Interaction показало, какое влияние имеют они и какой мощью обладают в плане работы над контентом. Исследователи установили, что если нового участника онлайн-сообщества “Википедии” приветствуют чат-боты, то пользователь остается в проекте на более длительное время, нежели те, кого “принимает в ряды” редактор-человек. Поэтому и считается, что роботизированные “сотрудники” более доброжелательные.
Исследования искусственного интеллекта (ИИ)
Профессор Школы Бизнеса, автор научной работы Никерсон заявил: “Искусственный интеллект вырабатывает свой способ для производства знаний, а “Википедия” - самое подходящее место для изучения данного процесса. Очень скоро мы все будем сотрудничать с роботами и полученные исследования помогут сделать из них эффективный инструмент".
Выполнение научных изысканий в “Википедии” легко произвести, поскольку она максимально “прозрачна”, в сравнении с другими крупными проектами, где работают как люди, так и ИИ.
Для изучения функций, возложенных на интеллектуальные машины, ученые применили алгоритм классификации. Наибольшая загруженность была у тех машин, которые делали анализ сайта и восстанавливали испорченный контент или удаляли последствия вандализма - их назвали фиксаторами. Соединители занимались размещением анкоров на страницы, защитники боролись с неадекватным поведением пользователей, а советники предлагали участникам сообщества новые виды деятельности.
В общей сложности фиксаторов было около 1200 штук, а советников и защитников не так много, но и они играли жизненно важную роль в процессе взаимодействия редакторов и энциклопедии (советники подталкивали людей на уделение большего времени проекту). Именно когда роботы указывают на допущенные ошибки или даже предлагают удалить сделанное, люди готовы вносить свой вклад намного упорнее. Это происходит потому, что сердечные и вежливые объяснения механизмов доступно объясняют, почему написанная статья не будет опубликована.
Данные исследований показали, что обратная связь и уровень прозрачности “Википедии” помогают относиться к искусственным помощникам, как к законным членам сообщества.
Использование интеллектуальных машин в бизнес проектах
Джеффри Никерсон, проводя свои исследования роботизированных систем, использовавшихся в энциклопедии, сделал такие выводы: “То, что мы увидели в "Википедии" - это предвестник образования множества отраслей и профессий. Изучив досконально эту тему, можно научиться создавать так называемые инструменты искусственного интеллекта, с помощью которых улучшится наша производительность и качество работы. Роботы реально способны справиться со всеми заданиями, которые делает контент-менеджер.
Обязанности ботов в энциклопедии
Как уже упоминалось ранее, существует 9 видов системных работников, которых назвали:
- Генераторами - служат для создания контента для сайтов (страниц), который добавляется, основываясь на специальных шаблонах. К примеру, они могут генерировать страницы и статьи, полученные из контента другого источника. Первому роботу по имени Rambot дали задание создавать статьи про американские города, используя для этого данные переписи населения.
- Фиксерами - для исправления битых ссылок, устранения двойных редиректов, правки опечаток и орфографических ошибок. А также, для проверки и исправления данных о датах рождения и смерти в биографиях.
- Соединителями - необходимы для установления связи энциклопедической страницы с другими сайтами и базами данных. Они могут извлекать оттуда информацию и помещать ее в WikiData; связывать между собой статьи и добавлять к публикациям идентификаторы.
- Теггерами - для непрерывного патрулирования статей и их тег, чтоб корректно увязать страницы с категориями.
- Клерками - для обновления статистики; документирования статуса участников проекта; доставки оповещений; сбора статистики в индекс, который свидетельствует о важности и уровне качества всех статей.
- Архиваторами - для обеспечения сохранности закрытых обсуждений; сортировки архивов; удаления данных из “песочницы” и т.д.
- Защитниками - для обнаружения следов деструктивного поведения пользователей; удаления их; фиксации нарушения политики сообщества; пресечения вандализма и противостояния вредоносным изменениям, для которых используют сторонние нейронные сети. Защитники замечают вандализм и восстанавливают испорченный контент за пару секунд. Они даже могут отследить назревающий конфликт интересов среди редакторов статей.
- Советниками - нужны, чтобы сообщать редакторам, что именно им нужно сделать в "Википедии". Для этого собирают научные публикации о чем-то интересном, что стоило бы описать и создают списки о недостающих научных темах.
- Уведомителями - служат для доставки сообщений редакторов, информационных бюллетеней о последних происшествиях в сообществе (уведомляют рецензентов о появлении новых статей).
Вместе с хорошей работой, роботизированные “сотрудники” часто конкурируют между собой и многих выводят из обращения. Со временем создаются все новые и новые виды, более сложные, которые внедряются вместе прежних.
Научные авторы определили, что эти все “члены” команды выполняют 25 функций. Но о подробностях выполнения и эволюции исполнителей судить еще рано. Эта тема планируется на будущие исследования, чат бот.
Будущее в управлении сайтом за искусственным интеллектом
Благодаря экосистеме роботов "Википедии" можно получить образец понимания роли ИИ, которая потребуется для создания и поддержания крупных проектов. На примере энциклопедии видно, что улучшение условий труда людей происходит за счет перепоручения рутинных функций ботам. Они намного лучше справляются с проверкой точных данных и отлично извлекают их из сторонних баз. Даже тегирование и перелинковку контента на сайте можно доверить ботам, повысить retention. Это отличная новость для редакторов.