В эпоху развития технологий искусственного интеллекта, внимание научного сообщества все чаще сосредотачивается на взаимодействии человека и машины. Что заставляет людей обращаться к гигантским языковым моделям? Какова природа их запросов? Как обеспечить безопасное и продуктивное взаимодействие между ними? Ученые из Калифорнийского университета в Беркли решили углубиться в эту тему, исследовав миллион реальных диалогов. Результаты их исследований были опубликованы на сервере препринтов arXiv.
От "служебных" запросов к досугу и развлечениям
Полученные результаты исследования оказались многогранными. Диалоги с языковыми моделями происходили на 150 языках, что подтверждает все возрастающий интерес к технологиям искусственного интеллекта в разных уголках мира. Основная часть диалогов — примерно половина — касалась служебных тем. Это, безусловно, логично: языковые модели, такие как ChatGPT, стали настоящими помощниками в вопросах компьютерного программирования, написания текстов и даже садоводства.
Программисты, столкнувшись с ошибками в коде или неожиданными задачами, обращаются к чат-ботам в поисках решений. А начинающие авторы или студенты могут просить помощи в структурировании текста или корректировке ошибок. При этом не стоит удивляться тому, что даже садоводы ищут советов у языковых моделей — возможности современных нейросетей позволяют давать ценные рекомендации даже в таких узкоспециализированных областях.
Темная сторона взаимодействия с нейросетями
Однако среди всего многообразия запросов, около 10% вызвали особую озабоченность у ученых. Эти диалоги касались так называемых «небезопасных» тем: секса, насилия и других аспектов, которые могут вызывать опасения. Просьбы рассказать эротическую историю или принять участие в сексуальных ролевых играх — лишь верхушка айсберга таких запросов.
Полученные данные поднимают важные вопросы о роли и ответственности создателей языковых моделей. Если машина способна генерировать контент по запросу пользователя, где провести грань между разрешенным и запрещенным? Как обеспечить, чтобы нейросети не становились инструментом для распространения нежелательного или даже вредного контента?
Ученые выразили надежду, что их исследование послужит отправной точкой для разработки механизмов контроля и средств предотвращения небезопасного использования нейросетей. Ведь искусственный интеллект должен служить на благо человечества, а не становиться источником рисков и опасностей.
В заключении, данное исследование подчеркивает не только потенциал языковых моделей, но и необходимость строгого контроля и постоянной коррекции их работы в интересах общества.
Подготовил: Иван АРИСТОВ