Ученые проявили парадоксальную закономерность: искусственный интеллект демонстрирует лучшие результаты, когда получает агрессивные и директивные команды вместо вежливых просьб.
Исследователи из Университета Пенсильвании провели масштабный анализ поведения модели GPT-4o, используя разные стили общения — от чрезмерно вежливых до откровенно грубых. Результаты эксперимента продемонстрировали, что точность ответов чат-бота напрямую зависит от эмоциональной окраски входного текста, причем жесткие формулировки оказались более продуктивными.
Согласно данным тестирования, запросы в грубой форме обеспечили среднюю точность ответов на уровне 84,8%. Самые же вежливые обращения, содержащие фразы типа «пожалуйста», показали самый низкий результат — лишь 75,8%, что подтверждает статистическую значимость влияния тона на алгоритмы ИИ.
Ученые объясняют такое явление спецификой обучения большим языковым моделям, которые интерпретируют грубый тон как сигнал к выполнению приоритетной и четкой директивы. Профессор Ахил Кумар отметил, что искусственный интеллект становится более сосредоточенным на результате, когда испытывает «давление» со стороны пользователя, что заставляет систему разглашать максимально конкретную информацию.
Однако авторы исследования подчеркивают этические риски такой стратегии общения с машинами. Постоянное использование агрессивного стиля в цифровой среде может негативно отразиться на психологии человека, постепенно нормализуя грубость в реальных взаимоотношениях между людьми и снижая общую культуру диалога.
Наконец, ученые предостерегают, что погоня за более высокой точностью ценой токсического общения может сделать будущий интернет менее инклюзивным и дружественным. Хотя грубость и повышает эффективность алгоритмов сегодня, она создает опасный прецедент для социального поведения в эпоху массового внедрения искусственного интеллекта.