Опубликовано 05 апреля 2024, 23:15
1 мин.

ИИ отреагировал по-разному в зависимости от «мотивации» человека: исследование

Взяли три модели
Новое исследование проливает свет на то, как чат-боты с ИИ, работающие на основе больших языковых моделей (LLM), взаимодействуют с пользователями в зависимости от их мотивации. Исследователи из Университета Иллинойса Урбана-Шампейн оценили три популярных чат-бота — ChatGPT, Bard и Llama 2*.
ИИ отреагировал по-разному в зависимости от «мотивации» человека: исследование

Исследование, опубликованное в Journal of the American Medical Informatics Association (JAMIA), показало, что, хотя эти чат-боты могут определить цели пользователя и предоставить соответствующую информацию, они с трудом справляются с ситуациями, когда пользователи сомневаются или не хотят менять свое поведение.

Мишель Бак, ведущий автор исследования, подчеркивает это ограничение на примере. Представьте себе пользователя, страдающего диабетом, который не решается перейти на более активный образ жизни. Эффективный чат-бот не просто перечислит преимущества физических упражнений, но и предложит осознать себя, эмоционально привязаться к делу и подумать о том, как их выбор влияет на других. Современные чат-боты с искусственным интеллектом не способны учитывать эти мотивационные нюансы, что потенциально препятствует «позитивному изменению поведения».

Однако исследование показало, что пользователи, которые уже настроены на изменения, могут быть полезны. Например, для людей, активно стремящихся к фитнес-целям, чат-боты эффективно предоставляли необходимую информацию и оказывали поддержку. Это исследование указывает на важную область для развития LLM — адаптацию ответов к мотивации пользователей.

*принадлежит Meta, которая признана в РФ экстремистской и запрещена