Автоматизированные системы обслуживания клиентов становятся все более распространенными в разных отраслях. Такие инструменты, как онлайн-формы, чат-боты и прочие цифровые интерфейсы, имеют преимущества и для компаний, и для клиентов.
Новое исследование указывает, что у удобства есть и обратная сторона: люди склонны обманывать цифровые системы в более чем 2 раза чаще, чем живых собеседников. Рассказываем о выводах и рекомендациях, которые помогут добиться более честных ответов.
Клиенты склонны обманывать чат-ботов. Как этого избежать?
Елена Лиханова
Представьте, что вы только что сделали онлайн-заказ на Amazon. Что помешает заявить, что посылка так и не прибыла, и потребовать возврата денег — даже если заказ исполнен в точности? Или, скажем, вы только что купили новый телефон и сразу же уронили его, разбив экран. Вы отправляете запрос на замену, и автоматизированная система уточняет, прибыл ли продукт сломанным или повреждение произошло по вашей вине. Что вы скажете?
Нечестность — явление далеко не новое. Но по мере того, как чат-боты, онлайн-формы и другие цифровые интерфейсы становятся все более распространенными в клиентском сервисе, сейчас как никогда просто исказить правду, чтобы сэкономить деньги. Как компании могут побудить клиентов быть честными, в то же время пользуясь преимуществами автоматизированных инструментов?
Читайте по теме: Россиян стали раздражать государственные чат-боты вместо живых специалистов
Чтобы исследовать этот вопрос, были проведены два простых эксперимента, которые позволили ненавязчиво измерить честность поведения.
Сначала исследователь попросил участников подбросить монету десять раз и сказал им, что в зависимости от результатов они получат денежный приз. Некоторые сообщали о результатах через видеозвонок или чат, а остальные — с помощью онлайн-формы или голосового бота. Они подбрасывали монеты без посторонних, и проверить честность отдельного участника было невозможно.
Однако ученым удалось оценить склонность к мошенничеству группы участников (поскольку в целом только 50% подбрасываний монет должны быть успешными).
Что они обнаружили?
-
В среднем, когда участники отчитывались перед человеком, они говорили, что желаемый результат получили в 54,5% случаев, что соответствует предполагаемому уровню мошенничества в 9%.
Напротив, когда они сообщали результат машине, они обманывали в 22% случаев.
Иными словами, небольшого мошенничества следует ожидать в любом случае, но участники эксперимента, которые общались с цифровой системой, обманывали более чем в 2 раза чаще, чем при разговоре с человеком.
Кроме этого, общаясь с машиной, люди более чем в 3 раза чаще шли на откровенный обман, говоря, что 9 или 10 подбрасываний закончились желаемым результатом.
Последующий опрос помог определить, что основным психологическим механизмом, стимулирующим этот эффект, был уровень беспокойства участников о своей личной репутации. Те, кто сообщал о своих результатах машине, чувствовали себя намного менее близкими к исследователю и, как следствие, были намного меньше обеспокоены своей личной репутацией, чем те, кто общался с человеком.
Таким образом, исследователи выдвинули гипотезу: возможно, если сделать цифровую систему более человечной (например, использовать голосовой, а не текстовый интерфейс), пользователи будут больше беспокоиться о своей репутации и с меньшей вероятностью будут лгать. Однако обнаружилось, что участники эксперимента по-прежнему жульничали так же часто.
Вероятно, если люди знают, что взаимодействуют с машиной, наделение ее человеческими чертами вряд ли будет иметь большое значение.
Безусловно, вполне возможно, что развитие подобных человеку систем ИИ сделает эту стратегию эффективнее в будущем. Но на данный момент ясно, что цифровые инструменты делают мошенничество намного более распространенным, и очевидного быстрого решения просто нет.
Решение проблемы было обнаружено в ходе второго эксперимента. Хотя нечестность невозможно устранить, можно предсказать, кто с большей вероятностью будет лгать роботу, а затем подтолкнуть именно эту группу пользователей использовать человеческий канал связи.
Сначала исследователи оценили общую склонность участников к мошенничеству, попросив их подбросить монетку десять раз и сообщить о результатах через онлайн-форму, а затем классифицировали их как «вероятно обманывающих» и «вероятно честных». В следующей части эксперимента испытуемым предложили выбрать, как сообщать о результатах подбрасывания монеты: напрямую человеку или через онлайн-форму.
В целом, примерно половина участников предпочла человека, а остальные — онлайн-форму, причем «вероятно обманывающие» значительно чаще выбирали онлайн-форму, в то время как «вероятно честные» — общение с другим человеком.
Это говорит о том, что люди, которые обманывают по собственной инициативе, стараются избегать ситуаций, в которых им приходится врать человеку, а не машине. Предположительно это происходит из-за понимания (порой неосознанного), что обманывать человека было бы неприятнее.
Таким образом, если нечестные люди склонны самостоятельно выбирать цифровые каналы связи, это позволяет лучше выявлять обман и минимизировать его. Один из способов лучше определять таких клиентов — собирать данные о предпочитаемом канале связи.
Конечно, клиенты могут попытаться обмануть систему, решив поговорить с реальным агентом, но это действительно беспроигрышный вариант, поскольку, согласно исследованию, при общении с человеком они с гораздо большей вероятностью будут вести себя честно.
В конечном счете, нет лекарства от цифровой нечестности. В конце концов, кажется, что обмануть робота не так плохо, как лгать в лицо настоящему человеку.
Люди запрограммированы на защиту своей репутации, а машины в принципе не представляют для нее такой угрозы, как люди. Понимая, почему клиенты более или менее склонны ко лжи, организации могут создавать системы, выявляющие вероятные случаи мошенничества и, в идеале, подталкивающие к искренности.
Источник.
Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!
Источник: