Мриганка Бисвас (Mriganka Biswas) из Университета Линкольна (Великобритания) совместно с группой коллег установила, что люди более склонны общаться с роботами тогда, когда видят в их суждениях какие-то заметные недостатки.

В ходе серии опытов Emotional Robot и Keepon, человекоподобные роботы, подключенные к компьютерной сети, общались с людьми на различные темы. Затем исследователи внесли в программируемое поведение роботов искусственные недостатки. Так, они заставили их выдвигать в небольшом проценте диалогов ошибочные суждения, демонстрировать скуку при длительном разговоре на одну тему или, напротив, показывать энтузиазм при обсуждении какой-либо одной, ''любимой'' для робота, темы.

При этом выяснилось, что если человек имеет возможность выбрать, с каким именно вариантом поведения робота ему нужно столкнуться, то он выбирает ''ошибающегося'' робота и склонен общаться ним дольше обычного.

Мриганка Бисвас полагает, что ее исследование может быть интересно для людей, занимающихся робототехникой и разработкой систем искусственного интеллекта (ИИ). Сейчас работы по созданию ИИ идут в направлении оттачивания безошибочности и совершенствования соответствующего ПО. Но если роботам предстоит широкое внедрение в различные области человеческой жизни, им не обойтись без умения общаться с людьми. Очевидно, в этом случае стремление создать системы, ведущие диалоги без ошибок, может сослужить плохую службу для всеобщей роботизации.