Рубрики

На сплочение коллектива благоприятно влияют ошибки роботов: нестандартный эксперимент

Три человека и робот формируют команду для выступления в одной интеллектуальной игре. Робот совершает ошибку, которая обходится команде в проигранный раунд. Как и любой хороший товарищ по команде, он признает свою ошибку. Робот говорит: «Извините, ребята, я ошибся в этом раунде. Я знаю, в это трудно поверить, но роботы тоже допускают ошибки». О чем идет речь и почему это должно интересовать лично нас?

Знакомство

Вышеприведенный сценарий происходил несколько раз во время исследования влияния роботов на взаимодействие между людьми под руководством Йельского университета (частный университет в США).

Исследование, которое было опубликовано в Proceedings of the National Academy of Sciences, показало, что наличие в некоторых командах робота, признающего ошибку, побуждало людей больше общаться друг с другом. Более того, позже участники сообщили, что у них более положительный опыт сотрудничества, чем у тех игроков, в чьих командах были молчаливые роботы или роботы, делающие нейтральные заявления.

Суть

«Мы знаем, что роботы могут влиять на поведение людей, с которыми они напрямую взаимодействуют. Однако как роботы влияют на то, будут ли люди успешно взаимодействовать друг с другом, пока не совсем понятно», - говорит доктор философии Маргарет Л. Трегер, кандидат социологических наук в Йельском институте и ведущий автор исследования.

По ее словам, социальные роботы получают все большее распространение в человеческом обществе: люди сталкиваются с ними в магазинах, больницах и других повседневных местах. Важно понять, как все это формирует поведение человека.

Маргарет делится: «Это исследование показало, что роботы могут помочь людям более эффективно общаться друг с другом в одной команде».

Процесс

Исследователи провели эксперимент, в ходе которого 153 человека были разделены на 51 группу, состоящую из трех человек и одного робота. Каждая группа играла в игру, в которой участники сотрудничали вместе, чтобы создать наиболее эффективные железнодорожные маршруты. Игра длилась 30 раундов.

Роботы были запрограммированы по-разному: в конце каждого раунда они либо молчали, либо произносили нейтральное заявление, связанное с заданием (например, счет или количество завершенных раундов), либо выражали свою уязвимость и осознавали ошибку. Все роботы иногда проигрывали. Каков был результат?

Вывод

Люди объединялись друг с другом в тех группах, где находились роботы, честно признающие свою ошибку. Такая откровенность побуждала весь коллектив к взаимному обмену мыслями. Люди тратили вдвое больше времени на общение друг с другом во время игры, чем в других группах. Более того, они сообщили, что наслаждались сотрудничеством и рассматривают данный опыт как весьма позитивный. Присутствие говорящего робота побуждает людей также разговаривать друг с другом.

«Нас интересует, как изменится общество, когда мы добавим формы искусственного интеллекта в нашу среду», - сказал Николас А. Кристакис, профессор социальных и естественных наук. Он добавил: «Наши результаты могут дать информацию о том, как запрограммировать роботов, чтобы способствовать командному духу и сбалансированному участию людей, работающих в одной команде».

Нашли нарушение? Пожаловаться на содержание