Согласно исследованию, опубликованному Американской психологической ассоциацией, когда кажется, что роботы взаимодействуют с людьми и проявляют человеческие эмоции, люди могут воспринимать их как способных «думать» или действовать в соответствии со своими собственными убеждениями и желаниями, а не со своими программами. «Связь между антропоморфной формой, человекоподобным поведением и тенденцией приписывать независимое мышление и преднамеренное поведение роботам еще предстоит понять», — сказала автор исследования Агнешка Выковска, доктор философии, главный исследователь Итальянского технологического института. «Поскольку искусственный интеллект все больше становится частью нашей жизни, важно понимать, как взаимодействие с роботом, который демонстрирует поведение, подобное человеческому, может повысить вероятность приписывания роботу преднамеренного действия». Исследование было опубликовано в журнале Technology, Mind, and Behavior. В ходе трех экспериментов с участием 119 участников исследователи изучали, как люди будут воспринимать человекоподобного робота iCub после общения с ним и совместного просмотра видео. До и после взаимодействия с роботом участники заполняли анкету, в которой им показывали изображения робота в разных ситуациях и просили их выбрать, была ли мотивация робота в каждой ситуации механической или преднамеренной. Например, участники просматривали три фотографии, на которых робот выбирал инструмент, а затем выбирали, «схватил ли робот ближайший объект» или «был очарован использованием инструмента».

В первых двух экспериментах исследователи дистанционно контролировали действия iCub, чтобы он вел себя общительно, приветствовал участников, представлялся и спрашивал имена участников. Камеры в глазах робота также могли распознавать лица участников и поддерживать зрительный контакт. Затем участники посмотрели три коротких документальных видео с роботом, который был запрограммирован реагировать на видео звуками и выражением лица печали, благоговения или счастья. В третьем эксперименте исследователи запрограммировали iCub так, чтобы он вел себя как машина во время просмотра видео с участниками. Камеры в глазах робота были отключены, поэтому он не мог поддерживать зрительный контакт и говорил участникам только записанные предложения о процессе калибровки, который он проходил. Все эмоциональные реакции на ролики были заменены на «бип» и повторяющиеся движения туловищем, головой и шеей. Исследователи обнаружили, что участники, которые смотрели видео с человекоподобным роботом, с большей вероятностью оценивали действия робота как преднамеренные, а не запрограммированные, в то время как те, кто взаимодействовал только с машиноподобным роботом, так не считали.

Это показывает, что простого знакомства с человекоподобным роботом недостаточно, чтобы заставить людей поверить в то, что он способен к мыслям и эмоциям. Это человеческое поведение, которое может иметь решающее значение для того, чтобы его воспринимали как преднамеренного агента. По словам Выковской, эти результаты показывают, что люди с большей вероятностью поверят в то, что искусственный интеллект способен к независимому мышлению, когда создается впечатление, что он может вести себя так же, как люди. По ее словам, это может повлиять на дизайн социальных роботов будущего. «Социальная связь с роботами может быть полезной в некоторых случаях, например, с социально-ассистирующими роботами. Например, в уходе за пожилыми людьми социальная связь с роботами может привести к более высокой степени соблюдения рекомендаций относительно приема лекарств», — сказала Выковска. «Определение контекстов, в которых социальные связи и атрибуция преднамеренности полезны для благополучия людей, является следующим шагом исследований в этой области».

.