Поддержать команду Зеркала
Беларусы на войне
  1. Стало известно имя лауреата Нобелевской премии мира в этом году
  2. Александра Шакутина отпустили из СИЗО — «Наша Ніва»
  3. ISW показал карту прямых и скрытых атак России в Европе — какие страны чаще оказывались под ударами
  4. «Усилилось давление на родственников в Беларуси». В Офисе Тихановской рассказали о последствиях сокращения охраны в Литве
  5. Новая система въезда в ЕС заработает в Литве уже с 12 октября. Это «Зеркалу» подтвердили пограничники этой страны — рассказываем
  6. Маршрутка сначала врезалась в трактор — в МВД дополнили информацию о ДТП с шестью погибшими в Светлогорском районе
  7. Резко вырос интерес к «недружественной» стране. Появилось новое исследование настроений беларусов — рассказываем
  8. По поручению Лукашенко Вооруженные силы привели в высшую степень боевой готовности — начата проверка
  9. Весьма неожиданное банкротство. С долгами не справилась фирма, у которой, казалось бы, не может быть проблем
  10. Аналитики ISW привели свои аргументы, почему Путин «не заинтересован в мирном и справедливом завершении войны в Украине»
  11. Новый позор. Сборную Беларуси по футболу разгромили в матче квалификации на чемпионат мира — угадайте, сколько она пропустила
  12. В Столбцовском районе горело «Великое княжество Сула»


Naked Science

ИИ-сервисы вроде ChatGPT и Claude могут помочь эффективнее справляться с работой, но сотрудники, использующие подобные инструменты, рискуют столкнуться с негативными последствиями. Группа американских ученых в серии экспериментов показала, что люди склонны хуже оценивать тех, кто прибегает к помощи нейросетей, считая их более ленивыми и менее старательными, пишет Naked Science.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Хотя технологии искусственного интеллекта все шире внедряются в разные сферы нашей жизни, отношение к ним бывает неоднозначным. Страх навредить своей профессиональной репутации может стать причиной нежелания сотрудников пользоваться такого рода сервисами в рабочих процессах, выяснили специалисты в области бизнеса и управления из Дьюкского университета (США). Их статью опубликовал журнал Proceedings of the National Academy of Sciences.

Исследование проходило в онлайн-формате и состояло из четырех этапов. В общей сложности в них поучаствовали почти 4500 человек.

В первом эксперименте испытуемых просили представить, что они стали пользоваться генеративными нейросетями для работы либо выполняли задачу без помощи ИИ. Затем участники отвечали на вопросы.

Судя по результатам, респонденты предпочитали не афишировать факт использования ИИ-технологий. Также применявшим ИИ казалось, что в глазах коллег и начальства они выглядят менее компетентными и добросовестными, но более ленивыми и легко заменимыми, чем сотрудники, которые обходились без такого рода инструментов.

Второй этап подтвердил, что опасения небеспочвенны. Прочитав предложенные учеными характеристики сотрудников, респонденты более негативно судили о тех, кто прибегал к помощи ИИ, ниже оценивая их трудолюбие, профессионализм, амбициозность, независимость и уверенность в себе.

В третьем эксперименте исследователи смоделировали процесс найма работников. Представив себя в роли менеджеров по кадрам, люди реже выбирали кандидатов, которые сообщали о частом использовании ИИ. Однако выяснился нюанс: среди респондентов, которые по работе сами регулярно применяли такие технологии, тенденция оказалась обратной.

Заключительный, четвертый этап показал, что предвзятость можно смягчить, если подчеркнуть пользу ИИ для выполнения тех или иных задач.

Авторы исследования добавили, что предубеждение к использованию ИИ проявлялось вне зависимости от пола, возраста и рода занятий участников. Впрочем, ученые напомнили, что людям исторически свойственно отторгать новшества и относиться к ним с недоверием.