Поддержать команду Зеркала
Беларусы на войне
  1. «Ни фига себе». В TikTok рассказали о курьезном случае по «тунеядству»: в истории — попадание в базу «иждивенцев» и звонки из милиции
  2. «Мне даже обидно». Лукашенко задался вопросом, зачем «создавал ПВТ, продвигал айтишников», и вспомнил 2020 год
  3. Лукашенко предложил открыть заведения этой сети ресторанов в районных центрах
  4. Разгадка феномена ясновидящей бабы Ванги оказалась чрезвычайно простой. Вот кто использует ее в своих интересах
  5. В Могилеве и окрестностях — вспышка очень заразного вируса, особенно опасного для некоторых людей
  6. Влюбленная пара отправилась в поход по местам съемок «Властелина колец». Они не подозревали, что это закончится кошмаром
  7. Сын пропагандистки поступил в Москву — в Беларуси его считают уклонистом. Мать обратилась к Лукашенко
  8. Беларусский акционист разослал по российским школам брошюры в стиле нацистской Германии с лицами пропагандистов — как отреагировали
  9. Минчанка забронировала столик в престижном ресторане на 8 марта. В преддверии праздника ее попросили внести депозит — 800 рублей
  10. Доллар стремительно дорожает: что будет с курсами в середине марта? Прогноз по валютам
  11. Кто те девушки, которые «случайно» оказались в Mak.by во время визита Лукашенко? Узнали
  12. Из-за украинского контрнаступления Россия стоит перед дилеммой — вот о чем речь
  13. ГосСМИ Ирана назвали нового верховного лидера страны
  14. 8 марта в Дзержинской ЦРБ умерли роженица и ребенок


Naked Science

ИИ-сервисы вроде ChatGPT и Claude могут помочь эффективнее справляться с работой, но сотрудники, использующие подобные инструменты, рискуют столкнуться с негативными последствиями. Группа американских ученых в серии экспериментов показала, что люди склонны хуже оценивать тех, кто прибегает к помощи нейросетей, считая их более ленивыми и менее старательными, пишет Naked Science.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Хотя технологии искусственного интеллекта все шире внедряются в разные сферы нашей жизни, отношение к ним бывает неоднозначным. Страх навредить своей профессиональной репутации может стать причиной нежелания сотрудников пользоваться такого рода сервисами в рабочих процессах, выяснили специалисты в области бизнеса и управления из Дьюкского университета (США). Их статью опубликовал журнал Proceedings of the National Academy of Sciences.

Исследование проходило в онлайн-формате и состояло из четырех этапов. В общей сложности в них поучаствовали почти 4500 человек.

В первом эксперименте испытуемых просили представить, что они стали пользоваться генеративными нейросетями для работы либо выполняли задачу без помощи ИИ. Затем участники отвечали на вопросы.

Судя по результатам, респонденты предпочитали не афишировать факт использования ИИ-технологий. Также применявшим ИИ казалось, что в глазах коллег и начальства они выглядят менее компетентными и добросовестными, но более ленивыми и легко заменимыми, чем сотрудники, которые обходились без такого рода инструментов.

Второй этап подтвердил, что опасения небеспочвенны. Прочитав предложенные учеными характеристики сотрудников, респонденты более негативно судили о тех, кто прибегал к помощи ИИ, ниже оценивая их трудолюбие, профессионализм, амбициозность, независимость и уверенность в себе.

В третьем эксперименте исследователи смоделировали процесс найма работников. Представив себя в роли менеджеров по кадрам, люди реже выбирали кандидатов, которые сообщали о частом использовании ИИ. Однако выяснился нюанс: среди респондентов, которые по работе сами регулярно применяли такие технологии, тенденция оказалась обратной.

Заключительный, четвертый этап показал, что предвзятость можно смягчить, если подчеркнуть пользу ИИ для выполнения тех или иных задач.

Авторы исследования добавили, что предубеждение к использованию ИИ проявлялось вне зависимости от пола, возраста и рода занятий участников. Впрочем, ученые напомнили, что людям исторически свойственно отторгать новшества и относиться к ним с недоверием.