Поддержать команду Зеркала
Беларусы на войне
  1. Доллар готовится: какой курс будет в середине декабря? Прогноз по валютам
  2. Год без Асада и Путина. Куда ведут Сирию новые власти и что будет дальше
  3. Помните, Бондарева поставила крест на группе «Дрозды», назвав фронтмена «змагаром-переворотчиком»? Стало известно, чем он занялся после
  4. Этот популярный беларусский город однажды попал в состав Швеции на целый год. Объясняем, как он там оказался и что было дальше
  5. Россия нашла еще одного союзника, который готов помогать производством техники и людьми
  6. Переговоры США и Украины в Майами зашли в тупик из-за территорий и гарантий безопасности. Зеленский назвал встречу «конструктивной»
  7. Семейная шутка стала реальностью: уехавшей из Беларуси педиатру Майе Терекуловой силовики заблокировали счета
  8. Температура выше нормы. Какой будет погода на следующей неделе
  9. «Заставлены абсолютно все обочины». Минчане жалуются на проблемы от новой системы оплаты парковок
  10. «Трясти какими-то призывами». Глава МИД очередной раз высказался о Литве — теперь вспомнил про деньги и Россию


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».