Поддержать команду Зеркала
Беларусы на войне
  1. МВД изменило порядок сдачи экзаменов на водительские права. Что нового?
  2. Червенская резня. Как двухтысячную колонну узников убивали во время пешего марша из Минска — трагедия, которую пытались скрыть в СССР
  3. ISW: Россия придерживает ракеты для новых массированных ударов по Украине, в то время как Китай заключает крупные контракты с Киевом
  4. Чем может обернуться торговая война США против всего мира? Вообще-то такое уже было — рассказываем, насколько плохо все кончилось тогда
  5. В закон внесли изменения. Теперь призывников, которые не явятся в военкомат, ждет более суровое наказание — рассказываем
  6. Помните школьницу из Кобрина, победа которой на олимпиаде по немецкому возмутила некоторых беларусов? Узнали, что было дальше
  7. В Брестском районе взорвался боеприпас. Погиб подросток
  8. В Минске повышают стоимость проезда в городском общественном транспорте
  9. В измене государству обвинили трех минчан, которые проводили социсследования
  10. Лукашенко снова взялся наводить порядок в финансах одной из сфер. Требует, чтобы «родных и любовниц содержали за свои деньги»
  11. В сюжете госканала у политзаключенного была странная бирка на плече. Узнали, что это и для чего
  12. Высокие чины тайно договаривались, как «удержать» цену на дорогой товар. Не вышло, Беларусь потеряла сотни миллионов долларов — рассказываем


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».