Поддержать команду Зеркала
Беларусы на войне
  1. «Думаю, вопрос по Украине и Крыму для Статкевича не стоял». Большое интервью «Зеркала» с нобелевским лауреатом Алесем Беляцким
  2. Власти назвали имена артистов, которые выступят на новогодней дискотеке у Дворца спорта 1 января. В соцсетях удивились: «Кто все эти люди»
  3. Умер Никита Мелкозеров
  4. Экс-политзаключенный Игорь Лосик показал сообщение, которое ему в личку Instagram прислал судебный исполнитель
  5. Лукашенко улетел в Санкт-Петербург
  6. Беларусам предложили «удобные» полеты в Европу. Но не спешите радоваться
  7. «И как жить?» В TikTok показали расчетный на одном из предприятий со скромными суммами — это вызвало обсуждение
  8. К родным известного беларусского путешественника снова приходили силовики и предлагали ему «покаяться»
  9. Кремль неоднократно отвергал гарантии безопасности для Украины, которые привели бы к устойчивому миру — ISW
  10. В BELPOL прокомментировали слова Лукашенко об убийстве «бэчебэшника» при задержании


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».