ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Трамп дал Ирану 48 часов. Что он требует и чем угрожает
  2. В Минске дорожает проезд в городском общественном транспорте
  3. «Была просто телом, которому что-то надо делать». Супруга директора ЕРАМ — о тяжелом лечении от рака, рецидиве и надежде
  4. «Знала много чувствительной информации, и не только о нас»: Павел Латушко — о возможном появлении Мельниковой в Минске
  5. Андреева о первых шагах на свободе: «Чувствую себя инопланетянином, который свалился с Луны на Землю и теперь просто учится ходить»
  6. Россия может готовить наступление на Донбассе: что фиксируют аналитики
  7. «Я не хочу бегать с автоматом по улице». Лукашенко — об освобожденных политзаключенных, оставленных в Беларуси
  8. Более 2000 дней за решеткой. Как известные политзаключенные выглядели до и после освобождения
  9. Сначала почти лето, потом понадобятся зонты. Прогноз погоды на неделю
  10. Чиновники снова упрекнули население — в чем на этот раз
  11. «Она уже давно в Беларуси». Отец Анжелики Мельниковой признался, что она жива и здорова
  12. Жена «кошелька» Лукашенко заявила, что у беларусов нет своей мифологии


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».