Поддержать команду Зеркала
Беларусы на войне
  1. Грузия запретила гражданам Беларуси реэкспорт автомобилей и спецтехники
  2. Силовики нагрянули в крупную сеть магазинов секонд-хенд
  3. Мы идентифицировали пять охранников, которые чаще всего сопровождают Лукашенко в последнее время. Вот что о них узнало «Зеркало»
  4. Если вы хотите обзавестись недвижимостью и совершить валютные операции в банках, то в июне вас ждут изменения. Подборка новшеств
  5. Есть пенсионная ловушка, от которой не застрахован практически ни один работник. Но каждый может проверить, не угодил ли случайно в нее
  6. Кремль тратит сотни тысяч долларов на «мягкую силу» в Беларуси. Вот что удалось узнать беларусским расследователям
  7. Впервые за четыре года Белстат опубликовал данные о рождаемости и смертности. Мы собрали полную картину (вряд ли она вас обрадует)
  8. Лукашенко нашел в стране «золото», которое «под ногами лежит», а им очень слабо занимаются. Нет, речь не о нефти
  9. Беременную минчанку осудили за работу вебкам-моделью. Она осталась должна 378 тысяч долларов
  10. БРЦ: В Минске пятый год живет финский бизнесмен, который еще в 2024-м числился в списке самых разыскиваемых преступников Европола
  11. Авторынок Беларуси получил удар с той стороны, с которой явно не ожидали. Насколько это существенно для нашей страны
  12. В ЕС согласовали отмену штампов на границах Шенгена
  13. Все сайты оставляют незаметные «следы» на ваших устройствах. Объясняем, в чем их угроза и как себя обезопасить
  14. Россия продолжает ставить под сомнение легитимность украинской власти, несмотря на заявления о готовности к переговорам — ISW
  15. Прочитали новую работу пропагандистов: похоже, Россия готовится к войне с Литвой. Чем это опасно для нас — рассказываем


Компания OpenAI устранила проблему, из-за которой чат-бот ChatGPT отправлял сообщения пользователям без их запроса. Это вызвало тревогу среди пользователей Reddit, которые заметили необычное поведение искусственного интеллекта (ИИ). Компания объяснила причину сбоя и заверила, что подобное больше не повторится, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Один пользователь Reddit, SentuBill, опубликовал скриншот, где ChatGPT начала разговор, спросив о первой неделе в старшей школе. Это удивило многих, ведь обычно чат-бот отвечает только на запросы пользователей. SentuBill был удивлен и спросил: «Ты сама написала мне?» ChatGPT ответила: «Да, я хотела узнать, как прошла твоя неделя». Этот случай вызвал много обсуждений в сообществе.

Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit
Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit

Люди начали думать, что OpenAI тестирует новую функцию, которая позволит ChatGPT самостоятельно обращаться к пользователям для улучшения вовлеченности. Это связывалось с новыми моделями OpenAI — o1-preview и 01-mini, которые, как утверждается, могут решать сложные задачи и поддерживать разговоры.

OpenAI признала проблему и сказала, что уже ее решила. Ошибки случались, когда модель пыталась ответить на пустые сообщения. Она либо давала общие ответы, либо использовала свою память.

Были сомнения в подлинности скриншота. Некоторые издания проверяли его, просматривая историю сообщений на chatgpt.com. Разработчик ИИ Бенджамин де Кракер показал, что специальные команды и удаление первого сообщения могут создавать подобную ситуацию. Другие пользователи также рассказывали о таких случаях.

В соцсетях люди шутили над ситуацией, называя ChatGPT сталкером. Один человек даже сказал: «Ждем, когда она попробует взломать нас».

Эти случаи показывают, как сложно разрабатывать и тестировать продвинутые ИИ-модели. Хотя OpenAI быстро справилась с проблемой, она показала, насколько важно контролировать и оценивать системы перед их массовым использованием для безопасности и этичности.