Поддержать команду Зеркала
Беларусы на войне
  1. Грузия запретила гражданам Беларуси реэкспорт автомобилей и спецтехники
  2. Силовики нагрянули в крупную сеть магазинов секонд-хенд
  3. Мы идентифицировали пять охранников, которые чаще всего сопровождают Лукашенко в последнее время. Вот что о них узнало «Зеркало»
  4. Если вы хотите обзавестись недвижимостью и совершить валютные операции в банках, то в июне вас ждут изменения. Подборка новшеств
  5. Есть пенсионная ловушка, от которой не застрахован практически ни один работник. Но каждый может проверить, не угодил ли случайно в нее
  6. Кремль тратит сотни тысяч долларов на «мягкую силу» в Беларуси. Вот что удалось узнать беларусским расследователям
  7. Впервые за четыре года Белстат опубликовал данные о рождаемости и смертности. Мы собрали полную картину (вряд ли она вас обрадует)
  8. Лукашенко нашел в стране «золото», которое «под ногами лежит», а им очень слабо занимаются. Нет, речь не о нефти
  9. Беременную минчанку осудили за работу вебкам-моделью. Она осталась должна 378 тысяч долларов
  10. БРЦ: В Минске пятый год живет финский бизнесмен, который еще в 2024-м числился в списке самых разыскиваемых преступников Европола
  11. Авторынок Беларуси получил удар с той стороны, с которой явно не ожидали. Насколько это существенно для нашей страны
  12. В ЕС согласовали отмену штампов на границах Шенгена
  13. Все сайты оставляют незаметные «следы» на ваших устройствах. Объясняем, в чем их угроза и как себя обезопасить
  14. Россия продолжает ставить под сомнение легитимность украинской власти, несмотря на заявления о готовности к переговорам — ISW
  15. Прочитали новую работу пропагандистов: похоже, Россия готовится к войне с Литвой. Чем это опасно для нас — рассказываем


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.