Поддержать команду Зеркала
Беларусы на войне
  1. Со всей страны организованно свозят зрителей на концерты, придуманные невесткой Лукашенко. Сколько за это платят налогоплательщики
  2. «Неважно, остаются работать или же уходят на пенсию». Нанимателей попросили предоставить данные по сотрудникам — для чего
  3. Чиновники рассказали, какие товары могут подорожать в ближайшее время. Поясняем, с чем это связано
  4. В беларусских тюрьмах заставляют носить разные бирки. Так уже делала раньше одна страна — и властям Беларуси не понравится сравнение
  5. Официальные профсоюзы бьют тревогу из-за пенсий и зарплат бюджетников. Что с ними не так
  6. Торговые войны, падение цен на нефть — каких курсов ждать в апреле: прогноз по валютам
  7. Что с деньгами, которые должен был получить фонд пропавшей Анжелики Мельниковой? Вот что узнало «Зеркало»
  8. В Беларусь пытались ввезти рекордную контрабанду взрывчатки. Вот что узнало «Зеркало» о водителе
  9. «Наша Ніва»: Муж беларусской журналистки за границей не единственный, кто имеет паспорт прикрытия
  10. «Ждем, когда появится». Бывший муж Анжелики Мельниковой рассказал, где сейчас он и дети и знает ли о местонахождении спикерки КС
  11. В ближайшее время Россия, вероятно, нанесет очередной массированный удар по Украине — ISW
  12. Кочанова возмутилась жертвой прав ради политики, но не вспомнила о репрессиях в Беларуси
  13. Беларусы используют лайфхак, чтобы быстрее получить шенген. Узнали, что за он


Исследователи из Университета штата Северная Каролина разработали инструмент для обучения ИИ, который поможет программам лучше учитывать то, что люди не всегда говорят правду, предоставляя личную информацию. Новый метод обучения разработан для использования в ситуациях, когда у людей есть экономический стимул лгать, например, при подаче заявки на ипотеку или попытке снизить страховые взносы, пишет «Хайтек».

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

ИИ уже используют в самых разных ситуациях для поддержки принятия решений. Такие программы, как правило, используют для прогнозирования математические алгоритмы, основанные исключительно на статистике. Проблема в том, что этот подход создает стимулы для людей лгать, например, чтобы получить ипотеку.

Исследователи разработали набор параметров, которые можно использовать для определения того, как ИИ учится делать прогнозы. Параметры помогают программе распознавать и учитывать экономические стимулы человека. Другими словами, ИИ учится распознавать обстоятельства, в которых человеку выгодно лгать.

В ходе моделирования, подтверждающего концепцию, модифицированный ИИ лучше обнаруживал неточную информацию от пользователей. Исследователи делают новые параметры обучения ИИ общедоступными, чтобы разработчики ИИ могли экспериментировать с ними.

«Это эффективно снижает стимул пользователя лгать при отправке информации. Однако маленькая ложь все равно может остаться незамеченной. Нам нужно проделать дополнительную работу, чтобы понять, где находится порог между „маленькой“ и „большой ложью“. В какой-то момент, если мы сделаем ИИ достаточно умным, мы сможем полностью устранить эти стимулы», — рассказал соавтор исследования Мехмет Канер.