Поддержать команду Зеркала
Беларусы на войне
  1. КГК бьет тревогу: в одной из сфер вузам сильно не хватает абитуриентов. Вот что узнало «Зеркало» из закрытых документов
  2. Все сайты оставляют незаметные «следы» на ваших устройствах. Объясняем, в чем их угроза и как себя обезопасить
  3. Силовики нагрянули в крупную сеть магазинов секонд-хенд
  4. В Ельске школьница умерла в больнице — ей было 14 лет. Следственный комитет пугает комментаторов
  5. Россия продолжает ставить под сомнение легитимность украинской власти, несмотря на заявления о готовности к переговорам — ISW
  6. Беременную минчанку осудили за работу вебкам-моделью. Она осталась должна 378 тысяч долларов
  7. Есть пенсионная ловушка, от которой не застрахован практически ни один работник. Но каждый может проверить, не угодил ли случайно в нее
  8. Впервые за четыре года Белстат опубликовал данные о рождаемости и смертности. Мы собрали полную картину (вряд ли она вас обрадует)
  9. Стало известно, где и когда могут пройти следующие переговоры между Украиной и Россией — WSJ
  10. Помните громкое «дело семнадцати» о крупной наркосети, которую прикрывали сотрудники КГБ и ГУБОПиК? Узнали, как сложилась их судьба
  11. Грузия запретила гражданам Беларуси реэкспорт автомобилей и спецтехники
  12. Кремль тратит сотни тысяч долларов на «мягкую силу» в Беларуси. Вот что удалось узнать беларусским расследователям
  13. Прочитали новую работу пропагандистов: похоже, Россия готовится к войне с Литвой. Чем это опасно для нас — рассказываем
  14. Авторынок Беларуси получил удар с той стороны, с которой явно не ожидали. Насколько это существенно для нашей страны


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.