Поддержать команду Зеркала
Беларусы на войне
  1. Подтверждение словам Слюнькина двухлетней давности. Послы Беларуси в других странах сделали совместное фото — вот сколько там женщин
  2. СК: Упавший в Минске беспилотник был начинен тротилом и большим количеством поражающих элементов. Опубликовано видео падения дрона
  3. В сети появилась информация о маньяке в Светлогорске, который изнасиловал двух девочек. Милиция и медики прокомментировали
  4. Литовские военные: Наиболее вероятная версия — прилетевший со стороны Беларуси дрон был дезориентирован украинской ПВО
  5. Как «ударный дрон» смог долететь до столицы и почему военные не сбили его раньше? Спросили у экспертов
  6. В Минске банкротится компания, которая проработала всего неделю
  7. «Все проснулись, ночь вышла ужасной». Во Фрунзенском районе Минска в дом врезался беспилотник
  8. «Уничтожена внутренняя IT-инфраструктура». Киберпартизаны и Silent Crow заявили о своей причастности к сбоям «Аэрофлота»
  9. «Гранаты откидывал назад в милицию». Беларус четыре года прятался от силовиков, попался, но смог покинуть страну — вот его история
  10. «Это игра в две стороны». Спросили «Киберпартизан», что удивило в системах «Аэрофлота» и что будет с данными пассажиров
  11. Что это было? Четыре версии того, как упавший во дворе беспилотник мог попасть в Минск
  12. Остались последние дни дешевого доллара: что меняется? Прогноз по валютам
  13. Гомельские милиционеры случайно добавили «экстремиста» в свой внутренний чат — что он там увидел
  14. Москва формирует образ «одиночной войны с Западом» ради поддержки агрессии — ISW
  15. «Гендиректор Аэрофлота не менял пароль с 2022 года». «Киберпартизаны» рассказали, как взломали «Аэрофлот»


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.