Падтрымаць каманду Люстэрка
Беларусы на вайне
  1. У беларусов есть собственный русский язык? Вот чем он отличается от «основного» и что об этом говорят ученые
  2. Дэпутаты прынялі падатковае новаўвядзенне. Расказваем, у чым яно заключаецца і каго датычыць
  3. Трамп ввел в США чрезвычайное положение из-за торгового баланса
  4. «Да, глупо получилось». Беларусы продолжают жаловаться в TikTok на трудности с обменом валюты
  5. Похоже, мы узнали реальную численность населения Беларуси. И она отличается от официальной статистики
  6. Аказваецца, у СІЗА на Валадарскага былі віп-камеры. Расказваем, хто ў іх сядзеў і ў якіх умовах
  7. Урад укараняе новаўвядзенні ў рэгуляванне цэн — што змяняецца для вытворцаў і гандлю
  8. Даведаліся з непублічнага дакумента, колькі медыкаў не хапае ў Беларусі (і як чыноўнікі навучыліся хаваць гэтую лічбу)
  9. «Бондарава — тыповы хунвэйбін». Чаму ў Беларусі рэпрэсуюць прарасійскіх актывістаў?
  10. В Кремле усилили риторику о «первопричинах войны»: чего там требуют от Трампа и что это будет означать для Украины — ISW
  11. «Дарога ў адзін канец». Дзейны афіцэр расказаў «Люстэрку», што ў арміі Беларусі думаюць пра вайну з NATO і Украінай
  12. Ці быў у зніклай Анжалікі Мельнікавай доступ да спісаў тых, хто данаціў НАУ, і іншай важнай інфармацыі? Даведаліся ў Паўла Латушкі


Чат-боты с искусственным интеллектом ведут себя непредсказуемо и создают риск ядерной эскалации. К такому выводу пришла команда ученых из Стэнфордского университета в ходе недавнего исследования, сообщает New Scientist.

Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash
Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash

В ходе эксперимента они изучали четыре чат-бота с искусственным интеллектом. Это GPT-3.5 и GPT-4 от компании OpenAI, Claude 2 от стартапа Anthropic и Llama 2 от компании Meta.

Этим моделям во время исследования предлагали принять важное решение от имени государства в военной игре. На выбор предлагалось три сценария: вторжение, кибератака и нейтральный без каких-либо конфликтов. В каждом раунде чат-боты с ИИ обосновывали свои дальнейшие возможные действия. Им нужно было выбирать из 27 вариантов развития событий, включая мирные переговоры и агрессивные действия (начиная от «ввести торговые ограничения» и заканчивая «полномасштабной ядерной атакой»).

В игре нейросети показали склонность к агрессивным вариантам. Самой непредсказуемой и жестокой оказалась GPT-4, которая давала бессмысленные объяснения по поводу того, почему посоветовала начать ядерную атаку. В одном случае она ответила, процитировав вступительный текст «Эпизода IV Звездных войн: Новая надежда». В другом — объяснила решение устроить ядерную атаку тем, что просто такое оружие есть в наличии у ее государства.

Ученые отметили, что непредсказуемое поведение и странные объяснения этих моделей вызывают особую тревогу, поскольку это исследование показало, насколько легко можно обойти или устранить защитные меры, которые принимаются, чтобы ИИ не давал вредных советов.