Падтрымаць каманду Люстэрка
Беларусы на вайне
  1. Трамп ввел в США чрезвычайное положение из-за торгового баланса
  2. Похоже, мы узнали реальную численность населения Беларуси. И она отличается от официальной статистики
  3. Аказваецца, у СІЗА на Валадарскага былі віп-камеры. Расказваем, хто ў іх сядзеў і ў якіх умовах
  4. «Да, глупо получилось». Беларусы продолжают жаловаться в TikTok на трудности с обменом валюты
  5. Даведаліся з непублічнага дакумента, колькі медыкаў не хапае ў Беларусі (і як чыноўнікі навучыліся хаваць гэтую лічбу)
  6. В Кремле усилили риторику о «первопричинах войны»: чего там требуют от Трампа и что это будет означать для Украины — ISW
  7. У беларусов есть собственный русский язык? Вот чем он отличается от «основного» и что об этом говорят ученые
  8. Ці быў у зніклай Анжалікі Мельнікавай доступ да спісаў тых, хто данаціў НАУ, і іншай важнай інфармацыі? Даведаліся ў Паўла Латушкі
  9. Урад укараняе новаўвядзенні ў рэгуляванне цэн — што змяняецца для вытворцаў і гандлю
  10. Дэпутаты прынялі падатковае новаўвядзенне. Расказваем, у чым яно заключаецца і каго датычыць
  11. «Дарога ў адзін канец». Дзейны афіцэр расказаў «Люстэрку», што ў арміі Беларусі думаюць пра вайну з NATO і Украінай
  12. «Бондарава — тыповы хунвэйбін». Чаму ў Беларусі рэпрэсуюць прарасійскіх актывістаў?


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.