Последние новости
04.07.2025, 16:28 Планета Лайка расширила линейку продукции для ухода за домашними животными
04.07.2025, 16:03 Доверие как фундамент: как построить прибыльный бьюти-бизнес, основанный на честности
04.07.2025, 15:26 Майнинг в 2025: стабильность и устойчивость важнее мощностей
04.07.2025, 14:50 Благодаря BlackLine компания Creditsafe добивается окупаемости инвестиций (ROI) на уровне 234 % и побеждает в конкурсе Nucleus Research ROI Awards 2025
04.07.2025, 13:12 Новая версия Р7 команда для iOS: обмен контентом и поиск
04.07.2025, 13:49 Древний китайский центр по изготовлению изделий из бронзы — город Баоцзи — способствует культурному обмену в Казахстане
04.07.2025, 13:56 Bitget Wallet сокращает комиссии за ончейн-переводы TRON USDT на 50% благодаря обновлению GetGas
04.07.2025, 13:19 Bitget заключает партнёрство с Veles для предоставления пользователям продвинутых криптовалютных торговых ботов
04.07.2025, 13:37 От анализа к результату: BingX AI превращается в помощника по криптоторговле с полным спектром услуг
04.07.2025, 12:58 SINEXCEL вносит вклад в разработку стандартов систем хранения энергии уровня энергосетей для развития отрасли
Ведущие эксперты в области ИИ и государственного управления призвали к заключению международного договора о безопасности искусственного интеллекта
Общество

Накануне первого мирового саммита, посвященного безопасности ИИ, эксперты, в том числе ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, подписали открытое письмо. В нем содержится призыв к «разработке и ратификации договора о безопасности ИИ, который получит широкое одобрение во всем международном сообществе, созданию рабочей группы на Саммите по безопасности ИИ в Великобритании при широкой международной поддержке для разработки плана для этого.”
Такой международный договор о безопасности ИИ должен включать несколько основных компонентов, в том числе:
- Всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ.
- “ЦЕРН” по безопасности ИИ: масштабное совместное объединение ресурсов, опыта и знаний в деле безопасности ИИ.
- Комиссию по соблюдению договора: она должна отвечать за мониторинг соблюдения договора, ее роль должна быть аналогична роли Международного агентства по атомной энергии (МАГАТЭ).
Целями такого договора являются:
- Снижение катастрофических рисков, которые системы искусственного интеллекта представляют для человечества, путем предотвращения бесконтрольного масштабирования возможностей искусственного интеллекта.
- Обеспечение доступа к благам ИИ для всех людей.
Эта коалиция научных экспертов, лидеров бизнеса и государственного управления примечательна тем, что находится в авангарде международного регулирования ИИ: некоторые из подписавшихся лиц входят в Консультативный орган высокого уровня ООН по ИИ или входят в число немногих избранных экспертов, приглашенных на Международный саммит по безопасности ИИ, который состоялся в Лондоне 1 и 2 ноября 2023 года.
Китайский учёный Йи Цзэн заявил: «Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться». Йи Цзэн добавил: «Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади».
Инициативу открытого письма возглавил британский прогнозист Толга Билге.