4 ноября 2023

Ведущие эксперты призвали мировое сообщество к разработке и ратификации договора о безопасности ИИ

О необходимости создания международного договора о безопасности искусственного интеллекта заявили ведущие мировые эксперты в области ИИ. Они подписали открытое письмо непосредственно перед проведением первого Международного саммита по безопасности ИИ в Лондоне 1 и 2 ноября 2023 года. Эксперты призывают мировое сообщество разработать и ратифицировать договор о безопасности ИИ, предлагая создать на Саммите по безопасности ИИ соответствующую рабочую группу.

Член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, известный когнитивист Гари Маркус, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн и другие известные специалисты поставили свои подписи под документом.

Подчеркивается, что договор должен содержать положения об ограничениях во всем мире на объем вычислений для обучения какой-либо модели ИИ, создании для масштабного объединения опыта, знаний и ресурсов в деле безопасности ИИ организации по безопасности ИИ («ЦЕРН»), а также комиссии, аналогичной МАГАТЭ, которая будет осуществлять мониторинг соблюдения договора.

«Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться. Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади», – отметил ученый из Китая Йи Цзэн

Будущий договор призван обеспечить доступ к благам ИИ для всех людей и снизить за счет предотвращения бесконтрольного масштабирования возможностей ИИ губительные риски, которые представляют для человечества системы ИИ.