О рисках для человечества со стороны искусственного интеллекта предупреждают ведущие эксперты
ITПроблемы управляемости будущих систем искусственного интеллекта, неправомерного использования искусственного интеллекта для кибератак на критически важную инфраструктуру и для создания биологического оружия беспокоят ведущих экспертов в области ИИ. Данные недавнего международного опроса, проведенного по заказу британского Центра этики данных и инноваций в 9 странах, говорят о том, что эти опасения разделяет множество людей.
Предупреждая о рисках для человечества со стороны ИИ, мировые эксперты подписали открытое письмо с призывом к международному сообществу и правительствам стран создать и ратифицировать международный договор о безопасности искусственного интеллекта. Документ опубликован накануне первого Международного саммита по безопасности ИИ, который прошел в Великобритании 1 и 2 ноября 2023 года.
Старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, известный когнитивист Гари Маркус, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио и другие специалисты поставили свою подпись под обращением.
Снижение губительных рисков, которые для человечества представляют системы искусственного интеллекта, и обеспечение для всех людей доступа к благам ИИ – главные цели международного договора, достичь которых можно, предотвратив бесконтрольное масштабирование возможностей ИИ.
«Обеспечение того, чтобы ИИ был безопасным и приносил пользу всем, является не только технической, но и геополитической проблемой. Нам нужно, чтобы великие державы мира, включая США и Китай, отложили в сторону свои разногласия ради человечества и конструктивно работали над созданием надежного набора международных правил, направленных на сосредоточение внимания на этих проблемах», – подчеркнул британский прогнозист и студент магистратуры по математике в Бергенском университете Толга Бильге.
В договор специалисты считают необходимым включить такие основные компоненты, как совместное объединение ресурсов, опыта и знаний в деле безопасности ИИ – «ЦЕРН» по безопасности ИИ, комиссию, отвечающую за мониторинг соблюдения договора, аналогичную Международному агентству по атомной энергии (МАГАТЭ), а также всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ.