В своей речи в посольстве США Харрис заявил, что миру необходимо начать действовать уже сейчас, чтобы противостоять «всему спектру» рисков, связанных с ИИ, а не только экзистенциальным угрозам, таким как масштабные кибератаки или биологическое оружие, созданное на основе ИИ.
«Существуют и другие угрозы, которые также требуют наших действий, угрозы, которые в настоящее время причиняют вред и для многих людей также кажутся экзистенциальными», — сказала она, сославшись на пожилого гражданина, отказавшегося от своего плана медицинского страхования из-за неисправного алгоритма искусственного интеллекта, или на женщину, которой угрожал партнер-агрессор с помощью поддельных фотографий.
Саммит по безопасности ИИ — это любимое дело Сунака, бывшего банкира, любящего технологии, который хочет, чтобы Великобритания стала центром компьютерных инноваций, и представляет саммит как начало глобального диалога о безопасной разработке ИИ.
Харрис должен присутствовать на саммите в четверг, присоединившись к правительственным чиновникам из более чем двух десятков стран, включая Канаду, Францию, Германию, Индию, Японию, Саудовскую Аравию и Китай, приглашенным из-за протестов некоторых членов правящей Консервативной партии Сунака.
Подписание странами соглашения, получившего название Блетчлийской декларации, стало достижением, даже если оно не содержит подробностей и не предлагает способа регулирования развития ИИ. Страны обязались работать над «общим соглашением и ответственностью» относительно рисков ИИ и провести ряд дополнительных встреч. Южная Корея проведет мини-виртуальный саммит по ИИ через шесть месяцев, а затем через год состоится очный саммит во Франции.
Заместитель министра науки и технологий Китая У Чжаохуэй заявил, что технология искусственного интеллекта «неопределенна, необъяснима и лишена прозрачности».
«Это несет с собой риски и проблемы в области этики, безопасности, конфиденциальности и справедливости. Его сложность становится все более очевидной», — сказал он, отметив, что председатель КНР Си Цзиньпин в прошлом месяце запустил Глобальную инициативу страны по управлению ИИ.
«Мы призываем к глобальному сотрудничеству для обмена знаниями и предоставления общественности доступа к технологиям ИИ на условиях открытого исходного кода», — сказал он.
Генеральный директор Tesla Илон Маск также планирует обсудить ИИ с Сунаком в разговоре, который будет транслироваться в четверг вечером. Технологический миллиардер был среди тех, кто подписал заявление в начале этого года, подняв тревогу об опасностях, которые ИИ представляет для человечества.
Председатель Европейской комиссии Урсула фон дер Ляйен, Генеральный секретарь Организации Объединенных Наций Антониу Гутерриш и руководители американских компаний, занимающихся искусственным интеллектом, таких как Anthropic, DeepMind и OpenAI от Google, а также влиятельные ученые-компьютерщики, такие как Йошуа Бенжио, один из «крестных отцов» ИИ, также присутствуют на встрече в Блетчли-парке, бывшей совершенно секретной базе для дешифровальщиков времен Второй мировой войны, которая считается местом рождения современных вычислений.
Участники отметили, что формат встречи за закрытыми дверями способствовал здоровым дебатам. Неформальные сессии нетворкинга помогают укреплять доверие, сказал Мустафа Сулейман, генеральный директор Inflection AI.
Между тем, на официальных дискуссиях «люди смогли сделать очень четкие заявления, и именно здесь можно увидеть существенные разногласия, как между странами севера, так и юга (и) странами, которые больше поддерживают открытый исходный код и меньше поддерживают открытый исходный код», - сказал Сулейман журналистам.
Системы ИИ с открытым исходным кодом позволяют исследователям и экспертам быстро обнаруживать проблемы и решать их. Но недостатком является то, что после выпуска системы с открытым исходным кодом «кто угодно может использовать ее и настраивать в вредоносных целях», — сказал Бенджио в кулуарах встречи.
«Есть несовместимость между открытым исходным кодом и безопасностью. Так как же нам с этим справиться?»
Только правительства, а не компании, могут защитить людей от опасностей ИИ, сказал Сунак на прошлой неделе. Однако он также призвал не торопиться с регулированием технологии ИИ, заявив, что сначала ее нужно полностью понять.
Напротив, Харрис подчеркнул необходимость решения текущих проблем, включая «уже существующие социальные проблемы, такие как предвзятость, дискриминация и распространение дезинформации».
Она указала на указ президента Джо Байдена, изданный на этой неделе, в котором излагаются меры безопасности в отношении ИИ, как на доказательство того, что США подают пример в разработке правил для искусственного интеллекта, которые работают в общественных интересах.
Харрис также призвал другие страны подписаться под поддерживаемым США обязательством придерживаться «ответственного и этичного» использования ИИ в военных целях.
«Президент Байден и я считаем, что все лидеры... имеют моральный, этический и социальный долг обеспечить внедрение и развитие ИИ таким образом, чтобы защитить общественность от потенциального вреда и гарантировать, что каждый сможет пользоваться его преимуществами», — сказала она.
Время публикации: 21 ноября 2023 г.