Выступая в посольстве США, Харрис заявил, что миру необходимо начать действовать уже сейчас, чтобы устранить «полный спектр» рисков ИИ, а не только экзистенциальные угрозы, такие как массовые кибератаки или биологическое оружие, созданное на основе ИИ.
«Существуют дополнительные угрозы, которые также требуют наших действий, угрозы, которые в настоящее время причиняют вред и для многих людей также кажутся экзистенциальными», — сказала она, сославшись на пожилого гражданина, который отказался от своего плана медицинского обслуживания из-за неисправного алгоритма искусственного интеллекта или женщины, которой угрожали оскорбительный партнер с глубокими фейковыми фотографиями.
Саммит по безопасности ИИ — это любимое дело Сунака, бывшего банкира, любящего технологии, который хочет, чтобы Великобритания стала центром компьютерных инноваций, и назвал саммит началом глобального разговора о безопасном развитии ИИ.
Харрис должен присутствовать на саммите в четверг, присоединившись к правительственным чиновникам из более чем двух десятков стран, включая Канаду, Францию, Германию, Индию, Японию, Саудовскую Аравию и Китай, приглашенным из-за протестов некоторых членов правящей Консервативной партии Сунака.
Заставить страны подписать соглашение, получившее название «Декларация Блетчли», стало достижением, даже несмотря на то, что оно не содержит подробностей и не предлагает способа регулирования развития ИИ. Страны обязались работать над «общим соглашением и ответственностью» в отношении рисков ИИ и провести серию дальнейших встреч. Южная Корея проведет мини-виртуальный саммит по искусственному интеллекту через шесть месяцев, а через год последует очный во Франции.
Вице-министр науки и технологий Китая У Чжаохуэй заявил, что технология искусственного интеллекта «неопределенна, необъяснима и лишена прозрачности».
«Это несет в себе риски и проблемы в области этики, безопасности, конфиденциальности и справедливости. Его сложность возрастает», — сказал он, отметив, что президент Китая Си Цзиньпин в прошлом месяце запустил Глобальную инициативу страны по управлению искусственным интеллектом.
«Мы призываем к глобальному сотрудничеству для обмена знаниями и предоставления доступа к технологиям искусственного интеллекта на условиях открытого исходного кода», — сказал он.
Генеральный директор Tesla Илон Маск также планирует обсудить искусственный интеллект с Сунаком в беседе, которая будет транслироваться в четверг вечером. Технический миллиардер был среди тех, кто ранее в этом году подписал заявление, в котором выразил тревогу по поводу опасностей, которые ИИ представляет для человечества.
Также присутствуют президент Европейской комиссии Урсула фон дер Ляйен, генеральный секретарь ООН Антониу Гутерриш и руководители американских компаний, занимающихся искусственным интеллектом, таких как Anthropic, Google DeepMind и OpenAI, а также влиятельные ученые-компьютерщики, такие как Йошуа Бенджио, один из «крестных отцов» искусственного интеллекта. Встреча в Блетчли-парке, бывшей сверхсекретной базе взломщиков кодов времен Второй мировой войны, которая считается местом зарождения современных компьютеров.
Присутствующие заявили, что формат встречи за закрытыми дверями способствует здоровым дискуссиям. Неформальные сетевые встречи помогают укрепить доверие, сказал Мустафа Сулейман, генеральный директор Inflection AI.
Между тем, на официальных дискуссиях «люди смогли сделать очень четкие заявления, и именно здесь вы видите существенные разногласия, как между странами севера, так и между странами юга (и) странами, которые больше поддерживают открытый исходный код и меньше — открытый исходный код». Источник», — сказал Сулейман журналистам.
Системы искусственного интеллекта с открытым исходным кодом позволяют исследователям и экспертам быстро обнаруживать проблемы и решать их. Но недостатком является то, что как только система с открытым исходным кодом будет выпущена, «любой сможет использовать ее и настраивать в злонамеренных целях», — сказал Бенджио в кулуарах встречи.
«Между открытым исходным кодом и безопасностью существует несовместимость. И как нам с этим справиться?»
Только правительства, а не компании, могут защитить людей от опасностей ИИ, заявил Сунак на прошлой неделе. Однако он также призвал не спешить с регулированием технологии искусственного интеллекта, заявив, что сначала ее необходимо полностью понять.
Напротив, Харрис подчеркнул необходимость решения проблем здесь и сейчас, включая «уже наносящий ущерб обществу, такой как предвзятость, дискриминация и распространение дезинформации».
Она указала на указ президента Джо Байдена, изданный на этой неделе, в котором излагаются меры защиты ИИ, как на свидетельство того, что США подают пример в разработке правил для искусственного интеллекта, которые работают в общественных интересах.
Харрис также призвал другие страны подписать поддержанное США обещание придерживаться «ответственного и этичного» использования ИИ в военных целях.
«Президент Байден и я считаем, что все лидеры… имеют моральный, этический и социальный долг — обеспечить, чтобы ИИ внедрялся и развивался таким образом, чтобы защитить общественность от потенциального вреда и гарантировать, что каждый сможет воспользоваться его преимуществами», — сказала она. сказал.
Время публикации: 21 ноября 2023 г.