Страны в британском саммите обещают справиться с потенциально «катастрофическими» рисками ИИ

В своей речи в посольстве США Харрис сказал, что мир должен начать действовать сейчас, чтобы рассмотреть «полный спектр» рисков ИИ, а не только экзистенциальные угрозы, такие как массовые кибератаки или био-апоны с искусственным искусством.

«Существуют дополнительные угрозы, которые также требуют наших действий, угроз, которые в настоящее время причиняют вред, и многим людям также чувствуют себя экзистенциальными», - сказала она, ссылаясь на пожилой гражданин оскорбительный партнер с глубокими фальшивыми фотографиями.

Саммит по безопасности ИИ-это труд любви к Сунаке, любимую техническому любимому бывшему банкиру, который хочет, чтобы Великобритания стала центром для вычислительных инноваций и сформулировал саммит как начало глобального разговора о безопасном развитии искусственного интеллекта.

Харрис должен присутствовать на саммите в четверг, присоединившись к правительственным чиновникам из более чем двух десятков стран, включая Канаду, Францию, Германию, Индию, Японию, Саудовскую Аравию - и Китай, приглашенные на протесты некоторых членов руководящей консервативной партии Сунака.

Заставлять страны подписать соглашение, получившее название декларации Блетчли, было достижением, даже если оно является легким на деталях и не предлагает способ регулировать развитие ИИ. Страны пообещали работать над «совместным соглашением и ответственностью» о рисках ИИ и проводят ряд дальнейших встреч. Южная Корея проведет мини-виртуальный саммит ИИ через шесть месяцев, за которым последовал личный во Франции через год.

Вице -министр науки и технологии Китая Ву Чжаохуй сказал, что технология ИИ «неопределенная, необъяснимая и не имеет прозрачности».

«Это вызывает риски и проблемы в этике, безопасности, конфиденциальности и справедливости. Его сложность возникает », - сказал он, отметив, что президент Китая Си Цзиньпин в прошлом месяце начал глобальную инициативу страны по управлению ИИ.

«Мы призываем к глобальному сотрудничеству, чтобы обмениваться знаниями и предоставить технологии ИИ доступными для общественности в условиях открытого исходного кода», - сказал он.

Генеральный директор Tesla Элон Маск также должен обсудить ИИ с Сунаком в разговоре, который будет транслироваться в четверг вечером. Технический миллиардер был среди тех, кто подписал заявление в начале этого года, подняв тревогу по поводу опасностей, которые ИИ представляет для человечества.

Президент Европейской комиссии Урсула фон дер Лейн, генеральный секретарь Объединенных Наций Антонио Гутеррид и руководители от американских компаний искусственного интеллекта, таких как антроп, Google DeepMind и Openai и влиятельные компьютерные ученые, такие как Йошуа Бенгио, один из «крестных отцов», также присутствуют Йошуа Бенгио Встреча в Блетчли Парке, бывшей тайной секретной базе для нарушителей кода Второй мировой войны, которая рассматривается как место рождения современных вычислений.

Участники сказали, что формат встречи в закрытом возрасте способствовал здоровым дебатам. Неформальные сеансные сессии помогают укрепить доверие, сказал Мустафа Сулиман, генеральный директор Inflage AI.

Между тем, в официальных дискуссиях «люди смогли сделать очень четкие заявления, и именно здесь вы видите значительные разногласия, как между странами северного и юга (и) стран, которые больше поддерживают открытый исходный код и меньше в пользу открытых Источник », - сказал Сулиман журналистам.

Системы ИИ с открытым исходным кодом позволяют исследователям и экспертам быстро обнаружить проблемы и решать их. Но недостатком является то, что после того, как система с открытым исходным кодом была выпущена: «Любой может использовать его и настроить ее для вредоносных целей», - сказал Бенгио в кулуарах встречи.

«Есть эта несовместимость между открытым исходным кодом и безопасностью. Итак, как мы с этим справляемся? »

По словам Сунак, только правительства, а не компании, могут защитить людей от опасностей ИИ. Тем не менее, он также призвал не спешить с регулированием технологии ИИ, заявив, что ее нужно в первую очередь понято.

Напротив, Харрис подчеркнул необходимость решения здесь и сейчас, в том числе «общественные вреда, которые уже происходят, такие как предвзятость, дискриминация и распространение дезинформации».

На этой неделе она указала на исполнительный приказ президента Джо Байдена, установив гарантии ИИ, в качестве доказательства, когда США приводят пример в разработке правил для искусственного интеллекта, которые работают в общественных интересах.

Харрис также призвал другие страны зарегистрироваться в обещании, поддерживаемом США, придерживаться «ответственного и этического» использования ИИ для военных целей.

«Президент Байден и я считаем, что у всех лидеров… имеют моральную, этическую и социальную обязанность, чтобы убедиться, что ИИ был принят и продвинут таким образом, чтобы защитить общественность от потенциального вреда и гарантирует, что каждый может пользоваться своими преимуществами», - она сказал.


Время сообщения: ноябрь-21-2023