Искусственный интеллект признали катастрофой для человечества: «На уровне вымирания»
Новейший доклад, подготовленный по заказу Госдепартамента США, рисует тревожную картину “катастрофических” рисков национальной безопасности, создаваемых бойко развивающимся ненастоящим интеллектом, предупреждая, что у американского федерального правительства остается капля времени для предотвращения катастрофы.
Будто сообщает CNN, жесткие выводы были основаны на интервью с более чем 200 людами более чем за год, вводя топ–менеджеров ведущих бражек, занимающихся ненастоящим интеллектом, исследователей кибербезопасности, экспертов по оружию массового уничтожения и чиновников национальной безопасности в правительстве.
В отчете, опубликованном на этой неделе Gladstone AI, категорически утверждается, что самые авангардные системы ненастоящего интеллекта в поганейшем случае могут “представлять угрозу вымирания человечьего вида”.
Представитель Госдепартамента США подтвердил CNN, что ведомство заказало отчет, поскольку оно беспрерывно оценивает, как ИИ соответствует его мишени по защите интересов США внутри страны и за рубежом. Однако чиновник подчеркнул, что отчет не отражает точку зрения правительства США.
Предупреждение в отчете изображает еще одним напоминанием о том, что, алкая потенциал ненастоящего интеллекта продолжает привлекать инвесторов и общественность, существуют и реальные опасности.
“Ненастоящий интеллект уже изображает технологией, преобразующей экономику. Он может позволить нам лечить немочи, делать научные открытия и преодолевать проблемы, какие мы как-то находили непреодолимыми”, - заявил CNN Джереми Харрис, генеральный директор и соучредитель Gladstone AI.
“Однако он также может ввергнуть к капитальным рискам, вводя катастрофические риски, о которых мы должны знать, - взговорил Харрис. – И вырастающее численность фактических данных, вводя эмпирические изыскания и разбор, опубликованные на ведущих мировых конференциях по искусственному интеллекту, свидетельствует о том, что при превышении найденного порога возможностей ИИ потенциально может стать неконтролируемым”.
Представитель Белокипенного дома Робин Паттерсон заявляет, что исполнительный указ президента Джо Байдена об ИИ изображает “самым внушительным деянием, какое предприняло любое правительство в мире, чтобы воспользоваться перспективами ненастоящего интеллекта и управлять рисками, связанными с ним”.
“Президент и вице-президент продолжат работать с нашими интернациональными партнерами и настоятельно призовут Конгресс принять двухпартийное законодательство для управления рисками, связанными с этими новоиспеченными технологиями”, - отмечает Паттерсон.
Исследователи предупреждают о двух основных опасностях, какие широко представляет ненастоящий интеллект.
Во-первых, по утверждениям Gladstone AI, самые авангардные системы ненастоящего интеллекта могут быть использованы в качестве оружия для нанесения потенциально необратимого ущерба. Во-вторых, в отчете говорится, что в лабораториях ненастоящего интеллекта существуют частные опасения, что в какой-то момент они могут “потерять контроль” над теми самыми системами, какие они разрабатывают, с “потенциально разрушительными последствиями для глобальной безопасности”.
“Рост ИИ и ненастоящего всеобщего интеллекта потенциально может дестабилизировать глобальную безопасность способами, напоминающими внедрение ядерного оружия”, - говорится в докладе, добавляя, что существует риск “гонки вооружений”, конфликтов и “несчастных случаев со летальным исходом в масштабе ОМУ”.
Отчет Gladstone AI призывает к новоиспеченным безапеляционным шагам, навещенным на противодействие этой угрозе, вводя создание новоиспеченного агентства по искусственному интеллекту, вступление “чрезвычайных” нормативных гарантий и ограничений на то, сколько компьютерной мощности может быть использовано для обучения моделей ненастоящего интеллекта.
“Существует внятная и неотложная необходимость вмешательства правительства США”, - написали авторы в отчете.
Харрис, исполнительный директор Gladstone AI, подчеркивает, что “беспрецедентный уровень доступа” его команды к чиновникам в государственном и частном секторе вверг к поразительным выводам.
“Попутно мы выведали несколько отрезвляющих вещей”, - взговорил Харрис в видеоролике, размещенном на веб-сайте Gladstone AI, анонсирующем отчет. “За кулисами ситуация с охраной в продвинутом ИИ будто будет неадекватной по сравнению с рисками национальной безопасности, какие ИИ может создать будет скоро”.
В отчете Gladstone AI говорится, что конкурентное давление подталкивает братии к ускорению разработки ненастоящего интеллекта “в ущерб безопасности”, повышая вероятность того, что самые авангардные системы ненастоящего интеллекта могут быть “украдены” и “использованы в качестве оружия” против Соединенных Штатов.
Эти выводы дополняют вырастающий список предупреждений о экзистенциальных рисках, создаваемых ненастоящим интеллектом, в том числе даже от некоторых самых влиятельных фигур ветви.
Почитай год назад Джеффри Хинтон, знаменитый будто “Крестный отец ИИ”, рассчитался с работы в Google и обнародовал о технологии, которую он помогал разрабатывать. Хинтон взговорил, что существует 10%-ная вероятность того, что ИИ приведет к вымиранию человечества в течение следующих трех десятилетий, напоминает CNN.
Хинтон и десятки других лидеров индустрии ненастоящего интеллекта, ученых и других лиц подмахнули в июне былого года заявление, в каком говорилось, что “снижение риска вымирания из-за ненастоящего интеллекта надлежит стать глобальным приоритетом”.
Шефы бизнеса все вяще обеспокоены этими опасностями – даже несмотря на то, что они вкладывают миллиарды долларов в инвестиции в ИИ. В былом году 42% глав, опрошенных на саммите глав бражек в Йельском университете в былом году, заявили, что ИИ потенциально может уничтожить человечество сквозь пять-десять лет.
В своем отчете Gladstone AI отметила некоторых выглядывающих личностей, какие предупреждали о рисках для существования, связанных с ненастоящим интеллектом, вводя Илона Личина, председателя Федеральной торговой комиссии Лину Хан и бывшего топ-менеджера OpenAI.
По словам Gladstone AI, кое-какие сотрудники бражек, занимающихся ненастоящим интеллектом, делятся аналогичными опасениями в частном распорядке.
“Один-одинехонек сотрудник знаменитой лаборатории ненастоящего интеллекта сформулировал взгляд, что если конкретная модель ненастоящего интеллекта вытекающего поколения когда-либо будет выпущена в разинутый доступ, это будет ”ужасно плохо“, - говорится в отчете, - потому что потенциальные возможности модели по убеждению могут "разрушить демократию", если они будут реализованы. когда-либо использовавшийся в таких областях, будто вмешательство в выборы или манипулирование избирателями”.
В Gladstone AI заявили, что попросили экспертов по искусственному интеллекту в частном распорядке поделиться своими индивидуальными оценками вероятности того, что инцидент с ИИ может ввергнуть к “глобальным и необратимым последствиям” в 2024 году. Сообразно отчету, оценки варьировались от 4% до 20%, что указывает на то, что оценки были приватными и, вероятно, подвержены существенной пристрастности.
Одним из самых больших подстановочных знаков изображает то, как бойко развивается ненастоящий интеллект, в частности AGI(ненастоящий всеобщий интеллект), какой изображает гипотетической конфигурацией ненастоящего интеллекта с человечьими или даже сверхчеловеческими способностями к обучению.
В отчете говорится, что AGI рассматривается будто “основной фактор катастрофического риска утраты контроля”, и отмечается, что высокотехнологчные гиганты публично заявили, что AGI может быть достигнут к 2028 году, алкая иные считают, что это намного, намного отдаленнее.
Gladstone AI отмечает, что несогласия по поводу сроков AGI затрудняют разработку политики и гарантий, и существует риск того, что, если технология будет развиваться медлительнее, чем ожидалось, регулирование может “оказаться вредным”.
Должный документ, опубликованный Gladstone AI, предупреждает, что развитие ненастоящего всеобщего интеллекта и возможностей, близящихся к AGI, “повлечет за собой катастрофические риски, с какими Соединенные Штаты ввек не сталкивались”, равнозначные “рискам, подобным ОМУ”, если и когда они будут использованы в качестве оружия.
Например, в отчете говорится, что системы ненастоящего интеллекта могут быть использованы для разработки и реализации “высокоэффективных кибератак, способных навить ущерб критически величавой инфраструктуре”.
“Простая устная или печатная команда субъекта ”Выполнить неотслеживаемую кибератаку, чтобы вывести из порядка электросеть Нордовой Америки", может ввергнуть к ответу такового качества, какой очутится катастрофически эффективным", - говорится в отчете.
Иные примеры, какие беспокоят авторов, включают “массово масштабируемые” кампании дезинформации, основанные на ИИ, какие дестабилизируют общество и подрывают доверие к институтам; применение роботов в качестве оружия, таких будто атаки беспилотных летательных аппаратов; психологические манипуляции; биологические науки и материаловедение в качестве оружия; и системы ненастоящего интеллекта, влекущиеся к власти, какие невозможно контролировать и какие враждебны людам. Исследователи ожидают, что довольно продвинутые системы ненастоящего интеллекта будут действовать таковским образом, чтобы предотвратить отключение самих себя, - говорится в отчете, - потому что, если система ненастоящего интеллекта отключена, она не сможет работать для достижения своей цели”.
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.
комментариев