А.И. исследователи призывают регуляторов не тормозить разработку

А.И. исследователи призывают регуляторов не тормозить разработку

ЛОНДОН. Исследователи искусственного интеллекта утверждают, что на данном этапе нет смысла вводить строгие правила в отношении его разработки, поскольку технология все еще находится в зачаточном состоянии, а бюрократизм только замедлит прогресс в этой области.

В настоящее время системы искусственного интеллекта способны выполнять относительно «узкие» задачи, такие как игры, перевод языков и рекомендации контента.

Но они никоим образом далеки от «общих», и некоторые утверждают, что эксперты не ближе к святому Граалю AGI (общий искусственный интеллект) — гипотетической способности ИИ понимать или изучать любую интеллектуальную задачу, которую человек может — чем они были в 1960-х годах, когда так называемые «крестные отцы ИИ» совершили некоторые ранние прорывы.

Специалисты по информатике в этой области сообщили CNBC, что некоторые возможности ИИ сильно преувеличены. Нил Лоуренс, профессор Кембриджского университета, сказал CNBC, что термин ИИ превратился в нечто, чем не является.

«Никто не создал ничего похожего на возможности человеческого интеллекта», — сказал Лоуренс, который раньше был директором Amazon по машинному обучению в Кембридже. «Это простые алгоритмические вещи для принятия решений».

Лоуренс сказал, что регулирующим органам нет необходимости вводить новые строгие правила в отношении разработки ИИ на данном этапе.

Люди говорят: «А что, если мы создадим сознательный ИИ, и это будет своего рода свободой воли», — сказал Лоуренс. «Я думаю, что мы еще далеки от того, чтобы это обсуждалось даже на предмет актуальности».

Вопрос в том, как далеко мы находимся? Несколько лет? Несколько десятилетий? Несколько веков? На самом деле никто не знает, но некоторые правительства стремятся обеспечить свою готовность.

Разговаривая об А.

В 2014 году Илон Маск предупредил, что ИИ «потенциально может быть более опасным, чем ядерное оружие», а покойный физик Стивен Хокинг в том же году сказал, что ИИ может положить конец человечеству. В 2017 году Маск снова подчеркнул опасности ИИ, заявив, что это может привести к третьей мировой войне, и призвал регулировать разработку ИИ.

«ИИ представляет собой фундаментальную угрозу существованию человеческой цивилизации, и я не думаю, что люди полностью осознают это», — сказал Маск. Однако многие исследователи ИИ не согласны с мнением Маска об ИИ.

В 2017 году Демис Хассабис, основатель эрудита и генеральный директор DeepMind, согласился с исследователями ИИ и бизнес-лидерами (включая Маска) на конференции, что «суперинтеллект» когда-нибудь будет существовать.

Сверхразум определяется профессором Оксфорда Ником Бостромом как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях, представляющих интерес». Он и другие предположили, что сверхразумные машины однажды могут повернуться против людей.

Ряд исследовательских институтов по всему миру уделяют внимание безопасности искусственного интеллекта, в том числе Институт будущего человечества в Оксфорде и Центр изучения экзистенциальных рисков в Кембридже.

Бостром, директор-основатель Института будущего человечества, сказал CNBC в прошлом году, что есть три основных способа, которыми ИИ может в конечном итоге причинить вред, если он каким-то образом станет намного более мощным. Они есть:

ИИ может сделать что-то плохое с людьми; люди могут сделать что-то плохое друг с другом с помощью ИИ; люди могут сделать что-то плохое с ИИ (в этом сценарии ИИ будет иметь своего рода моральный статус).

«Каждая из этих категорий — вероятное место, где что-то может пойти не так», — сказал шведский философ.

Соучредитель Skype Яан Таллинн считает ИИ одной из наиболее вероятных угроз существованию человечества. Он тратит миллионы долларов, пытаясь обеспечить безопасную разработку технологии. Это включает в себя ранние инвестиции в лаборатории искусственного интеллекта, такие как DeepMind (отчасти для того, чтобы он мог следить за тем, что они делают) и финансирование исследований безопасности ИИ в университетах.

Таллинн сказал CNBC в ноябре прошлого года, что важно посмотреть, насколько сильно и насколько сильно развитие ИИ будет влиять на развитие ИИ.

«Если в один прекрасный день люди разрабатывают ИИ, а на следующий день люди выйдут из цикла, я думаю, что очень оправданно беспокоиться о том, что происходит», — сказал он.

Но Джошуа Фист, выпускник Массачусетского технологического института и основатель бостонской компании по разработке программного обеспечения для искусственного интеллекта Cogito, сказал CNBC: «Сегодня в технологии (ИИ) нет ничего, что подразумевает, что мы когда-либо доберемся до AGI».

Фист добавил, что это не линейный путь, и мир постепенно не приближается к AGI.

Он признал, что в какой-то момент может произойти «гигантский скачок», который поставит нас на путь к AGI, но он не считает, что мы идем по этому пути сегодня.

Фист сказал, что политикам лучше сосредоточиться на предвзятости ИИ, которая является серьезной проблемой для многих современных алгоритмов. Это потому, что в некоторых случаях они научились делать такие вещи, как идентифицировать кого-то на фотографии с обратной стороны наборов человеческих данных, в которые встроены расистские или сексистские взгляды.

Новые законы

Регулирование ИИ — новая проблема во всем мире, и перед директивными органами стоит сложная задача найти правильный баланс между поощрением его развития и управлением связанными с этим рисками.

Им также необходимо решить, следует ли попытаться регулировать «ИИ в целом» или попытаться ввести законодательство об ИИ для конкретных областей, таких как распознавание лиц и беспилотные автомобили.

Технология беспилотного вождения Tesla считается одной из самых передовых в мире. Но автомобили компании по-прежнему врезаются в разные вещи — например, ранее в этом месяце в США Tesla столкнулась с полицейской машиной.

«Чтобы это (законодательство) было практически полезным, вы должны говорить об этом в контексте», — сказал Лоуренс, добавив, что директивным органам следует определить, какие «новые возможности» ИИ может сделать, что было невозможно раньше, а затем подумать, необходимо ли регулирование. .

Политики в Европе, возможно, делают больше, чтобы попытаться регулировать ИИ, чем кто-либо другой.

В феврале 2020 года ЕС опубликовал свой проект стратегического документа по продвижению и регулированию ИИ, а в октябре Европейский парламент выдвинул рекомендации о том, какие правила ИИ должны учитывать в отношении этики, ответственности и прав интеллектуальной собственности.

Европейский парламент заявил, что «технологии искусственного интеллекта с высоким риском, например технологии с возможностью самообучения, должны быть разработаны таким образом, чтобы обеспечивать возможность контроля со стороны человека в любое время». Он добавил, что обеспечение возможности самообучения ИИ может быть «отключено», если он окажется опасным, также является главным приоритетом.

Усилия по регулированию в США в основном сосредоточены на том, как сделать беспилотные автомобили безопасными и следует ли использовать ИИ в войне. В отчете за 2016 год Национальный совет по науке и технологиям создал прецедент, позволив исследователям продолжить разработку нового программного обеспечения ИИ с небольшими ограничениями.

Комиссия национальной безопасности по ИИ, возглавляемая бывшим генеральным директором Google Эриком Шмидтом, в этом месяце опубликовала отчет на 756 страницах, в котором говорилось, что США не готовы защищать или конкурировать в эпоху ИИ. В отчете содержится предупреждение, что системы ИИ будут использоваться в «погоне за властью» и что «ИИ не останется в сфере сверхдержав или в сфере научной фантастики».

Комиссия призвала президента Джо Байдена отклонить призывы к глобальному запрету на автономное оружие, заявив, что Китай и Россия вряд ли будут соблюдать какой-либо договор, который они подписывают. «Мы не сможем защититься от угроз с использованием ИИ без повсеместных возможностей ИИ и новых парадигм ведения войны», — написал Шмидт.

Между тем, также реализуются глобальные инициативы по регулированию ИИ.

В 2018 году Канада и Франция объявили о планах создания международной группы при поддержке Большой семерки для изучения глобального воздействия ИИ на людей и экономику, а также руководства разработкой ИИ. Панель будет аналогична международной группе по изменению климата. В 2019 году оно было переименовано в Глобальное партнерство по ИИ. США еще не одобрили его.

Ваш адрес email не будет опубликован. Обязательные поля помечены *