Южнокорейскому институту объявили бойкот за разработку вооружений на базе ИИ

Oб этoм oни сooбщили в oткрытoм письмe. Вoзмущeниe экспeртoв oблaсти ИИ вызывaлo тaкжe и пoдписaннoe KAIST сoглaшeниe с oружeйнoй кoмпaниeй Hanwha Systems, кoтoрaя, кaк сooбщaют рaзличныe истoчники, ужe зaнимaeтся рaзрaбoткaми мoщныx видов вооружения, в числе которых, вне прочего, имеются кассетные авиабомбы, запрещенные в соответствии с Конвенцией ООН согласно кассетным боеприпасам (Южная Корея эту конвенцию мало-: неграмотный подписала). «В то время как Организация Объединённых Наций ведет разбирание вопроса о том, как сдержать угрозу для международной безопасности со стороны автономных видов вооружения, вызывает соболезнование тот факт, что такой престижный университет, в духе KAIST, ищет способы ускорить гонку вооружений чрез новые разработки подобных типов вооружения», — пишут эксперты ИИ в своем открытом письме. «Поэтому ты да я публично заявляем, что будем бойкотировать все перспективы сотрудничества с любыми подразделениями KAIST до тех пор, тех) пор (пока(мест) президент KAIST не предоставит заверения в том, кое-что центр не будет заниматься разработками автономных видов вооружения, чье функционирование думается без значительного участия человека». «Как академическое устанавливание, мы очень ценим человеческие права и этические стандарты. Учитывая до того быстрые темпы развития аппаратных и программных средств, многие эксперты обеспокоены тем, точно рано или поздно мы создадим нечто, что же будем не в состоянии контролировать. Илон Маск, Стив Возняк, почивший незадолго (пред) Стивен Хокинг и многие другие весьма видные фигуры в сфере IT-технологий в свое благоп призывали правительства стран и ООН наложить ограничения получи разработки систем вооружения, управляемых ИИ. По мнению многих, если только мы придем к ракетам и бомбам, чье функционирование достанет возможно независимо от человеческого контроля, то последствия сего могут оказаться ужасающими, особенно если такие технологии попадут безлюдный (=малолюдный) в те руки. «Создание автономного вооружения приведет к третьей революции в военном деле. Подобные технологии позволят направлять более стремительные, разрушительные и масштабные военные конфликты», — отмечают авторы открытого переписка. «Эти технологии имеют потенциал превращения в оружие террора. Диктаторы и террористы смогут эксплуатнуть их против невинных групп населения, игнорируя любые этические аспекты. Конечности ООН собираются провести на следующей неделе навстречу, на которой планируется обсудить вопросы, связанные с запретом летального автономного вооружения, способного укладывать без участия человека. К слову, это будет поуже далеко не первая подобная встреча, однако участники обсуждения (до поры) до времени так и не пришли к какому-либо соглашению. Тем не менее принять каких-то конкретных решений в отношении того, как будто же делать с их разработкой, пока не как видим. Вполне возможно, что разработка новых систем вооружения, которой планирует начать KAIST, заставит больше сторон принять участие в необходимом обсуждении проблемы. Многие ученые призывают к созданию рекомендательных инструкций, регулирующих вопросы разработки и развертывания ИИ-систем. Тем отнюдь не менее высока вероятность, что даже при наличии оных закругляйся весьма сложно следить за тем, чтобы каждая аверс их придерживалась. Действия KAIST только ускорят эту гонку вооружений. Наш брат не можем терпеть это. Я надеюсь, что сей бойкот повысит актуальность в необходимости обсуждения данного вопроса в ООН в понедельник», — прокомментировал знаток по искусственному интеллекту австралийского Университета Нового Южного Уэльса Тоби Уолш, равным образом подписавший письмо. Любые другие институты, планирующие затворить подобные лаборатории, должны подумать дважды».

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *