Искусственный интеллект: результаты, риски, регулирование

От неизвестной силы к надежному инструменту - для создания будущего ИИ нам необходимо научиться задавать правильные вопросы.

Время на чтение: Несколько минут
Опубликован на
Поделиться , ,

Ежегодное собрание ИСО пройдет в Брисбене, Австралия, 18-22 сентября 2023 года. ИСО и ее члены объединятся с теми, кто меняет наш мир, чтобы продемонстрировать, как международные стандарты помогают решать важнейшие мировые проблемы. Наша серия гостевых статей, опубликованных в преддверии этого события, даст нашим читателям представление о различных темах, которые будут обсуждаться в течение собрания ИСО.

Д-р Коби Лейнс
Kobi Leins
Почетный старший научный сотрудник факультета военных исследований Королевского колледжа Лондона

В повседневной жизни чаще всего об искусственном интеллекте (ИИ) говорят в контексте "Я использовал(а) ChatGPT, и он сделал (что-то)". Однако руководители корпораций, правительств и международных организаций ведут совсем другие разговоры... Они обсуждают, как использовать преимущества ИИ, чтобы перевесить риски, связанные с ним.

Одни утверждают, что необходимо срочно регулировать использование ИИ, другие сравнивают ИИ с ядерным движением, а третьи даже предупреждают, что он приведет к концу света. В то же время многие консультанты и стартапы хотят заставить нас поверить, что ИИ - это панацея от всех наших коммерческих и личных бед, включая любовь, жизнь и смерть. Пока рано делать какие-либо выводы, но важно, чтобы правильные люди говорили о правильных вещах. Только тогда эта революционная технология сможет поддержать и расширить возможности человечества.

Задавая правильные вопросы

Правда в том, что мы не обсуждаем многие вещи, связанные с ИИ, которые необходимо обсуждать. К ним относятся более широкие общественные последствия ускорения неравенства и сведения людей к простым единицам информации,, причем до такой степени, что они могут быть представлены как ненужные, или не представляющие больше ценности. Каждое открытие в науке на протяжении всей истории имело свои преимущества и риски. Более того, исторические неудачи могут послужить нам уроком, который поможет избежать повторения подобных ошибок. ИИ, хотя и отличается в некоторых отношениях от предыдущих смен парадигм, таит в себе много тех же самх потенциальных ловушек. Завышенные обещания, заниженные риски и коммерческие интересы, влияющие на ход дискуссий, - все это давно не является чем-то новым. Но что же тогда этим “новым” является? И почему оно должно нас волновать?

Многое из того, о чем мы говорим, уже давно устарело. Языковые модели появились еще в 1950-х годах, когда Вейценбаум (Weizenbaum), создатель одного из первых чат-ботов "Элиза", выдвинул идею магического мышления в отношении языковых моделей. Совсем недавно сами сообщества специалистов по науке о данных начали высказывать опасения по поводу некоторых предложений по использованию ChatGPT2 - в том числе для автоматизации вынесения приговоров, вплоть до смертной казни, без вмешательства человека. Несмотря на то, что сейчас технология работает на больших массивах данных, многие из старых проблем всё равно остаются. Новыми являются лишь скорость и масштаб таких моделей, а также то, откуда берутся данные для них.

Факт заключается в том, что мы не можем думать о рисках, связанных с искусственным интеллектом, в привычном ключе.

Управление

Хорошая новость заключается в том, что уже существует целый набор инструментов управления. Это международное и национальное законодательство в области интеллектуальной собственности, корпоративного поведения, прав человека, дискриминации, контрактов и неприкосновенности частной жизни - и это только некоторые из них. Многие эксперты во всем мире, такие как профессор Эдвард Сантоу (Edward Santow), давно выступают за повышение квалификации юристов, чтобы они могли понимать и применять как существующее законодательство, так и новые технологии в рамках своей профессии.

Однако параллельно с новыми законами следует рассмотреть и вопрос об усилении уже имеющегося регулирования. Уже существуют нормативно-правовые акты, такие как недавно сформулированный Закон ЕС об ИИ, Национальный институт стандартов и технологий, а также новая политика Китая в области ИИ. Однако, некоторые из них нуждаются в обновлении или пересмотре, и в них есть пробелы. И именно регулированием подобных пробелов нам и следует заняться.

Уменьшая риски, увеличивая отдачу

Факт заключается в том, что мы не можем думать о рисках ИИ в традиционном ключе. Эндрю Мейнард (Andrew Maynard), профессор Университета штата Аризона и давний эксперт по рискам, твердо стоит на своем: традиционное мышление просто “не приведет нас туда, где мы должны быть".

Устранить эти пробелы в регулировании помогут международные стандарты, подобные разработанным ИСО/МЭК СТК 1/ПК 42 по управлению ИИ. Они позволят лицам, принимающим решения, и политикам создавать согласованные данные и процессы, поддающиеся аудиту, что в долгосрочной перспективе повысит ценность бизнеса во многих отношениях, в том числе с точки зрения экологической отчетности, работоспособности и доверия к заинтересованным сторонам. Такой подход позволит обеспечить перевес положительных результатов над рисками в соответствии с нормативными актами и другими инструментами управления.

Этика данных также играет свою роль. При правильном использовании и применении этика данных может способствовать формированию стремления - от принятия руководящих решений до решения повседневных задач - "делать не только потому, что можно, но и потому, что нужно".

Но самое главное - международные стандарты могут обеспечить то, что будут подняты правильные вопросы, которые будут обсуждаться правильными людьми, использующими общий язык. Для создания необходимых инструментов регулирования и культуры может потребоваться время, но международные стандарты могут помочь обеспечить правильный баланс между рисками и положительными результатами.

О Коби Лейнс (Kobi Leins)

Д-р Коби Лейнс (GAICD) - глобальный эксперт в области ИИ, международного права и управления. Исследователь в области цифровой этики, активный докладчик и автор многочисленных публикаций, она сыграла ключевую роль в развитии понимания ИИ. Ее работа позволяет соединить инновации и реальные приложения, делая сложные концепции доступными для самой разной аудитории.

Коби Лейнс выступит на предстоящем ежегодном собрании ИСО. Примите участие в обсуждении! Присоединяйтесь к нашей онлайн-сессии "Пора – не пора: Искусственный интеллект", чтобы узнать о политических, социальных и этических последствиях искусственного интеллекта. Регистрация здесь

 

 


О ежегодном собрании ИСО

Ежегодное собрание ИСО - это главное событие в мире для международного сообщества по стандартизации. На него съезжаются 168 национальных органов по стандартизации со всего мира, а также внушительный круг представителей правительств, промышленности и гражданского общества. Данный форум высокого уровня предоставляет уникальную возможность для своевременного обсуждения новых тенденций и проблем, связанных с международными стандартами и их ролью в реализации глобальной повестки дня в области устойчивого развития.

Join Kobi at the ISO Annual Meeting

Check out our online session “Ready or not, here comes AI”. 

¿Hablas español?

Este artículo se puede descargar en versión PDF.

Descargar

会说中文吗

本文已由我们的中国成员翻译,可下载中文PDF版本。

下载中心
Контактные данные для СМИ

press@iso.org

Вы журналист, блогер или редактор?

Хотите получить информацию о стандартах из первых рук, или узнать больше о том, что мы делаем? Свяжитесь с нашей командой или ознакомьтесь с нашим медиа-китом.