Эксперты предупредили об опасности отсутствия мирового консенсуса по ИИ

Эксперты предупредили об опасности отсутствия мирового консенсуса по ИИ
МОСКВА, 2 янв — РИА Новости. Процесс регулирования искусственного интеллекта сталкивается с проблемой нехватки гибкого политического курса у правительств и отсутствием политического консенсуса для быстрого реагирования на происходящие технологические изменения, сообщили эксперты РИА Новостям. В начале декабря этого года Евросоюз согласовал первый в мире закон об искусственном интеллекте. Инициатива направлена на то, чтобы «системы ИИ, продаваемые и используемые в ЕС, были безопасными и уважали фундаментальные права и ценности» сообщества. Соглашение было достигнуто на фоне всемирного восхищения и тревоги по поводу недавнего прогресса в технологиях ИИ, особенно после запуска языковой модели OpenAI СhatGPT в 2022 году. Многие хвалят модель за ее возможности в профессиональном применении, в то время как другие задаются вопросом о том, какое влияние подобные технологии могут оказать на различные аспекты человеческой жизни. ««Институт будущего жизни, в состав которого входят ведущие технологи, предостерегает от беспрепятственного развития (ИИ), которое может привести к распространению ложных представлений, значительной замене рабочих мест и возможному равенству или даже превосходству (ИИ) над возможностями человеческого разума в краткосрочной перспективе. Он призывает правительства ввести протоколы безопасности для предотвращения возможных катастрофических последствий, которые ни одно правительство не может контролировать. Последнее развитие ChatGPT может усугубить возможные негативные последствия», — сказала Росарио Хираса, профессор Школы бизнеса Любина при Университете Пейс. В то же время Дэниел Линна, старший преподаватель и директор по правовым и технологическим инициативам Северо-Западной Притцкеровской школы права и Инженерной школы Маккормика, заметил, что политики и регуляторные органы должны брать во внимание не только риски, связанные с ИИ, но и потенциальные преимущества новых технологий. «Организации должны тестировать системы искусственного интеллекта на точность и непредвзятость, быть прозрачными и проводить оценку воздействия (таких систем), и находить и минимизировать вред, который может быть нанесен искусственным интеллектом. Политики должны предоставить возможность работающим, студентам и общественности получить образование и обучение в области искусственного интеллекта», — сказал Линна. Василис Галанос, преподаватель и научный сотрудник Эдинбургского университета, заметил, что на текущий момент попытки регулирования искусственный интеллект сфокусированы на «передовом ИИ», то есть на передовых моделях общего назначения, которые потенциально могут представлять большие риски. Тем не менее, по мнению эксперта, они также должны охватывать системы с низким уровнем риска, которые тоже могут иметь серьезные последствия для общества. «Множество систем, которые слабо регулируются, так как считаются менее опасными, могут принести много вреда. Крайне важно, чтобы страны и международные организации ставили своим приоритетом развитие нормативной базы, которая обеспечит этические стандарты, защитит конфиденциальность и гарантирует, что системы ИИ не закрепляют дискриминацию или вред в отношении уязвимых сообществ», — заявил Галанос. Левиафан и искусственный интеллект Несмотря на растущее беспокойство среди правительств во всем мире о потенциале рисков ИИ, быстрый прогресс в сфере искусственного интеллекта затрудняет разработку необходимых правил и руководящих принципов для государства. «Учитывая быстрые темпы развития ИИ, существует значительный риск отставания нормативных усилий, особенно потому что у современных правительств нет существующих экспертиз или гибких структур управления, необходимых для быстрого ответа», — сказал Галанос. «Важно, чтобы глобальные меры регулирования были одновременно активными и адаптивными, постоянно развиваясь вместе с технологическими достижениями и вовлекая более широкий круг заинтересованных сторон в процесс регулирования», — добавил он. В этом же ключе Хираса подчеркнула тенденцию правительств действовать медленно, особенно во времена сильных разногласий между политическими партиями. «Более автократические правительства, такие как Китай, действительно имеют способность действовать быстрее для противостояния текущим угрозам. В США существует повышенная опасность бездействия, потому что страна почти поровну политически разделена, что очень затрудняет проведение необходимых регулярных процессов», — продолжила Хираса. Линна считает, что предполагаемая нехватка опыта у правительств не является проблемой, в отличие от «провала правительств сделать приоритетом оптимальное использование преимуществ ИИ и минимизирование рисков, связанных с ним». Он также подчеркнул объем так называемого «мягкого закона», то есть необязательных руководящих принципов, кодексов поведения и стандартов, которые могут использоваться властями. «Современные правительства хорошо подготовлены к привлечению экспертов для помощи в создании политики и регуляторных инструментов для новых технологий. В результате работы ученых, специалистов и широкого круга организаций был разработан прочный свод „мягкого закона“ по проектированию, разработке, развертыванию и проверке систем искусственного интеллекта. Правительства могут взять принципы и стандарты оценки „мягкого права“ и превратить их в конкретные законы и постановления», — объяснил Линна. Глобальное управление Подписание Декларации Блетчли подтвердило желание множества государств сотрудничать в минимизировании потенциальных рисков, связанных с ИИ. Однако власти в разных частях мира используют различные подходы в управлении рисками искусственного интеллекта. Например, Соединенным Штатам, несмотря на недавние шаги администрации Джо Байдена, такие как принятие указа «о безопасном, защищенном и заслуживающем доверия искусственном интеллекте», не хватает комплексного федерального подхода, в то время как Европейский Союз придерживается более скоординированного подхода посредством законодательства. «Различные регуляторные подходы в США, Европейском Союзе, Китае и Индии могут препятствовать совместным усилиям по управлению рисками в Атлантическом и Тихоокеанском регионах, особенно когда речь идет об определении систем ИИ с „низким риском“ и защите уязвимых групп. Трансатлантическое и транстихоокеанское согласование могло бы быть усилено за счет создания общих принципов и стандартов, регулируемых независимыми международными организациями, которые учитывают нюансы различных приложений ИИ и их соответствующие профили рисков», — сказал Галанос. Тем не менее, как отметил Линна, страны будут выбирать разные политические и регуляторные подходы в отношении искусственного интеллекта, даже если они договорятся о глобальных принципах и правилах. «То, что Европейский Союз, США и другие страны сделали до сих пор, не будет существенно ограничивать возможности трансатлантического или глобального сотрудничества в области управления рисками ИИ. Более серьезными препятствиями являются обычные геополитические проблемы и конкуренция в области искусственного интеллекта. Но с точки зрения регулирования ИИ и глобальных соглашений, мы находимся на самых ранних стадиях исторического развития, которое будет происходить в течение многих лет», — добавил Линна. Между тем, Хираса указала на сложность прогнозирования того, что произойдет дальше, поскольку мы не можем знать, какие инновации появятся в будущем. «Кто мог предсказать развитие блокчейна, искусственного интеллекта и его возможностей глубокого обучения, ChatGPT и многих других достижений, которые сейчас происходят в лабораториях по всему миру и еще не обнародованы? Квантовый компьютер, несомненно, также окажет огромное влияние в следующем десятилетии», — заключила эксперт.
Нравится
Не нравится
11:45
RSS
Нет комментариев. Ваш будет первым!
Загрузка...
На развитие сайта и покупку дополнений и информации. В дальнейшем будет в бесплатном доступе. Кто поддержит проект получит Vip доступ на срок Donate
Собрано 0% / 0 из 5000