English
Спецрепортаж:
Конференции:



Виртуальная приемная СПбГУ Бесплатная юридическая консультация Центр экспертиз СПбГУ Сведения о СПбГУ Ассоциация выпускников СПбГУ
СОБЫТИЯ НА ФАКУЛЬТЕТЕплан всех мероприятий

О факультете:

  • Один из ведущих центров подготовки в сфере международных отношений в мире
  • Участник APSIA
  • Более 1000 студентов и около 100 преподавателей
  • Студенты из более чем 50 стран мира
  • Крупнейшая профильная библиотека и центры документации ЕС и ООН
  • Регулярные международные конференции и круглые столы
  • Престиж и репутация старейшего вуза Северо-Запада России

Лента Новостей

24–25 марта 2021 года в дистанционном формате состоялась международная конференция «Обеспечение и продвижение цифровой гигиены в контексте развития искусственного интеллекта» (Accelerating Actions and Promoting Digital Wellness in the context of Artificial Intelligence) под эгидой Межправительственной программы ЮНЕСКО «Информация для всех» (UNESCO Intergovernmental Information for All Programme — IFAP). Организаторами конференции выступили Индийский центр передового опыта в области информационной этики (India Centre of Excellence for Information Ethics — ICEIE) и Центр цифрового образования, стажировок и ресурсов (Centre for Digital Learning, Training and Resources — CDLTR), находящиеся в составе Университета Хайдарабада (Индия).

25 марта в рамках конференции состоялся круглый стол «Злонамеренное использование искусственного интеллекта: вызовы международной информационно-психологической безопасности» (Malicious Use of Artificial Intelligence: Challenging the International Psychological Security), в котором приняли участие Мариус Вакарелу, профессор Национальной школы политических и административных исследований (Румыния); Константин Панцерев, доктор политических наук, профессор Санкт-Петербургского государственного университета; Пьер-Эммануэль Томанн, профессор Университета Лиона 3 (Франция). В качестве сопредседателей выступили доктор исторических наук, профессор, ведущий научный сотрудник Дипломатической академии МИД РФ Евгений Пашенцев и организатор мероприятия – доктор политических наук, профессор Института права и национальной безопасности Российской академии народного хозяйства и государственной службы при Президенте РФ Дарья Базаркина, которые также представили доклады. Круглый стол прошел при академической поддержке Международной группы исследователей угроз информационно-психологической безопасности, обусловленных злонамеренным использованием искусственного интеллекта (International Research Group of Specialists on the Threats to International Psychological Security through the Malicious Use of Artificial Intelligence (Research MUAI). Финансовую поддержку двух докладов в рамках мероприятия оказал Российский фонд фундаментальных исследований в рамках научного проекта № 21-514-92001.

Первым с концептуальным докладом, посвященным возможному злонамеренному использованию технологий искусственного интеллекта (ИИ), выступил Евгений Пашенцев. В своем выступлении он отметил возросшую роль технологий ИИ в формировании информационной повестки дня в современном мире и то, к каким негативным последствиям может привести возможное злонамеренное использование таких технологий. В этом контексте Е. Пашенцев спрогнозировал, что, принимая во внимание наблюдающийся сегодня глубокий кризис демократических институтов и нарастающую геополитическую конфронтацию, риски злонамеренного использования ИИ будут только расти. К наиболее перспективным угрозам, исходящим от технологий искусственного интеллекта, профессор Е. Пашенцев отнес, прежде всего, злонамеренное использование функционирующих на основе технологий искусственного интеллекта ботов. Это могут быть боты, интегрированные в социальные сети, различные чат-боты, а также торговые боты. Другие же технологии ИИ, такие как анализ настроений в обществе, дипфейки либо предсказательная аналитика, с точки зрения эксперта, менее изучены как инструменты формирования повестки дня. В конце своего выступления профессор порекомендовал:

  • создать на национальном и международном уровне научно-аналитические и мониторинговые центры, которые бы выявляли угрозы злонамеренного использования ИИ и разрабатывали бы рекомендации по нейтрализации этих угроз,
  • оказывать любую организационную, финансовую и политическую поддержку международным междисциплинарным исследовательским группам, занимающимся изучением угроз злонамеренного использования ИИ,
  • проводить международные междисциплинарные научно-практические конференции по данной проблематике.

Доклад Мариуса Вакарелу был посвящен вопросам морали и использования инструментов искусственного интеллекта в политических кампаниях. Рассуждая о тесной взаимосвязи между политикой, вопросами морали и ИИ в наши дни, М. Вакарелу особенно подчеркнул необходимость правильного применения технологий ИИ при проведении политических кампаний. По его мнению, мотивация к власти и самореализации через власть отличает политиков от других граждан, которые готовы в первую очередь предпринимать меры по улучшению исключительно собственных условий жизни. Это различие, в совокупности с социальной ролью политиков, требует специальных институтов, которые бы обучали вести политическую жизнь. В первую очередь, речь идет об освоении политиками целого набора компетенций по проведению политических кампаний, в том числе и инструментов ИИ. С точки зрения М. Вакарелу, технологии ИИ, с одной стороны, способны резко увеличить количество акций в рамках той или иной политической кампании, а с другой — лучше изучить ожидания избирателей. Как следствие, возникает проблема соотношения морали и политики, поскольку плохое управление, равно как и проведение политических кампаний, основанных исключительно на аморальных принципах, при помощи технологий ИИ, может привести не только к сильному социальному недовольству, но и к изменению политического режима. В связи с этим М. Вакарелу делает вывод о том, что, несмотря на все потенциальные преимущества, которые несет активное внедрение технологий ИИ во все сферы человеческой жизни, включая проведение политических кампаний, ИИ может нанести большой вред политической культуре, давая возможность странам с большими финансовыми и научными потенциалами контролировать ход выборов и развитие политического климата в других.

Доклад Константина Панцерева «Существующая практика злонамеренного использования ИИ в странах Африки к югу от Сахары» был посвящен проблеме обеспечения информационной безопасности в Африке. Приведя несколько примеров злонамеренного использования передовых технологий, К. Панцерев делает вывод о том, что, уделяя в последние годы большое внимание развитию на своей территории информационно-телекоммуникационной индустрии, страны Африки к югу от Сахары практически не предпринимали никаких усилий по укреплению своей информационной безопасности, в том числе в вопросах, связанных с использованием технологий ИИ. В подтверждение своих слов К. Панцерев привел достаточно любопытные статистические данные: сегодня более 60% африканских предприятий не обучают своих сотрудников кибербезопасности, а более 90% крупных африканских компаний тратят менее 10 000 долл США на обеспечение своей кибербезопасности. Это делает африканские предприятия особенно уязвимыми перед лицом таких угроз как: интеллектуальные атаки на компьютерные системы предприятий, воздействие на голосовую или визуальную аутентификацию, сокрытие вредоносных кодов в официальных приложениях и ряд других. А Нигерия, Кения и ЮАР входят в топ-3 африканских государств, которые терпят наибольшие убытки от киберпреступлений. Чтобы нивелировать угрозы, исходящие от злонамеренного использования передовых технологий в Африке, К. Панцерев рекомендовал включить проблему обеспечения кибербезопасности и противодействия злонамеренному использованию ИИ в панафриканскую повестку дня.

Пьер-Эммануэль Томанн в своем выступлении осветил проблемы регулирования ИИ в ЕС. Он особенно подчеркнул, что современный мир сталкивается с растущей геополитической фрагментацией и изменением прежних геополитических иерархий. Имеющая место сегодня геополитическая конфронтация, с его точки зрения, подготавливает почву для гибридной войны, которая всегда включает информационно-психологический компонент. В условиях бурного развития технологий ИИ в последние годы возможное использование ИИ в качестве геополитического оружия через дестабилизацию международной информационно-психологической безопасности может способствовать возникновению «цифровых империй». Злонамеренное использование ИИ, применяемого на тактическом уровне, может иметь важные последствия в конфликте или борьбе за геополитическое влияние, особенно если ИИ используется таким образом, что ведет к росту влияния одного или нескольких государств. По словам П.-Э Томанна, это обстоятельство способно дестабилизировать систему международных отношений и создать несбалансированные новые геополитические иерархии. Вопреки общепринятой идее о том, что цифровая революция обязательно вызывает экономическую децентрализацию, на самом деле возможно, что ИИ спровоцирует глобальное движение в сторону сосредоточения власти в руках горстки государств и частных акторов.

Дарья Базаркина в своем заключительном докладе, посвященном злонамеренному использованию искусственного интеллекта террористическими организациям, подчеркнула, что военное поражение так называемого «Исламского государства» (ИГ) спровоцировало переход от прямых вооруженных столкновений к удаленным атакам в рамках сетевой структуры, где коммуникации в виртуальном пространстве играют ключевую роль. В этом контексте терроризм приобретает много общего с киберпреступностью, используя передовые технологии как для пропаганды, так и для физического уничтожения людей. ИИ способен изменить механизм вербовки новых сторонников в ряды террористических организаций, прежде всего в связи с его возможностями выстроить индивидуализированный контент. Угроза усугубляется низкой информированностью населения не только о развитии технологий ИИ, но и о средствах психологического воздействия, используемых террористами. В связи с этим Д. Базаркиной были сделаны выводы, что, с одной стороны, специалисты в области безопасности должны будут мыслить, как террористы, при оценке рисков внедрения тех или иных технологий ИИ в обществе и государстве. Это поможет продумать большее число сценариев и методов противодействия использованию ИИ террористами для управления общественным мнением. С другой стороны, всем ответственным структурам нужно разрабатывать широкие программы просвещения граждан не только в сфере использования ИИ, но также и в психологической и политической сферах. Нужно объяснять гражданам, как и какие уязвимые места человеческой психики, реальные жизненные проблемы, политическую ситуацию использует террорист, общаясь со своими аудиториями. Для этого необходим междисциплинарный подход с привлечением специалистов как технического, так и гуманитарного профиля.

Рекомендации, сделанные участниками конференции, включая участников круглого стола, вошли в Хайдарабадскую Декларацию — итоговый документ конференции, который, как ожидается, станет важной вехой в развитии международного научного сотрудничества по проблемам политики искусственного интеллекта.

Дарья МАТЯШОВА
Константин ПАНЦЕРЕВ
Максим ШУДРИК

Просмотров: 87
© 2021 Санкт-Петербургский Государственный университет Факультет Международных Отношений