Центр стратегических оценок и прогнозов

Автономная некоммерческая организация

Главная / Наука и общество / Будущее информационного общества / Статьи
ИИ превращается в ящик Пандоры с неисчислимой стаей Черных лебедей внутри
Материал разместил: AдминистраторДата публикации: 17-03-2022
Два жутких отчета о рисках «злонамеренного ИИ», снизить которые может лишь институциональная защита.

Обобщить выводы двух новых отчетов авторитетных исследовательских организаций, можно примерно так.

А) Масштабирование (увеличение размера) больших генеративных моделей ИИ (также называемых «базисные модели) - типа CLIP, Ernie 3.0 Titan, FLAN, Gopher, GPT-3, HyperClova, Jurassic-1-Jumbo, Megatron Turing NLG, LaMDA, Pan Gu, Yuan 1.0 и пр.), - неостановимо. 

  1. Этот путь уже доказал свою эффективность для решения все более сложных задач;
  2. Он экономически выгодней любых иных путей.

Т.о. используемые в ИИ размеры моделей будут неуклонно расти.

Б) Последствием роста больших генеративных моделей ИИ является непредсказуемость рисков его применения. С увеличением размера моделей ИИ буквально превращается в ящик Пандоры, в котором обитает неисчислимое множество Черных лебедей – серьёзных, «злонамеренных» последствий действий ИИ, которые заранее невозможно предсказать.
Например:

  • ИИ самоуправляемого авто может начать максимизировать безопасность своих пассажиров за счет снижения безопасности пассажиров чужих авто;
  • ИИ, управляющий балансировкой нагрузки электросетей, может максимизировать удовлетворение потребностей одного класса потребителей за счет другого.

N.B. Кавычки означают, что никаких намерений у ИИ конечно нет, а «злонамеренность» получается просто по факту.

В) Поскольку предсказать Черных лебедей «злонамеренности» ИИ невозможно, остается лишь строить универсальную систему защиты, способную понизить потенциальный урон.

Г) Цивилизация придумала лишь две универсальные системы защиты от злонамеренных действий интеллектуальных агентов (людей): мораль и закон.

  • Мораль в случае ИИ не подходит, ибо это не живой продукт эволюции, а машина, у которой нет базы для существования морали;
  • А вот система регулирующих ИИ законов, устанавливаемых соответствующими институтами, а другими институтами контролируемая, - может помочь.

Д) В частности, для регулирования самого перспективного из существующих ИИ – систем на основе обучения с подкреплением (Reinforcement Learning), - необходимо срочно создать институт нормативных «отчетов о вознаграждениях». Эти отчеты для ИИ-агентов будут подобны комбинации отчетов, существующих у людей – типа интеграции финансовой декларации человека с его психометрической оценкой и личным делом.

Е) Забить на ящик Пандоры с Черными лебедями для человечества себе дороже.

  • Системы обучения с подкреплением будут действовать на все более длительных временных горизонтах, принимая все более независимые решения, напрямую манипулируя реальностью и меняя ее в соответствии со своими неизвестными людям критериями;
  • ИИ-системы глубокого обучения – это «усилители культуры», которые повторяют и усиливают когнитивные искажения, мемы и идеологию людей, в скрытой форме содержащиеся в наборах данных, на которых ИИ обучался.

Но поскольку эффект масштабирования ИИ несоизмеримо сильнее даже самых влиятельных лидеров мнений, интеллектуальная слепота, предвзятость и зашоренность людей будут катастрофически расти.


Источник: https://t.me/theworldisnoteasy/1344 


МАТЕРИАЛЫ ПО ТЕМЕ: Наука и общество