
Обобщить выводы двух новых отчетов авторитетных исследовательских организаций, можно примерно так.
А) Масштабирование (увеличение размера) больших генеративных моделей ИИ (также называемых «базисные модели) - типа CLIP, Ernie 3.0 Titan, FLAN, Gopher, GPT-3, HyperClova, Jurassic-1-Jumbo, Megatron Turing NLG, LaMDA, Pan Gu, Yuan 1.0 и пр.), - неостановимо.
- Этот путь уже доказал свою эффективность для решения все более сложных задач;
- Он экономически выгодней любых иных путей.
Т.о. используемые в ИИ размеры моделей будут неуклонно расти.
Б) Последствием роста больших генеративных моделей ИИ является непредсказуемость рисков его применения. С увеличением размера моделей ИИ буквально превращается в ящик Пандоры, в котором обитает неисчислимое множество Черных лебедей – серьёзных, «злонамеренных» последствий действий ИИ, которые заранее невозможно предсказать.
Например:
- ИИ самоуправляемого авто может начать максимизировать безопасность своих пассажиров за счет снижения безопасности пассажиров чужих авто;
- ИИ, управляющий балансировкой нагрузки электросетей, может максимизировать удовлетворение потребностей одного класса потребителей за счет другого.
N.B. Кавычки означают, что никаких намерений у ИИ конечно нет, а «злонамеренность» получается просто по факту.
В) Поскольку предсказать Черных лебедей «злонамеренности» ИИ невозможно, остается лишь строить универсальную систему защиты, способную понизить потенциальный урон.
Г) Цивилизация придумала лишь две универсальные системы защиты от злонамеренных действий интеллектуальных агентов (людей): мораль и закон.
- Мораль в случае ИИ не подходит, ибо это не живой продукт эволюции, а машина, у которой нет базы для существования морали;
- А вот система регулирующих ИИ законов, устанавливаемых соответствующими институтами, а другими институтами контролируемая, - может помочь.
Д) В частности, для регулирования самого перспективного из существующих ИИ – систем на основе обучения с подкреплением (Reinforcement Learning), - необходимо срочно создать институт нормативных «отчетов о вознаграждениях». Эти отчеты для ИИ-агентов будут подобны комбинации отчетов, существующих у людей – типа интеграции финансовой декларации человека с его психометрической оценкой и личным делом.
Е) Забить на ящик Пандоры с Черными лебедями для человечества себе дороже.
- Системы обучения с подкреплением будут действовать на все более длительных временных горизонтах, принимая все более независимые решения, напрямую манипулируя реальностью и меняя ее в соответствии со своими неизвестными людям критериями;
- ИИ-системы глубокого обучения – это «усилители культуры», которые повторяют и усиливают когнитивные искажения, мемы и идеологию людей, в скрытой форме содержащиеся в наборах данных, на которых ИИ обучался.
Но поскольку эффект масштабирования ИИ несоизмеримо сильнее даже самых влиятельных лидеров мнений, интеллектуальная слепота, предвзятость и зашоренность людей будут катастрофически расти.
Источник: https://t.me/theworldisnoteasy/1344
Теги: оценки , искусственный интеллект
- 03-08-2021Истребление профессий: как новая промышленная революция может изменить общество
- 21-05-2021DeepMind и Google: битва за контроль над искусственным интеллектом
- 09-04-2021Это прорыв: десять самых важных технологий 2021 года
- 25-01-2021Краснее некуда
- 10-01-2021Десять прогнозов на ближайшие годы для мира ИТ
- 23-08-2013Земля vs. Солнце, или о смене магнитных полюсов
- 19-05-2014Мозг и чип: от синапса, к SYNAPSE'у
- 30-11--0001Физики увидели начало времен и подтвердили расширение Вселенной
- 30-09-2010Из России советуют бежать как можно скорее
- 18-12-2010IBM определила главные технологии следующих 5 лет