home    книги    переводы    статьи    форум    ресурсы    обо мне    English

Защита от глобальных рисков

21.1. Общее понятие о предотвратимости глобальных рисков. 289

21.2. Активные щиты.. 291

21.3. Действующие и будущие щиты.. 294

21.4. Сохранение мирового баланса сил. 296

21.5. Возможная система контроля над глобальными рисками. 297

21.6. Сознательная остановка технологического прогресса. 298

21.7. Средства превентивного удара. 299

21.8. Удаление источников рисков на значительное расстояние от Земли. 301

21.9. Создание автономных поселений в отдалённых уголках Земли. 301

21.10. Создание досье на глобальные риски и рост общественного понимания связанной с ними проблематики  302

21.11. Убежища и бункеры.. 302

21.12. Опережающее расселение в космосе. 306

21.13 «всё как-нибудь обойдётся». 308

21.14 Деградация цивилизации до уровня устойчивого состояния. 308

21.15 Предотвращение одной катастрофы с помощью другой. 309

21.16 Опережающая эволюция человека. 309

21.17 Возможная роль международных организаций в предотвращении глобальной катастрофы   310

21.18 Бесконечность Вселенной и вопрос об окончательности человеческого вымирания. 313

21.19 Предположения о том, что мы живём в «Матрице». 314

21.20 Глобальные катастрофы и устройство общества. 315

21.21 Глобальные катастрофы и текущая ситуация в мире. 318

21.22 Мир после глобальной катастрофы.. 319

21.23 Мир без глобальной катастрофы: наилучший реалистичный вариант предотвращения глобальных катастроф.. 320

21. 24. Максимализация функции удовольствия. 321

 

21.1. Общее понятие о предотвратимости глобальных рисков

Очевидно, что если удастся выяснить, что существует несколько простых, очевидных и надёжных способов противостоять глобальным катастрофам, то мы значительно улучшим свою безопасность, а ряд глобальных рисков перестанет нам угрожать. Напротив, если окажется, что во всех предлагающихся мерах и средствах защиты есть свои изъяны, которые делают их в лучшем случае неэффективными, а в худшем – просто опасными, то нам необходимо придумать нечто кардинально новое. Представляется, что система защиты – на каждой фазе развития глобального риска – должна осуществлять следующие функции:

·   Наблюдение.

·   Анализ информации и принятия решения.

·   Уничтожение источника угрозы.

Эта стратегия хорошо отработана в контрразведке, борьбе с терроризмом и военном деле. Другая стратегия предполагает бегство от источника угрозы (космические поселения, бункеры). Очевидно, эта вторая стратегия должна применяться в случае провала первой (или одновременно с ней, на всякий случай).

Глобальные риски различаются по степени того, насколько возможно их предотвращение. Например, вполне реально запретить некий класс опасных экспериментов на ускорителях, если научное сообщество придёт к выводу, что эти эксперименты создают определённый риск. Поскольку в мире всего несколько больших ускорителей, которые управляются достаточно открыто, и потому что сами учёные не желают катастрофы и не имеют от неё никаких выгод, то кажется очень простым отменить эксперименты. Фактически, для этого нужно только общее понимание их опасности. То есть максимально предотвратимый риск – это риск, который:

1) легко предвидеть,

2) легко достичь научного консенсуса в отношении такого предвидения,

3) этого консенсуса достаточно, чтобы отказаться от действий, ведущих к данному риску.

Отказаться от действий, ведущих некому риску (например, запретить некую опасную технологию), легко лишь при определённых условиях:

А) если опасные процессы создаются только людьми.

Б) если эти процессы создаются в небольшом числе широко известных мест. (Как, например, физические эксперименты на огромных ускорителях)

В) если люди не ждут никакой выгоды от этих процессов.

Г) если опасные процессы предсказуемы как по моменту своего возникновения, так и по ходу развития.

Д) если опасные объекты и процессы легко распознаваемы. То есть мы легко, быстро и наверняка узнаём, что началась некая опасная ситуация, и мы правильно оцениваем степень её опасности.

Е) если у нас есть достаточно времени в силу специфики процесса, чтобы разработать и принять адекватные меры.

Соответственно, риски, которые трудно предотвращать, характеризуются тем, что:

1)       Их трудно предвидеть, даже трудно предположить об их возможности. (Даже предположить, что в SETI может быть риск, было трудно.)

2)       даже если кто-то осознаёт этот риск, ему крайне трудно убедить в этом кого-либо ещё (примеры: трудности с осознанием ИИ и SETI как источника риска, трудности доказательства Теоремы о Конце света).

3)       даже если будет достигнуто общественное согласие о том, что подобные риски действительно опасны, это не приведёт к тому, что люди добровольно откажутся от данного источника риска. (примеры: ядерное оружие.)

Последнее связано с тем, что:

1) Источники риска доступны большому числу людей, а кто эти люди - неизвестно (можно поставить на учёт всех физиков ядерщиков, но не хакеров-самоучек).

2) Источники риска находятся в неизвестном месте и/или их легко скрыть (биолаборатории).

3) Риски создаются независящими от человека природными факторами, или в результате взаимовлияния человеческих действий и природных факторов.

4) Источник опасности сулит не только риски, но и выгоды, в частности, является оружием.

5) Момент начала аварийной ситуации непредсказуем, равно как и то, как она будет развиваться.

6) Опасную ситуацию трудно опознать в качестве таковой, это требует много времени и содержит элемент неопределённости. (Например, трудно определить, что некая новая бактерия является опасной, пока она кого-то не заразит и пока не достигнет таких масштабов, когда можно понять, что это именно эпидемия.)

7) Опасный процесс развивается быстрее, чем мы успеваем на него адекватно реагировать.

Предотвратимость некоторых рисков, однако, не должна приводить к тому, что их следует сбрасывать со счёта, поскольку не обязательно означает, что риск в конечном счёте будет предотвращён. Например, астероидная опасность относится к числу относительно легко предотвратимых рисков, однако реальной противоастероидной (и, что важнее, противокометной) системы защиты у нас сейчас нет. И пока её нет, «предотвратимость» угрозы остаётся чисто гипотетической, поскольку мы не знаем, насколько эффективной и безопасной будет будущая защита, появится ли она вообще и если появится, то когда.

21.2. Активные щиты

В качестве способа предотвращения глобальных рисков предлагается создавать разного рода активные щиты. Активный щит – это средство контроля и воздействие на источник риска по всему земному шару. Фактически, это аналог иммунной системы в масштабе всей планеты. В качестве наиболее очевидного примера можно привести идеи создания всемирной системы ПРО.

Активность щитов подразумевает, что они могут относительно автономно реагировать на любой раздражитель, который попадает под определение угрозы. При этом щит полностью покрывает защищаемую поверхность, то есть поверхность Земли. Понятно, что автономный щит опасен неконтролируемым поведением, а управляемый является абсолютным оружием в руках того, кто им управляет. Как нам известно из дискуссий о СОИ, даже если активный щит является полностью оборонительным оружием, он всё равно даёт преимущество в нападении для защищённой стороны, так как она может не опасаться возмездия.

Сравнение активных щитов с иммунной системой человека, как идеальной формой защиты, некорректно, потому что иммунная система неидеальна. Она обеспечивает статистическое выживание вида за счёт того, что отдельные особи живут в среднем достаточно долго. Но она не обеспечивает неограниченное выживание отдельного индивида. Любой человек неоднократно заражается заразными болезнями в течение жизни, и многие от них гибнут. Для любого человека найдётся болезнь, которая его убьёт. Кроме того, иммунная система хорошо работает тогда, когда точно знает патоген. Если она его не знает, то потребуется время, чтобы он успел себя проявить, и ещё время, чтобы иммунная система выработала против него ответ. То же самое происходит и с компьютерными антивирусами, которые тоже являются активным щитом: хотя они обеспечивают устойчивое существование всех компьютеров, каждый отдельный компьютер время от времени всё равно заражается вирусом, и данные на нём теряются. Кроме того, антивирус не даёт защиты от принципиально нового вируса, пока не пришлют обновления, а за это время новый вирус успевает заразить определённое число компьютеров. Если бы возникла угроза распространения «серой слизи», мы поймём, что это – «серая слизь», только после того, как она значительно распространится. Впрочем, есть иммунные системы, работающие по принципу: запрещено всё, что не разрешено, но их тоже можно обмануть, и они более склонны к автоиммунным реакциям.

Короче говоря, иммунная система хороша только тогда, когда есть мощное дублирование основной системы. У нас пока нет возможности дублирования земных жизненных условий, а космические поселения столкнуться с рядом принципиальных трудностей. Кроме того, у всех иммунных систем бывают ложные срабатывания, которые проявляются в автоиммунных заболеваниях – как, например, аллергия и диабет – которые оказывают значительный вклад в человеческую смертность, сравнимый по порядку величины с вкладом рака и инфекционных заболеваний. Если иммунная система слишком жёсткая, она порождает автоиммунные заболевания, а если слишком мягкая – то пропускает некоторые опасности. Поскольку иммунная система покрывает весь защищаемый объект, то выход её из строя создаёт угрозу всему объекту (здесь действует принцип «распространение фактора опаснее разрушения»). Террористическая атака на иммунную систему делает всю систему беззащитной. Так работает СПИД, который тем быстрее распространяется, чем сильнее с ним иммунная система борется, поскольку он находится внутри неё.

Широко обсуждаются идеи БиоЩита и НаноЩита[i]. Эти щиты подразумевают распыление по всей поверхности Земли тысяч триллионов контролирующих устройств, способных оперативно проверять любые агенты на опасность и оперативно уничтожать опасные. Также к щитам относится дальнейшее ужесточение контроля в Интернете и всемирное развешивание следящих видеокамер. Однако уже на примере всемирной ПРО видны существенные проблемы любых щитов:

1. они мучительно отстают от источника угрозы по времени разработки.

2. они должны действовать сразу на всей территории Земли без исключений. Чем точечнее угроза, тем плотнее должен быть щит.

3. они уже сейчас вызывают серьёзные политические разногласия. Если щит покрывает не всю поверхность Земли, то он может создавать ситуацию стратегической нестабильности.

4. любой щит создаётся на основе ещё более продвинутых технологий, которые могут создавать угрозы своего уровня.

5. щит может быть источником глобального риска сам по себе, если у него начнётся некая «автоиммунная реакция», то есть он начнёт уничтожать то, что должен был защищать. Или если управление щитом будет потеряно, и он начнёт защищаться от своих хозяев. Или если его ложное срабатывание станет поводом для войны.

2.           щит не может быть абсолютно надёжен – то есть успех его срабатывание носит вероятностный характер. И тогда, в случае постоянной глобальной угрозы вопрос его пробивания – это только вопрос времени.

3.           Щит должен иметь централизованное управление, но при этом автономность на местах для быстрого реагирования.

Например, антиастероидный щит создаст много новых проблем безопасности человечества. Во-первых, он обеспечит технологию точного управления астероидами, которая за счёт малых воздействий может направить на землю огромную массу, причём тайно, в духе криптовойны. Во-вторых, сам такой щит может быть использован для атаки по Земле. Например, если на высокой орбите будет висеть 50 штук гигатонных бомб, готовых по команде устремиться в любую точку солнечной системы, я не буду чувствовать в большей безопасности. В-третьих, движение всех астероидов за миллиарды лет хорошо синхронизировалось, и любое нарушение этого равновесия может привести к тому, что тот же  самый астероид станет постоянной угрозой, регулярно проходя рядом с Землёй. Особенно это будет опасно, если человечество после такого вмешательства откатится на предтехнологический уровень.

Обратим внимание на то, что каждая опасная технология может быть средством собственного предотвращения:

·         Ракеты сбиваются с помощью ракет ПРО.

·         По местам производства ядерного оружия наносятся ядерные удары.

·         ИИ контролирует весь мир, чтобы нигде не создали неправильный ИИ.

·         Биодатчики не дают распространиться биологическому оружию.

·         Нанощит защищает от нанороботов.

Часто щиты делают нечто ровно противоположное тому, ради чего они создавались. Например, считается (доклад Беллоны, глава IV.1. «Три «трещины» ДНЯО»[ii]), что договор о нераспространении ядерного оружия плохо справляется с чёрным рынком, но хорошо справляется с распространением «мирного атома» (то есть строительствам во всех странах, которые этого хотят, исследовательских ядерных реакторов), который фактически оказывается технологией двойного назначения. Прочные двери, которые защищают кабины самолётов после терактов 11 сентября, не дадут проникнуть террористам в кабину, но если они там всё-таки окажутся (например, в силу того, что сам пилот – террорист), то пассажиры и стюарды не смогут им помешать. Если есть система управления полётом с Земли, то появляется шанс захватить самолёт, используя эту систему, по радио.

Наконец, все щиты предлагаются, исходя из предположения о том, что у нас есть некая идеальная система, которая наблюдает и контролирует другую, менее совершенную. Например, неподкупная милиция контролирует несовершенное общество. Если же милиция коррумпирована, то отдел собственной безопасности её контролирует, и так далее. Очевидно, что подобных идеальных систем в реальности не бывает, поскольку и система контроля, и контролируемый объект сделаны из одного теста. Можно представить себе многоуровневую иерархическую систему щитов, но в таком случае есть риск раскола между разными контролирующими системами. Наконец, у любого щита есть слепое пятно – он не может контролировать собственный центр управления.

21.3. Действующие и будущие щиты

Здесь я привожу краткий, но насколько возможно полный список щитов, которые уже есть или могут появиться в будущем.

1)           Всемирная система ПРО. Страдает от политических и технологических проблем, готова только в зачаточной стадии.

2)           МАГАТЭ. Работает, но со сбоями. Упустила несколько военных ядерных программ.

3)           Всемирная борьба с наркотиками. Находится в равновесии со своей проблемой – сдерживает в некоторой степени, но не более.

4)           Система тотального информационного наблюдения, которую можно назвать «оруэлловский контроль» в честь антиутопии «1984» год Оруэлла, где подобная система живо описана. Система контроля за каждым человеком с помощью видеокамер, чипов идентификации, слежения за Интернетом, перехвата телефонных разговоров. Технически такая система достижима, но в реальности она развёрнута только на несколько процентов от того, что могло бы быть, однако при этом она активно развивается. Уже сейчас становятся очевидны и открыто обсуждаются проблемы такой системы, связанные с легитимностью, интернациональностью, слепыми зонами, хакерами.  Теоретически может стать основой для всех других систем контроля, так как, возможно, контроля над поведением всех людей достаточно, чтобы не появлялось опасных био, нано и ИИ устройств (а не выискивать уже готовые опасные устройства в окружающей среде).

5)           «Mind-контроль». Эта система подразумевает вживление в мозг неких контролирующих чипов (или расшифровка мыслей с помощью анализа энцефалограмм – уже есть конкретные результаты на этом пути). Это может быть не так сложно, как кажется, если мы найдём группы клеток, на которые проецируется внутренний диалог и эмоциональные состояния. Чем-то вроде этого сейчас является детектор лжи. Такое устройство может решить проблему даже спонтанных преступлений, вроде внезапной агрессии. С другой стороны, потенциал злоупотребления такой технологией – неограничен. Если с помощью такой системы можно будет управлять людьми, то достаточно одной неверной команды, чтобы уничтожить всё человечество. (Та же проблема возникает с предлагающейся в качестве меры против террористов системой управления полётом авиалайнеров с земли: хотя она уменьшит риск захвата отдельного самолёта, она создаст теоретическую возможность одновременно перехватить управление над всеми находящимися в воздухе самолётами и осуществить с их помощью массовый таран зданий или ядерных реакторов.) Наконец, она не даст абсолютной защиты, так как её можно взломать, а так же, потому что некоторые катастрофы происходят не по злому умыслу, а от недомыслия.

6)           Анти-астероидная защита. Ведётся наблюдение за потенциально опасными объектами, но недостаточное, средства перехвата официально не разрабатываются. (Но зонд Deep Impact в 2005 г. использовался для столкновения с кометой Темпеля, в результате чего на теле кометы образовался кратер, а её траектория очень незначительно изменилась.)

7)           БиоЩит. Борьба с биотерроризмом осуществляется в настоящий момент на уровне разведки и международных соглашений по контролю. Есть рекомендации по безопасной разработке биотехнологий (начиная от добровольных самоограничений, принятых в Асиломаре в 70-е годы и заканчивая книгой «Руководство по биоконтролю»[iii]; вместе с тем, ряд предлагающихся ограничений до сих пор не принят[iv].)

8)           Нанощит. В стадии предварительного обсуждения. Есть рекомендации по безопасной разработке, разрабатываемые Центром Ответственных Нанотехнологий[v].

9)           ИИ-щит. Защита от создания враждебного ИИ. В Сингулярити Институте в Калифорнии (SIAI) ведётся обсуждение проблем безопасного целеполагания для сильного ИИ, то есть проблемы его Дружественности. Есть рекомендации по безопасной разработке[vi].

10)       Обычная полиция и службы безопасности.

Можно также охарактеризовать последовательность во времени срабатывания щитов в случае развития опасной ситуации.

Первый уровень обороны состоит в поддержании цивилизации в осознанном, миролюбивом, уравновешенном состоянии и в подготовке к работе по предотвращению рисков на всех остальных уровнях. На этом уровне важны обмен информацией, открытые дискуссии, публикации в реферируемых журналах, сбор средств, пропаганда, образование и инвестиции.

Второй состоит в непосредственном компьютерном контроле над людьми и опасными системами с тем, чтобы ситуации глобального риска вообще не могли возникнуть. На этом уровне действует МАГАТЭ, глобальные системы видеонаблюдения и перехвата интернет сообщений и т. д. 

Третий – в подавлении возникшей опасности с помощью ракет,  антинаноробтов и т д. Это уровень, аналогичный уроню систем ПРО в защите от оружия массового поражения.

Четвёртый – в эвакуации с Земли или закупоривании в бункеры (однако принцип предосторожности предполагает, что следовало бы начать это делать даже одновременно с первым пунктом).

21.4. Сохранение мирового баланса сил

Новые технологии могут нарушать военно-политическое равновесие в мире, предоставляя одной из сторон невиданные возможности. Эрик Дрекслер описывает проблему следующим образом: «В поиске серединного пути, мы могли бы пытаться найти баланс сил, основанный на балансе технологий. Это, по-видимому, расширило бы ситуацию, которая сохраняла определенную меру мирного сосуществования на протяжении четырех десятилетий. Но ключевое слово здесь – "по-видимому": грядущие прорывы будут слишком стремительными и дестабилизирующими, чтобы старый баланс мог продолжать существование. в прошлом страна могла испытывать технологическое отставание на несколько лет и все же поддерживать приблизительный военный баланс. Однако, со стремительными репликаторами и продвинутым ИИ, задержка на единственный день могла бы быть фатальной»[vii]. Короче говоря, чем быстрее развиваются технологии, тем меньше шансов, что они будут находиться в равновесии в разных странах, а также с силами сдерживания и контроля. Сознательное нарушение баланса также опасно: попытка одной из стран явным образом уйти «в отрыв» в сфере военных сверхтехнологий может спровоцировать её противников на агрессию по принципу «атака при угрозе потери преимущества».

21.5. Возможная система контроля над глобальными рисками

Любая защита от глобального риска опирается на некую систему глобального наблюдения и контроля. Чем опаснее риск и чем в большем числе мест он может возникнуть, тем тотальнее и эффективнее должна быть эта система контроля. Примером современной системы контроля является МАГАТЭ. Щиты также могут быть системой контроля, или содержать её в себе как особую структуру. Но щиты могут действовать локально и автономно, как иммунная система, а система контроля предполагает сбор и передачу данных в единый центр.

Окончательным вариантом такого глобального контроля было бы «оруэлловское государство», где из каждого угла торчало бы по видеокамере, или чипы были бы установлены в мозг каждого человека, не говоря уже о компьютерах. Увы, в отношении видеонаблюдения это уже почти реализованный вариант. А в домах это можно реализовать технически в любой момент – везде, где есть постоянный интернет и компьютеры. Вопрос скорее не в наблюдении, а в передаче и, особенно, анализе этих данных. Без помощи ИИ нам трудно проверить всю эту информацию. Привлекательными выглядят системы взаимной подотчётности и гражданской бдительности, продвигаемые как альтернатива тоталитарному государству в борьбе с терроризмом, где за счёт абсолютной прозрачности каждый может контролировать каждого, но в отношении их возможности пока много неясного. Проблемы:

·   Чтобы быть эффективной, такая система контроля должна охватывать весь Земной шар без исключения. Это невозможно без некой формы единой власти.

·   Любую систему контроля можно ввести в заблуждение – поэтому по-настоящему эффективная система контроля должна быть многократно избыточна.

·   Мало наблюдать всё, необходимо всю эту информацию анализировать в реальном времени, что невозможно без ИИ или тоталитарного государственного аппарата. Кроме того, эта верхушка не сможет контролировать сама себя, следовательно, понадобится система обратной её подотчётности либо народу, либо «службе внутренней безопасности».

·   Такая система будет противоречить представлениям о демократии и свободе, которые сформировались в европейской цивилизации, и вызовет ожесточённое сопротивление вплоть до распространения практик терроризма. Такая система тотального контроля вызовет соблазн применять её не только против глобальных рисков, но и против любого рода «правонарушений», вплоть до случаев употребления неполиткорректной речи и прослушивания нелицензионной музыки.

·   Те, кто контролируют, должны иметь полное и ясное представление обо всех глобальных рисках. Если это будут только биологические риски, но не создание ИИ и опасные физические эксперименты, то система будет неполноценна. Очень трудно отличить опасные биологические эксперименты от безопасных – во всех случаях используются ДНК секвенсоры и опыты на мышах. Без чтения мыслей учёного не поймёшь, что он задумал. А от случайных опасных экспериментов эта система не защищает.

·   Поскольку подобная система будет уже «доставлена» в любую точку земного шара, она может упростить действие любого оружия, поражающего каждого человека. Иначе говоря, захват власти над системой тотального контроля даст власть над всеми людьми и упростит задачу сделать с ними всё, что угодно, в том числе и нанести им вред. Например, можно разослать по почте некое лекарство и проконтролировать, чтобы все его приняли. Тех, кто отказался, арестовать. 

Итак, система тотального контроля кажется наиболее очевидным средством противостояния глобальным рискам. Однако она содержит ряд подводных камней, которые могут превратить её саму в фактор глобального риска. Кроме того, система тотального контроля подразумевает тоталитарное государство, которое, будучи снабжённым средствами производства в виде роботов, может утратить потребность в людях как таковых.

21.6. Сознательная остановка технологического прогресса

Часто выдвигаются предложения об отказе от технического прогресса или в насильственной форме, или путём взывания к совести учёных, с целью предотвращения глобальных рисков. Есть разные варианты способов осуществления этой остановки, и все они или не работают, или содержат подводные камни:

1.Личный отказ от разработки новых технологий – практически ни на что не влияет. Всегда найдутся другие, которые это сделают.

2.Агитация, просвещение, социальные действия или терроризм как способы заставить людей отказаться от развития опасных технологий – не работают. Как пишет Юдковски: любая стратегия, которая предполагает единодушные действия всех людей, обречена на провал.

3.Отказ от технологических новшеств на определённой территории, например, одной страны, неспособен остановить технологический прогресс в других странах. Более того, если более ответственные страны откажутся от развития некой технологии, то пальма первенства перейдёт к более безответственным.

4.Всемирное соглашение. На примере МАГАТЭ мы знаем, как плохо это работает.

5.Завоевание всего мира силой, которая сможет регулировать развитие технологий. Но в процессе этого завоевания велики шансы применения оружия «судного дня» теми ядерными державами, которые в результате утратят суверенитет. Кроме того, словами Дрекслера: «Далее, победившая сила была бы сама главной технологической силой с огромной военной мощью и демонстрируемой готовностью ее использовать. Можно ли в этом случае доверять такой силе в том, что она подавит свой собственный прогресс?» («Машины созидания».)

6.Мирное объединение наций перед лицом нависшей угрозы, подобно тому, как возникло ООН в годы фашизма, и делегирование ими своих сил на остановку прогресса в тех странах, которые не захотят присоединиться к этому объединению. Вероятно, это наилучший вариант, который объединяет достоинства всех предыдущих, и сглаживает их недостатки. Но он станет реальным, только если общая угроза станет явной.

7. Ник Бостром предложил концепцию дифференцированного технологического развития, когда проекты, увеличивающие нашу безопасность, стимулируются и ускоряются, тогда как потенциально опасные проекты искусственно замедляются. Таким образом, управляя скоростью развития разных областей знания, мы получаем более безопасные сочетания технологий нападения и защиты.

21.7. Средства превентивного удара

Мало иметь систему тотального контроля – нужно обладать возможностью предотвратить риск. Сейчас обычно в качестве крайней меры рассматривается удар ракетно-ядерными силами по точке источника риска.

Здесь наблюдается любопытное противоречие с программами строительства бункеров для выживания – если такие бункера будут секретны и неуязвимы, то их будет трудно уничтожить. Более того, они должны содержать в себе полностью оборудованные лаборатории и учёных на случай катастрофы. Поэтому возможна ситуация, когда «сверхоружие» будет создаваться в таком бункере (например, в СССР создавались подземные ядерные заводы для продолжения производства ядерного оружия в случае затяжной ядерной войны.) Люди, которые уже находятся в неуязвимом бункере, могут быть более психологически склонны к созданию сверхоружия для удара по поверхности. Следовательно, либо бункеры будут представлять угрозу человеческому выживанию, либо средства превентивного удара уничтожат все бункеры, которые могли бы использоваться для выживания людей после некой катастрофы.

Однако удар по одной точке в пространстве не действует ни против системного кризиса, ни против некой информационной угрозы. Компьютерный вирус не вылечишь ядерным ударом. И не избавишь людей от привязанности к сверхнаркотику. Далее, удар возможен, пока некий риск не вышел из точки. Если рецепт супервируса попал в интернет, обратно его не выловишь. Уже сейчас современная военная машина бессильна против сетевых угроз, вроде террористических сетей, дающих метастазы по всей планете. Точно также в будущем компьютерный вирус будет не просто информационной угрозой данным на диске: он может заставлять компьютерно управляемые фабрики по всему миру незаметно производить некие свои материальные носители (скажем, в виде микроскопических роботов или программных закладок в обычных продуктах), а через них снова уходить в сеть (например, подключаясь к радиоканалу).

Наконец, сам удар (или даже его возможность) создаст ситуацию стратегической нестабильности. Например, сейчас удар баллистической ракетой с обычной боеголовкой по террористам может вызвать срабатывание системы предупреждении о ракетном нападении вероятного противника и привести к войне.

Наконец, удар требует определённого времени. Это время должно быть меньше времени от обнаружения развития угрозы до времени её перехода в необратимую фазу (например, в случае появления «серой слизи» важно уничтожить её до того, как она сумела размножиться в миллиардах копий и распространится по всей Земле). Сейчас время от обнаружения до удара по любой точке Земли меньше 2 часов, и может быть уменьшено до минут с помощью спутникового оружия. (Однако время принятия решения больше.) Если бы от момента принятия решения о написании кода опасного вируса до его запуска проходило бы только 15 минут, то этой скорости было бы недостаточно. И этой скорости очевидно недостаточно, если в некоем месте началось распыление опасных нанороботов по воздуху.

Эффективность удара по точке принципиально изменится после основания космических колоний (хотя бы чисто робототехнических – там тоже может произойти сбой, который превратит колонию в «раковую» – то есть склонную к неограниченному саморазмножению и распространению «токсинов»: опасных нанороботов, сверхбомб и прочего; а именно освоение космоса с помощью саморазмножающихся роботов, использующих местные материалы, наиболее перспективно). За время, пока сигнал об опасности пройдёт, скажем, от спутника Юпитера до Земли, и затем от земли туда прилетит боевой «флот» (то есть ракеты с ядерными боеголовками и боевыми нанороботами) наводить порядок (жечь всё подряд), будет уже поздно. Конечно, можно держать «флот» на орбите каждого спутника планеты или астероида, где есть способные к саморазмножению робототехнические колонии, но что если мятеж произойдёт именно на самом флоте? Тогда нужен флот, который контролирует другие флоты, и плавает между спутниками планет. А затем ещё один межпланетный флот для контроля над ними. Короче, ситуация не выглядит стратегически стабильной, – то есть выше определённого уровня системы контроля начинают мешать друг другу. Возможно, неспособность контролировать удалённые колонии приводит к тому, что цивилизациям выгодно замыкаться на материнской планете – вот ещё одно решение парадокса Ферми.

21.8. Удаление источников рисков на значительное расстояние от Земли

Теоретически можно удалить источники рисков от Земли, в первую очередь это касается опасных физических экспериментов. Проблемы, связанные с этим подходом:

·   Получив в руки технические средства создавать мощные экспериментальные установки далеко от Земли, мы также будем иметь возможности быстро доставлять результаты экспериментов обратно.

·   Это не сможет остановить некоторых людей от аналогичных опытов на Земле, особенно если они просты.

·   Это не защитит нас от создания опасного сильного ИИ, так как он может распространяться информационно.

·   Даже за орбитой Плутона возможны опасные эксперименты, которые повлияют на Землю.

·   трудно заранее знать, какие именно эксперименты надо проводить «за орбитой Плутона».

·   Нет технических возможностей доставить огромное количество оборудования за орбиту Плутона в течение ближайших десятков лет, тем более без использования опасных технологий в виде самовоспроизводящихся роботов.

21.9. Создание автономных поселений в отдалённых уголках Земли

Создание таких поселений, равно как и навыки выживания в дикой природе, вряд ли поможет в случае действительно глобальной катастрофы, поскольку она должна затронуть всю поверхность Земли (если это некий неразумный агент), или обнаружить всех людей (если это разумный агент). Автономное поселение уязвимо и к первому, и ко второму – если только это не вооружённая секретная база, но тогда оно проходит, скорее, под графой «бункеры».

Если речь идёт о выживании после очень большой, но не окончательной катастрофы, то следует вспомнить опыт продразвёрстки и колхозов в России, – город силой властвует над деревней и отбирает у неё излишки. В случае системного кризиса главную опасность будут представлять другие люди. Недаром в фантастическом романе «Метро 2033»[viii] основной монетой является патрон от автомата Калашникова. И до тех пор, пока патронов будет больше, чем крестьян, будет выгоднее грабить, а не выращивать. Возможно также полное растворение человека в природе в духе Маугли. Однако маловероятно, что таким образом хотя бы некоторые представители вида Homo sapiens смогут пережить действительно глобальную катастрофу.

21.10. Создание досье на глобальные риски и рост общественного понимания связанной с ними проблематики

Публикация книг и статей на тему глобальных рисков приводит к росту осознания проблемы в обществе и составлению более точного списка глобальных рисков. Междисциплинарный подход позволяет сравнивать разные риски и учитывать возможность их сложного взаимодействия. Сложности данного подхода:

·   не понятно, к кому именно адресованы любые такого рода тексты.

·   террористы, страны изгои и регулярные армии могут воспользоваться идеями о создании глобальных рисков из опубликованных текстов, что приведёт к большему увеличению рисков, чем к их предотвращению.

·   неправильное и преждевременное вложение капитала может привести к разочарованию в борьбе с рисками – как раз тогда, когда эта борьба на самом деле понадобится.

21.11. Убежища и бункеры

Разного рода убежища и бункеры могут увеличить шансы выживания человечества в случае глобальной катастрофы, однако ситуация с ними не проста. Отдельные автономные убежища могут существовать десятки лет, но чем они автономнее и долговременнее, тем больше усилий нужно на их подготовку заранее. Убежища должны обеспечивать способность человечества к дальнейшему самовоспроизводству. Следовательно, они должны содержать не только достаточное количество способных к размножению людей, но и запас технологий, который позволит выжить и размножаться на территории, которую планируется обживать после выхода из убежища. Чем сложнее будет загрязнена эта территория, тем больший уровень технологий потребуется для надёжного выживания.

Очень большой бункер окажется способным продолжать внутри себя развитие технологий и после катастрофы. Однако в этом случае он будет уязвим к тем же рискам, что и вся земная цивилизация – в нём могут появиться свои внутренние террористы, ИИ, нанороботы, утечки и т д. Если бункер не будет способен сам продолжать развитие технологий, то он, скорее, обречён на деградацию.

Далее, бункер может быть или «цивилизационным», то есть сохранять большинство культурных и технологических достижений цивилизации, или «видовым», то есть сохранять только человеческую жизнь. Перед «длительными» (то есть рассчитанными на многолетнее пребывание) бункерами встанет проблема образования и воспитания детей и риски деградации. Бункер может или жить за счёт ресурсов, накопленных перед катастрофой, или заниматься собственным производством. В таком случае это будет просто подземная цивилизация на заражённой планете.

Чем в большей мере бункер, построенный на современных технологиях, автономен культурно и технически, тем больше там должно жить людей (но в будущем это будет не так: бункер на основе продвинутых нанотехнологий может быть даже вовсе безлюдным, – только с замороженными человеческими эмбрионами). Чтобы обеспечить простое воспроизводство посредством обучения основным человеческим профессиям, требуются тысячи людей. Эти люди должны быть отобраны и находиться в бункере до наступления окончательной катастрофы, желательно, на постоянной основе. Однако маловероятно, чтобы тысячи интеллектуально и физически превосходных людей захотели бы сидеть в бункере «на всякий случай». В этом случае они могут находиться в бункере в две или три смены и получать за это зарплату. (Сейчас в России начинается эксперимент «Марс 500», в котором 6 человек будут находиться в полностью автономном – по воде, еде, воздуху – пространстве 500 дней. Вероятно, это наилучший результат, который мы сейчас имеем. В начале 1990-х годов в США был также проект «Биосфера-2», в котором люди должны были прожить два года на полном самообеспечении под куполом в пустыне. Проект закончился частичной неудачей, так как уровень кислорода в системе стал падать из-за непредвиденного размножения микроорганизмов и насекомых.) В качестве дополнительного риска для бункеров следует отметить широко известный по антарктическим экспедициям факт психологии малых групп, замкнутых в одном помещении – а именно, нарастание враждебности, чреватое деструктивными действиями, снижающими выживаемость.

Бункер может быть или единственным, или одним из многих. В первом случае он уязвим к разным случайностям, а во втором возможна борьба между разными бункерами за оставшиеся снаружи ресурсы. Или возможно продолжение войны, если катастрофа возникла в результате войны. Бункер, скорее всего, будет или подземным, или морским, или космическим. При этом космический бункер тоже может быть заглублён в грунт астероидов или Луны. Для космического бункера будет труднее пользоваться остатками ресурсов на Земле. Бункер может быть полностью изолированным, или позволять «экскурсии» во внешнюю враждебную среду.

Моделью морского бункера может служить атомная подводная лодка, обладающая высокой скрытностью, автономностью, маневренностью и устойчивостью к негативным воздействиям. Кроме того, она может легко охлаждаться в океане (проблема охлаждения подземных замкнутых бункеров не проста), добывать из него воду, кислород и даже пищу. Кроме того, уже есть готовые лодки и технические решения. Лодка способна выдержать ударное и радиационное воздействие. Однако ресурс автономного плавания современных подводных лодок составляет в лучшем случае год, и в них нет места для хранения запасов. 

Современная космическая станция МКС могла бы автономно поддерживать жизнь нескольких человек в течение примерно года, хотя встают проблемы автономной посадки и адаптации. Непонятно, может ли некий опасный агент, способный проникнуть во все щели на земле, рассеяться за столь короткий срок.

Есть разница между газо- и био- убежищами, которые могут быть на поверхности, но разделены на много секций для поддержания режима карантина, и убежищами, которые предназначены для укрытия от мало-мальски разумного противника (в том числе от других людей, которым не досталось место в убежище). В случае биоопасности острова с жёстким карантином могут выступать в качестве убежища, если болезнь не переносится по воздуху.

Бункер может обладать разными уязвимостями. Например, в случае биологической угрозы, достаточно ничтожного проникновения. Полностью автономным может быть только высокотехнологичный бункер. Бункеру нужны энергия и кислород. Энергию может дать система на ядерном реакторе, но современные машины вряд ли могут обладать долговечностью более 30-50 лет. Бункер не может быть универсальным – он должен предполагать защиты от определённых, известных заранее видов угроз – радиационной, биологической и т д.

Чем укреплённее бункер, тем меньшее число бункеров может приготовить человечество, и тем труднее такой бункер будет скрыть. Если после некой катастрофы осталось конечное число бункеров, местоположение которых известно, то вторичная ядерная война может покончить с человечеством через конечное число ударов по известным местам.

Чем крупнее бункер, тем меньше таких бункеров можно построить. Однако любой бункер уязвим к случайному разрушению или заражению. Поэтому конечное число бункеров с определённой вероятностью заражения однозначно определяет максимальное время выживания человечества. Если бункеры связаны между собой торговлей и прочим материальным обменом, то тем вероятнее распространение некоей инфекции между ними. Если бункеры не связаны, то они будут деградировать быстрее. Чем мощнее и дороже бункер, тем труднее его создать незаметно для вероятного противника и тем скорее он станет целью атаки. Чем дешевле бункер, тем менее он долговечен.

Возможны случайные укрытия – люди, уцелевшие в метро, шахтах, подводных лодках. Они будут страдать от отсутствия центральной власти и борьбы за ресурсы. Люди, истощившие ресурсы в одном бункере, могут предпринимать вооружённые попытки прорваться в другой соседний бункер. Также люди, уцелевшие случайно (или под угрозой нависшей катастрофы), могут атаковать тех, кто заперся в бункере.

Бункеры буду страдать от необходимости обмена теплом, энергией, водой и воздухом с внешним миром. Чем автономнее бункер, тем меньше он может просуществовать в полной изоляции. Находящиеся глубоко в земле бункеры будут страдать от перегрева. Любые ядерные реакторы и прочие сложные машины будут требовать внешнего охлаждения.  Охлаждение внешней водой будет демаскировывать их, а иметь источники энергии без потерь в виде тепла – невозможно, тем более, что на глубине и так всегда высокая температура. Рост температуры, по мере углубления в землю, ограничивает предельную глубину залегания бункеров.  (Геотермический градиент в среднем составляет 30 градусов/километр. Это означает, что бункеры на глубине больше 1 километра невозможны – или требуют гигантских охлаждающих установок на поверхности, как золотые шахты в ЮАР. Могут быть более глубокие бункеры во льдах Антарктиды.)

Чем долговечнее, универсальнее и эффективнее бункер, тем раньше его надо начать строить. Но в этом случае трудно предугадать будущие риски. Например, в 1930-е годы построили много противогазовых бомбоубежищ, которые оказались бесполезны и уязвимы к бомбардировкам тяжёлыми фугасными бомбами.

Эффективность бункера, который может создать цивилизация, соответствует технологическому уровню развития этой цивилизации. Но это значит, что она обладает и соответствующими средствами уничтожения. А значит, тем более мощный бункер её нужен. Чем автономнее и совершеннее бункер (например, оснащённый ИИ, нанороботами и биотехнологиями), тем легче он может, в конце концов, обойтись без людей, дав начало чисто компьютерный цивилизации. Люди из разных бункеров будут соревноваться за то, кто первым выйдет на поверхность, и кто, соответственно, будет ею владеть – поэтому у них будет искушение осваивать ещё заражённые участки земли.

Возможны автоматические робототизированные бункеры: в них замороженные человеческие эмбрионы хранятся в неких искусственных матках и через сотни или тысячи лет начинают выращиваться. (Технология заморозки эмбрионов уже есть, а работы по искусственной матке запрещены по соображениям биоэтики, но в принципе такое устройство возможно.) Такие установки с эмбрионами можно отправить в путешествие к другим планетам. Однако, если такие бункеры будут возможны, то земля вряд ли останется пустой – скорее всего она будет заселена роботами. Кроме того, если человеческий детёныш, воспитанный волками, считает себя волком, то кем будет считать себя  человек, воспитанный роботами?

Итак, идея о выживании в бункерах содержит много подводных камней, которые снижают ей полезность и вероятность успеха. Долгосрочные бункеры надо строить многие годы, но они могут устареть за это время, так как ситуация изменится и неизвестно к чему готовится. Возможно, что есть ряд мощных бункеров, которые были построены в годы холодной войны. Пределом современных технических возможностей видится бункер порядка 30-летней автономии, однако его надо строить лет десять, и это потребует миллиардов долларов инвестиций.

Особняком стоят информационные бункеры, которые предназначены, для того, чтобы донести до возможных уцелевших потомков наши знания, технологии и достижения. Например, в Норвегии, на Шпицбергене создали запас образцов семян зерновых с этими целями. Возможны варианты с сохранением генетического разнообразия людей с помощью замороженной спермы. Обсуждаются устойчивые к длительному хранению цифровые носители, например, компакт-диски, на которых вытравлен текст, который можно прочесть через лупу. Эти знания могут быть критически важными, чтобы не повторить наших ошибок.

Возможным местом для убежищ являются астероиды и кометные тела в поясе Койпера, которых насчитываются триллионы штук, и внутри которых можно спрятаться.

21.12. Опережающее расселение в космосе

Есть предположение, что человечество уцелеет, если разделится на части, которые будут быстро заселять космос по отдельности. Например, известный физик С. Хокинг агитирует за создание запасной земли, чтобы избежать рисков, угрожающих планете[ix]. При опережающем расселении ни одно воздействие, осуществлённое в одном месте, не сможет догнать всё человечество. Увы, нет никаких технологических предпосылок для ускоренного расселения человечества в космосе: мы имеем весьма смутные представления о том, как создать звездолёты и, вероятно, не сможем построить их без помощи ИИ и робототизированного производства. А значит, человечество сможет начать заселять космос только после того, как преодолеет все риски, связанные с ИИ и нанотехнологиями, и поэтому космические поселения не могут служить защитой от этих рисков. Кроме того, космические поселения в ближайшем космосе, в пределах Солнечной системы, будут крайне зависимы от земных поставок и уязвимы для обычной ракетной атаки. Даже если человечество начнёт убегать с земли с околосветовой скоростью на сверхбыстрых звездолётах, это всё равно не обезопасит его. Во-первых, потому что информация всё равно распространяется быстрее, со скоростью света, и если возникнет враждебный ИИ, то он может проникнуть по компьютерным сетям даже в быстро удаляющийся звездолёт. Во-вторых, как бы ни был быстр звездолёт, его может догнать более лёгкий, быстрый и совершенный (поскольку он будет создан позже) беспилотный аппарат. Наконец, любой звездолёт увозит с собой все земные сверхтехнологии и все человеческие недостатки и связанные с ними проблемы.

Можно использовать METI – то есть отправление сигналов к звёздам, с тем, чтобы достичь своего рода бессмертия людей, например, организовав свою SETI- атаку (что однако потребует своего развитого ИИ). Или просто отправляя человеческий генокод и знания в надежде, что их кто-нибудь найдёт и нас воскресят.

Наконец, можно запустить волну из самореплицирующихся зондов фон Неймана – то есть роботов, которые распространяются во Вселенной как растения – с помощью семян. Они могли бы в начале осваивать кометы в облаке Оорта. При этом в программе этих роботов намертво зашить генокод человека, с тем, чтобы такие роботы стремились воссоздать человека и его культуру на любых доступных небесных телах. Есть мнение, что случайные мутации в роботах и нанотехнологических системах практически невозможны, а значит, такие зонды фон Неймана смогут неограниченно долго сохранять изначальную настройку. С другой стороны, такие роботы будут более ресурсоёмки, чем роботы без дополнительной программы по воссозданию людей, и будут проигрывать им в соревновании по освоению Вселенной. Так как вряд ли будет запущена только дна волна зондов фон Неймана – скорее всего, их будет несколько (если человечество не объединится до того). См. ещё про зонды фон Неймана далее в главе о парадоксе Ферми. При этом остановить волну их распространения из центра практически невозможно – так как эти зонды очень малы и не поддерживают радиосвязь с Землёй. Единственный вариант – запустить потом гораздо более быструю волну более эффективных репликаторов, которая заранее поглотят всё твёрдое вещество, пригодное для для размножения репликаторов в предыдущей фазе.

Это можно рассматривать как один из вариантов направленной панспермии. Другой – просто распылять в космосе очень устойчивые живые клетки и споры микроорганизмов, с тем, чтобы жизнь развилась бы где-нибудь снова, иесли Земле будет угрожать опасность.

21.13 «всё как-нибудь обойдётся»

Эта позиция по предотвращению глобальных рисков основывается на вере во врождённую устойчивость систем и на иррациональной концепции решения проблем по мере их поступления. Она содержит в себе несколько явных и неявных допущений и логических ошибок, в духе «авось, пронесёт». Собственно, этой позиции и придерживаются правительства разных стран, которые решают проблемы только после того, как они стали очевидны. Если сформулировать эту позицию в духе военной доктрины США, она будет звучать так: анализируя и предотвращая все риски по мере их поступления, мы создадим систему контроля каждого конкретного риска, дающую качественное и количественное преобладание над каждым источником риска на каждой фазе его существования.

Однако уже сегодня в современной технологической ситуации мы не можем рассматривать риски «по мере их поступления», поскольку не знаем, где искать, и поскольку риски могут актуализироваться быстрее, чем мы успеем их обдумать и приготовиться к ним. Именно поэтому я стараюсь расширить горизонт прогноза, рассматривая гипотетические и вероятные технологии, которые ещё не созданы, но вполне могут быть созданы, исходя из текущих тенденций.

Другой вариант – картина будущего, называемая «устойчивое развитие» (sustainable development). Однако это не прогноз, а проект. Он основывается на предположении, что технологии достаточно разовьются, чтобы помочь нам преодолеть энергетический и прочие кризисы, но всё же при этом технологии не породят новых невероятных и рискованных возможностей. Вероятность такого исхода событий невелика.

21.14 Деградация цивилизации до уровня устойчивого состояния

Некоторые надеются, что угрозы глобальных катастроф рассосутся сами собой, когда человечество, из-за нехватки ресурсов или предыдущих катастроф в той или иной степени деградирует. Такая деградация сопряжена с трудностями, потому что пока не разворованы все запасы, оставшиеся от цивилизации, и не израсходовано всё оружие, нет никакой выгоды заниматься примитивным сельским хозяйством – гораздо проще грабить соседей. Конкуренция между уцелевшими обществами неизбежно приведёт к новому росту оружия и технологий, как бы это идеологически ни подавлялось, и через несколько сотен лет цивилизация вернётся на современный уровень, а значит, воскресит и все свои проблемы. Или наоборот, деградирует в направлении к ещё более примитивным формам и вымрет.

21.15 Предотвращение одной катастрофы с помощью другой

Теоретически возможны следующие примеры взаимной нейтрализации опасных технологий и катастроф:

1.Ядерная война останавливает развитие технологий вообще.

2.Тотальный ИИ предотвращает биотерроризм.

3.Биотерроризм делает невозможным развитие ИИ

4.Ядерная зима предотвращает глобальное потепление.

Суть в том, что крупная катастрофа делает невозможной глобальную, отбрасывая человечество на несколько эволюционных ступеней назад. Это возможно в том случае, если мы входим в длительный период высокой вероятности крупных катастроф, но малой вероятности глобальных катастроф. В некотором смысле со второй половине ХХ века мы находимся в этом периоде. Тем не менее, это не помешало нам успешно приблизится к тому моменту, когда до создания многих средств глобального всеобщего уничтожения остались, возможно, десятки лет.

Было бы в каком-то смысле «приятно» доказать теорему, что глобальная катастрофа невозможна, потому что к ней не дадут приблизиться очень крупные катастрофы. Однако эта теорема носила бы исключительно вероятностный характер, так как некоторые опасные сверхтехнологии могут появиться в любой момент, особенно ИИ.

 Кроме того, любая большая авария (но меньшая отбрасывающей назад катастрофы) повышает осознанность людей в отношении рисков. Хотя здесь возникает определённый стереотип: ожидание повторения точно такого же риска.

21.16 Опережающая эволюция человека

Ещё одной идеей, которая даёт принципиальную надежду на выживание, является идея о том, что процессы киборгизации человека будут идти быстрее, чем процессы создания опасных вооружений. Например, если заменить большинство органов человеческого тела их механическими аналогами, то человек станет неуязвимым к действию биологического оружия. Загрузка сознания в компьютер сделает человека вообще независимым от судьбы своего тела, поскольку возможно резервное копирование информации, причём эти компьютеры могут быть размером с пылинку и могут прятаться в поясе астероидов. В этом случае только полное физическое уничтожение Солнечной системы и её окрестностей приведёт к уничтожению таких «сверхлюдей». Однако в какой мере такие устройства будут именно людьми, а не разновидностями искусственного интеллекта, сказать трудно. Кроме того, этот сценарий, хотя и возможен теоретически, но не настолько вероятен, чтобы можно было на него рассчитывать. Наконец, он может просто не успевать во времени, так как создание оружие гораздо проще, чем киборгизация человека.

Другой момент состоит в том, что киборгизация открывает новые риски, связанные с поражением искусственных частей человеческого тела компьютерными вирусами. Первым событием такого рода стала недавно осуществлённая (в демонстрационных целях экспертами по безопасности) атака на кардиостимулятор с управлением по радиоканалу, в ходе которой он был перепрограммирован на другой режим работы, что потенциально могло бы привести к смерти пациента, если бы эксперимент осуществлялся на живом человеке. Будущий киборгизированный человек будет содержать тысячи дистанционно управляемых медицинских устройств.

21.17 Возможная роль международных организаций в предотвращении глобальной катастрофы

Мы не знаем определённо, кто именно должен заниматься предотвращением глобальных катастроф. Хуже того, вероятно есть много организаций и частных лиц, готовых этим заняться – кто против того, чтобы стать спасителем мира? (Однако ещё пару лет назад в мире не было ни одного человека, который бы работал именно над темой предотвращения глобальной катастрофы как междисциплинарной проблемой и получал бы за это зарплату.) Перечислим разные «функциональные жанры» организаций, которые могли бы отвечать за предотвращение рисков глобальной катастрофы.

1)           «ООН». Главы мировых правительств вместе решают, как справиться с рисками. Так сейчас борются с потеплением. Но все договориться не могут. В результате принимаются самое слабое и компромиссное решение. Государства не готовы передать свою власть в ООН.

2)           «Мировое правительство». Проблема состоит в самой возможности его образования. Процесс создание мирового правительства чревато войной, что само себе создаёт глобальный риск. Кроме того, такое правительство не может быть нейтральным. С точки зрения одних групп оно будет выразителем интересов других групп. Оно будет или слабым, или тоталитарным. Тоталитарное правительство породит Сопротивление, борьба с этим Сопротивлением чревата огромными терактами и создаёт новые глобальные риски.

3)           Спецслужбы, которые тайно противостоят глобальным рискам. Так борются с террористами. Проблемы: секретность ведёт к утрате информации. Возникает конкуренция спецслужб. Возможна путаница национальных и общечеловеческих интересов – так как спецслужбы служат своему государству, а не людям вообще.  Спецслужбы в силу своей специфики не заточены на масштабное долгосрочное видение комплексных проблем и не могут самостоятельно оценить, не привлекая сторонних экспертов, риски ещё не существующих технологий.

4)            Тайные группы частных лиц. Возможно, что некая тайная частная организация поставит своей целью облагодетельствовать всё человечество. Однако промежуточный этап – это создание своего (возможно, тайного) мирового правительства. Проблемы: конкуренция спасателей (так как таких тайных организаций может быть много, а методы и картины мира у всех у них разные), необходимость перехода к пункту «мировое правительство». Неприятие заговоров в обществе и противодействием им со стороны спецслужб. Смешение личных и общих целей. Даже Бен Ладен думает, что именно его «всемирный халифат» будет спасением человечества от механистичного и эгоистичного Запада. Частные группы по созданию сильного ИИ также могут понимать, что получат в свои руки абсолютное оружие, и иметь планы по его применению для захвата власти над миром. В любом случае, тайное общество очень часто подразумевает наличие планируемой стадии «мятежа» – явного или неявного установления власти и влияния на весь мир, путём проникновения или прямого захвата. И, разумеется, здесь оно сталкивается с конкуренцией других таких обществ, а также противодействием общества и спецслужб.

5)           Открытая дискуссия и самоорганизация в обществе. Некоторые авторы, например, Д.Брин[x], считают, что альтернативой тайным организациям и правительственным проектам в деле предотвращения глобальных рисков была бы самоорганизация ответственных граждан, которая привела бы к созданию того, что по-английски называется Reciprocal accountability – взаимная подотчётность, когда действия контролирующих служб доступны контролю тех, кого они контролируют. Проблемы такого подхода очевидны: власть общества не велика, и нет единого всемирного общества, способного договориться – а если эти меры принять только в одной стране они не будут эффективны. И должен быть некий орган, на который эти дискуссии воздействуют. Кроме того, поскольку даже небольшая группа людей способна тайно создать угрозу существованию, то просто слежения за соседями недостаточно. в настоящий момент уже формируется сеть открытых общественных организаций, изучающих проблемы глобальных рисков и финансирующих исследования по их предотвращению – это Lifeboat Foundation, Центр по ответственным Нанотехнологиям (CRN), Альянс по спасению цивилизации, Сингулярити Институт (SIAI) Future of Humanity Institute в Оксфорде. Большинство этих организаций базируются в США, бюджет их менее миллиона долларов у каждой, что очень мало, и финансируются они на частные пожертвования. Соответственно, результат их деятельности к настоящему мнению – только публикация статей и обсуждение вариантов. Кроме того, Сингулярити институт непосредственно занимается разработкой дружественного ИИ. Эти организации обмениваются информацией, ресурсами и сотрудниками. С другой стороны, практические влияние разных благотворительных фондов на общество крайне мало. Гораздо больше средств и внимания получают фонды, которые занимаются менее значительными проблемами, чем спасение человечества. В России благотворительные фонды скомпрометированы подозрениями в связях или с мафией, или с иностранными спецслужбами. Наилучшим примером воздействия общества на правителей является чтение правителями книг, хотя это и не всегда помогало. Президент Кеннеди избежал войны в ходе Карибского кризиса, в значительной мере потому что увлекался в этот момент книгой Барбары Такман «Август 1914» о начале Первой Мировой войны, где показано, как война началась вопреки воле и интересам сторон. Исследования К.Сагана и Н.Моисеева о ядерной зиме подтолкнули, возможно, СССР и США к разоружению. Будущие президенты  в любом случае формируются в некой культурной среде и несут наверх почерпнутые в ней идеи. Изменение среднего уровня понимания, создание информационного фона вполне может приводить к тому, что правители косвенно впитают некие идеи. Ведь не из воздуха возникла сейчас программа по нанотехнологиям в России! Кто-то где-то о них прочитал и подумал.  

6)           Не мешать системе самонастроиться. Возможно, что борьба между разными «спасителями мира» окажется хуже, чем полное бездействие. Однако такую стратегию реализовать невозможно, так как она требует единодушного согласия – чего никогда не бывает. Всегда найдётся несколько спасителей мира, и им придётся выяснять, кто среди них главный.

Вопрос даже не в том, чтобы возникла организация, которая может и хочет предотвращать глобальные риски, а в том, чтобы страны мира целиком делегировали ей такие полномочия, что кажется гораздо менее вероятным. Позитивным и очень показательным примером является то, что человечество проявило способность объединяться перед лицом явной и понятной опасности в разного рода антифашистские и антитеррористические коалиции и достаточно эффективно действовать, пока цель являлась весомой, общей и понятной.

21.18 Бесконечность Вселенной и вопрос об окончательности человеческого вымирания

Вполне материалистическим является предположение о бесконечности Вселенной. Если это так, то можно ожидать, что в ней возникают или уже существуют все возможные миры. В том числе, в ней бесконечно много миров, населённых разумной жизнью, а значит, разум во Вселенной не исчезнет вместе с человеком. Более того, из этого следует, что даже в случае человеческого вымирания, когда-нибудь и где-нибудь возникнет мир, почти не отличающийся от Земли, и в нём возникнут существа с тем же генетическим кодом, как у людей. Из этого следует, что люди вообще никогда не смогут исчезнуть из Вселенной, как не может, например, исчезнуть из неё, число 137 (поскольку, грубо говоря, весь генокод человека можно представить в виде одного очень длинного числа). Среди физических теорий, предполагающих множественность миров, следует выделить концепцию Мультверса Эверетта (суть которой состоит в принятии той интерпретации квантовой механики, которая подразумевает разделение мира при каждой возможности выбора, а следовательно, бесконечное ветвление вариантов будущего), а также ряд других теорий (например, космологическую хаотическую инфляцию). Подробные доказательства актуальной бесконечности Вселенной см. в статье Макса Тегмарка «Параллельные Вселенные»[xi].  Подробнее о философских приложениях теории космологической инфляции см. статью Олума, Виленкина и Кноба «Философские последствия инфляционной космологии».[xii]

Более сильным следствием из этих теорий является предположение о том, что реализуются все возможные варианты будущего. В этом случае окончательная глобальная катастрофа становится невозможным событием, так как всегда найдётся мир, в котором она не произошла. Впервые это отметил сам Эверетт, придя к выводу, что Мультиверс (то есть актуальная реальность всех возможных квантовых альтернатив) означает личное бессмертие для человека, поскольку, от какой бы он причины ни погиб, всегда найдётся вариант вселенной, в котором он не погиб в этот момент. Известный физик М. Тегмарк проиллюстрировал эту идею мысленным экспериментом о квантовом самоубийстве[xiii]. Затем эту идею развил Дж. Хигго в статье «Означает ли бессмертие многомирная интерпретация квантовой механики»[xiv]. В моих комментариях к переводу статьи Хигго я пишу, что истинность теории о Мультверсе не является необходимым условием для истинности теории о бессмертии, связанном с множественностью миров. Для  истинности многомирного бессмертия достаточно только бесконечности вселенной. То есть эта теория о многомирном бессмертии работает и для неквантовых конечных автоматов: для любого конечного существа в бесконечной вселенной найдётся точно такое же существо, которое пройдёт точно такой же жизненный путь, за исключением того, что не умрёт в последний момент. Но это вовсе не означает прекрасного и приятного бессмертия, поскольку альтернативой смерти может быть тяжёлое ранение.

Точно такое же рассуждение можно применить и ко всей цивилизации. Всегда найдётся вариант будущего, в котором человеческая цивилизация не вымирает, и если все возможные варианты будущего существуют, то это означает бессмертие нашей цивилизации. Однако это не значит, что нам гарантировано процветание. Иначе говоря, если доказать неуничтожимость наблюдателя, то из этого следует, что должна существовать некая поддерживающая его цивилизация, однако для этого достаточно одного бункера со всем необходимым, а не процветающего человечества.

21.19 Предположения о том, что мы живём в «Матрице».

 Основы научного анализа этой проблемы заложены Ником Бостромом в его статье «Рассуждение о симуляции».[xv] Многие религиозные концепции можно сделать наукообразными, введя предположение, что мы живём в симулированном мире, возможно, созданном внутри сверхкомпьютера силами некой сверхцивилизации. Опровергнуть то, что мы живём в матрице, невозможно, но это можно было бы доказать, если бы в нашем мире появились некие невероятные чудеса, несовместимые с какими бы то ни было физическими законами (например, в небе бы возникла надпись из сверхновых звёзд).

Однако есть концепция, что может произойти глобальная катастрофа, если хозяева этой симуляции внезапно её выключат (Бостром). Можно показать, что в этом случае вступают в действие аргументы, описанные в статье Дж. Хигго о многомирном бессмертии. А именно, то, что мы живём в матрице, вероятно только в том случае, если множество возможных симуляций очень велико. Это делает вероятным существование значительного количества совершенно одинаковых симуляций. Уничтожение одной из копий никак не влияет на ход самой симуляции, так же, как сожжение одного из экземпляров романа «Война и мир» не влияет на отношение персонажей. (При этом никакие аргументы о душе, непрерывности сознания и других некопируемых факторах не работают, так как обычно предполагается, что «самосознание» в симуляции вообще невозможно.)

Следовательно, никакой угрозы полное выключение симуляции не представляет. Однако если мы всё же живём в симуляции, то хозяева симуляции могут подкинуть нам некую маловероятную природную проблему, хотя бы для того, чтобы просчитать наше поведение в условиях кризиса. Например, изучить, как цивилизации ведут себя в случае извержения сверхвулканов. (А любая сверхцивилизация будет заинтересована в просчитывании разных вариантов своего предыдущего развития, например, чтобы оценить частоту распространённости цивилизаций во Вселенной.) При этом можно предположить, что крайние узловые события будут чаще становиться объектами моделирования, особенно моменты, когда развитие могло полностью прекратиться, то есть глобальные риски. (А мы как раз живём в районе такого события, что, по байесовой логике, повышает вероятность гипотезы о том, что мы живём в симуляции.) Иначе говоря, в симуляциях гораздо чаще будут встречаться ситуации глобального риска. (Точно также в кино гораздо чаще показывают взрывы, чем мы видим их в реальности.) А значит, это увеличивает наши шансы столкнуться с ситуацией, близкой к глобальной катастрофе. При этом, поскольку сама глобальная катастрофа в мире симуляций невозможна, ибо всегда найдутся симуляции, где «главные герои не умирают», то здесь наиболее вероятным сценарием будет выживание горстки людей после очень большой катастрофы. К вопросу о рассуждении о симуляции Бострома мы ещё вернёмся далее.

Иногда высказываются надежды, что если человечество приблизится к грани самоуничтожения, то «добрые инопланетяне», которые давно за нами будто бы следят, нас спасут.  Но на это не больше надежд, чем у ягенёнка, которого пожирают львы, на то, что его спасут люди, снимающие об этом документальный фильм.

21.20 Глобальные катастрофы и устройство общества

Если глобальная катастрофа произойдёт, то она уничтожит любое общество. Поэтому устройство общества имеет значение только на фазе предотвращения рисков. Можно попытаться себе представить, хотя этот образ и будет весьма утопичным, какое общество лучше всего способно предотвращать глобальные катастрофы:

1.      Это общество, которое имеет один и только один центр управления, обладающий полнотой власти и высоким авторитетом. Однако при этом должна быть некая обратная связь, не позволяющая ему превратиться в самодостаточную и эгоистичную диктатуру. Это общество должно обладать такой саморегуляцией, чтобы в нём не могло возникать, а в случае возникновения, сразу бы обнаруживалось любое опасное (с точки зрения рисков глобальных катастроф) поведение или явление. (Примером такого общества могла бы быть сплочённая команда корабля.)

2.      Это общество, которое нацелено на своё выживание в длительной исторической перспективе (десятки и сотни лет).

3.      Подавляющее большинство людей должно осознавать и принимать цели и устройство этого общества, то есть иметь «высокий моральный уровень». (С учётом того, что даже небольшая группа террористов сможет нанести в будущем непоправимый ущерб, уровень поддержки должен быть близок к 100  %, что, конечно, на практике не реализуемо.)

4.      Это общество, руководимое людьми (или системами ИИ), достаточно интеллектуально подготовленными, чтобы  правильно учитывать риски, которые могут возникнуть через годы и десятилетия. Соответственно, в этом обществе люди получают целостное образование, дающее фундаментальное и широкое, но не поверхностное видение мира.

5.      Это общество, в котором сведено к нулю число конфликтов, участники которых могут захотеть использовать оружие судного дня.

6.      Это общество, могущее осуществлять полный жёсткий контроль деятельности всех групп лиц, которые могут создавать глобальные риски. Однако этот контроль не должен сам, неким образом, превращаться в инструмент создания риска.

7.      Это общество должно быть готово быстро и эффективно принять достаточные для его предотвращения меры против любого глобального риска.

8.      Это общество должно вкладывать значительные ресурсы в создание разного рода бункеров, космических поселений и т. д. Фактически, это общество должно рассматривать своё выживание как главную задачу.

9.      Это общество должно осознано создавать новые технологии в выбранном им правильном порядке в специально отведённых местах. Оно должно быть готово отказаться даже от очень интересных технологий, если неспособно точно контролировать или хотя бы измерить их риск.

10.   Это общество должно возникнуть без мировой войны, так как иначе риск в процессе его возникновения перевесит пользу от такого общества.

При этом я не обсуждаю модель подобного общества в терминах «демократическое», «рыночное», «коммунистическое», «тоталитарное» и др. – я полагаю, что эти термины применимы к обществу ХХ века, но не XXI века. Но кажется очевидным, что современное общество стоит крайне далеко от всех этих параметров способного к выживанию общества:

1.      На земле нет единого общепризнанного авторитетного центра власти, но есть много желающих за него побороться. Обратная связь в виде выборов и свободы слова слишком эфемерна, чтобы реально влиять на решения, тем более, в глобальном масштабе. Единые мировые институты, вроде ООН, переживают кризис.

2.      Большинство людей действует в своих личных интересах или интересах своих групп, даже если речь идёт на словах об общечеловеческих интересах. Людей очень много, и есть процент тех, кто не против или даже стремится к тотальному разрушению. Также внутри общества распространяются конкурирующие идеи-мемы, которые взаимоисключают друг друга: разного рода национализм, исламизм, антиглобализм, цинизм. (Под цинизмом я имею в виду довольно распространенную сумму убеждений: всё – плохо, деньги правят миром, всё делаю только для себя, чудес не бывает, будущее не имеет значения, «пипл хавает» и т. д.)

3.      Современное общество в значительно большей степени настроено на получение благ в краткосрочной перспективе, чем на выживание в долгосрочной.

4.      Исходя из действий многих руководителей современных государств, трудно поверить, что это именно те люди, которые нацелены на долговременное выживание всего мира. И это во многом происходит от того, что нет ясной и общепринятой картины рисков. Точнее – та, что есть, не полна и затмевает более важные риски (а именно, это картина, где астероиды плюс потепление суть главные риски – однако даже после признания этих рисков в отношении них делается недостаточно). Хотя есть значительное число людей, которые могут и хотят дать ясное понимание о рисках, уровень информационного шума таков, что услышать их невозможно.

5.      В современном обществе очень много опасных конфликтов в связи с большим количеством стран, партий и религиозно-экстремистских групп. Трудно даже их всех посчитать.

6.      Даже очень высокий контроль в одних странах бессмыслен, пока есть территории, недоступные контролю. Пока существуют суверенные государства, полный общий контроль невозможен. Однако в тех случаях, когда контроль появляется, он тут же начинает использоваться не только для борьбы с глобальными рисками, но и для личных целей тех групп, которые контроль осуществляют – или, во всяком случае, такое впечатление создаётся (война в Ираке).

7.      Пока общество разделено на отдельные вооружённые государства, быстрое принятие мер по локализации угрозы невозможно (согласования) или чревато развязыванием ядерной войны.

8.      По окончании эпохи «холодной» войны строительство бункеров относительно заглохло.

9.      Современное общество не осознаёт выживание как свою главную цель, а те, кто об этом говорят, выглядят маргиналами.

10.  Современные технологии развиваются стихийно. Нет ясного представления о том, кто, где, какие и зачем технологии развивает – даже относительно легко обнаружимых ядерных производств.

11.  Хотя процесс договорного объединения активно идёт в Европе, остальная часть мира пока не готова, если это вообще возможно, мирно объединиться. Авторитет многих международных организаций, наоборот, снижается. (Однако, если где-то случится крупная, но не окончательная катастрофы, то возможно временное объединение в духе «антитеррористической коалиции».)

Важно также подчеркнуть, что классическое тоталитарное общество не является панацеей от глобальных катастроф. Действительно, тоталитарное общество может быстро мобилизовать ресурсы и пойти на значительные потери для достижения цели. Однако основная проблема такого общества – это информационная непрозрачность, которая уменьшает степень готовности и ясности понимания происходящих событий. Примеры: ошибка Сталина в оценке вероятности начала войны с Германией. Или слепота древнекитайского общества в отношении военных перспектив пороха и информационных технологий – компаса и бумаги, которые там были изобретены.

21.21 Глобальные катастрофы и текущая ситуация в мире

С одной стороны, может показаться, что вращение политической жизни в современном мире постепенно сосредотачивается вокруг предотвращения отдалённых глобальных катастроф, возможными источниками которых считаются в первую очередь три: развёртывание ПРО, глобальное потепление и ядерная программа Ирана (и в меньшей мере ряд других, например, противоастероидная защита, энергетическая безопасность и др. Кроме того, поведение глав государств во время финансового кризиса в осенью 2008 года так же может служить определённой моделью реагирования земной цивилизации на будущие глобальные катастрофы. В начале было глухое отрицание и приукрашивание фактов. В течение недели ситуация переменилась, и те, кто говорил, кто кризис невозможен, стали кричать, о неизбежности ужасной катастрофы, если им срочно не выделят 700 миллиардов долларов – план Паулсона. При этом стали проводиться интенсивные международные встречи, Саркози выдвигал невероятные инициативы, и все демонстрировали согласие в том, что надо что-то делать, хотя не очень понятно, что. При этом похоже, что полная модель происходящих событий была не доступна лицам, принимающим решения.) Я полагаю, что читатель, внимательно ознакомившийся с текстом этой книги, понимает, что, хотя эти две проблемы значительны и, в конечном счёте, могут увеличить шансы человеческого вымирания, в действительности наш мир крайне далёк от осознания масштабов и даже видов нависших угроз. Несмотря на все разговоры, глобальная катастрофа не воспринимается как нечто реальное, в отличие от 60-х годов, когда риск катастрофы прямо означал необходимость подготовки бомбоубежища. Современное состояние благодушия можно уподобить только тому приятному расслаблению, которое, как говорят, царило в Перл-Харборе перед налётом японцев. Кроме того, в качестве глобальных рисков осознаётся падение астероидов, исчерпание ресурсов и риск тотальной ядерной войны, но эти темы почему-то не являются объектами активной политической дискуссии.

Можно обсуждать две темы: почему выбран именно этот список катастроф (Иран, ПРО и потепление), и как общество обращается с тем список рисков, который признан. Однако ответ на оба вопроса один: основное содержание дискуссий об угрозах современной цивилизации состоит именно из обсуждения в духе «а будет ли мальчик?» Делает или нет Иран бомбу, и опасна ли она? Виноваты ли люди в глобальном потеплении и стоит ли с ним бороться? Собственно, процесс составления этого списка и есть процесс политической борьбы, в которой участвуют такие факторы, как конкуренция наиболее убедительных и наиболее выгодных гипотез.

21.22 Мир после глобальной катастрофы

Как бы ни была масштабна глобальная катастрофа, ясно, что вся вселенная в ней не погибнет (если только это не распад метастабильного вакуума, но даже в этом случае останутся параллельные вселенные). Какая-нибудь разумная жизнь возникнет в ней на другой планете, и чем больше будет таких мест, тем больше шансов, что эта жизнь будет похожа на нашу. В этом смысле окончательная глобальная катастрофа невозможна. Однако если глобальная катастрофа постигнет именно Землю, то тут возможно несколько вариантов.

В соответствии с положениями синергетики, критическая точка означает, что есть несколько, конечное число, сценариев, между которыми произойдёт необратимый выбор направления движения. Как бы много ни было возможных сценариев глобальной катастрофы, количество окончательных состояний гораздо меньше. В нашем случае речь идёт о следующих вариантах:

1.      Полное разрушение Земли и жизни на ней. Дальнейшая эволюция невозможна, хотя, может быть, некоторые бактерии выжили.

2.      Люди вымерли, однако биосфера в целом сохранилась, и эволюция других видов животных продолжается. Как вариант – отдельные мутировавшие люди или обезьяны постепенно создают новый разумный вид.

3.      «Серая слизь». Уцелела некая примитивная «некросфера» (термин С.Лема из романа «Непобедимый») из нанороботов. В ней может быть своя эволюция. Вариант – уцелели самовоспроизводящиеся заводы по производству крупных роботов, но они не обладают настоящим ИИ.

4.      «Постапокалиптичесий мир». Технологическая цивилизация рухнула, но определённое число людей уцелело. Они занимаются собирательством и сельским хозяйством, факторы антропогенных угроз существованию исчезли. (Однако процесс глобального потепления может продолжаться за счёт запущенных ранее процессов и стать необратимым.) Из этого сценария есть возможности перехода к другим сценариям – к новой технологической цивилизации или к окончательному вымиранию.

5.      Сверхмощный искусственный интеллект установил власть над миром. Люди вымерли или вытеснены на обочину истории. При этом – внимание! – с точки зрения людей это может выглядеть как мир всеобщего изобилия: каждый получит неограниченную жизнь и виртуальный мир в придачу. Однако расходы системы на развлечение людей будут минимальны, равно как и роль людей в управлении системой. Этот процесс – автономизации государства от человека и снижения роли людей в нём – уже идёт. Даже если сверхинтеллект возникнет благодаря усовершенствованию отдельных людей или их слиянию, он уже не будет человеком – во всяком случае, с точки зрения обычных людей. Его новая сложность перевесит его человеческие корни.

6.      Позитивный исход – см. подробнее следующую главу. Люди создали такой сверхмощный ИИ, который управляет миром, максимально реализуя потенциал людей и человеческие ценности. Этот сценарий имеет тонкую, но существенную разницу с тем сценарием, который оставляет людям только сферу виртуальных развлечений и удовольствий. Разница эта – как между сном о любви и настоящей любовью.

Почти каждый из этих вариантов является устойчивым аттрактором или руслом развития событий, то есть после прохождения критической точки он начинает притягивать к себе разные сценарии.

21.23 Мир без глобальной катастрофы: наилучший реалистичный вариант предотвращения глобальных катастроф

Жанр требует «хэппи энда». Если бы глобальная катастрофа была бы абсолютна неизбежна, то не следовало бы и писать этой книги, так как единственное, что оставалось бы людям перед лицом неизбежной катастрофы – это устроить «пир перед чумой». Но даже если шансы катастрофы очень велики, мы можем значительно отсрочить её наступление, уменьшая её погодовую вероятность.

Я (и ряд других исследователей) вижу эти шансы в таком опережающем развитии систем искусственного интеллекта, которое обгоняет развитие других рисков, но одновременно это развитие должно опережается ростом нашего понимания возможностей и рисков самого ИИ, и нашим пониманием того, как правильно и безопасно поставить перед ним задачу, то есть как создать «Дружественный» ИИ. И затем на базе этого Дружественного ИИ создать единую систему мировых договоров между всеми странами, в которой этот ИИ будет выполнять функции Автоматизированной системы государственного управления. Этот план предполагает плавный и мирный переход к действительно величественному и безопасному будущему.

И хотя я не думаю, что именно этот план легко и безупречно реализуется, или что он является действительно вероятным, я полагаю, он представляет лучшее, к чему мы можем стремиться и чего мы можем достичь. Суть его можно изложить в следующих тезисах, первые два из которых являются необходимыми, а последний – крайне желательным:

1) Наши знания и возможности по предотвращению рисков будут расти значительно быстрее возможных рисков.

2) При этом эти знания и возможности управления не будут порождать новых рисков.

3) Эта система возникает мирно и безболезненно для всех людей.

21.24 Максимализация функции удовольствия

Мы стремимся сохранить жизнь людей и человечества только потому, что она имеет ценность. Хотя у нас не может быть точного знания, о том, что именно создаёт ценность человеческой жизни, так как это не объективное знание, а наше соглашение, мы можем предположить, что для нас ценно число людей, а также испытываемое ими удовольствие и возможность творческой самореализации, иначе говоря, разнообразие создаваемой ими информации. То есть мир, в котором живёт 1000 человек, и при этом однообразно страдает (концлагерь), хуже мира, где радостно живёт 10 000 человек, занимаясь разнообразными ремёслами (древнегреческий полис).

Таким образом, если у нас есть два варианта развития будущего, в которых одинаковая вероятность вымирания, то нам следует предпочесть тот вариант, в котором живёт больше людей, меньше страдает, и их жизнь более разнообразна, то есть в наибольшей мере реализовывает человеческий потенциал.

Более того, нам вероятно следовало бы предпочесть мир, в котором живёт миллиард человек в течение 100 лет (и потом этот мир разрушается), миру, в котором живёт только миллион человек в течение 200 лет.

Крайнем выражением этого является «пир во время чумы». То есть, если смерть неизбежна, и невозможно никак отсрочить ее, то наилучшим поведением для рационального субъекта (то есть не верящего в загробную жизнь) оказывается начать развлекаться наиболее интересным образом. Значительное число людей, осознающих неизбежность физической смерти, так и делают. Однако если смерть отстоит на несколько десятков лет, то нет смысла пропить всё сегодня, и максмализация функции удовольствия требует постоянного заработка итд.

Интересно задаться вопросом, какова бы была рациональная стратегия для целой цивилизации, которая бы знала о неизбежности гибели через тот или иной срок. Стоило бы ей максимально увеличит население, чтобы дать пожить максимально большому количеству людей? Или наоборот, раздавать всем наркотики и вживлять электроды в центр удовольствия? Или скрыть сам факт неизбежности катастрофы, так как это знание неизбежно приведёт к страданиям и преждевременному разрушению инфраструктуры? Или возможен смешанный путь при не нулевой, но и не стопроцентной вероятности вымирания, где часть ресурсов уходит на «пир во время чумы», а часть – на поиски выхода?

Но настоящее удовольствие невозможно без надежды на спасение. Поэтому для такой цивилизации было бы рационально продолжать искать выход, даже если бы она наверняка знала, что его нет.



[i] Cм. Сайт фонда Lifeboat Foundation www.lifeboat.com

[iii] Michael M. Wagner. Handbook of Biosurveillance. Academic Press, 2006.

[iv] См. подробнее на эту тему на сайте Lifeboat http://lifeboat.com/ex/bio.shield

[v] Center of responsible nanotechnology (CRN). Dangers of Molecular Manufacturing. http://www.crnano.org/dangers.htm

[vi] SIAI рекомендации по созданию дружественного ИИ. http://www.proza.ru/texts/2007/07/13-272.html

[vii] «Машины созидания», глава 12.

[viii] Дмитрий Глуховский. Метро 2033. М., 2007. http://www.metro2033.ru

[x] Brin D. Singularities and Nightmares. Nanotechnology Perceptions: A Review of Ultraprecision.  Engineering and Nanotechnology, Volume 2, No. 1, March 27 2006. Русский перевод: Дэвид Брин. Сингулярность и кошмары. http://www.proza.ru/texts/2007/05/14-31.html

[xi] Тегмарк Макс. Параллельные Вселенные. http://www.everettica.org/article.php3?ind=126

 

[xii] Joshua Knobe, Ken D. Olum and Alexander Vilenkin. Philosophical Implications of Inflationary Cosmology. http://philsci-archive.pitt.edu/archive/00001149/00/cosmology.pdf

[xiii] M. Tegmark. The interpretation of quantum mechanics: many worlds or many words? 1998, Fortschr. Phys. 46, 855-862. http://arxiv.org/pdf/quant-ph/9709032

[xiv] Джеймс Хигго. «Означает ли многомирная интерпретация квантовой механики бессмертие?» Русский перевод здесь: http://www.proza.ru/texts/2007/05/22-04.html

[xv] Are You Living In a Computer Simulation? Nick Bostrom. Philosophical Quarterly, 2003, Vol. 53, No. 211, pp. 243-255., http://www.simulation-argument.com/, русский сокращённый перевод здесь: http://alt-future.narod.ru/Future/bostrom3.htm