В книге "Наш
последний час" английский королевский астроном
сэр Мартин Рис
оценил вероятность вымирания человечества в XXI веке в 50 процентов.
Однако в силах человечества значительно снизить эту вероятность, если оно
предпримет все зависящие от него действия. Цель этого сайта - создать
энциклопедию знаний о глобальных рисках и методах их предотвращения,
которая позволит избежать глобальной катастрофы.
Данный
сайт носит только информационный характер. Наиболее свежие и достоверные версии
глобальных рисков будут в первую очередь вноситься в текст книги "Структура
глобальной катастрофы" и в мой
жж.
Новости
Предлагаю вниманию читателей статью "О
законе возрастания сложности эволюционирующих систем, или что день грядущий нам
готовит." Combinatora30
--------
Зарегистрирован домен
htpp://globalcatastrofa.ru, и на него сайт будет постепенно
переезжать. Домен с более правильным написанием (через ph)
захвачен киберсквотеррами. Обновлена первая страница сайта. - 19.06.2011
--------
Сборник статей "Глобальные
риски" свёрстан и готов к печати. Он выйдет или в издательстве "Бином", или
на сайте lulu.com по технологии печати по
требованию. - 10.06.2011
------
Книга "Структура глобальной катастрофы" вышла в издательстве УРСС и может быть
куплена через
OZON - 31.12.2010
------
Предварительный текст книги "Футурология"
выложен для обсуждения - 2010
-------
Начата работа совместно с М.Батиным над книгой "Футурология:
бессмертие или глобальная катастрофа" - 2010
--------
Выложен текст "НЛО
как фактор глобального риска" 08.08.2009
--------
Выложен текст "Риски
от прошлых цивилизаций".
--------
Моя статья "Процессы
с положительной обратной связью и перспективы глобальных катастроф
вышла в электронном виде в журнале "Общественные науки и современность". Текст
статьи выложен.
--------
Выложен черновик статьи "Потребность
в конце света: корни человеконенавистничества"
Глобальные
риски
Общие вопросы
Оценка вероятности, причины ошибок
Риски, связанные со сверхтехнологиями
-
Риски
искусственного интеллекта
-
Нанотехнологии
-
Биотехнологии, искусственная жизнь и генетическое конструирование
-
Ядерное оружие
-
Глобальное химическое заражение
-
Коллайдер
-
SETI-атака
-
Сверхглубокое бурение
и проникновение в
недра Земли
-
Риски, связанные с освоением
космоса
-
Технологические способы провоцирования природных катастроф:
термоядерная детонация планет, отклонение астероидов, пробуждение
сверхвулканов, намеренное разрушение озонового слоя.
-
Технологические риски,
связанные с принципиально новыми открытиями
Антропогенные риски
-
Парниковая
катастрофа
-
Перенаселение
-
Исчерпание
ресурсов
-
Крах биосферы
-
Сверхнаркотик
-
Идеи, способные к
саморепликации (мемы)
-
Проблема "философских
зомби"
-
Утрата интереса к жизни
-
Размывание границ человеческого
-
Старение вида
-
Генетическая деградация
Природные
риски
-
Гамма-всплески
-
Астероиды
-
Сверхновые
-
Сверхвулканы
-
Солнечные вспышки
-
Переполюсовка магнитного поля
Земли
-
Разрушение озонового слоя
-
Возникновение пандемии
Маловероятные природные сценарии
-
Активизация центра галактики
-
Сверхцунами
-
Сверхземлетрясение
Неизвестные процессы в ядре Земли
Внезапная дегазация растворённых в мировом океане газов
Нарушение стабильности Земной атмосферы
Взрывы других планет
солнечной системы
Гравитационные возмущения от гипотетических
небесных тел
Гибель вселенной
-
Распад фальшивого
вакуума
-
Столкновение с браной
-
Переход тёмной энергии в
материю
-
Тепловая смерть
-
Сжатие вселенной
-
Большой разрыв
-
Верхний предел возраста
Вселенной, при котором возможна жизнь
Изменение вращения Земли, великий потоп, взрыв
Солнца
Катастрофы и границы науки:
НЛО, парапсихология
Способы обнаружения однофакторных сценариев
глобальной катастрофы
Многофакторные сценарии
-
События, изменяющие вероятность
глобальной катастрофы
Что может
приблизить или отдалить катастрофу
Катастрофы, влияющие на скорость прогресса
Судьба цивилизации зависит от хода прогресса науки
и техники
Системный кризис
Кризис
кризисов
Общее понятие о предотвратимости различных рисков,
убежища и бункеры
Вероятность различных сценариев
-
Проблема оценки вероятности глобальных катастроф
Первая глава из книги СГК. Делается вывод, что важна не сама
вероятность, а то, какие действия мы должны предпринимать в связи с
различными уровнями риска.
-
Непрямые способы оценки вероятности
глобальной катастрофы
Doomsday
argument, закон Парето, рассуждение о
симуляции и попытка свести их все вместе
-
Наиболее вероятный сценарий глобальной
катастрофы Здесь предпринята попытка свести
все сценарии воедино и дать вероятностную оценку доли каждого.
-
Таблица катастроф
В этой таблице все данные
собраны о глобальных катастрофах и дана оценка их вероятности.
Матрица
Рассматриваются риски
того, чтобы мы живём в Матрице, то есть в симулированной реальности
Доказательство судного дня:
Doomsday argument
Исходя из прошлого возраста системы, можно оценить
будущее время ее существования, и это даёт весьма пессимистические
оценки будущего времени существования человечества.
Эффекты наблюдательной селекции
Они приводят к тому, что мы недооцениваем различные природные риски.
Мультиверс, квантовое
бессмертие и глобальные катастрофы
Множественность миров делает глобальную катастрофу невозможной.
Сингулярность
Гипотетическая точка в районе 2030 года, когда прогностические кривые
обращаются в бесконечность
Моделирование сценариев глобальной катастрофы
Когнитивные искажения в оценке рисков
Склонность человека к
самоуничтожению
Рассуждение о
человеческой природе
Общие закономерности глобальных катастроф
Русский срез, процессы с положительной обратной
связью, факторы сценариев, проблема глобализации региональных рисков, от
экономического кризиса к глобальной катастрофе
Честная литература и кино
о вымирании людей Настоящая
гибель, а не постапокалиптический оксюморон
Цитата дня:
«Возникновение нанотехнологий будет знаменоваться кутерьмой абсолютно
неуправляемых трудностей. Человеческих этики и интеллекта недостаточно,
чтобы справиться с этими вызовами. Без новых форм интеллекта, умнее
людей и добрее людей, которые бы могли нам помогать в преодолении этих
огромных трудностей, наше продолжительное выживание не может быть
обеспеченно».
Майкл Анисимов
|