Global catastrophic risk (original) (raw)

About DBpedia

Existenční riziko (anglicky existential risks) je druh globálního rizika, které může ohrozit existenci lidstva, popř. života v podobě v jaké ho známe, jako celku. Pojem v akademickém prostředí etabloval švédský badatel Nick Bostrom z Oxfordská univerzity. Existenční rizika jsou výzvou pro koncepci udržitelného rozvoje. Uvádí se, že snahy o udržitelnost by měly reflektovat existenční nebezpečí a snažit se spíše o udržitelnou trajektorii a ne o udržitelný stav.

thumbnail

Property Value
dbo:abstract الخطرُ الكارثيّ العالميّ هو حدثٌ افتراضيٌ مُستَقبليّ يمكن أن يضر بسلامة الإنسان على نطاق عالمي، بل يمكن أن يُهدِّد ويُدمر الحضارة الحديثة. يُعرَف الحدث الذي يمكن أن يسبب انقراض الإنسان أو أن يُقلّص من الإمكانات البشريّة بشكل دائم بأنه خطر وُجودِيّ. تشمل المخاطر العالميَّة المُحتملة بعض المخاطر المُسبَّبة من قِبل البشر مثل: التكنولوجيا والحكومات وتغيرات المناخ، بالإضافة إلى المخاطر غير البشرية المنشأ أو الخارجية. من الأمثلة على مخاطر التكنولوجيا: الخطر الوُجودِيّ من الذكاء الاصطناعي العام والتقانة الحيوية المُدمرة أو تقنية النانو الجزيئية. تخلقُ إدارة الحكومات العالمية غير الكافية مخاطر في المجالات الاجتماعية والسياسية، مثل: الحرب العالمية الثالثة، بما في ذلك المحرقة النووية والإرهاب البيولوجي باستخدام الكائنات المُعدَّلة وراثيًا، والإرهاب الإلكتروني الذي يدمر البُنى التحتية الأساسيّة مثل الشبكات الكهربائية؛ أو الفشل في إدارة الجائحات. تشمل المشكلات والمخاطر في مجال إدارة نظام الأرض: الاحتباس الحراري والتدهور البيئي، بما في ذلك انقراض الأنواع، والمجاعة نتيجة الانفجار السكاني والزراعة غير المُستدامة.ومن الأمثلة على المخاطر غير البشرية المنشأ: اصطدام الكُويكبات وثوران البركان الهائل وانفجار أشعة غاما والعاصفة الجيومغناطيسية الأرضية المُدمِّرة للمعدات الإلكترونية أو تغيرات المناخ الطبيعية على المدى الطويل. (ar) El risc de catàstrofe global és un hipotètic futur esdeveniment que podria danyar el benestar humà en una escala global, fins al punt de destruir o fer un dany irreversible a la . Un esdeveniment que podria causar l' o permanentment i dràsticament el potencial humà és també conegut com a risc existencial. El concepte fou introduït pel filòsof el 2008 per a referir-se a un esdeveniment hipotètic que pugui comprometre el benestar de la majoria de la humanitat, per exemple, destruint la civilització moderna. El 2002, Bostrom ja havia encunyat el terme «risc existencial» per a referir-se a un esdeveniment que pugui provocar l'extinció de la humanitat. El biòleg Stephen Jay Gould, un dels màxims experts mundials en evolució, ha predit que el que aniquilarà el gènere humà serà precisament la nostra superespecialització tècnica i cultural. Les possibles causes són o antropogèniques o externes a la responsabilitat humana. Entre les possibles causes de catàstrofes globals hi ha el canvi climàtic, les pandèmies, la guerra nuclear, els riscos que comporta la nanotecnologia, la creació d'una intel·ligència artificial hostil i catàstrofes còsmiques com ara els impactes de meteorits. La incertesa respecte a les últimes conseqüències de l'esdeveniment que desencadenaria la catàstrofe i la probabilitat d'aquest esdeveniment fa que costi quantificar aquests riscos amb exactitud. A més a més, nombrosos biaixos cognitius en compliquen l'anàlisi. Per exemple, com que encara no s'ha produït cap esdeveniment que causi l'extinció de la humanitat o la destrucció completa de la civilització, el fa que se'n subestimi el risc. (ca) Globální rizika (anglicky: global risks či global catastrophic risk) jsou taková rizika, jež svou povahou ohrožují (či ohrozit mohou) životní prostředí a život, ať již jako celek či jeho jednotlivé části, a to v globálním měřítku. Při zkoumání globálních rizik docházíme k poznání, že to, co je pro jeden druh (např. pro člověka) rizikem, může být pro jiný příležitostí. Globální rizika jsou proto většinou posuzována z antropocentrické perspektivy (GR je pak to, co je rizikem pro člověka a jeho blahobyt). Pokud riziko, jež lidstvu hrozí, může způsobit jeho zánik, jedná se o riziko existenční. Jedním z hlavních teoretiků koncepce globálních rizik je Nick Bostrom, profesor filozofie na Oxford University. V knize, editované Bostromem, Globální katastrofická rizika (Global Catastrophic Risks) jsou podchycena ta rizika, jež ohrožují, nebo za určitých okolností ohrozit mohou, lidský blahobyt a udržitelný rozvoj, popř. lidstvo a život na planetě jako celek. Bostrom poukazuje na fakt, že většina druhů, která kdy žila na lidské planetě (přes 99%) vyhynula. Z toho se dá vyvodit, že lidský druh může potkat to samé. Rizika, jež nám hrozí je možné rozdělit podle jejich povahy (příčiny) a to na antropogenní a bez zavinění člověkem, přičemž u některých není zcela zřejmé, jaký na ně má lidská činnost vliv (např. rozsáhlé záplavy u nichž se neví, zda jsou zapříčiněné lidskými zásahy či se jedná o přirozené cykly). Existenční rizika, která by zapříčinila vyhynutí lidského rodu, mohou mít podle některých vědců spíše antropogenní příčinu. Globální rizika mají svůj původ v globálních problémech, jež vznikají z lokálních nebo regionálních příčin a promítají se: ,,do globálních poruch biosféry, my proto potřebujeme řešení jak místní, v regionálním měřítku, ale i v měřítku planety." Otázkou ovšem zůstává, jaké by toto řešení mělo být, jedním z řešení je intenzivní spolupráce a to jak mezi jednotlivými státy, tak mezi různými aktéry na globální úrovni. K podpoře této spolupráce a informovanosti pak slouží zprávy o globálních rizicích. (cs) Existenční riziko (anglicky existential risks) je druh globálního rizika, které může ohrozit existenci lidstva, popř. života v podobě v jaké ho známe, jako celku. Pojem v akademickém prostředí etabloval švédský badatel Nick Bostrom z Oxfordská univerzity. Existenční rizika jsou výzvou pro koncepci udržitelného rozvoje. Uvádí se, že snahy o udržitelnost by měly reflektovat existenční nebezpečí a snažit se spíše o udržitelnou trajektorii a ne o udržitelný stav. (cs) Ein existentielles Risiko für die Menschheit ist ein Ereignis, welches in der Lage ist, auf der Erde entstandenes, intelligentes Leben auszulöschen, oder dessen gewünschte Entwicklung drastisch und permanent einzuschränken. Sie unterscheiden sich von anderen Formen von Risiken sowohl durch ihren umfassenden Wirkungsbereich, als auch ihr enormes Schadensausmaß. Naturkatastrophen wie Supervulkane und Asteroiden können, falls ausreichend mächtig, existentielle Risiken darstellen, wenngleich Ereignisse menschlichen Ursprungs wie beispielsweise Atomkrieg, Bioterrorismus, Künstliche Intelligenz oder katastrophaler Klimawandel ebenfalls das Fortbestehen intelligenten Lebens auf der Erde bedrohen können. Während einzelne Bedrohungen wie Atomkrieg oder Klimawandel intensiv untersucht werden, hat die systematische Analyse existentieller Risiken ungeachtet ihrer enormen Bedeutung erst im Jahre 2002 begonnen. Dies mag auch daran liegen, dass hochgradig interdisziplinäres Wissen zum Erforschen existentieller Risiken notwendig ist. Ein unerwartetes oder sehr unwahrscheinliches Ereignis mit hohem existenziellen Risiko wird als Wild Card bezeichnet. (de) A global catastrophic risk or a doomsday scenario is a hypothetical future event that could damage human well-being on a global scale, even endangering or destroying modern civilization. An event that could cause human extinction or permanently and drastically curtail humanity's potential is known as an "existential risk." Over the last two decades, a number of academic and non-profit organizations have been established to research global catastrophic and existential risks, formulate potential mitigation measures and either advocate for or implement these measures. (en) La noción de riesgo catastrófico global o riesgo de desastre global es introducida en 2008 por el filósofo Nick Bostrom para designar un evento futuro hipotético que tenga el potencial de degradar el bienestar de la mayoría de la humanidad​, por ejemplo, destruyendo la civilización moderna. También había propuesto, ya en 2002, llamar riesgo existencial a un evento que podría causar la extinción de la humanidad o una pérdida permanente del potencial futuro de la humanidad​. (es) Un risque de catastrophe planétaire ou de catastrophe globale est un événement futur hypothétique qui aurait le potentiel de dégrader le bien-être de la majeure partie de l'humanité, par exemple en détruisant la civilisation moderne ; cette notion, introduite par divers auteurs à partir de la fin du xxe siècle, a été théorisée et précisée en 2008 par le philosophe Nick Bostrom, lequel avait proposé également dès 2002 d'appeler risque existentiel un événement qui pourrait causer l’extinction de l'humanité. Parmi les catastrophes planétaires potentielles figurent les changements climatiques, les pandémies et les guerres nucléaires, mais également des risques liés aux nanotechnologies ou à une prise de contrôle par une intelligence artificielle hostile, ainsi que des événements d'origine spatiale tels que des impacts de météorites. Une étude quantitative rigoureuse de ces risques est difficile, en raison de l'incertitude sur les conséquences finales (les enjeux) de l'aléa déclencheur de la catastrophe, et sur la probabilité de cet aléa, et aussi parce que de nombreux biais cognitifs en compliquent l'analyse ; de plus, un évènement ayant pu provoquer l'extinction de l’humanité ou la destruction complète de la civilisation ne s'étant évidemment encore jamais produit, la probabilité qu'il en advienne un est minimisée ; ce phénomène est connu en statistique sous le nom de biais de sélection. Bien que les risques de catastrophe planétaire aient fait l'objet de nombreux scénarios de science-fiction (modernisant souvent des mythes très anciens comme celui de Pandore), et de déclarations alarmistes à partir des années 1950, ce n'est qu’au début du XXIe siècle que divers organismes ont commencé à les étudier systématiquement, en particulier sous l'impulsion des mouvements transhumanistes, et plus récemment, de la collapsologie. (fr) 세계재앙위험(世界災殃危險, 영어: global catastrophic risk) 또는 세계변동위험(世界變動危險)은 세계적 규모의 인간 복지를 손상시킬 잠재력을 가진 가설적 미래의 사건이다. 어떤 사건은 현대 문명을 불구로 만들거나 파괴할 수 있다. 인간 절멸을 초래할 수 있는 모든 사건은 존재 위험(存在危險, existential risk)으로도 알려져 있다. (ko) 地球壊滅リスク(ちきゅうかいめつリスク)は、(英語: modernity )を危機に晒すもしくは破壊する程度の、地球的規模において人類の安寧に損害を及ぼしかねないと仮説される未来の出来事である。特に20世紀の終わりから多くの著者らによって導入された、この概念は、哲学者ニック・ボストロムによって2008年に理論化と精密化がなされた。人類の絶滅や永久的かつ劇的な人類の減少を引き起こしうるものは(人類)存亡リスク (英: existential risk)として知られる。この概念も同様にボストロムにより2002年に呼称を提案された。 潜在的な地球壊滅リスクは人類(の技術、統治、気候変動)によって引き起こされる人為的(英: anthropogenic)リスクと、非人為的もしくは外的リスクを含む。技術的リスクの事例は、と破壊的な生物工学もしくはナノテクノロジーである。 世界大戦のような、社会的かつ政治的領域で不十分なもしくは有害なグローバル・ガバナンスが生み出すリスクは、(英語: nuclear holocaust)、遺伝子組換え生物を使用する(英語: bioterrorism)、電力系統のようなライフラインを破壊するサイバーテロリズム;もしくは自然の感染症の汎流行の管理の失敗である。(英語: earth system governance)の領域における問題とリスクは地球温暖化、種の絶滅を含む自然破壊、 不公平な資源配分の結果としての飢饉、人口過多、凶作及び非持続可能な農業を含む。 非人為的リスクの事例は小惑星の天体衝突、 巨大火山噴火、致死的ガンマ線爆発、電気設備を破壊する磁気嵐、自然の長期的な気候変動、敵性地球外生命、或いは地球を飲み込む太陽の赤色巨星への膨張変形を予想し得る。 (ja) Een existentieel risico voor de mensheid is een gebeurtenis die in staat is al het intelligente leven op aarde uit te roeien of de ontwikkeling van dit type leven permanent en op drastische wijze in zijn verdere ontwikkeling te beperken. Een existentieel risico onderscheidt zich van andere risico's door de reusachtige mogelijke schade voor de mensheid als geheel. Existentiële risico's bestaan uit zeer omvangrijke natuurrampen zoals megavulkanisme en neerstortende planetoïden en uit door mensen veroorzaakte megarampen zoals een kernoorlog, terrorisme met middelen uit de biologische oorlogvoering en een steeds verder doorgaande opwarming van de Aarde. Terwijl klimaatverandering en de bedreigingen van een kernoorlog uitgebreid worden onderzocht, is systematisch onderzoek naar andere existentiële risico's betrekkelijk nieuw en pas sinds 2002 begonnen. Mogelijk komt dit omdat dit type onderzoek samenwerking tussen onderling zeer verschillende wetenschappelijke disciplines vergt. (nl) Globala katastrofrisker är hypotetiska framtida händelser med potentialen att allvarligt skada människors välbefinnande på en global skala. Vissa händelser kan förstöra eller lamslå den moderna civilisationen. En allvarlig händelse som kan orsaka mänskligt utdöende är känd som en existentiell risk. Potentiella globala katastrofrisker inkluderar, men är inte begränsade till artificiell intelligens, nanoteknologiska vapen, klimatförändring, kärnvapenkrig, och pandemier. Forskare upplever svårigheter att studera mänskligt utdöende direkt, eftersom mänskligheten aldrig har utrotats tidigare. Även om detta inte betyder att det inte kommer att ske i framtiden, gör det att modellering av existentiella risker är svåra att genomföra, delvis på grund av överlevnadsbias. (sv) Глобальная катастрофа — событие, которое полностью уничтожает возникшую на Земле разумную жизнь или необратимо ограничивает её потенциал. В принципе, «глобальными катастрофами» могут называться как очень крупные, но не смертельные для человечества катастрофы (вроде гриппа «испанка» и COVID-19), так и те, что ведут к вымиранию человечества; последние философ Ник Бостром (швед. Nick Bostrom) обозначает англоязычными терминами «existential event» или «existential risk»). В данной статье под глобальными катастрофами имеются в виду именно окончательные катастрофы, ведущие к вымиранию человечества. Очевидно, что такие явления ещё ни разу не случались на протяжении истории Земли, иначе бы мы не могли их обсуждать. Колоссальные, но не окончательные катастрофы рассмотрены в статьях «Глобальные проблемы современности» и «». Глобальные катастрофы могут иметь природные или рукотворные причины, а также их сочетание. С момента взрыва первой атомной бомбы всё больше стала возрастать вероятность рукотворной глобальной катастрофы. Сам взрыв атомной бомбы, по субъективной предварительной оценке Бора, мог вызвать детонацию атмосферы с вероятностью в три миллионных. По мере усиления технологий количество возможных причин рукотворной глобальной катастрофы возрастает — см. Техногенная катастрофа. (ru) Um risco catastrófico global é um evento futuro hipotético que pode danificar o bem-estar humano em escala global, inclusive prejudicando ou destruindo a civilização moderna. Um evento que poderia causar a extinção humana ou restringir permanentemente e drasticamente o potencial da humanidade é conhecido como um risco existencial. Os possíveis riscos catastróficos globais incluem riscos antropogênicos, causados por seres humanos (tecnologia, governança, mudanças climáticas) e riscos não antropogênicos ou externos. Exemplos de riscos tecnológicos são e biotecnologia ou nanotecnologia destrutiva. Uma governança global insuficiente ou maligna cria riscos no domínio social e político, como uma guerra global, incluindo holocausto nuclear, bioterrorismo usando organismos geneticamente modificados, ciberterrorismo destruindo infraestruturas críticas como a rede elétrica; ou a falha em gerenciar uma pandemia natural. Problemas e riscos no domínio da incluem aquecimento global, degradação ambiental, incluindo extinção de espécies, fome como resultado de distribuição de recursos, superpopulação humana, falhas de safra e agricultura não sustentável. Exemplos de riscos não antropogênicos são um evento de impacto de asteroide, uma erupção supervulcânica, uma explosão letal de raios gama, uma tempestade geomagnética destruindo equipamentos eletrônicos, mudanças climáticas naturais a longo prazo, vida extraterrestre hostil ou o previsível Sol se transformando em um gigante vermelho estrela engolindo a terra. (pt) 全球災難危機(英語:Global catastrophic risk)是一個假設人類於未來將遭逢全球災難性的事件,導致現代文明毀滅、倒退或衰落的概念,又稱為世界末日。 而任何能讓人類滅絕或永久減損人類發展性的事件,都可稱為人類的生存危機。 潛在的全球災難危機包括各種天災與人禍。其中,天災包括小行星撞擊、超級火山爆發、伽瑪射線暴、氣候變遷、磁暴、瘟疫發生或是全球的電子設備被摧毀等;甚至是外星生命入侵地球,這些事件都可能導致人類滅絕。另外,隨著人類科技發展,例如:人工智慧叛變、、等諸多新科技也都可能引發技術危機。而無能的全球治理政策則可能導致人類社會、政治、經濟等全球系統出現危機,例如:第三次世界大戰爆發,帶來、生物恐怖主義、網路恐怖主義,摧毀各種維生管線(如輸電網絡),同時毀壞人類文明。全球暖化、環境退化、人口過剩等環境、氣候危機,則因全球生態環境系統崩壞而出現,帶來物種滅絕與饑荒。 (zh) Глоба́льна катастро́фа — деструктивна подія глобального масштабу, здатна завдати величезної шкоди навколишньому середовищу, людському виду або планеті Земля. Може відрізнятися як великою швидкістю поширення в географічному сенсі цього слова , так і чинником повільної (прихованої) дії (пандемії). Синонім есхатологічного поняття «кінець світу». (uk)
dbo:thumbnail wiki-commons:Special:FilePath/Impact_event.jpg?width=300
dbo:wikiPageExternalLink http://www.newtechnologyandsociety.org/ https://theprecipice.com/ https://www.gcrpolicy.com/ https://globalchallenges.org/initiatives/analysis-research/reports/ https://longtermrisk.org http://discovermagazine.com/2000/oct/featworld http://www.bbc.com/future/story/20190218-are-we-on-the-road-to-civilisation-collapse https://www.nytimes.com/2022/08/05/opinion/the-case-for-longtermism.html https://www.questia.com/library/book/ https://www.theguardian.com/environment/2020/feb/06/humanity-under-threat-perfect-storm-crises-study-environment https://www.theguardian.com/life/feature/story/0,13026,1458536,00.html
dbo:wikiPageID 21221594 (xsd:integer)
dbo:wikiPageLength 52341 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1120728284 (xsd:integer)
dbo:wikiPageWikiLink dbr:Cambridge_University_Press dbr:Carl_Sagan dbr:Robin_Hanson dbr:Roman_Empire dbr:Electrical_grid dbr:Environmental_degradation dbr:László_Szombatfalvy dbr:Megascale_engineering dbr:Jean-Francois_Rischard dbr:Biological_Weapons_Convention dbr:Black_Death dbr:Defence_in_depth_(non-military) dbr:Derrick_Jensen dbr:Anthropic_principle dbr:Apocalyptic_and_post-apocalyptic_fiction dbr:Holocene_extinction dbr:Human_overpopulation dbr:Huw_Price dbr:List_of_global_issues dbr:Paul_R._Ehrlich dbr:Penguin_Books dbr:Peter_Thiel dbr:Retreat_(survivalism) dbr:Richard_Posner dbr:Cyberterrorism dbr:United_States_Agency_for_International_Development dbr:Vitalik_Buterin dbr:Doomsday_cult dbr:Earth_system_governance dbr:1918_influenza_pandemic dbr:Radical_Evolution dbr:Corey_S._Powell dbr:Cost–benefit_analysis dbr:Genetically_modified_organism dbr:Genus dbr:Geomagnetic_storm dbr:Outside_Context_Problem dbr:Climate_change dbr:Climate_variability_and_change dbr:Club_of_Rome dbr:Cognitive_biases dbr:Eliezer_Yudkowsky dbr:Elon_Musk dbr:Future_of_Earth dbr:Future_of_Humanity_Institute dbr:Future_of_Life_Institute dbr:Gamma-ray_burst dbr:George_Orwell dbr:Global_governance dbr:Good_Ventures dbr:Modernity dbr:Conjunction_fallacy dbr:Critical_infrastructure dbr:The_Limits_to_Growth dbr:The_New_York_Review_of_Books dbr:The_New_York_Times dbr:Millennium_Alliance_for_Humanity_and_the_Biosphere dbr:Lodewijk_Woltjer dbr:Machine_Intelligence_Research_Institute dbr:Malnutrition dbr:Star_Trek dbr:Stephen_Hawking dbr:Steven_Pinker dbr:Community_resilience dbr:Climate_engineering dbr:Joseph_Tainter dbr:Speculative_evolution dbr:Supervolcano dbr:Survivalism dbr:Scope_neglect dbr:BBC dbr:Bryan_Caplan dbr:Center_for_International_Security_and_Cooperation dbr:Center_for_Security_and_Emerging_Technology dbr:Centre_for_the_Study_of_Existential_Risk dbr:Toby_Ord dbr:Types_of_volcanic_eruptions dbr:Harvest dbr:Joel_Garreau dbr:Snowboarding dbr:AI_alignment dbr:E._O._Wilson dbr:Eschatology dbr:Existential_risk_from_artificial_general_intelligence dbr:Extraterrestrial_life dbr:Famine dbr:Foresight_Institute dbr:Nick_Bostrom dbr:Nineteen_Eighty-Four dbr:Nuclear_Threat_Initiative dbr:Overconfidence_effect dbr:Pandemic dbr:Pandemic_prevention dbr:Failed_state dbr:Food_storage dbr:Foresight_(psychology) dbr:Global_Challenges_Foundation dbr:Global_Risks_Report dbr:Global_public_good dbr:Endgame_(Derrick_Jensen_books) dbr:Societal_collapse dbr:Space_colonization dbr:Nuclear_proliferation dbr:Red_giant dbr:The_Precipice:_Existential_Risk_and_the_Future_of_Humanity dbr:Grey_goo dbc:Survivalism dbr:Jaan_Tallinn dbr:Jared_Diamond dbr:The_Guardian dbr:Hyperbolic_discounting dbr:Jed_McCaleb dbr:Jim_Holt_(philosopher) dbr:Social_degeneration dbr:Arctic dbr:Affect_heuristic dbr:John_A._Leslie dbr:K._Eric_Drexler dbr:Lawrence_Livermore_National_Laboratory dbr:Biotechnology dbr:Bioterrorism dbc:Existential_risk dbr:Black_swan_theory dbr:Sun dbr:Svalbard_Global_Seed_Vault dbr:Collapse:_How_Societies_Choose_to_Fail_or_Succeed dbr:Dung_beetles dbr:World_War_III dbr:Donella_Meadows dbr:Doomsday_Clock dbr:Artificial_intelligence_arms_race dbr:Availability_heuristic dbr:Mars dbr:Martin_Rees dbr:Bulletin_of_the_Atomic_Scientists dbr:Planetary_boundaries dbr:Social_development_theory dbr:Sociobiologist dbr:SpaceX dbr:Fermi_paradox dbr:Great_Filter dbr:Human_extinction dbr:Scope_insensitivity dbr:Impact_event dbr:Open_Philanthropy dbr:Cataclysmic_pole_shift_hypothesis dbr:Catastrophe:_Risk_and_Response dbr:World_Health_Organization dbr:World_Scientists'_Warning_to_Humanity dbr:Nuclear_holocaust dbr:The_Sixth_Extinction:_An_Unnatural_History dbr:Extinction dbr:Extinction_event dbr:Extreme_risk dbr:Space_and_survival dbr:Timeline_of_the_far_future dbr:Sustainable_agriculture dbr:Tail_risk dbr:Molecular_nanotechnology dbr:Seth_Baum dbr:New_Society_Publishers dbr:Our_Final_Hour dbr:Rare_events dbr:Ultimate_fate_of_the_universe dbr:Survivalist dbr:S-risks dbr:Future_of_the_Solar_System dbr:Civilization_collapse dbr:Discover_Magazine dbr:Edward_O._Wilson dbr:Survivor_bias dbr:File:Impact_event.jpg dbr:File:X-risk-chart-en-01a.svg
dbp:wikiPageUsesTemplate dbt:Effective_altruism dbt:TED_talk dbt:Authority_control dbt:Citation_needed dbt:Cite_journal dbt:Cite_news dbt:Convert dbt:Div_col dbt:Div_col_end dbt:For_multi dbt:ISBN dbt:Main dbt:Portal_bar dbt:Redirect-multi dbt:Reflist dbt:Sfn dbt:Short_description dbt:Use_American_English dbt:Use_mdy_dates dbt:Wikiquote dbt:Sustainability dbt:Futures_studies dbt:Doomsday dbt:Existential_risk_from_artificial_intelligence
dct:subject dbc:Survivalism dbc:Existential_risk
gold:hypernym dbr:Event
rdf:type owl:Thing yago:CausalAgent100007347 yago:Danger114541044 yago:Hazard114541852 yago:PhysicalEntity100001930 yago:WikicatHazards dbo:SportsEvent
rdfs:comment Existenční riziko (anglicky existential risks) je druh globálního rizika, které může ohrozit existenci lidstva, popř. života v podobě v jaké ho známe, jako celku. Pojem v akademickém prostředí etabloval švédský badatel Nick Bostrom z Oxfordská univerzity. Existenční rizika jsou výzvou pro koncepci udržitelného rozvoje. Uvádí se, že snahy o udržitelnost by měly reflektovat existenční nebezpečí a snažit se spíše o udržitelnou trajektorii a ne o udržitelný stav. (cs) A global catastrophic risk or a doomsday scenario is a hypothetical future event that could damage human well-being on a global scale, even endangering or destroying modern civilization. An event that could cause human extinction or permanently and drastically curtail humanity's potential is known as an "existential risk." Over the last two decades, a number of academic and non-profit organizations have been established to research global catastrophic and existential risks, formulate potential mitigation measures and either advocate for or implement these measures. (en) La noción de riesgo catastrófico global o riesgo de desastre global es introducida en 2008 por el filósofo Nick Bostrom para designar un evento futuro hipotético que tenga el potencial de degradar el bienestar de la mayoría de la humanidad​, por ejemplo, destruyendo la civilización moderna. También había propuesto, ya en 2002, llamar riesgo existencial a un evento que podría causar la extinción de la humanidad o una pérdida permanente del potencial futuro de la humanidad​. (es) 세계재앙위험(世界災殃危險, 영어: global catastrophic risk) 또는 세계변동위험(世界變動危險)은 세계적 규모의 인간 복지를 손상시킬 잠재력을 가진 가설적 미래의 사건이다. 어떤 사건은 현대 문명을 불구로 만들거나 파괴할 수 있다. 인간 절멸을 초래할 수 있는 모든 사건은 존재 위험(存在危險, existential risk)으로도 알려져 있다. (ko) 全球災難危機(英語:Global catastrophic risk)是一個假設人類於未來將遭逢全球災難性的事件,導致現代文明毀滅、倒退或衰落的概念,又稱為世界末日。 而任何能讓人類滅絕或永久減損人類發展性的事件,都可稱為人類的生存危機。 潛在的全球災難危機包括各種天災與人禍。其中,天災包括小行星撞擊、超級火山爆發、伽瑪射線暴、氣候變遷、磁暴、瘟疫發生或是全球的電子設備被摧毀等;甚至是外星生命入侵地球,這些事件都可能導致人類滅絕。另外,隨著人類科技發展,例如:人工智慧叛變、、等諸多新科技也都可能引發技術危機。而無能的全球治理政策則可能導致人類社會、政治、經濟等全球系統出現危機,例如:第三次世界大戰爆發,帶來、生物恐怖主義、網路恐怖主義,摧毀各種維生管線(如輸電網絡),同時毀壞人類文明。全球暖化、環境退化、人口過剩等環境、氣候危機,則因全球生態環境系統崩壞而出現,帶來物種滅絕與饑荒。 (zh) Глоба́льна катастро́фа — деструктивна подія глобального масштабу, здатна завдати величезної шкоди навколишньому середовищу, людському виду або планеті Земля. Може відрізнятися як великою швидкістю поширення в географічному сенсі цього слова , так і чинником повільної (прихованої) дії (пандемії). Синонім есхатологічного поняття «кінець світу». (uk) الخطرُ الكارثيّ العالميّ هو حدثٌ افتراضيٌ مُستَقبليّ يمكن أن يضر بسلامة الإنسان على نطاق عالمي، بل يمكن أن يُهدِّد ويُدمر الحضارة الحديثة. يُعرَف الحدث الذي يمكن أن يسبب انقراض الإنسان أو أن يُقلّص من الإمكانات البشريّة بشكل دائم بأنه خطر وُجودِيّ. (ar) El risc de catàstrofe global és un hipotètic futur esdeveniment que podria danyar el benestar humà en una escala global, fins al punt de destruir o fer un dany irreversible a la . Un esdeveniment que podria causar l' o permanentment i dràsticament el potencial humà és també conegut com a risc existencial. El concepte fou introduït pel filòsof el 2008 per a referir-se a un esdeveniment hipotètic que pugui comprometre el benestar de la majoria de la humanitat, per exemple, destruint la civilització moderna. El 2002, Bostrom ja havia encunyat el terme «risc existencial» per a referir-se a un esdeveniment que pugui provocar l'extinció de la humanitat. El biòleg Stephen Jay Gould, un dels màxims experts mundials en evolució, ha predit que el que aniquilarà el gènere humà serà precisament la no (ca) Globální rizika (anglicky: global risks či global catastrophic risk) jsou taková rizika, jež svou povahou ohrožují (či ohrozit mohou) životní prostředí a život, ať již jako celek či jeho jednotlivé části, a to v globálním měřítku. Při zkoumání globálních rizik docházíme k poznání, že to, co je pro jeden druh (např. pro člověka) rizikem, může být pro jiný příležitostí. Globální rizika jsou proto většinou posuzována z antropocentrické perspektivy (GR je pak to, co je rizikem pro člověka a jeho blahobyt). Pokud riziko, jež lidstvu hrozí, může způsobit jeho zánik, jedná se o riziko existenční. (cs) Ein existentielles Risiko für die Menschheit ist ein Ereignis, welches in der Lage ist, auf der Erde entstandenes, intelligentes Leben auszulöschen, oder dessen gewünschte Entwicklung drastisch und permanent einzuschränken. Sie unterscheiden sich von anderen Formen von Risiken sowohl durch ihren umfassenden Wirkungsbereich, als auch ihr enormes Schadensausmaß. Naturkatastrophen wie Supervulkane und Asteroiden können, falls ausreichend mächtig, existentielle Risiken darstellen, wenngleich Ereignisse menschlichen Ursprungs wie beispielsweise Atomkrieg, Bioterrorismus, Künstliche Intelligenz oder katastrophaler Klimawandel ebenfalls das Fortbestehen intelligenten Lebens auf der Erde bedrohen können. (de) Un risque de catastrophe planétaire ou de catastrophe globale est un événement futur hypothétique qui aurait le potentiel de dégrader le bien-être de la majeure partie de l'humanité, par exemple en détruisant la civilisation moderne ; cette notion, introduite par divers auteurs à partir de la fin du xxe siècle, a été théorisée et précisée en 2008 par le philosophe Nick Bostrom, lequel avait proposé également dès 2002 d'appeler risque existentiel un événement qui pourrait causer l’extinction de l'humanité. (fr) 地球壊滅リスク(ちきゅうかいめつリスク)は、(英語: modernity )を危機に晒すもしくは破壊する程度の、地球的規模において人類の安寧に損害を及ぼしかねないと仮説される未来の出来事である。特に20世紀の終わりから多くの著者らによって導入された、この概念は、哲学者ニック・ボストロムによって2008年に理論化と精密化がなされた。人類の絶滅や永久的かつ劇的な人類の減少を引き起こしうるものは(人類)存亡リスク (英: existential risk)として知られる。この概念も同様にボストロムにより2002年に呼称を提案された。 非人為的リスクの事例は小惑星の天体衝突、 巨大火山噴火、致死的ガンマ線爆発、電気設備を破壊する磁気嵐、自然の長期的な気候変動、敵性地球外生命、或いは地球を飲み込む太陽の赤色巨星への膨張変形を予想し得る。 (ja) Een existentieel risico voor de mensheid is een gebeurtenis die in staat is al het intelligente leven op aarde uit te roeien of de ontwikkeling van dit type leven permanent en op drastische wijze in zijn verdere ontwikkeling te beperken. Een existentieel risico onderscheidt zich van andere risico's door de reusachtige mogelijke schade voor de mensheid als geheel. Existentiële risico's bestaan uit zeer omvangrijke natuurrampen zoals megavulkanisme en neerstortende planetoïden en uit door mensen veroorzaakte megarampen zoals een kernoorlog, terrorisme met middelen uit de biologische oorlogvoering en een steeds verder doorgaande opwarming van de Aarde. (nl) Globala katastrofrisker är hypotetiska framtida händelser med potentialen att allvarligt skada människors välbefinnande på en global skala. Vissa händelser kan förstöra eller lamslå den moderna civilisationen. En allvarlig händelse som kan orsaka mänskligt utdöende är känd som en existentiell risk. Potentiella globala katastrofrisker inkluderar, men är inte begränsade till artificiell intelligens, nanoteknologiska vapen, klimatförändring, kärnvapenkrig, och pandemier. (sv) Um risco catastrófico global é um evento futuro hipotético que pode danificar o bem-estar humano em escala global, inclusive prejudicando ou destruindo a civilização moderna. Um evento que poderia causar a extinção humana ou restringir permanentemente e drasticamente o potencial da humanidade é conhecido como um risco existencial. (pt) Глобальная катастрофа — событие, которое полностью уничтожает возникшую на Земле разумную жизнь или необратимо ограничивает её потенциал. В принципе, «глобальными катастрофами» могут называться как очень крупные, но не смертельные для человечества катастрофы (вроде гриппа «испанка» и COVID-19), так и те, что ведут к вымиранию человечества; последние философ Ник Бостром (швед. Nick Bostrom) обозначает англоязычными терминами «existential event» или «existential risk»). В данной статье под глобальными катастрофами имеются в виду именно окончательные катастрофы, ведущие к вымиранию человечества. Очевидно, что такие явления ещё ни разу не случались на протяжении истории Земли, иначе бы мы не могли их обсуждать. Колоссальные, но не окончательные катастрофы рассмотрены в статьях «Глобальные проб (ru)
rdfs:label Global catastrophic risk (en) خطر كارثي عالمي (ar) Risc de catàstrofe global (ca) Existenční riziko (cs) Globální riziko (cs) Existentielles Risiko (de) Riesgos catastróficos globales (es) Risque de catastrophe planétaire (fr) 세계재앙위험 (ko) 地球壊滅リスク (ja) Existentieel risico (nl) Глобальная катастрофа (ru) Risco catastrófico global (pt) Globala katastrofrisker (sv) Глобальна катастрофа (uk) 全球災難危機 (zh)
owl:sameAs freebase:Global catastrophic risk yago-res:Global catastrophic risk wikidata:Global catastrophic risk wikidata:Global catastrophic risk dbpedia-ar:Global catastrophic risk dbpedia-ca:Global catastrophic risk dbpedia-cs:Global catastrophic risk dbpedia-cs:Global catastrophic risk dbpedia-de:Global catastrophic risk dbpedia-es:Global catastrophic risk dbpedia-et:Global catastrophic risk dbpedia-fa:Global catastrophic risk dbpedia-fr:Global catastrophic risk dbpedia-he:Global catastrophic risk http://hy.dbpedia.org/resource/Աշխարհի_վերջ dbpedia-ja:Global catastrophic risk http://jv.dbpedia.org/resource/Kiyamat dbpedia-kk:Global catastrophic risk dbpedia-ko:Global catastrophic risk dbpedia-nl:Global catastrophic risk dbpedia-pt:Global catastrophic risk dbpedia-ru:Global catastrophic risk dbpedia-sk:Global catastrophic risk dbpedia-sv:Global catastrophic risk http://ta.dbpedia.org/resource/மனித_முடிவு_சாத்தியக்கூறு_காரணிகள் dbpedia-th:Global catastrophic risk dbpedia-tr:Global catastrophic risk dbpedia-uk:Global catastrophic risk dbpedia-vi:Global catastrophic risk dbpedia-zh:Global catastrophic risk https://global.dbpedia.org/id/XUuf
prov:wasDerivedFrom wikipedia-en:Global_catastrophic_risk?oldid=1120728284&ns=0
foaf:depiction wiki-commons:Special:FilePath/Impact_event.jpg wiki-commons:Special:FilePath/X-risk-chart-en-01a.svg
foaf:isPrimaryTopicOf wikipedia-en:Global_catastrophic_risk
is dbo:nonFictionSubject of dbr:Global_Catastrophic_Risks_(book)
is dbo:wikiPageDisambiguates of dbr:GCR
is dbo:wikiPageRedirects of dbr:Civilization_Collapse dbr:Future_of_humanity dbr:Global_catastrophic_risks dbr:Causes_of_human_extinction dbr:Risks_to_civilization,_humans,_and_planet_Earth dbr:Risks_to_civilization,_humans_and_planet_Earth dbr:Global_existential_threat dbr:End_of_Civilization dbr:End_of_civilisation dbr:End_of_civilization dbr:End_of_human_civilization dbr:End_of_human_race dbr:End_of_mankind dbr:End_of_the_Civilization dbr:End_of_the_human_civilization dbr:End_of_the_mankind dbr:End_of_the_world_(civilization) dbr:World-ending_event dbr:Risks_to_civilisation,_humans_and_planet_Earth dbr:Hypothetical_Disaster dbr:Hypothetical_disaster dbr:Hazards_to_civilization dbr:Hazards_to_earth dbr:Fate_of_Humanity dbr:Fate_of_humanity dbr:Artificial_intelligence_as_a_global_catastrophic_risk dbr:Civilization_extinction dbr:Civilization_threats dbr:Doomsday_Scenario dbr:Doomsday_event dbr:Doomsday_scenario dbr:Doomsday_scenarios dbr:Human_extinction_risk dbr:Human_extinction_scenario dbr:Human_extinction_scenarios dbr:Global_Catastrophic_Risks dbr:Global_annihilation dbr:Global_catastrophe dbr:Global_catastrophes dbr:Global_crisis dbr:Global_killer dbr:Threats_to_humanity dbr:Threats_to_humankind dbr:Collapse_of_civilisation dbr:Collapse_of_civilization dbr:Post-Apocalyptic_scenarios dbr:Potential_threats_to_humanity dbr:Existensial_risk dbr:Existential_catastrophe dbr:Existential_risk dbr:Existential_risks dbr:Existential_risks_to_civilization,_humans_and_the_planet dbr:Existential_threat dbr:Extinction-level_threat dbr:Ways_astronomical_events_could_wipe_out_life_on_Earth dbr:X-risk
is dbo:wikiPageWikiLink of dbr:Cataclysm:_Dark_Days_Ahead dbr:Potentially_hazardous_object dbr:Presidency_of_Barack_Obama dbr:End_time dbr:List_of_apocalyptic_and_post-apocalyptic_fiction dbr:List_of_apocalyptic_films dbr:List_of_environmental_books dbr:Metascience dbr:László_Szombatfalvy dbr:Megatrend dbr:Professor_A._Dońda dbr:2012 dbr:Ben_Delo dbr:Defence_in_depth_(non-military) dbr:Apocalyptic_and_post-apocalyptic_fiction dbr:Johns_Hopkins_Center_for_Health_Security dbr:List_of_dates_predicted_for_apocalyptic_events dbr:List_of_global_issues dbr:Ultraman_Gaia dbr:United_Nations_Ocean_Conference dbr:Uranium_mining dbr:Utilitarianism dbr:Dead_Man's_Diary dbr:Defence_in_depth dbr:Earth_Changes dbr:International_security dbr:Natural_hazard dbr:Year_2000_problem dbr:Lev_Navrozov dbr:GCR dbr:List_of_natural_disasters_by_death_toll dbr:Nuclear_famine dbr:Nuclear_weapons_debate dbr:Norse_mythology_in_popular_culture dbr:What_We_Owe_the_Future dbr:Contagion_(2011_film) dbr:Countdown_to_Looking_Glass dbr:Salt_and_Fire dbr:Transhumanism dbr:Civilization_Collapse dbr:Club_of_Rome dbr:Effects_of_climate_change dbr:Frank_Wilczek dbr:Friend_of_the_World dbr:Future_of_Humanity_Institute dbr:Future_of_Life_Institute dbr:Future_of_humanity dbr:Futures_studies dbr:Gain_Ground dbr:Global_catastrophic_risks dbr:Glossary_of_artificial_intelligence dbr:Gray_goo dbr:Mylène_Farmer dbr:Contemporary_history dbr:Corona_(song) dbr:Crisis_situations_and_unrest_in_Europe_since_2000 dbr:The_Rational_Optimist dbr:The_Umbrella_Academy_(TV_series) dbr:2018_United_Nations_Climate_Change_Conference dbr:2013 dbr:Apocalypse dbr:Apocalypticism dbr:Lifeboat_Foundation dbr:List_of_Beast_Wars_episodes dbr:Lucie_Green dbr:Climate_apocalypse dbr:Climate_endgame dbr:Dennis_E._Taylor dbr:Zatch_Bell!_(season_3) dbr:Zdzisław_Beksiński dbr:Fear dbr:Features_of_the_Marvel_Cinematic_Universe dbr:Feeding_Everyone_No_Matter_What dbr:Pessimism_porn dbr:Population_ethics dbr:Spaceship_Earth dbr:Speculative_evolution dbr:Survivalism dbr:Tama-chan dbr:Technology dbr:Mats_Andersson_(financier) dbr:Causes_of_human_extinction dbr:Timelapse_of_the_Future dbr:Tonight_the_Stars_Revolt! dbr:WALL-E dbr:War_poet dbr:HIV-affected_community dbr:Late_Ordovician_mass_extinction dbr:Lois_Lane dbr:Stability_of_the_Solar_System dbr:21st_century dbr:An_der_Zeitmauer dbr:Anders_Sandberg dbr:Existential_risk_from_artificial_general_intelligence dbr:Existentialism dbr:False_vacuum_decay dbr:Famine dbr:Brief_Answers_to_the_Big_Questions dbr:Nicholas_Georgescu-Roegen dbr:Nick_Bostrom dbr:Nuclear_Threat_Initiative dbr:Nuclear_power dbr:Nuclear_warfare dbr:Parthasarathi_Chakraborty dbr:Disappearing_polymorphs dbr:Disaster_risk_reduction dbr:Falter:_Has_the_Human_Game_Begun_to_Play_Itself_Out? dbr:Fantasy_cartography dbr:Global_Catastrophic_Risks_(book) dbr:Global_Challenges_Foundation dbr:Global_catastrophe_scenarios dbr:Globalization_and_disease dbr:Doomsday dbr:Kelsey_Piper dbr:Second_American_Civil_War dbr:Societal_collapse dbr:Space_colonization dbr:Nanopunk dbr:The_Precipice:_Existential_Risk_and_the_Future_of_Humanity dbr:Hilbrand_J._Groenewold dbr:James_Ferraro dbr:Jason_Gaverick_Matheny dbr:TechnoCalyps dbr:The_Age_of_Stupid dbr:The_Amazing_World_of_Gumball_(season_1) dbr:Hypercane dbr:Societal_impact_of_nanotechnology dbr:Risks_to_civilization,_humans,_and_planet_Earth dbr:Risks_to_civilization,_humans_and_planet_Earth dbr:Artificial_intelligence dbr:Asteroid_impact_avoidance dbr:AI_takeover dbr:Last_Days_on_Earth dbr:Last_Night_(1998_film) dbr:Biotechnology_risk dbr:Sultan_Bashiruddin_Mahmood dbr:Collapse:_How_Societies_Choose_to_Fail_or_Succeed dbr:Effective_altruism dbr:Ego_the_Living_Planet dbr:The_Alignment_Problem dbr:Don't_Look_Up dbr:Doomsday_Clock dbr:Doomsday_argument dbr:Planetary_boundaries dbr:Great_Filter dbr:Human_extinction dbr:Human_impact_on_the_environment dbr:Global_existential_threat dbr:End_of_Civilization dbr:End_of_civilisation dbr:End_of_civilization dbr:End_of_human_civilization dbr:End_of_human_race dbr:End_of_mankind dbr:End_of_the_Civilization dbr:End_of_the_human_civilization dbr:End_of_the_mankind dbr:End_of_the_world_(civilization) dbr:New_Wave_science_fiction dbr:Olle_Häggström dbr:Open_Philanthropy_(organization) dbr:Cataclysmic_pole_shift_hypothesis dbr:Catastrophes_in_popular_culture dbr:Seeking_a_Friend_for_the_End_of_the_World dbr:World_of_Weird dbr:Yew-Kwang_Ng dbr:Nuclear_holocaust dbr:Longtermism dbr:Risk dbr:The_Sixth_Extinction:_An_Unnatural_History dbr:Extinction_event dbr:Extinction_risk_from_climate_change dbr:Extreme_risk dbr:Impact_of_the_COVID-19_pandemic_on_children dbr:List_of_sovereign_states_and_dependent_territories_by_birth_rate dbr:Tail_risk dbr:Suffering_risks dbr:Male_infertility_crisis dbr:Scooby_Apocalypse dbr:Twin_films dbr:Molecular_nanotechnology dbr:Seth_Baum dbr:Requiem_for_a_Species dbr:The_Silent_Age dbr:Outline_of_Earth dbr:Outline_of_death dbr:The_Revenge_of_Gaia dbr:Shadowverse_(TV_series) dbr:Risk_communication dbr:World-ending_event dbr:Superstruct dbr:Risks_to_civilisation,_humans_and_planet_Earth dbr:Hypothetical_Disaster dbr:Hypothetical_disaster dbr:Hazards_to_civilization dbr:Hazards_to_earth dbr:Fate_of_Humanity dbr:Fate_of_humanity dbr:Artificial_intelligence_as_a_global_catastrophic_risk dbr:Civilization_extinction dbr:Civilization_threats dbr:Doomsday_Scenario dbr:Doomsday_event dbr:Doomsday_scenario dbr:Doomsday_scenarios dbr:Human_extinction_risk dbr:Human_extinction_scenario dbr:Human_extinction_scenarios dbr:Global_Catastrophic_Risks dbr:Global_annihilation dbr:Global_catastrophe dbr:Global_catastrophes dbr:Global_crisis dbr:Global_killer dbr:Threats_to_humanity dbr:Threats_to_humankind dbr:Collapse_of_civilisation dbr:Collapse_of_civilization dbr:Post-Apocalyptic_scenarios dbr:Potential_threats_to_humanity dbr:Existensial_risk dbr:Existential_catastrophe dbr:Existential_risk dbr:Existential_risks dbr:Existential_risks_to_civilization,_humans_and_the_planet dbr:Existential_threat dbr:Extinction-level_threat dbr:Ways_astronomical_events_could_wipe_out_life_on_Earth dbr:X-risk
is dbp:focus of dbr:Nuclear_Threat_Initiative
is dbp:subjects of dbr:Falter:_Has_the_Human_Game_Begun_to_Play_Itself_Out?
is rdfs:seeAlso of dbr:Earth dbr:Nicholas_Georgescu-Roegen dbr:Civilization dbr:Fermi_paradox
is foaf:primaryTopic of wikipedia-en:Global_catastrophic_risk