Machine Intelligence Research Institute (original) (raw)
The Machine Intelligence Research Institute (MIRI), formerly the Singularity Institute for Artificial Intelligence (SIAI), is a non-profit research institute focused since 2005 on identifying and managing potential existential risks from artificial general intelligence. MIRI's work has focused on a friendly AI approach to system design and on predicting the rate of technology development.
Property | Value |
---|---|
dbo:abstract | El Instituto de Investigación de la Inteligencia de las Máquinas (de la sigla en inglés MIRI), anteriormente el Instituto de la Singularidad para la Inteligencia Artificial (SIAI), es una organización sin fines de lucro fundada en 2000 para investigar asuntos de seguridad relacionados con el desarrollo de IA Fuerte. Nate Soares es el director ejecutivo, habiendo tomado el control de Luke Muehlhauser en mayo de 2015. La agenda técnica de MIRI establece que se necesitan nuevas herramientas formales para asegurar la operación segura de las futuras generaciones de software de IA (inteligencia artificial amigable). La organización organiza talleres de investigación regulares para desarrollar bases matemáticas para este proyecto, y ha sido citado como uno de varios grupos académicos y sin fines de lucro que estudian los resultados de la IA a largo plazo. (es) The Machine Intelligence Research Institute (MIRI), formerly the Singularity Institute for Artificial Intelligence (SIAI), is a non-profit research institute focused since 2005 on identifying and managing potential existential risks from artificial general intelligence. MIRI's work has focused on a friendly AI approach to system design and on predicting the rate of technology development. (en) Le Machine Intelligence Research Institute, ou MIRI (anciennement Singularity Institute for Artificial Intelligence ou SIAI, l'Institut a changé de nom en 2013 pour ne pas être confondu avec la Singularity University) est une association à but non lucratif fondée en 2000 spécialisée dans l'intelligence artificielle, dont le but est de faire connaître les dangers et intérêts potentiels que l'intelligence artificielle pourra apporter dans le futur. L'organisation s'inspire fortement des idées avancées par le concept de la singularité technologique, qui - selon les prédictions - devrait suivre l'arrivée d'une forme d'intelligence artificielle avancée. Selon eux, les risques potentiels apportés par un tel concept nécessiterait des recherches approfondies et une forme de prévention afin de limiter toute forme de danger pour l'humanité. Le Singularity Institute épouse les idées du modèle AI amicale créé par son codirigeant Eliezer Yudkowsky en tant que solution potentielle à ce genre de problèmes. Luke Muehlhauser est le directeur exécutif. Ray Kurzweil, auteur, ingénieur, chercheur, et futurologue, a été directeur de l'institut entre 2007 et 2010. L'institut possède un conseil général, ses membres principaux sont Nick Bostrom, Aubrey de Grey, Peter Thiel, et Christine Peterson. Il existe une branche au Canada, SIAI-CA, formée en 2004. (fr) Machine Intelligence Research Institute (MIRI; ранее — Singularity Institute и Singularity Institute for Artificial Intelligence) — некоммерческая организация, основной целью которой является создание безопасного искусственного интеллекта, а также изучение потенциальных опасностей и возможностей, которые могут появиться при создании ИИ. Организация поддерживает идеи, первоначально выдвинутые Ирвингом Гудом и Вернором Винджем, касательно «интеллектуального взрыва» или сингулярности, и идеи Елиезера Юдковски о создании дружественного ИИ. Юдковски исследует в Институте сингулярности в США проблемы глобального риска, которые может создать будущий сверхчеловеческий ИИ, если его не запрограммировать на дружественность к человеку. С 2007 по 2010 год одним из директоров организации был изобретатель и футуролог Рей Курцвейл. В штате консультантов организации — оксфордский философ Ник Бостром, геронтолог Обри ди Грей, соучредитель PayPal Питер Тиль, и сооснователь Foresight Nanotech Institute Кристина Пэтерсон. Организация имеет представительства в США и Канаде. (ru) Machine Intelligence Research Institute (MIRI), tidigare Singularity Institute for Artificial Intelligence (SIAI), är en ideell organisation som grundades år 2000 för att forska om säkerhetsfrågor som rör utvecklingen av stark AI (Artificiell generell intelligens). Nate Soares är den nuvarande verkställande direktören, efter att ha tagit över från Luke Muehlhauser i maj, 2015. MIRI tekniska agenda hävdar att nya formella verktyg behövs för att garantera en säker drift av framtida generationer av AI programvara (vänlig artificiell intelligens). (sv) Machine Intelligence Research Institute (MIRI, науково-дослідний інститут машинного інтелекту) (колишня назва — The Singularity Institute for Artificial Intelligence (SIAI, Інститут сингулярності)) — некомерційна організація, основною метою якої є створення безпечного штучного інтелекту (ШІ), а також вивчення потенційних небезпек і можливостей, які можуть з'явиться при створенні ШІ. Організація підтримує ідеї, спочатку висунуті I. J. Good і Вернором Вінджем, відносно «інтелектуального вибуху» або сингулярності, і ідеї Елізера Юдковського про створення дружнього ШІ. Юдковскі досліджує в Інституті сингулярності в США проблеми глобального ризику, які може створити майбутній надлюдський ШІ, якщо його не запрограмувати на дружність до людини. Одним із директорів організації є винахідник і футуролог Рей Курцвейл. У штаті консультантів організації є оксфордський філософ Нік Бостром, геронтолог , співзасновник PayPal Пітер Тіль і співзасновник . Організація має представництва в США й Канаді. (uk) |
dbo:keyPerson | dbr:Eliezer_Yudkowsky |
dbo:location | dbr:Berkeley,_California |
dbo:purpose | Research intofriendly artificial intelligenceand theAI control problem |
dbo:thumbnail | wiki-commons:Special:FilePath/MIRI_logo.png?width=300 |
dbo:type | dbr:Nonprofit |
dbo:wikiPageExternalLink | https://intelligence.org/files/AIPosNegFactor.pdf https://intelligence.org/files/ComplexValues.pdf http://www.aaai.org/ocs/index.php/WS/AAAIW14/paper/viewFile/8833/8294 https://intelligence.org/files/DeathInDamascus.pdf https://intelligence.org/files/TechnicalAgenda.pdf https://www.aaai.org/ocs/index.php/WS/AAAIW16/paper/view/12613 http://intelligence.org/ https://www.skeptic.com/reading_room/why-we-should-be-concerned-about-artificial-superintelligence/ http://aaai.org/ocs/index.php/WS/AAAIW15/paper/view/10124/10136 |
dbo:wikiPageID | 732167 (xsd:integer) |
dbo:wikiPageLength | 16350 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1123906212 (xsd:integer) |
dbo:wikiPageWikiLink | dbr:San_Francisco_Chronicle dbc:Transhumanist_organizations dbr:Berkeley,_California dbc:Artificial_intelligence_associations dbr:Peter_Thiel dbr:Vitalik_Buterin dbc:2000_establishments_in_California dbr:Eliezer_Yudkowsky dbr:Future_of_Humanity_Institute dbr:Singularity_Summit dbr:Singularity_University dbr:Stanford_University dbr:Friendly_artificial_intelligence dbc:501(c)(3)_organizations dbr:AI_control_problem dbr:Allen_Institute_for_Artificial_Intelligence dbr:Ethereum dbr:Non-profit_organization dbr:Nonprofit dbc:Bay_Area_Rationalists dbr:File:MIRI_logo.png dbr:Research_institute dbr:Singularitarianism dbr:Artificial_intelligence dbc:Existential_risk_from_artificial_general_intelligence dbc:Organizations_established_in_2000 dbc:Singularitarianism dbc:Organizations_associated_with_effective_altruism dbc:Research_institutes_in_California dbr:Effective_altruism dbc:Existential_risk_organizations dbr:Institute_for_Ethics_and_Emerging_Technologies dbr:Open_Philanthropy_(organization) dbr:Ray_Kurzweil dbr:Superintelligence dbr:Existential_risks_from_artificial_general_intelligence dbr:File:Eliezer_Yudkowsky,_Stanford_2006_(square_crop).jpg dbr:File:Nate_Soares_giving_a_talk_at_Google.gk.jpg |
dbp:keyPeople | dbr:Eliezer_Yudkowsky |
dbp:location | dbr:Berkeley,_California |
dbp:purpose | Research into friendly artificial intelligence and the AI control problem (en) |
dbp:type | dbr:Nonprofit dbr:Research_institute |
dbp:wikiPageUsesTemplate | dbt:Effective_altruism dbt:Cite_book dbt:Cite_conference dbt:Cite_journal dbt:Cite_web dbt:Infobox_organization dbt:Redirect-distinguish dbt:Reflist dbt:Rp dbt:Short_description dbt:Start_date_and_age dbt:Url dbt:Existential_risk_from_artificial_intelligence dbt:LessWrong |
dct:subject | dbc:Transhumanist_organizations dbc:Artificial_intelligence_associations dbc:2000_establishments_in_California dbc:501(c)(3)_organizations dbc:Bay_Area_Rationalists dbc:Existential_risk_from_artificial_general_intelligence dbc:Organizations_established_in_2000 dbc:Singularitarianism dbc:Organizations_associated_with_effective_altruism dbc:Research_institutes_in_California dbc:Existential_risk_organizations |
gold:hypernym | dbr:Organization |
rdf:type | owl:Thing schema:Organization dul:Agent dul:SocialPerson dbo:Agent wikidata:Q24229398 wikidata:Q43229 yago:WikicatArtificialIntelligenceAssociations yago:Abstraction100002137 yago:Association108049401 yago:Group100031264 yago:Organization108008335 yago:YagoLegalActor yago:YagoLegalActorGeo yago:YagoPermanentlyLocatedEntity dbo:Organisation yago:SocialGroup107950920 |
rdfs:comment | The Machine Intelligence Research Institute (MIRI), formerly the Singularity Institute for Artificial Intelligence (SIAI), is a non-profit research institute focused since 2005 on identifying and managing potential existential risks from artificial general intelligence. MIRI's work has focused on a friendly AI approach to system design and on predicting the rate of technology development. (en) Machine Intelligence Research Institute (MIRI), tidigare Singularity Institute for Artificial Intelligence (SIAI), är en ideell organisation som grundades år 2000 för att forska om säkerhetsfrågor som rör utvecklingen av stark AI (Artificiell generell intelligens). Nate Soares är den nuvarande verkställande direktören, efter att ha tagit över från Luke Muehlhauser i maj, 2015. MIRI tekniska agenda hävdar att nya formella verktyg behövs för att garantera en säker drift av framtida generationer av AI programvara (vänlig artificiell intelligens). (sv) El Instituto de Investigación de la Inteligencia de las Máquinas (de la sigla en inglés MIRI), anteriormente el Instituto de la Singularidad para la Inteligencia Artificial (SIAI), es una organización sin fines de lucro fundada en 2000 para investigar asuntos de seguridad relacionados con el desarrollo de IA Fuerte. Nate Soares es el director ejecutivo, habiendo tomado el control de Luke Muehlhauser en mayo de 2015. (es) Le Machine Intelligence Research Institute, ou MIRI (anciennement Singularity Institute for Artificial Intelligence ou SIAI, l'Institut a changé de nom en 2013 pour ne pas être confondu avec la Singularity University) est une association à but non lucratif fondée en 2000 spécialisée dans l'intelligence artificielle, dont le but est de faire connaître les dangers et intérêts potentiels que l'intelligence artificielle pourra apporter dans le futur. L'organisation s'inspire fortement des idées avancées par le concept de la singularité technologique, qui - selon les prédictions - devrait suivre l'arrivée d'une forme d'intelligence artificielle avancée. Selon eux, les risques potentiels apportés par un tel concept nécessiterait des recherches approfondies et une forme de prévention afin de limi (fr) Machine Intelligence Research Institute (MIRI; ранее — Singularity Institute и Singularity Institute for Artificial Intelligence) — некоммерческая организация, основной целью которой является создание безопасного искусственного интеллекта, а также изучение потенциальных опасностей и возможностей, которые могут появиться при создании ИИ. Организация поддерживает идеи, первоначально выдвинутые Ирвингом Гудом и Вернором Винджем, касательно «интеллектуального взрыва» или сингулярности, и идеи Елиезера Юдковски о создании дружественного ИИ. Юдковски исследует в Институте сингулярности в США проблемы глобального риска, которые может создать будущий сверхчеловеческий ИИ, если его не запрограммировать на дружественность к человеку. (ru) Machine Intelligence Research Institute (MIRI, науково-дослідний інститут машинного інтелекту) (колишня назва — The Singularity Institute for Artificial Intelligence (SIAI, Інститут сингулярності)) — некомерційна організація, основною метою якої є створення безпечного штучного інтелекту (ШІ), а також вивчення потенційних небезпек і можливостей, які можуть з'явиться при створенні ШІ. Організація підтримує ідеї, спочатку висунуті I. J. Good і Вернором Вінджем, відносно «інтелектуального вибуху» або сингулярності, і ідеї Елізера Юдковського про створення дружнього ШІ. Юдковскі досліджує в Інституті сингулярності в США проблеми глобального ризику, які може створити майбутній надлюдський ШІ, якщо його не запрограмувати на дружність до людини. (uk) |
rdfs:label | Instituto de Investigación de la Inteligencia de las Máquinas (es) Machine Intelligence Research Institute (fr) Machine Intelligence Research Institute (en) Machine Intelligence Research Institute (ru) Machine Intelligence Research Institute (sv) Machine Intelligence Research Institute (uk) |
owl:differentFrom | dbr:Singularity_University |
owl:sameAs | freebase:Machine Intelligence Research Institute yago-res:Machine Intelligence Research Institute wikidata:Machine Intelligence Research Institute dbpedia-es:Machine Intelligence Research Institute dbpedia-fr:Machine Intelligence Research Institute dbpedia-ru:Machine Intelligence Research Institute dbpedia-sv:Machine Intelligence Research Institute dbpedia-uk:Machine Intelligence Research Institute https://global.dbpedia.org/id/wjfg |
skos:closeMatch | http://www.grid.ac/institutes/grid.466881.5 |
prov:wasDerivedFrom | wikipedia-en:Machine_Intelligence_Research_Institute?oldid=1123906212&ns=0 |
foaf:depiction | wiki-commons:Special:FilePath/MIRI_logo.png wiki-commons:Special:FilePath/Nate_Soares_giving_a_talk_at_Google.gk.jpg wiki-commons:Special:FilePath/Eliezer_Yudkowsky,_Stanford_2006_(square_crop).jpg |
foaf:isPrimaryTopicOf | wikipedia-en:Machine_Intelligence_Research_Institute |
is dbo:wikiPageDisambiguates of | dbr:Miri_(disambiguation) |
is dbo:wikiPageRedirects of | dbr:Luke_Muehlhauser dbr:Katja_Grace dbr:Singularity_Institute dbr:Singularity_Institute_for_Artificial_Intelligence dbr:Nate_Soares dbr:Tyler_Emerson |
is dbo:wikiPageWikiLink of | dbr:Roman_Yampolskiy dbr:Miri_(disambiguation) dbr:Ben_Goertzel dbr:José_Luis_Cordeiro dbr:Peter_Thiel dbr:Vitalik_Buterin dbr:Positive_computing dbr:Quantum_Bayesianism dbr:Eliezer_Yudkowsky dbr:Future_of_Humanity_Institute dbr:Future_of_Life_Institute dbr:Futures_studies dbr:Leverhulme_Centre_for_the_Future_of_Intelligence dbr:Luke_Muehlhauser dbr:Singularity_Summit dbr:Steve_Omohundro dbr:Friendly_artificial_intelligence dbr:Roko's_basilisk dbr:Machine_ethics dbr:Maes–Garreau_law dbr:Center_for_Human-Compatible_Artificial_Intelligence dbr:Centre_for_the_Study_of_Existential_Risk dbr:Allen_Institute_for_AI dbr:Existential_risk_from_artificial_general_intelligence dbr:Nick_Bostrom dbr:Global_catastrophic_risk dbr:Jaan_Tallinn dbr:Counter-apologetics dbr:Courtier's_reply dbr:Jed_McCaleb dbr:Singularitarianism dbr:Effective_altruism dbr:Thiel_Foundation dbr:Philosophy_of_artificial_intelligence dbr:Instrumental_convergence dbr:MetaMed dbr:OpenAI dbr:OpenCog dbr:Raising_for_Effective_Giving dbr:Ray_Kurzweil dbr:SIAI dbr:Singularity dbr:Technological_singularity dbr:Ethics_of_artificial_intelligence dbr:Superintelligence dbr:Evidence-based_policy dbr:Outline_of_artificial_intelligence dbr:Universal_Paperclips dbr:Katja_Grace dbr:Singularity_Institute dbr:Singularity_Institute_for_Artificial_Intelligence dbr:Nate_Soares dbr:Tyler_Emerson |
is dbp:organization of | dbr:Eliezer_Yudkowsky |
is rdfs:seeAlso of | dbr:Eliezer_Yudkowsky |
is foaf:primaryTopic of | wikipedia-en:Machine_Intelligence_Research_Institute |