Explainable artificial intelligence (original) (raw)
説明可能なAI(せつめいかのうなエーアイ、英語: Explainable artificial intelligence、略称XAI )またはAIを説明するための技術は、人工知能 (AI) が導き出した答えに対して、人間が納得できる根拠を示すための技術である。特定の技術やツールを指し示す言葉ではなく、「AIを理解する」という目的ために研究・提案されている技術の総称である。XAIという用語は2017年4月から始まったアメリカ合衆国DARPA主導による研究プロジェクト(XAIプロジェクト)を契機として広く浸透した。
Property | Value |
---|---|
dbo:abstract | La intel·ligència artificial explicable (XAI) es refereix a mètodes i tècniques en l'aplicació de la intel·ligència artificial (IA) que permeten als usuaris humans entendre i interpretar els resultats obtinguts. Contrasta amb el concepte de "caixa negra" dins l'aprenentatge automàtic, on fins i tot els dissenyadors d'un algorisme no poden explicar per què aquest arriba a una decisió específica. La XAI es considera una implementació del dret social a l'explicació. El disseny d'algorismes en IA sovint contraposa la precisió d'un model amb la seva interpretabilitat. Per exemple, els models d'aprenentatge profund obtenen resultats punters degut a la seva complexitat, però aquesta mateixa fa impossible seguir el raonament de la màquina, pas a pas. En canvi, els arbres de decisió es poden entendre fàcilment, però obtenen pitjors resultats. En aquest sentit, els algorismes d'aprenentatge automàtic es poden classificar en models de caixa blanca, si són interpretables per experts, i models de caixa negra, si no ho són. En certes aplicacions (com ara filtres de càmera), entendre el raonament de la màquina no és essencial i podem prioritzar la precisió del model, però en altres (com ara el diagnòstic mèdic o l'avaluació de risc en una assegurança), hi ha riscs ètics i legals si no entenem el procés de decisió, així que hem de considerar l'interpretabilitat. Tot i així, cal remarcar que l'interpretabilitat pot ser beneficiosa fins i tot sense riscos, ja que permet justificar les decisions preses en el disseny, i validar el correcte funcionament de l'algorisme. La XAI no es limita a l'elecció d'uns models sobre uns altres. Els models de caixa negra es poden estudiar bé considerant l'estructura interna de l'algorisme (per exemple, Grad-CAM per a xarxes neuronals convolucionals), o bé considerant-lo com una autèntica caixa negra (per exemple, l'aproximació local LIME). (ca) Explainable Artificial Intelligence (XAI; deutsch: erklärbare künstliche Intelligenz oder erklärbares Maschinenlernen) ist ein Neologismus, der seit etwa 2004 in der Forschung und Diskussion über Maschinenlernen verwendet wird. XAI soll eindeutig nachvollziehbar machen, auf welche Weise dynamische und nicht linear programmierte Systeme, z. B. künstliche neuronale Netze, Deep-Learning-Systeme (reinforcement learning) und genetische Algorithmen, zu Ergebnissen kommen. XAI ist eine technische Disziplin, die operative Methoden erarbeitet und bereitstellt, die zur Erklärung von AI-Systemen dienen. Ohne XAI gleichen einige Methoden des maschinellen Lernens (insbesondere das zurzeit populäre Deep Learning) einem Black-Box-Vorgang, bei dem die Introspektion eines dynamischen Systems unbekannt oder unmöglich ist und der Anwender keine Kontrollmöglichkeiten hat zu verstehen, wie eine Software zur Lösung eines Problems gelangt. (de) Explainable AI (XAI), or Interpretable AI, or Explainable Machine Learning (XML), is artificial intelligence (AI) in which humans can understand the decisions or predictions made by the AI. It contrasts with the "black box" concept in machine learning where even its designers cannot explain why an AI arrived at a specific decision. By refining the mental models of users of AI-powered systems and dismantling their misconceptions, XAI promises to help users perform more effectively. XAI may be an implementation of the social right to explanation. XAI is relevant even if there is no legal right or regulatory requirement. For example, XAI can improve the user experience of a product or service by helping end users trust that the AI is making good decisions. This way the aim of XAI is to explain what has been done, what is done right now, what will be done next and unveil the information the actions are based on. These characteristics make it possible (i) to confirm existing knowledge (ii) to challenge existing knowledge and (iii) to generate new assumptions. The algorithms used in AI can be differentiated into white-box and black-box machine learning (ML) algorithms. White-box models are ML models that provide results that are understandable for experts in the domain. Black-box models, on the other hand, are extremely hard to explain and can hardly be understood even by domain experts. XAI algorithms are considered to follow the three principles of transparency, interpretability and explainability. Transparency is given “if the processes that extract model parameters from training data and generate labels from testing data can be described and motivated by the approach designer”. Interpretability describes the possibility of comprehending the ML model and presenting the underlying basis for decision-making in a way that is understandable to humans. Explainability is a concept that is recognized as important, but a joint definition is not yet available. It is suggested that explainability in ML can be considered as “the collection of features of the interpretable domain, that have contributed for a given example to produce a decision (e.g., classification or regression)”. If algorithms meet these requirements, they provide a basis for justifying decisions, tracking and thereby verifying them, improving the algorithms, and exploring new facts. Sometimes it is also possible to achieve a result with high accuracy with a white-box ML algorithm that is interpretable in itself. This is especially important in domains like medicine, defense, finance and law, where it is crucial to understand the decisions and build up trust in the algorithms. Many researchers argue that, at least for supervised machine learning, the way forward is symbolic regression, where the algorithm searches the space of mathematical expressions to find the model that best fits a given dataset. AI systems optimize behavior to satisfy a mathematically specified goal system chosen by the system designers, such as the command "maximize accuracy of assessing how positive film reviews are in the test dataset". The AI may learn useful general rules from the test set, such as "reviews containing the word 'horrible' are likely to be negative". However, it may also learn inappropriate rules, such as "reviews containing 'Daniel Day-Lewis' are usually positive"; such rules may be undesirable if they are deemed likely to fail to generalize outside the train set, or if people consider the rule to be "cheating" or "unfair". A human can audit rules in an XAI to get an idea how likely the system is to generalize to future real-world data outside the test-set. (en) La inteligencia artificial explicable (en inglés, explainable artificial intelligence, habitualmente abreviado XAI) se refiere a métodos y técnicas en la aplicación de tecnología de inteligencia artificial (AI) por los que el ser humano es capaz de comprender las decisiones y predicciones realizadas por la inteligencia artificial. Contrasta con el concepto de la "caja negra" en aprendizaje automático (en inglés, machine learning), donde ni siquiera sus diseñadores pueden explicar por qué la IA ha realizado una decisión concreta. XAI es una implementación del . El reto técnico de explicar las decisiones de IA se conoce como el problema de interpretabilidad. Otra consideración es la sobrecarga informativa, así, la transparencia total no puede ser siempre posible o incluso requerida. Aun así, la simplificación a costo de engañar usuarios para aumentar la confianza o esconder los atributos indeseables del sistema tendrían que ser evitados permitiendo un equilibrio entre la interpretabilidad y la integridad de una explicación . Los sistemas de IA optimizan el comportamiento para satisfacer un sistema de objetivos matemáticamente especificado elegido por los diseñadores del sistema, como el comando "maximizar la precisión en la evaluación de las críticas de películas en el conjunto de datos de prueba". La IA puede aprender reglas generales útiles del conjunto de pruebas, como "las revisiones que contienen la palabra 'horrible'" probablemente sean negativas ". Sin embargo, también puede aprender reglas inapropiadas, como "las revisiones que contienen 'Daniel Day-Lewis' suelen ser positivas"; tales reglas pueden ser indeseables si se considera que es probable que no se generalicen fuera del conjunto de pruebas, o si las personas consideran que la regla es "trampa" o "injusta".Un humano puede auditar las reglas en un XAI para tener una idea de la probabilidad de que el sistema se generalice a datos futuros del mundo real fuera del conjunto de pruebas. (es) 説明可能なAI(せつめいかのうなエーアイ、英語: Explainable artificial intelligence、略称XAI )またはAIを説明するための技術は、人工知能 (AI) が導き出した答えに対して、人間が納得できる根拠を示すための技術である。特定の技術やツールを指し示す言葉ではなく、「AIを理解する」という目的ために研究・提案されている技術の総称である。XAIという用語は2017年4月から始まったアメリカ合衆国DARPA主導による研究プロジェクト(XAIプロジェクト)を契機として広く浸透した。 (ja) 설명가능 인공지능(Explainable AI, XAI)은 판단에 대한 이유를 사람이 이해할 수 있는 방식으로 제시하는 인공지능을 일컫는다. 특정한 판단에 대해 알고리즘의 설계자조차도 그 이유를 설명할 수 없는 '블랙박스' 인공지능과 대비되는 개념이다. 불확실성을 해소하여 인공지능에 대한 신뢰성을 높일 수 있게 된다. DARPA는 약 800억원의 예산을 투입하여 '유리박스'를 목표로 한 프로젝트를 진행하고 있다. (ko) Uma inteligência artificial explicável (IAE, IA explicável, ou XAI) é uma inteligência artificial (IA) em que os resultados da solução podem ser compreendidos por humanos. Isso contrasta com o conceito de "caixa preta" no aprendizado de máquina, em que nem mesmo seus designers podem explicar por que uma IA chegou a uma decisão específica. A IAE pode ser uma implementação do social. A IAE é relevante mesmo se não houver nenhum direito legal ou requisito regulatório—por exemplo, a IAE pode melhorar a experiência do usuário de um produto ou serviço ajudando os usuários finais a confiar que a IA está tomando boas decisões. Assim, o objetivo da IAE é explicar o que foi feito, o que é feito agora, o que será feito a seguir e desvendar as informações nas quais as ações se baseiam. Essas características permitem (i) confirmar o conhecimento existente (ii) contestar o conhecimento existente e (iii) gerar novas suposições. Os algoritmos usados em IA podem ser separados entre algoritmos de aprendizado de máquina (ML) de caixa branca e caixa preta. Os modelos de caixa branca são modelos de ML que fornecem resultados compreensíveis por especialistas no domínio. Os modelos de caixa preta, por outro lado, são extremamente difíceis de explicar e dificilmente podem ser entendidos mesmo por especialistas no domínio. Considera-se que os algoritmos de IAE seguem três princípios: transparência, interpretabilidade e explicabilidade. A transparência está presente “se os processos que extraem parâmetros de modelo de dados de treinamento e geram rótulos de dados de teste podem ser descritos e motivados pelo designer de abordagem”. A interpretabilidade descreve a possibilidade de compreender o modelo de ML e de apresentar a base subjacente para a tomada de decisão de uma forma que seja compreensível por humanos. A explicabilidade é um conceito reconhecido como importante, mas uma definição conjunta ainda não está disponível. Sugere-se que a explicabilidade em ML pode ser considerada como “a coleção de características do domínio interpretável, que contribuíram para que um dado exemplo produzisse uma decisão (por exemplo, classificação ou regressão)”. Se os algoritmos atendem a esses requisitos, eles fornecem uma base para justificar decisões, rastreá-las e, portanto, verificá-las, melhorar os algoritmos e explorar novos fatos. Às vezes, também é possível obter um resultado com alta precisão com um algoritmo de ML de caixa branca que pode ser interpretado por si mesmo. Isso é especialmente importante em domínios como medicina, defesa, finanças e direito, onde é crucial entender as decisões e construir confiança nos algoritmos. Os sistemas de IA otimizam o comportamento para satisfazer um sistema de objetivos especificado matematicamente, escolhido pelos projetistas do sistema, como o comando "maximizar a precisão da são as críticas de filmes no conjunto de dados de teste". A IA pode aprender regras gerais úteis do conjunto de testes, como "avaliações que contenham a palavra 'horrível' provavelmente serão negativas". No entanto, ela também pode aprender regras inadequadas, como "resenhas contendo 'Daniel Day-Lewis' geralmente são positivas"; tais regras podem ser indesejáveis se forem consideradas susceptíveis de falhar na generalização fora do conjunto de teste, ou se as pessoas considerarem que a regra "trapaceia" ou é "injusta". Um ser humano pode auditar regras em um XAI para ter uma ideia da probabilidade de o sistema generalizar para dados futuros do mundo real fora do conjunto de teste. (pt) Поясненний Штучний Інтелект, або Інтерпретовний Штучний Інтелект, або Зрозуміле Машинне Навчання, — це штучний інтелект (ШІ), в якому результати рішення можуть бути зрозумілі людині. Це контрастує з концепцією "чорного ящика" в машинному навчанні, де навіть його розробники не можуть пояснити, чому ШІ прийшов до конкретного рішення. Удосконалюючи ментальні моделі користувачів систем на базі штучного інтелекту та розбираючи їхні помилкові уявлення, Поясненний ШІ обіцяє допомогти користувачам працювати більш ефективно. Поясненний ШІ може бути реалізацією соціального . Поясненний ШІ актуальний, навіть якщо немає юридичних прав або нормативних вимог — наприклад, Поясненний ШІ може покращити користувацьку взаємодію з продуктом або послугою, допомагаючи кінцевим користувачам вірити, що ШІ приймає правильні рішення. Таким чином, мета Поясненного ШІ — пояснити, що було зроблено, що зроблено зараз, що буде зроблено далі, та розкрити інформацію, на якій базуються дії. Ці характеристики дозволяють (i) підтвердити наявні знання (ii) кинути виклик існуючим знанням і (iii) створити нові припущення. Алгоритми, що використовуються в ШІ, можна розрізнити на алгоритми машинного навчання(МН) білого ящика і чорного ящика. Моделі білого ящика — це моделі машинного навчання, які забезпечують результати, зрозумілі для експертів у даній області. З іншого боку, моделі «чорних ящиків» надзвичайно важко пояснити і навряд чи можуть бути зрозумілі навіть експертам в області. Вважається, що алгоритми Поясненного ШІ дотримуються трьох принципів прозорості, інтерпретації та пояснення. Прозорість надається, «якщо процеси, які витягують параметри моделі з навчальних даних і генерують мітки з даних тестування, можуть бути описані та мотивовані розробником підходу». Інтерпретація описує можливість зрозуміти модель машинного навчання і представити основну основу для прийняття рішень у спосіб, зрозумілий для людей. Пояснення — це поняття, яке визнається важливим, але спільного визначення поки немає. Припускається, що пояснюваність у машинному навчанні можна розглядати як «набір ознак інтерпретованого домену, які внесли для даного прикладу внесок у прийняття рішення (наприклад, класифікацію чи регресію)». Якщо алгоритми відповідають цим вимогам, вони забезпечують основу для обґрунтування рішень, відстеження та, таким чином, їх перевірки, вдосконалення алгоритмів та дослідження нових фактів. Іноді також можна досягти результату з високою точністю за допомогою алгоритму машинного навчання з білим ящиком, який сам по собі інтерпретується. Це особливо важливо в таких галузях, як медицина, оборона, фінанси та право, де дуже важливо розуміти рішення та зміцнювати довіру до алгоритмів. Системи штучного інтелекту оптимізують поведінку, щоб задовольнити математично визначену систему цілей, вибрану розробниками системи, наприклад команду «максимізувати точність оцінки позитивних рецензій на фільми в тестовому наборі даних». ШІ може засвоїти корисні загальні правила з тестового набору, наприклад, «відгуки, що містять слово „жахливий“, імовірно, будуть негативними». Однак він також може засвоїти невідповідні правила, наприклад, "відгуки, що містять" Дніел Дей-Льюїс «, зазвичай позитивні»; такі правила можуть бути небажаними, якщо вважається, що вони не зможуть узагальнити за межами тестового набору, або якщо люди вважають правило «шахрайським» або «несправедливим». Людина може перевіряти правила в Поясненному ШІ, щоб отримати уявлення про те, наскільки ймовірно, що система узагальнить майбутні дані реального світу за межами тестового набору. (uk) 可解釋人工智慧(英語:Explainable AI,縮寫為XAI)指的是讓專家能夠理解人工智慧之成果的方法與技術。它相對於黑箱式的機器學習,因為黑箱式的機器學習的設計者本身也無法解釋為什麼人工智慧能達到某些成果。可解釋人工智慧被認為是「」(right to explanation)的一種實踐。 要求人工智慧解釋它的決定是一種翻譯的問題(interpretability problem)。人工智慧的優化行為是一種為了滿足數理上特定目標的行為。其目標由設計者規劃,比如一個設計者要求「在資料集裡面精準分析電影如何被正面評價」。此時,人工智慧可能會找到一些通則,像是「評價中包含『爛』這個字眼表示是負面評價」。或是可能找到一些不正確的規則,比如「評價中包含『李小龍』這個字眼表示是正面評價」;這些規則可能難以解釋,甚至很可能在其他資料集得到錯誤的判斷,比如你很可能無法在《教父》的電影評價裡看到「李小龍」的字眼,但這不表示它是部爛片。針對這類問題,人類就能透過可解釋人工智慧的技術來監督人工智慧系統所找到的規則,並且判斷這些規則在真實的世界裡是否適用。 (zh) |
dbo:wikiPageExternalLink | http://aix360.mybluemix.net/ http://simmachines.com/similarity-cracks-code-explainable-ai/ https://explainableai.com/ https://www.computerworld.com.au/article/617359/explainable-artificial-intelligence-cracking-open-black-box-ai/ https://www.fatml.org/ https://devblogs.nvidia.com/parallelforall/deep-learning-self-driving-cars/ https://devblogs.nvidia.com/parallelforall/explaining-deep-learning-self-driving-car/ https://intelligencereborn.com/MachineLearningInterpretability.html https://web.archive.org/web/20201022062307/https:/www2.computerworld.com.au/article/617359/explainable-artificial-intelligence-cracking-open-black-box-ai/ https://www.forbes.com/sites/forbestechcouncil/2019/08/13/explainable-ai-is-the-next-big-thing-in-accounting-and-finance/ https://www.researchgate.net/publication/332858862 https://www.technologyreview.com/s/603795/the-us-military-wants-its-autonomous-machines-to-explain-themselves/ https://fatconference.org/ |
dbo:wikiPageID | 54575571 (xsd:integer) |
dbo:wikiPageLength | 54329 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1124520612 (xsd:integer) |
dbo:wikiPageWikiLink | dbc:Self-driving_cars dbr:Bayesian_network dbr:Algorithmic_trading dbr:Deep_learning dbr:International_Joint_Conference_on_Artificial_Intelligence dbr:Autonomous_vehicles dbc:Artificial_intelligence dbr:Mental_model dbr:SPICE dbr:Clinical_decision_support_system dbr:General_Data_Protection_Regulation dbr:Machine_learning dbr:Cluster_analysis dbr:Bacteremia dbr:Agency_(sociology) dbr:Linear_model dbr:Loi_pour_une_République_numérique dbr:ACM_Conference_on_Fairness,_Accountability,_and_Transparency dbr:DARPA dbr:Daniel_Day-Lewis dbr:Forbes dbr:Knowledge_extraction dbr:User_experience dbr:Rule-based_system dbr:Artificial_intelligence dbc:Accountability dbr:Black_box dbr:High-frequency_trading dbr:Automated_decision-making dbr:Marvin_Minsky dbr:Neuron_(software) dbr:Sentiment_analysis dbr:Expert_system dbr:Evidence-based_medicine dbr:Evolved_antenna dbr:Mycin dbr:Symbolic_regression dbr:White-box_testing dbr:Supervised_learning dbr:Right_to_explanation dbr:Image_recognition dbr:Intelligent_tutoring_systems |
dbp:wikiPageUsesTemplate | dbt:Blockquote dbt:Cite_arXiv dbt:Cite_journal dbt:Cite_web dbt:Cleanup_bare_URLs dbt:Reflist dbt:Rp dbt:Short_description dbt:Sfnref dbt:Differentiable_computing |
dct:subject | dbc:Self-driving_cars dbc:Artificial_intelligence dbc:Accountability |
rdfs:comment | 説明可能なAI(せつめいかのうなエーアイ、英語: Explainable artificial intelligence、略称XAI )またはAIを説明するための技術は、人工知能 (AI) が導き出した答えに対して、人間が納得できる根拠を示すための技術である。特定の技術やツールを指し示す言葉ではなく、「AIを理解する」という目的ために研究・提案されている技術の総称である。XAIという用語は2017年4月から始まったアメリカ合衆国DARPA主導による研究プロジェクト(XAIプロジェクト)を契機として広く浸透した。 (ja) 설명가능 인공지능(Explainable AI, XAI)은 판단에 대한 이유를 사람이 이해할 수 있는 방식으로 제시하는 인공지능을 일컫는다. 특정한 판단에 대해 알고리즘의 설계자조차도 그 이유를 설명할 수 없는 '블랙박스' 인공지능과 대비되는 개념이다. 불확실성을 해소하여 인공지능에 대한 신뢰성을 높일 수 있게 된다. DARPA는 약 800억원의 예산을 투입하여 '유리박스'를 목표로 한 프로젝트를 진행하고 있다. (ko) 可解釋人工智慧(英語:Explainable AI,縮寫為XAI)指的是讓專家能夠理解人工智慧之成果的方法與技術。它相對於黑箱式的機器學習,因為黑箱式的機器學習的設計者本身也無法解釋為什麼人工智慧能達到某些成果。可解釋人工智慧被認為是「」(right to explanation)的一種實踐。 要求人工智慧解釋它的決定是一種翻譯的問題(interpretability problem)。人工智慧的優化行為是一種為了滿足數理上特定目標的行為。其目標由設計者規劃,比如一個設計者要求「在資料集裡面精準分析電影如何被正面評價」。此時,人工智慧可能會找到一些通則,像是「評價中包含『爛』這個字眼表示是負面評價」。或是可能找到一些不正確的規則,比如「評價中包含『李小龍』這個字眼表示是正面評價」;這些規則可能難以解釋,甚至很可能在其他資料集得到錯誤的判斷,比如你很可能無法在《教父》的電影評價裡看到「李小龍」的字眼,但這不表示它是部爛片。針對這類問題,人類就能透過可解釋人工智慧的技術來監督人工智慧系統所找到的規則,並且判斷這些規則在真實的世界裡是否適用。 (zh) La intel·ligència artificial explicable (XAI) es refereix a mètodes i tècniques en l'aplicació de la intel·ligència artificial (IA) que permeten als usuaris humans entendre i interpretar els resultats obtinguts. Contrasta amb el concepte de "caixa negra" dins l'aprenentatge automàtic, on fins i tot els dissenyadors d'un algorisme no poden explicar per què aquest arriba a una decisió específica. La XAI es considera una implementació del dret social a l'explicació. (ca) Explainable Artificial Intelligence (XAI; deutsch: erklärbare künstliche Intelligenz oder erklärbares Maschinenlernen) ist ein Neologismus, der seit etwa 2004 in der Forschung und Diskussion über Maschinenlernen verwendet wird. XAI soll eindeutig nachvollziehbar machen, auf welche Weise dynamische und nicht linear programmierte Systeme, z. B. künstliche neuronale Netze, Deep-Learning-Systeme (reinforcement learning) und genetische Algorithmen, zu Ergebnissen kommen. XAI ist eine technische Disziplin, die operative Methoden erarbeitet und bereitstellt, die zur Erklärung von AI-Systemen dienen. (de) Explainable AI (XAI), or Interpretable AI, or Explainable Machine Learning (XML), is artificial intelligence (AI) in which humans can understand the decisions or predictions made by the AI. It contrasts with the "black box" concept in machine learning where even its designers cannot explain why an AI arrived at a specific decision. By refining the mental models of users of AI-powered systems and dismantling their misconceptions, XAI promises to help users perform more effectively. XAI may be an implementation of the social right to explanation. XAI is relevant even if there is no legal right or regulatory requirement. For example, XAI can improve the user experience of a product or service by helping end users trust that the AI is making good decisions. This way the aim of XAI is to explai (en) La inteligencia artificial explicable (en inglés, explainable artificial intelligence, habitualmente abreviado XAI) se refiere a métodos y técnicas en la aplicación de tecnología de inteligencia artificial (AI) por los que el ser humano es capaz de comprender las decisiones y predicciones realizadas por la inteligencia artificial. Contrasta con el concepto de la "caja negra" en aprendizaje automático (en inglés, machine learning), donde ni siquiera sus diseñadores pueden explicar por qué la IA ha realizado una decisión concreta. XAI es una implementación del . (es) Uma inteligência artificial explicável (IAE, IA explicável, ou XAI) é uma inteligência artificial (IA) em que os resultados da solução podem ser compreendidos por humanos. Isso contrasta com o conceito de "caixa preta" no aprendizado de máquina, em que nem mesmo seus designers podem explicar por que uma IA chegou a uma decisão específica. A IAE pode ser uma implementação do social. A IAE é relevante mesmo se não houver nenhum direito legal ou requisito regulatório—por exemplo, a IAE pode melhorar a experiência do usuário de um produto ou serviço ajudando os usuários finais a confiar que a IA está tomando boas decisões. Assim, o objetivo da IAE é explicar o que foi feito, o que é feito agora, o que será feito a seguir e desvendar as informações nas quais as ações se baseiam. Essas caracter (pt) Поясненний Штучний Інтелект, або Інтерпретовний Штучний Інтелект, або Зрозуміле Машинне Навчання, — це штучний інтелект (ШІ), в якому результати рішення можуть бути зрозумілі людині. Це контрастує з концепцією "чорного ящика" в машинному навчанні, де навіть його розробники не можуть пояснити, чому ШІ прийшов до конкретного рішення. Удосконалюючи ментальні моделі користувачів систем на базі штучного інтелекту та розбираючи їхні помилкові уявлення, Поясненний ШІ обіцяє допомогти користувачам працювати більш ефективно. Поясненний ШІ може бути реалізацією соціального . Поясненний ШІ актуальний, навіть якщо немає юридичних прав або нормативних вимог — наприклад, Поясненний ШІ може покращити користувацьку взаємодію з продуктом або послугою, допомагаючи кінцевим користувачам вірити, що ШІ приймає (uk) |
rdfs:label | Intel·ligència artificial explicable (ca) Explainable Artificial Intelligence (de) Inteligencia artificial explicable (es) Explainable artificial intelligence (en) 설명가능 인공지능 (ko) 説明可能なAI (ja) Inteligência artificial explicável (pt) 可解釋人工智慧 (zh) Поясненний штучний інтелект (uk) |
owl:sameAs | wikidata:Explainable artificial intelligence dbpedia-ca:Explainable artificial intelligence dbpedia-de:Explainable artificial intelligence dbpedia-es:Explainable artificial intelligence dbpedia-fa:Explainable artificial intelligence dbpedia-ja:Explainable artificial intelligence dbpedia-ko:Explainable artificial intelligence dbpedia-pt:Explainable artificial intelligence dbpedia-uk:Explainable artificial intelligence dbpedia-zh:Explainable artificial intelligence https://global.dbpedia.org/id/3nRrR |
prov:wasDerivedFrom | wikipedia-en:Explainable_artificial_intelligence?oldid=1124520612&ns=0 |
foaf:isPrimaryTopicOf | wikipedia-en:Explainable_artificial_intelligence |
is dbo:wikiPageRedirects of | dbr:Explainable_machine_learning dbr:Explainable_AI dbr:Explainable_Artificial_Intelligence dbr:Inscrutable_artificial_intelligence dbr:Layerwise_Relevance_Propagation dbr:Interpretability_(machine_learning) dbr:Interpretable_artificial_intelligence |
is dbo:wikiPageWikiLink of | dbr:QLattice dbr:Natural_language_processing dbr:Progress_in_artificial_intelligence dbr:David_M._Berry dbr:Algorithmic_bias dbr:D._Lansing_Taylor dbr:Elizabeth_A._Barnes dbr:Generative_adversarial_network dbr:Genevera_Allen dbr:Clinical_decision_support_system dbr:Connectionism dbr:ML.NET dbr:Feature_(machine_learning) dbr:Machine_perception dbr:Platform_economy dbr:Machine_ethics dbr:Timeline_of_computing_2020–present dbr:Latifa_Al-Abdulkarim dbr:AI_alignment dbr:Explainable_machine_learning dbr:Legal_technology dbr:Luca_Longo dbr:Attention_(machine_learning) dbr:Javier_Andreu-Perez dbr:Automated_decision-making dbr:Mark_Keane_(cognitive_scientist) dbr:Human-agent_team dbr:Human–artificial_intelligence_collaboration dbr:Explainable_AI dbr:Explainable_Artificial_Intelligence dbr:Inscrutable_artificial_intelligence dbr:Ethics_of_artificial_intelligence dbr:Layerwise_Relevance_Propagation dbr:Trevor_Darrell dbr:Right_to_explanation dbr:Interpretability_(machine_learning) dbr:Interpretable_artificial_intelligence |
is rdfs:seeAlso of | dbr:Deep_learning |
is foaf:primaryTopic of | wikipedia-en:Explainable_artificial_intelligence |