Sensor fusion (original) (raw)
感測器整合是為了降低由單一來源所產生之資訊的不確定性而將感測器數據資料或與不同來源的數據資料整合在一起的過程。例如,通過結合多個資料來源(如攝影機和信號),可以儘可能地獲得更準確的室內物體位置估算。 在這種情況下,不確定性降低一詞意味著更準確、更完整或更可靠,或者指的是新視角的結果,例如視覺(經由整合來自視角稍微不同的兩個相機之二維影像來計算影像深度資訊)。 感測器整合的資料來源並不侷限來自於同一種感測器。可以區分為直接整合、間接整合和前兩者輸出的整合。直接整合是整合來自同一組同質或異質感測器、的感測器數據資料和感測器數據的歷史資料。然而間接整融合所使用的資訊來源,如相關於環境和人類輸入的先驗知識。
Property | Value |
---|---|
dbo:abstract | Als Sensordatenfusion wird allgemein die Verknüpfung der Ausgabedaten mehrerer Sensoren bezeichnet. Ziel ist fast immer die Gewinnung von Informationen besserer Qualität. Die Bedeutung von „bessere Qualität“ hängt dabei immer von der Applikation ab: So können beispielsweise die Daten zweier Radaranlagen zur Erfassung eines größeren Detektionsbereiches zusammengefasst (fusioniert) werden. Eine andere Anwendung der Sensordatenfusion besteht beispielsweise in der Fusion von Kamera- und Radardaten, um Objekte zu klassifizieren und die Detektionsleistung des Sensorsystems zu erhöhen. Die Informationsfusion umfasst auch Methoden, andere Informationsquellen als Sensoren zu verknüpfen mit dem Ziel, neues und präziseres Wissen über Messwerte und Ereignisse zu gewinnen. Die Multi-Sensor-Datenfusion (engl. multi-sensor data fusion, kurz oft auch nur Data Fusion genannt) bezeichnet die Zusammenführung und Aufbereitung von bruchstückhaften und teilweise widersprüchlichen Sensordaten in ein homogenes, für den Menschen verständliches Gesamtbild der aktuellen Situation. (de) La fusión de datos o fusión de sensores (multi-sensor) hace referencia al uso sinérgico de la información proveniente de diferentes sensores para lograr una tarea requerida por el sistema.La fusión de datos es de especial importancia en cualquier aplicación donde una gran cantidad de datos deben ser combinados, fusionados y agrupados para obtener la apropiada calidad e integridad de las decisiones a tomar.Estas son algunas de las limitaciones fundamentales de un sistema basado en una única fuente de sensado respecto a los sistemas multi-sensores: * Las observaciones realizadas por cada uno de los sensores son inciertas y ocasionalmente incorrectas, un sistema mono-sensor no tiene la posibilidad de reducir la incertidumbre. * Diferentes tipos de sensores pueden proveer diferente información, pero un único sensor no puede cubrir todas las tareas. * La falla de un único sensor resulta en la falla completa del sistema. * Un único sensor puede proveer únicamente información parcial de su entorno de operación. Las ventajas de la fusión de datos de múltiples sensores son: * La información redundante puede reducir la incertidumbre e incrementa la precisión con la cual las características son percibidas por el sistema * Varios sensores entregando información redundante aumentan la confiabilidad en caso de errores de un sensor o falla. * Información complementaria de varios sensores permite caracterizar el entorno percibido de una manera que sería imposible percibir usando únicamente la información de cada sensor por separado. La fusión de datos o fusión de sensores e integración está presente en áreas de robótica, sistemas biomédicos, sistemas militares, equipo de monitoreo, sensado remoto, sistemas de transporte, control de procesos y sistemas de información.La fusión de datos es de particular importancia en la conducción a través de sistemas autónomos en todas sus aplicaciones. En principio, el proceso de fusión de datos autónomo permite a las mediciones e información ser combinadas para entregar conocimiento lo suficientemente completo e íntegro para tomar las decisiones que han sido planteadas. (es) Sensor fusion is the process of combining sensor data or data derived from disparate sources such that the resulting information has less uncertainty than would be possible when these sources were used individually. For instance, one could potentially obtain a more accurate location estimate of an indoor object by combining multiple data sources such as video cameras and WiFi localization signals. The term uncertainty reduction in this case can mean more accurate, more complete, or more dependable, or refer to the result of an emerging view, such as stereoscopic vision (calculation of depth information by combining two-dimensional images from two cameras at slightly different viewpoints). The data sources for a fusion process are not specified to originate from identical sensors. One can distinguish direct fusion, indirect fusion and fusion of the outputs of the former two. Direct fusion is the fusion of sensor data from a set of heterogeneous or homogeneous sensors, soft sensors, and history values of sensor data, while indirect fusion uses information sources like a priori knowledge about the environment and human input. Sensor fusion is also known as (multi-sensor) data fusion and is a subset of information fusion. (en) Злиття (або синтез) даних датчиків — це процес об'єднання даних датчиків або даних, отриманих з різних джерел, таким чином, що отримана інформація має меншу невизначеність, ніж як би ці джерела використовуються окремо. Наприклад, потенційно можна отримати більш точну оцінку місцезнаходження об'єкта, об'єднавши кілька джерел даних, таких як відеокамери та сигнали . Термін зменшення невизначеності в цьому випадку може означати більш точний, більш повний або більш надійний або вказувати на результат виниклого погляду, наприклад стереоскопічний зір (розрахунок інформації про глибину шляхом комбінування двовимірних зображень з двох камер з дещо відмінними точками зору). Не вимагається, щоб джерела даних для процесу злиття походили від ідентичних датчиків. Можна розрізнити пряме злиття, непряме злиття та злиття вихідних даних з цих двох типів. Прямий синтез — це об'єднання даних датчиків із набору датчиків, обчислювальних датчиків та історичних даних датчиків, тоді як непряме об'єднання використовує такі джерела інформації, як апріорні знання про навколишнє середовище та данні, створені людиною. Злиття даних датчиків також відоме як (багатосенсорне) злиття даних є частиною . (uk) 感測器整合是為了降低由單一來源所產生之資訊的不確定性而將感測器數據資料或與不同來源的數據資料整合在一起的過程。例如,通過結合多個資料來源(如攝影機和信號),可以儘可能地獲得更準確的室內物體位置估算。 在這種情況下,不確定性降低一詞意味著更準確、更完整或更可靠,或者指的是新視角的結果,例如視覺(經由整合來自視角稍微不同的兩個相機之二維影像來計算影像深度資訊)。 感測器整合的資料來源並不侷限來自於同一種感測器。可以區分為直接整合、間接整合和前兩者輸出的整合。直接整合是整合來自同一組同質或異質感測器、的感測器數據資料和感測器數據的歷史資料。然而間接整融合所使用的資訊來源,如相關於環境和人類輸入的先驗知識。 (zh) |
dbo:thumbnail | wiki-commons:Special:FilePath/Eurofighter_sensor_fusion.png?width=300 |
dbo:wikiPageExternalLink | http://www.isif.org/ https://github.com/mhaghighat/dcaFuse |
dbo:wikiPageID | 1461077 (xsd:integer) |
dbo:wikiPageLength | 25127 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1115352853 (xsd:integer) |
dbo:wikiPageWikiLink | dbc:Robotic_sensing dbr:Neural_network dbr:Professional_video_camera dbr:Bayesian_network dbr:Variance dbr:Inertial_navigation_system dbr:Information_integration dbr:Inverse-variance_weighting dbr:Radar dbr:List_of_sensors dbr:Multisensory_integration dbc:Computer_data dbr:Cramer's_rule dbr:Global_Positioning_System dbr:Convolutional_neural_network dbr:Dempster–Shafer_theory dbr:Stereoscopy dbr:TransducerML dbr:Microelectromechanical_systems dbr:Very-long-baseline_interferometry dbr:Data_fusion dbr:Data_mining dbr:GPS/INS dbr:Gait_analysis dbr:A_priori_and_a_posteriori dbr:Data_(computing) dbr:Brooks–Iyengar_algorithm dbr:Kalman_filter dbr:Hyperspectral_imaging dbr:Soft_sensor dbr:Accelerometer dbc:Sensors dbr:LIDAR dbr:Support-vector_machine dbr:Hidden_Markov_model dbr:Homogeneity_and_heterogeneity dbr:Sonar dbr:Information dbr:Sensor dbr:Magnetometer dbr:Seismometer dbr:Square_Kilometre_Array dbr:Extended_Kalman_filter dbr:Image_fusion dbr:Fisher's_method dbr:Sensor_grid dbr:Motion_analysis dbr:Phased_array dbr:Sonobuoy dbr:Riccati_equation dbr:Electronic_Support_Measures dbr:Thermal_imaging dbr:WiFi_localization dbr:Wiktionary:Homogeneous dbr:File:Eurofighter_sensor_fusion.png |
dbp:wikiPageUsesTemplate | dbt:Citation_needed dbt:Div_col dbt:Div_col_end dbt:Reflist |
dct:subject | dbc:Robotic_sensing dbc:Computer_data dbc:Sensors |
rdf:type | yago:WikicatSensors yago:Artifact100021939 yago:Detector103180969 yago:Device103183080 yago:Instrumentality103575240 yago:Object100002684 yago:PhysicalEntity100001930 yago:Whole100003553 |
rdfs:comment | 感測器整合是為了降低由單一來源所產生之資訊的不確定性而將感測器數據資料或與不同來源的數據資料整合在一起的過程。例如,通過結合多個資料來源(如攝影機和信號),可以儘可能地獲得更準確的室內物體位置估算。 在這種情況下,不確定性降低一詞意味著更準確、更完整或更可靠,或者指的是新視角的結果,例如視覺(經由整合來自視角稍微不同的兩個相機之二維影像來計算影像深度資訊)。 感測器整合的資料來源並不侷限來自於同一種感測器。可以區分為直接整合、間接整合和前兩者輸出的整合。直接整合是整合來自同一組同質或異質感測器、的感測器數據資料和感測器數據的歷史資料。然而間接整融合所使用的資訊來源,如相關於環境和人類輸入的先驗知識。 (zh) Als Sensordatenfusion wird allgemein die Verknüpfung der Ausgabedaten mehrerer Sensoren bezeichnet. Ziel ist fast immer die Gewinnung von Informationen besserer Qualität. Die Bedeutung von „bessere Qualität“ hängt dabei immer von der Applikation ab: So können beispielsweise die Daten zweier Radaranlagen zur Erfassung eines größeren Detektionsbereiches zusammengefasst (fusioniert) werden. Eine andere Anwendung der Sensordatenfusion besteht beispielsweise in der Fusion von Kamera- und Radardaten, um Objekte zu klassifizieren und die Detektionsleistung des Sensorsystems zu erhöhen. (de) La fusión de datos o fusión de sensores (multi-sensor) hace referencia al uso sinérgico de la información proveniente de diferentes sensores para lograr una tarea requerida por el sistema.La fusión de datos es de especial importancia en cualquier aplicación donde una gran cantidad de datos deben ser combinados, fusionados y agrupados para obtener la apropiada calidad e integridad de las decisiones a tomar.Estas son algunas de las limitaciones fundamentales de un sistema basado en una única fuente de sensado respecto a los sistemas multi-sensores: (es) Sensor fusion is the process of combining sensor data or data derived from disparate sources such that the resulting information has less uncertainty than would be possible when these sources were used individually. For instance, one could potentially obtain a more accurate location estimate of an indoor object by combining multiple data sources such as video cameras and WiFi localization signals. The term uncertainty reduction in this case can mean more accurate, more complete, or more dependable, or refer to the result of an emerging view, such as stereoscopic vision (calculation of depth information by combining two-dimensional images from two cameras at slightly different viewpoints). (en) Злиття (або синтез) даних датчиків — це процес об'єднання даних датчиків або даних, отриманих з різних джерел, таким чином, що отримана інформація має меншу невизначеність, ніж як би ці джерела використовуються окремо. Наприклад, потенційно можна отримати більш точну оцінку місцезнаходження об'єкта, об'єднавши кілька джерел даних, таких як відеокамери та сигнали . Термін зменшення невизначеності в цьому випадку може означати більш точний, більш повний або більш надійний або вказувати на результат виниклого погляду, наприклад стереоскопічний зір (розрахунок інформації про глибину шляхом комбінування двовимірних зображень з двох камер з дещо відмінними точками зору). (uk) |
rdfs:label | Sensordatenfusion (de) Fusión de datos (es) Sensor fusion (en) 感測器整合 (zh) Злиття даних датчиків (uk) |
owl:sameAs | freebase:Sensor fusion yago-res:Sensor fusion wikidata:Sensor fusion dbpedia-de:Sensor fusion dbpedia-es:Sensor fusion dbpedia-et:Sensor fusion dbpedia-fa:Sensor fusion dbpedia-fi:Sensor fusion dbpedia-he:Sensor fusion dbpedia-uk:Sensor fusion dbpedia-zh:Sensor fusion https://global.dbpedia.org/id/4Vns4 |
prov:wasDerivedFrom | wikipedia-en:Sensor_fusion?oldid=1115352853&ns=0 |
foaf:depiction | wiki-commons:Special:FilePath/Eurofighter_sensor_fusion.png |
foaf:isPrimaryTopicOf | wikipedia-en:Sensor_fusion |
is dbo:product of | dbr:Nira_Dynamics_AB |
is dbo:wikiPageDisambiguates of | dbr:Fusion |
is dbo:wikiPageRedirects of | dbr:Sensor_Fusion dbr:Sensor_data_fusion |
is dbo:wikiPageWikiLink of | dbr:Robotics dbr:Bayesian_network dbr:Baykar_Bayraktar_TB2 dbr:VisLab dbr:Defense_Acquisition_Program_Administration dbr:Index_of_robotics_articles dbr:Information_integration dbr:Interaction_and_Robotics_Research_Center dbr:Inverse-variance_weighting dbr:List_of_sensors dbr:Saab_JAS_39_Gripen dbr:Climate_of_Mars dbr:Fyuse dbr:Glossary_of_artificial_intelligence dbr:NHIndustries_NH90 dbr:Battle_command dbr:Lockheed_Martin_F-22_Raptor dbr:Lockheed_Martin_F-35_Lightning_II dbr:Sukhoi_Su-57 dbr:Dempster–Shafer_theory dbr:Zumwalt-class_destroyer dbr:Fusion dbr:BEL_Battle_Field_Surveillance_Radar dbr:CAC/PAC_JF-17_Thunder dbr:Adaptive_cruise_control dbr:Ceva_(semiconductor_company) dbr:Air_Command_and_Control_System dbr:Data_fusion dbr:Future_Combat_Systems_Manned_Ground_Vehicles dbr:GPS/INS dbr:Local_operational_picture dbr:Outline_of_the_human_brain dbr:Nira_Dynamics_AB dbr:Agency_for_Defense_Development dbr:Airbus_A350 dbr:Amazon_Go dbr:Eurofighter_Typhoon dbr:Brooks–Iyengar_algorithm dbr:Fourth_Industrial_Revolution dbr:Glossary_of_military_modeling_and_simulation dbr:Kalman_filter dbr:Internet_of_things dbr:Covariance_intersection dbr:Hybrid_navigation dbr:Hyperspectral_imaging dbr:Soft_sensor dbr:Attitude_and_heading_reference_system dbr:Audi_A8 dbr:Chengdu_J-20 dbr:Khanh_D._Pham dbr:Missile_guidance dbr:Autonomous_aircraft dbr:Autonomous_and_Remote_Navigation_Trial_Project dbr:Fifth-generation_fighter dbr:Guidance_system dbr:Network-centric_warfare dbr:Self-driving_car dbr:Yaakov_Bar-Shalom dbr:Motion_capture dbr:Micro_air_vehicle dbr:Multi_Autonomous_Ground-robotic_International_Challenge dbr:Wireless_sensor_network dbr:Image_fusion dbr:Synthetic_air_data_system dbr:Visual_sensor_network dbr:Sixth-generation_fighter dbr:Sensor_Fusion dbr:Sensor_data_fusion |
is rdfs:seeAlso of | dbr:Robotic_sensing |
is foaf:primaryTopic of | wikipedia-en:Sensor_fusion |