Parallel computing (original) (raw)
- La computació paral·lela és una forma de computació en la qual molts càlculs es fan simultàniament, operant sobre el principi que sovint es poden dividir problemes grans en altres de més petits, els quals llavors es poden solucionar ("en paral·lel"). Hi ha unes quantes formes diferents de computació paral·lela: a nivell de bit, nivell d'instrucció, dades, i paral·lelisme de tasca. El paral·lelisme s'ha emprat durant molts anys, principalment en la computació d'alt rendiment, però l'interès en això ha augmentat últimament a causa de les restriccions físiques que eviten l'escalat de freqüència. Com què el consum de potència (i consegüentment la generació de calentor) per ordinadors s'ha convertit en una preocupació durant els darrers anys, la computació paral·lela s'ha convertit en el paradigma dominant en l'arquitectura informàtica, principalment en forma de processadors multi nucli. Els ordinadors paral·lels es poden classificar aproximadament segons el nivell en el qual el maquinari dona suport al paral·lelisme -amb ordinadors multi-nucli i els ordinadors multiprocessador que tenen elements de processament múltiples dins d'una única màquina, mentre que els clústers, , i els utilitzen ordinadors múltiples per fer feina en la mateixa tasca. Les arquitectures informàtiques paral·leles especialitzades s'utilitzen a vegades al costat de processadors tradicionals, per accelerar tasques específiques. Els programes informàtics paral·lels són més difícils d'escriure que els seqüencials, perquè la concurrència introdueix unes quantes classes noves d'errors de programari potencials, dels quals les són les més comunes. La comunicació i sincronització entre les subtasques diferents són típicament un dels obstacles més grans per aconseguir el bon rendiment d'un programa paral·lel. El guany de velocitat d'un programa com a resultat de la paral·lelització és governat per la llei d'Amdahl. (ca)
- Paralelní výpočty (anglicky parallel computing) je v informatice označení pro výpočty, které jsou řešeny souběžně („paralelně“). Paralelizace je využívána pro zvýšení výpočetního výkonu v situaci, kdy nelze použít rychlejší počítač (vyšší frekvenci) nebo pro zjednodušení použitého algoritmu nebo pro lepší využití elektrické energie. Paralelní výpočty se mohou realizovat pomocí víceprocesorových systémů nebo spuštěním úlohy na počítačovém clusteru, kde jsou jednotlivé počítače propojené pomocí výpočetní sítě. Paralelizace funguje na principu rozdělování složitějších úloh na jednodušší a je považována za obtížnější formu programování. Existuje několik rozdílných forem paralelních výpočtů: bitové, instrukční, datové a paralelní úlohy. (cs)
- الحوسبة المتوازية (بالإنجليزية: Parallel computing) هيَ شكل من أشكال الحوسبة التي يجري فيها تنفيذ العديد من العمليات في وقت واحد، والتي تقوم على مبدأ أنه يمكن في كثير من الأحيان تقسيم المشاكل الكبيرة إلى مشاكل أصغر حجمًا ليتم حلها بشكل مُتوازٍ في نفس الوقت. للحوسبة المُتوازية عدة مستويات مختلفة: * التوازي على مستوى البت (بالإنجليزية: Bit-level) * التوازي على مستوى التعليمات. * التوازي على مستوى البيانات. * التوازي على مستوى المهام. استخدم التوازي لسنوات عديدة، وخاصة في الحوسبة عالية الأداء، ولكن الاهتمام به ازداد أكثر في الآونة الأخيرة بسبب العوائق المادية التي تحول دون توسيع حجم العمليات المعالجة. حيث صار استهلاك أجهزة الحاسوب للطاقة (وبالتالي الحرارة الناتجة عن ذلك) مصدرًا للقلق في السنوات الأخيرة، فإن الحوسبة المتوازية أصبحت النموذج المهيمن في هندسة الحواسيب، وخاصة في نماذج المعالجات متعددة الأنوية. يُمكن أن تُصنّف الحواسيب المتوازية وفقًا لتصنيف المستوى الذي يدعم العتاد فيه عملية الموازاة. فالحواسيب مُتعددة المُعالجات أو متعددة الأنوية تحتوي على عناصر معالجة متعددة داخل جهاز واحد، في حين أن العناقيد (clusters)، والمعالجات المتوازية الهائلة (MPPS)، ومصفوفات الحواسيب تستخدم عدة حواسيب للعمل على نفس المهمة. تُستخدم هندسة الحواسيب المتوازية المتخصصة أيضا في بعض الأحيان في المُعالجات التقليدية لتسريع أداء مهام محددة. تُعتبر كتابة البرامج الموجهة للحواسيب المتوازية أكثر صعوبة من البرامج ذات المهام التسلسلية، لأن توازي المهام يسمح بظهور أنواع جديدة محتملة من الأخطاء البرمجية، والتي يُعتبر مشكلة حالة تعارض أحد أشهر أمثلتها. عادة ما تكون الاتصالات والتزامن بين المهام الفرعية المُختلفة إحدى أكبر العقبات أمام الحصول على برامج متوازية عالية الأداء. يخضع مقدار التسريع في برنامج معين نتيجة لعملية موازة لقانون أمدال. (ar)
- Στην πληροφορική, παράλληλος προγραμματισμός λέγεται η ανάπτυξη οι οποίες εκμεταλλεύονται την ύπαρξη πολλαπλών επεξεργαστικών μονάδων σε έναν πολυεπεξεργαστή ή πολυυπολογιστή για να επιτύχουν αύξηση των υπολογιστικών επιδόσεων και μείωση του απαιτούμενου χρόνου εκτέλεσης της εφαρμογής. Επομένως ο παράλληλος προγραμματισμός μπορεί να ιδωθεί ως ειδική περίπτωση ταυτόχρονου προγραμματισμού, όπου η εκτέλεση γίνεται πραγματικά παράλληλα και όχι ψευδοπαράλληλα. Τα παράλληλα συστήματα διακρίνονται σε πολυεπεξεργαστές κοινής μνήμης, όπου πολλαπλοί επεξεργαστές επικοινωνούν με μία κοινή μνήμη ενιαίου χώρου διευθύνσεων, και σε πολυυπολογιστές κατανεμημένης μνήμης, όπου πολλαπλά πακέτα επεξεργαστή-ιδιωτικής μνήμης, με τον δικό του χώρο διευθύνσεων το καθένα, διασυνδέονται και επικοινωνούν μεταξύ τους· και στις δύο περιπτώσεις η επικοινωνία γίνεται μέσω ενός «δικτύου διασύνδεσης». Τα μοντέλα παράλληλου προγραμματισμού για πολυεπεξεργαστές και πολυυπολογιστές είναι το μοντέλο κοινού χώρου διευθύνσεων (π.χ. πολλαπλές διεργασίες ή νήματα, ) και το μοντέλο μεταβίβασης μηνυμάτων (π.χ. , ), αντιστοίχως. Στο πρώτο οι επεξεργαστικές μονάδες ανταλλάσσουν πληροφορίες προσπελαύνοντας κοινόχρηστες στην κοινή μνήμη, ενώ στο δεύτερο ανταλλάσσοντας μηνύματα. Κάθε προγραμματιστικό μοντέλο μπορεί να εφαρμοστεί και σε σύστημα μιας αρχιτεκτονικής που δεν είναι η φυσική του (π.χ. πολυνηματικό πρόγραμμα σε πολυυπολογιστή ή πρόγραμμα MPI σε πολυεπεξεργαστή) αλλά συνήθως με χαμηλότερες επιδόσεις. (el)
- Paralela komputado estas komputadformo en kiu multaj komputadtaskoj estas plenumataj samtempe, funkciantaj laŭ la principo ke grandaj problemoj povas ofte esti dividataj en malpli grandajn, kiuj tiam estas aparte solvataj ("paralele"). Estas pluraj formoj de paralela komputado: , , , kaj . Paraleleco estas uzita de multaj jaroj, aparte en , sed interesiĝo pri ĝi lastatempe kreskis pro la fizikaj trudoj malpermesantaj frekvencan supergradigon. Ĉar energikonsumo (kaj sekve varmgenerado) per komputiloj fariĝis vera problemo en lastatempaj jaroj, paralela komputado fariĝis la superrega paradigmo en komputila arkitekturo, ĉefe en formo de . Paralelaj komputiloj povas esti pli-malpli klasifikitaj laŭ la nivelo de paraleleco proponata de la aparataro - kun multkernaj kaj multprocesoraj komputiloj havantaj multajn prilaborajn elementojn en unuopa maŝino, kiam komputilgrapoloj, amase paralele prilaboraj sistemoj, kaj kradoj uzas multajn komputilojn por la sama tasko. Specialigitaj paralelaj komputilaj arkitekturoj estas kelkfoje uzataj apud tradiciaj procesoroj, por akceli apartajn taskojn. estas multe pli malfacile skribeblaj ol sinsekvaj, ĉar paraleleco enkondukas plurajn novajn klasojn de eblaj , el kiuj konkurkondiĉoj estas la plej komunaj. Komunikado kaj sinkronigo inter la diversaj subtaskoj estas tipe unu el la plej gravaj obstakloj por atingi bonan paralelan programplenumon. La plirapidigo de programo rezultanta de paraleligo estas observata laŭ la . (eo)
- Ein Parallelrechner ist ein Rechner, in dem Rechenoperationen gleichzeitig unter anderem auf mehreren Haupt- oder Grafikprozessoren durchgeführt werden können. (de)
- Paralelismoa konputazio modu bat da, hainbat kalkulu aldi berean paraleloan egiten dituena, problema handiak hainbat problema txikitan banatzeko printzipioan oinarrituta dago, gero problema txiki horiek paraleloan ebazteko. Paralelismoa urte askotan erabili da, batez ere Errendimendu Handiko Informatikarako. Konputagailuek prozesadore bakar bat erabili ohi dute programa informatikoak eta aplikazioak exekutatzeko. Prozesadoreak, urteak pasa ahala, gero eta azkarragoak bihurtu dira, eta prozesadore bakar baten konputazio-ahalmena nahikoa izan ohi da eguneroko aplikazioetarako (adib., bulegotika, bideoa, argazkiak, jokoak). Hala ere, hainbat aplikaziotan, prozesadore bakar batekin lor daitekeen exekuzio-abiadura ez da nahikoa emaitzak behar den denbora-tartean eskuratzeko. Aplikazio horiek oso arlo desberdinetakoak izan daitezke: datu-base handiak kudeatzea (Google, esaterako), online merkataritzako zerbitzuak (Amazon...), irudien prozesamendua (zientzian zein zinema-industrian), ingeniaritzako eta zientzietako aplikazioak (eguraldiaren iragarpena, genetika, astrofisika, fisika kuantikoa eta nuklearra, kimika, farmazia, prozesuen simulazioak...) eta abar. Exekuzio-abiadura handiagoak (100, 1.000, 10.000... aldiz handiagoak) lortzeko, irtenbide bakarra dago: aldi berean prozesadore asko modu koordinatuan erabiltzea, hau da, paralelismoa erabiltzea. Paralelismo hitzarekin hau adierazi nahi dugu: programa baten exekuzioa hainbat prozesadoreren artean banatzen dela, eta prozesadoreek paraleloan, batera, lan egiten dutela. (eu)
- En informatique, le parallélisme consiste à mettre en œuvre des architectures d'électronique numérique permettant de traiter des informations de manière simultanée, ainsi que les algorithmes spécialisés pour celles-ci. Ces techniques ont pour but de réaliser le plus grand nombre d'opérations en un temps le plus petit possible. Les architectures parallèles sont devenues le paradigme dominant pour tous les ordinateurs depuis les années 2000. En effet, la vitesse de traitement qui est liée à l'augmentation de la fréquence des processeurs connait des limites. La création de processeurs multi-cœurs, traitant plusieurs instructions en même temps au sein du même composant, résout ce dilemme pour les machines de bureau depuis le milieu des années 2000. Pour être efficaces, les méthodes utilisées pour la programmation des différentes tâches qui constituent un programme sont spécifiques à ce mode de calcul, c'est-à-dire que les programmes doivent être réalisés avec cette optique. Ces méthodes ont initialement été développées de manière théorique et sur des superordinateurs, qui étaient à une période les seuls à compter de nombreux processeurs, mais sont de plus en plus volontiers utilisées par les développeurs de logiciel du fait de l'omniprésence de telles architectures. Certains types de calculs se prêtent particulièrement bien à la parallélisation : la dynamique des fluides, les prédictions météorologiques, la modélisation et simulation de problèmes de dimensions plus grandes, le traitement de l'information et l'exploration de données, le décryptage de messages, la recherche de mots de passe, le traitement d'images ou la fabrication d'images de synthèse, tels que le lancer de rayon, l'intelligence artificielle et la fabrication automatisée. Initialement, c'est dans le domaine des supercalculateurs que le parallélisme a été utilisé, à des fins scientifiques. (fr)
- La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo). Hay varias formas diferentes de computación paralela: paralelismo a nivel de bit, paralelismo a nivel de instrucción, paralelismo de datos y paralelismo de tareas. El paralelismo se ha empleado durante muchos años, sobre todo en la computación de altas prestaciones, pero el interés en ella ha crecido últimamente debido a las limitaciones físicas que impiden el aumento de la frecuencia.Como el consumo de energía —y por consiguiente la generación de calor— de las computadoras constituye una preocupación en los últimos años, la computación en paralelo se ha convertido en el paradigma dominante en la arquitectura de computadores, principalmente en forma de procesadores multinúcleo. Las computadoras paralelas pueden clasificarse según el nivel de paralelismo que admite su hardware: equipos con procesadores multinúcleo y multi-procesador que tienen múltiples elementos de procesamiento dentro de una sola máquina y los clústeres, y grids que utilizan varios equipos para trabajar en la misma tarea. Muchas veces, para acelerar tareas específicas, se utilizan arquitecturas especializadas de computación en paralelo junto a procesadores tradicionales. Los programas informáticos paralelos son más difíciles de escribir que los secuenciales, porque la concurrencia introduce nuevos tipos de errores de software, siendo las condiciones de carrera los más comunes. La comunicación y sincronización entre diferentes subtareas son algunos de los mayores obstáculos para obtener un buen rendimiento del programa paralelo. La máxima aceleración posible de un programa como resultado de la paralelización se conoce como la ley de Amdahl. (es)
- Parallel computing is a type of computation in which many calculations or processes are carried out simultaneously. Large problems can often be divided into smaller ones, which can then be solved at the same time. There are several different forms of parallel computing: bit-level, instruction-level, data, and task parallelism. Parallelism has long been employed in high-performance computing, but has gained broader interest due to the physical constraints preventing frequency scaling. As power consumption (and consequently heat generation) by computers has become a concern in recent years, parallel computing has become the dominant paradigm in computer architecture, mainly in the form of multi-core processors. Parallel computing is closely related to concurrent computing—they are frequently used together, and often conflated, though the two are distinct: it is possible to have parallelism without concurrency, and concurrency without parallelism (such as multitasking by time-sharing on a single-core CPU). In parallel computing, a computational task is typically broken down into several, often many, very similar sub-tasks that can be processed independently and whose results are combined afterwards, upon completion. In contrast, in concurrent computing, the various processes often do not address related tasks; when they do, as is typical in distributed computing, the separate tasks may have a varied nature and often require some inter-process communication during execution. Parallel computers can be roughly classified according to the level at which the hardware supports parallelism, with multi-core and multi-processor computers having multiple processing elements within a single machine, while clusters, MPPs, and grids use multiple computers to work on the same task. Specialized parallel computer architectures are sometimes used alongside traditional processors, for accelerating specific tasks. In some cases parallelism is transparent to the programmer, such as in bit-level or instruction-level parallelism, but explicitly parallel algorithms, particularly those that use concurrency, are more difficult to write than sequential ones, because concurrency introduces several new classes of potential software bugs, of which race conditions are the most common. Communication and synchronization between the different subtasks are typically some of the greatest obstacles to getting optimal parallel program performance. A theoretical upper bound on the speed-up of a single program as a result of parallelization is given by Amdahl's law. (en)
- Komputasi paralel adalah salah satu teknik melakukan komputasi secara bersamaan dengan memanfaatkan beberapa komputer independen secara bersamaan. Ini umumnya diperlukan saat kapasitas yang diperlukan sangat besar, baik karena harus mengolah data dalam jumlah besar (di , bioinformatika, dll) ataupun karena tuntutan proses komputasi yang banyak. Kasus kedua umum ditemui di kalkulasi numerik untuk menyelesaikan persamaan matematis di bidang fisika (fisika komputasi), kimia (kimia komputasi) dll. (in)
- 並列計算(へいれつけいさん、英語: parallel computing)は、コンピュータにおいて特定の処理をいくつかの独立した小さな処理に細分化し、複数の処理装置(プロセッサ)上でそれぞれの処理を同時に実行させることである。並列コンピューティングや並列処理とも呼ばれる。大きな問題を解いたり、大量のデータを処理したりする過程は、より小さなサブタスクやサブデータグループの処理に分割できることが多い、という事実を利用して単位時間あたりの処理効率(スループット)の向上を図る手法である。 また、並列計算のために設計されたコンピュータを並列コンピュータという。並列コンピュータは当初スーパーコンピュータなどの高価で大規模なシステムのみに見られる設計だったが、プロセッサのクロック周波数の上昇による処理性能向上に限界や問題が見えてきたことなどから、パーソナルコンピュータや携帯機器でもマルチコア設計のCPUを搭載し、並列計算に活用することが当たり前になっている。特にコンピュータの画面表示にも利用される画像処理は並列化しやすいため、専用設計の簡素なグラフィックコントローラに始まり、複雑な3次元コンピュータグラフィックスのパイプライン処理と描画なども並列計算によって高速にリアルタイム実行できるGPUへと発展を遂げている。 関連する概念に並行計算(へいこうけいさん)があるが、並行計算は一つのタスクの計算を並列化することにとどまらず、複数の相互作用しうるタスクを、プロセスやスレッドなどをもちいて単一または複数の計算資源にスケジューリングするといった、より汎用性の高い処理をさす。並列計算は物理的に計算資源が複数なければ効果が得られないが、並行計算はたとえ計算資源が1つだけだったとしても、マルチタスクに対応したオペレーティングシステムがプロセッサ時間をスライスして各タスクの処理に割り当てることで効果が得られる。 特に、並列計算専用に設計されたコンピュータを用いずに、複数のパーソナルコンピュータやサーバ、スーパーコンピュータを接続することで並列計算を実現するものをコンピュータ・クラスターと呼ぶ。このクラスターをインターネットなどの広域ネットワーク上に分散させるものも、広義には並列計算に属すが、分散コンピューティングあるいはグリッド・コンピューティングと呼び、並列計算とは区別することが多い。 (ja)
- Een parallelle computer is een computer die over meerdere processoren beschikt en daardoor meerdere taken tegelijk kan uitvoeren. Daarbij gaat het om taken die echt tegelijkertijd worden uitgevoerd en niet, zoals bij multitasking, om het snel heen en weer schakelen tussen taken. Traditioneel is een parallelle computer een supercomputer met duizenden tot honderdduizenden processoren, die voor wetenschappelijk rekenwerk wordt gebruikt, maar tegenwoordig zijn bijna alle computers parallel; zelfs de eenvoudigste pc's en laptops zijn van multikernprocessoren voorzien. Een parallelle computer kan sneller zijn dan een niet-parallelle (seriële) computer omdat hij verschillende taken tegelijkertijd kan uitvoeren zonder dat deze elkaar al te veel vertragen. De gebruiker kan bijvoorbeeld een foto bewerken en tegelijkertijd naar muziek luisteren terwijl op de achtergrond het systeem een update installeert. Helemaal zonder vertraging kan het niet, omdat de verschillende taken mogelijk wel de systeembronnen (zoals geheugen, harde schijf, netwerk) moeten delen. (nl)
- In informatica il calcolo parallelo è l'esecuzione simultanea del codice sorgente di uno o più programmi (diviso e specificamente adattato) su più microprocessori o più core dello stesso processore allo scopo di aumentare le prestazioni di calcolo del sistema di elaborazione. (it)
- 병렬 컴퓨팅(parallel computing) 또는 병렬 연산은 동시에 많은 계산을 하는 연산의 한 방법이다. 크고 복잡한 문제를 작게 나눠 동시에 병렬적으로 해결하는 데에 주로 사용되며, 병렬 컴퓨팅에는 여러 방법과 종류가 존재한다. 그 예로, 비트 수준, 명령어 수준, 데이터, 작업 병렬 처리 방식 등이 있다. 병렬 컴퓨팅은 오래전부터 주로 고성능 연산에 이용되어 왔으며, 프로세서 주파수의 물리적인 한계에 다가가면서 문제 의식이 높아진 이후에 더욱 주목받게 되었다. 최근 컴퓨터 이용에서 발열과 에 대한 관심이 높아지는 것과 더불어 멀티 코어 프로세서를 핵심으로 컴퓨터 구조에서 강력한 패러다임으로 주목받게 되었다. 병렬 컴퓨터들은 대체적으로 하드웨어의 병렬화 방법에 따라 분류된다. 클러스터, MPP, 그리드는 여러 컴퓨터에서 한 가지 작업을 하도록 설계되었다. 멀티 코어나 멀티 프로세서 컴퓨터들은 여러 개의 처리 요소(CPU 등)을 한 기기에 탑재하고 작업한다. 특수화된 병렬 컴퓨터 구조들은 가끔씩 고전적인 프로세서들과 함께 특정한 작업을 가속화 시키는 목적으로도 사용된다. 들은 순차적 프로그램보다 난해하다. 왜냐하면 동시처리는 여러 종류의 새로운 잠재적 소프트웨어 버그를 가지고 있기 때문이다. (경쟁 상태가 가장 흔하다) 통신과 를 요구하는 다른 하위 작업들은 병렬 프로그램 성능의 전형적인 방해요소다. 병렬화된 프로그램의 은 암달의 법칙에 의해서 그 결과가 결정된다. (ko)
- Obliczenia równoległe – forma wykonywania obliczeń, w której wiele instrukcji jest wykonywanych jednocześnie. Taka forma przetwarzania danych była wykorzystywana przez wiele lat, głównie przy wykorzystaniu superkomputerów, a szczególne znaczenie zyskała z uwagi na fizyczne ograniczenia uniemożliwiające dalsze zwiększanie częstotliwości taktowania procesorów. Obliczenia równoległe stały się dominującym wzorcem w architekturze komputerowej, głównie za sprawą upowszechnienia procesorów wielordzeniowych. Ze względu na skalę można wyróżnić obliczenia równoległe na poziomie: * , * , * , * . Ze względu na poziom, na którym sprzęt wspomaga operacje równoległe, można wyróżnić komputery: * jednoprocesorowe wielordzeniowe (zawierające jeden procesor wielordzeniowy), * symetryczne wieloprocesorowe (zawierające kilka identycznych, równorzędnych procesorów), * systemy składające się z wielu maszyn: * klastry, * systemy MPP, * gridy. Do prowadzenia obliczeń równoległych, oprócz sprzętu, konieczne są również odpowiednie algorytmy nazywane równoległymi. Są one trudniejsze w implementacji niż , ponieważ współbieżność wprowadza dodatkowe możliwości popełnienia błędu. Powstają również dodatkowe problemy w uzyskaniu wysokiej wydajności z powodu dodatkowych nakładów na komunikację i konieczność synchronizacji obliczeń. (pl)
- Parallelldator brukar man populärt kalla system av datorer som samverkar för att lösa en uppgift snabbare än vad en enskild dator skulle förmå. Det sker så att uppgiften delas upp i flera deluppgifter som hanteras samtidigt av flera datorer eller processorer. Denna datorteknikrelaterade artikel saknar väsentlig information. Du kan hjälpa till genom att lägga till den. (sv)
- Параллельные вычислительные системы — это физические компьютерные, а также программные системы, реализующие тем или иным способом параллельную обработку данных на многих вычислительных узлах. Например, для быстрой сортировки массива на двухпроцессорной машине можно разделить массив пополам и сортировать каждую половину на отдельном процессоре. Сортировка каждой половины может занять разное время, поэтому необходима синхронизация.(Основная статья: Параллельные вычисления) Идея распараллеливания вычислений основана на том, что большинство задач может быть разделено на набор меньших задач, которые могут быть решены одновременно. Обычно параллельные вычисления требуют координации действий. Параллельные вычисления существуют в нескольких формах: параллелизм на уровне битов, параллелизм на уровне инструкций, параллелизм данных, параллелизм задач. Параллельные вычисления использовались много лет в основном в высокопроизводительных вычислениях, но в последнее время к ним возрос интерес вследствие существования физических ограничений на рост тактовой частоты процессоров. Параллельные вычисления стали доминирующей парадигмой в архитектуре компьютеров, в основном в форме многоядерных процессоров. Писать программы для параллельных систем сложнее, чем для последовательных, так как конкуренция за ресурсы представляет новый класс потенциальных ошибок в программном обеспечении (багов), среди которых состояние гонки является самой распространённой. Взаимодействие и между процессами представляют большой барьер для получения высокой производительности параллельных систем. В последние годы также стали рассматривать вопрос о потреблении электроэнергии параллельными компьютерами. Характер увеличения скорости программы в результате распараллеливания объясняется законами Амдала и Густавсона. (ru)
- Computação paralela é uma forma de computação em que vários cálculos são realizados ao mesmo tempo, operando sob o princípio de que grandes problemas geralmente podem ser divididos em problemas menores, que então são resolvidos concorrentemente (em paralelo). Existem diferentes formas de computação paralela: em bit, instrução, de dado ou de tarefa. A técnica de paralelismo já é empregada há vários anos, principalmente na , mas recentemente o interesse no tema cresceu devido às limitações físicas que previnem o aumento de frequência de processamento. Com o aumento da preocupação do consumo de energia dos computadores, a computação paralela se tornou o paradigma dominante nas arquiteturas de computadores sob forma de processadores multinúcleo. Computadores paralelos podem ser classificados de acordo com o nível em que o hardware suporta paralelismo. Computadores com multinúcleos ou multiprocessadores possuem múltiplos elementos de processamento em somente uma máquina, enquanto clusters, e grades usam múltiplos computadores para trabalhar em uma única tarefa. Arquiteturas paralelas especializadas às vezes são usadas junto com processadores tradicionais, para acelerar tarefas específicas. Programas de computador paralelos são mais difíceis de programar que sequenciais, pois a concorrência introduz diversas novas classes de defeitos potenciais, como a condição de corrida. A comunicação e a sincronização entre diferentes subtarefas é tipicamente uma das maiores barreiras para atingir grande desempenho em programas paralelos. O aumento da velocidade por resultado de paralelismo é dado pela lei de Amdahl. (pt)
- Паралельні обчислення — це форма обчислень, в яких кілька дій проводяться одночасно. Ґрунтуються на тому, що великі задачі можна розділити на кілька менших, кожну з яких можна розв'язати незалежно від інших. Є кілька різних рівнів паралельних обчислень: бітовий, інструкцій, даних та паралелізм задач. Паралельні обчислення застосовуються вже протягом багатьох років, в основному в високопродуктивних обчисленнях, але зацікавлення ним зросло тільки недавно, через фізичні обмеження зростання частоти.. Оскільки (і відповідно виділення тепла) комп'ютерами стало проблемою в останні роки, паралельне програмування стає домінуючою парадигмою в комп'ютерній архітектурі, основному в формі багатоядерних процесорів. Паралельні комп'ютери можуть бути грубо класифіковані згідно з рівнем, на якому апаратне забезпечення підтримує паралелізм: багатоядерність, багатопроцесорність — комп'ютери, що мають багато обчислювальних елементів в межах одної машини, а також кластери, MPP, та ґрід — системи що використовують багато комп'ютерів для роботи над одним завданням. Спеціалізовані паралельні архітектури іноді використовуються поряд з традиційними процесорами, для прискорення особливих задач. Програми для паралельних комп'ютерів писати значно складніше, ніж для послідовних, бо паралелізм додає кілька нових класів потенційних помилок, серед яких найпоширенішою є стан гонитви. Комунікація, та синхронізація процесів зазвичай одна з найбільших перешкод для досягнення хорошої продуктивності паралельних програм. Максимальний можливий приріст продуктивності паралельної програми визначається законом Амдала. (uk)
- 并行计算(英語:parallel computing)一般是指许多指令得以同时进行的计算模式。在同時進行的前提下,可以將計算的過程分解成小部份,之後以並行方式來加以解決。 電腦軟體可以被分成數個運算步驟來執行。為了解決某個特定問題,軟體採用某個演算法,以一連串指令執行來完成。傳統上,這些指令都被送至單一的中央处理器,以循序方式執行完成。在這種處理方式下,單一時間中,只有單一指令被執行(processor level: 比较微处理器,CISC, 和RISC,即流水线Pipeline的概念,以及后来在Pipeline基础上以提高指令处理效率为目的的硬件及软件发展,比如branch-prediction, 比如forwarding,比如在每个运算单元前的指令堆栈,汇编程序员对programm code的顺序改写)。平行運算採用了多個運算單元,同時執行,以解決問題。 (zh)
- dbr:Carnegie_Mellon_University
- dbr:Amdahl's_law
- dbr:Propagation_delay
- dbr:List_of_concurrent_and_parallel_programming_languages
- dbr:List_of_distributed_computing_conferences
- dbr:Message_passing
- dbr:Memory_virtualization
- dbr:Mesh_networking
- dbr:Bayesian_network
- dbr:Berkeley_Open_Infrastructure_for_Network_Computing
- dbr:Branch_and_bound
- dbr:David_A._Patterson_(scientist)
- dbr:Desktop_computers
- dbr:Algorithm
- dbr:Algorithmic_skeleton
- dbr:Application-specific_integrated_circuit
- dbr:Honeywell
- dbr:Hyper-Threading
- dbr:Hypercube_graph
- dbr:List_of_important_publications_in_conc...,_parallel,_and_distributed_computing
- dbr:Pentium_4
- dbr:Register_renaming
- dbr:Robert_E._Ornstein
- dbr:Upper_bound
- dbr:VHDL
- dbr:Bus_sniffing
- dbr:Variable_(programming)
- dbr:Verilog
- dbr:Voltage
- dbr:Deadlock
- dbr:Donald_Becker
- dbr:InfiniBand
- dbr:Instruction_pipelining
- dbr:Instructions_per_cycle
- dbr:Internet
- dbr:Network_topology
- dbr:Library_(computing)
- dbr:Tejas_and_Jayhawk
- dbr:Software_quality
- dbr:16-bit_computing
- dbr:Combinational_logic
- dbr:Compiler
- dbr:Computer_multitasking
- dbr:Computer_software
- dbr:Concurrent_computing
- dbr:Content_Addressable_Parallel_Processor
- dbr:Core_dump
- dbr:Cray
- dbr:Cray-1
- dbr:Mathematical_finance
- dbr:Matrix_(mathematics)
- dbr:Memory_latency
- dbr:Run_time_(program_lifecycle_phase)
- dbr:SISAL
- dbr:Object_(computer_science)
- dbr:Out-of-order_execution
- dbr:Middleware
- dbr:RIKEN_MDGRAPE-3
- dbr:Speedup
- dbr:Sequential_algorithm
- dbr:Task_parallelism
- dbr:Transputer
- dbr:Freescale_Semiconductor
- dbr:George_Gurdjieff
- dbr:Gigabit_Ethernet
- dbr:Monte_Carlo_method
- dbr:Moore's_law
- dbr:Multics
- dbr:N-body_problem
- dbr:Concurrency_(computer_science)
- dbr:Control_unit
- dbr:Cooley–Tukey_FFT_algorithm
- dbr:Critical_path_method
- dbr:Critical_section
- dbr:Crossbar_switch
- dbr:Thomas_Sterling_(computing)
- dbr:Brute_force_attack
- dbr:Volunteer_computing
- dbr:SystemC
- dbr:Very-large-scale_integration
- dbr:Apple_Inc.
- dbr:Application_checkpointing
- dbr:Application_programming_interface
- dbr:Linear_algebra
- dbr:Load_balancing_(computing)
- dbr:Local_area_network
- dbr:Lock-free_and_wait-free_algorithms
- dbr:Luigi_Federico_Menabrea
- dbr:MIT_Computer_Science_and_Artificial_Intelligence_Laboratory
- dbr:Signal_processing
- dbr:Star_network
- dbr:Commercial_off-the-shelf
- dbr:Compute_kernel
- dbr:Computer_architecture
- dbr:Computer_cluster
- dbr:Computer_graphics
- dbr:Computer_performance
- dbr:Computing
- dbr:Embarrassingly_parallel
- dbr:Atomic_operation
- dbr:Parallel_algorithm
- dbr:Partitioned_global_address_space
- dbr:Semaphore_(programming)
- dbr:Supercomputer
- dbr:Synchronization_(computer_science)
- dbr:TCP/IP
- dbr:Mean_time_between_failures
- dbr:Mutual_exclusion
- dbr:64-bit_computing
- dbr:CPU_cache
- dbr:CPU_socket
- dbr:CUDA
- dbr:Address_space
- dbc:Concurrent_computing
- dbc:Distributed_computing
- dbr:Cell_(microprocessor)
- dbr:Tomasulo_algorithm
- dbr:Tree_(graph_theory)
- dbr:Data_dependency
- dbr:Data_parallelism
- dbr:Dataflow_architecture
- dbr:Distributed_computing
- dbr:Distributed_memory
- dbr:Distributed_shared_memory
- dbr:Futures_and_promises
- dbr:Latency_(engineering)
- dbr:Lattice_Boltzmann_methods
- dbr:Lock_(computer_science)
- dbr:Lockstep_(computing)
- dbr:Software_lockout
- dbr:8-bit_computing
- dbr:AMD
- dbr:4-bit_computing
- dbr:Dynamic_programming
- dbr:AltiVec
- dbr:Ernest_Hilgard
- dbr:Execution_unit
- dbr:FPGA
- dbr:Finite_element_analysis
- dbr:Bandwidth_(computing)
- dbr:Barnes–Hut_simulation
- dbr:Barrier_(computer_science)
- dbr:BrookGPU
- dbr:Non-uniform_memory_access
- dbr:Non-volatile_memory
- dbr:POSIX_Threads
- dbr:Central_processing_unit
- dbr:Blue_Gene
- dbr:Daniel_Slotnick
- dbr:Directive_(programming)
- dbr:Flynn's_taxonomy
- dbr:Graph_traversal
- dbr:Graphical_model
- dbr:Graphics_processing_unit
- dbr:Handel-C
- dbr:Floating-point
- dbr:Multi-core_processor
- dbr:Fault-tolerant_computer_system
- dbr:Molecular_dynamics
- dbr:Protein_folding
- dbr:Regular_grid
- dbr:Process_(computing)
- dbr:Reconfigurable_computing
- dbr:Remote_procedure_call
- dbr:Resource_management_(computing)
- dbr:Ring_network
- dbr:Hardware_description_language
- dbr:Haskell_(programming_language)
- dbr:HyperTransport
- dbr:Vector_processor
- dbr:AMD_FireStream
- dbc:Parallel_computing
- dbr:Charles_Babbage
- dbr:John_Cocke_(computer_scientist)
- dbr:John_L._Hennessy
- dbr:Lawrence_Livermore_National_Laboratory
- dbr:Bioinformatics
- dbr:Bit-level_parallelism
- dbr:Supercomputers
- dbr:TOP500
- dbr:Hidden_Markov_model
- dbr:High-performance_computing
- dbr:Thread_(computing)
- dbr:Mitrionics
- dbr:Photolithography
- dbr:Domain-specific_programming_language
- dbr:Automatic_parallelization
- dbr:Automatic_vectorization
- dbr:Marvin_Minsky
- dbr:Burroughs_Corporation
- dbr:Burst_buffer
- dbr:Bus_(computing)
- dbr:Bus_contention
- dbr:C.mmp
- dbr:C_to_HDL
- dbr:PlayStation_3
- dbr:Sony
- dbr:Sorting_algorithm
- dbr:Fiber_(computer_science)
- dbr:Field-programmable_gate_array
- dbr:Frequency_scaling
- dbr:Grid_computing
- dbr:Computer_networking
- dbr:Synchronous_programming
- dbr:Engineering_sciences
- dbr:IBM
- dbr:ILLIAC_IV
- dbr:Impulse_C
- dbr:Infiniband
- dbr:Instruction-level_parallelism
- dbr:Instruction_set
- dbr:Integer
- dbr:Intel
- dbr:Inter-process_communication
- dbr:Meteorology
- dbr:Michael_Gazzaniga
- dbr:Michael_J._Flynn
- dbr:Michio_Kaku
- dbr:Nvidia
- dbr:Nvidia_Tesla
- dbr:OpenCL
- dbr:OpenHMPP
- dbr:OpenMP
- dbr:Operating_system
- dbr:Capacitance
- dbr:Race_condition
- dbr:RapidMind
- dbr:Redundancy_(engineering)
- dbr:SequenceL
- dbr:Seymour_Papert
- dbr:Shared_memory_(interprocess_communication)
- dbr:CPU_bound
- dbr:C_programming_language
- dbr:X86-64
- dbr:Software_bug
- dbr:Massively_parallel
- dbr:Message_Passing_Interface
- dbr:Multiplexing
- dbr:Routing
- dbr:Streaming_SIMD_Extensions
- dbr:Sequence_analysis
- dbr:Server_(computing)
- dbr:Loop_unwinding
- dbr:Uniform_memory_access
- dbr:Ethernet
- dbr:Explicit_parallelism
- dbr:Gustafson's_law
- dbr:Implicit_parallelism
- dbr:Serializability
- dbr:Multi-core
- dbr:US_Air_Force
- dbr:Finite-state_machine
- dbr:Myrinet
- dbr:Society_of_Mind
- dbr:Manycore
- dbr:Time-sharing
- dbr:Simultaneous_multithreading
- dbr:Scoreboarding
- dbr:Massively_parallel_(computing)
- dbr:Unstructured_grid
- dbr:Symmetric_multiprocessing
- dbr:Temporal_multithreading
- dbr:Serial_computation
- dbr:Parallel_programming_model
- dbr:Parallel_slowdown
- dbr:PeakStream
- dbr:Systolic_array
- dbr:RISC
- dbr:High_performance_computing
- dbr:Superscalar
- dbr:Vector_processing
- dbr:Word_(data_type)
- dbr:Parallelism_(computing)
- dbr:Analytic_Engine
- dbr:Carry_bit
- dbr:Atomic_lock
- dbr:Processing_element
- dbr:Error_correction
- dbr:Error_detection
- dbr:Inline_code
- dbr:Beowulf_(computing)
- dbr:Compute_shader
- dbr:Cache_coherency
- dbr:Mitrion-C
- dbr:File:IBM_Blue_Gene_P_supercomputer.jpg
- dbr:File:Cray_1_IMG_9126.jpg
- dbr:File:ILLIAC_4_parallel_computer.jpg
- dbr:File:Fivestagespipeline.png
- dbr:File:Nopipeline.png
- dbr:File:Superscalarpipeline.svg
- dbr:File:Beowulf.jpg
- dbr:File:AmdahlsLaw.svg
- dbr:File:Optimizing-different-parts.svg
- dbr:File:BlueGeneL_cabinet.jpg
- dbr:File:Numa.svg
- dbr:File:Taiwania_3_Supercomputer.jpg
- dbr:File:Gustafson.png
- dbr:File:NvidiaTesla.jpg
- Paralelní výpočty (anglicky parallel computing) je v informatice označení pro výpočty, které jsou řešeny souběžně („paralelně“). Paralelizace je využívána pro zvýšení výpočetního výkonu v situaci, kdy nelze použít rychlejší počítač (vyšší frekvenci) nebo pro zjednodušení použitého algoritmu nebo pro lepší využití elektrické energie. Paralelní výpočty se mohou realizovat pomocí víceprocesorových systémů nebo spuštěním úlohy na počítačovém clusteru, kde jsou jednotlivé počítače propojené pomocí výpočetní sítě. Paralelizace funguje na principu rozdělování složitějších úloh na jednodušší a je považována za obtížnější formu programování. Existuje několik rozdílných forem paralelních výpočtů: bitové, instrukční, datové a paralelní úlohy. (cs)
- Ein Parallelrechner ist ein Rechner, in dem Rechenoperationen gleichzeitig unter anderem auf mehreren Haupt- oder Grafikprozessoren durchgeführt werden können. (de)
- Komputasi paralel adalah salah satu teknik melakukan komputasi secara bersamaan dengan memanfaatkan beberapa komputer independen secara bersamaan. Ini umumnya diperlukan saat kapasitas yang diperlukan sangat besar, baik karena harus mengolah data dalam jumlah besar (di , bioinformatika, dll) ataupun karena tuntutan proses komputasi yang banyak. Kasus kedua umum ditemui di kalkulasi numerik untuk menyelesaikan persamaan matematis di bidang fisika (fisika komputasi), kimia (kimia komputasi) dll. (in)
- In informatica il calcolo parallelo è l'esecuzione simultanea del codice sorgente di uno o più programmi (diviso e specificamente adattato) su più microprocessori o più core dello stesso processore allo scopo di aumentare le prestazioni di calcolo del sistema di elaborazione. (it)
- Parallelldator brukar man populärt kalla system av datorer som samverkar för att lösa en uppgift snabbare än vad en enskild dator skulle förmå. Det sker så att uppgiften delas upp i flera deluppgifter som hanteras samtidigt av flera datorer eller processorer. Denna datorteknikrelaterade artikel saknar väsentlig information. Du kan hjälpa till genom att lägga till den. (sv)
- 并行计算(英語:parallel computing)一般是指许多指令得以同时进行的计算模式。在同時進行的前提下,可以將計算的過程分解成小部份,之後以並行方式來加以解決。 電腦軟體可以被分成數個運算步驟來執行。為了解決某個特定問題,軟體採用某個演算法,以一連串指令執行來完成。傳統上,這些指令都被送至單一的中央处理器,以循序方式執行完成。在這種處理方式下,單一時間中,只有單一指令被執行(processor level: 比较微处理器,CISC, 和RISC,即流水线Pipeline的概念,以及后来在Pipeline基础上以提高指令处理效率为目的的硬件及软件发展,比如branch-prediction, 比如forwarding,比如在每个运算单元前的指令堆栈,汇编程序员对programm code的顺序改写)。平行運算採用了多個運算單元,同時執行,以解決問題。 (zh)
- الحوسبة المتوازية (بالإنجليزية: Parallel computing) هيَ شكل من أشكال الحوسبة التي يجري فيها تنفيذ العديد من العمليات في وقت واحد، والتي تقوم على مبدأ أنه يمكن في كثير من الأحيان تقسيم المشاكل الكبيرة إلى مشاكل أصغر حجمًا ليتم حلها بشكل مُتوازٍ في نفس الوقت. للحوسبة المُتوازية عدة مستويات مختلفة: * التوازي على مستوى البت (بالإنجليزية: Bit-level) * التوازي على مستوى التعليمات. * التوازي على مستوى البيانات. * التوازي على مستوى المهام. (ar)
- La computació paral·lela és una forma de computació en la qual molts càlculs es fan simultàniament, operant sobre el principi que sovint es poden dividir problemes grans en altres de més petits, els quals llavors es poden solucionar ("en paral·lel"). Hi ha unes quantes formes diferents de computació paral·lela: a nivell de bit, nivell d'instrucció, dades, i paral·lelisme de tasca. El paral·lelisme s'ha emprat durant molts anys, principalment en la computació d'alt rendiment, però l'interès en això ha augmentat últimament a causa de les restriccions físiques que eviten l'escalat de freqüència. Com què el consum de potència (i consegüentment la generació de calentor) per ordinadors s'ha convertit en una preocupació durant els darrers anys, la computació paral·lela s'ha convertit en el parad (ca)
- Στην πληροφορική, παράλληλος προγραμματισμός λέγεται η ανάπτυξη οι οποίες εκμεταλλεύονται την ύπαρξη πολλαπλών επεξεργαστικών μονάδων σε έναν πολυεπεξεργαστή ή πολυυπολογιστή για να επιτύχουν αύξηση των υπολογιστικών επιδόσεων και μείωση του απαιτούμενου χρόνου εκτέλεσης της εφαρμογής. Επομένως ο παράλληλος προγραμματισμός μπορεί να ιδωθεί ως ειδική περίπτωση ταυτόχρονου προγραμματισμού, όπου η εκτέλεση γίνεται πραγματικά παράλληλα και όχι ψευδοπαράλληλα. (el)
- Paralela komputado estas komputadformo en kiu multaj komputadtaskoj estas plenumataj samtempe, funkciantaj laŭ la principo ke grandaj problemoj povas ofte esti dividataj en malpli grandajn, kiuj tiam estas aparte solvataj ("paralele"). Estas pluraj formoj de paralela komputado: , , , kaj . Paraleleco estas uzita de multaj jaroj, aparte en , sed interesiĝo pri ĝi lastatempe kreskis pro la fizikaj trudoj malpermesantaj frekvencan supergradigon. Ĉar energikonsumo (kaj sekve varmgenerado) per komputiloj fariĝis vera problemo en lastatempaj jaroj, paralela komputado fariĝis la superrega paradigmo en komputila arkitekturo, ĉefe en formo de . (eo)
- La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo). Hay varias formas diferentes de computación paralela: paralelismo a nivel de bit, paralelismo a nivel de instrucción, paralelismo de datos y paralelismo de tareas. El paralelismo se ha empleado durante muchos años, sobre todo en la computación de altas prestaciones, pero el interés en ella ha crecido últimamente debido a las limitaciones físicas que impiden el aumento de la frecuencia.Como el consumo de energía —y por consiguiente la generación de calor— de las computadoras constituye una preocupación en los últimos años, l (es)
- Paralelismoa konputazio modu bat da, hainbat kalkulu aldi berean paraleloan egiten dituena, problema handiak hainbat problema txikitan banatzeko printzipioan oinarrituta dago, gero problema txiki horiek paraleloan ebazteko. Paralelismoa urte askotan erabili da, batez ere Errendimendu Handiko Informatikarako. (eu)
- Parallel computing is a type of computation in which many calculations or processes are carried out simultaneously. Large problems can often be divided into smaller ones, which can then be solved at the same time. There are several different forms of parallel computing: bit-level, instruction-level, data, and task parallelism. Parallelism has long been employed in high-performance computing, but has gained broader interest due to the physical constraints preventing frequency scaling. As power consumption (and consequently heat generation) by computers has become a concern in recent years, parallel computing has become the dominant paradigm in computer architecture, mainly in the form of multi-core processors. (en)
- En informatique, le parallélisme consiste à mettre en œuvre des architectures d'électronique numérique permettant de traiter des informations de manière simultanée, ainsi que les algorithmes spécialisés pour celles-ci. Ces techniques ont pour but de réaliser le plus grand nombre d'opérations en un temps le plus petit possible. (fr)
- 병렬 컴퓨팅(parallel computing) 또는 병렬 연산은 동시에 많은 계산을 하는 연산의 한 방법이다. 크고 복잡한 문제를 작게 나눠 동시에 병렬적으로 해결하는 데에 주로 사용되며, 병렬 컴퓨팅에는 여러 방법과 종류가 존재한다. 그 예로, 비트 수준, 명령어 수준, 데이터, 작업 병렬 처리 방식 등이 있다. 병렬 컴퓨팅은 오래전부터 주로 고성능 연산에 이용되어 왔으며, 프로세서 주파수의 물리적인 한계에 다가가면서 문제 의식이 높아진 이후에 더욱 주목받게 되었다. 최근 컴퓨터 이용에서 발열과 에 대한 관심이 높아지는 것과 더불어 멀티 코어 프로세서를 핵심으로 컴퓨터 구조에서 강력한 패러다임으로 주목받게 되었다. 병렬 컴퓨터들은 대체적으로 하드웨어의 병렬화 방법에 따라 분류된다. 클러스터, MPP, 그리드는 여러 컴퓨터에서 한 가지 작업을 하도록 설계되었다. 멀티 코어나 멀티 프로세서 컴퓨터들은 여러 개의 처리 요소(CPU 등)을 한 기기에 탑재하고 작업한다. 특수화된 병렬 컴퓨터 구조들은 가끔씩 고전적인 프로세서들과 함께 특정한 작업을 가속화 시키는 목적으로도 사용된다. (ko)
- 並列計算(へいれつけいさん、英語: parallel computing)は、コンピュータにおいて特定の処理をいくつかの独立した小さな処理に細分化し、複数の処理装置(プロセッサ)上でそれぞれの処理を同時に実行させることである。並列コンピューティングや並列処理とも呼ばれる。大きな問題を解いたり、大量のデータを処理したりする過程は、より小さなサブタスクやサブデータグループの処理に分割できることが多い、という事実を利用して単位時間あたりの処理効率(スループット)の向上を図る手法である。 また、並列計算のために設計されたコンピュータを並列コンピュータという。並列コンピュータは当初スーパーコンピュータなどの高価で大規模なシステムのみに見られる設計だったが、プロセッサのクロック周波数の上昇による処理性能向上に限界や問題が見えてきたことなどから、パーソナルコンピュータや携帯機器でもマルチコア設計のCPUを搭載し、並列計算に活用することが当たり前になっている。特にコンピュータの画面表示にも利用される画像処理は並列化しやすいため、専用設計の簡素なグラフィックコントローラに始まり、複雑な3次元コンピュータグラフィックスのパイプライン処理と描画なども並列計算によって高速にリアルタイム実行できるGPUへと発展を遂げている。 (ja)
- Een parallelle computer is een computer die over meerdere processoren beschikt en daardoor meerdere taken tegelijk kan uitvoeren. Daarbij gaat het om taken die echt tegelijkertijd worden uitgevoerd en niet, zoals bij multitasking, om het snel heen en weer schakelen tussen taken. Traditioneel is een parallelle computer een supercomputer met duizenden tot honderdduizenden processoren, die voor wetenschappelijk rekenwerk wordt gebruikt, maar tegenwoordig zijn bijna alle computers parallel; zelfs de eenvoudigste pc's en laptops zijn van multikernprocessoren voorzien. (nl)
- Obliczenia równoległe – forma wykonywania obliczeń, w której wiele instrukcji jest wykonywanych jednocześnie. Taka forma przetwarzania danych była wykorzystywana przez wiele lat, głównie przy wykorzystaniu superkomputerów, a szczególne znaczenie zyskała z uwagi na fizyczne ograniczenia uniemożliwiające dalsze zwiększanie częstotliwości taktowania procesorów. Obliczenia równoległe stały się dominującym wzorcem w architekturze komputerowej, głównie za sprawą upowszechnienia procesorów wielordzeniowych. Ze względu na skalę można wyróżnić obliczenia równoległe na poziomie: * , * , * , * . (pl)
- Computação paralela é uma forma de computação em que vários cálculos são realizados ao mesmo tempo, operando sob o princípio de que grandes problemas geralmente podem ser divididos em problemas menores, que então são resolvidos concorrentemente (em paralelo). Existem diferentes formas de computação paralela: em bit, instrução, de dado ou de tarefa. A técnica de paralelismo já é empregada há vários anos, principalmente na , mas recentemente o interesse no tema cresceu devido às limitações físicas que previnem o aumento de frequência de processamento. Com o aumento da preocupação do consumo de energia dos computadores, a computação paralela se tornou o paradigma dominante nas arquiteturas de computadores sob forma de processadores multinúcleo. (pt)
- Параллельные вычислительные системы — это физические компьютерные, а также программные системы, реализующие тем или иным способом параллельную обработку данных на многих вычислительных узлах. Например, для быстрой сортировки массива на двухпроцессорной машине можно разделить массив пополам и сортировать каждую половину на отдельном процессоре. Сортировка каждой половины может занять разное время, поэтому необходима синхронизация.(Основная статья: Параллельные вычисления) (ru)
- Паралельні обчислення — це форма обчислень, в яких кілька дій проводяться одночасно. Ґрунтуються на тому, що великі задачі можна розділити на кілька менших, кожну з яких можна розв'язати незалежно від інших. Програми для паралельних комп'ютерів писати значно складніше, ніж для послідовних, бо паралелізм додає кілька нових класів потенційних помилок, серед яких найпоширенішою є стан гонитви. Комунікація, та синхронізація процесів зазвичай одна з найбільших перешкод для досягнення хорошої продуктивності паралельних програм. (uk)
- freebase:Parallel computing
- wikidata:Parallel computing
- dbpedia-ar:Parallel computing
- dbpedia-az:Parallel computing
- dbpedia-bg:Parallel computing
- http://bn.dbpedia.org/resource/সমান্তরাল_কম্পিউটিং
- http://bs.dbpedia.org/resource/Paralelni_sistemi
- dbpedia-ca:Parallel computing
- dbpedia-cs:Parallel computing
- dbpedia-de:Parallel computing
- dbpedia-el:Parallel computing
- dbpedia-eo:Parallel computing
- dbpedia-es:Parallel computing
- dbpedia-et:Parallel computing
- dbpedia-eu:Parallel computing
- dbpedia-fa:Parallel computing
- dbpedia-fi:Parallel computing
- dbpedia-fr:Parallel computing
- dbpedia-gl:Parallel computing
- http://gu.dbpedia.org/resource/સમાંતર_કમ્પ્યુટિંગ
- dbpedia-he:Parallel computing
- http://hi.dbpedia.org/resource/युगपत_अभिकलन
- dbpedia-hr:Parallel computing
- dbpedia-hu:Parallel computing
- dbpedia-id:Parallel computing
- dbpedia-it:Parallel computing
- dbpedia-ja:Parallel computing
- http://jv.dbpedia.org/resource/Komputasi_paralel
- http://kn.dbpedia.org/resource/ಪ್ಯಾರೆಲೆಲ್_ಕಂಪ್ಯೂಟಿಂಗ್(ಏಕಕಾಲದ_ಗಣಕಕಾರ್ಯ)
- dbpedia-ko:Parallel computing
- dbpedia-la:Parallel computing
- http://lv.dbpedia.org/resource/Paralēlā_skaitļošana
- http://ml.dbpedia.org/resource/സമാന്തര_കംപ്യൂട്ടിങ്ങ്
- http://mn.dbpedia.org/resource/Зэрэгцээ_тооцоолол
- dbpedia-mr:Parallel computing
- dbpedia-nl:Parallel computing
- dbpedia-pl:Parallel computing
- dbpedia-pt:Parallel computing
- dbpedia-ro:Parallel computing
- dbpedia-ru:Parallel computing
- http://si.dbpedia.org/resource/සමාන්තර_පරිගණනය
- dbpedia-simple:Parallel computing
- dbpedia-sl:Parallel computing
- dbpedia-sq:Parallel computing
- dbpedia-sr:Parallel computing
- dbpedia-sv:Parallel computing
- http://ta.dbpedia.org/resource/இணைக்_கணிப்பீடு
- dbpedia-tr:Parallel computing
- dbpedia-uk:Parallel computing
- http://ur.dbpedia.org/resource/متوازی_کمپیوٹنگ
- dbpedia-vi:Parallel computing
- dbpedia-zh:Parallel computing
- https://global.dbpedia.org/id/2CV9t
- yago-res:Parallel computing
is dbo:wikiPageRedirects of
- dbr:Parallel_language
- dbr:Parallelization
- dbr:History_of_parallel_computing
- dbr:Message-driven_parallel_programming
- dbr:Parallel_programming
- dbr:Parallel_Computing
- dbr:Parallel_hardware
- dbr:Parallel_processing_(computing)
- dbr:Superword_Level_Parallelism
- dbr:Parallel_Programming
- dbr:Parallel_architecture
- dbr:Parallel_code
- dbr:Parallel_computer
- dbr:Parallel_computer_hardware
- dbr:Parallel_computers
- dbr:Parallel_execution_units
- dbr:Parallel_machine
- dbr:Parallel_processing_computer
- dbr:Parallel_processor
- dbr:Parallel_program
- dbr:Parallel_programming_language
- dbr:Parallelisation
- dbr:Parallelism_(computing)
- dbr:Parallelized
- dbr:Parellel_computing
- dbr:Concurrent_(programming)
- dbr:Concurrent_event
- dbr:Concurrent_language
- dbr:Parallel_computation
- dbr:Computer_Parallelism
- dbr:Multicomputer
- dbr:Multiple_processing_elements