Sie sind auf Seite 1von 6

Computación En Paralelo

Universidad Autónoma De Ciudad Juárez


Rodolfo Cardenas
Mat 71769
Ingeniería En Sistemas Computacionales
Sistemas Operativo Distribuidos
Computación En Paralelo
Unidad I
Prof. Noé Ramón Rosales Morales
Índice
Introducción……………………………………………...…….…………….2
Aplicaciones de computación en paralelo………………….…………….2
¿Qué lenguajes de programación para computo en paralelo y sistemas
distribuidos existen?.………………………………………………….…….2
¿Qué lenguajes de programación existen para aprovechar múltiples
microprocesadores?..............................................................................3
Fabricantes, características, y ejemplos.………….………………..…....3
Conclusión…………………………………………………………………...4
Bibliografía…………………………………………………………………...5
Introducción
En este trabajo hablaremos sobre lo que es la computación en paralelo, para que
sirve y cuáles son las aplicaciones del mismo, así que empezaremos definiéndolo;
esta es una técnica de programación que consiste en dividir la carga de un proceso
en pequeñas partes para posteriormente ejecutarlos al mismo tiempo, esta técnica
está basada en la idea de que problemas grandes se pueden dividir en partes
pequeñas para después solucionarlos simultáneamente es decir en paralelo. Pero,
¿porque utilizar esta técnica?, porque te permite:
• Mayor capacidad de calculo
• Mejor costo y rendimiento
• Potencia expresiva de los modelos de procesamiento paralelo
Esta última ventaja, se refiere que si de un principio, se puede integrar la técnica de
paralelismo a un problema será más fácil el poder implementar un modelo
computacional.

Aplicaciones de computación en paralelo.


Dentro de las aplicaciones de la computación en paralelo, se pueden mencionar
todas aquellas que requieren gran cantidad procesamiento de datos, como:
• Procesamiento de imágenes.
• Modelado matemático.
• Inteligencia artificial.
• Gestión de base de datos.
• Predicción del tiempo (Meteorología).
• Procesamiento de señales digitales.

¿Qué lenguajes de programación para computo en paralelo y sistemas


distribuidos existen?
Los lenguajes de programación e Interfaces de Programación de Aplicaciones para
el computo en paralelo, se pueden dividir en clases basadas en las suposiciones
que se hacen sobre la arquitectura de memoria subyacente: compartida, distribuida,
o compartida-distribuida.
Los lenguajes de programación de memoria compartida se comunican mediante la
manipulación de variables en la memoria compartida.
En la arquitectura con memoria distribuida se utiliza el paso de mensajes. POSIX
Threads y OpenMP son dos de las API más utilizadas con la memoria compartida,
mientras que Message Passing Interface (MPI) es el API más utilizado en los
sistemas de paso de mensajes.
2
Los principales lenguajes de programación en paralelo permanecen explícitamente
paralelos o en el mejor de los casos parcialmente implícitos, en los que un
programador le da al compilador directivas de paralelismo. Existen pocos lenguajes
de programación paralelos totalmente implícitos, ejemplo de ellos son: SISAL,
Parallel Haskell, y para FPGAs, Mitrion C, Fortran 90, High Performance Fortran,
C*, OCCAM, Linda.

¿Qué lenguajes de programación existen para aprovechar múltiples


microprocesadores?
• MultiPascal.
• OpenMP.
• HPF (High Performance Fortran).

Fabricantes, características, y ejemplos:


Fabricante Características Ejemplo
• Era capaz de alcanzar
picos de 1,9 GFLOPS.
Departamentos de Estados • La memoria central del
Unidos de Defensa y Energía CPU es de 32 Mega Cray-2
palabras.
• Memoria temporal de 32
MB.
• Índice de 93 petaflops en
el punto de referencia
de LINPACK.
• Arquitectura: Sunway
SW26010 260C 1,45GHz
Shanghai High Performance de 64-bit RISC con 260
IC Design Centre núcleos. Sunway
• Núm. de procesadores: TaihuLight
40.960 procesadores, con
10.649.600 núcleos
• Memoria: 1.310 TiB (240
bytes)
• S.O.: Raise OS versión
2.0.5 Linux
• Precio: MX
$5.188.692.600 millones.

3
Fabricante Características Ejemplo
• Velocidad máxima
de cálculo de más
de 20 petaflops
(20.000 billones
de operaciones en
coma flotante por
segundo), de la
cual
NVIDIA aproximadamente Titán
el 90 por ciento se
debe a las 18.688
GPU NVIDIA
Tesla K20,
basadas en la
arquitectura
Kepler de NVIDIA.
• Memoria de 710
Terabytes.
• Pertenece al
proyecto CUDA

Conclusión
esta técnica de programación ha permitido grandes avances en varias áreas de
aplicación, ya que Para resolver un problema lo idea es dividirlo en secciones Para
resolverlo de manera más rápida, también considero que existen muy pocos
lenguajes de programación en paralelo ya que es complicado tener comunicación y
sincronización de las tareas entre diferentes equipos

4
Bibliografía
[1] J. Aguilar, E. Leiss, Introducción a la Computación Paralela, 2004,
http://www.ing.ula.ve/~aguilar/publicaciones/objetos/libros/ICP.pdf
[2] Weinbach N., Tucat M., García A., Programación en Paralelo Utilizando un
Modelo de Sistemas Multi-agente s.f,
http://sedici.unlp.edu.ar/bitstream/handle/10915/22950/Documento_completo.pdf?
sequence=1
[3] Computación Paralela, 2013,
https://arquitecturadecomputadora.wordpress.com/2013/06/07/computacion-
paralela/

Das könnte Ihnen auch gefallen