Esta es la antigua web del Centro de Supercomputación de Galicia.

Nuestro nuevo web está disponible desde el 18 de Julio de 2011 en
https://www.cesga.es

Por favor, actualice sus enlaces y marcadores.


Esta web solo se mantiene con el fin de servir como histórico de noticias, cursos, ofertas de empleo publicadas, etc.. y/o documentación.

CESGA-Centro de Supercomputación de Galicia
Galego :: Español :: English
Centro de Supercomputacion de Galicia
Inicio
Destacados

Conectados
2535 visitantes
Total desde 21-12-05: 73827542 visitas
ISO 9001:2008

EXCELENCIA GESTIÓN

Accesibilidad

Benchmarks PDF E-mail

Benchmarks Subsistema Beowulf

Linpack

En el test Linpack hecho en junio de 2002, el resultado obtenido fue de 10,3 GFlops. El benchmark fue compilado con los compiladores de Portland versión 3.3-2, GM 1.5.1_Linux y MPICH-GM 1.2.1..7b.

Pallas MPI Benchmark PMB

A continuación se recogen los resultados obtenidos de los benchmarks de Pallas GmbH. Estos benchmarks se utilizan para comparar el rendimiendo de las implementaciones MPI. Los resultados se obtuvieron en julio de 2002 con la versión GM 1.5.1_Linux y la versión MPICH-GM 1.2.1..7b, basada en MPICH 1.2.1. El benchmark PMB fue compilado con los compiladores de Portland pgcc, versión 3.3-2.

Rendimiento Punto a Punto

El rendimiento punto a punto se mide entre dos procesos que se ejecutan en dos nodos distintos, y se expresan en MBytes por segundo de ancho de banda por nodo (enviar + recibir), así como la latencia en las comunicaciones expresada en microsegundos.

PMB PingPong

PingPong es el patrón clásico utilizado para medir el arranque y el throughput de un único mensaje enviada entre dos nodos. La secuencia de comunicación es un bucle MPI_Recv() seguida por un MPI_Send() (figura 1). 
 

PMB PingPing

PingPing es un test de comunicación en dos direcciones concurrentes. Al igual que PingPong, PingPing mide el arranque y el throughput de un único mensaje enviado entre dos procesos, con la diferencia de que los mensajes están obstruidos por mensajes en la dirección contraria. Para ello, dos procesos se comunican (MPI_Isend/MPI_Recv/MPI_Wait) entre sí, con llamadas MPI_Isend enviadas simultáneamente (figura 1).

PMB SendRecv

Este test está basado en la llamada MPI_Sendrecv(). En él los procesos forma una cadena de comunicación periódica, en la que cada proceso envía al vecino que se encuentra a su derecha y recibe del vecino que se encuentra a su izquierda en la cadena (figura 2).

PMB Exchange

En este test, el grupo de procesos también actúa coma una cadena periódica, y cada proceso intercambia (exchanges) datos con sus vecinos derecho e izquierdo en la cadena (figura 3).

Benchmarks colectivos

El rendimiento colectivo o de la interconexión del sistema en su conjunto, se mide entre todos o un subconjunto de los nodos del sistema. Los datos de los benchmarks colectivos muestran la latencia media en las comunicaciones en microsegundos.

PMB Allreduce

Este es el benchmark de la función MPI_Allreduce. Reduce vectores de números en punto flotante de longitud L = X/sizeof(float) desde cada proceso a un único vector y lo distribuye a todos los procesos. El tipo de datos MPI es MPI_FLOAT y la operación MPI es MPI_SUM (figura 4).

 PMB Reduce

Este es el benchmark de la función MPI_Reduce. Reduce vectores de números en punto flotante de longitud L = X/sizeof(float) desde cada proceso a un único vector en el proceso padre. El tipo de dato MPI es MPI_FLOAT y la operación MPI es MPI_SUM. El proceso padre de la operación cambia cíclicamente (figura 5).

PMB Reduce_scatter

Este es el benchmark de la función MPI_Reduce_scatter. Reduce vectores de números en punto flotante de longitud L = X/sizeof(float) en un único vector. El tipo de dato MPI es MPI_FLOAT y la operación MPI es MPI_SUM. En la fase dispersa (scatter), los valores de L se dividen uniformemente entre todos los procesos (figura 6).

PMB Allgather

Este es el benchmark de la función MPI_Allgather. Cada proceso envía X bytes y recibe el grupo de los X*(nº_procesos) bytes (figura 7).

PMB Allgatherv

Este es el benchmark de la función MPI_Allgatherv. Cada proceso envía X bytes y recibe el grupo de los X*(nº_procesos) bytes (figura 8).
 

PMB Alltoall

Este es el benchmark de la función MPI_Alltoall. Cada proceso envía y recibe X*(nº_procesos) bytes (X para cada proceso) (figura 9).  

PMB Broadcast

Este es el benchmark de la función MPI_Bcast. Un proceso padre envía (broadcasts) X bytes a todos los otros procesos (figura 10).
 

PMB Barrier

Este es el benchmark de la función MPI_Barrier(). No se intercambia ningún dato (figura 11).


CPMD Si64

Para probar el BeoWulf con una aplicación real, se compiló el programa de dinámica molecular CPMD en este sistema utilizando MPI. El compilador utilizado fue el de Portland y se utilizaron tres librerías diferentes de BLAS:

  • Las propias del compilador de Portlan (marcadas en las figuras como Pallas)
  • Las del proyecto Atlas
  • Las propias del fabricante (Intel)

Como entrada se utilizó un cojunto de 64 moléculas de Si sobre el cual se hizo una optimización de la función de onda (marcado como Si64 en las figuras) y, en un segundo paso, un cálculo ad initio MD (marcado como Si64md). En las figuras siguientes se muestran los resultados obtenidos tanto en tiempo consumido como en SpeedUp en función del número de procesadores utilizados.

Figura 12.- CPDM si64
Figura 13.- CPDM si64md
Figura 14.- CPDM si64 speedup
Figura 15.- CPDM si64md speedup 

 

Modificado ( 01.12.2005 )
Master HPC

CESGA APOYA

PRACE Award 2009

Itanium Alliance Award

Miembro de Gelato

Acreditación EUGridPMA

Novedades
Dominio gallego

ALERTA VIRUS MENSUAL

infoarrobacesga.es :: Telf.: +34 981 569810 - Fax: 981 594616 :: Avda. de Vigo s/n 15705, Santiago de Compostela.
CESGA