jueves, 24 de mayo de 2012

Semana Final Reporte de curso

Esta ultima semana es de entrega de la supercomputadora, hablare un poco de mis contribuciones y mi pensar del proyecto y futuros proyectos.

Que esperaba del curso
Al inicio del curso fue un poco revuelto adaptarse a los reportes semanales ya que personalmente nunca me había tocado trabajar así, incluso esto ocasiono alguna perdida de puntos al inicio por no saber bien que hacer como hacerlo, ya conforme avanzaron las semanas se pudo mejorar mucho en este aspecto.


Contribuciones Personales
Departe de mi intente contribuir mas que nada con aplicaciones, llegue a tener alguna comunicacion con varios de los integrantes de el equipo de aplicaciones como lo son Abraham,Adriana y Blanca. Se llego a intentar realizar un cluster ante la necesidad de poner a prueba las aplicaciones. Algunas otras contribuciones que tuve fue la documentacion de informacion sobre temas relevantes. Las que considero como mis mejores contribuciones

  • Megamatcher SDK ya que es una aplicacion ya provada realmente ya hecha, la unica desventaja seria que es solo una version de prueba y que se requiere de algunos dispositivos para poner a prueba algunos tipos de seguridad como la detección de retina y huella digital.

http://sistdistribyparalelos.blogspot.mx/2012/04/semana-12.html


  • Drque con blender una aplicacion que fue puesta aprueba por el equipo cluster pero alfinal no se logro hacer funcionar, me parecio una buena aplicacion ya que tiene mucho campo actualmente ademas de que lo que se logra es bastante interesante la renderizacion de graficos.

  • Cluster: el intento de cluster que se trato de realizar entre mis compañeras blanca, adriana y yo. Al final no se logro pero la idea era poder poner a prueba todas las aplicaciones del grupo, incluso se hablo con otros integrantes y se unirían al proyecto pero no prospero.

Problemas-Inconvenientes


Algunos inconvenientes que considero afectaron mucho en el proyecto fueron la falta de comunicación entre los equipos que se dividieron, por ejemplo las aplicaciones que fuimos sacando el equipo de aplicaciones nunca se pudieron poner a prueba realmente hasta los últimos días que el mismo equipo cluster decidió checarlas, incluso algunos miembros del equipo de aplicaciones como ya lo dije  llegamos a intentar elaborar un mini cluster para poder probar las aplicaciones lo cual causo perdida de tiempo, ademas que entre los mismos grupo no hubo buena comunicación cada quien buscaba por su cuenta provocando que aveces hubiera material repetido. Otro punto que note es que había gente inscrita en varios grupos lo cual también ocasionaba que una semana hicieran algo de una cosa y otra semana un poco de otra y al final nunca hubo mucho de ninguna de las 2.

¿Como solucionar esto para un futuro proyecto parecido?


Pienso que si igualmente se divide en grupos nuevamente pero embes de hacer un reporte individual que cada equipo tenga que hacer un reporte semanal el mismo equipo forzara a todos los integrantes del equipo a participar un poco en el  trabajo, otra cosa seria el que no se pueda estar en 2 equipos solo 1 tema por persona para enfocar toda la atención en el mismo, por ultimo demo en vivo de avance cada 4 semanas para asi garantizar un avance por partes del proyecto.

Aprendizaje
El aprendizaje que tuve yo fue mas que nada en cuanto a las aplicaciones que se pueden correr y a la arquitectura de la supercomputadora, aunque me hubiera gustado tocar algunos otros temas que me interesaban como lo fue el cluster, pero no alcance cupo en el equipo ya que era muy extenso el numero de integrantes.

Nominaciones:
-Carmen
-Adriana

miércoles, 16 de mayo de 2012

Semana 15

En esta semana agregue a la wiki un poco de información acerca de los Grids computacionales o malla de ordenadores, que son, su arquitectura, como funcionan y ventajas y desventajas. Decidí agregar información de esto ya que es un tema que abarca el curso que varios compañeos han estado hablando sobre esto pero no encontre que alguien lo haya documentado en la wiki.

Link Wiki: http://elisa.dyndns-web.com/progra/Computacion%20Grid%28Malla%20de%20Ordenadores%29#preview


Nominaciones:
 *Adriana
 *Esteban
 *abraham

miércoles, 9 de mayo de 2012

Semana 14


Esta semana investigue sobre Benchmark que es una técnica que se utiliza para medir el rendimiento de algún componente en especifico como puede ser el CPU o GPU o el conjunto de varios componentes trabajando juntos, coloque información relevante a lo que es Benchmark en la wiki. También instale una aplicación llamada Linpack benchmark, Linpack es una aplicacion benchmark que nos sirve para medir los Gigaflops de nuestra pc o de un cluster, es utilizada en SuperComputadoras y tambien en computadoras de escritorio para medir el rendimiento de las mismas, también puse información sobre la aplicación en la wiki


Después de instalarla la probé en mi lap y aqui unas imágenes de los resultados:
Primero ingresamos la cantidad de pruebas que se quieren realizar la cantidad de memoria con la que disponemos y las cpus utilizadas ya con esto dependiendo de nuestro equipo sera el tiempo que tarde en arrojar los resultados.


La puse a prueba con una Dell Inspiron 14(N4030) con las siguientes especificaciones:

SPECIFICATIONS
Part NumberIN4030-I3370-2-320-W7B-BLK
ModelInspiron N4030
ProcessorIntel Core i3-370M 2.4GHz Processor with Intel Hyper-Threading Technology (3MB Cache)
Memory4GB DDR3-1333
Hard Drive320GB 5400RPM
ChipsetMobile Intel® 5 Series Express Chipset HM57
GraphicsIntel HD Graphics
Display
14.0" High Definition (720p) 1366 x 768 WLED Display with TrueLifeTM
Optical DriveDVD+/-RW Optical Drive
NetworkIntegrated 10/100 Ethernet
CommunicationDell Wireless 1501 802.11 b/g/n; Dell Wireless 365 Bluetooth

Lab:

A la hora de buscar aplicacion benchmark me encontre con una que se llama Pi Program esta tambien es una benchmark que consiste en encontrar los una cantidad definida de decimales despues del punto decimal utiliza el algorithmo gauss-legendre y existen varias variantes del mismos programa como super pi. Lo que encontre fue un reporte de alguien que puso su equipo a trabajar a conseguir 10 trillones de digitos de pi, tomando encuenta errores de hardware y otros tipos alfinal se logro llegar a la cifra y tomo 1año el equipo que se utilizo es el siguiente:


Processor
2 x Intel Xeon X5680 @ 3.33 GHz - (12 physical cores, 24 hyperthreaded)
Memory
96 GB DDR3 @ 1066 MHz - (12 x 8 GB - 6 channels)
Motherboard
Asus Z8PE-D12
Hard Drives
1 TB SATA II (Boot drive)
5 x 2 TB SATA II (Store Pi Output)
24 x 2 TB SATA II (Computation) - various models
Raid Controller
3 x LSI MegaRaid SAS 9260-8i
Operating System
Windows Server 2008 R2 Enterprise x64
El reporte completo aqui:
http://www.numberworld.org/misc_runs/pi-10t/details.html
Fuentes:


Nominaciones:
*Adriana


jueves, 3 de mayo de 2012

Semana 13


Esta semana decidí buscar una aplicación para probar la eficiencia y mejorar un clúster basado en Linux. Encontré una aplicación llamada Cbench que tiene varias funcionalidades entre las más importantes el mejoramiento de rendimiento de un clúster paralelo basado precisamente en Linux, algunas funcionalidades que encontré importantes en dicho programa es primero que nada que es gratuito además de que se puede estresar el sistema haciéndolo realizar diferentes tareas de diferentes tamaños y en diferentes tiempos llevando un registro de ello para así mejorar el clúster lo más posible y así ver en que área se necesita mejorar. Por lo pronto dejo la información de la aplicación y seguiré investigando en busca de tutoriales para probar las diferentes herramientas con las que cuenta para ver si son aptas para el clúster que estamos implementando en clase.

Link de wiki: http://elisa.dyndns-web.com/progra/Aplicaciones/Cb

LAB

Para laboratorio encontré varias noticia cortas acerca de cómo la nube ha venido a cambiar las supercomputadoras, además de los problemas que se enfrentan las compañías debido al gran consumo de energía que usan las supercomputadoras, también como NVIDIA ha entrado fuertemente en el mercado de las supercomputadoras como la única compañía que ha logrado entrar al mercado de supercomputadoras utilizando un procesador basado en ARM, tanto así que a entrado al top 500. Otro tema en las noticias es de los nuevos chips para teléfonos celulares para que puedan ser utilizados con la nube.

Noticia:http://gigaom.com/2011/11/14/how-the-cloud-is-reshaping-supercomputers/

Nominaciones:

  • Raul
  • Adriana
  • Alex V.

sábado, 28 de abril de 2012

Semana 12

En esta semana continué trabajando con la aplicación MegaMatcherSDK, la semana pasada contribuí en la wiki con la información de la aplicación en si, esta semana lo que hice fue descargar la aplicación y ponerla a prueba ademas de complementar la información de la wiki respecto al uso de la aplicación y instalación. La aplicación de prueba cuenta con 3 tipos de pruebas que son detección de pupila, rostro y huellas digitales, lamentablemente para cada aplicación se requiere de un dispositivo en especial por ejemplo la de pupila ocupa un dispositivo especial para esto al igual que la de huellas digitales, solo pude poner aprueba la de rostro ya que utiliza webcam. La aplicación es bastante parecido a lo que se realizo el semestre pasado en el laboratorio de Sistemas Adaptativos lo que hace es detectar partes clave del rostro capturar varios frames del mismo y almacenarlos en una base de datos, realice algunas pruebas y me parece bastante efectivo, dejo algunas imagenes de las pruebas.

Al principio tuve problemas con la nitidez de la imagen al tratar de capturar imágenes de lejos como se muestra en el log la aplicación no capturaba los frames bien de esta manera.

Ya estando mas cerca de la camara logre que tomara los frames de forma correcta y pide ingresar el nombre de la persona.

Y ya por ultimo teniendo almacenada en la base de datos imágenes lo probe usando el identificador y los resultados fueron buenos como se ve en el log de la derecha :)


Link del wiki:http://elisa.dyndns-web.com/progra/MegaMatcherSDK#preview

Nominaciones:
-Adriana
-Alejandro Ave

Para Lab:

Para laboratorio investigue un poco de las supercomputadoras con las que contamos en México y encontré una noticia que me pareció interesante ya que no conocía el dato, la noticia menciona que México llego a formar parte del Top500 de supercomputadoras alguna vez ya que actualmente ya no aparecen entre las 500 principales, con 4 supercomputadoras que alguna vez ocuparon los lugares 83, 84,85 y 330 2 de las más conocidas KanBalam y el sistema de Banco Azteca. En la actualidad de los países latinoamericanos el único que permanece en el top500 es Brasil y el país que más porcentaje de supercomputadoras concentra como era de esperarse es Estados Unidos.


KanBalam es un clúster de computadoras HP y está ubicada en la UNAM cuenta con 1368 procesadores AMD Opteron de 2.6GHz y 3016 GB de memoria RAM, distribuidos en 337 nodos de cálculo, cada uno con 8GB RAM y dos procesadores duales y en 5 nodos especializados, con 64 GB RAM. Utiliza GNU/Linux como sistema operativo.

jueves, 19 de abril de 2012

Lab Semana 11



Para el laboratorio complementando un poco la información de la entrada de clase pongo una noticia del uso de MegaMatcher SDK en la vida real, como lo dice la noticia la tecnología MegaMatcher SDK empeso a ser utilizada en Indonesia para la identificación de emisión de pasaportes en dicho país a partir del 2009. Además de funcionar como principal motor de identificación también ayuda a agilizar y hacer más preciso el proceso.

¿Cómo funciona?

El sistema de emisión de pasaporte distribuido en unas 100 oficinas en la Republica de Indonesia recibe a Extranjeros los cuales se pueden inscribir de una forma rápida y tramitar solicitudes de pasaportes locales, se llenan los datos y después se envían automáticamente a un sistema de búsqueda centralizado biométricamente con esto se consigue un procesamiento rápido y preciso de la información del pasaporte. Con MegaMatcher se logra un alto grado de presicion, identificación de duplicados a un bajo costo. El sistema biométrico a juego en la sede de la inmigración en Yakarta se ejecuta en una granja de servidores Linux escalable.
La alta velocidad y la fiabilidad de MegaMatcher facilita el desarrollo de la escala nacional de varios sistemas de identificación biométricos faciales / huella digital y sistemas automatizados de identificación de huellas dactilares (AFIS), tanto para aplicaciones civiles y forenses.

Noticias:
*http://www.softzine.net/indonesia-now-using-megamatcher-biometric-technology-in-integrated-passport-issuance-system.html
*http://www.rfid-spain.com/articulo/69327/biometra/administracin-pblica/indonesia-utiliza-la-tecnologa-biomtrica-megamatcher-en-su-sistema-de-emisin-de-pasaportes

miércoles, 18 de abril de 2012

Semana 11

Para esta semana como lo había mencionado en la entrada anterior buscaría alguna aplicación relacionada con reconocimiento de patrones o algo relacionado a esto. Lo que encontré fue una aplicación llamada MegaMatcher SDK que es un software de paga pero que tiene una versión de prueba con la que se podría trabajar además el software incorpora la opción de uso de clúster en paralelo para agilizar y mejorar los resultados. MegaMatcher SDK es un software multi-biometrico utilizado para la verificación de huellas dactilares, voz y rostros entre otras funciones que incorpora, está disponible para Windows, Mac y Linux. Por el momento solo dejo la información de lo que es, para que sirve y algunos ejemplos de uso. Para la próxima semana espero poder descargarlo y realizar algún tutorial de uso y requerimientos, por lo pronto seria solo en mi computadora y también habría que buscar algún tutorial para emplearlo en el clúster.

Link de wiki: http://elisa.dyndns-web.com/progra/MegaMatcherSDK
Lo subí a la wiki pidiendo una cuenta prestada ya que :/ olvide mi contraseña



Referencias:
http://www.digitalworksperu.com/biometria.htm
http://www.neurotechnology.com/mm_sdk.html
http://www.neurotechnology.com/megamatcher.html

domingo, 15 de abril de 2012

Semana 10


Esta semana seguí investigando sobre aplicaciones que podríamos probar en el clúster, más que nada me enfoque en lo que es reconocimiento de patrones ya que el semestre pasado se hizo algo parecido en el lab de sistemas adaptativos. Una investigación que encontré y me pareció bastante interesante es la clasificación de proteínas, aunque por lo visto es un ejemplo bastante complejo me pareció muy interesante. ¿Por qué me parece complejo? Primero que nada no conozco mucho sobre la materia y además son muchos aspectos a tomar en cuenta a la hora de la clasificación como por ejemplo la secuencia, estructura, interacción biomolecular y localización celular. Lo que se uso en la investigación fueron redes de Kohonen las cuales son un tipo de red neuronal y nos sirve para encontrar la estructura subyacente de los datos que se introducen en ella.

Este es el link de dicha investigación la cual es un proyecto realizado aquí en Mexico solo es una explicación de lo realizado.

http://www.worldses.org/plenary/Applications.pdf

Este tipo de aplicaciones se les conoce como Clustering de Secuencia ya que se basa en algoritmos que intentan agrupar secuencias biológicas que se relacionan, como el ejemplo de las proteínas ya que estas se clasifican en familias.
Para la próxima semana espero encontrar alguna aplicación con algo relacionado a redes neuronales o reconocimiento de patrones que es a lo que me enfocare a buscar para esta semana.

Fuentes:
http://en.wikipedia.org/wiki/Cluster_analysis
http://www.worldses.org/plenary/Applications.pdf
http://en.wikipedia.org/wiki/Sequence_clustering

jueves, 5 de abril de 2012

Semana 9

Esta semana continue trabajando con mi compañera Adriana en la aplicacion de Drqueue por mi parte agrege los pasos a seguir para la instalacion de la misma, las librerias que se ocupan y todo lo relevante a la instalacion, mi compañera se enfoco en la parte del uso una ves ya instalado todo y ejecutada la aplicacion. Para lo proxima semana seria investigar lo ultimo del Drqueue o buscar alguna otra aplicacion para el cluster talves algo mas basico para cuando se empiece apenas.

Link wiki:http://elisa.dyndns-web.com/progra/DrQueue

Nominaciones:
Adriana

jueves, 29 de marzo de 2012

Semana 8

Esta semana junto a mi compañera Adriana trabajamos en buscar alguna aplicacion para uso futuro en el cluster, tomando en cuenta lo que investigo Roberto para esta semana que fue Blender que es una aplicacion que hace modelados en 3D, lo que nosotros buscamos fue poder trabajar en lo mismo y descargamos la aplicacion de Blender y tambien buscamos algun complemento de esta aplicacion la cual es DrQueue seguiremos trabajando en esta aplicacion ya que no hemos logrado hacerla funcionar ya que los installers que existen son de pago y la otra manera es compilar el codigo que se proporciona en la pagina.

Por lo pronto dejamos lo que es Drqueue las funciones que realiza.

Link del wiki:http://elisa.dyndns-web.com/progra/DrQueue

Nominaciones:
Adriana
Roberto

jueves, 22 de marzo de 2012

Semana 7

En esta semana se organizo una reunión de todas las personas que están en la clase de sistemas distribuidos, a la cual no puede asistir por lo que me puse a hablar con varios compañeros que asistieron para ponerme al tanto de lo hablado en dicha reunión.

Algunos de los temas que se tocaron fueron calendarización para poder tener el proyecto listo según las fechas para las cuales debería estar.
El uso del mismo sistema operativo ya que algunos usaban otras distribuciones de Linux y a veces era difícil trabajar con ellos además para la mejora del cluster. También se sugerio que todos descargaran lo que se iba a ocupar para el cluster y todas las librerías que serán necesarias para trabajar con todo.

Por ultimo trabajar como un grupo más grande no pequeños grupos dispersos lo que a ocasionado que haya mucho material repetido en la wiki

Esta es la calendarización:
https://docs.google.com/document/d/13SpAJyJ9EDO5ae6EiB91b-qfeyl9qfMOg7tXPLvnPQA/edit?pli=1

domingo, 11 de marzo de 2012

Semana 6

Esta semana mis compañeras Blanca, Adriana y yo continuamos trabajando con el cluster, la verdad no esperabamos tener tantos problemas y pensamos que seria rapido hacerlo pero han surgido algunos errores que han sido los causantes de tardar mas de lo que se tenia planeado.

¿Que hicimos esta semana?
Basicamente continuamos instalando todo lo necesario y haciendo unas pruebas definiendo a blanca como el nodo maestro y adriana y yo como los nodos esclavos. Otro problema fue que la mayoria de los tutoriales que encontramos les faltan pasos o estan incompletos ante esto recurrimos a preguntarle algunas cosas a nuestro compañero Rafa el cual nos asesoro y dio algunos otros tutoriales que el utilizo. Por ultimo otro problema sigue siendo el aver pasado la lap de Adriana de español a ingles ya que esto sigue siendo realmente conflictivo con los directorios y parece que la unica solucion sera reinstalar ubuntu completamente.

¿Que se espera para la proxima semana?
Para la proxima semana esperamos ya tener el cluster funcionando al 100 y probando las aplicaciones.


jueves, 1 de marzo de 2012

Semana 5

Esta semana algunos miembros del grupo de aplicaciones entre Blanca, Adriana y yo nos enfocamos en intentar armar un cluster pequeño para probar algunas de las aplicaciones que encontramos anteriormente como por ejemplo POP,MM5 y en las cuales estuvo trabajando abraham esta semana.

¿Porque hacer otro cluster?
Nos parecio buena idea generar un pequeño cluster entre nosotros para poder probar rapidamente las aplicaciones que encontramos ya que aveces que nos juntamos el grupo de aplicaciones no siempre tenemos disponible a el grupo del cluster y aveces surge la necesidad de probar las aplicaciones al momento.

¿Cuales fueron los resultados?
Tenemos algunos problemas con los permisos ademas de para basarnos en uno de los tutoriales tuvimos que cambiar el lenguaje del ubuntu de una de las maquinas de español a ingles lo cual genero peores problemas ya que parece que los directorios antiguos quedaron con los viejos nombres y lo nuevo ya se genera en ingles.

Algunas capturas de pantalla:






Referencias que usamos para el cluster:

http://ubuntucluster.blogspot.com/search?updated-max=2010-08-24T10:27:00-07:00&max-results=7
http://byobu.info/wiki/Building_a_simple_Beowulf_Like_Cluster_with_Ubuntu

Para lab esta semana: Procesadores Superescalares

Procesadores Superescalares

¿Procesadores Superescalares que son?

Los procesadores superescalares son un tipo de microarquitectura de procesador capaz de ejecutar mas de una instruccion por ciclo de reloj. Los procesadores superescalares pueden ejecturar instrucciones escalares simultaneas en paralelo de manera que se pueden operar varios elementos de un vector dentro de una misma iteracion. Un procesador superescalar se puede clasificar en 2 tipos un procesador superescalar mononucleo de tipo de instruccion simple o un super escalar multinucleo de tipo de instruccion multiple. Los procesadores superescalares utilizan el paralelismo de instrucciones ademas del paralelismo de flujo que utiliza la estructura pipeline, la estructura pipeline en un procesador superescalar consta de 5 etapas las cuales son:


-Lectura(Fecth): Lectura de múltiples instrucciones.

-Decodificacion(Decode): Decodificación de múltiples instrucciones.

-Lanzamiento(Dispatch): Distribuye instrucciones a las diferentes unidades funcionales especializadas de latencia de variables.

-Ejecucion(Execute): Incluye multiples unidades funcionales especializadas de latencia variable.

-Escritura(Complete): Reordena las instrucciones y asegura la actualizacion en orden del estado de la maquina.

-Finalizacion(Retire):Salida de la instruccion del procesador.

En pipeline como el procesador superescalar puede manejar varias instrucciones en cada etapa, se le denomina como grado al numero maximo de instrucciones que puede llegar a manejar. El grado en la etapa de ejecucion tiene como dependiente el numero y tipo de unidades funcionales las cuales suelen ser de los siguientes tipos:
-Aritmetico Logica
-Lectura/Escritura
-Coma flotante
-Salto

Cabe resaltar que para que el procesador pueda ejecturar mas de una instruccion simultanea de debe aver presente ningun tipo de dependencia.

Tipos de dependencia

-Estructural: Ocurre cuando 2 instrucciones solicitan el mismo tipo de unidad funcional.

-De datos: Ocurre cuando una instruccion depende del resultado de otra para lograr ejecutar.

-Escritura: Ocurre cuando 2 instrucciones intentan escribir en la misma parte de la memoria.

-Control: Ocurre cuando una instruccion depende de otra instruccion de control.

Les dejo solo un poco de informacion sobre el tema igual para mas completo pueden checar las referencias hay bastantes pdfs muy interesantes donde explica mas a detalle cada paso de la estructura pipeline, ejemplos,ventajas y desventajas etc.

Referencias:
http://es.wikipedia.org/wiki/Superescalar
acomp.disca.upv.es/acso1/ps%20y%20pdf/tema7_color.pdf
http://ocw.uv.es/ingenieria-y-arquitectura/sistemas-electronicos-para-el-tratamiento-de-la-informacion/seti_materiales/seti7_ocw.pdf
wwwdi.ujaen.es/asignaturas/ArqTel/teoria/Tema1.pdf

jueves, 23 de febrero de 2012

4th Week

For this week I didn't do much I looked for some algorithms to test the cluster efficiency, I found this tutorial which includes some steps to test an algorithm that its also included in a file, what the algorithm basically do is calculates an approximate value for pi using a Monte Carlo technique. So I tried following the steps it mention but when it ask for the password it doesn't work I don't know why. The tutorial tells to open this for when u can run the algorithm u can see the time it takes and all the test results.


For next week I hope me and some other members of the algorithm team can make this algorithm work or find another one or maybe do one to have it ready and test the cluster in some weeks.

For lab: I found a video of a cluster made by some guy while he is testing it,he uses a algorithm of prime numbers to test it and some 3d images like the ones we saw at class.

jueves, 16 de febrero de 2012

3rd Week

For my contribution in this 3rd week me and some of the members of the application team have been talking about the type of applications to work in, we haven't decide yet we will be working on that in this week, the idea is to divide all the members of the parallel applications group in little groups of 3 and each group work in a different area and then vote for the best application and all the groups will work on it. As we haven't decide yet I looked for some examples and I found one that I think its really interesting its called Yabi.

Wiki link: Yabi

I didnt know how to post the video of Yabi in the wiki so i post it here.
Video

jueves, 9 de febrero de 2012

Semana 2

For this week contribution I looked for some examples of parallel algorithms. I also did a small introduction for the parallel algorithm section in the main page.
Here is the link for the wiki:
http://elisa.dyndns-web.com/progra/Finite%20Differences#preview

miércoles, 8 de febrero de 2012

Columbia Supercomputer from NASA

As a contribution for this week in lab ill talk about one example of an important supercomputer. The name of this supercomputer is Columbia from the NASA named this way in honor to the crew who died in Columbia disaster; it may not be the most powerful computer nowadays but it’s really important for the history of NASA because with this one they achieved a lot of breakthroughs in science. It was original installed in 2004 and in that year it was ranked in second place of the top most powerful supercomputers. Nowadays it’s being replaced with the new Pleiades Supercomputer which its ranked in 7th place.


The Columbia System Architecture includes:
System Architecture


• Manufacturer: SGI
• 40 compute node cabinets
• 30 Tflop/s theoretical peak (original 10,240 system: 63 Tflop/s)
• Total Memory: 9 TB
• Nodes
o 1 SGI® Altix® 4700 (512 cores)
o Intel® Itanium® processors (Montecito)
o 1.6 GHz
o 9MB
o 1 SGI Altix 4700 (2,048 cores)
o Intel Itanium processors (Montecito)
o 1.6 GHz
o 9 MB
o 2 SGI Altix 4700 (1,024 cores)
o Intel Itanium processors (Montvale)
o 1.6 GHz
o 9 MB
o 4 total compute nodes (4,608 total cores)
o Memory Type: Double data rate synchronous dynamic random access memory (DDR SDRAM)
o 2 GB per core
Subsystems


• 1 front-end node
Interconnects


• SGI® NUMAlink® interconnected single-system image compute nodes (enable large SSI)
• Internode
o InfiniBand®: 4x (Single Data Rate, Double Data Rate)
o 10 Gb Ethernet LAN/WAN interconnect
o 1 Gb Ethernet LAN/WAN interconnect
Storage


• Online: DataDirect Networks® and LSI® RAID, 800 TB (raw)
o 1 SGI CXFS domain
o Local SGI XFS
• Archival: Attached to high-end computing SGI CXFS storage area network filesystem
Operating Environment


• Operating system: SUSE® Linux® Enterprise
• Job scheduler: PBS®
• Compilers - C, Intel Fortran, SGI MPT

For more information or if you want to know about the new NASA supercomputer you can look at: http://www.nas.nasa.gov/hecc/resources/columbia.html

martes, 31 de enero de 2012

Semana 1

Para la entrada en esta semana realizare una pequeña introducción de lo que son los Sistemas Paralelos. Tradicionalmente la mayoría del software es diseñado para los sistemas en serie, la forma en que estos están diseñados es para funcionar en una sola computadora utilizando y teniendo un solo CPU. Las aplicaciones o programas que corren en el sistema en serie son desfragmentados en series de instrucciones, las cuales son ejecutadas una detrás de otra y tomando en cuenta que solo una instrucción puede ejecutarse a la vez.

En esta imagen podemos ver una instrucción siendo procesada representada por el problema siendo fragmentada para después ser procesado cada fragmento uno a uno en el CPU único.

En esta imagen ya podemos verlo representado en un proceso corriéndose y siendo fragmentado.

En el caso de los sistemas paralelos se utilizan múltiples CPUs a la hora de resolver un problema por ejemplo.

El problema se divide en varias partes las cuales a su vez son divididas en fragmentos y son procesadas todas a las ves por los diferentes CPUs con los que se cuente, haciéndole de esta forma más eficiente y rápido.


Hasta el momento esto es lo que eh estado investigando y lo subi a la wiki como información de apoyo.
http://elisa.dyndns-web.com/progra/Aplicaciones#preview