viernes, 4 de abril de 2014

Modelo OSI


Modelo OSI 

(7 capas)

El modelo OSI (Open Systems Interconection) es la propuesta que hizo la ISO (International Standards Organization) para estandarizar la interconexión de sistemas abiertos. Un sistema abierto se refiere a que es independiente de una arquitectura específica. Se compone el modelo, por tanto, de un conjunto de estándares ISO relativos a las comunicaciones de datos.

El modelo OSI establece los lineamientos para que el software y los dispositivos de diferentes fabricantes funcionen juntos. Aunque los fabricantes de hardware y los de software para red son los usuarios principales del modelo OSI, una comprensión general del modelo llega a resultar muy benéfica para el momento en que se expande la red o se conectan redes para formar redes de área amplia (WAN).

El modelo de interconexión de sistemas abiertos (OSI) tiene siete capas, las cuales de describen a continuación, primeramente se encuentran en éste orden:

  • Aplicación
  • Presentación
  • Sesión
  • Transporte
  • Red
  • Vínculo de datos
  • Física

Comenzamos con la descripción de cada capa para un mejor entendimiento:



1.- Capa de aplicación: Ofrece a las aplicaciones (de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.

Entre los protocolos (refiriéndose a protocolos de la capa de aplicación de OSI) más conocidos destacan:

·        HTTP (HyperText Transfer Protocol) el protocolo bajo la www
·       FTP (File Transfer Protocol) ( FTAM, fuera de TCP/IP) transferencia de ficheros
·        OSI SMTP (Simple Mail Transfer Protocol) (X.400 fuera de tcp/ip) envío y distribución de correo electrónico
·       POP (Post Office Protocol)/IMAP: reparto de correo al usuario final
·        OSI SSH (Secure SHell) principalmente terminal remoto, aunque en realidad cifra casi cualquier tipo de transmisión.
·       Telnet otro terminal remoto, ha caído en desuso por su inseguridad intrínseca, ya que las claves viajan sin cifrar por la red.

Funciones:

·        Uso compartido de recursos y re dirección de dispositivos
·        Acceso a archivos remotos
·        Acceso a la impresora remota
·        Comunicación entre procesos
·        Administración de la red
·        Servicios de directorio
·        Mensajería electrónica (como correo)
·        Terminales virtuales de red



2.- Capa de presentación: El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres (ASCII, Unicode, EBCDIC), números (little-endian tipo Intel, big-endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible.

Esta capa es la primera en trabajar más el contenido de la comunicación que en cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.

Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor.

    La capa de presentación proporciona:

  • Conversión de código de caracteres: por ejemplo, de ASCII a EBCDIC.
  • Conversión de datos: orden de bits, CR-CR/LF, punto flotante entre enteros, etc.
  • Compresión de datos: reduce el número de bits que es necesario transmitir en la red.
  • Cifrado de datos: cifra los datos por motivos de seguridad. Por ejemplo, cifrado de contraseñas.




3.- Capa de sesión: Esta capa establece, gestiona y finaliza las conexiones entre usuarios (procesos o aplicaciones) finales.









Ofrece varios servicios que son cruciales para la comunicación, como son:

  • Control de la sesión a establecer entre el emisor y el receptor (quién transmite, quién escucha y seguimiento de ésta).
  • OSI Control de la concurrencia (que dos comunicaciones a la misma operación crítica no se efectúen al mismo tiempo).
  • Mantener puntos de verificación (checkpoints), que sirven para que, ante una interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el último punto de verificación en lugar de repetirla desde el principio.

Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcialmente, o incluso, totalmente prescindibles.

En conclusión esta capa es la que se encarga de mantener el enlace entre los dos computadores que estén trasmitiendo archivos.

Los firewalls actúan sobre esta capa, para bloquear los accesos a los puertos de un computador.



4.- Capa de transporte: La capa de transporte garantiza que los mensajes se entregan sin errores, en secuencia y sin pérdidas o duplicaciones. Libera a los protocolos de capas superiores de cualquier cuestión relacionada con la transferencia de datos entre ellos y sus pares.

El tamaño y la complejidad de un protocolo de transporte depende del tipo de servicio que pueda obtener de la capa de transporte. Para tener una capa de transporte confiable con una capacidad de circuito virtual, se requiere una mínima capa de transporte. Si la capa de red no es confiable o solo admite datagramas, el protocolo de transporte debería incluir detección y recuperación de errores extensivos.

La capa de transporte proporciona:
  • Segmentación de mensajes: acepta un mensaje de la capa (de sesión) que tiene por encima, lo divide en unidades más pequeñas (si no es aún lo suficientemente pequeño) y transmite las unidades más pequeñas a la capa de red.
  • Confirmación de mensaje: proporciona una entrega de mensajes confiable de extremo a extremo con confirmaciones.
  • Control del tráfico de mensajes: indica a la estación de transmisión que "dé marcha atrás" cuando no haya ningún búfer de mensaje disponible.
  • Multiplexación de sesión: multiplexa varias secuencias de mensajes, o sesiones, en un vínculo lógico y realiza un seguimiento de qué mensajes pertenecen a qué sesiones (consulte la capa de sesiones).

Protocolos de transporte de Internet

Internet tiene dos protocolos principales en la capa de transporte, uno orientado a la conexión y otro no orientado a la conexión. El protocolo no orientado a la conexión es el UDP y el orientado es el TCP:

  • UDP: Permite el envío de datagramas a través de la red sin que se haya establecido previamente una conexión, ya que el propio datagrama incorpora suficiente información de direccionamiento en su cabecera. Tampoco tiene confirmación, ni control de flujo, por lo que los paquetes pueden adelantarse unos a otros; y tampoco se sabe si ha llegado correctamente, ya que no hay confirmación de entrega o de recepción.                                                                 
  • OSI TCP: Muchos programas dentro de una red de datos compuesta por computadoras pueden usar TCP para crear conexiones entre ellos a través de las cuales puede enviarse un flujo de datos. El protocolo garantiza que los datos serán entregados en su destino sin errores y en el mismo orden en que se transmitieron.




5.- Capa de red: La capa de red controla el funcionamiento de la subred, decidiendo qué ruta de acceso física deberían tomar los datos en función de las condiciones de la red, la prioridad de servicio y otros factores.

      Proporciona:
  • Enrutamiento: enruta tramas entre redes.
  •   Control de tráfico de subred: los enrutadores (sistemas intermedios de capa de red) pueden indicar a una estación emisora que "reduzca" su transmisión de tramas cuando el búfer del enrutador se llene.
  •   Fragmentación de trama: si determina que el tamaño de la unidad de transmisión máxima (MTU) que sigue en el enrutador es inferior al tamaño de la trama, un enrutador puede fragmentar una trama para la transmisión y volver a ensamblarla en la estación de destino.
  •  Asignación de direcciones lógico-físicas: traduce direcciones lógicas, o nombres, en direcciones físicas.
  • Cuentas de uso de subred: dispone de funciones de contabilidad para realizar un seguimiento de las tramas reenviadas por sistemas intermedios de subred con el fin de producir información de facturación.


Hay dos formas en las que el nivel de red puede funcionar internamente, pero independientemente de que la red funcione internamente con datagramas o con circuitos virtuales puede dar hacia el nivel de transporte un servicio orientado a conexión:
  • Datagramas: Cada paquete se encamina independientemente, sin que el origen y el destino tengan que pasar por un establecimiento de comunicación previo.                     
  • OSI Circuitos virtuales: En una red de circuitos virtuales dos equipos que quieran comunicarse tienen que empezar por establecer una conexión. Durante este establecimiento de conexión, todos los routers que hayan por el camino elegido reservarán recursos para ese circuito virtual específico. 

   Algunos protocolos de la capa de red son:
·                         ARP, IP, IGMP, IPX.




     
     6.-Capa de vínculo de datos: Es la responsable de la transferencia fiable de información a través de un circuito de transmisión de datos. La capa de vínculo de datos ofrece una transferencia sin errores de tramas de datos desde un nodo a otro a través de la capa física, permitiendo a las capas por encima asumir virtualmente la transmisión sin errores a través del vínculo.


Para ello, la capa de vínculo de datos proporciona:
  •   Establecimiento y finalización de vínculos: establece y finaliza el vínculo lógico entre dos nodos.
  • Control del tráfico de tramas: indica al nodo de transmisión que "dé marcha atrás" cuando no haya ningún búfer de trama disponible.
  • Secuenciación de tramas: transmite y recibe tramas secuencialmente.
  • Confirmación de trama: proporciona/espera confirmaciones de trama. Detecta errores y se recupera de ellos cuando se producen en la capa física mediante la retransmisión de tramas no confirmadas y el control de la recepción de tramas duplicadas.
  •  Delimitación de trama: crea y reconoce los límites de la trama.
  • Comprobación de errores de trama: comprueba la integridad de las tramas recibidas.
  •   Administración de acceso al medio: determina si el nodo "tiene derecho" a utilizar el medio físico.




7.- Capa física: La Capa Física del modelo de referencia OSI es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico (cable coaxial, cable de par trenzado, fibra óptica, radio, microondas); características del medio (p.e. tipo de cable o calidad del mismo; tipo de conectores normalizados o en su caso tipo de antena; etc.) y la forma en la que se transmite la información (codificación de señal, niveles de tensión/intensidad de corriente eléctrica, modulación, tasa binaria, etc.)
  • Sus principales funciones se pueden resumir como:

    ·      Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados, coaxial, guías de onda, aire, fibra óptica.
    ·        Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
    ·       Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
    ·      Transmitir el flujo de bits a través del medio.
    ·       Manejar las señales eléctricas/electromagnéticas
    ·        Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
    ·      Garantizar la conexión (aunque no la fiabilidad de ésta).

Bibliografia: 




jueves, 6 de febrero de 2014



Redes de Intercambio de Archivos


¿Qué son las redes de intercambio de archivos?

El intercambio de archivos es el acto de distribuir o proveer acceso a información almacenada digitalmente, como programas informáticos, obras multimedia (audio, video), documentos, o libros electrónicos. Puede ser implementado con distintos tipos de almacenamiento, transmisión y modelos de distribución. Algunos de los métodos más comunes son la distribución manual mediante el uso de medios extraíbles (CD, DVD, disquetes, cintas magnéticas, memorias flash), instalaciones centralizadas de servidores de archivos en redes informáticas, documentos enlazados de la World Wide Web, y el uso de redes peer-to-peer (P2P) distribuidas.
La creciente popularidad del formato de audio MP3 a finales de los años 1990 llevó al lanzamiento y desarrollo de Napster un software diseñado para facilitar el intercambio de archivos informáticos. Otras redes populares son Gnutella, eDonkey2000, y la ya extinta Kazaa.

¿Cómo funcionan las P2P?

El intercambio de archivos de punto a punto, comúnmente abreviado como p2p, es un método para compartir archivos basados en redes que transfieren datos directamente entre dos o más puntos o computadoras. En vez de utilizar un servidor central para regular el tráfico de red, cada terminal actúa como servidor y como cliente. El tipo más común de red p2p son los torrents. Este sistema para compartir archivos usa un servidor central para mantener "rastreadores" que muestran cada punto que está conectado y que también está descargando el archivo. Los programas torrents, instalados en las computadoras que sirven como puntos, se conectan directamente a otras terminales para enviar y recibir datos.

Proceso para la conexión a una 
red de punto a punto

Para conectarte a una red p2p necesitarás instalar un software especial en tu computadora. El software que necesitarás dependerá del tipo de red p2p. Una vez que este se haya instalado puedes conectarte a la red apuntando el software al rastreador. El rastreador proporcionará información a tu computadora acerca de los otros puntos de la red. Una vez que tu equipo esté conectado e informado sobre toda la red podrás compartir archivos con otras terminales. En muchas redes p2p, y en particular en los torrents, cada archivo compartido tiene su propio "rastreador". Conectarte a un rastreador no te permitirá compartir otros archivos que puedan estar disponibles.


¿Cómo se transfiere la información?

Una vez que te hayas conectado a la red punto a punto tu computadora se comunicará con las otras. En la redes torrents los puntos que tienen el archivo completo que estás descargando tienen el estado especial de "semillas". Sin embargo puedes descargar incluso de puntos que no tengan el archivo completo. Dado que las redes p2p se distribuyen a través de diversas computadoras cada archivo es compartido en secciones. Tu computadora puede conectarse a cientos de terminales y descargar solamente una sección de cada una, o puede ser que se conecte a una sola semilla y descargue el archivo entero de ahí. Cada terminal enviará su sección del archivo directamente a tu computadora. Esta conexión directa distribuida entre puntos a menudo permite descargas de archivos mucho más rápidas.


Legalidad

El material con derechos de autor, tal como canciones y películas comerciales, no puede ser descargado de forma legal mediante redes p2p. Existen diversos sitios web de tipo torrents disponibles que ofrecen solamente archivos que tienen licencia para ser distribuidos gratis (ver recursos). Dado que las redes p2p son "abiertas", lo que significa que cualquiera con las herramientas apropiadas puede ver quién está conectado a la red, los usuarios deben tener cuidado y no asumir que todos los archivos disponibles son legales.





Historia sobre las redes Peer to Peer (P2P) 

hasta la actualidad


Los archivos se intercambiaron por primera vez en un medio extraíble. Las computadoras eran capaces de acceder a los archivos remotos utilizando un montaje del sistema de archivos, sistemas de tablón de anuncios, Usenet, y los servidores FTP. Internet Relay Chat y Línea Directa permitieron a los usuarios comunicarse a distancia a través del chat y el intercambio de archivos. La codificación de MP3, que se estandarizó en 1991 y que reduce sustancialmente el tamaño de los archivos de audio, creció a un uso generalizado en la década de 1990. En 1998, se establecieron MP3.com y Audiogalaxy, la Digital Millennium Copyright Act fue aprobada por unanimidad, y se pusieron en marcha los primeros dispositivos de reproductor de mp3.



En junio de 1999, Napster fue lanzado como un compañero no estructurado centralizado para sistema de pares, lo que requiere un servidor central para la indexación y el descubrimiento de pares. En general, se acredita como el primer punto a punto del sistema de intercambio de archivos.


Gnutella, eDonkey 2000 y Freenet fueron puestos en libertad en 2000, como Napster y MP3.com se enfrentan a litigios. Gnutella, publicado en marzo, fue la primera red de intercambio de archivos descentralizada. En la red Gnutella, todo el software de conexión se consideran iguales, y por lo tanto la red no tenía punto central de fallo. En julio de Freenet fue puesto en libertad y se convirtió en la primera red de anonimato. En septiembre, el software cliente y servidor de eDonkey2000 fue puesto en libertad.

En 2001, Kazaa y envenenado para la Mac fue lanzado. Su red FastTrack se distribuyó, aunque a diferencia de Gnutella, asignó más tráfico a 'supernodos' para aumentar la eficiencia de enrutamiento. La red era propietaria y cifrado, y el equipo de Kazaa hizo grandes esfuerzos para mantener otros clientes tales como Morpheus fuera de la red FastTrack.

En julio de 2001, Napster fue demandado por varias compañías discográficas y se pierde en A y M Records, Inc. v Napster, Inc... En el caso de Napster, se ha establecido que un proveedor de servicios en línea no podría utilizar la "red de transmisión transitoria" puerto seguro en la DMCA si tenían el control de la red con un servidor.

Poco después de su derrota en la corte, Napster fue cerrado para cumplir con una orden judicial. Esto llevó a los usuarios a otras aplicaciones P2P y compartir archivos continuó su crecimiento. El cliente Satélite Audiogalaxy creció en popularidad, y el cliente LimeWire y el protocolo BitTorrent fueron puestos en libertad. Hasta su caída en 2004, Kazaa fue el programa de intercambio de archivos más popular a pesar de malware incluido y las batallas legales en los Países Bajos, Australia y Estados Unidos. En 2002, un fallo de la corte de distrito de Tokio cerró Rogue del archivo, y la Asociación de la Industria Discográfica de Estados Unidos presentó una demanda que efectivamente cerró Audiogalaxy.


Desde 2002 hasta 2003, se establecieron una serie de servicios de BitTorrent, incluyendo Suprnova.org, isoHunt, TorrentSpy y The Pirate Bay. En 2002, la RIAA estaba presentando demandas contra usuarios de Kazaa. Como resultado de estas demandas, muchas universidades añaden normas de intercambio de archivos en sus códigos administrativos escolares. Con el cierre de eDonkey, en 2005, se convirtió en el cliente eMule dominante de la red eDonkey. En 2006, las redadas policiales se hizo con el servidor eDonkey Razorback2 y temporal llevó a The Pirate Bay

En 2009, el juicio de The Pirate Bay terminó en un veredicto de culpabilidad de los fundadores principales del rastreador. La decisión fue apelada, lo que lleva a un segundo veredicto de culpable en noviembre de 2010 - En octubre de 2010, Limewire se vio obligado a cerrar después de una orden judicial en Arista Records LLC v Lime Group LLC, pero la red Gnutella permanece activa a través de clientes de código abierto como Frostwire y gtk-Gnutella. Además, multi-protocolo de software de intercambio de archivos como MLDonkey y Shareaza adaptado con el fin de apoyar a todos los principales protocolos de intercambio de archivos, por lo que los usuarios ya no tienen que instalar y configurar varios programas para compartir archivos.


El 19 de enero de 2012, el Departamento de Justicia de Estados Unidos cerró el dominio popular de Megaupload. El sitio de intercambio de archivos ha reclamado tener más de 50 millones de personas al día. Kim dotcom fue detenido en Nueva Zelanda y está en espera de la extradición. El caso de la caída del sitio de intercambio de archivos más grande y popular del mundo, no fue bien recibido, con el grupo de hackers Anonymous derribar varios sitios relacionados con el desmontaje. En los días siguientes, otros sitios de intercambio de archivos comenzaron a cesar los servicios; Filesonic bloqueado descargas público el 22 de enero, con Fileserve siguiendo su ejemplo, el 23 de enero.



¿Qué es un Torrent?

Un ".torrent", es un archivo utilizado por un cliente de BitTorrent u otros programas P2P que emplean el protocolo BitTorrent.

Un torrent suele ser un fichero con extensión .torrent, que es estático, suele ser pequeño y que suele distribuirse por páginas web o e-mails. Este fichero contiene la dirección de un servidor de búsqueda, el cual se encarga de localizar posibles fuentes para descargar un archivo específico (una aplicación, un documento, un video, etc.).
Cliente BitTorrent: BitTorrent es un protocolo (y también el nombre de una aplicación que emplea ese protocolo) que permite intercambiar archivos (P2P) fácilmente.
Un cliente de BitTorrent, es una aplicación que emplea ese protocolo para intercambiar archivos. Cada cliente tiene sus ventajas y desventajas, y son independientes del autor original de BitTorrent.

Algunos clientes de BitTorrent son:

* ABC
* Azureus
* Blog Torrent
* CTorrent
* Deluge
* QTorrent
* Transmission

Este sistema para compartir archivos usa un servidor central para mantener "rastreadores" que muestran cada punto que está conectado y que también está descargando el archivo. Los programas torrents, instalados en las computadoras que sirven como puntos, se conectan directamente a otras terminales para enviar y recibir datos.

Ventajas:

Con el protocolo BitTorrent se bajan mayores cantidades de ficheros, reduciendo el ancho de banda disponible para cada transferencia. Las transferencias en BitTorrent son normalmente muy rápidas ya que todos los nodos en un grupo se concentran en transferir un solo fichero o una colección de los mismos.

Desventajas:

Los usuarios de BitTorrent deberán localizar por sus propios medios los archivos torrent que necesita el protocolo. Normalmente, estos archivos pueden descargarse desde las páginas web que publican grandes archivos o desde índices web de búsqueda.
BitTorrent es poco eficiente en transferencias de archivos pequeños (unos cuantos kb) ya que el ancho de banda usado en mensajes del protocolo es comparativamente alto.
Con el paso de los días el torrent caduca y desaparece de la red.

Conclusiones: Las redes de intercambio de archivos, a lo largo del tiempo han tenido un gran impacto sobre la sociedad, formando así medidas que rigen los archivos digitales y comenzando una nueva era.

Bibliografía:








martes, 12 de noviembre de 2013

Supercomputadoras


Supercomputadoras




¿Qué son?

Las supercomputadoras son el tipo de computadoras más potentes y más rápidas que existen en un momento dado. Son de gran tamaño, las más grandes entre sus pares. Pueden procesar enormes cantidades de información en poco tiempo pudiendo ejecutar millones de instrucciones por segundo, están destinadas a una tarea específica y poseen una capacidad de almacenamiento muy grande. Además son los más caros teniendo un costo que puede superar los 30 millones de dólares. Por su alto costo se fabrican muy pocas durante un año, incluso existen algunas que se fabrican solo por pedido.



¿Para qué se usan?



Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes:






  • Búsqueda y estudio de la energía y armas nucleares.
  • Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
  • El estudio y predicción del clima de cualquier parte del mundo.
  • La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo etc.
  • Mediante el uso de supercomputadoras, los investigadores modelan el clima futuro y el clima actual y predicen el clima futuro.
  • Los astrónomos y los científicos del espacio utilizan las supercomputadoras para estudiar al Sol y al clima espacial.
  • Los científicos usan supercomputadoras para simular de qué manera un tsunami podría afectar una determinada costa o ciudad.
  • Las supercomputadoras se utilizan para simular explosiones de supernovas en el espacio.
  • Las supercomputadoras se están utilizando para modelar cómo se doblan las proteínas y cómo ese plegamiento puede afectar a la gente que sufre la enfermedad de Alzheimer, la fibrosis enquistada y muchos tipos de cáncer. 



Principales Características


·        Velocidad de Proceso: Miles de millones de instrucciones de punto flotante por segundo.
·        Usuarios a la vez: Hasta miles, en entorno de redes amplias.
·        Tamaño: Requieren instalaciones especiales y aire acondicionado industrial.
·        Facilidad de uso: Solo para especialistas.
·        Clientes usuales: Grandes centros de investigación.
·        Penetración social: Prácticamente nula.


Tipos de supercomputadoras

Existen dos tipos principales de supercomputadores:
  •         Máquinas de vectores
  •         Máquinas paralelas.


Procesamiento Vectorial
El procesamiento vectorial requiere específicamente instrucciones con vectores en lenguaje de máquina. El procesamiento requiere hardware canalizado, pero no viceversa. Una instrucción vectorial indica la operación que se va a realizar y especifica la lista de operandos (denominada vector) sobre los que operará.



Instrucciones En Paralelo

Desde los albores de la computación, los diseñadores han tratado de hacer máquinas más rápidas. Hasta cierto punto, esto se podría lograr haciendo más veloz el hardware; sin embargo, empiezan a aparecer en el horizonte diversos límites físicos. 










Las 10 mejores computadoras 

en la actualidad


Posición.
Rmax
Rpeak
(Pflops)
Nombre
Computadora
tipo de procesador, interconexión
Vendedor
Sitio
País, año
Sistema Operativo
1
33,86
54,90
Tianhe-2
NUDT
Intel Xeon
IBM
National Supercomputing Center en Guangzhou
 China, 2013
GNU/Linux
2
17,6
24,8
Titan
Cray XK7
Opteron 6274 + Tesla K20
Cray
Oak Ridge National Laboratory
  Estados Unidos, 2012
GNU/Linux (CLE)
3
16,3
20,1
Sequoia
Blue Gene/Q
PowerPC A2, propio
IBM
Lawrence Livermore National Laboratory
  Estados Unidos, 2011
GNU/Linux (RHEL y CNL)
4
10,5
11,3
Computadora K
RIKEN
SPARC64 VIIIfx, Tofu
Fujitsu
RIKEN
  Japón, 2011
GNU/Linux
5
8,2
10,1
Mira
Blue Gene/Q
PowerPC A2, propio
IBM
Argonne National Laboratory
  Estados Unidos, 2012
GNU/Linux
6
4,1
5,0
JuQUEEN
Blue Gene/Q
PowerPC A2, Custom
IBM
Forschungszentrum Jülich
  Alemania, 2012
GNU/Linux
7
2,9
3,2
SuperMUC
iDataPlex DX360M4
Xeon E5–2680, Infiniband
IBM
Leibniz-Rechenzentrum
  Alemania, 2012
GNU/Linux
8
2,6
3,9
Stampede
Dell PowerEdge
Intel E5-2680
Dell
Texas Advanced Computing Center/Univ. of Texas
  Estados Unidos, 2012
GNU/Linux
9
2,5
4,7
Tianhe-1A
NUDT YH Cluster
Xeon 5670 + Tesla 2050, Arch7
NUDT
National Supercomputing Center of Tianjin
  China, 2010
GNU/Linux
10
1,7
2,1
Fermi
Blue Gene/Q
PowerPC A2, Custom
IBM
CINECA
  Italia, 2012
GNU/Linux

 Fuente (s):