Saltar al contenido principal
LibreTexts Español

5.3: Uniendo Brains: Supercomputación y Grid Computing

  • Page ID
    61435
    • Anonymous
    • LibreTexts

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Objetivos de aprendizaje

    Después de estudiar esta sección deberías poder hacer lo siguiente:

    1. Dar ejemplos del uso comercial de la supercomputación y la computación en red.
    2. Describir la computación en red y discutir cómo las cuadrículas transforman la economía de la supercomputación.
    3. Comprender las características de los problemas que son y no son adecuados para la supercomputación y la computación en red.

    A medida que la Ley de Moore hace posible lo que alguna vez fue imposible, las empresas han comenzado a exigir acceso a la tecnología informática más poderosa del mundo. Las supercomputadoras son computadoras que se encuentran entre las más rápidas de todas en el mundo al momento de su introducción 1. La supercomputación alguna vez fue dominio de gobiernos y laboratorios de investigación de alta gama, realizando tareas como simular la explosión de dispositivos nucleares o analizar fenómenos meteorológicos y climáticos a gran escala. Pero resulta que con un poco de retoque, los algoritmos utilizados en este trabajo son profundamente útiles para los negocios. Considera quizás la supercomputadora más conocida del mundo, Deep Blue de IBM, la máquina que más bien polémicamente venció al campeón de ajedrez Garry Kasparov. Si bien no hay una necesidad ardiente de computadoras para jugar al ajedrez en las corporaciones del mundo, resulta que los algoritmos informáticos para elegir el mejor entre múltiples movimientos de ajedrez son similares a las matemáticas detrás de elegir la mejor combinación de vuelos de aerolíneas.

    Uno de los primeros clientes de las tecnologías Deep Blue fue United Airlines, que obtuvo la capacidad de examinar trescientas cincuenta mil combinaciones de rutas de vuelo para sus sistemas de programación, una cifra muy por delante del límite anterior de tres mil. ¿Ahorro estimado mediante un mejor manejo del rendimiento? ¡Más de $50 millones! Las finanzas también encontraron usos. Uno de los primeros en adoptar fue CIBC (el Canadian Imperial Bank of Commerce), uno de los bancos más grandes de América del Norte. Cada mañana CIBC utiliza una supercomputadora para ejecutar su cartera a través de simulaciones de Monte Carlo que no son tan diferentes de las matemáticas utilizadas para simular explosiones nucleares. Uno de los primeros en adoptar la tecnología, en el momento de su implementación, CIBC era el único banco que los reguladores internacionales permitían calcular sus propias necesidades de capital en lugar de usar ratios repetitivos. Eso recortó el capital disponible en cientos de millones de dólares, un porcentaje sustancial del capital del banco, ahorrando millones al año en costos de financiamiento. También es digno de mención: el CIBC habilitado para supercomputadora y conocedor de riesgos estuvo relativamente ileso por la crisis de las subprime.

    La supercomputación moderna se realiza típicamente a través de una técnica llamada procesamiento masivamente paralelo (computadoras diseñadas con muchos microprocesadores que trabajan juntos, simultáneamente, para resolver problemas). Las más rápidas de estas supercomputadoras se construyen utilizando cientos de microprocesadores, todos programados para funcionar al unísono como un gran cerebro. Si bien las supercomputadoras usan electrónica y software especiales para manejar la carga masiva, los procesadores en sí suelen ser de la variedad estándar que encontrarías en una PC típica. Virginia Tech creó lo que en ese momento era la tercera supercomputadora más rápida del mundo mediante el uso de chips de 1,100 computadoras Macintosh unidas con componentes de red listos para usar. El costo total del sistema era de apenas 5.2 millones de dólares, mucho menos que el costo típico de ese hardware corpulento. La Fuerza Aérea emitió recientemente una solicitud de propuesta para comprar 2,200 sistemas PlayStation 3 con la esperanza de crear una máquina superbarata y superpoderosa con piezas listas para usar.

    Otra tecnología, conocida como computación en red, está transformando aún más la economía de la supercomputación. Con la computación en red, las empresas colocan software especial en sus PC o servidores existentes que permite que estas computadoras trabajen juntas en un problema común. Las organizaciones grandes pueden tener miles de PC, pero no necesariamente se utilizan todo el tiempo, o a plena capacidad. Con el software de red instalado en ellos, estos dispositivos inactivos pueden ser agrupados para atacar partes de una tarea compleja como si colectivamente fueran una supercomputadora masivamente paralela. Esta técnica cambia radicalmente la economía de la computación de alto rendimiento. BusinessWeek informa que si bien una supercomputadora de medio camino podría funcionar hasta 30 millones de dólares, el software y los servicios de computación en red para realizar tareas comparables pueden costar tan poco como veinticinco mil dólares, asumiendo que una organización ya tiene PC y servidores en su lugar.

    Uno de los primeros pioneros en la computación en red es la firma biotecnológica Monsanto. Monsanto recluta computadoras para explorar formas de manipular genes para crear cepas de cultivos que sean resistentes al frío, sequía, insectos, pesticidas, o que sean más nutritivas. Anteriormente incluso con la computadora más grande que Monsanto tenía internamente, el análisis de genes tardaba seis semanas y la firma solo pudo analizar de diez a cincuenta genes al año. Pero al aprovechar la computación en red, Monsanto ha reducido el análisis de genes a menos de un día. El ahorro de tiempo cincuenta veces permite ahora a la firma considerar miles de combinaciones genéticas en un año (Schwartz, et. al., 2006). Menor tiempo de I+D significa un tiempo de comercialización más rápido, fundamental tanto para la empresa como para sus clientes.

    Las cuadrículas están ahora por todas partes. Los estudios cinematográficos los utilizan para crear efectos especiales y películas animadas. Proctor & Gamble ha utilizado rejillas para rediseñar el proceso de fabricación de papas fritas Pringles. GM y Ford utilizan rejillas para simular pruebas de choque, ahorrando millones en autos chatarra y acelerando el tiempo de salida al mercado. Pratt y Whitney prueban diseños de motores de aviones en una cuadrícula. Y las empresas de biotecnología, como Aventis, GlaxoSmithKline y Pfizer, impulsan su investigación a través de una tubería más rápida aprovechando la energía de la red. JP Morgan Chase incluso lanzó un esfuerzo de red que imita la supercomputadora de CIBC, pero a una fracción del costo de esta última. Para el segundo año de operación, la red de JPMorgan Chase le estaba ahorrando a la firma 5 millones de dólares al año.

    También puedes unirte a una grilla. SETI @Home convierte el protector de pantalla de su computadora en un método para ayudar a “buscar inteligencia extraterrestre”, analizando datos del sistema de radiotelescopio de Arecibo en Puerto Rico (aún no se ha detectado E.T.). FightAids @Home alistará su PC para explorar los tratamientos del SIDA. Y Folding @Home es un esfuerzo de investigadores de Stanford para comprender la ciencia del plegamiento de proteínas dentro de enfermedades como el Alzheimer, el cáncer y la fibrosis quística. Una versión del software Folding @Home para PlayStation 3 había alistado a más de medio millón de consolas a los pocos meses de su lanzamiento. Tener acceso a estos recursos gratuitos es una enorme ventaja para los investigadores. Dice el director de Folding @Home, “Incluso si nos dieron todos los centros de supercomputación NSF combinados durante un par de meses, eso es aún menos recursos de los que tenemos ahora” (Johnson, 2002).

    La computación multinúcleo, masivamente paralela y de cuadrícula están relacionadas en que cada uno intenta unir múltiples dispositivos informáticos para que puedan trabajar juntos para resolver problemas. Piense en los chips multinúcleo como tener varios procesadores en un solo chip. Piense en supercomputadoras masivamente paralelas como que tienen varios chips en una computadora, y piense en la computación en cuadrícula como el uso de computadoras existentes para trabajar juntas en una sola tarea (esencialmente una computadora compuesta por múltiples computadoras). Si bien estas tecnologías ofrecen una gran promesa, todas están sujetas a la misma limitación: el software debe escribirse para dividir los problemas existentes en piezas más pequeñas que puedan ser manejadas por cada núcleo, procesador o computadora, respectivamente. Algunos problemas, como las simulaciones, son fáciles de dividir, pero para problemas que son lineales (donde, por ejemplo, el paso dos no se puede iniciar hasta que se conozcan los resultados del paso uno), el enfoque de múltiples cerebros no ofrece mucha ayuda.

    Los clústeres masivos de computadoras que ejecutan software que les permite operar como un servicio unificado también permiten nuevos modelos de computación basados en servicios, como software como servicio (SaaS) y computación en la nube. En estos modelos, las organizaciones reemplazan el software y hardware tradicionales que ejecutarían internamente con servicios que se entregan en línea. Google, Microsoft, Salesforce.com y Amazon se encuentran entre las firmas que han hundido miles de millones en estas granjas de servidores habilitadas por la Ley de Moore, creando negocios completamente nuevos que prometen redibujar radicalmente el panorama del software y el hardware al tiempo que aportan una enorme potencia informática a el chiquitín. (Ver Capítulo 10 “Software en Flujo: Parcialmente Nublado y A veces Libre”.)

    La Ley de Moore probablemente alcanzará su límite físico en tu vida, pero nadie sabe realmente si este “Muro de Moore” está a una década de distancia o más. Lo que queda por delante es una conjetura de cualquiera. Algunas tecnologías, como la computación cuántica aún experimental, podrían hacer computadoras que son más potentes que todas las computadoras convencionales del mundo combinadas. Piense estratégicamente: nuevas olas de innovación pronto podrían estar gritando “¡El surf está arriba!”

    Claves para llevar

    • La mayoría de las supercomputadoras modernas utilizan conjuntos masivos de microprocesadores que trabajan en paralelo.
    • Los microprocesadores utilizados en la mayoría de las supercomputadoras modernas suelen ser los mismos chips básicos que se pueden encontrar en PCs y servidores convencionales.
    • La Ley de Moore significa que empresas tan diversas como firmas de servicios financieros, fabricantes industriales, firmas de bienes de consumo y estudios cinematográficos ahora pueden permitirse el acceso a supercomputadoras.
    • El software de computación en red utiliza hardware de computadora existente para trabajar juntos e imitar una supercomputadora masivamente paralela. El uso del hardware existente para una red puede ahorrarle a una empresa los millones de dólares que de otro modo costaría comprar una supercomputadora convencional, brindando aún más capacidades informáticas masivas a organizaciones que de otra manera nunca se beneficiarían de este tipo de energía.
    • La computación masivamente paralela también permite las vastas granjas de servidores que impulsan negocios en línea como Google y Facebook, y que crean nuevos modelos de computación, como software como servicio (SaaS) y computación en la nube.
    • Las características de los problemas más adecuados para resolver a través de sistemas multinúcleo, supercomputadoras paralelas o computadoras de red son aquellas que se pueden dividir para que múltiples componentes de cálculo puedan trabajar simultáneamente en una parte del problema. Los problemas que son lineales—donde una parte debe resolverse antes de pasar a la siguiente y a la siguiente— pueden tener dificultades para beneficiarse de este tipo de computación de “dividir y conquistar”. Afortunadamente, muchos problemas como el modelado de riesgos financieros, la animación, la simulación de fabricación y el análisis de genes son adecuados para sistemas paralelos.

    Preguntas y ejercicios

    1. ¿Cuál es la diferencia entre la supercomputación y la computación en red? ¿Cómo se potencia cada fenómeno por la Ley de Moore?
    2. ¿Cómo cambia la computación en red la economía de la supercomputación?
    3. ¿Qué empresas utilizan la supercomputación y la computación en red? Describir estos usos y las ventajas que ofrecen a sus firmas adoptoras. ¿Son una fuente de ventaja competitiva? ¿Por qué o por qué no?
    4. ¿Cuáles son las características de los problemas que se resuelven más fácilmente utilizando los tipos de computación paralela que se encuentran en las cuadrículas y las supercomputadoras modernas? ¿Cuáles son las características del tipo de problemas que no son adecuados para este tipo de computación?
    5. Visite el sitio Web de SETI @Home (seti.ssl.berkeley.edu). ¿Cuál es el propósito del proyecto SETI @Home? ¿Cómo participas? ¿ Existe algún peligro posible para tu computadora si eliges participar? (Lea sus reglas y políticas.)
    6. Busca en línea para identificar las cinco supercomputadoras más rápidas actualmente en funcionamiento. ¿Quién patrocina estas máquinas? ¿Para qué se utilizan? ¿Cuántos procesadores tienen?
    7. ¿Qué es “El Muro de Moore”?
    8. ¿Cuál es la ventaja de usar la computación en red para simular una prueba de accidente automovilístico en lugar de organizar realmente un accidente?

    1 Se puede encontrar una lista de los actuales campeones de rendimiento de supercomputadoras en http://www.top500.org.

    Referencias

    Johnson, G., “La supercomputación '@Home' está dando sus frutos”, New York Times, 23 de abril de 2002.

    Schwartz, P., C. Taylor, y R. Koselka, “El futuro de la computación: salto cuántico”, Fortune, 2 de agosto de 2006.


    This page titled 5.3: Uniendo Brains: Supercomputación y Grid Computing is shared under a CC BY-NC-SA 3.0 license and was authored, remixed, and/or curated by Anonymous via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.