Archive

Posts Tagged ‘Historia’

Cómputo Eficiente: Diseñando Mejores Chips – Parte I

29 septiembre 2009 Los comentarios están cerrados

En esta miniserie trataré de resumir a grandes rasgos el transfondo cultural, económico y tecnológico que ha dado como fruto a las nuevas tecnologías y productos que comenzamos a ver en el mercado de cómputo como son: netbooks, las familias de procesadores Sun Microsystems UltraSPARC Tx, Fujitsu SPARC64 Venus, IBM Power7, Cell, Intel Atom, Larrabee y ARM Cortex-A9, GPGPU’s de ATI e Nvidia, y OpenCL.

Durante muchos años la industria de microprocesadores nos quiso vender la idea de que lo único que importaba al comprar una nueva computadora eran los Ghz que ofrecía, y desde hace unos 4 años nos vienen diciendo que lo importante ahora es el número de núcleos. Sin embargo las condiciones del mercado han traído a una nueva generación de usuarios, más preocupados por el costo, el gasto energético, la duración de la batería en equipos móviles y la velocidad con la que sus aplicaciones responden a sus comandos. Provocando una gran innovación, la creación de nuevos mercados y de nuevos productos radicales.

“El número de transistores que puede ser colocado en un chip se duplicará cada 2 años”

Gordon E. Moore

Esto es lo que nos dice la ya famosa ley de Moore, no obstante, aún no sabemos que hacer con todos estos transistores, ¿Cuál es la forma más eficiente de usar estos transistores para procesar X tipo de información? aún nadie lo sabe.

Los Ghz y el procesamiento secuencial
La máquina de Turing nos muestra una forma sencilla de escribir cualquier algoritmo, una operación después de la otra, llevándonos a lo que se conoce como programación secuencial; el paradigma de desarrollo de software más exitoso, adoptado por la industria del software a nivel mundial y donde se han invertido hasta hoy en día billones de dolares en la creación de software bajo este principio elemental.

Esto impulso a los fabricantes de chips a crear procesadores cuyo objetivo principal era ejecutar lo más rápidamente posible este tipo de programas. Todo el diseño de estos chips se basaba en su capacidad para ejecutar una o más instrucciones cada vez que un reloj central hacía un tick-tack, y buscando que cada vez, todo el sistema se moviera al ritmo de relojes más y más rápidos, llevándonos a una vertiginosa carrera por frecuencias de reloj más altas. Más Ghz.

Ejecutar este tipo de programas no resultó fácil, ni tampoco eficiente. Diseñadores de procesadores tuvieron que recurrir a toda una serie de ingeniosos métodos para ejecutar instrucciones más rápidamente: pipelines, out of order execution, caches, branch prediction, speculative execution,… que se enfocaban más en “administrar” el código que en realizar trabajo útil para el programador. Al mismo tiempo, conforme aumentaban las frecuencias de operación, así también aumentaban la temperaturas de los chips, esto provocado por los constantes cambios de estado de los componentes, al ritmo del reloj. Requiriendo continuamente soluciones de enfriamiento más eficientes.

Finalmente las altas temperaturas desaceleraron el ritmo con el que avanzaban los Ghz. Debido no solamente a las altas frecuencias, sino también a las crecientes corrientes de fuga provocadas por las escalas de fabricación tan increíblemente pequeñas de los nuevos chips, a lo que se conoció como la barrera térmica.

Esta nueva limitación provocó grandes fracasos en el mercado de microprocesadores como se vio con el Intel Pentium 4/ Tejas y forzó grandes cambios en la industria. Como podemos apreciar en la última conferencia de Hot Chips 2009, el procesamiento secuencial a muerto, la última linea de procesadores enfocándose en este tipo de arquitecturas, IBM Power, ha preferido dar un cambio de rumbo e ir en la dirección del Throughput-Computing.

Historia del Software Libre

Con el paso de los años se han dado varios intentos por capturar en un vídeo uno de los movimientos sociales más complejos y de mayor influencia de nuestros tiempos: El Software Libre. Si estas interesado en saber un poco más sobre la historia y los personajes claves de este movimientos te recomiendo ampliamente ver los siguientes documentales:

  1. Revolution OS
  2. Código Linux
  3. La Historia del Internet
  4. Code Rush (en inglés) fué liberada bajo licencia Creative Commons (bájala aquí)

La revista Free Software Magazine republicó hace unos días un tributo a los héroes del software libre, un artículo muy recomendable.

También cabe mencionar que en estos momentos la BBC esta trabajando en un nuevo documental llamado La Revolución Digital (Digital Revolution) el cual constará de 4 episodios de 1 hr, en donde se tocarán varios temas alrededor de Internet; su origen, medios para compartir y diseminar conocimiento y mucho más.