¿Cómo funcionan las computadoras ópticas y cuánticas?
La historia de la computación está llena de fracasos..
El Apple III tenía la mala costumbre de cocinar en su caparazón deformado. El Atari Jaguar, una consola de juegos 'innovadora' que tenía algunas afirmaciones falsas sobre su rendimiento, simplemente no pudo captar el mercado. El chip Pentium insignia de Intel, diseñado para aplicaciones de contabilidad de alto rendimiento, tuvo dificultades con los números decimales.
Pero el otro tipo de fracaso que prevalece en el mundo de la computación es la medición FLOPS, considerada desde hace mucho tiempo como una comparación razonablemente justa entre diferentes máquinas, arquitecturas y sistemas..
FLOPS es una medida de Operaciones de punto flotante por segundo. En pocas palabras, es el velocímetro para un sistema informático. Y ha ido creciendo exponencialmente durante décadas..
Entonces, ¿qué pasaría si le dijera que dentro de unos años, tendrá un sistema sentado en su escritorio, en su televisor o en su teléfono, que limpiaría el piso de las supercomputadoras de hoy? ¿Increíble? Soy un loco Echa un vistazo a la historia antes de juzgar.
Supercomputadora al supermercado
Un Intel i7 Haswell reciente. ¿Cuál es la diferencia entre las CPU Intel Haswell y Ivy Bridge? Entonces, ¿cuál es la diferencia entre las CPU Intel Haswell e Ivy Bridge? Buscando una nueva computadora? Aquellos que compran una nueva computadora portátil o computadora de escritorio con tecnología Intel necesitan conocer las diferencias entre la última y la última generación de procesadores Intel. El procesador Read More puede realizar unos 177 mil millones de FLOPS (GFLOPS), que es más rápido que la supercomputadora más rápida de los EE. UU. En 1994, el Sandia National Labs XP / s140 con 3,680 núcleos de computación que trabajan juntos.
Una PlayStation 4 puede operar en aproximadamente 1.8 Trillones de FLOPS gracias a su avanzada micro arquitectura Cell, y habría superado a la supercomputadora ASCI Red de $ 55 millones que lideró la liga mundial de supercomputadoras en 1998, casi 15 años antes del lanzamiento de la PS4..
El sistema AI de Watson de IBM IBM revela el revolucionario "Brain on a Chip" IBM revela el revolucionario "Brain on a Chip" Anunciado la semana pasada a través de un artículo en Science, "TrueNorth" es lo que se conoce como "chip neuromórfico": un chip de computadora diseñado para Imita las neuronas biológicas, para su uso en sistemas informáticos inteligentes como Watson. Read More tiene una operación pico (actual) de 80 TFLOPS, y eso no se acerca mucho a dejarlo en la lista de los 500 mejores superordenadores de hoy, con el Tianhe-2 chino encabezando el Top 500 en las últimas 3 ocasiones consecutivas, con un rendimiento máximo de 54,902 TFLOPS, o casi 55 Peta-FLOPS.
La gran pregunta es, ¿dónde está el próximo supercomputador del tamaño del escritorio? La última tecnología informática que debe ver para creer La última tecnología informática que debe ver para creer Vea algunas de las últimas tecnologías informáticas que están configuradas para transformar el mundo de la electrónica y PCs en los próximos años. Leer más va a venir? Y lo que es más importante, cuando lo estamos consiguiendo?
Otro ladrillo en la pared de poder
En la historia reciente, las fuerzas motrices entre estas impresionantes ganancias en velocidad han estado en la ciencia de materiales y el diseño de arquitectura; Los procesos de fabricación a escala nanométrica más pequeños significan que los chips pueden ser más delgados, más rápidos y descargar menos energía en forma de calor, lo que los hace más baratos de ejecutar..
Además, con el desarrollo de arquitecturas de múltiples núcleos a fines de la década de 2000, muchos 'procesadores' ahora están comprimidos en un solo chip. Esta tecnología, combinada con la creciente madurez de los sistemas de computación distribuidos, donde muchas 'computadoras' pueden operar como una sola máquina, significa que el Top 500 siempre ha estado creciendo, casi al mismo ritmo que la famosa Ley de Moore..
Sin embargo, las leyes de la física están empezando a obstaculizar todo este crecimiento, incluso a Intel le preocupa, y muchos en todo el mundo están buscando lo siguiente..
... en unos diez años más o menos, veremos el colapso de la Ley de Moore. De hecho, ya vemos una desaceleración de la Ley de Moore. La potencia de la computadora simplemente no puede mantener su rápido aumento exponencial utilizando la tecnología de silicio estándar. - Dr. Michio Kaku - 2012
El problema fundamental con el diseño de procesamiento actual es que los transistores están activados (1) o desactivados (0). Cada vez que una compuerta de transistores "gira", tiene que expulsar una cierta cantidad de energía al material del que está hecha la compuerta para hacer que esa "inclinación" permanezca. A medida que estas compuertas se vuelven cada vez más pequeñas, la relación entre la energía para usar el transistor y la energía para "voltear" el transistor se hace más y más grande, creando problemas importantes de calefacción y confiabilidad. Los sistemas actuales se están acercando, y en algunos casos superando, a la densidad de calor en bruto de los reactores nucleares, y los materiales están empezando a fallar a sus diseñadores. Esto se llama clásicamente el 'Power Wall'.
Recientemente, algunos han comenzado a pensar de manera diferente sobre cómo realizar cálculos útiles. Dos empresas en particular nos han llamado la atención en términos de formas avanzadas de computación cuántica y óptica. Los sistemas canadienses D-Wave y Optalysys, con sede en el Reino Unido, tienen enfoques muy diferentes para conjuntos de problemas muy diferentes.
Hora de cambiar la música
D-Wave recibió mucha prensa últimamente, con su ominosa caja negra súper enfriada con una punta interior extremadamente cyberpunk, que contiene un enigmático chip desnudo con poderes difíciles de imaginar.
En esencia, el sistema D2 adopta un enfoque completamente diferente para la resolución de problemas al desechar efectivamente el libro de reglas de causa y efecto. Entonces, ¿qué tipo de problemas es este Google / NASA / Lockheed Martin que apoya al gigante que apunta a?
El hombre deambulando
Históricamente, si desea resolver un problema de NP-Duro o Intermedio, donde hay un número extremadamente alto de soluciones posibles que tienen un amplio rango de potencial, usando "valores", el enfoque clásico simplemente no funciona. Tomemos por ejemplo el problema del vendedor ambulante; dadas las N-ciudades, encuentra el camino más corto para visitar todas las ciudades una vez. Es importante tener en cuenta que el TSP es un factor importante en muchos campos como la fabricación de microchips, la logística e incluso la secuenciación de ADN.,
Pero todos estos problemas se reducen a un proceso aparentemente simple; Elija un punto para comenzar, genere una ruta alrededor de N 'cosas', mida la distancia, y si hay una ruta más corta que ésta, descarte la ruta intentada y continúe con la siguiente hasta que no haya más rutas para verificar.
Esto suena fácil, y para valores pequeños, lo es; para 3 ciudades hay 3 * 2 * 1 = 6 rutas para verificar, para 7 ciudades hay 7 * 6 * 5 * 4 * 3 * 2 * 1 = 5040, lo cual no es tan malo para una computadora. Esta es una secuencia factorial, y puede expresarse como “norte!”, entonces 5040 es 7!.
Sin embargo, cuando vaya un poco más lejos, a 10 ciudades para visitar, necesita probar más de 3 millones de rutas. Para cuando llegue a 100, el número de rutas que necesita verificar es 9 seguido de 157 dígitos La única forma de ver este tipo de funciones es mediante un gráfico logarítmico, donde el eje y comienza en 1 (10 ^ 0), 10 (10 ^ 1), 100 (10 ^ 2), 1000 (10 ^ 3). ) y así.
Los números se vuelven demasiado grandes para poder procesar razonablemente en cualquier máquina que exista hoy o pueda existir usando arquitecturas de computación clásica. Pero lo que D-Wave está haciendo es muy diferente..
Vesubio emerge
El chip Vesuvius en la D2 usa alrededor de 500 'qubits' o Quantum Bits para realizar estos cálculos usando un método llamado Quantum Annealing. En lugar de medir cada ruta a la vez, los Qubits del Vesubio se establecen en un estado de superposición (ni encendido ni apagado, operando juntos como un tipo de campo potencial) y una serie de descripciones algebraicas cada vez más complejas de la solución (es decir, una serie de Hamiltoniano). Las descripciones de la solución, no una solución en sí) se aplican al campo de superposición..
En efecto, el sistema está probando la idoneidad de todas las soluciones potenciales a la vez, como una bola que "decide" la manera de bajar una colina. Cuando la superposición se relaja en un estado fundamental, ese estado básico de los qubits debe describir la solución óptima.
Muchos se han preguntado cuánta ventaja tiene el sistema D-Wave sobre una computadora convencional. En una prueba reciente de la plataforma contra un problema típico de Saleman que viajaba, que tomó 30 minutos para una computadora clásica, solo tomó medio segundo en el Vesubio..
Sin embargo, para ser claros, esto nunca será un sistema en el que juegues Doom. Algunos comentaristas están tratando de comparar este sistema altamente especializado con un procesador de propósito general. Sería mejor que compararas un submarino de la clase de Ohio con el F35 Lightning; cualquier métrica que seleccione para una es tan inapropiada para la otra como para ser inútil.
La D-Wave se registra en varios órdenes de magnitud más rápido para sus problemas específicos en comparación con un procesador estándar, y las estimaciones de FLOPS van desde un impresionante 420 GFLOPS a un asombroso 1.5 Peta-FLOPS (colocándolo en el Top 10 Supercomputador lista en 2013 en el momento del último prototipo público). En todo caso, esta disparidad resalta el principio del fin de FLOPS como una medida universal cuando se aplica a áreas problemáticas específicas..
Esta área de computación está dirigida a una serie de problemas muy específicos (y muy interesantes). Lo preocupante es que uno de los problemas dentro de esta esfera es la criptografía Encripta tu Gmail, Hotmail y otro correo web: aquí es cómo encripta tu Gmail, Hotmail y otro correo web: aquí es cómo las revelaciones de la NSA de Edward Snowden causaron conmoción y asombro en los hogares estadounidenses, como individuos y las familias comenzaron a darse cuenta de que sus comunicaciones no eran tan privadas como originalmente habían pensado. Para calmar parcialmente algunos ... Leer más - específicamente criptografía de clave pública.
Afortunadamente, la implementación de D-Wave parece centrada en los algoritmos de optimización, y D-Wave tomó algunas decisiones de diseño (como la estructura de emparejamiento jerárquico en el chip) que indican que no se podía usar el Vesubio para resolver el algoritmo de Shor, que potencialmente podría desbloquear Internet. tan mal que Robert Redford se enorgullecería.
Laser matematicas
La segunda compañía en nuestra lista es Optalysys. Esta empresa con sede en el Reino Unido toma la computación y la pone de cabeza utilizando la superposición analógica de la luz para realizar ciertas clases de computación utilizando la naturaleza de la luz en sí. El siguiente video muestra algunos de los antecedentes y fundamentos del sistema Optalysys, presentado por el Prof. Heinz Wolff..
Es un poco emocionante, pero en esencia, es un cuadro que esperamos que algún día se siente en su escritorio y brinde soporte de cómputo para simulaciones, CAD / CAM e imágenes médicas (y quizás, solo quizás, juegos de computadora). Al igual que el Vesubio, no hay forma de que la solución de Optalysys vaya a realizar tareas informáticas generales, pero eso no es para lo que está diseñada..
Una manera útil de pensar en este tipo de procesamiento óptico es pensar en él como una unidad de procesamiento de gráficos (GPU) física. GPU moderna Conozca su acelerador de gráficos con detalles insoportables con GPU-Z [Windows] Conozca su acelerador de gráficos con detalles insoportables con GPU-Z [Windows] La GPU, o unidad de procesamiento de gráficos, es la parte de su computadora a cargo de manejo de graficos. En otras palabras, si los juegos están entrecortados en su computadora o si no pueden manejar configuraciones de muy alta calidad, ... Leer más usa muchos procesadores de transmisión en paralelo, realizando el mismo cálculo en diferentes datos provenientes de diferentes áreas de la memoria. Esta arquitectura surgió como un resultado natural de la forma en que se generan los gráficos de computadora, pero esta arquitectura masivamente paralela se ha utilizado para todo, desde el comercio de alta frecuencia hasta las redes neuronales artificiales..
Optalsys toma principios similares y los traduce a un medio físico; la partición de datos se convierte en división del haz, el álgebra lineal se convierte en interferencia cuántica, las funciones de estilo MapReduce se convierten en sistemas de filtrado óptico. Y todas estas funciones operan en tiempo constante, efectivamente instantáneo,.
El prototipo inicial del dispositivo utiliza una cuadrícula de 20Hz 500 × 500 elementos para realizar transformaciones rápidas de Fourier (básicamente, “¿Qué frecuencias aparecen en este flujo de entrada??”) y ha entregado un equivalente decepcionante de 40 GFLOPS. Los desarrolladores están apuntando a un sistema GFLOPS 340 para el próximo año, lo cual, considerando el consumo de energía estimado, sería un puntaje impresionante.
Entonces, ¿dónde está mi caja negra?
La historia de la computación Una breve historia de las computadoras que cambiaron el mundo Una breve historia de las computadoras que cambiaron el mundo Puede pasar años ahondando en la historia de la computadora. Hay toneladas de invenciones, toneladas de libros sobre ellos, y eso es antes de que empieces a identificar lo que inevitablemente ocurre cuando ... Leer más nos muestra que lo que inicialmente es la reserva de laboratorios de investigación y agencias gubernamentales se abre camino rápidamente hacia los consumidores hardware. Desafortunadamente, la historia de la computación no ha tenido que lidiar con las limitaciones de las leyes de la física, aún.
Personalmente, no creo que D-Wave y Optalysys sean las tecnologías exactas que tenemos en nuestros escritorios dentro de 5 a 10 años. Considera que los primeros reconocibles. “Reloj inteligente” se dio a conocer en 2000 y fracasó estrepitosamente; Pero la esencia de la tecnología continúa hoy. Del mismo modo, estas exploraciones en los aceleradores de computación cuántica y óptica probablemente terminarán como notas al pie en "la próxima gran cosa".
La ciencia de los materiales se está acercando más a las computadoras biológicas, utilizando estructuras similares al ADN para realizar matemáticas. La nanotecnología y la 'materia programable' se están acercando al punto donde, en lugar de procesar 'datos', el material en sí mismo contendrá, representará y procesará la información..
Con todo, es un mundo nuevo y valiente para un científico computacional. ¿A dónde crees que va todo esto? Hablemos de ello en los comentarios.!
Créditos de las fotos: KL Intel Pentium A80501 por Konstantin Lanzet, Asci red - tflop4m por el Gobierno de los Estados Unidos - Sandia National Laboratories, DWave D2 por The Vancouver Sun, DWave 128chip por D-Wave Systems, Inc., Problema de vendedor ambulante por Randall Munroe (XKCD)
Explorar más sobre: CPU.