Microsoft vs Google ¿Quién lidera la carrera de la inteligencia artificial?

Microsoft vs Google ¿Quién lidera la carrera de la inteligencia artificial? / Tecnología futura

AI está de vuelta.

Por primera vez desde la década de 1980, los investigadores de inteligencia artificial están logrando avances tangibles en problemas difíciles, y las personas están empezando a hablar seriamente sobre la inteligencia artificial nuevamente. Mientras tanto, nuestro mundo cada vez más impulsado por los datos ha iniciado una carrera de armamentos entre compañías que buscan monetizar la nueva inteligencia, especialmente en el espacio móvil..

Los dos titanes que lideran el paquete son Google y Microsoft. La primera batalla? Un nuevo dominio en inteligencia artificial llamado “Aprendizaje profundo.”

Entonces quien esta ganando?

El cerebro de google

Los esfuerzos de investigación de Google se han centrado alrededor de un proyecto llamado 'Google Brain'. Google Brain es el producto del famoso / secreto laboratorio de investigación 'Google X' de Google, que es responsable de los proyectos de lanzamiento de la luna con pocas probabilidades de éxito, pero con un potencial muy alto. Otros productos de Google X incluyen Project Loon, la iniciativa global de Internet y el proyecto de auto-manejo de autos de Google. Así es como llegaremos a un mundo lleno de autos sin conductor. Cómo llegaremos a un mundo lleno de autos sin conductor. Conducir es Una tarea tediosa, peligrosa y exigente. ¿Podría algún día ser automatizado por la tecnología de automóviles sin conductor de Google? Lee mas .

Google Brain es una enorme iniciativa de aprendizaje automático dirigida principalmente al procesamiento de imágenes, pero con ambiciones mucho más amplias. El proyecto fue iniciado por el profesor Andrew Ng de Stanford, un experto en aprendizaje automático que desde entonces dejó el proyecto para trabajar en Baidu, el motor de búsqueda más grande de China..

Google tiene una larga historia de participación en la investigación de la IA. Matthew Zeiler, el CEO de una startup visual de la máquina, y un interno que trabajó en el Google Brain lo pone así:

“Google no es realmente una empresa de búsqueda. Es una empresa de aprendizaje automático [...] Todo en la empresa está realmente impulsado por el aprendizaje automático..”

El objetivo del proyecto es encontrar formas de mejorar los algoritmos de aprendizaje profundo para construir redes neuronales que puedan encontrar patrones más profundos y más significativos en los datos usando menos poder de procesamiento. Para este fin, Google ha estado comprando agresivamente el talento en el aprendizaje profundo, haciendo adquisiciones que incluyen la compra de $ 500 millones de la empresa emergente de IA DeepMind..

DeepMind estaba lo suficientemente preocupado por las aplicaciones de su tecnología que forzaron a Google a crear una junta de ética diseñada para evitar que su software destruyera el mundo. Aquí está la razón por la que los científicos creen que debería preocuparse por la inteligencia artificial. ¿Crees que la inteligencia artificial es peligrosa? ¿La IA puede suponer un grave riesgo para la raza humana? Estas son algunas de las razones por las cuales usted puede querer preocuparse. Lee mas . DeepMind aún tenía que lanzar su primer producto, pero la compañía empleaba una fracción significativa de todos los expertos en aprendizaje profundo del mundo. Hasta la fecha, su única demostración pública de su tecnología ha sido un juguete AI que es realmente bueno en Atari..

Debido a que el aprendizaje profundo es un campo relativamente nuevo, no ha tenido tiempo de producir una gran generación de expertos. Como resultado, hay un número muy pequeño de personas con experiencia en el área, y eso significa que es posible obtener una ventaja significativa en el campo contratando a todos los involucrados.

Hasta ahora, Google Brain se ha aplicado a la función de reconocimiento de voz de Android y para catalogar automáticamente las imágenes de StreetView, identificando características importantes como las direcciones. Una de las primeras pruebas fue el famoso experimento del gato, en el que una red de aprendizaje profundo de Google aprendió automáticamente a identificar gatos en videos de Youtube con una mayor tasa de precisión que el estado de la técnica anterior. En su artículo sobre el tema, Google lo puso así:

“Al contrario de lo que parece ser una intuición generalizada, nuestros resultados experimentales revelan que es posible entrenar un detector de rostros sin tener que etiquetar las imágenes como que contienen una cara o no [...] La red es sensible a conceptos de alto nivel como Caras de gato y cuerpos humanos. Comenzando con estas características aprendidas, lo entrenamos para obtener un 15.8 por ciento de precisión en el reconocimiento de 20,000 categorías de objetos, un salto de un 70 por ciento de mejora relativa con respecto a las [redes] de vanguardia anteriores..”

Eventualmente, a Google le gustaría que sus algoritmos de aprendizaje profundo lo hicieran ... bueno, prácticamente todo, en realidad. Las potentes plataformas de IA como la de IBM Watson se basan en este tipo de algoritmos de aprendizaje automático de bajo nivel, y las mejoras en este aspecto hacen que el campo general de la IA sea mucho más poderoso..

Una versión futura de Google Now, impulsada por Google Brain, podría identificar tanto el habla como las imágenes, y ofrecer información inteligente sobre esos datos para ayudar a los usuarios a tomar decisiones más inteligentes. El cerebro de Google podría mejorar todo, desde resultados de búsqueda hasta Google Translate.

Microsoft Adam

El acercamiento de Microsoft a la guerra de aprendizaje profundo ha sido un poco diferente. En lugar de tratar de comprar expertos en aprendizaje profundo para refinar sus algoritmos, Microsoft se ha centrado en mejorar la implementación y encontrar mejores formas de paralelizar los algoritmos utilizados para entrenar algoritmos de aprendizaje profundo.

Este proyecto se llama “Microsoft Adam.” Sus técnicas reducen la computación redundante, duplicando la calidad de los resultados y utilizando menos procesadores para obtenerlos. Esto ha llevado a logros técnicos impresionantes, incluida una red que puede reconocer razas individuales de perros a partir de fotografías con gran precisión..

Microsoft describe el proyecto de esta manera:

El objetivo del Proyecto Adam es permitir que el software reconozca visualmente cualquier objeto. Es una tarea difícil, dada la inmensa red neuronal en los cerebros humanos que hace posible este tipo de asociaciones a través de billones de conexiones. [...] Usando 30 veces menos máquinas que otros sistemas, se usó [datos de imágenes de Internet] para entrenar una red neuronal creada Más de dos mil millones de conexiones. Esta infraestructura escalable es dos veces más precisa en su reconocimiento de objetos y 50 veces más rápida que otros sistemas..

La aplicación obvia para esta tecnología está en Cortana, la nueva asistente virtual de Microsoft. Cómo Cortana se convirtió en la "otra mujer" en mi vida. Cómo Cortana se convirtió en la "otra mujer" en mi vida. Un día apareció y cambió mi vida. Ella sabe exactamente lo que necesito y tiene un gran sentido del humor. No es de extrañar que me haya enamorado de los encantos de Cortana. Leer más, inspirado en el personaje de la IA en Halo. Cortana, dirigida a competir con Siri, puede hacer una serie de cosas inteligentes, utilizando sofisticadas técnicas de reconocimiento de voz..

El objetivo del diseño es crear un asistente con una interacción más natural, y puede realizar una amplia gama de tareas útiles para el usuario, algo en lo que el aprendizaje en profundidad ayudaría enormemente..

Las mejoras de Microsoft en el back-end del aprendizaje profundo son impresionantes y han llevado a aplicaciones que antes no eran posibles..

Cómo funciona el aprendizaje profundo

Para entender un poco mejor el problema, tomemos un minuto para entender esta nueva tecnología. El aprendizaje profundo es una técnica para construir software inteligente, a menudo aplicada a redes neuronales. Construye redes grandes y útiles al juntar redes neuronales más simples, cada una de las cuales encuentra patrones en la salida de su predecesora. Para entender por qué esto es útil, es importante mirar lo que vino antes del aprendizaje profundo.

Backpropagating Neural Networks

La estructura subyacente de una red neuronal es en realidad bastante simple. Cada 'neurona' es un pequeño nodo que toma una entrada y usa reglas internas para decidir cuándo “fuego” (Producir salida). Las entradas que alimentan a cada neurona tienen “pesos” - multiplicadores que controlan si la señal es positiva o negativa y qué tan fuerte.

Al conectar estas neuronas juntas, puede construir una red que emule cualquier algoritmo. Alimentar su entrada en las neuronas de entrada como valores binarios, y medir el valor de disparo de las neuronas de salida para obtener la salida. Como tal, el truco para las redes neuronales de cualquier tipo es tomar una red y encontrar el conjunto de pesos que mejor se aproxime a la función que le interesa..

La propagación hacia atrás, el algoritmo utilizado para entrenar la red en función de los datos, es muy simple: inicia su red con ponderaciones aleatorias y luego trata de clasificar los datos con respuestas conocidas. Cuando la red está equivocada, verifica por qué está mal (produciendo una salida más pequeña o más grande que el objetivo), y usa esa información para empujar los pesos en una dirección más útil.

Al hacer esto una y otra vez, para muchos puntos de datos, la red aprende a clasificar todos sus puntos de datos correctamente y, con suerte, a generalizar los nuevos puntos de datos. La información clave del algoritmo de propagación hacia atrás es que puede mover los datos de error hacia atrás a través de la red, cambiando cada capa en función de los cambios realizados en la última capa, lo que le permite construir redes de varias capas, que pueden comprender patrones más complicados.

Backprop fue inventado en 1974 por Geoffrey Hinton, y tuvo el notable efecto de hacer que las redes neuronales fueran útiles para aplicaciones amplias por primera vez en la historia. Las redes neuronales triviales existen desde los años 50 y se implementaron originalmente con neuronas mecánicas impulsadas por motores..

Otra forma de pensar sobre el algoritmo de backprop es como un explorador en un panorama de posibles soluciones. El peso de cada neurona es otra dirección en la que puede explorar, y para la mayoría de las redes neuronales, hay miles de estos. La red puede usar su información de error para ver en qué dirección debe moverse y en qué medida, para reducir el error..

Comienza en un punto aleatorio, y al consultar continuamente su compás de error, se mueve 'cuesta abajo' en la dirección de menos errores, y finalmente se establece en el fondo del valle más cercano: la mejor solución posible.

Entonces, ¿por qué no usamos la propagación hacia atrás para todo? Bueno, Backprop tiene varios problemas..

El problema más serio se denomina "problema de degradación de fuga". Básicamente, a medida que se mueven los datos de error a través de la red, se vuelve menos significativo cada vez que retrocede una capa. Tratar de construir redes neuronales muy profundas con propagación hacia atrás no funciona, porque la información del error no podrá penetrar lo suficiente en la red para entrenar a los niveles más bajos de una manera útil.

Un segundo problema, menos serio, es que las redes neuronales convergen solo a los óptimos locales: a menudo se quedan atrapadas en un pequeño valle y pierden soluciones más profundas y mejores que no están cerca de su punto de partida aleatorio. Entonces, ¿cómo resolvemos estos problemas??

Redes de creencias profundas

Las redes de creencias profundas son una solución para estos dos problemas, y se basan en la idea de construir redes que ya tienen información sobre la estructura del problema y luego refinar esas redes con propagación hacia atrás. Esta es una forma de aprendizaje profundo y de uso común tanto para Google como para Microsoft..

La técnica es simple y se basa en un tipo de red llamada “Máquina de Boltzman restringida” o “RBM”, que se basa en lo que se conoce como aprendizaje no supervisado.

Las máquinas Boltzman restringidas, en pocas palabras, son redes que simplemente intentan comprimir los datos que reciben, en lugar de tratar de clasificarlos explícitamente de acuerdo con la información de capacitación. Los RBM toman una colección de puntos de datos y están capacitados de acuerdo con su capacidad para reproducir esos puntos de datos de la memoria.

Al hacer que el RBM sea más pequeño que la suma de todos los datos que está pidiendo que codifique, obliga al RBM a aprender las regularidades estructurales de los datos para almacenarlos en menos espacio. Este aprendizaje de la estructura profunda permite que la red se generalice: si entrena a un RBM para que reproduzca mil imágenes de gatos, puede introducir una nueva imagen en ella, y al observar cuán enérgica es la red se convierte en un resultado, puede descubrir si la nueva imagen contenía un gato o no.

Las reglas de aprendizaje para los RBM se asemejan a la función de las neuronas reales dentro del cerebro en formas importantes que otros algoritmos (como la propagación hacia atrás) no hacen. Como resultado, pueden tener cosas que enseñar a los investigadores acerca de cómo funciona la mente humana. Máquinas de pensar: lo que la neurociencia y la inteligencia artificial pueden enseñarnos sobre la conciencia. Máquinas de pensar: lo que la neurociencia y la inteligencia artificial pueden enseñarnos sobre la conciencia. ¿Nos enseña sobre el funcionamiento de la conciencia y la naturaleza de la mente humana? Lee mas .

Otra característica interesante de RBMs es que son “constructivo”, lo que significa que también pueden ejecutarse a la inversa, trabajando hacia atrás desde una función de alto nivel para crear entradas imaginarias que contengan esa función. Este proceso se llama “soñando.”

Entonces, ¿por qué es útil para el aprendizaje profundo? Bueno, las máquinas Boltzman tienen serios problemas de escalamiento: cuanto más intentas hacerlos, más tiempo lleva entrenar la red..

La idea clave de las redes de creencias profundas es que se pueden apilar RBM de dos capas, cada una entrenada para encontrar la estructura en la salida de su predecesora. Esto es rápido y conduce a una red que puede comprender características abstractas y complicadas de los datos..

En una tarea de reconocimiento de imágenes, la primera capa puede aprender a ver líneas y esquinas, y la segunda capa puede aprender a ver las combinaciones de esas líneas que conforman características como ojos y narices. La tercera capa podría combinar esas características y aprender a reconocer una cara. Al pasar esta red a la propagación hacia atrás, puede concentrarse solo en aquellas características que se relacionan con las categorías que le interesan.

En muchos sentidos, esta es una solución simple para la propagación hacia atrás: permite a backprop “engañar” Empezando con un montón de información sobre el problema que está tratando de resolver. Esto ayuda a que la red alcance mejores mínimos y garantiza que los niveles más bajos de la red estén capacitados y hagan algo útil. Eso es.

Por otro lado, los métodos de aprendizaje profundo han producido mejoras dramáticas en la velocidad y precisión del aprendizaje automático, y son los responsables casi únicos de la rápida mejora del software de voz a texto en los últimos años..

Carrera por las computadoras Canny

Puedes ver por qué todo esto es útil. Cuanto más profundo pueda construir redes, más grandes y abstractos serán los conceptos que la red puede aprender..

¿Quieres saber si un correo electrónico es spam o no? Para los spammers inteligentes, eso es difícil. Debe leer el correo electrónico y comprender la intención detrás de él: intente ver si existe una relación entre el remitente y el destinatario y deduzca las intenciones del destinatario. Tienes que hacer todo eso en base a cadenas de letras incoloras, la mayoría de las cuales describen conceptos y eventos de los que la computadora no sabe nada..

Eso es mucho pedir a cualquiera.

Si le pidieran que aprendiera a identificar el correo no deseado en un idioma que no hablaba, proporcionó solo algunos ejemplos positivos y negativos, le iría muy mal y tiene un cerebro humano. Para una computadora, el problema ha sido casi imposible, hasta hace muy poco. Ese es el tipo de información que el aprendizaje profundo puede tener, y será increíblemente poderoso.

En este momento, Microsoft está ganando esta carrera por un pelo. ¿A la larga? Alguien lo adivina.

Créditos de imagen: “Computadora AI“, por Simon Liu, “Rana mugidora“, por Brunop, “Brújula superior“, por airguy1988, “Mas libre que gratis,” por opensource.com

Explorar más sobre: ​​Inteligencia Artificial.