He aquí por qué los científicos creen que debería preocuparse por la inteligencia artificial
En los últimos meses, es posible que haya leído la cobertura que rodea a un artículo, en coautoría de Stephen Hawking, que analiza los riesgos asociados con la inteligencia artificial. El artículo sugirió que la IA puede suponer un grave riesgo para la raza humana. Hawking no está solo allí: Elon Musk y Peter Thiel son figuras intelectuales públicas que han expresado inquietudes similares (Thiel ha invertido más de $ 1.3 millones para investigar el problema y las posibles soluciones).
La cobertura del artículo de Hawking y los comentarios de Musk ha sido, por no decir demasiado, un poco jovial. El tono ha sido mucho 'mira esta cosa extraña de la que todos estos geeks están preocupados'. Se presta poca atención a la idea de que si algunas de las personas más inteligentes de la Tierra le advierten que algo podría ser muy peligroso, tal vez valga la pena escucharlo..
Esto es comprensible: la inteligencia artificial que se apodera del mundo parece ciertamente muy extraña e inverosímil, tal vez debido a la enorme atención que los escritores de ciencia ficción ya han prestado a esta idea. Entonces, ¿qué ha asustado a toda esta gente racionalmente racional y sensata??
Que es la inteligencia?
Para hablar sobre el peligro de la Inteligencia Artificial, podría ser útil comprender qué es la inteligencia. Para comprender mejor el problema, echemos un vistazo a la arquitectura de AI de juguete que utilizan los investigadores que estudian la teoría del razonamiento. Este AI de juguete se llama AIXI y tiene una serie de propiedades útiles. Sus objetivos pueden ser arbitrarios, se pueden escalar bien con el poder de la informática y su diseño interno es muy limpio y directo.
Además, puedes implementar versiones simples y prácticas de la arquitectura que pueden hacer cosas como jugar Pacman, si lo deseas. AIXI es el producto de un investigador de AI llamado Marcus Hutter, posiblemente el principal experto en inteligencia algorítmica. Ese es él hablando en el video de arriba..
AIXI es sorprendentemente simple: tiene tres componentes principales: aprendiz, planificador, y función de utilidad.
- los aprendiz toma cadenas de bits que corresponden a la entrada sobre el mundo exterior, y busca en los programas de computadora hasta que encuentra los que producen sus observaciones como salida. Estos programas, juntos, le permiten hacer conjeturas sobre cómo será el futuro, simplemente ejecutando cada programa hacia adelante y ponderando la probabilidad del resultado por la duración del programa (una implementación de Occam's Razor).
- los planificador busca las posibles acciones que el agente podría tomar, y usa el módulo de aprendizaje para predecir qué pasaría si tomara cada una de ellas. Luego los clasifica de acuerdo con lo buenos o malos que son los resultados pronosticados, y elige el curso de acción que maximiza la bondad del resultado esperado multiplicado por la probabilidad esperada de lograrlo..
- El último módulo, el función de utilidad, es un programa simple que toma una descripción de un estado futuro del mundo y calcula una puntuación de utilidad para él. Este puntaje de utilidad es cuán bueno o malo es el resultado, y el planificador lo utiliza para evaluar el estado mundial futuro. La función de utilidad puede ser arbitraria..
- Tomados en conjunto, estos tres componentes forman una optimizador, que optimiza para un objetivo particular, independientemente del mundo en el que se encuentre.
Este modelo simple representa una definición básica de un agente inteligente. El agente estudia su entorno, construye modelos de él y luego utiliza esos modelos para encontrar el curso de acción que maximice las probabilidades de que obtenga lo que quiere. AIXI es similar en estructura a una IA que juega ajedrez u otros juegos con reglas conocidas, excepto que puede deducir las reglas del juego al jugarlo, a partir de cero conocimientos..
AIXI, dado el tiempo suficiente para calcular, puede aprender a optimizar cualquier sistema para cualquier objetivo, por complejo que sea. Es un algoritmo generalmente inteligente. Tenga en cuenta que esto no es lo mismo que tener inteligencia similar a la humana (la IA inspirada biológicamente es un tema completamente diferente Giovanni Idili de OpenWorm: Cerebros, Gusanos e Inteligencia Artificial Giovanni Idili de OpenWorm: Cerebros, Gusanos e Inteligencia Artificial Simulando una El cerebro humano está muy lejos, pero un proyecto de código abierto está tomando primeros pasos vitales, simulando la neurología y la fisiología de uno de los animales más simples conocidos por la ciencia. Leer más). En otras palabras, AIXI puede ser capaz de burlar a cualquier ser humano en cualquier tarea intelectual (si se le da suficiente poder de computación), pero puede que no sea consciente de su victoria. La neurociencia y la inteligencia artificial pueden enseñarnos acerca de la conciencia. ¿Puede la construcción de máquinas y software artificialmente inteligentes enseñarnos sobre el funcionamiento de la conciencia y la naturaleza de la mente humana en sí? Lee mas .
Como IA práctica, AIXI tiene muchos problemas. Primero, no tiene forma de encontrar aquellos programas que producen la salida en la que está interesado. Es un algoritmo de fuerza bruta, lo que significa que no es práctico si no tiene una computadora arbitrariamente poderosa. Cualquier implementación real de AIXI es necesariamente una aproximación y, en la actualidad, generalmente es bastante burda. Sin embargo, AIXI nos ofrece una visión teórica de cómo podría ser una poderosa inteligencia artificial y cómo podría razonar..
El espacio de los valores
Si ha programado algo en la computadora Conceptos básicos de la programación informática 101 - Variables y tipos de datos Conceptos básicos de la programación informática 101 - Variables y tipos de datos Habiendo introducido y hablado un poco acerca de la programación orientada a objetos antes y de dónde viene su nombre, pensé que era el momento Pasamos por los fundamentos absolutos de la programación de una manera no específica del lenguaje. Esto ... Leer más, sabes que las computadoras son literalmente desagradable, pedante y mecánicamente. La máquina no sabe o le importa lo que quiere que haga: solo hace lo que se le ha dicho. Esta es una noción importante cuando se habla de inteligencia de máquinas..
Con esto en mente, imagine que ha inventado una poderosa inteligencia artificial: ha creado algoritmos inteligentes para generar hipótesis que coinciden con sus datos y para generar buenos planes de candidatos. Su AI puede resolver problemas generales, y puede hacerlo de manera eficiente en el hardware de una computadora moderna..
Ahora es el momento de elegir una función de utilidad, que determinará cuáles son los valores de AI. ¿Qué deberías pedirle que valore? Recuerde, la máquina será detestable y pedalmente literal sobre cualquier función que le pida que maximice, y nunca se detendrá: no hay ningún fantasma en la máquina que se "despierte" y decida cambiar su función de utilidad, independientemente de cuántas Mejoras de eficiencia que hace a su propio razonamiento..
Eliezer Yudkowsky lo expresó de esta manera:
Como en toda la programación de computadoras, el desafío fundamental y la dificultad esencial de AGI es que si escribimos el código incorrecto, la IA no revisará automáticamente nuestro código, marcará los errores, descubrirá lo que realmente queríamos decir y lo haremos. en lugar. Los no programadores a veces imaginan un AGI, o programas de computadora en general, como análogos a un servidor que sigue órdenes sin cuestionarlo. Pero no es que la IA sea absolutamente. obediente a su código; más bien, la IA simplemente es el código.
Si está tratando de operar una fábrica, y le dice a la máquina que valore los clips de papel, y luego le da el control del grupo de robots de fábrica, puede regresar al día siguiente para descubrir que se ha agotado de todas las demás formas de materia prima, mató a todos sus empleados e hizo clips de sus restos. Si, en un intento de corregir su error, reprograma la máquina para simplemente hacer felices a todos, puede regresar al día siguiente para descubrir que está colocando cables en el cerebro de las personas..
El punto aquí es que los humanos tienen muchos valores complicados que asumimos que se comparten implícitamente con otras mentes. Valoramos el dinero, pero valoramos más la vida humana. Queremos ser felices, pero no necesariamente queremos poner cables en nuestros cerebros para hacerlo. No sentimos la necesidad de aclarar estas cosas cuando estamos dando instrucciones a otros seres humanos. Sin embargo, no puede hacer este tipo de suposiciones cuando está diseñando la función de utilidad de una máquina. Las mejores soluciones bajo la matemática sin alma de una función de utilidad simple a menudo son soluciones que los seres humanos ignorarían por ser moralmente horripilantes..
Permitir que una máquina inteligente maximice una función de utilidad ingenua será casi siempre catastrófico. Como dice el filósofo de Oxford Nick Bostom,
No podemos asumir alegremente que una superinteligencia necesariamente compartirá cualquiera de los valores finales asociados estereotípicamente con la sabiduría y el desarrollo intelectual en los humanos: curiosidad científica, preocupación benevolente por los demás, iluminación espiritual y contemplación, renuncia al material adquisitivo, gusto por la cultura refinada o por Los placeres simples en la vida, la humildad y la abnegación, etc..
Para empeorar las cosas, es muy, muy difícil especificar la lista completa y detallada de todo lo que la gente valora. Hay muchas facetas en la pregunta, y olvidar incluso una sola es potencialmente catastrófico. Incluso entre aquellos que conocemos, hay sutilezas y complejidades que hacen que sea difícil escribirlas como sistemas de ecuaciones limpios que podemos dar a una máquina como una función de utilidad..
Algunas personas, al leer esto, concluyen que la construcción de AI con funciones de utilidad es una idea terrible, y deberíamos diseñarlas de manera diferente. Aquí también hay malas noticias: puede probar, formalmente, que cualquier agente que no tenga algo equivalente a una función de utilidad no puede tener preferencias coherentes sobre el futuro..
Mejora recursiva
Una solución al dilema anterior es no darles a los agentes de inteligencia artificial la oportunidad de hacer daño a las personas: déles solo los recursos que necesitan para resolver el problema de la manera en que pretende resolverlo, supervíselos de cerca y manténgalos alejados de las oportunidades para hacer un gran daño Desafortunadamente, nuestra capacidad para controlar máquinas inteligentes es altamente sospechosa.
Incluso si no son mucho más inteligentes que nosotros, existe la posibilidad de que la máquina “oreja” - Recopile mejor hardware o realice mejoras en su propio código que lo hace aún más inteligente. Esto podría permitir que una máquina salte de la inteligencia humana en muchos órdenes de magnitud, burlando a los humanos en el mismo sentido que los humanos burlan a los gatos. Este escenario fue propuesto por primera vez por un hombre llamado I. J. Good, quien trabajó en el proyecto de análisis de criptas Enigma con Alan Turing durante la Segunda Guerra Mundial. Lo llamó un “Explosión de inteligencia,” y describió el asunto así:
Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultra inteligente podría diseñar máquinas aún mejores; sin duda entonces habría una “explosión de inteligencia,” y la inteligencia del hombre quedaría muy atrás. Por lo tanto, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil..
No está garantizado que una explosión de inteligencia sea posible en nuestro universo, pero parece probable. A medida que pasa el tiempo, las computadoras se vuelven más rápidas y se acumulan conocimientos básicos sobre inteligencia. Esto significa que el requerimiento de recursos para hacer ese último salto a un general, la inteligencia aumentada cada vez más baja. En algún momento, nos encontraremos en un mundo en el que millones de personas pueden llegar a Best Buy y adquirir el hardware y la documentación técnica que necesitan para crear una inteligencia artificial que se mejore a sí misma, que ya hemos establecido. muy peligroso. Imagina un mundo en el que podrías hacer bombas atómicas con palos y rocas. Ese es el tipo de futuro que estamos discutiendo..
Y, si una máquina da ese salto, podría superar rápidamente a la especie humana en términos de productividad intelectual, resolviendo problemas que mil millones de humanos no pueden resolver, de la misma manera que los humanos pueden resolver problemas que mil millones de gatos pueden ' t.
Podría desarrollar robots poderosos (o bio o nanotecnología) y adquirir de manera relativamente rápida la capacidad de remodelar el mundo como le plazca, y podríamos hacer muy poco al respecto. Dicha inteligencia podría despojar a la Tierra y al resto del sistema solar en busca de piezas de repuesto sin muchos problemas, en el camino de hacer lo que le dijimos. Parece probable que tal desarrollo sería catastrófico para la humanidad. Una inteligencia artificial no tiene que ser maliciosa para destruir el mundo, simplemente catastróficamente indiferente.
Como dice el dicho, “La máquina no te ama ni te odia, pero estás hecha de átomos que puedes usar para otras cosas..”
Evaluación de riesgos y mitigación
Entonces, si aceptamos que el diseño de una poderosa inteligencia artificial que maximiza una función de utilidad simple es malo, ¿en cuántos problemas estamos realmente? ¿Cuánto tiempo tenemos antes de que sea posible construir ese tipo de máquinas? Es, por supuesto, difícil de decir..
Los desarrolladores de inteligencia artificial están progresando. 7 sitios web increíbles para ver lo último en programación de inteligencia artificial 7 sitios web increíbles para ver lo último en programación de inteligencia artificial La inteligencia artificial aún no es HAL desde 2001: la odisea del espacio ... pero estamos muy cerca. Efectivamente, un día podría ser tan similar a la de los fanáticos de la ciencia ficción que produce Hollywood ... Leer más Las máquinas que construimos y los problemas que pueden resolver han tenido un alcance constante. En 1997, Deep Blue podía jugar al ajedrez a un nivel superior al de un gran maestro humano. En 2011, Watson de IBM pudo leer y sintetizar suficiente información de manera profunda y lo suficientemente rápida como para vencer a los mejores jugadores humanos en un juego abierto de preguntas y respuestas plagado de juegos de palabras y juegos de palabras: eso es mucho progreso en catorce años.
En este momento, Google está invirtiendo fuertemente en la investigación del aprendizaje profundo, una técnica que permite la construcción de redes neuronales poderosas mediante la construcción de cadenas de redes neuronales más simples. Esa inversión le permite hacer un progreso serio en el reconocimiento de voz y de imagen. Su adquisición más reciente en el área es una startup de Deep Learning llamada DeepMind, por la cual pagaron aproximadamente $ 400 millones. Como parte de los términos del acuerdo, Google acordó crear una junta de ética para garantizar que su tecnología de AI se desarrolle de forma segura.
Al mismo tiempo, IBM está desarrollando Watson 2.0 y 3.0, sistemas que son capaces de procesar imágenes y videos y argumentar para defender conclusiones. Dieron una demostración sencilla y temprana de la capacidad de Watson para sintetizar argumentos a favor y en contra de un tema en la demostración de video a continuación. Los resultados son imperfectos, pero un paso impresionante independientemente..
Ninguna de estas tecnologías son peligrosas en este momento: la inteligencia artificial como campo todavía está luchando para igualar las habilidades dominadas por niños pequeños. La programación de computadoras y el diseño de IA es una habilidad cognitiva de alto nivel muy difícil, y probablemente será la última tarea humana en la que las máquinas se vuelven competentes. Antes de llegar a ese punto, también tendremos máquinas ubicuas que pueden conducir. Así es como llegaremos a un mundo repleto de automóviles sin conductor. Cómo llegaremos a un mundo lleno de automóviles sin conductor. Conducir es un tedioso, peligroso, y exigente tarea. ¿Podría algún día ser automatizado por la tecnología de automóviles sin conductor de Google? Lea más, practique medicina y leyes, y probablemente otras cosas también, con profundas consecuencias económicas..
El tiempo que nos llevará llegar al punto de inflexión de la superación personal solo depende de qué tan rápido tengamos buenas ideas. La previsión de avances tecnológicos de este tipo es notoriamente difícil. No parece irrazonable que podamos construir una inteligencia artificial fuerte dentro de veinte años, pero tampoco parece irrazonable que pueda tardar ochenta años. De cualquier manera, sucederá con el tiempo, y hay razones para creer que cuando suceda, será extremadamente peligroso..
Entonces, si aceptamos que esto va a ser un problema, ¿qué podemos hacer al respecto? La respuesta es asegurarse de que las primeras máquinas inteligentes sean seguras, de modo que puedan arrancar hasta un nivel significativo de inteligencia y luego protegernos de máquinas inseguras hechas más adelante. Esta 'seguridad' se define compartiendo los valores humanos y estando dispuesto a proteger y ayudar a la humanidad.
Como en realidad no podemos sentarnos y programar valores humanos en la máquina, probablemente será necesario diseñar una función de utilidad que requiera que la máquina observe a los humanos, deduzca nuestros valores y luego intente maximizarlos. Para que este proceso de desarrollo sea seguro, también puede ser útil desarrollar inteligencias artificiales que estén diseñadas específicamente no tener preferencias sobre sus funciones de utilidad, lo que nos permite corregirlas o desactivarlas sin resistencia si comienzan a extraviarse durante el desarrollo.
Muchos de los problemas que debemos resolver para construir una inteligencia de máquina segura son difíciles matemáticamente, pero hay razones para creer que se pueden resolver. Un número de diferentes organizaciones están trabajando en el tema, incluyendo el Instituto de Futuro de la Humanidad en Oxford y el Instituto de Investigación de Inteligencia de la Máquina (que financia Peter Thiel).
MIRI está interesado específicamente en desarrollar las matemáticas necesarias para crear AI amigable. Si resulta que es posible el arranque de inteligencia artificial, el desarrollo de este tipo de tecnología 'AI amigable' primero, si tiene éxito, puede terminar siendo la cosa más importante que los humanos han hecho..
¿Crees que la inteligencia artificial es peligrosa?? ¿Te preocupa lo que pueda traer el futuro de la IA? Comparte tus pensamientos en la sección de comentarios a continuación!
Créditos de imagen: Lwp Kommunikáció Via Flickr, “Red neuronal“, por fdecomite,” img_7801“, por Steve Rainwater, “Evolucionar”, por Keoni Cabral, “nuevo_20x“, por Robert Cudmore, “Clips de papel“, por Clifford Wallace
Explorar más sobre: Inteligencia Artificial, Automatización Computacional..