Home » Los chips de cámara basados ​​en eventos están aquí, ¿qué sigue?

Los chips de cámara basados ​​en eventos están aquí, ¿qué sigue?

by admin

Una mirada retrospectiva a las décadas transcurridas desde esa reunión muestra la frecuencia con la que se han aplastado las esperanzas de los investigadores de IA y lo poco que los han disuadido esos reveses. Hoy en día, incluso cuando la IA está revolucionando las industrias y amenaza con cambiar el mercado laboral global, muchos expertos se preguntan si la IA actual está llegando a sus límites. Como Charles Choi delinea en “Siete maneras reveladoras en que las IA fallan”, las debilidades de los sistemas de aprendizaje profundo de hoy son cada vez más evidentes. Sin embargo, hay poca sensación de fatalidad entre los investigadores. Sí, es posible que nos espera otro invierno de IA en un futuro no muy lejano. Pero este podría ser el momento en que ingenieros inspirados finalmente nos conduzcan a un eterno verano de la mente de la máquina.

Investigadores que desarrollan IA simbólica se propuso enseñar explícitamente a las computadoras sobre el mundo. Su principio fundamental sostenía que el conocimiento puede ser representado por un conjunto de reglas, y los programas de computadora pueden usar la lógica para manipular ese conocimiento. Los principales simbolistas Allen Newell y Herbert Simon argumentaron que si un sistema simbólico tenía suficientes hechos y premisas estructuradas, la agregación eventualmente produciría una inteligencia amplia.

Los conexionistas, por otro lado, inspirados por la biología, trabajaron en “redes neuronales artificiales” que tomarían información y le darían sentido por sí mismos. El ejemplo pionero fue el perceptron, una máquina experimental construida por el psicólogo de Cornell Frank Rosenblatt con fondos de la Marina de los Estados Unidos. Tenía 400 sensores de luz que en conjunto actuaban como una retina, alimentando información a unas 1.000 “neuronas” que realizaban el procesamiento y producían una única salida. En 1958, un New York Times El artículo citó a Rosenblatt diciendo que “la máquina sería el primer dispositivo en pensar como el cerebro humano”.

Frank Rosenblatt inventó el perceptrón, la primera red neuronal artificial.División de colecciones raras y de manuscritos de la Universidad de Cornell

El optimismo desenfrenado alentó a las agencias gubernamentales de los Estados Unidos y el Reino Unido a invertir dinero en investigaciones especulativas. En 1967, el profesor del MIT Marvin Minsky escribió: “Dentro de una generación … el problema de crear ‘inteligencia artificial’ se resolverá sustancialmente”. Sin embargo, poco después, la financiación del gobierno comenzó a agotarse, impulsada por la sensación de que la investigación de la IA no estaba a la altura de sus propias expectativas. La década de 1970 vio el primer invierno de la IA.

Sin embargo, los verdaderos creyentes siguieron adelante. Y a principios de la década de 1980, el renovado entusiasmo trajo un auge para los investigadores en IA simbólica, quienes recibieron elogios y financiación por “sistemas expertos” que codificaban el conocimiento de una disciplina en particular, como el derecho o la medicina. Los inversores esperaban que estos sistemas encontraran rápidamente aplicaciones comerciales. La empresa de IA simbólica más famosa comenzó en 1984, cuando el investigador Douglas Lenat comenzó a trabajar en un proyecto al que llamó Cyc que tenía como objetivo codificar el sentido común en una máquina. Hasta el día de hoy, Lenat y su equipo continúan agregando términos (hechos y conceptos) a la ontología de Cyc y explican las relaciones entre ellos a través de reglas. Para 2017, el equipo tenía 1,5 millones de términos y 24,5 millones de reglas. Sin embargo, Cyc todavía está lejos de lograr inteligencia general.

A fines de la década de 1980, los vientos fríos del comercio provocaron el segundo invierno de IA. El mercado de los sistemas expertos colapsó porque requerían hardware especializado y no podían competir con las computadoras de escritorio más baratas que se estaban volviendo comunes. En la década de 1990, ya no estaba de moda académicamente trabajar en IA simbólica o en redes neuronales, porque ambas estrategias parecían haber fracasado.

Pero las computadoras baratas que suplantaron a los sistemas expertos resultaron ser una bendición para los conexionistas, que de repente tuvieron acceso a suficiente potencia informática para ejecutar redes neuronales con muchas capas de neuronas artificiales. Dichos sistemas se conocieron como redes neuronales profundas y el enfoque que permitieron se denominó aprendizaje profundo. Geoffrey Hinton, de la Universidad de Toronto, aplicó un principio llamado retropropagación para hacer que las redes neuronales aprendan de sus errores (consulte “Cómo funciona el aprendizaje profundo”).

Uno de los postdoctorados de Hinton, Yann LeCun, pasó a AT&T Bell Laboratories en 1988, donde él y un postdoctorado llamado Yoshua Bengio utilizaron redes neuronales para el reconocimiento óptico de caracteres; Los bancos estadounidenses pronto adoptaron la técnica para procesar cheques. Hinton, LeCun y Bengio finalmente ganaron el Premio Turing 2019 y, a veces, se les llama los padrinos del aprendizaje profundo.

Pero los defensores de la red neuronal todavía tenían un gran problema: tenían un marco teórico y una potencia informática creciente, pero no había suficientes datos digitales en el mundo para entrenar sus sistemas, al menos no para la mayoría de las aplicaciones. La primavera aún no había llegado.

Durante las últimas dos décadas, todo ha cambiado. En particular, la World Wide Web floreció y, de repente, había datos en todas partes. Las cámaras digitales y luego los teléfonos inteligentes llenaron Internet con imágenes, sitios web como Wikipedia y Reddit estaban llenos de texto digital de libre acceso y YouTube tenía muchos videos. Finalmente, había suficientes datos para entrenar redes neuronales para una amplia gama de aplicaciones.

El otro gran desarrollo fue cortesía de la industria del juego. Empresas como Nvidia habían desarrollado chips llamados unidades de procesamiento de gráficos (GPU) para el procesamiento pesado requerido para renderizar imágenes en videojuegos. Los desarrolladores de juegos utilizaron GPU para realizar tipos sofisticados de sombreado y transformaciones geométricas. Los científicos informáticos que necesitaban una gran potencia informática se dieron cuenta de que, en esencia, podían engañar a una GPU para que realizara otras tareas, como entrenar redes neuronales. Nvidia notó la tendencia y creó CUDA, una plataforma que permitió a los investigadores usar GPU para procesamiento de propósito general. Entre estos investigadores se encontraba un Ph.D. estudiante en el laboratorio de Hinton llamado Alex Krizhevsky, quien usó CUDA para escribir el código de una red neuronal que sorprendió a todos en 2012.

Imagen del profesor del MIT, Marvin Minsky.El profesor del MIT, Marvin Minsky, predijo en 1967 que la verdadera inteligencia artificial se crearía en una generación.El Museo del MIT

Lo escribió para la competencia ImageNet, que desafió a los investigadores de inteligencia artificial a construir sistemas de visión por computadora que pudieran clasificar más de 1 millón de imágenes en 1,000 categorías de objetos. Si bien AlexNet de Krizhevsky no fue la primera red neuronal que se utilizó para el reconocimiento de imágenes, su desempeño en el concurso de 2012 llamó la atención del mundo. La tasa de error de AlexNet fue del 15 por ciento, en comparación con la tasa de error del 26 por ciento de la segunda mejor entrada. La red neuronal debe su victoria desenfrenada a la potencia de la GPU y una estructura “profunda” de múltiples capas que contienen 650.000 neuronas en total. En la competencia ImageNet del próximo año, casi todos usaron redes neuronales. Para 2017, muchas de las tasas de error de los contendientes habían caído al 5 por ciento y los organizadores terminaron el concurso.

El aprendizaje profundo despegó. Con el poder de cómputo de las GPU y una gran cantidad de datos digitales para entrenar sistemas de aprendizaje profundo, los autos autónomos pueden navegar por las carreteras, los asistentes de voz pueden reconocer el habla de los usuarios y los navegadores web pueden traducir entre docenas de idiomas. Las IA también derrotaron a los campeones humanos en varios juegos que antes se pensaba que las máquinas no podían ganar, incluido el antiguo juego de mesa Go y el videojuego. StarCraft II. El auge actual de la IA ha afectado a todas las industrias, ofreciendo nuevas formas de reconocer patrones y tomar decisiones complejas.

Una mirada retrospectiva a las décadas muestra la frecuencia con la que se han aplastado las esperanzas de los investigadores de IA y lo poco que los han disuadido esos reveses.

Pero la amplia gama de triunfos en el aprendizaje profundo se ha basado en aumentar la cantidad de capas en las redes neuronales y aumentar el tiempo de la GPU dedicado a entrenarlas. Un análisis de la empresa de investigación de inteligencia artificial OpenAI mostró que la cantidad de potencia computacional requerida para entrenar los sistemas de inteligencia artificial más grandes se duplicó cada dos años hasta 2012, y luego se duplicó cada 3.4 meses. Como escriben Neil C. Thompson y sus colegas en “Los rendimientos decrecientes del aprendizaje profundo”, a muchos investigadores les preocupa que las necesidades computacionales de la IA estén en una trayectoria insostenible. Para evitar arruinar el presupuesto energético del planeta, los investigadores deben romper con las formas establecidas de construir estos sistemas.

Mientras pueda parecer como si el campo de la red neuronal definitivamente hubiera pisoteado a los simbolistas, en verdad el resultado de la batalla no es tan simple. Tomemos, por ejemplo, la mano robótica de OpenAI que fue noticia por manipular y resolver un cubo de Rubik. El robot usó redes neuronales. y IA simbólica. Es uno de los muchos nuevos sistemas neuro-simbólicos que utilizan redes neuronales para la percepción y la inteligencia artificial simbólica para el razonamiento, un enfoque híbrido que puede ofrecer ganancias tanto en eficiencia como en explicabilidad.

Aunque los sistemas de aprendizaje profundo tienden a ser cajas negras que hacen inferencias de formas opacas y desconcertantes, los sistemas neuro-simbólicos permiten a los usuarios mirar bajo el capó y comprender cómo la IA llegó a sus conclusiones. El Ejército de los EE. UU. Es particularmente cauteloso a la hora de confiar en los sistemas de caja negra, como describe Evan Ackerman en “Cómo el Ejército de los EE. UU. Está convirtiendo robots en jugadores de equipo”, por lo que los investigadores del Ejército están investigando una variedad de enfoques híbridos para conducir sus robots y vehículos autónomos.

Imagínese si pudiera tomar uno de los robots de limpieza de carreteras del Ejército de los EE. UU. Y pedirle que le prepare una taza de café. Esa es una propuesta ridícula hoy en día, porque los sistemas de aprendizaje profundo se construyen para propósitos limitados y no pueden generalizar sus habilidades de una tarea a otra. Además, aprender una nueva tarea generalmente requiere que una IA borre todo lo que sabe sobre cómo resolver su tarea anterior, un acertijo llamado olvido catastrófico. En DeepMind, el laboratorio de inteligencia artificial de Google con sede en Londres, la reconocida roboticista Raia Hadsell está abordando este problema con una variedad de técnicas sofisticadas. En “Cómo DeepMind está reinventando el robot”, Tom Chivers explica por qué este problema es tan importante para los robots que actúan en el impredecible mundo real. Otros investigadores están investigando nuevos tipos de metaaprendizaje con la esperanza de crear sistemas de inteligencia artificial que aprendan a aprender y luego apliquen esa habilidad a cualquier dominio o tarea.

Todas estas estrategias pueden ayudar a los investigadores a lograr su objetivo más elevado: construir IA con el tipo de inteligencia fluida que vemos desarrollar a nuestros hijos. Los niños pequeños no necesitan una gran cantidad de datos para sacar conclusiones. Simplemente observan el mundo, crean un modelo mental de cómo funciona, actúan y utilizan los resultados de sus acciones para ajustar ese modelo mental. Repiten hasta que entienden. Este proceso es tremendamente eficiente y eficaz, y supera con creces las capacidades de la IA más avanzada de la actualidad.

Aunque el nivel actual de entusiasmo le ha valido a la IA su propio ciclo de publicidad de Gartner, y aunque la financiación para la IA ha alcanzado un máximo histórico, hay poca evidencia de que haya un fracaso en nuestro futuro. Las empresas de todo el mundo están adoptando sistemas de inteligencia artificial porque ven mejoras inmediatas en sus resultados y nunca volverán atrás. Solo queda por ver si los investigadores encontrarán formas de adaptar el aprendizaje profundo para hacerlo más flexible y robusto, o idearán nuevos enfoques que aún no se han soñado en la búsqueda de 65 años para hacer que las máquinas se parezcan más a nosotros.

Este artículo aparece en la edición impresa de octubre de 2021 como “El pasado turbulento y el futuro incierto de la IA”.

De los artículos de su sitio

Artículos relacionados en la Web

.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy