Las compañías que estudian cómo invertir en capacidades de inteligencia artificial (IA) deberían entender primero que, durante los siguientes cinco años, las aplicaciones y máquinas se volverán menos artificiales y más inteligentes. Dependerán menos de datos masivos bottom-up y más en razonamiento top-down que se asemeja a la forma en que los humanos enfocamos los problemas y tareas.
En el pasado reciente, la IA avanzó a través de aprendizaje profundo y aprendizaje de las máquinas, construyendo sistemas desde abajo al entrenarlos con montañas de datos. Por ejemplo, los vehículos autónomos han sido entrenados en tantas situaciones de tráfico como fue posible. Sin embargo, estas “redes neuronales”, hambrientas de datos, tienen serias limitaciones. Especialmente tienen problemas para manejar casos de “límite”, situaciones donde existen pocos datos. Un automóvil autónomo que puede manejar los pasos peatonales, los peatones y el tráfico, tiene problemas procesando anomalías, como un niño vestido en un inusual disfraz de Halloween mientras atraviesa la calle al anochecer.
Muchos sistemas también quedan fácilmente en silencio. El sistema de reconocimiento facial del iPhone X no reconoce los “rostros mañaneros”, la cara hinchada y demacrada que las personas pueden tener al despertarse en la mañana. Las redes neuronales han derrotado a campeones de ajedrez, pero altere ligeramente una imagen y la red puede identificarla incorrectamente.
Los sistemas hambrientos de datos también enfrentan limitaciones empresariales y éticas. No todas las compañías tienen el volumen necesario de datos para construir capacidades personalizadas usando redes neuronales. Usar grandes cantidades de datos también plantea temas de privacidad que probablemente lleven a acciones gubernamentales, como la General Data Protection Regulation de la Unión Europea, que impone estrictos requisitos para el uso de datos personales de los individuos. Más aun, estos sistemas son cajas negras; no está claro cómo usan los datos para llegar a resultados como acciones o decisiones. Esto los deja abiertos a manipulación (los rusos en la elección presidencial estadounidense del 2016), y cuando algo sale vergonzosamente las organizaciones tienen dificultades para explicar por qué.
En el futuro, sin embargo, tendremos sistemas top-down, que no requieran tantos datos, sean más flexibles y, como los humanos, más innatamente inteligentes. Diversas compañías y organizaciones ya están poniendo a funcionar estos sistemas más naturales. Para construir una visión de hacia a dónde se dirige la IA en los siguientes años, las compañías deberían observar los desarrollos en cuatro áreas, que se detallan a continuación:
Razonamiento robótico más eficiente: Cuando los robots tienen un entendimiento del mundo, como los humanos, es más fácil enseñarles cosas, usando menos datos. Vicarious, que es una startup, está trabajando para desarrollar inteligencia general para los robots, lo que les permite generalizar a partir de algunos ejemplos.
Considere los revoltijos de letras y números que los sitios web usan para determinar si usted es un humano o un robot. Llamados CAPTCHA (siglas en inglés de test públicos de turing completamente automatizados para distinguir computadoras y humanos), son fáciles de resolver para los humanos y difíciles para las computadoras. Partiendo de la neurociencia computacional, los investigadores de Vicarious han desarrollado un modelo que puede resolver CAPTCHA a una tasa mucho más elevada que las redes neuronales y con 300 veces más eficiencia de datos.
Pericia preparada: Al modelar lo que un experto haría frente a la incertidumbre teniendo pocos datos, la inteligencia artificial top-down puede derrotar los enfoques recargados de datos a la hora de diseñar y controlar variedades de equipo de fábrica. Siemens está usando IA top-down para controlar el muy complejo proceso de combustión en turbinas de gas, donde el aire y el gas fluyen hacia una cámara, se encienden y consumen a temperaturas de hasta 1.600 grados Celsius. El volumen de emisiones creado y el qué tanto tiempo continuará operando la turbina depende de diversos factores, desde la calidad del gas hasta las temperaturas externas.
Usando mecanismos bottom-up de aprendizaje de las máquinas, la turbina de gas tendría que haber funcionado durante un siglo antes de producir los datos para comenzar el entrenamiento. En lugar de ello, los investigadores de Siemens usaron métodos que requerían pocos datos en la fase de aprendizaje de las máquinas. El sistema de monitoreo resultante hace pequeños ajustes que optimizan cómo funcionan las turbinas en términos de emisiones y desgaste, buscando continuamente la mejor solución en tiempo real.
Sentido común: Una variedad de organizaciones están trabajando para enseñarle a las máquinas a navegar el mundo usando sentido común, para entender objetos y acciones cotidianas, comunicarse naturalmente, manejar situaciones imprevistas y aprender de las experiencias. Sin embargo, lo que es natural para los humanos, sin entrenamiento explícito, resulta difícil para las máquinas.
La Defense Advanced Research Projects Agency está invirtiendo $2.000 millones en investigación de IA. En su programa de sentido común de las máquinas, los investigadores crearán modelos que imiten los dominios centrales del conocimiento humano, incluido “el ámbito de los objetos (física intuitiva), lugares (navegación espacial) y agentes (actores intencionales).”
Hacer mejores apuestas: Los humanos rutinariamente revisamos probabilidades y actuamos a partir de la más probable, incluso con relativamente poca experiencia previa. Las máquinas están aprendiendo a imitar este razonamiento a través de la aplicación de procesos de Gauss, modelos probabilísticos que pueden lidiar con amplia incertidumbre, actuar a partir de datos escasos y aprender de la experiencia.
Alphabet, la empresa matriz de Google, lanzó el Project Loon para brindar servicio de Internet a regiones marginadas del mundo a través de un sistema de globos gigantes que flotan en la estratósfera. Sus sistemas navegacionales emplean procesos de Gauss para predecir a dónde deben ir los globos. A continuación, cada uno se mueve hacia una capa de viento flotando en la dirección correcta, organizándose para formar una gran red de comunicaciones. Los globos no slo hacen predicciones certeras al analizar los datos de vuelo previos, sino que también analizan datos durante el vuelo para ajustar sus predicciones.
Dichos procesos de Gauss tienen una gran promesa. No requieren cantidades masivas de datos para reconocer patrones; los cálculos requeridos para inferir y aprender son relativamente sencillos, y si algo sale mal, la causa puede ser rastreada, a diferencia de las cajas negras en las redes neuronales.
H. James Wilson es un director de tecnologías de la información e investigación empresarial en Accenture Research. Paul R. Daugherty es jefe de tecnología e innovación en Accenture. Chase Davenport es investigador de tecnología.