Con doce años en el cargo, Norman Judah -tocayo mío- sabe muy bien de lo que está hablando, y con razón: ha liderado la vanguardia de desarrollo de Microsoft en muchos frentes, desde Windows y Office, pasando por los Hololens hasta la nube, en diseño, tecnología e implementación. Por lo tanto, no es sorpresa que haya venido a Chile a exponer sobre la próxima frontera tecnológica, inteligencia artificial y las tecnologías de realidad mixta que hoy suenan más al futuro que al presente.
En el marco de su entretenida charla, tuvimos la oportunidad de conversar sobre el tópico que nos interesa: cuál es su visión del estado del arte en IA y hasta dónde podemos llegar con esta tecnología que, en muy poco tiempo, se está convirtiendo en un lugar común y no en un imposible.
FayerWayer: La inteligencia artificial ha tenido un crecimiento explosivo en los últimos 10 años. ¿A que cree que se debe?
Norm Judah: La inteligencia artificial no ocurrió la semana pasada. La investigación sobre IA ha estado ocurriendo durante 40, 50 años. Muchos casos se remiten al Media Lab del MIT, lenguajes como Prolog y Lisp, y luego todo se silenció por un tiempo. Hubo mucha actividad y financiamiento y luego silencio, pero recientemente se ha vuelto más visible. Y se ha vuelto visible sobre dos cosas: primero la riqueza del algoritmo, debido a la investigación continuada de la ciencia computacional en diseño de redes neuronales. Esa es la primera parte. Pero también tienes que tener un lugar donde ejecutarlo. Y ahí es donde aparece la nube. Entonces es la combinación de algoritmos en la nube lo que hace que la inteligencia artificial sea accesible y esté disponible para todos, para experimentar, para jugar, entender, usar y todo eso. La democratización de la IA, es decir hacerla disponible para todos, es lo que hemos visto en el último año, pero no es nuevo. Estas ideas y esta investigación ha estado por muchos años.
FW: Satya Nadella dijo recientemente que era hora de “controlar la inteligencia artificial”. En torno a la democratización de ésta, ¿está de acuerdo con esa apreciación?
NJ: Creo que hay que dar un paso hacia atrás, como lo hemos hecho, y mirar ampliamente el tópico de lo ético. Si puedes hacer eso, puedes entrar a cosas como la privacidad, por ejemplo, porque la manera en la que acumulas y usas datos de otras personas está dentro de esa infraestructura ética. Estamos elevando la conversación a no sólo privacidad y comportamiento, sino que a un nivel más alto hablando sobre sentar principios éticos. Creemos que toda compañía -porque cada compañía es una compañía de software de alguna forma- necesitará tener su propio manifiesto sobre inteligencia artificial, sobre lo que piensan de la IA, del uso de la información, y sobre el rol que los humanos cumplen cuando la IA está ahí. Creemos de hecho que los humanos tienen un rol muy activo, y que una de las dimensiones de eso es sobre el juicio. Es tratar de entender cómo funciona el motor de la inteligencia artificial, cómo se están haciendo las recomendaciones. Y hoy, muchos de los sistemas que vemos hoy son lo que yo llamo “consultivos”. En otras palabras, el sistema hace una recomendación a un ser humano para tomar acción. Pero muy pronto estos sistemas avanzarán a un bucle o a una especie de “circuito cerrado”; vemos eso con la conducción autónoma, por ejemplo. Y en ese circuito cerrado el sistema está tomando la decisión por ti, ejecutando la acción y luego volviendo y diciéndote “por cierto, ejecuté esta acción para ti”. Por eso, ya que estamos pasando por aquello, el rol de los humanos y el rol de la inteligencia artificial tiene que ser elevado a un lugar donde individuos y compañías grandes y pequeñas tendrán que asumir una posición respecto a la ética de la IA.
FW: El tema de la ética en inteligencia artificial nos recuerda mucho a la ciencia ficción de mitades del siglo XX…
NJ: La ciencia ficción escrita en los años 40 o 50 estaba increíblemente adelantada en la proyección desde donde está, por ejemplo con Isaac Asimov primero en “Yo, Robot”, pero hubo otra trilogía llamada “Fundación” -una trilogía en cuatro libros- que de hecho habla sobre Big Data. Articula muy bien el valor estadístico del Big Data y predecir el comportamiento de la gente. La única cosa a la que no le acertó es que asumió que una predicción acertada debía ser a escala intergaláctica, y sabemos hoy en día que eso no es cierto. Muchos de los proveedores de software hoy en día en un set de muestra pequeño pueden predecir comportamiento hasta mi como individuo y personalizarlo. Pero de nuevo, estas son cosas que Asimov escribió en los años 40 y 50, y creo que hoy nos estamos perdiendo algo de aquello en la literatura donde somos increíblemente articulados sobre una posible posición en el futuro. Creo que el trabajo que hizo en ese momento en términos de predecir el futuro es bastante sorprendente. El único error de Asimov es que se equivocó por 50 años, viendo lo que vemos hoy como si fuese a pasar en 50 años más, por lo tanto su predicción estaba correcta pero el timing estaba equivocado. Nos hemos movido más rápido de lo que él pensó.
FW: ¿Cree que el campo de la robótica y la inteligencia artificial es peligroso? Teniendo el ejemplo de la literatura de Asimov detrás, ¿Ha pensado en formas de controlar estos procesos?
NJ: Nosotros creemos que es el rol de los humanos en el juicio, que es la habilidad de la gente para entender cómo funcionan los algoritmos y cómo se hacen las recomendaciones. Una de las cosas que vemos hoy es que si los sistemas de inteligencia artificial no son supervisados, ni bien alimentados, o no tienen a alguien vigilándolos con ese juicio, los algoritmos pueden decaer, y pueden decaer con una preferencia lentamente establecida. Esencialmente lo que tiene que ocurrir es que la gente tiene un rol activo que cumplir. No significa que puedas dejar al sistema funcionar por si mismo: los sistemas se vuelven orgánicos, y como cada organismo, van mutando, creciendo y cambiando de forma, y alguien tiene que observar ese proceso. Hay un rol activo de la gente en eso. El estado de la industria hoy es que estamos aprendiendo. Aprendiendo de los vehículos autónomos, y de la inteligencia artificial en vehículos, y cómo navegan en el tráfico, cómo deciden en situaciones de emergencia y que hacen si, por ejemplo, un perro se cruza en el camino. Así que la noción de privacidad comienza a cambiar un poco porque si obtengo valor, es posible que sea capaz de entregar mi información y hacer que un sistema de inteligencia artificial aprenda más sobre mi, sobre mi contexto, pero debe haber valor para mi. Y cuando no hay valor, o realmente no entiendo la naturaleza de las proyecciones en mi persona, eso pone nerviosos a algunos.
FW: ¿Cuál cree que es el límite ético de la inteligencia artificial? ¿Dónde ponemos la línea?
NJ: Mientras vamos desarrollando y experimentando con las soluciones de inteligencia artificial, ya sea sobre gente o predicción, o encontrar cosas, o ayudándome a entender cosas, siempre existirá un lugar en esa secuencia de cosas donde alguien tiene que sentarse a tener un conocimiento profundo de lo que está ahí. Estamos aprendiendo sobre las posibilidades de lo que ha ocurrido hasta ahora, y a medida que vamos aprendiendo de esas posibilidades podemos comenzar a tomar acción correctiva. Las oportunidades que la IA representa para ayudar a la gente a encontrar cosas, información, a ayudarte a hacer cosas en tu trabajo o en tu ambiente social y hogareño, yo creo que veremos más y más gente adaptándose a esa tecnología casi al mismo ritmo al que nos adaptamos a la tecnología móvil. Si pensamos en la manera en que usamos lo móvil hoy comparado a lo que hacíamos hace diez, quince o veinte años atrás, pues se cambió la forma en que la gente habla, se comunica, colabora y encuentra cosas. Y creo que la IA cambiará eso, la IA te ayudará a encontrar información y hacer cosas. Pero todos tienen que tener una colección de principios alrededor de la Inteligencia Artificial, ya sea una compañía, o un individuo, o un gobierno, o educación. Necesitamos entender los principios fundamentales de la inteligencia artificial.
FW: ¿Deberíamos enseñar esos principios en escuela primaria, por ejemplo?
NJ: Creo que todavía es muy temprano para tratar de entender este tipo de principios fundamentales éticos, o axiomas si se prefiere, cómo hacerlos. Mientras los vayamos desarrollando, creo que habrá un punto en el futuro donde en varios grados educacionales será importante cómo se manipulan los datos y la consecuencia de aquello. Hoy en día muchas personas realizan búsquedas en internet, ven un hipervínculo y le hacen clic, ¿Realmente quieres ir a ese sitio? ¿Entiendes lo que estás haciendo? ¿Crees que la fuente es confiable? Y creo que esto está en la misma categoría, que es que mucha gente cree lo que ve en internet porque está ahí, sin realmente hacer un juicio sobre lo que es.
The post Norm Judah, CTO de Microsoft Digital: “Necesitamos entender los principios fundamentales de la inteligencia artificial” appeared first on FayerWayer.
Comentarios recientes