Tecnología 14/09/2018

Diego Stamato: “Con la inteligencia artificial los programadores e ingenieros crearon a su propio caníbal”

Por José Crettaz

Riesgos de la robótica doméstica, boom de los asistentes de voz y el impacto de estas tecnologías

Diego Stamato es consultor en transformación digital y especialista en traducir el fenómeno de la inteligencia artificial a la lengua común. Asesora a empresas y organizaciones en la adopción de tecnologías de este tipo y es un divulgador que hay que seguir. En #TMTconversaciones (domingos 18.30 por Canal Metro), hablamos de los avances de la inteligencia artificial y sus efectos en la vida cotidiana de las personas, así como también su adopción en los procesos creativos y productivos en distintas industrias. Y en esta charla, también surgió la necesidad de un diálogo mayor entre la ética y la técnica ante el impacto de estas tecnologías en la vida cotidiana.

-¿Que es la inteligencia artificial?

-Hay varias definiciones, pero podríamos decir que son aquellas acciones que una computadora realiza y son similares a las que haría un ser humano. Poder ver, identificar una foto y saber qué es. Poder hablar o poder tener una voz, acciones que hasta hace poco eran exclusivas del ser humano.

-Es un concepto que engloba muchas tecnologías

-Sí, y algo importante es que refiere al aprendizaje. Las computadoras tienen distintas formas y tecnologías de aprender pero el concepto clave, es que lo puedan aprender. Ya sea en forma autónoma, con un asistente, con datos  o por ensayo y error. Las computadoras llegan a resultados iguales al ser humano, pero mediante un proceso muy diferente. El resultado es el mismo, en un punto, pero no es equiparable en cuanto al proceso.

-O sea las computadoras o las maquinas no son inteligentes como las personas

-Exactamente, las personas otorgan sentido a las cosas, buscan causas. Las computadoras son frías, calculan y dan un resultado.

-Vos decís que pueden aprender. ¿A eso se refiere la idea esta de machine learning?

-Claro, porque inteligencia artificial es un concepto con engloba todas estas tecnologías. Pero la verdad es que a la hora de aplicarlo el concepto es machine learning. Sería una computadora que aprende por medio de la práctica y va mejorando sus resultados con el tiempo. Hay diferentes formas de aprender. Lo último son las computadoras que aprenden por sí mismas, por ensayo y error. Pensemos que estos conceptos ya vienen de la década del 50.

-Y si existe desde hace tantos años ¿Que es lo que cambió para que ahora sea una realidad?

-La aceleración de hardware y la posibilidad de reunir muchos datos. Bajó el costo de procesamiento y de alojamiento de datos. Por eso viene esto del machine learning, al tener una gran cantidad de datos, la computadora logra aprender.

“Machine learning refiere a una computadora que aprende por medio de la práctica y que va mejorando sus resultados con el tiempo. La computadora puede llegar al mismo lugar que una persona pero mediante un proceso distinto”

-¿Para qué se está usando ahora inteligencia artificial, machine learning y estas tecnologías?

-Hay tres casos. Un primer caso se da cuando tenés información nueva, relevante y obtenés un pronóstico, una probabilidad de que suceda algo. Un segundo caso es cuando tenés información nueva, relevante, lográs un pronóstico y además obtenés indicaciones de qué deberías hacer. Finalmente, en un tercer caso la computadora toma acciones concretas. Compra, vende, escribe, saca fotografías…, digamos decide algo por sí misma.

No todo lo que es automatización es machine learning. Hay muchos casos donde se modifican negocios, automatizando algo, robots, que hacen una sola acción sin que implique machine learning.

-¿Y qué sectores económicos o de la vida social o cultural ya están mostrando una adopción más rápida de tecnologías de inteligencia artificial?

-Los que tenían datos duros y estructurados fueron los que primero tomaron esto. Los que tiene reglas fáciles de aprender. Bancos, juegos que tienen reglas fijas, la bolsa. Los que tienen narraciones, texto, audio, video, se fueron sumando a lo que es deep learning,  que es donde necesitan mucha más cantidad de datos y una capa de negocio diferentes.

¿Y en la Argentina, qué sectores han dado pasos?

-Los bancos y el agro están avanzando bastante.

-¿Y qué es  lo malo de esta tecnología?

-Lo malo, dicen algunos críticos, es qué va a pasar con los empleos y cómo se van a reconfigurar las ciudades. También hay efectos a nivel neurológico y psicológico en las personas.

“Los que tenían datos duros, datos estructurados, fueron los que primero tomaron esto. Los que tiene reglas fáciles de aprender. Bancos, juegos que tienen reglas fijas, la bolsa. Los que tienen narraciones, texto, audio, video, se fueron sumando a lo que es deep learning, que es donde necesitan mucha más cantidad de datos y una capa de negocio, de machine learning, diferentes.”

-Un caso tal vez poco conocido es el de los médicos, ¿no?

-Exactamente. Uno de los casos más paradigmáticos que se está viendo es el de los radiólogos, especialistas en leer pantallas, radiografías o resonancias, justo una de las áreas en donde las computadoras avanzaron mucho. La inteligencia artificial aprende a leer imágenes y ya está diagnosticando y sugiriendo tratamientos para que luego sea el médico el que tenga la última decisión. Aunque ya hay casos en los que directamente defina el robot lo que abre un debate ético.

-Ahí salimos de la técnica y nos metemos en la ética ¿Puede la maquina cometer una mala praxis?

-Claro totalmente, ¿quien sería el responsable de eso el programador, la empresa, el instituto médico? No sabríamos qué hacer. Ahí hay un gran debate y como siempre la legislación va detrás de todo.

-¿Cuál es el clima de la conversación?

-El tema esté presente, se volvió moda y se hizo mainstream. El tema es cómo hacemos para bajarlo al detalle  porque tenés a las grandes compañías que están dominando todo. ¿Cómo lo llevamos a algo que nos sirva? Pueden seguirse diferentes caminos. Desde utilizar tecnologías de los grandes jugadores, Google, Microsoft, Facebook o IBM; desarrollar algo si tenés un equipo técnico; o recurrir a algo llave en mano, software as a service para algo en concreto. Va a depender de la escala de la compañía.

-¿Qué pasa con los chatbots, esos software que avanzaron en los centros de atención al cliente y que utilizan aplicaciones de mensajería?

-Si, y ahí tenés capacidades de machine learning. Entender el texto ya sea en voz o en texto plano. Luego ir entendiendo cómo son los giros idiomáticos, como le respondés, si te entendió o no. Ahora está teniendo otra curva, otro aprendizaje, porque los grandes jugadores sacaron herramientas para que los desarrolladores puedan trabajar mejor. En Argentina, están utilizando hardview, que es una tecnología por videoconferencia. La plataforma detecta micro movimientos de las facciones, tono de voz, mirada y puede deducir, qué grado de compromiso tenés con una búsqueda de empleo, por ejemplo. Varias compañías están usando estas herramientas en la Argentina. Este es uno de esos casos en los que no hay que hacer grandes desarrollos sino que podés comprar licencias y tenerlos directamente.

-¿Qué es la computación cuántica? ¿Qué impacto va a tener?

-La computación funciona actualmente mediante sistemas binarios, ceros y unos. Lo que se quiere hacer con la computación cuántica es superar esto para llegar a posibilidades de cálculo que hoy no se alcanzan por una limitación física a nivel de hardware. Algunos dicen que la computación cuántica será una nueva era para el ser humano por lo que permitirá hacer.

-¿Y ya está entre nosotros?

-No, la están probando Microsoft, Google e IBM. Pero todavía les falta llegar a un nivel óptimo poder ofrecerla comercialmente y para tener aplicaciones concretas.

-¿Que pasa con los robots?

-Están bajando los costos de producción. Hay una gran demanda de robots aunque por ahí todavía no llegan a nuestro país como deberían llegar. El robot tiene una interfaz más amigable que permite ponerle caritas y ojos y eso los humaniza y los acerca.

-Por eso ya se vieron robots humanoides, con aspecto de mujer o tipo mascota…

-Sí, pero en el sector industrial -las automotrices son las que más los usan-, no tienen esa anatomía y no son tan amigables. Pero, cuando llegás al usuario común necesitás amigarte y por eso los hacen humanoides.

En Estados Unidos se ponen en fábricas para automatizar procesos productivos y lo interesante es que vos le enseñás al robot a manejarse, sin programar, sin programadores ni ingenieros. Entonces algo importante que está pasando con esto es que los ingenieros que son los que están ayudando en estos desarrollos y que están al tope de la pirámide de estos desarrollos, también podrían ser reemplazados en sus tareas. También hay casos en los que con unos mockups, unos dibujitos y un prototipo, la computadora aprende a programar. Entonces los programadores también están en un riesgo. Crearon su propio caníbal ¿no? Eso es muy interesante.

“También hay casos en los que con unos mockups, unos dibujitos y un prototipo, la computadora aprende a programar. Entonces los programadores también están en un riesgo. Crearon su propio caníbal ¿no? Eso es muy interesante”

-Mucha gente, con algún poder adquisitivo, ya tiene robots en su casa y no ha tomado del todo conciencia. Estoy hablando de la robótica domestica ¿Eso cómo ha evolucionado?

-Hoy se está usando mucho. Tenés mascotas, obviamente, tenés sensores de luz en tu casa, tenés los que te limpian, aspiradoras. Tenés aplicaciones donde podés ponerle la cerradura y con una aplicación entrar a tu casa. Cámara de seguridad, que usan inteligencia artificial, y detectan quien es el que está entrando, si lo conocen o no. Pero hay un tema importante con eso que tiene que ver con la seguridad, hay varias fallas de seguridad en todos estos robots.

-¿Cuáles son?

-Vos estás integrando en tu casa un montón de dispositivos. Cuando hablamos de Internet de las cosas, estamos hablando de pequeñas de cosas, electrodomésticos, cámaras o juguetes que tienen algún protocolo de conectividad entre sí, o contra Internet. Eso también abre la posibilidad a fallas de seguridad. Los usuarios no saben que están conectando tantas cosas a Internet. No saben cuándo o quien puede acceder a ese lugar.

Lo que tienen estas computadoras es que son rápidas. Entonces, ese factor de falla vinculado a la rapidez es un peligro mayor porque aunque tomes recaudos no podés ser tan rápido. Cuando en la bolsa se produjo un caso de compras de acciones masivas, las compañías llegaron a perder 500 millones de dorales en 45 minutos.

-Es un caso real.

-Sí, es un caso real. Entonces, extrapolándolo a la casa si pasan fallas graves las computadoras toman decisiones inmediatas. Abren una cerradura o empiezan a transmitir en vivo.

-Lo que nos lleva devuelta al tema de la regulación.

-Sí, ahí sí va a haber un vacío, una discusión que hay que dar, que se está dando en todo el mundo. Aquí es donde me parece que falta un poco en Argentina. Estamos absorbiendo mucho la tecnología, la parte más técnica pero sin considerar lo demás.

-Y lo hacemos de manera irreflexiva…

-Cuando hicimos el evento de inteligencia artificial tuvimos tres ejes. El primero era técnico en el que los ingenieros explicaran cómo funcionan los algoritmos y abrir esas cajas negras. El segundo era el impacto en los negocios. Y el tercero era el de la reflexión porque lo que tienen estos sistemas es que son muy rápidos de implementar en algunos casos, permiten rápidamente saber el retorno de la inversión y sus resultados. Pero hay que pensar también en cómo modifica al ser humano. Algunos estudios indican que cuanto más inteligente es la computadora, más básicas son las preguntas del ser humano. Empezamos a desligarnos de nuestra responsabilidad en la computadora.

“Hay que pensar también en cómo modifica al ser humano. Algunos estudios indican que cuanto más inteligente es la computadora, más básicas son las preguntas del ser humano. Empezamos a desligarnos de nuestra responsabilidad en la computadora”

-O la memoria Google, no recordamos de algo y lo vamos a buscar.

-En ese caso la memoria del ser humano empieza a dejarla, como sabe que está en otro lugar, lo empieza a dejar. Entonces, ese es el tema. ¿Cómo nos va a afectar?

-Sumemos el auge de los asistentes virtuales que nos hablan con voz humana, nos responden de manera humana. Pensemos eso integrado en los juguetes, cuando los niños o adolescentes, interactúan con esos juguetes, que empiezan a tener ya cierta presencia en las familias.

-Totalmente. Nos hemos dado cuenta que de acá a dos años mejoró muchísimo el nivel de respuesta y de entendimiento que tienen. Todavía tienen fallas, le faltan algunas cosas, pero el nivel que están teniendo es importante. Es muy llamativo que todas las empresas están apostando a algún tipo de asistente de voz.

Algunos teóricos o especialistas dicen que las mejores tecnologías son aquellas que son invisibles al ser humano. Los asistentes de voz son la forma más sencilla de entrar a este mundo y nos vamos habituando. Es algo familiar. Le preguntamos el clima, la agenda o el resultado de un partido. Y de ahí a los nuevos servicios de e-commerce, de compra y venta de cosas, de productos. Algunos sistemas de inteligencia artificial van a terminar conociéndonos más que nosotros mismos. En los próximos años van a salir muchos más asistentes de voz.