Robótica y Blockchain

Eduardo Castelló

Investigador del MIT Media Lab y beca Marie Curie

Día

El modelo del enjambre de robots simples se impondrá para la realización de muchas tareas como alternativa más eficiente a los robots complejos, pero a día de hoy no tenemos una interface para colaborar con ellos y necesitamos tecnología que permita generar confianza digital.

Una compañera en el MIT Media Lab, hace unos cinco años, entró en el laboratorio muy interesada en reconocimiento facial. Ella intentaba que la máquina reconociera las emociones de alegría o de tristeza. Pero para ello necesitaba que la cámara que tenía en el ordenador pudiera reconocer su cara. Cuando llegó al laboratorio, vio que esa cámara que esa cámara que todo el mundo tenemos en nuestros portátiles no reconocía su cara y empezó a ver que a lo mejor su código estaba mal, lo probó, me llamó y en el momento en el que yo aparecí en la cámara, me reconoció a mí, pero no a ella. Y empezamos a ver que en el fondo su código no estaba mal, sino simplemente toda la ingeniería que había detrás del reconocimiento facial de la cámara no estaba preparada para reconocer a gente como Joey.

Muchas veces pensamos en tecnologías como la robótica y la inteligencia artificial en pura tecnología, como era el coche hace 100 años, no es ni bueno ni malo sino en función del uso que le damos. La tecnología digital, la robótica, la inteligencia artificial, no es neutra, porque ha sido desarrollada por un tipo de personas, en un sitio determinado, con una idea del mundo determinada.  Y cuando eso se convierte en producto y se lleva a otros sitios, no tiene por qué solapara con los usuarios.

El profesor Hiroshi Ishiguro dirigió mi doctorado en Osaka en Japón. Estaba muy interesado en la telepresencia, cosa que ahora en época postpandemia sería muy atractivo. Él lo que intentaba era resolver un problema que todos hemos intentado en algún momento de nuestras vidas: cómo estar en dos sitios al mismo tiempo. Su solución fue crear un robot que se pareciera a él y enviarlo a los sitios en los que él no quería estar.

Más allá de un cliente de Skype, el robot veía el mundo y actuaba sobre él. Como el robot se parecía al profesor Ishiguro y decía las cosas que decía el profesor Ishiguro y era teleoperado por el profesor Ishiguro, muchas de las personas pensábamos que el profesor Ishiguro también estaba ahí.

Lo interesante es que el profesor Ishiguro quería que el robot estuviera en el sitio en el que él no quería estar, pero alguien tenía que mover al robot. Ese era yo. Durante mis primeros dos años de máster en Osaka yo era el encargado de llevarlo allí donde el profesor Ishiguro no quería estar, y no solo en Osaka, era en Tokio, en Copenhaghe, en Ciudad del Cabo… todos los agentes de seguridad de los aeropuertos de este mundo conocen mi cara porque durante dos años llevé un torso humano en mi equipaje. Así hizo defensas de tesis, participó en congresos, e hizo muchísimas cosas.

El futuro del robot

Lo interesante de esta historia es que el profesor Ishiguro, más allá de investigar sobre la esencia del propio ser humano a través de clonarse en un robot y enviarlo a sitios y hacer que las personas interactuaran con él, tenía una visión del mundo de la robótica muy particular. Él pensaba que en el fondo el futuro de la robótica era un robot muy complejo, muy caro, que te representaría. Y me di cuenta de que, en el fondo, mi idea no era así.

Mi idea era que, en vez de un robot muy caro, muy complejo, muy difícil de reparar, tendríamos un enjambre de robots muy simples, que cooperan y colaboran entre ellos en grandes números, pero cuando uno se estropea, los otros pueden cubrir su trabajo, son tolerantes a fallos.

Habría que verlos un poco como hormigas. Qué sucedería si hicieras una hormiga robótica y la hicieras cooperar y colaborar con otras hormigas robóticas. Esto es muy interesante porque en un futuro de medio y largo plazo, estos sistemas serán los que hagan que nos movamos por las ciudades y lleguen paquetes a nuestras casas.

Estos sistemas son tolerantes a fallos porque son muy redundantes en muchos de los robots. Es muy interesante hacerlos infraestructura, porque es muy complicado pararlos, hackearlos, hacerlos caer.

Pero hay un problema: este mundo de los robots distribuidos está muy polarizado, como todo en esta sociedad. Hay gente que se dedica a hacer investigación básica sobre este tipo de sistemas, para copiar a las hormigas o las abejas y llevar a los robots lo que se obtiene del proceso. Y hay otra gente al otro lado del espectro que plantea usar esos sistemas para llevar personas en las ciudades o paquetes o pruebas de Covid. Pero estos dos grupos no se hablan entre sí y hay muchas cosas en medio para poder llevar estos sistemas al mundo real.

Por ejemplo, uno de los temas complejos es que cuando tienes un sistema de robots así, al crecer de manera descentralizada la complejidad de entender lo que está pasando en ese sistema es cada vez mayor. Y no hay por qué fijarse sólo en robots, un móvil es un robot. En el fondo un robot es un ordenador que tiene la capacidad física de interactuar con el mundo. Puede ser un coche o un móvil.

A medida que vamos pasando a un futuro más robotizado, mi móvil compartirá cada vez más información con el coche autónomo, o con mi casa, o con Alexa, o con este robot que me va a llevar un paquete. Cada vez esta red va siendo más compleja. Pero a la gente que tiene que asegurarse de que esa complejidad va por el buen camino le cuesta cada vez más entender lo que está pasando en la red.

A día de hoy, no tenemos una interface o una manera de interactuar con un grupo de robots. Y esto realmente va a venir antes que tarde. Una de las cosas clave para ello y reducir esa complejidad de tener tantos robots hablando y compartiendo información es generar confianza. Es una cosa clave.

Confianza digital

Hace 10-15 años no teníamos tecnología para generar confianza digital, de hecho, el proyecto clave del mundo digital, que es internet, nunca fue diseñado para generar confianza. Fue un proyecto militar para transferir información de forma eficiente entre dos puntos y que pasar lo que pasara en medio de la red pudieras reconducir esa información.

Mucha gente lo vio al principio como una manera de liberarse de todos los problemas que había en el mundo físico y que tú pudieras ser quien quisieras ser, pero nunca fue diseñado para generar confianza. Y ahora muchas de nuestras actividades se basan en internet, y necesitamos alguna manera de generarla para reducir complejidad, atajar la desinformación y muchos otros problemas que están surgiendo.

Mucha gente, cuando usa el término blockchain, que es una especie de Hocus pocus, de palabra mágica, se refiere a todo y a nada al mismo tiempo. El blockchain es una tecnología dividida en pequeñas tecnologías, que son ideas muy brillantes, que todo el mundo más o menos conoce por ser la tecnología que está por debajo de criptomonedas, pero que llevado a otros campos del conocimiento en los que hay problemas acuciantes, podemos generar una combinación que aparentemente no tiene sentido, pero conjuntamente da lugar a algo muy interesante.

El blockchain es una tecnología que pasa de un modelo de confianza centralizado: tengo un billete de 10 euros y te quiero pagar por un servicio de 10 euros y hay un estamento central que certifica que ese billete es correcto, que el valor va a pasar a ti y no vas a ser timado. Este modelo en el fondo ha estado bien, pero empieza a tener problemas, porque en un mundo de creciente información, en el momento en el que ponemos mucha información, mucha confianza y mucho poder en un sitio centralizado, lo hacemos vulnerable y, al mismo tiempo, capaz de poder corromperse.

El blockchain resuelve una pequeña gran cosa que es pasar de un modelo centralizado de confianza a otro descentralizado, que significa que si yo te doy un bitcoin a ti, y 10 personas sin conexión entre ellas certifican que lo he hecho, es probable que eso haya sucedido. Esto, no llevado al mundo de las criptomonedas o de la economía en sí, puede llevarse a otros campos.

De alguna forma el blockchain es como una especie de Excel gigante en el que vas metiendo transacciones y van siendo validadas. En el momento en el que incluyes una transacción, es muy complicado deshacerlo, de modo que podemos estar seguros de que lo que se hace en blockchain se mantiene en blockchain. Es un poco como Las Vegas, en todos los sentidos. Es una especie de libro de historia de un grupo de personas, de una red.

Lo que propongo es qué pasa si sacamos a las personas y ponemos robots. ¿Podemos conseguir algo diferente?

Datos y seguridad

En el Media Lab hay un laboratorio que se dedica a hacer robótica social, para ayudar por ejemplo a niños con problemas de autismo. Programas al robot NAO para que cuente una historia, porque normalmente a este tipo de niños les cuesta mucho tener empatía y relacionarse con otra gente. Pero los robots son herramientas perfectas para ellos. El robot cuenta una historia en la que a los personajes les pasan cosas bonitas o se enfadan y el niño es capaz de relacionar: ah eso es lo que significa sentir alegría.

Lo interesante es que los datos de este niño normalmente en Estados Unidos y también en Europa están repartidos en diferentes sitios. Tenemos datos de los doctores, de los médicos o de las instituciones públicas separados en diferentes bases de datos que normalmente no se comunican entre ellas por un tema regulatorio. Pero esos datos sería genial poder evaluarlos, aunque sea complicado.

Llegamos a la conclusión de que tú podrías mandar una pregunta a esos datos sin ver los datos. ¿Cómo conseguir utilidad de los datos sin romper la seguridad? Y vimos que si los datos nunca dejan el sitio donde están son seguros y tú solo tienes que obtener información de ellos. Puedes mandar una pregunta y recibir información agregada. Dimos con un modelo en el cual diferentes hospitales con diferentes datos de diferentes niños podrían guardar los datos, no compartirlos, pero al mismo tiempo permitir que gente como nosotros les hiciéramos preguntas y obtuviéramos conocimiento de ellos.

Empezamos a ver que había una manera de que una red de robots que estaban haciendo terapias con diferentes personas podían recibir un modelo de inteligencia artificial que se entrenara en toda la red sin, en el fondo, saber quién tenía esos datos y cómo eran. Que yo lo pudiera compartir con otra persona y ver que ese modelo estaba entrenado y yo nunca había accedido a los datos. ¿Qué sucede cuando un modelo va a los datos y no los datos al modelo? ¿Qué sucede cuando Google tiene su modelo y va a ti, en vez de que tu móvil y tus datos vayan a Google?

Nos dimos cuenta de que podíamos hacer todo este tipo de herramientas. Hay un problema de seguridad y de autonomía en todo este mundo distribuido. La autonomía está bien porque en el fondo nos quita trabajos que nosotros no queremos hacer. Pero autonomía por autonomía no es correcto, necesitamos una capa de validación, necesitamos entender que, aunque la autonomía, la inteligencia artificial, los robots, se vuelvan más complejos, tenemos una manera de auditarlos.

En el caso del robot que estaba haciendo las terapias con los niños, era capaz de ser auditable, porque si todas las veces que ese modelo va por la red, o todas las respuestas que recibe del niño las podemos guardar, yo en algún momento, si soy el padre, puedo preguntar al robot qué sabe de mi hijo. “Quiero auditarte”. Imagina que vas a Alexa y le preguntas: ¿Qué sabes de mí? Quiero auditarte. Sí, sé que eres muy inteligente y me pones la música correcta. Esta es una investigación muy interesante publicada en Science.

En el debate complejo sobre los robots y la IA, tenemos un problema y es que realmente no es nosotros contra la máquina, sino nosotros con la máquina. Los robots están aquí para quedarse y necesitamos una manera de crear un interface con ellos para que nos ayuden. Esa autonomía no solamente se justifica por el hecho de la autonomía. Tenemos herramientas como confianza digital, blockchain, para poder unirla a las acciones de los robots físicos. Y podemos combinarlos para que sean explicables. ¿Por qué toma la IA o este sistema de robots una decisión en concreto?

En el fondo, esto tenemos que llevarlo a la sociedad y hacer desarrollos más verdes, más estables, más confiables y transparentes. En el centro de los tres círculos en los que están robótica/AI, confianza digital y sociedad, hay algo muy potente, algo que realmente creo que las empresas pueden explotar. Imaginemos que no son niños autistas, sino empresas que trabajan en un mismo sector, pymes que no compartirían su información pueden federar sus datos para generar modelos y venderlos.

Eduardo Castelló es investigador del MIT Media Lab y Beca Marie Curie, este texto es la transcripción de su intervención en REDIT Summit 2021

Facebook
Twitter
LinkedIn

Deja una respuesta

Tu dirección de correo electrónico no será publicada.
Los campos obligatorios están marcados con *

Otros
artículos