1. Presentación
Immanuel Kant (1724-1804): las “cuatro preguntas kantianas”.
El 28 de marzo de 2017, tuve la oportunidad de entrevistar al Dr. Kohei Ogawa, del equipo de Investigación en robótica que dirige el Dr. Hiroshi Ishiguro. La entrevista se realizó en una de las salas del Laboratorio del Departamento de Sistemas de Innovación, Escuela de Graduados en Ciencias de la Ingeniería (Laboratorio del Department of Systems Innovation. Graduate School of Engineering Science) de la Universidad de Osaka, en Japón, en presencia de dos de los robots generados en el Laboratorio. Eran Geminoid RH1, el doble de Hiroshi Ishiguro-1 y Geminoid F, Erica, una agraciada robot, que aparenta unos 20 años, desarrollada en conjunto con ATR Intelligent Robotics y Communication Laboratories. Ellos nos miraban desde sendos sillones.
Hiroshi Ishiguro y su Geminoid (su doble).
Credit: ATR Hiroshi Ishiguro Laboratories and Osaka University
Como introducción a la transcripción de la entrevista realizada al Dr. Ogawa, voy a exponer algunas ideas que me parecen pertinentes como marco para los contenidos tratados en esa oportunidad.
En la historia del pensamiento se reconocen ciertos problemas recurrentes, que aparecen y reaparecen con terquedad. Ese modo de existir nos pone en alerta respecto de la complejidad de su ser y de su solución. Cabe pensar que tal vez no es posible alcanzarla. El replanteo del problema habla, sin embargo, de una ansiedad antropológica peculiar. El enlace que propongo a continuación entre las preguntas de Immanuel Kant y las del Dr. Hiroshi Ishiguro proviene del reconocimiento de la recurrencia del problema.
Se cuentan, en 2018, 214 años desde el fallecimiento de Immanuel Kant (1724-1804). Una coincidencia no fortuita enlaza las conocidas preguntas kantianas con las que hoy enuncia el Dr. Hiroshi Ishiguro, Ingeniero Director del Laboratorio referido. Aceptemos que la coincidencia en el reiterado preguntar ‘qué es el hombre’, nunca será fortuita, puesto que esa pregunta subsiste. El paso de los siglos y la diversidad histórica de culturas y de civilizaciones contribuye a esa persistencia. ¿Por qué? Una respuesta posible puede ser ésta: sucede que criterios aceptados en un punto de la correlación ‘espacio-tiempo’ cultural entran en colisión con otros, en otro punto de esa correlación. Las divergencias son continuas.
A modo de ejemplo, en el conjunto de los productos culturales es frecuente la aparición de aquella pregunta, ¿qué es el hombre?, en obras de ficción y de ciencia ficción. Este último ‘género’ literario es particularmente afín a los desarrollos de la robótica. Me parece oportuna la siguiente mención en este trabajo: el escritor Philip K. Dick (Do androids dream of electric sheep? Novela de 1968) es estimado como uno de los pioneros que puso énfasis en la interrogación por el hombre en tanto criatura situada en el Universo. Se discuten allí los deslindes y relaciones entre humanos y robots a raíz de su contrastación con seres imitación de humanos, denominados androides. Es importante reconocer esa fecha, 1968, desde los desarrollos actuales.
Las siguientes preguntas son centrales entre las formuladas por el Dr. Ishiguro; se
suman, por cierto, a otras incorporadas a lo largo de la Historia del pensamiento:
¿Qué es un humano? ¿Qué es la mente? ¿Qué es la conciencia?
[“What is a human? What is the mind? What is consciusness?”]
Recordemos, ahora, las del filósofo alemán I. Kant, expuestas en su Crítica de la Razón Pura2 (1781/1787) y tratadas a lo largo de su obra filosófica3:
- ¿Qué puedo saber?
- ¿Qué debo hacer?
- ¿Qué puedo esperar?
- ¿Qué es el hombre?4
Kant respondió a la primera pregunta desde la admisión de los límites del conocimiento humano. No nos es posible conocer ‘la cosa en sí’ (das Ding an sich), la cosa en sí misma. Lo que puede lograr el humano, en el orden del conocimiento, es una imagen de la manifestación por la cual se le hacen presentes las cosas. Pero sucede que esas representaciones acerca de las cosas (precisamente en plural) varían de sujeto en sujeto. Como humanos accedemos solamente al ‘fenómeno’, lo que se nos aparece… no a la cosa en sí misma.
Para la segunda pregunta (¿Qué debo hacer?), propone Kant un desideratum (que describe, en verdad, una utopía). Lo manifiesta en su obra: La paz perpetua5 (Zum ewigen Frieden). ¿Cómo imaginar una paz perpetua? Para lograr esa ‘paz’ se necesita de la cooperación consciente, de la voluntad de los individuos, puesto que la paz no es una situación ‘natural’ para el ser humano.
De allí la máxima kantiana de pensar en el retorno de nuestras acciones. La importancia de actuar como si se quisiera que nuestra conducta se transformara en una ley universal y sus efectos se generalizaran. Aun cuando el ser humano es libre para dar cuenta de sus acciones a su propia razón (éste es su ‘juez’ interior disponible) el trasfondo de la preservación de la sociedad debería guiar las acciones humanas.
Respecto de lo que el ser humano puede esperar (tercera incógnita), la pregunta misma, tanto como su respuesta eventual, contienen la conjetura de que nuestras almas son inmortales y que existe un Dios cuyas leyes se adecuan a la Justicia. El modo como está construida la pregunta (“Qué me cabe esperar”) indica que hay algo que esperar. Y enuncia, de modo implícito, un después de. Se podría reformular la pregunta de esta manera: ‘¿Qué puedo esperar después de la muerte’? No solo por el hecho de preguntarlo, también en ese ‘qué’ de la pregunta, se presume que se puede esperar algo, y que el alma humana estará en condiciones de obtenerlo después de la muerte del individuo. La espera se refiere a un tiempo allende la vida.
Las preguntas kantianas anudan un anverso y un reverso. Por una parte, expresan las limitaciones de lo humano, contenidas en el mero preguntar: ‘qué’ (un enigma) y, por otra, exhiben lo ilimitado de la expectativa en la indagación, inconclusa.
Kant dejó a un lado responder definidamente a la cuarta pregunta (¿Qué es el hombre?), aun cuando se ocupó de ese asunto en diferentes escritos.
Es notorio: esas cuatro preguntas exponen cuatro espacios de insatisfacción…
A ellos se ha abocado la reflexión humana. Ciertamente, la cuarta pregunta kantiana se ensambla con uno de los objetivos, tal vez el más importante, de la investigación en robótica del Dr. Ishiguro y su equipo.
Buscando ese ensamble, atendamos, ahora, a una afirmación de Immanuel Kant. Atañe justamente a la indagación por el ser del hombre. Es atractiva por la afinidad que presenta con la problemática de las relaciones entre humanos (seres organizados) y robots (máquinas):
“Un ser organizado no es una mera máquina, porque ésta solo tiene fuerza motriz. Mientras que un ser organizado tiene en sí mismo una fuerza formadora, y en verdad es lo que comunica a la materia, que no lo tiene: así, posee un poder formativo que se propaga, y no puede ser explicado solamente por medio de la capacidad de movimiento, es decir, por un mecanismo.” 6
Admitamos esto: ese diferenciar al humano de la máquina no llega a constituir de por sí una caracterización ‘axiomática’ del ser del ser humano. Es apenas diferencial; un deslinde de universos del discurso. En la obra de Kant no hay una respuesta taxativa a la pregunta ¿Qué es el hombre? Porque este filósofo, pese a haber abordado repetidamente el tema, no lo creyó posible. Lo consideró algo insoluble (‘unauflöslich’). En parte importante, señaló, debido a los cambios históricos que modifican los rasgos de los seres humanos, de acuerdo con lugares y épocas. Con todo, asumió que sí existe algo así como ‘la naturaleza humana’, objeto de indagación. Para delimitarla, para definir su núcleo, destacó, debería poder compararse la naturaleza humana con la de otras criaturas racionales.
2. La pregunta antropológica de un robotista.
Aun mediando tan importante diferencia de culturas en la fuente de donde manan (la alemana, la japonesa), los interrogantes de Hiroshi Ishiguro, antes referidos, se leen, a la vez, reminiscentes y como si fueran re-nacidos desde aquella pregunta kantiana decisiva, fundante de las otras tres.
¿Qué es el hombre? Ha sido la cuestión principal subyacente a las intenciones de una Antropología Filosófica en Occidente. Es significativa la reiteración de esa incógnita en el pensamiento y los objetivos de un Ingeniero en Informática de Japón.
¿Qué es un humano?
Como humanos nacemos y vivimos, normalmente, en una cultura, en el interior de la cual desarrollamos nuestra capacidad de razonar y nuestra capacidad de elegir y actuar (se trata, por cierto, de disponer de la libertad para ello). Aun cuando podemos advertir influencias ambientales y culturales que nos impregnan, y hasta nos marcan, las influencias no nos determinan.
El influjo del ‘shintoísmo’ en la cultura japonesa, sin embargo, conduce a proyectar lazos de comunión entre ‘las cosas’ existentes (animismo). Su trasfondo es la reverencia hacia los espíritus de la naturaleza. El Dr. Ishiguro lo enuncia así: “Creemos que todo tiene un alma. Creo, por ejemplo, que computadores, sillas y escritorios, rocas y árboles tienen un tipo de alma” (We believe that everything has a soul. I believe for example that computers, chairs and desks, rocks and trees have a kind of soul.»)7
Desde esa afirmación, basada en la filosofía shintoísta, surge el propósito de investigar e incrementar la comunicación entre humanos y robots. Una fraternidad que abarca a todo lo existente.
Por eso, preguntarse por la naturaleza de lo humano es una manera de expresar la incógnita sustantiva que puede dirigir nuestras conductas: ¿qué somos? Pero, ¿acaso esta incógnita se asimila a otras, tales como ‘qué es el átomo’? ¿‘qué es la electricidad?’ ¿Es semejante, aun, a indagaciones decisivas como ‘qué es la vida’ (como podría hacerla la Biología desde su propia perspectiva)?
Todas ellas y otras similares son, en verdad, fragmentarias, en ese sentido, en la medida en que apuntan a regiones de conocimiento.
La principal pregunta antropológica es, a su modo, constituyente de las demás (qué puedo saber, qué debo hacer, qué puedo esperar). El sujeto de estos verbos (puedo, debo…) es el ‘yo’ humano (ich escribe Kant en las tres primeras, antes señaladas aquí).
1.Was kann ich wissen?
2. Was soll ich tun?
3. Was darf ich hoffen?
Se trata del yo humano por el cual inquiere aquella pregunta (¿‘qué es el hombre’?) en una especie de círculo insoslayable.
Por eso, aun siendo antropológica, es a la vez una interpelación que roza los horizontes de la metafísica, trajina en sus fronteras… Además, contiene en su seno otras afines como: ¿qué sentido tiene nuestra presencia sobre la Tierra? ¿existe un debe y un haber que caracterice nuestras acciones?
3. Humanos y máquinas
En la Crítica del Juicio (1790) Kant escribió (ver más atrás): “Un ser organizado no es una mera máquina, porque ésta tiene solamente una fuerza motriz…”
Es una frase que llega a nosotros desde el siglo XVIII y bien podría tomarse como visionaria, premonitoria…
En el laboratorio del Dr. Hiroshi Ishiguro, en la Universidad de Osaka, este robotista con su equipo de investigadores (entre los que se cuentan especialistas en filosofía y psicología…) viene desarrollando diversos tipos de robots desde los años 20008. Geminoid HI es el nombre de su propio doble (actualmente HI-4, indica el grado de sutileza de su performance, en continuo perfeccionamiento).
Los androides de Hiroshi Ishiguro y su equipo ¿son, acaso, ‘máquinas’ en camino a transformarse en ‘seres organizados’? Hay un fondo de autonomía que parece ser inherente a los seres organizados. Pero, ¿no se está en proceso de buscar una autonomía de acción en las máquinas a partir de los desarrollos de la AI (Inteligencia Artificial)?
4. ¿Qué representa el ‘parecido’ humano (humanlike) en esta investigación?
Resulta claro que los androides (los de Osaka y otros Laboratorios de investigación) son solamente máquinas con mayor o menor capacidad de acción, por el momento. Aquellos que podrían ser considerados ‘autónomos’, estarían dependiendo para sus comportamientos de una programación por parte de la ingeniería informática9.
Esos robots del Laboratorio de Hiroshi Ishiguro, de notable parecido con los humanos, y cuya performance se va acercando al modo del comportamiento humano, provocan interrogantes específicos que apuntan hacia los límites. De acuerdo con lo que se conoce hoy, los límites no serían del orden de lo tecnológico. Uno de esos interrogantes se expresa así: ¿hasta dónde puede (y debe) llegar la ingeniería informática en cuanto a la mímesis de lo humano?
Es notorio que preguntas de esta índole, por de pronto, se hacen desde una omisión, consciente aunque imprescindible para el desarrollo investigativo. Se trata de una omisión, porque ‘lo humano’ como concepto está en el centro mismo de lo que se pregunta.
¿Qué se entiende por ‘humano’ en esa pregunta específica? Lo ‘humano’ (como palabra y concepto) es eso mismo que a la vez se indaga desde el humano preguntar.
El perfeccionamiento de androides es un asunto de ingeniería informática, de tiempo, de pruebas tipo ‘ensayo y eliminación de error’, destacó el Dr. Kohei Ogawa10 en la entrevista realizada en 2017 (ver aquí más adelante). Además, el grado de perfeccionamiento que se logre, depende del tipo de androide que se quiere alcanzar como tal. ¿Cuán semejante al ‘humano’ puede y debiera llegar a ser a fin de cumplir con las metas que se proponen sus creadores? Se requiere que permanezca una diferencia perceptible para que la contrastación ‘humano-robot’ tenga efecto en las percepciones y en las ideas.
El trabajo de perfeccionamiento de la apariencia de robots, como los del tipo Geminoid HI (Geminoid es un término vinculado con ‘gemelo’, con la idea del ‘doble’), no tendría un valor en sí mismo para este equipo de investigadores, es decir, no sería un objetivo final para ellos. Tampoco una dificultad insoluble para el desarrollo de la ingeniería informática, marcó Kohei Ogawa.
Antes bien, esa mejora, ya conduce a un confusión a muchos observadores desprevenidos cuando un humano (Hiroshi Ishiguro) está junto a su doble Geminoid HI-4 (¿cuál es el humano y cuál es el robot?). El perfeccionamiento de androides sería más bien una herramienta apropiada para algo de mayor trascendencia: la relación comunicativa entre humanos y robots destinada a responder… ¿a responder qué?
Enfrentamos aquí una nueva mediación: se trataría de poder responder a esas preguntas vitales a las que se dirige la intencionalidad de Dr. Ishiguro:
¿Qué es un humano? ¿Qué es la mente? ¿Qué es la conciencia?11
5.Teleoperación
En junio de 1980 el teórico y científico Marvin Lee Minsky12 (1927-2016) publicó (Omni Magazine), un artículo que se difundió profusamente: Telepresence. Allí adelanta lo que el Dr. Ishiguro pone en práctica décadas después: la idea anticipada por Minsky fue que en el futuro se podría trabajar o realizar acciones por ‘telepresencia’13.
Lo que se denomina hoy teleoperación da lugar a una nueva línea de trabajo. Es la operación a distancia de androides. Una cámara registra los movimientos del teleoperador14, y un micrófono registra su voz. Se trata de una sincronización entre los comportamientos del operador humano emisor (registrados a partir de cámaras y sensores) y el androide receptor. Todo ello es ‘devuelto’ como comportamientos por el ‘doble’, el ‘geminoid’, en tiempo real. Es claro que la distancia entre ambos es un dato no relevante. Ambos seres en comunicación pueden estar tanto a un metro como a miles de kilómetros de distancia.
La ‘telepresencia’ se encuentra muy difundida en las producciones de la robótica actual. Y es un hito significativo en el Laboratorio de Robótica de la Universidad de Osaka. ¿Está realizando Hiroshi Ishiguro un giro copernicano15 al enfatizar la teleoperación frente a los robots programados (aquellos que se mueven, precisamente, en el terreno delimitado por la programación)?
Al parecer, no se han producido variantes respecto de una afirmación anterior, la respuesta de Hiroshi Ishiguro a una consulta sobre posibilidades de creatividad de los robots que data de varios años atrás (alrededor de 2005…), época de la realización del robot femenino “Repliée”, y sus avatares. La respuesta fue: -“todo lo que hacen los robots es lo que hemos programado para que lo hagan…”16
La teleoperación abre posibilidades diferentes, dado que el ordenador recoge, por ejemplo, los movimientos faciales del operador, su voz y palabras y los transmite al androide (preparado para recibirlos). Los androides teleoperados son más flexibles, menos dependientes de la cantidad de sensores de movimientos que hayan sido logrados en el cálculo de ingeniería informática. Geminoid HI-2 se construyó con 50 grados ‘de libertad’, lo que requiere una ingeniería y una mecánica pesadas y complejas, para sus comportamientos más sutiles.17
Una suerte de giro copernicano se habría producido, asimismo, en cuanto a la búsqueda de respuestas a preguntas cruciales como: ¿hasta dónde esa comunicación Robot-Humano (Symbiotic Human-Robot) puede ser útil para comprender qué es lo humano? Pregunta crucial porque está a la base de las investigaciones en proceso en el Laboratorio de Osaka que dirige el Dr. Ishiguro.
La comunicación (interacción humano-robot), mediada por la teleoperación, aporta mejores opciones en las relaciones de empatía y sensibilidad conjunta en contraste con los robots autónomos (aquellos que actúan de acuerdo con lo que llevan programado en su interior).
En este orden de desarrollos teleoperados se encuentra “Telenoid R4” (desarrollado en 2013)18. Telenoid es un robot que no tiene cableado, sí una conexión con un computador que es manipulado por un teleoperador (de allí su nombre, Tele-noid, tele, ‘lejos’).
Su diseño “minimalista”, como se lo ha caracterizado, le da un aspecto neutral (ni masculino ni femenino, ni joven ni mayor). Se aleja de la apariencia de rasgos humanos que caracteriza a los Geminoid, no tiene brazos ni piernas definidos como tales, sino unos esbozos de ello.
Conserva algo de lo humano, en sus ojos, y ciertos movimientos de cabeza que siguen a los de su interlocutor, el humano que interactúa con ellos… Telenoid, es apenas reminiscente de lo humano.
Hiroshi Ishiguro, Geminoid HI y Telenoid
Credit: ATR Hiroshi Ishiguro Laboratories and Osaka University
La cualidad designada como ‘humanlike’ (como-humano), en el ambiente investigativo del Laboratorio de Osaka, se presenta en los robot programados tanto como en aquellos Geminoid teleoperados.
¿Cuál puede ser la motivación especial que lleva a acercarse a la apariencia de los humanos en la construcción de robots? En el trasfondo se encuentra la pregunta por el hombre, por el ser de lo humano. No es la única opción adoptada por la ingeniería informática, si recordamos por ejemplo a Asimo19, de la empresa Honda. Su aspecto, en treinta años desde sus primeras apariciones, ha ido evolucionando en otra dirección respecto de aquella ‘como-humana’ de los ‘Geminoid’.
Una línea de acceso a lo ‘motivacional’ podría ser la que se relaciona con la noción de empatía. El fenómeno denominado ‘empatía’ se define como la capacidad de comprender el estado emocional de otra persona a partir del reconocimiento de nuestras propias emociones. Buscar una situación de empatía con un androide puede ser visto como utópico. ¿Comprenderán los androides los estados emocionales de los humanos? Es algo que se está ‘programando’ en grupos investigativos de avanzada.
En este ámbito, la empatía puede ser entendida, también, como otro de los caminos para entender ese ¿’Quién soy’? Esa ruta de acceso sería la capacidad de relación empática con un androide.
En situaciones de teleoperación en que un individuo interactúa con su doble, estaría siendo objeto de empatía el sí mismo proyectado. Podemos pensar que en esas circunstancias se despliega una singular relación simbiótica como síntesis del desdoblamiento (el humano y su doble).
En este proceso de desarrollo de androides, lo sorprendente es que el Dr. Ishiguro
introduce un punto ciego en sus reflexiones y propósitos: un robot no debe llegar a ser idéntico a un humano para que el humano tenga la voluntad y sea capaz de comunicación con esa criatura (H-R)20 El Dr. Ogawa aborda este punto en la entrevista ofrecida en Osaka: se debería conservar una diferencia perceptible para que el análisis tenga sentido. Por ejemplo, ¿cómo me siento ante un robot?.
El contacto reiterado de un humano con su androide mediante la teleoperación estimula cualidades singulares, imprevistas, en la experiencia del individuo. Un caso es aquella situación en que el teleoperador de un robot percibe en su propio cuerpo lo que sucede con esa criatura (robot). Ello está siendo investigado en las señales que se detectan en el cerebro humano cuando eso sucede. Si alguien toca al robot en su mejilla, el teleoperador lo percibe en la propia, una vez que se ha producido la empatía con el robot. El teleoperador, después de un tiempo, estaría sintiendo ‘en carne propia’ lo que se haga con su androide Geminoid.
El estudio de la cualidad ‘empática’ de un humano frente a otro humano ha tenido su desarrollo y literatura propios en Psicología y Antropología. Pero, ¿cuál es la práctica ‘empática’ posible que un humano puede ensayar frente a un robot cuyas características llevan a la percepción a oscilar en el centro de esta incógnita: -¿es humano, es robot??
Recordemos, buscando un paralelo, cómo vacila nuestra comprensión de lo percibido ante esas ‘esculturas’ vivientes, que encontramos en las calles de muchas ciudades. La duda se presenta (o no) en el primer momento, antes del desconcierto, porque un leve movimiento de la ‘escultura’ basta para aclarar las cosas. Allí lo que se evaluaba como petrificado pasa a ser una presencia viviente que conduce a reinterpretar nuestra percepción, ahora modificada.
El idioma japonés contiene una noción que se instala en estos contenidos. Es lo que ellos denominan ‘sonzaikan’: nombra la sensación de estar ante un humano.
6. ¿El doble, el otro, el ‘tú’?
El laberinto histórico que construyó esta incógnita “¿Qué es el hombre?”, condujo la reflexión hacia la experiencia del ‘doble’ de sí mismo, un androide. Está representado allí, en esa criatura robótica, de una manera que no puede proporcionar un espejo.
Invoco aquí el pensamiento del filósofo Martin Buber, austríaco de origen, (1878-1965). Estimo que sus consideraciones, publicadas en su obra más célebre, “Yo y tú”21 (1923), constituyen otro de los pilares del puente histórico como cuestión antropológica que llega al hoy de la robótica.
Yo y tú, el humano y su androide en la teleoperación, forman un nudo que Buber no estuvo en condiciones ‘materiales’ de poder sugerir en 1923.
Pero me parece lícito extrapolar ideas. Tal vez baste con recordar la siguiente proposición, conmovedora en su brevedad incisiva:
En el hielo de la soledad es cuando el hombre, implacablemente, se siente como problema, se hace cuestión de sí mismo, escribía Buber.
Solo preguntando por el sí mismo, noción tejida de cambios y permanencias, es posible avanzar en la indagación acerca de ‘lo humano’. Representa un punto de partida: porque es una subjetividad activa la que puede poner al humano en la senda de su reconocimiento como tal. Para la subjetividad activa, el camino hacia el reconocimiento de sí mismo proviene de un haz de relaciones con lo que está en torno.
Pero ello supone un tipo de vivencia que difiere del ‘tomarse como objeto de conocimiento’; se distingue, asimismo, de una reflexión desde lo racional cognitivo que pregunta por el ‘qué’ del hombre.
Ni individualismo ni colectivismo resuelven nada, Buber dixit. El primero lleva al aislamiento, el segundo al vaciamiento de la personalidad. Más bien la relación “yo y tú” es la que caracteriza lo más propio del ser humano.
La vida de los seres humanos no se reduce solo al círculo de los verbos transitivos. Eso existe solamente en virtud de actividades que tienen por objeto alguna cosa. Percibo algo, tengo la experiencia de algo. Imagino algo, quiero algo, siento algo. La vida del ser humano no consiste solamente en todas estas cosas y en otras semejantes a ellas. Todas estas cosas y otras similares a ellas dan fundamento al reino del Ello (Eso). Pero el reino del Tú tiene una base diferente.
Martín Buber
¿Puede un robot cuasi-humano ser un ejemplo más de ese tú de que hablaba Buber? ¿Es posible que la comunicación humano-robot (R-H) llegue a la percepción genuina de que allí, frente a nosotros, hay de algún modo lo que llamamos un ‘semejante’?
7. Entrevista al Dr. Kohei Ogawa*
Margarita Schultz
Dr. Ogawa, ante todo quiero agradecer a Usted su amabilidad al recibirme y su buena disposición para destinar parte de su valioso tiempo en esta entrevista. Me gustaría hacerle algunas preguntas relacionadas con su investigación sobre androides en este Laboratorio, que dirige el Dr. Iroshi Ishiguro. Comienzo con la siguiente: ¿Cuál sería en este momento el objetivo principal del desarrollo tecnológico de esas criaturas?
Dr. Kohei Ogawa*:
Si me permite, quisiera remontarme a algunos años atrás, y explicar cómo nuestro grupo comenzó a crear estos robots. … Querer conocer al ser humano y cómo los humanos son diferentes de los robots, ese es el punto de partida.
Debo decir que nuestros androides no son autónomos. Esa es una cuestión muy difícil. Por eso, decidimos utilizar los robots como medios de tele-comunicación. Es decir, que haya alguien detrás de los robots. Entonces, alguien está frente al computador y sus acciones y expresiones son captadas por medio de cámaras y sensores por los androides, esos comportamientos son transferidos desde el humano a los androides.
Hay diferencias a destacar. Por ejemplo, los emails solo transmiten información. Pero en los robots podemos prestar atención a la presencia, podemos confiar en la presencia, lo que llamamos en japonés…
* – Special Appointed Associate Professor, Graduate School of Engineering and Science, Osaka University.
– Member of the Intelligent Robotics Laboratory, part of the Department of Systems Innovation in the Graduate School of Engineering Science at Osaka University, Japan. (Director: Dr. Hiroshi Ishiguro)
-Sus trabajos y publicaciones se extienden en los campos de Ciencia Cognitiva, Inteligencia robótica, Interacción entre Humanos y Robots, entre otros.
http://researchmap.jp/koheiogawa
M.S:
… ‘sonzai-kan’
Dr. K. O.:
Precisamente; ‘sonzai-kan’ alude a la presencia…¡usted sabe! (risas) hay un punto de elaboración diferente, más complejo. Podemos transferir nuestra presencia a los robots.
La otra cuestión es la de la comunicación. En el nexo humano-humano podemos sentir la comunicación física, por ejemplo si alguien me toca. Algo así sucede ahora con los robots.
Cuando un humano está en relación frecuente con un robot, siente como en el cuerpo humano propio lo que se produce en el ‘cuerpo’ del androide ¿y entonces? ¡Wow! Se genera un ‘feed-back’ físico.
M.S:
¿Como una transferencia en la dirección robot-humano? ¿Cómo se produce eso?
Dr. K.O.
Bien. Estamos tratando de saber cómo se produce esto, el mecanismo de esa transferencia.
Hay otro fenómeno relacionado que es el de la ilusión ‘robot-mano’ … Cuando se ponen las manos del robot sobre una mesa, y usted no puede ver sus propias manos reales, porque están bajo la mesa, y sólo puede ver las manos del robot. Después de unos cinco minutos, comienzan ciertas ‘ilusiones’ muy interesantes: si alguien acaso toca las manos, o coloca unas agujas sobre las manos del robot, usted siente eso mismo en sus propias manos.
M.S:
Una identificación difícil de imaginar, pero ¡se da! Es lo que ustedes están explorando.
Dr. K. O.:
Nuestro objetivo es poder relacionar la visión con las ‘percepciones’… este es uno de nuestros puntos de partida científicos…
M.S:
Hay un asunto sumamente interesante. El Dr Ishiguro plantea abordar el tema de la ‘voluntad’ y el ‘deseo’ en el área de los robots… ¿Cómo podríamos decir que esas ‘criaturas’ pueden tener ‘voluntad o deseo’?22
Dr. K. O.:
Ahá, sí… Si tuviéramos una entidad autónoma podríamos ver de qué manera implementar esas cosas como “voluntad y deseo”… o “intención y deseo”.
Si quisiéramos crear robots realmente autónomos, inteligentes, deberíamos tomar el modelo de los humanos, pero los humanos son entidades sumamente complejas, como se sabe. Deberíamos poder encontrar las cosas más esenciales del modelo humano como deseo y voluntad. Pero habría que organizar el sistema.
M.S:
¿Esto quiere decir que ustedes deberían ‘programar’ esas funciones en los robots?
Dr. K. O.:
Ahá… No estamos todavía en el momento de que los robots tengan voluntad y deseo autónomos. Para eso se necesitaría disponer de un sistema mucho más desarrollado, un gran sistema, para modelizarlo. Es nuestro trabajo científico de ingeniería informática. Pero, por otro lado, al mismo tiempo, deberíamos saber bien qué es voluntad, qué es deseo…
M.S:
La cuestión sería el paso, el cruce de fronteras entre un robot, por muy elaborado y complejo que sea su sistema, y ese otro mundo, el de la conciencia, la voluntad, el deseo. Los humanos contamos con eso. ¿Tiene usted voluntad y deseos?
Dr. K. O.:
Esa es la cuestión… Sí, pero si me pregunto por el deseo y la voluntad, debo decir que nunca cumplí mi deseo, nunca realicé mi voluntad. Es por eso que es necesario preguntarse qué es el deseo, qué es la voluntad.
M.S:
Podemos ver solamente los efectos de lo invisible…
Dr. K. O.:
Si pudiéramos saber qué son el deseo y la voluntad (will and desire) para lo humano, podríamos implementarlos en una criatura tecnológica, por ejemplo con una memoria de una cantidad suficiente de MB (megabytes). Pero es muy difícil como se puede imaginar.
Esas son preguntas filosóficas. Tenemos un Doctor en Filosofía en nuestro equipo así como un especialista en Psicología. Y discutimos siempre sobre estos temas.
Todo proviene de la consideración de lo que son los humanos, seres sensibles, inteligentes, etc. Uno trata a los humanos como humanos. Yo la trato a usted como ‘humano’… como un ser inteligente. Suponemos que estamos con humanos, pero no podemos ver las mentes. Yo no puedo ver la voluntad, no puedo ver el deseo.
M.S:
Eso que suponemos, que estamos con humanos, es un preconcepto (risas)
Dr. K. O.:
Si los androides se comportan como usted, puedo pensar que tienen algo así como la ‘mente’. Pero los androides ¿tienen una mente? Ese es el punto. Nadie sabe lo que es la mente. Estamos cerca de las cuestiones de la Etica.
¿Podemos tratar a los robots como humanos? Si los programamos para el uso del lenguaje, ¿podemos tratarlos como humanos? Ese es el centro del debate…
M.S:
¿Qué debería suceder para llegar a eso, para tratar a los robots como humanos? ¿Cuál debería ser su comportamiento, sus actitudes? ¿No se estaría por el momento, acaso, en un proceso de búsqueda en el cual lo humano y sus rasgos (lo humano, la conciencia, el deseo, la voluntad…) son en sí algo por definir?
Dr. K. O.:
Sí… Supongamos esto: ¿qué pasaría si usted abriera mi pecho y se encontrara con cables…como los de ellos? (señala los robots que están en la sala). Pensaría que soy el doble de Ogawa. (risas).
Pero antes de hacer eso usted piensa que soy humano. Me trata como a un humano.
M.S:
El asunto es, una vez más a mi entender, el de los límites. ¿En qué momento podría comenzar a dudar de usted? ¿Cuándo comenzaría a sospechar que usted no es Ogawa, sino su doble?
Pero, si le parece, quisiera tocar ahora un tema relacionado con lo anterior y que no es meramente ‘anecdótico’: el Dr. Ishiguro ha afirmado que los robots no pueden mentir…
DR. K. O.:
Yo no sé… ellos podrían mentir… bien fácil sería implementar en ellos la capacidad de mentir, introducir en los robots esa función. Pero si se tratara de sistemas autónomos, ya sería más complejo. Pensar que tengan la capacidad autónoma de mentir…
El asunto más complejo es el de la ‘consistencia’ de las conversaciones. Imaginemos que estoy hablando con el robot y le pido que me hable sobre el tiempo en Kyoto, por ejemplo, un sistema consistente. Si en el medio de esa conversación le pido al robot que me responda: -‘¿qué es un android?’, él podrá decirme -‘¿qué? ¡estoy hablando sobre el tiempo!’
M.S.:
Ese desvío que lo desconcierta al robot es del orden de la ‘flexibilidad’ para saltar de un tema a otro, algo que los humanos podemos manejar con soltura… algunos al menos…
DR. K. O.:
Así es. El robot necesita de la consistencia… funciona sobre la base de la consistencia. Pero el mentir no es ejemplo de la consistencia.
- Por eso es difícil introducir el tema de la ‘mentira’.
M.S:
Un robot no puede tomar un camino ‘lateral’, ¿es la idea?
DR. K. O.:
Sí…
Sin embargo, si uno de nosotros miente a alguien, puede pensarse que hay una consistencia interior en ese acto, si acaso hay alguna razón para mentir.
Pienso que si pudiéramos crear en ellos deseo o intenciones, podríamos llegar a implementar la mentira…
M.S.:
Entonces si se pudiera crear en los robots la voluntad o el deseo, también se podría llegar a que tengan comportamientos como la mentira, ¿porque se trata de realidades del mismo tipo, más o menos complejas…?
Dr. K. O.:
Pienso que sí. El último año desarrollamos un nuevo tipo de robot: tiene un rostro como humano, y tiene una estructura del tipo de la humana.
Lo hemos producido para saber qué piensan los humanos acerca de él. Pero es un ‘meca’ (mecanismo’). La gente puede aceptarlos. Dirán no es un humano, pero es una criatura.
Quisiera añadir algo más, todavía.
Estamos en interacción con psicólogos. Como sabe ellos estudian a los humanos. Y saben bastante sobre los humanos. Pero queremos que se ocupen de los robots. La cosa es que aunque son ‘como-humanos’ (humanlike) los robots son imitaciones mecánicas, no son ‘sutiles’. No son humanos, sólo son ‘como-humanos’ (humanlike). Se trataría de una ‘humanidad-androide’, no de una ‘humanidad-humana’.
M.S:
¿ Y si se tratara de transmitir desde la teleoperación?
DR. K.O:
Si se tratara de transmitir desde la teleoperación, y se quisiera comunicar desde un humano comportamientos complejos y sutiles a un robot, los robot se comportarían de modo malo, muy ‘no-natural’.
M.S.:
¿Por qué?
Dr. K. O.
Porque un robot es una imitación mecánica de un humano.
Ahora, el tema central es cómo usar los robots por medio de e-learning. Tenemos un colaborador, es el Dr. Ikegami. Ikegami23 es un notable científico de la Universidad de Tokyo (Tokyo University) y muy famoso investigador sobre vida artificial… (e-life). Nosotros estamos colaborando con él.
El ha creado un sistema muy interesante, para vincularse con robots. Y después de un tiempo de e-learning mediante sensores, el robot comienza a realizar movimientos más sutiles; después de unos días puede producir movimientos como éste (Dr. Ogawa mueve su mano).
M.S.:
Entonces eso podría ser algo cercano a la ‘autoconciencia’ (self conscius)?
Dr. K.O:
¡Ese es el punto! ¡La conciencia! No sabemos cómo podría haber conciencia en el interior del robot. El punto en el caso de vida artificial en robots es, una vez más, que no sabemos qué es la conciencia, cómo podría haber conciencia allí.
No puedo saber qué hay en el interior pero puedo observar las conductas. Si usted mueve una mano, no sé por qué lo hizo, no puedo entrar en su interior, pero puedo ver esa conducta. Podemos observar sus conductas.
Como ve, nuestra tarea de investigación es continua.
No sé si he respondido a sus inquietudes…
M.S.:
Dr. Ogawa, su comunicación ha sido sumamente atractiva, y también
‘emocionante’.
Cada tema que usted ha tratado es una especie de vórtice del cual fluyen nuevos contenidos e incógnitas. Para finalizar, quiero agradecerle una vez más por su actitud abierta, generosa para comunicar sus ideas y su información.
Dr. Kohei Ogawa y dos androides: Geminoid Erica, Geminoid RH1
(Foto de la autora de este trabajo)
- ¿Hacia dónde va la flecha?
La ruta que siguen el Dr. Hiroshi Ishiguro y sus colaboradores más próximos, como el Dr. Kohei Ogawa, tiene como meta principal el propósito de dar respuesta a la pregunta por el hombre; se trata de la cuarta pregunta kantiana, mencionada más atrás. Es imaginable que encuentren una respuesta allí donde la buscan, es decir, en las interacciones entre humanos y las variaciones de androides que ellos generan desde la robótica. Será una de las respuestas posibles, la que viene marcada con ese sesgo particular.
¿Cuán estrechas han de ser esas interacciones para alcanzar sus objetivos? ¿Llegarán los humanos a integrarse, fusionarse, con los androides hasta hacer indistinguibles humanos y máquinas? Conciencia, intención, deseo, voluntad ¿serán compartidos por humanos y robots en armonía? ¿Estaremos ante territorios donde la competencia se ha de agudizar, sin saber ahora cuáles serán los efectos de dicha causalidad?
La empatía entre un humano y su doble, por ejemplo, cuando media una comunicación teleoperada frecuente, ya ha probado su eficacia: el humano como si fuera un gemelo monocigótico del androide, experimenta ciertas sensaciones vividas por el androide. ¿Están en lo cierto teóricos como Slavoj Zizek, quien alerta sobre la destrucción del Humano, de su autonomía y libertad (a partir de la eventual implantación de chips en el cerebro conectados a un módulo central)?
La pregunta ¿Hacia dónde va la flecha? retoma la terquedad de la indagación tradicional sobre la cuestión “¿qué es el hombre?”. Reuniendo todo ello para su consideración: ¿cabe hablar de un ‘Nuevo Humanismo’ a propósito de las relaciones entre ese tipo de robots, cada vez más como-humanos (humanlike) y los humanos?
El concepto tradicional de Humanismo (aun con sus avatares históricos) ¿ha devenido demasiado estrecho en la actualidad, si se asume esa verdadera explosión demográfica de la población de tipos de robots en la mayoría de los Laboratorios especializados del Planeta24? ¿Qué pasaría con la autonomía del humano si comenzara a ser exitosa la ‘integración total’ con las máquinas en la relación uno-a-uno?
La libertad y la autonomía de los individuos es un valor crucial en nuestra Civilización, pese a múltiples situaciones en que han sido y siguen estando sofocadas… ¿Nos encontramos, en verdad, ante un ‘Nuevo Humanismo’ o en el umbral de una disolución de la noción de Humanidad?
NOTAS
1 Ver imágenes en: https://www.flickr.com/photos/geminoid/tags/geminoidhi2/ (22 de mayo de 2017)
2Immanuel Kant: Crítica de la Razón Pura. 1ª edición: 1781.
http://www.biblioteca.org.ar/libros/89799.pdf (8 de mayo de 2017)
3 Entre otras
Immanuel Kant:
Fundamentación de una metafísica de las costumbres. http://www.biblioteca.org.ar/libros/89648.pdf (6 de mayo de 2017)
Crítica de la Razón Práctica http://www.bahiamasotta.com.ar/textos/2c14.pdf (6 de mayo de 2017)
4 1.Was kann ich wissen?
2. Was soll ich tun?
3. Was darf ich hoffen?
4. Was ist der Mensch?
5 Immanuel Kant: La paz perpetua (1795) http://www.biblioteca.org.ar/libros/89929.pdf (6 de mayo de 2017)
6 Immanuel Kant, Crítica del Juicio (1790) Segunda parte. Parágrafo 65. P.224. Losada, 1961, Buenos Aires En este pasaje se encuentra una reflexión sobre seres naturales organizados, en contraste con máquinas. El ejemplo es de un ‘reloj’. La causa productora del reloj -una máquina- no está en ella, sino fuera de ella.
7 Fuente: https://motherboard.vice.com/en_us/article/jp5n73/the-man-building-robots-to-better-understand-humans (14 de junio de 2017)
8 Algunos de ellos han sido: Repliée (femenino, en sus versiones sucesivas), Geminoid R (masculino) y F (femenino). Otra de sus criaturas es ‘Telenoid’ (una especie de niño, neutro en su apariencia en cuanto a género). Androides tienen funciones en Museos -como guías-, teatros -como actrices-, shoppings -como informadores al servicio de los clientes.
9 La inteligencia artificial está escribiendo un capítulo particular sobre estos bordes entre máquinas, humanos. Y si se han hecho avances en situaciones tales como la solución de problemas, o la decisión mejor ante opciones posibles, sigue siendo un desafío la incorporación de actitudes que impliquen lo ‘emocional’, la ‘voluntad’, el ‘deseo’.
10 Entrevista al Dr. Kohei Ogawa el 28 de marzo de 2017 en el Laboratorio de la Universidad de Osaka, realizada por la autora de este trabajo.
11 “What is a human? What is the mind? What is consciusness?”
12 Científico estadounidense, uno de los pioneros en ciencias de la computación. Cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts o MIT.Toshiba Professor of Media Arts and Sciences and Computer Science and Engineering, Emeritus Head, Society of Mind Group. (Fuente: Wikipedia)
13 Using this instrument (un robot), you can «work» in another room, in another city, in another country, or on another planet. Your remote presence possesses the strength of a giant or the delicacy of a surgeon. Heat or pain is translated into informative but tolerable sensation. Your dangerous job becomes safe and pleasant. (…) The crude ‘robotic machines of today (1980) can do little of this. http://web.media.mit.edu/~minsky/papers/Telepresence.html. (23 de junio de 2017) http://www.omnimagonline.com/ (23 de junio de 2017)
14 La teleoperación es la conducción por parte de un operador de los comportamientos verbales y corporales de un robot a distancia. Hiroshi Ishiguro puede dar una conferencia en EEUU desde Osaka por intermedio de su ‘doble’, el Geminoid que lo replica.
15 A propósito de su teoría del conocimiento se destaca que Immanuel Kant realizó un ‘giro copernicano’ al producir un cambio en cuanto al sujeto cognoscente como interpretador del objeto. La filosofía debía hacer ese cambio al modo como lo hizo Copérnico en cuanto al movimiento de los astros, indicando que es el sujeto quien gira (desde nuestro planeta).
16 Intercambio entre el Dr. Ishiguro y la autora de este trabajo en 2005 desde la Facultad de Artes de la Universidad de Chile, vía email, a propósito del tema ‘arte digital’.
17 http://www.geminoid.jp/en/robots.html
18 Ver imágenes en: http://www.plasticpals.com/?p=23783 (25 de junio de 2017)
http://www.geminoid.jp/projects/kibans/Telenoid-overview.html (25 de junio de 2017)
http://www.geminoid.jp/projects/kibans/Telenoidoverview.html (25 de junio de 2017)
19 https://www.honda.mx/asimo/
20El Dr. Ogawa aborda este punto en la entrevista ofrecida en Osaka (28-03-2017).
21 Martin Buber: Yo y tú. Buenos Aires, Nueva Visión. 2002
https://es.scribd.com/document/340232823/Yo-y-Tu-Martin-Buber-pdf (19 de mayo de 2017)
22 “Mi próximo gran proyecto es dar intención y deseo a los robots, porque si un robot está equipado con eso, será capaz de entender las intenciones y deseos de otras personas”, señaló Ishiguro. (Fuente: https://motherboard.vice.com/en_us/) (14 de junio de 2017)
23 https://www.google.com.ar/#q=Dr.+Ikegami+University+of+Tokyo (20 de mayo de 2017)
24 Se presume que para 2019 la población mundial de robots ascenderá a 2,6 millones de individuos. Fuente: www.bbc.com
BIBLIOGRAFÍA
[1], I. Kant. Crítica de la Razón Pura. 1ª edición: 1781.
http://www.biblioteca.org.ar/libros/89799.pdf. (8 de mayo de 2017)
[2] I. Kant. Fundamentación de una metafísica de las costumbres. [http://www.biblioteca.org.ar/libros/89648.pdf (6 de mayo de 2017)
- Kant. Crítica de la Razón Práctica
[http://www.bahiamasotta.com.ar/textos/2c14.pdf] (6 de mayo de 2017)
[3] I. Kant. La paz perpetua (1795) http://www.biblioteca.org.ar/libros/89929.pdf (6 de mayo de 2017)
[4] I. Kant. Crítica del Juicio (1790) Segunda parte. Parágrafo 65. Pág. 224. Losada. 1961. Buenos Aires.
[5] Fuente: https://motherboard.vice.com/en_us/article/jp5n73/the-man-building-robots-to-better-understand-humans (14 de junio de 2017)
[6] Entrevista al Dr. Kohei Ogawa el 28 de marzo de 2017 en el Laboratorio de la Universidad de Osaka, realizada por la autora de este trabajo, 1ª edición en REVISTA DE TECNOLOGÍA E INFORMÁTICA HISTÓRICA, del Museo de Informática. Buenos Aires, 2017.
[7] M. L. Minsky. Telepresence. (http://web.media.mit.edu/~minsky/papers/Telepresence.html (23 de junio de 2017)
[8] Intercambio entre el Dr. Ishiguro y la autora de este trabajo en 2005 desde la Facultad de Artes de la Universidad de Chile, vía email, a propósito del tema ‘arte digital’. (schultz.margarita@gmail.com)
[9] M. Buber. Yo y tú. Nueva Visión. 2002. Buenos Aires.
https://es.scribd.com/document/340232823/Yo-y-Tu-Martin-Buber-pdf (19 de mayo de 2017)
[10] H. Ishiguro: (https://motherboard.vice.com/en_us/) (14 de junio de 2017)
[11], Incremento de la población mundial de robots. http://www.bbc.com/mundo/noticias-39267567