Entender el entendimiento (7 de 12)

7. La inteligencia como smartness

En aquel programa de la BBC que mencioné al principio de estas notas no se hablaba directamente de inteligencia sino de “agudeza.” El duelo entre Deep Blue y Kasparov fue descrito como un modo de averiguar quién era “smarter,” más agudo o astuto.

Esta agudeza implica, en inglés, la idea de agilidad. Existe la expresión “smart talker” por ejemplo, para referirse a esa persona que es ocurrente y esencialmente ágil en su manera de defender su postura o mostrar la debilidad de otros. Uno no es “smart” exponiendo las grandezas de la vida eterna o los síntomas de la melancolía sino allí donde hay contraste de opiniones y en el ámbito de la polémica. Esto indica que no toda inteligencia es “smartness” aunque ciertamente la idea de ser agudo y ágil es muy compatible con la idea generalizada de inteligencia como “resolver problemas.” Se espera que quien resuelve problemas lo haga con prontitud y eficiencia, sorteando obstáculos.

Por otra parte, el terreno de la velocidad es el de los computadores. Prácticamente desde el inicio de la era informática, hacer mejores computadores ha significado siempre hacer computadores más rápidos; no sólo eso pero siempre eso. En últimas, la competencia entre Kasparov y Deep Blue fue una competencia de velocidad. Casi cualquier computador moderno podría correr el software de Deep Blue, debidamente adaptado, por supuesto. Pero un aparato nuestro tardaría horas seguramente en procesar lo que Deep Blue hacía en segundos. Y es esa rapidez la que aumenta la sensación de “aparato pensante.” ¿O no es sólo sensación?

Tres años antes del libro de Llinás aparecía The Human Computer, una obra de Mark Jeffery (Warner Books, 1999), cuya tesis es que lo que entendemos por computador, o mejor: por comportamiento de un computador, cambiará de manera radical en el futuro relativamente próximo. La línea que separa lo típicamente humano de lo típicamente robótico o propio de computadores, se irá borrando hasta hacerse indistinguible. Y Jeffery está hablando de los temas que parecerían “sagradamente” humanos: emociones, creatividad, personalidad, egoísmo, altruismo, humor, vergüenza, y todo lo que identificamos como nuestro, incluyendo por supuesto todo el rango de nuestra inteligencia.

Las tiendas clasifican este libro en el área de “Inteligencia Artificial” y quienes lo reseñan hablan del optimismo que destila. A nosotros nos interesa ver si lo que allí se describe como inteligencia típicamente humana podría ser llamado así. Ya en su primer capítulo el autor hace una diferencia entre lo que son los computadores no-inteligentes y los inteligentes. Los primeros pueden hacer cosas asombrosas, pero su inteligencia no es de ellos sino del programador. Los segundos son los que le interesan a él, y también a nosotros.

Un computador es inteligente, según Jeffery, cuando no tiene las respuestas ya dadas por su programador. Ser inteligente, entonces, significa poder aprender. Escribe:

Más que darle al computador instrucciones que codifican su propio conocimiento, el programador de un computador inteligente debe darle instrucciones que le permitan adquirir el suyo propio. El computador recién nacido (newborn computer), como un bebé recién nacido, no sabrá casi nada. Pero este computador inteligente, lo mismo que un humano inteligente, adquirirá conocimiento mientras madura, conocimiento que es verdaderamente suyo (pp. 15-16).

A partir de ese enunciado, y por decenas de páginas, Jeffery entra a describir cómo actuaría ese computador inteligente desarrollando percepciones, habilidades, hábitos, estrategias, y después o paralelamente emociones, una personalidad, y lo demás que consideramos humano.

Para mostrar este desarrollo, el autor sigue un procedimiento estándar: para cada “tema,” por ejemplo, la percepción de una figura sobre un fondo abigarrado, presenta un esquema de qué hace el ser humano; localiza lo esencial de ese modo de obrar; muestra cómo en principio podría ser replicado a través de sensores, circuitos, memorias magnéticas y mecanismos de motricidad. A partir de ahí, considera que el tema queda resuelto y pasa al siguiente tema, usualmente algo que hace uso del resultado anterior. Por ejemplo: sabiendo que es posible percibir figuras sobre fondos abigarrados analicemos cómo abrir una interacción con un ser humano; y así sucesivamente.

¿Qué decir de esta teoría? ¿Es ello “optimismo” o “reduccionismo”?

Una cosa es evidente: para este modo de ver los avances de la Inteligencia Artificial se supone que la parte antropológica ya está resuelta clara. Se supone que ya sabemos lo que es percibir, pensar, juzgar, sentir, decidir. Jeffery quiere apoyarse en algo que él estima ya estudiado y patente a todos, y considera que el problema es ver cómo se haría ello posible con medios mecánicos o no biológicos.

Por supuesto, si vamos donde un psicólogo de la percepción y le preguntamos si “ya” entendemos qué es percibir probablemente nos remita a una bibliografía de miles de artículos científicos, que además se contradicen en enfoques, preguntas, conclusiones e incluso en los términos mismos usados. Todo esto no existe para Jeffery. Él habla como si gozara de una teoría definitiva no sólo sobre la percepción, sino sobre todas las realidades humanas, de modo tal que ya lo que restaría es buscarle un nuevo sustrato.

Bueno, hablar así es reducir al ser humano.