Rabu, 30 November 2011

Consciencia y prueba de Turing


En la inteligencia artificial (IA), desde el principio ha habido un gran debate sobre qué es la inteligencia. El primero en tratar de responder a esta pregunta fue realmente Alan Turing (que el año que viene se cumplen 100 años de su nacimiento). De ahí salió la ahora llamada "Prueba de Turing".

De acuerdo a wikipedia, el Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en un artículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente.

La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna máquina puede pasar este examen en una experiencia con método científico.

A todo esto, en 1990 se inició un concurso, el Premio Loebner, una competición de carácter anual entre programas de ordenador que sigue el estándar establecido en la prueba de Turing. Un juez humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un ordenador, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas. El premio está dotado con 100.000 dólares estadounidenses para el programa que pase el test, y un premio de consolación para el mejor programa anual. Todavía no ha sido otorgado el premio principal.

Pues bien, en contraposición a esta prueba esta la que planteara John Searle, la cual se describe así:

Supongamos que han pasado muchos años, y que el ser humano ha construido una máquina aparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entrada que le da un hablante natural de ese idioma, estas entradas serían los signos que se le introducen a la computadora, la cual más tarde proporciona una respuesta en su salida. Supóngase a su vez que esta computadora fácilmente supera la Prueba de Turing, ya que convence al hablante del idioma chino de que sí entiende completamente el idioma, y por ello el chino dirá que la computadora entiende su idioma.

Ahora Searle nos pide que supongamos que él está dentro de ese computador completamente aislado del exterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo) por el que pueden entrar y salir textos escritos en chino.

Supongamos también que fuera de la sala o computador está el mismo chino que creyó que la computador entendía su idioma y dentro de esta sala está Searle que no sabe ni una sola palabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios que le indican las reglas que relacionan los caracteres chinos (algo parecido a "Si entran tal y tal caracteres, escribe tal y tal otros").

De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacer creer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leído ese idioma.

Dada esta situación cabe preguntarse:

  • ¿Cómo puede Searle responder si no entiende el idioma chino?
  • ¿Acaso los manuales saben chino?
  • ¿Se puede considerar todo el sistema de la sala (diccionarios, Searle y sus respuestas) como, un sistema que entiende chino?

De acuerdo a los creadores del experimento, los defensores de la inteligencia artificial fuerte -los que afirman que programas de ordenador adecuados pueden comprender el lenguaje natural o poseer otras propiedades de la mente humana, no simplemente simularlas- deben admitir que, o bien la sala comprende el idioma chino, o bien el pasar el test de Turing no es prueba suficiente de inteligencia. Para los creadores del experimento ninguno de los componentes del experimento comprende el chino, y por tanto, aunque el conjunto de componentes supere el test, el test no confirma que en realidad la persona entienda chino, ya que como sabemos Searle no conoce ese idioma.

Entre estas dos "pruebas" se centra la discusión de la inteligencia y así mismo, de toda la ciencia de la inteligencia artificial. De hecho, en mi opinión la prueba de Searle exige que quien exhibe cierto tipo de inteligencia sea consciente de sí mismo, sino, todo parece reducirlo a un asunto mecánico.

Por ejemplo, hace mucho tiempo escribí un programa que conjuga los verbos regulares (en Prolog). ¿Conjugar un verbo exhibe inteligencia? La verdad es que no, porque es un asunto rutinariamente mecánico. Incluso, si se consideran todos los verbos, los irregulares, se puede escribir un programa que los conjugue todos sin el mayor asomo de error. ¿Eso sería inteligencia? No. Porque el sistema no sabe siquiera nada al respecto. Sigue, como en la idea de Searle, una serie de reglas que le da los resultados correctos. No tiene que saber nada más.

Pero pensemos en los programas que juegan al ajedrez. ¿No exhiben inteligencia? ¿No juegan mejor que los seres humanos en un 99.99%? Si esto es cierto, de acuerdo a la prueba de Turing, los programas de ajedrez SON INTELIGENTES, pero de nuevo, si consideramos el criterio de Searle, es claro que no lo son, porque los programas simplemente siguen mecánicamente una serie de criterios para establecer la mejor jugada en una posición dada. Si es así, como leí en algún artículo hace años, con respecto a los programas de ajedrez, "no hay nadie en casa". Vaya, no saben siquiera que están jugando ajedrez los programas.

¿Cuál será pues la condición necesaria y suficiente para que algo se considere inteligente? Pensemos en nuestra mascota. ¿Se da cuenta de sí misma? ¿Sabe de su propia existencia? Aparentemente sí. Cuando le hablaba a la Pupa (mi perrita snauzer que ya murió), estaba seguro que ella entendía en alguna medida lo que decía. Exhibía pues algún comportamiento inteligente. Si le decía, por ejemplo, "ve por tu pelota", la Pupa iba a buscarla y regresaba con ella en el hocico. Sin duda -considerando el hecho de que de entrada, la orden era verbal- la perrita sabía lo que hacía. ¿Tenía consciencia de sí misma? No lo sé. Asumo que sabía de su propia existencia, pero ¿cómo asegurarlo?

Y toda esta reflexión, de la cual probablemente ya he hablado antes aquí en este blog, surge de QBO, un robotito que entiende el lenguaje natural y que además, tiene un modo de reconocimiento visual. En el siguiente video, QBO es interrogado para reconocer ciertos objetos, por ejemplo, el dibujo del pingüino de Linux, el cual acierta. Pero entonces el robot enfrenta una imagen de sí mismo en un espejo. ¿Qué respuesta dará? ¿Podrá reconocerse a si mismo? A mí todo esto me parece fascinante. Vea el siguiente video para que observe como QBO responde a esta interesante interrogante.



Ahora bien, una vez que QBO se ha reconocido a sí mismo en un espejo, ¿significa que tiene consciencia de sí mismo? tengo mis dudas. El tema me parece abrumador.

Más información sobre cómo funciona este simpático robot QBO, aquí.

Tidak ada komentar:

Posting Komentar