¿Llegará la IA a tener conciencia? Pregunta equivocada

La brecha entre los sistemas actuales y los sistemas de ciencia ficción que dominan el imaginario popular sigue siendo enorme, aunque mucha gente, tanto lega como experta, consigue subestimarla. Pensemos en Watson, de IBM, que de momento puede ser un digno hito para nuestra imaginación.

Es el resultado de un proceso de R&D a gran escala que se extiende a lo largo de muchos siglos-persona de diseño inteligente, y utiliza miles de veces más energía que un cerebro humano. Su victoria en Jeopardy! fue un auténtico triunfo, que fue posible gracias a las restricciones formulistas de las reglas de Jeopardy! pero, para que pudiera competir, incluso estas reglas tuvieron que ser revisadas (una de esas compensaciones: se renuncia a un poco de versatilidad, a un poco de humanidad, y se consigue un espectáculo que gusta al público).

Watson no es una buena compañía, a pesar de los engañosos anuncios de IBM que sugieren una capacidad conversacional general, y convertir a Watson en un agente plausiblemente multidimensional sería como convertir una calculadora de mano en Watson. Watson podría ser una facultad central útil para un agente de este tipo, pero más como un cerebelo o una amígdala que como una mente -en el mejor de los casos, un subsistema de propósito especial que podría desempeñar un gran papel de apoyo, pero ni remotamente a la altura de la tarea de enmarcar propósitos y planes y construir con perspicacia sus experiencias conversacionales.

¿Por qué querríamos crear un agente pensante y creativo a partir de Watson? Tal vez la brillante idea de Turing de una prueba operativa -el famoso test de Turing- nos ha hecho caer en una trampa: la búsqueda de crear al menos la ilusión de una persona real detrás de la pantalla, salvando el «valle inquietante».»

El peligro aquí es que, desde que Turing planteó su reto -que era, después de todo, un reto para engañar a los jueces-, los creadores de la IA han tratado de tapar el valle con toques humanoides bonitos, efectos de Disneyficación que encantarán y desarmarán a los no iniciados. El ELIZA de Joseph Weizenbaum, un chatbot muy temprano, fue el ejemplo pionero de este tipo de fabricación de ilusiones superficiales, y fue su consternación por la facilidad con la que su programa irrisoriamente simple y superficial podía persuadir a la gente de que estaban teniendo una conversación seria de corazón a corazón lo que le envió por primera vez a su misión.

Tenía razón en estar preocupado. Si hay algo que hemos aprendido de las competiciones restringidas del test de Turing para el premio anual Loebner, es que incluso las personas muy inteligentes que no están en sintonía con las posibilidades y los atajos de la programación informática se dejan engañar fácilmente por trucos sencillos.

Las actitudes de la gente de la IA hacia estos métodos de disimulo en la «interfaz de usuario» han oscilado entre el desprecio y la celebración, con una apreciación general de que los trucos no son profundos pero pueden ser potentes. Un cambio de actitud que sería muy bienvenido es el reconocimiento sincero de que los adornos humanoides son publicidad falsa, algo que hay que condenar, no aplaudir.

¿Cómo se podría lograr eso? Una vez que reconozcamos que las personas están empezando a tomar decisiones de vida o muerte en gran medida sobre la base de los «consejos» de los sistemas de IA cuyo funcionamiento interno es insondable en la práctica, podemos ver una buena razón por la que aquellos que de alguna manera animan a la gente a poner más confianza en estos sistemas de lo que justifican deben ser moral y legalmente responsables.

Los sistemas de Inteligencia Artificial son herramientas muy poderosas -tan poderosas que incluso los expertos tendrán buenas razones para no confiar en su propio juicio sobre los «juicios» emitidos por sus herramientas. Pero entonces, si estos usuarios de las herramientas van a beneficiarse, económicamente o de otra manera, de conducir estas herramientas a través de terra incognita, tienen que asegurarse de que saben cómo hacerlo de manera responsable, con el máximo control y justificación.

La concesión de licencias y fianzas a los operadores de estos sistemas, del mismo modo que concedemos licencias a farmacéuticos, operadores de grúas y otros especialistas cuyos errores y equivocaciones pueden tener consecuencias nefastas, podría, con la presión de las compañías de seguros y otros aseguradores, obligar a los creadores de sistemas de IA a hacer esfuerzos extraordinarios para buscar y revelar los puntos débiles y las lagunas de sus productos, y a formar a quienes tienen derecho a manejarlos para que estén atentos a ellos.

Uno puede imaginarse una especie de prueba de Turing invertida en la que el juez está a prueba; hasta que no pueda detectar las debilidades, los límites sobrepasados, las lagunas de un sistema, no se emitirá ninguna licencia para operar. El entrenamiento mental necesario para lograr la certificación como juez será exigente. El impulso de atribuir poderes de pensamiento similares a los humanos a un objeto, nuestra táctica normal cada vez que nos encontramos con lo que parece ser un agente inteligente, es casi demasiado fuerte.

De hecho, la capacidad de resistir el encanto de tratar a una persona aparente como una persona es un talento feo, que apesta a racismo o especismo. Muchas personas encontrarían moralmente repugnante el cultivo de un enfoque tan despiadadamente escéptico, y podemos anticipar que incluso los usuarios más competentes del sistema sucumbirían ocasionalmente a la tentación de «hacerse amigos» de sus herramientas, aunque sólo sea para apaciguar su malestar con la ejecución de sus tareas.

No importa lo escrupulosamente que los diseñadores de IA blanqueen los falsos toques «humanos» de sus productos, podemos esperar un florecimiento de atajos, soluciones y distorsiones toleradas de la «comprensión» real tanto de los sistemas como de sus operadores. Las cómicas listas de efectos secundarios conocidos de los nuevos medicamentos anunciados en televisión se verán empequeñecidas por las obligadas revelaciones de los tipos de preguntas que no pueden ser respondidas de forma responsable por determinados sistemas, con fuertes sanciones para los fabricantes que «pasen por alto» los defectos de sus productos. (Es de sobra conocido que una parte considerable de la creciente desigualdad económica en el mundo actual se debe a la riqueza acumulada por los empresarios digitales; deberíamos promulgar una legislación que ponga sus profundos bolsillos en custodia para el bien público.)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *