EL FORMADOR MECÁNICO: NUEVAS APORTACIONES A UN TEMA RECURRENTE EN LA TECNOLOGÍA EDUCATIVA.

Guillem Bou Bauzá.

 

INTRODUCCIÓN

La idea de escribir esta comunicación nació de la lectura de un párrafo llamativo de un libro, el cual lo es más si tenemos en cuenta que la obra lleva por título Medios audiovisuales y nuevas tecnologías para la formación en el siglo XXI, es decir, que se ubica dentro de la visión de futuro de conocidos autores en el campo de la Tecnología Educativa en nuestro país:

"La Inteligencia Artificial ha comenzado a aplicarse a los Hipermedia por, entre otras cosas, la complejidad de estos materiales: especialmente cuando contienen una gran cantidad de información se hace necesario algún tipo de ayuda "inteligente". Por otro lado, las representaciones comúnmente utilizadas en los sistemas hipermedia son compatibles con las representaciones "frame based", las cuales pueden integrarse con las búsquedas basadas en reglas y técnicas para toma de decisiones que caracterizan la Inteligencia Artificial." (Bartolomé, 1999, p. 124)

La cita no hace más que manifestar un hecho constatable, pero las consecuencias para la Tecnología Educativa exceden el campo de la simple incorporación de herramientas inteligentes a sites educativos. Las frecuentes referencias a esta práctica y su progreso cada vez mayor nos van a conducir, tarde o temprano, a plantear la posibilidad de que un sistema artificial sustituya por entero al elemento humano en un sistema de formación.

Al respecto, pueden encontrarse argumentaciones sobre lo quimérico de esta posibilidad basadas en aportaciones procedentes de la psicología cognitiva y de las ciencias de la computación, en consonancia con las tendencias de principios de la década de los noventa. A finales de los noventa, sin embargo, hace falta recapitular y revisar la argumentación inicial, dado el progreso de la Inteligencia Artificial y la difusión de sus resultados, así como la demanda de programas "inteligentes" en diversos ámbitos de la actividad humana.

Este artículo realizará, pues, una puesta al día acerca de la cuestión del "formador mecánico" y revisará los principales argumentos a considerar para el tratamiento de dicha cuestión.

 

1. DE LOS PRECEDENTES SOBRE EL MODELO MECÁNICO A LAS NECESIDADES ACTUALES EN ENTORNOS FORMATIVOS.

En psicología cognitiva existen dos enfoques a la hora de establecer la analogía entre procesos mentales y procesos comunicativos mecánicos, denominadas versión débil y versión fuerte de la analogía computacional:

"La versión débil establece una similitud funcional entre ambos sistemas y utiliza el vocabulario de procesamiento, pero de un modo esencialmente instrumental. En ningún caso se pierde la perspectiva psicológica.(...)

La versión fuerte de la analogía considera que el ordenador es algo más que una simple herramienta conceptual. La analogía se lleva a sus últimas consecuencias. (...) El objetivo del científico es elaborar una teoría unificada de procesamiento de información que englobe ambos sistemas." (Vega, 1989, p. 32)

El intento de usar este enfoque en su faceta más pura para explicar el funcionamiento de la mente humana fue abandonado por los cognitivistas debido a lo imperfecto de la analogía mente-canal de información, sin embargo tuvo una influencia notable en la configuración de la psicología cognitiva (Vega, 1991; Bunge y Ardila, 1988). Actualemente, además, se pueden encontrar opiniones en contra de la versión fuerte, sobretodo por lo que se refiere a tratar cuestiones relacionadas con el aprendizaje (Coll y colaboradores, 1997).

Sin embargo, el simple abandono de un enfoque no sirve como argumento en en contra de su validez. La fuerte relación que han mantenido la Teoría de la Información, la Tecnología Educativa y la Psicología del aprendizaje en este siglo ha hecho posible la aparición de modelos "mecanicistas" con fuerte base conceptual y experimental. Weltner, por ejemplo, es un investigador que se sitúa en esta línea, ya que señala relaciones fuertes entre estas disciplinas:

"Para una teoría de la enseñanza pueden extraerse consecuencias, sobre todo, a partir de la limitación de la capacidad existente en el hombre para recibir y asimilar información (...) Esto es importante para la teoría del lenguaje didáctico, de la tecnología educativa y de la didáctica de medios" (Weltner, 1983, p. 237)

Dicho autor, además, cita los referentes de Frank y Cube como investigadores pioneros en utilizar la Teoría de la Información de forma directa para explicar procesos de aprendizaje. La filosofía subyacente a su visión les lleva a realizar estudios de asimilación de bits en los procesos de enseñanza-aprendizaje y a experimentos de medición de la eficiencia en la comunicación (Schorb, 1983). Y los éxitos en la aplicación de la Teoría de la Información, sin más, nos llevan inmediatamente a la analogía fuerte en psicologia cognitiva y, en Tecnología Educativa, a la posibilidad de reducir la tarea del formador a reglas mecánicas (pero complejas) de actuación en los procesos de enseñanza-aprendizaje.

En ingeniería informática, el campo de la Inteligencia Artificial, al igual que la Psicología Cognitivia y la Tecnología Educativa, ha adoptado dos vías, fuerte y débil, a saber: por un lado, una parte de la investigación en Inteligencia Artificial intenta dotar al ordenador de capacidades de razonamiento aparentemente similares a las de los humanos (la lógica difusa y los sistemas expertos, por ejemplo, se enmarcan en esta vía); por otro, se intenta utilizar el ordenador para simular procesos relativos a la inteligencia humana y a los sistemas vivos (los programas de vida artificial y los llamados "agentes autónomos" se enmarcan en esta otra vía).

A veces no es posible distinguir entre ambas versiones al observar los prototipos "pensantes" o "vivos"; sin embargo, por lo que se refiere a la cuestión que nos ocupa, ambos nos remiten al problema que se plantea en este artículo. El auge, además, de la Inteligencia Artificial en los últimos años, debido a la aplicación exitosa de sus programas informáticos en entornos industriales, ha hecho que los sistemas expertos en particular desembarquen en los sites de navegación hipertextual, viniendo a cubrir la necesidad de orientación detectada por diversos autores (Gray, 1990; Bartolomé, 1994; Cabero, 1996; Bartolomé, 1999)

Si bien es cierto que los programas de Inteligencia Artificial tardaron en aplicarse a proyectos reales (el primer programa que salió del laboratorio fue el XCON, aplicado en 1979 a la configuración de sistemas de la Digital Equipament Corporation), se produjo una explosión de la demanda en la primera mitad de la década de los ochenta. El progreso de esta industria de base, unida a la proliferación del uso de Internet en los últimos años, creó la cuna ideal para la aplicación de "sistemas inteligentes" destinados a ayudar a los usuarios.

Se había así cerrado una etapa: el enfoque de la analogía computacional fuerte no había, ni mucho menos, impuesto su explicación de la realidad, pero la investigación aplicada que le servía de base se había consolidado como uno de los campos destacados en la ingeniería informática. En consecuencia, los nuevos descubrimientos de la computación permitirán que la conjetura del formador mecánico siga viva. Veamos, pero, con más detenimiento los argumentos actuales a favor y en contra de dicha posibilidad.

 

2. PROBLEMAS PREVIOS A LA DISCUSIÓN: LA CONCEPTUALIZACIÓN DE LA INTELIGENCIA ARTIFICIAL.

El término Inteligencia Artificial se acuñó en el Congreso de Darthmouh en 1956, pero fue definida de forma muy poco rigurosa y con una total carencia de unanimidad entre los investigadores. En realidad, digamos que a los informáticos les preocupaba obtener éxitos concretos antes que hacer grandes contribuciones a la epistemología de la ciencia. Por ello, una definición de referencia que se tomó durante un tiempo fue la de Minsky, que la entendía simplemente como "el arte de hacer máquinas capaces de hacer cosas que requerirían inteligencia en caso de que fuesen hechas por seres humanos".

Para poner un ejemplo, según el criterio de Minsky, el sumar dos números se incluye en la programación clásica y no en la inteligencia artificial. Es decir, siempre que hubiera un algoritmo (simple o complejo) para resolver el problema con éxito se entendía que el ordenador era mecánico y que en ningún modo imitaba la inteligencia humana. En cambio, si para resolver el problema hacía falta utilizar estrategias heurísticas (esto es, ensayar, volver atrás, probar otro camino, etc.), sí se consideraba que la cuestión pertenecía a la inteligencia artificial.

En rigor, dicha distinción es del todo incorrecta bajo el punto de vista de la programación, ya que las estrategias de tanteo supuestamente inteligentes son descompuestas en órdenes elementales ejecutadas por la máquina binaria. Es decir, no se cambia de ordenador para ejecutar un programa de inteligencia artificial y, por poner un ejemplo, los algoritmos recursivos (que son la base de las estrategias de ensayo y error) son traducidos por el compilador a algoritmos iterativos (que son los que usualmente se usan en la programación "no inteligente").

Esta deficiencia en la conceptualización ha sido resuelta asumiendo que la clasificación en comportamiento inteligente y no inteligente de las máquinas es una cuestión de apariencia. De hecho, Turing, ya planteó su test en estos términos, al preguntarse si una máquina podría suplir a un humano y engañar a un observador. Por tanto, una definición actual podría ser válida si no entrase en la "forma de razonamiento", tal como se expone en [www.geocities.com/Silicon Valley/Campus/7808/ia.html].

Sin embargo, una profundización precisamente en la "forma de razonamiento" nos da uno de los primeros argumentos a considerar en la cuestión de si es posible una sustitución del formador humano por un sistema mecánico, como veremos en el apartado siguiente.

 

  1. LA "FORMA DE RAZONAMIENTO": UNA DIFERENCIA DE HARDWARE.
  2. Las diferencias entre el razonamiento humano y el razonamiento mecánico son una de las bases del aprendizaje como tal y, por tanto, uno de los argumentos que utilizamos para rechazar que la formación de seres humanos sea "delegable", en un modo u otro, en sistemas mecánicos.

    Una característica importante de nuestro modo de razonamiento es la facilidad para abandonar una tarea inacabada y volver a ella posteriormente. Tomemos una pregunta sencilla a modo de ejemplo: ¿Qué distancia es mayor, 3.000 metros o 2 millas?

    La tarea principal es la de comparar dos distancias, pero para hacerla necesitamos antes realizar la conversión de uno de las dos escalas de unidades. Podemos suponer que un individuo resuelve el problema de la siguiente manera: almacena el resultado "3.000 metros" en su memoria y, sin olvidar que al final ha de comparar, realiza la conversión de millas a metros. Entonces el individuo tiene que recuperar la información "3.000 metros" y compararla con "3.906 metros", es decir, tiene que volver a la tarea principal (realizar una comparación de dos cantidades) después de obtener el resultado de un cálculo secundario (convertir de millas a kilómetros).

    Dejar la línea maestra de un algoritmo para realizar un cálculo o razonamiento secundario y volver después a él se llama, en informática, "bifurcar a una subrutina". Los ordenadores también pueden hacerlo; no obstante, los recursos utilizados son formalmente diferentes a los de las personas. Para saber cómo volver al punto exacto donde se había dejado pendiente la tarea principal, el ordenador lo anota en una parte de la memoria especial: la pila. Cuando el ordenador termina una tarea secundaria busca en la pila el número de instrucción donde se abandonó el proceso principal y se dispone a ejecutar la orden que viene a continuación.

    El detalle que se debe retener de este proceso es la capacidad del ordenador de bifurcar sin dificultad a subrutinas dentro de subrutinas, ya que dicha operación no le cuesta ningún esfuerzo (dado que simplemente "anota" la dirección de regreso, cosa que no hacen los humanos). Es decir, el ordenador puede abandonar provisionalmente una tarea secundaria porque exige el cálculo de una tarea terciaria diferente, y así sucesivamente, tantas veces como el problema requiera. Para las personas, en cambio, es muy difícil sostener un razonamiento con tantas bifurcaciones sin perderse; se estima que un individuo normal tiene serias dificultades para introducir más de cinco tareas una dentro de otra.

    Antes de considerar este aspecto, en la computación tradicional se decía que los ordenadores sólo aventajaban a las personas en velocidad, por lo que se los comparaba, a modo ilustrativo, a un hipotético individuo increíblemente poco dotado para el razonamiento pero capaz de sumar mucho más rápido que cualquier otra persona. Como se ha expuesto, la ventaja "intelectual" del ordenador es muy superior en un aspecto diferente: el de la bifurcación a subrutinas.

    Este descubrimiento permitió acometer un tipo de problemas donde la resolución de los mismos dependía de la potencia para bifurcar a tareas secundarias (y de orden superior) y volver con éxito a las tareas principales. Un ejemplo típico e ilustrativo de estos problemas es el del caballo en el tablero de ajedrez (se trata de, a partir de una posición cualquiera sobre el tablero, mover el caballo de manera que recorra todos los cuadros, sin pasar dos veces por una misma casilla).

    La resolución de este ejercicio depende no sólo de que se recuerden los cuadros por donde se ha pasado, hace falta además contar con un buen método de tanteo. Eso es, al llegar a una ruta sin salida (es decir, cuando vamos a pasar por fuerza por cuadros visitados anteriormente) saber exactamente cuántos pasos hay que volver atrás para estar seguros de que se toma un ruta diferente y además no se deja ninguna posibilidad sin explorar. Este algoritmo de tanteo es posible si se utiliza a fondo la pila, por ello un ordenador puede resolver dicho problema en un tiempo breve y estar seguro además de que se han cubierto todas las posibilidades.

    Con esta generación de problemas, se abrían las puertas a unas tareas que aparentemente, exigían un tipo de "inteligencia" diferente a la de la programación iterativa clásica:

    "un tema de programación particularmente curioso es la "resolución general de problemas". Su misión es definir algoritmos para encontrar soluciones específicas, sin seguir unas reglas prefijadas de cálculo, sino aplicando un método de tanteo sistemático ("trial and error"). (...) Frecuentemente, estas tareas se expresan de la manera más natural recursivamente y están constituidas por la ejecución de un número finito de subtareas. Puede contemplarse el proceso general como un método de prueba o búsqueda que construye gradualmente e inspecciona una árbol de tareas básicas" (Wirth, 1980, p. 147)

    Rápidamente se cayó en la cuenta que resolver un teorema, tal como se hace actualmente en el mundo científico, podía ser reducido a problemas de pila. Es decir, la demostración de un resultado consiste en aplicar reglas conocidas sobre un tema y ver si se llega o no a su verificación. Actualmente hay ordenadores que demuestran teoremas matemáticos y físicos, que deducen leyes nuevas a partir de unas premisas dadas. Igualmente hay ordenadores que analizan sintácticamente oraciones y juzgan si están bien construidas o no. Los campos del habla artificial, en particular, se han desarrollado dotando a los ordenadores de bancos de reglas sintácticas y pseudosemánticas, de manera que se pueden fingir hasta cierto punto conversaciones humanas (el programa pionero Eliza responde a esta estructura).

     

  3. EN BUSCA DE UN CRITERIO DIFERENCIADOR.

La Psicología Cognitiva cuenta con aportaciones de diversos autores que señalan diferencias entre el procesamiento humano y el de la máquina. Se cuenta con observaciones como la de Roszak (1989), que señala una invasión de la Psicología Cognitiva por parte de la Teoría de la Información, o críticas como las de Shallis (1989) a los modelados computacionales que nunca igualarán al mundo real.

No obstante, se trata en este artículo de buscar un criterio o argumento diferenciador, al menos en algún punto crítico, de la actividad de las personas y las máquinas. Para ello podemos seguir con el ejemplo de la bifurcación a subrutina y ver a qué conclusiones nos lleva.

La diferencia fundamental radica en la manera en que las personas bifurcamos a subrutinas a la hora de resolver problemas. Es característico de esta acción el que, al finalizar, se produzca una rápida reconstrucción del contexto anterior a su ejecución, para seguir con la tarea principal. Este punto es crítico, ya que si este contexto de razonamiento no se reconstruye adecuadamente, el individuo no sabe resituarse en la tarea principal y decimos que "pierde el hilo" de lo que estaba haciendo.

La bifurcación completa, mirada como proceso cognitivo, tiene éxito si se suceden tres operaciones:

  1. Se salva el contexto de la tarea inicial; esto es, los datos significativos y orientativos de lo que estábamos haciendo se almacenan en la memoria operativa en un segundo plano.
  2. La ejecución de la tarea secundaria no demanda demasiados recursos que obliguen a desalojar por completo el contexto anterior.
  3. Se recupera el contexto inicial: son repuestos correctamente los datos guardados en el paso a).

La diferencia, pues, es que la máquina guarda en el paso a) una dirección simple de regreso y, precisamente por esta capacidad, puede volver con precisión al punto exacto en el que debe continuar el algoritmo de resolución del problema. Aquí radica su potencia para manejarse en bifurcaciones anidadas mientras que, en las personas, la limitación de nuestra memoria operativa (o memoria de trabajo) y el hecho de que establezcamos un "enlace semántico" para volver a la tarea principal, nos hace frágiles en este tipo de acciones de procesamiento de información.

En particular, otra gran diferencia que se deriva de este tipo de enlace es lo que en psicología cognitiva se llama "conocimiento tácito", es decir, la sensación que algo no marcha correctamente en caso de error. Al respecto los investigadores afirman:

"Quizá el aspecto más compulsivo de la intuición, y uno de los más citados en las diversas definiciones que se han dado (ver Westcott, 1968), es que el individuo tiene una sensación de lo que es correcto o equivocado, una sensación de cuál es la respuesta adecuada o no adecuada a realizar en un conjunto de circunstancias, pero es muy ignorante de las razones de tal estado mental" (Rebert, 1989, p. 232)

Otras diferencias se deben a características similares. Por ejemplo, la flexibilidad de los conceptos en el razonamiento humano (Hintzam, 1986) o el hecho que las categorías no formen clases bien definidas (Rifkin, 1986; Chisholm, 1987) distancian el procesamiento humano de la información del riguroso sistema de direccionamiento de los datos propio de las máquinas (éstas, tal como las entendemos hoy en día, guardan los datos en casillas perfectamente delimitadas y referenciadas, es decir, direccionadas).

Sin embargo, todas estas diferencias pueden eliminarse el día que una máquina imite un sistema de almacenamiento de datos impreciso. Y precisamente la lógica difusa se encamina en este sentido. Es decir, se está intentando enseñar a los ordenadores a trabajar con proposiciones no binarias (del tipo "viértase en la taza un poco de azúcar" o "esto está bastante caliente"). Los progresos, además, en agentes autodidactas, analizadores semánticos, programación genética, algoritmos evolutivos y todo tipo de prototipos informáticos que imitan el comportamiento vivo (aprendizaje, evolución, inteligencia) pueden hacer caer en el futuro éstas y muchas otras barreras que edifiquemos entre nuestro aprendizaje y nuestra cognición y la de las máquinas.

Es por ello que, los argumentos expuestos, los cuales percibía como insalvables hace años, se me antojan más frágiles actualmente. No sé, por tanto, si en un futuro existirán máquinas que imiten perfectamente nuestro comportamiento (de hecho, al consultar la bibliografía especializada, se puede constatar con alivio que los mismos investigadores en Inteligencia Artificial tampoco lo saben) y si pasarán el test de Turing. Y, en consecuencia, no sé si llegaremos algún día a sistemas de formación regidos por un ser mecánico.

Las diferencias expuestas, en definitiva, sirven para distinguir aspectos cognitivos y de aprendizaje entre las personas y las máquinas actuales. Estas últimas no pueden "entender" una manera de formar conceptos, guardarlos y operar con ellos propia de los humanos. Se podría argumentar que, aún así, podrían gestionar sistemas de instrucción. Dado que ésta es una pregunta que nos sitúa en el presente, va a ser respuesta desde la propia Tecnología Educativa y desde el presente.

 

  1. EL FORMADOR MECÁNICO: POR QUÉ SÍ Y POR QUÉ NO.

Forma parte del saber en Tecnología Educativa la capacidad de utilizar medios para facilitar y optimitzar el aprendizaje. Hay conocimiento sobre medios porque hay conocimiento sobre el hecho de aprender. Bajo esta óptica, toda mecanización o introducción de instrumentos en el proceso de enseñanza-aprendizaje es un triunfo de los investigadores en educación. No obstante, hemos llegado a una contradicción aparente: nuestro logro en la parte tecnológica de la educación nos ha llevado justamente a prescindir de la faceta humana de la misma.

Es decir, sabemos tanto sobre el acto instructivo que somos capaces de predecir y controlar todas las variables que entran en él, de modo que ha quedado reducido a un modelo quasideterminista o, al menos, suficientemente determinista para que pueda ser gestionado por sistema expertos provenientes de la inteligencia artificial.

Pues bien, la idea que se ha expuesto en el párrafo anterior es la que se debe rebatir desde la propia Tecnología Educativa. Y vamos a hacerlo basándonos en dos argumentos fundamentales:

  1. Argumento didáctico

Es el que se deriva del análisis del acto didáctico en los contextos de formación distribuida. Una exposición profunda de este argumento se encuentra en el artículo al cual pertenece la siguiente cita:

"A pesar de las posibilidades iniciales nadie niega que puede acontecer lo siguiente:

  1. llega un momento en el que los sujetos se niegan a participar, situación que en formación de personas adultas no es extraña. (¿Se introducirán acciones motivacionales?; pero, ¿está preparado el medio para este menester?).
  2. un cambio brusco en la dinámica del grupo genera comportamientos no esperados ni vislumbrados en el diagnóstico. (¿Puede el medio adaptarse a lo imprevisto?)
  3. ante una situación de duda, uno o varios participantes demandan orientación. La duda puede provenir de lo meramente conceptual, lo cual quizá pueda paliarlo el medio; o de lo procedimental, aspecto que le será más complejo; o de lo actitudinal, momento en el que el medio, por muy sofisticado que sea, quizá desconecte la relación con el usuario." (Ferrández, 1995)

La respuesta del autor es que, si bien el sistema informático puede aparentemente prepararse para asumir las competencias que requieren estas tareas, va a fallar al llegar al trato individualizado:

"Podemos ya formular la pregunta pertinente: ¿puede el medio llevar a buen puerto el menester de la formación porque es capaz de "trabajar" con estas competencias? A primera vista parece que sí, pero cuando se comienza a contemplar la respuesta desde la individualidad de las personas, marcadas por su mundo afectivo, la contestación afirmativa se convierte en duda severa que termina, a la postre, en la negación." (Ibídem)

Por tanto, desde el punto de vista de la Didáctica, desde nuestros modos de analizar la instrucción, hay una conclusión obvia: existen aspectos del papel del formador no mecanizables, es decir, no sustituibles por un sistema informático.

 

  1. Argumento cognitivo

Al plantear el problema del formador mecánico hay que tener en cuenta, para no confundir los términos, la siguiente cuestión: discutir si algún día llegaremos a tener "máquinas humanas" no es lo mismo que discutir si un sistema de formación puede prescindir de la supervisión y control humano. Éste es, a modo de aclaración, el argumento que se deriva de la psicología cognitiva, es decir, de la cuestión inicial sobre la analogía mente-ordenador comentada al principio del artículo.

En otras palabras, no entra en el campo de la Tecnología Educativa el construir una máquina que imite el comportamiento humano ni tampoco la evaluación de dicho comportamiento. Ambas cuestiones pertenecen a la ingeniería, la psicología, la filosofía, la lógica o quizá la biología. Por tanto, si un día llegamos a ver una máquina cuya conducta es indistinguible de la de un ser humano, es evidente que dicha máquina, debidamente "entrenada", podrá jugar un rol propio de las personas en un sistema de formación, pero éste no es el problema del "formador mecánico".

Por tanto, centrándonos de nuevo en nuestro problema y situándonos en el grado de desarrollo de la tecnología en la actualidad, la cuestión que se discute es si un software o cualquier otro sistema artificial puede realizar las funciones a que se refiere Ferrández (cita anterior). Éste sí es el problema del "formador mecánico": el que una máquina que no se confunde con una persona humana pueda suplir su papel como formador.

Al respecto, hay que decir que en Inteligencia Artificial de cada vez más se avanza y de cada vez más se afrontan nuevos retos. Por ejemplo, antes los campos de investigación podían reducirse a tareas simples para las que se requería cierta "inteligencia" (como hemos visto en el apartado 2), ahora hay campos nuevos que intentan imitar la vida, la evolución, el aprendizaje como organismos, la adaptación al medio, la comprensión de conceptos, el razonamiento dentro de campos semánticos, etc.

Si embargo, no es todavía plausible que un ordenador "inteligente" en el sentido del desarrollo de la ingeniería de hoy en día pueda erigirse en formador. Se ha llegado, por ejemplo, a programas inteligentes que exhiben cierto conocimiento (razonamiento, almacenaje de reglas y aplicación de las mismas) en dominios determinados; ahora bien, no consiguen salir de estos dominios semánticos para saltar a una "comprensión" completa y holística de la realidad. En este estado de desarrollo, por tanto, pretender que un sistema mecánico puede regir un sistema de formación por el hecho de "comprender" un dominio sería caer en una nueva forma de logocentrismo.

Por todo lo expuesto, en definitiva, cabría decir que el argumento cognitivo es doble: por una parte, estamos hablando de máquina externamente diferentes a los humanos (diferentes en la percepción externa de sus procesos de cognición) y, por otra, la capacidad de cognición aparente en dominios limitados no confiere a dichas máquinas la capacidad de erigirse en formadores.

 

  1. A MODO DE CONCLUSIÓN Y EN ESPERA DE UN FUTURO.

Las líneas de investigación en Inteligencia Artificial (imitación de comportamientos inteligentes) y en Tecnología Educativa (incorporación de "herramientas inteligentes" a los sistemas de formación) son fértiles y van a sorprendernos con nuevas aplicaciones en un futuro no muy lejano.

Para comprobar que se trata de una realidad cercana, puede consultarse la página [www.sia.eui.upm.es/~internet/proyectos/clasificador]. En ella se expone ampliamente la tesis doctoral "Clasificador inteligente de nodos web desde el punto de vista de su gestión", leída en marzo de este año en la Universidad Politécnica de Madrid. Se trata de un caso de asistencia en hipertextos en el sentido que decía la cita de Bartolomé al principio de este artículo.

No estaría de más que, cualquier lector curioso, consultara las múltiples páginas sobre Inteligencia Artificial y Aprendizaje que aparecen, no ya en los sites internacionales de la red, sino en páginas de investigadores de nuestro país. En particular hay dos sites que tratan esta temática con información muy extensa y de calidad: se trata de GAIA (www.geocities.com/Silicon Valley/Vista/7941) i AIRCENTER (www.aircenter.net).

Por lo que se refiere a la Tecnología Educativa y los efectos de estas ingenierías en pleno desarrollo, se puede asegurar que el futuro se dibuja en función de estas tres cuestiones:

  1. Se van a aplicar programas procedentes de la Inteligencia Artificial en los sistemas de formación con soporte tecnológico.
  2. La línea de imitación de lo humano va a seguir investigándose en los laboratorios de ingeniería.
  3. La educación es una actividad con un factor humano inalienable, el problema al que siempre deberemos hacer frente es hasta cuándo va a ser así.

A las personas de una generación que vio en su infancia como los televisores aparecían en los hogares y ahora asiste atónita a los problemas existenciales y éticos que plantea la clonación de seres vivos, a esta generación nos ha tocado vivir un momento histórico irrepetible e inquietante. Pero puede que todavía tengamos la oportunidad (no sabemos si para bien o para mal) de sorprendernos ante otro nuevo progreso tecnológico que no esperábamos. O, dicho de otro modo, mantengamos la sana actitud de ser conscientes que todavía no lo hemos visto todo. Esto es, esperemos lo inesperado, no sea que nos coja desprevenidos.

Por tanto, seguramente dentro de diez años (esperemos que no antes) deberemos revisar otra vez el problema del "formador mecánico" y comprobar que los argumentos sobre la imposibilidad de su implantación todavía siguen vigentes. Ante este vértigo de un progreso que supera de largo nuestras expectativas, nos queda el consuelo de refugiarnos en nuestros valores y en nuestro humanismo.

Sin embargo, ¿qué es, esencialmente, "lo humano"? Algunos cognitivistas señalan que el carácter metafórico de nuestro sistema de cognición es algo que las máquinas nunca podrán imitar. Nuestros juegos de palabras, nuestra atracción afectiva por la literatura, la forma de aprendizaje basada en cuentos de los que extraemos un "mensaje" para nuestra vida... son todas ellas facetas de un comportamiento difícil de capturar. Por esto mismo, aunque de momento sea más próximo al campo de la especulación que de la realidad, es tan inquietante la cita con la que he querido terminar esta comunicación:

"Gregory Bateson, antropólogo y teórico de sistemas que ha escrito numerosas obras sobre cibernética, biología y psicología, nos cuenta una anécdota. En su libro Steps to an ecology of mind (Pasos hacia una ecología de la mente), habla de un hombre que deseaba conocer la mente, saber qué era en realidad y si algún día los ordenadores llegarían a ser tan inteligentes como los seres humanos. Este hombre acudió al ordenador más potente del momento, que ocupaba toda una planta en un departamento de una universidad, y le introdujo la siguiente pregunta: "¿Calculas que algún día llegarás a pensar como un ser humano?".

La máquina zumbó y murmuró mientras empezaba a analizar sus propios hábitos computacionales. Finalmente, el ordenador imprimió la respuesta en una hoja de papel. El hombre, muy excitado, se apresuró a cogerla y leyó las siguientes palabras, pulcramente impresas: "Esto me recuerda a una historia..." (O'Connor y Seymour, 1996, p. 253)

 

BIBLIOGRAFÍA

Bartolomé, A. (1994): Sistemas multimedia. En Sancho, J. M. (coord.) (1994): Para una tecnología educativa. Barcelona. Horsori.

Bartolomé, A. (1999): "Hipertextos, hipermedia y multimedia: configuración técnica, principios para su diseño y aplicaciones didácticas". En Cabero (1999): Medios audiovisuales y nuevas tecnologías para la formación en el siglo XXI. Diego Marín Editor. Murcia.

Bou, G. (1991): Aprendizaje comprensivo y procesos de información: aplicaciones educativas. Tesis Doctoral. Universidad Autónoma de Barcelona.

Bunge, M. y Ardila, R. (1988): Filosofía de la psicología. Ariel. Barcelona.

Cabero, J. (1996): Navegando, construyendo: la utilización de los hipertextos en la enseñanza. [http://roble.pntic.mec.es/~blanco1/hipertex.htm]

Chisholm, C. L. (1987): The nature of the memory trace used to support identity priming of the lexicon. Tesis doctoral. University od Delaware.

Coll, C. y Cols. (1997): Psicologia de la instrucció. Barcelona. Ediuoc.

Ferrández, A. (1995): El formador en el espacio formativo de las redes. Ponencia presentada en Edutec 95. Disponible en [http://www.uib.es/depart/gte/edutec5.html].

Gray, S. H. (1990): Using protocol analysis and drawings to study mental model construction during hypertext navegation. En International Journal of Human Computer Interaction, 2, 359-377.

Hintzman, D. L. (1986): "Schema abstraction in a multiple-trace memory model". En Psychological Review, 93 (4), 411-428.

O'Connor, J. Y Seymour, J. (1996): Programación neurolingüística para formadores. Barcelona. Urano.

Rebert, A. S. (1989): "Implicit learning and tacit knowledge". En Journal of Experimental Psychology: General, 118 (3), 219-235.

Rifkin, A. J. (1986): The organization of information in terms of its use: a deontic model of knowledge representation (cognition, categorization, artificial intelligence). Tesis doctoral. City University of New York.

Roszak, T. (1986): El culto a la información. Barcelona. Crítica.

Schorb (1983): "Didáctica Cibernética". En AAVV (1983): Diccionario de Ciencias de la Educación. Rioduero. Madrid.

Shallis, M. (1986): El ídolo de silicio. Barcelonat. Salvat.

Vega, M. (1989): Introducción a la psicología cognitiva. Madrid. Alianza.

Weltner (1983): "Teoría de la Información". En AAVV (1983): Diccionario de Ciencias de la Educación. Rioduero. Madrid.

Westcott, M. R. (1987): "Minds, machines, models and metaphors: A commentary". En Journal of Mind & Behavior, 8 (2), 281-289.

Wirth, N. (1980): Algoritmos + estructura de datos = programas. Ediciones del Castillo. Madrid.

 

oooooOooooo

  

EL FORMADOR MECÁNICO: NUEVAS APORTACIONES A UN TEMA RECURRENTE EN LA TECNOLOGÍA EDUCATIVA.

 

DATOS DEL AUTOR/ES:

Guillem Bou Bauzá (Area de Planificación Docente de la Escuela de Policía Autonómica de Cataluña. Carretera N 152 Km 20 Mollet del Vallès. Barcelona).

 

RESUMEN:

Este artículo repasa las aportaciones de la Inteligencia Artificial a los sistemas de aprendizaje en redes y analiza la posibilidad de desarrollar sistemas de formación autónomos, es decir, que prescindan de la labor humana. Los argumentos que se aportan revisan el estado de la cuestión sobre la temática recurrente denominada "del formador mecánico".

 

DESCRIPTORES:

Inteligencia Artificial, Aprendizaje, Cognición, redes

 

ABSTRACT:

This text makes an overview of Artificial Intelligence contributions to distributed learning systems, and thinks about the possibility of developing autonomous learning systems, that's to say, without human action. Arguments exposed review the question called "the mechanic teacher problem".

 

KEY WORDS:

Artificial Intelligence, Learning, Cognition, nets