Guadalupe Aguado de Cea
Subdirectora del Departamento de Lingüística Aplicada a la Ciencia y Tecnología
Facultad de Informática, U.P.Madrid
Urb. Montepríncipe, Campus de Montengancedo, Boadilla del Monte
28660 Madrid
Tel: 336 74 02, fax: 336 74 12
e-mail: lupe@fi.upm.es
Luis Moliner
Responsable de Infraestructura del
GATE - Rectorado U.P.Madrid
Rectorado Edificio B.
Pº Juan XXIII 11, pta. baja
28040 Madrid
Tel: 336 60 74, fax: 336 60 73
e-mail: luis.moliner@gate.upm.es
Físicamente la Internet es una red que está formada por multitud de redes repartidas por todo el mundo y todas ellas interconectadas entre sí. Exteriormente puede verse como una única red compuesta por miles de ordenadores en la que existen una serie de nodos que se encargan de direccionar la información por el camino más adecuado en cada momento. La potencia de esta red radica en que desde cada uno de los ordenadores que la componen se puede acceder a la información existente en todos los demás y establecer relaciones con sus usuarios, utilizando siempre las mismas herramientas. Se considera que Internet es la precursora de lo que serán las autopistas de la información (actualmente carreteras locales), donde los vehículos para circular por estas carreteras son los ordenadores. La Internet fue creada en 1969 por el Departamento de Defensa de Estados Unidos con el propósito de interconectar los centros de investigación más importantes del país. Debido a la existencia de ordenadores de diferentes fabricantes y modelos en los diversos centros de computación la comunicación entre todos ellos prometía ser complicada ya que cada fabricante proponía su estándar de red. Este problema se solucionó con la aparición del TCP/IP (Transmision Control Protocol / Internet Protocol, Protocol de Control de Transmisión / Protocolo de Internet) un protocolo de comunicaciones abierto que se adoptó como estándar dentro de esta red. De esta forma cualquier ordenador que se conectase a la red debía ser capaz de comprender únicamente un protocolo gracias al cual podía comunicarse con una amplia cantidad de ordenadores de diferentes características. Es a partir de este momento cuando realmente comienza a hablarse de una red de redes.
Con el paso del tiempo esta red fue extendiéndose a lo largo del país. El hecho de poder acceder a la información de los centros de investigación americanos poco a poco fue atrayendo a diferentes países que decidieron tender líneas de comunicación con esta red y crear organismos para gestionarla. Así se crearon EUNET en Europa y JUNET en Japón. Esto ha facilitado que la gestión de Internet sea totalmente descentralizada. No existe un único organismo que controle o regule la información que muestra cada ordenador o el tráfico existente. Cada una de las redes que forman la Internet es independiente del resto y tiene sus propios mecanismos de financiación. La tarea de coordinar el desarrollo de la red recayó en varios grupos, pero si hubiera que indicar cuál es el que posee mayor presencia en su organización habría que señalar a la NSF (National Science Foundation) que promovió bastante el uso de la red. El grupo de mayor autoridad sobre el desarrollo de la red es la Internet Society. Pero no es el único grupo que puede tomar decisiones importantes, existen otros tres grupos que tienen un rol significativo: el IAB (Internet Architecture Board), el NIC (Network Information Center) y el IETF (Internet Engineering Task Force). En definitiva, la dirección de Internet es en cierta manera una autocracia que funciona.
De esta forma el crecimiento de Internet ha acabado convirtiéndose en un fenómeno sociológico en el que hoy en día todo el mundo desea participar o por lo menos conocer algo más sobre él. En la actualidad se habla de que el número de usuarios se duplica semestralmente, y son ya más de 30 millones las personas que utilizan esta red. Conscientes de ello los medios de comunicación han decidido tomar cartas en el asunto y cada vez existe un número mayor de publicaciones al respecto.
Este constante crecimiento en el número de usuarios supone que son muchas las personas que tratan de concebir aplicaciones originales para aprovechar al máximo las posibilidades de Internet. Fruto de ello es la aparición de un gran número de servicios basados en el uso de la red y del protocolo TCP/IP. Si bien inicialmente los servicios más utilizados eran correo electrónico, news, telnet y ftp, en los últimos tiempos hemos visto como han surgido aplicaciones para jugar al ajedrez, comunicarse oralmente e incluso para realizar videoconferencias.
Otro campo en el que se ha avanzado considerablemente es el que hace referencia a la forma de encontrar la información deseada y la forma de moverse o "navegar" por la red. El hecho de que existan varios millones de ordenadores en esta extensa red y que dentro de cada ordenador haya gran cantidad de archivos, hace que sea muy difícil localizar el fichero deseado. Los expertos en Internet conscientes de ello han desarrollado herramientas que permiten, en la mayoría de las ocasiones, localizar el ordenador en el que se encuentra la información que buscamos y la ubicación dentro de ese ordenador. Estas herramientas suelen funcionar a base de accesos a bases de datos donde previamente se han almacenado los directorios de los ordenadores.
En lo referente a la forma de moverse por Internet han surgido asimismo una serie de "filosofías" que constituyen la verdadera revolución de Internet. Hace algunos años la única forma de acceder a un ordenador era mediante una "clave" compuesta de cuatro números separados por puntos (denominada dirección IP) que lo identificaban unívocamente dentro de la red. Posteriormente aparecieron los DNS (Domain Name Server) que permitían recordar con más facilidad la dirección de un ordenador. A cada máquina se le asignó un nombre compuesto de varias palabras cada una de las cuales identificaba los diferentes dominios dentro de los que se encontraba el ordenador y era el DNS el que se encargaba de traducir ese nombre a la dirección IP correspondiente. Actualmente han surgido nuevas aplicaciones que ofrecen una navegación por contenidos. De esta forma el usuario va pasando de un ordenador a otro, de forma totalmente transparente para él, y eligiendo en cada momento aquello que más le interesa. Las dos herramientas que siguiendo esta línea han tenido una mayor difusión son Gopher desarrollado en la Universidad de Minnesota en 1991 y World Wide Web (WWW) de la que se hablará a continuación.
El proyecto WWW comenzó en 1.992 en el CERN (The European Laboratory for Particle Physics) con el propósito de construir un sistema de acceso a la información de Internet que fuera hipermedia y distribuido.
La palabra hipermedia es un acrónimo formado por la conjunción de hiper(texto) y (multi)media. El procedimiento habitual para leer un documento suele ser lineal, de forma que se comienza por el principio y se va avanzando por el documento hasta llegar al final. La aparición de los hipertextos permite que en un documento haya referencias a otros documentos relacionados con algún elemento que se menciona, de forma que el usuario puede optar por continuar su lectura en el documento inicial o pasar al referenciado. Es decir, la estructura hipertextual consiste en una serie de textos referenciados entre sí y en la que el usuario es quien decide en qué orden desea leer la información y qué información lee en función de sus intereses, de sus conocimientos anteriores, etc, y así, cada usuario sigue un camino en el proceso de adquisición de la información. Los multimedia permiten que los documentos tradicionales, que únicamente podían constar de números y letras, puedan verse ahora mejorados con la incorporación de otros medios como imágenes, sonido o vídeo digitalizado que permiten hacer más comprensible la información.
El hecho de que la WWW sea un sistema distribuido permite que los ficheros (hipertextos, imágenes, audios, videos...) se encuentren repartidos en diferentes ordenadores. Este funcionamiento distribuido está basado en la arquitectura cliente - servidor. En Internet existen ordenadores servidores que son los que poseen la información. Mediante la ejecución de un software (también llamado servidor) se colocan a la "escucha" de las peticiones que les realizan los clientes. Por cada una de estas peticiones envían la información solicitada o un código de error en caso contrario (petición mal formulada, información no disponible...). Por su lado los ordenadores cliente mediante la ejecución de otro programa (llamado cliente) ponen en marcha las peticiones de información en base a las instrucciones del usuario. Cuando reciben la información del servidor se encargan de visualizarla en pantalla con el formato apropiado. Los clientes de WWW más utilizados actualmente son Mosaic y Netscape que han conseguido una amplia difusión debido a su interfaz, su facilidad de uso y su disponibilidad para múltiples plataformas.
Para que se pueda llevar a cabo la comunicación cliente - servidor es necesaria la utilización de un protocolo de comunicaciones que define el conjunto de reglas que se han de seguir para que se produzca el intercambio de mensajes. En el caso de la WWW se ha creado un nuevo protocolo que se llama http (HyperText Transfer Protocol), pero también se puede acceder a la información utilizando protocolos anteriores como ftp, wais, gopher... Otro aspecto importante que se plantea es la identificación unívoca de todos y cada uno de los ficheros disponibles en Internet, con el objetivo de poder referenciarlos. Para ello se ha utilizado el concepto de URL (Uniform Resource Locator) cuya sintaxis es:
protocolo utilizado://nombre del ordenador/subdirectorios/fichero.
Para definir la estructura de los documentos hipertexto utilizados en WWW se ha creado un lenguaje denominado HTML (HyperText Mark-up Language). Este lenguaje define a base de "marcas" la forma en la que el cliente ha de representar la información y los URL de los ficheros que se referencian. Los ficheros referenciados suelen ser documentos hipertexto.
Los documentos hipertexto (creados en HTML) se encuentran en el ordenador servidor. El programa cliente solicita uno de estos documentos utilizando el protocolo http. En el caso de que este documento contenga diversos URL de ficheros multimedia que han de mostrarse junto con el documento, el cliente solicita a los servidores adecuados dichos ficheros; es decir, un documento puede estar constituido por información ubicada en varios ordenadores, aunque no suele ser habitual. Una vez recibida la información la conexión se cierra, lo cual supone un ahorro frente a otros sistemas anteriores en los que la conexión permanecía abierta mientras el usuario estudiaba la información antes de tomar una decisión. El cliente realiza una composición de toda la información recibida y la muestra al usuario siempre que sea un formato que pueda manejar. En caso contrario trata de ejecutar una aplicación (viewer), que ha de estar en el ordenador cliente, con objeto de visualizar dicho fichero. El usuario al leer la información presentada podrá optar por continuar leyendo cualquiera de los ficheros que se referencian en el documento, con lo que volverá a hacer otra nueva petición a algún servidor cuyo nombre se indica en la URL elegida.
La creación de un servidor de WWW es una tarea que no entraña mucha dificultad y es por eso que el crecimiento de su número ha sido exponencial desde la aparición de la WWW en Internet. La puesta en marcha de estos servidores suele ser llevada a cabo por responsables informáticos de redes de ordenadores, que suelen crear pocos documentos hipertextuales y con muchas referencias a los lugares que les parecen más interesantes. Esto propicia que la información que más se desarrolla y evoluciona es la referente a Informática e Internet puesto que es en la que ellos se encuentran más versados. De esta forma, el usuario que va buscando información, a menudo tiene la sensación de que toda esta inmensa estructura hipertextual está vacía de contenidos y que sólo tiene una fachada llena de punteros a otros lugares que acaban desembocando todos en los mismos lugares. Por ello cada día se hace más imprescindible la colaboración de personas especialistas en otras materias que puedan dotar a la WWW de contenidos. Otra medida que tiende a adoptarse con bastante éxito, siempre que resulte posible, es la utilización de herramientas de conversión de información (que ya se encuentra en formato digital) a ficheros HTML para poder ser insertados dentro de los servidores WWW. A pesar de ello no cabe duda que la cantidad de información que actualmente existe en la WWW es superior a la existente en cualquier otro medio. Por ello en muchas ocasiones resulta difícil encontrar lo que se busca. Con el objeto de evitar este problema se han creado catálogos de información, también con forma hipertextual, que tratan de organizar la información, y herramientas que realizan búsquedas por todos los servidores tratando de localizar aquellos lugares en los que se encuentren datos relacionados con los patrones indicados por el usuario
Sin embargo la gran cantidad de personas que tienen acceso a esta información, el hecho de que presenta una interfaz muy amigable, los nuevos protocolos que permiten criptografiar la información y por último la liberalización del acceso ha empujado a muchas empresas privadas a utilizar esta infraestructura como escaparate de sus productos e incluso como punto de venta. Esto puede permitir que se lleve a cabo una gran revolución en el mundo Internet aunque no le faltan detractores que opinan que Internet ha de continuar con la política inicial con la que fue concebida: la investigación, y que las actividades comerciales deberían llevarse a cabo en otro tipo de redes creadas a tal efecto.
Acceder a la WWW es una experiencia educativa en sí misma. En algunas ocasiones sucede que al acceder en busca de algo específico se tropieza con otros materiales interesantes y que no son lo que inicialmente se estaba buscando. Esto se podría denominar "aprendizaje accidental", es decir aprender algo en un momento inesperado sobre un tema inesperado.
Sin embargo hay métodos para utilizar la WWW con propósitos educativos de forma estructurada. Surgen dos aproximaciones principales. Por un lado usar la tecnología como un entorno cerrado de material educativo útil por sus capacidades hipermedia y de aprendizaje a distancia. Por otro lado acceder, de forma estructurada, a un cuerpo abierto de materiales que no necesariamente fueron concebidos inicialmente con propósitos educativos, pero que pueden ser direccionados con exploraciones educativas guiadas. Estas dos líneas no tienen por qué ser opuestas, pueden utilizarse de forma alternativa o complementaria.
Algunas de las características que resultan atractivas de la WWW desde el punto de vista educativo son:
-> Utilización sobre Internet, lo que facilita la educación a distancia.
-> Disponibilidad de software de clientes, servidores y de herramientas de edición de dominio público para diferentes plataformas.
-> Simplicidad en la sintaxis del lenguaje HTML.
-> Acceso simple y uniforme a los recursos.
-> Posibilidad de modificar los contenidos en función de la realimentación obtenida por los resultados de los alumnos.
-> Interactividad: posibilidad de utilizar formularios de entrada de datos y ejecutar procesos en función de las peticiones de los clientes. Esto es especialmente interesante cuando la ejecución no se podría llevar a cabo en la máquina cliente.
-> El protocolo http no define estados, es decir no hay ninguna relación directa de ningún tipo entre dos accesos consecutivos, con lo que no se puede almacenar información sobre el estado de aprendizaje del alumno. Esto se podría solucionar combinando formularios a rellenar con programas externos que se ejecutan en el servidor en respuesta a una petición.
-> La sensación de sentirse perdidos en el hiperespacio que a menudo experimentan los nuevos usuarios. Existe el riesgo de que lleguen a estar desorientados o tengan problemas para encontrar la información que necesitan. Una solución es construir cursos independientes sin necesidad de acceder a otros materiales, con pocas oportunidades para realizar exploración, aunque esta filosofía parece estar reñida con el espíritu general de la WWW.
-> El procesamiento de los formularios requeriría llevar a cabo cierta programación por parte de los profesores. Para facilitar esta tarea se están creando generadores automáticos de scripts (programas ejecutables), aunque estas herramientas todavía no permiten un manejo muy sofisticado de la información proporcionada por el usuario.
En las siguientes figuras se puede ver un ejemplo de cómo el sistema formula unas preguntas al alumno y cómo evalúa las respuestas obtenidas.
Esta aplicación está en fase experimental para su utilización posterior con un grupo de alumnos de la Facultad de Informática de Madrid.
Epstein, R. Science Talk, Logiciel d'Enseignement.
Kroemker, D. Computer Networks and ISDN Systems, Vol. 27, Nº 6. Elsevier, 1995.
Krol, E. The Whole Internet. User's Guide & Catalog. O'Reilly & Associates, Inc, Sebastopol, CA (USA). 1992.
![]() |
Edutec 95 - Materials |