Políticas Universitarias y Tecnología Informática:
El caso de la UAM-X
[Elementos para una cultura informática crítica]

José Carlos Castañeda Fernández de Lara
departamento académico de síntesis crítica, cyad, uam-x
castfela@correo.xoc.uam.mx

José  Mario  Velasco  Romero
programa universitario de estudios metropolitanos, uam-x
mvelasco@llavevirtual.com.mx

I. Introducción

El objeto de este documento es proporcionar elementos de reflexión que permitan planificar e instrumentar las políticas universitarias con respecto al uso de la tecnología informática en la consecución de sus objetivos sustanciales. Es aún un documento incompleto, que por el momento busca poner en orden las ideas que compartimos al respecto y la experiencia de 15 años entre vida universitaria y asesorías profesionales en estos campos.

En el “Programa de Desarrollo Institucional 2003-2007” [en adelante sólo lo mencionaremos como pdi] documento guía de la acción universitaria, aprobado recientemente por el Consejo Académico de la Unidad Xochimilco, se aborda el problema de la tecnología, como una cuestión de acceso y no de uso. El siguiente párrafo resume muy bien esta concepción que norma las acciones estratégicas de la Unidad Xochimilco para los próximos cuatro años:

Uno de los requisitos para lograr y mantener buenos resultados en el proceso de enseñanza aprendizaje es la disponibilidad de los recursos tecnológicos y la infraestructura adecuados y suficientes para cumplir con los objetivos planteados en los planes y programas de estudio y, de esta manera, garantizar que los alumnos adquieran los conocimientos y habilidades necesarias para enfrentar la difícil competencia en el campo laboral. La investigación, por su parte, sólo podrá lograr niveles de excelencia y productividad si cuenta con la infraestructura adecuada para su desarrollo.

[Subrayados nuestros. Programa estratégico para la adecuación de los recursos tecnológicos e infraestructura, http://cueyatl.uam.mx/pdi03-07/pagina
/recursos.htm, 2003, uam-x.]

Consecuente con el planteamiento anterior, las principales acciones aprobadas hasta el 2007 en este rubro, son mayoritariamente acciones de inversión en tecnología, en la siguiente lógica instrumentista: contar con el herramental adecuado garantiza los objetivos. Nuestra posición por el contrario, parte de la idea que la Universidad ha logrado un cierto acceso a la tecnología y ahora el problema principal gira en cambio, alrededor del uso colectivo y cultural que se haga de esta tecnología. Por ejemplo, la Unidad Xochimilco realizó una cuantiosa inversión para conectarnos a Internet II, esta red de alta velocidad. Pero ahora preguntémonos, ¿cuántos proyectos de esta Unidad lo están utilizando? ¿Cómo lo vamos a utilizar más provechosamente? ¿Qué impacto real tiene sobre la investigación o docencia que realizamos?, etcétera. Por supuesto que la inversión es necesaria para mantener un nivel de acceso a la tecnología, pero no como un elemento autojustificable.

Para exponer nuestras ideas, presentaremos una visión crítica de la obsolescencia, la necesidad de que la universidad forme usuarios de tecnología y no sólo consumidores de ella, la subutilización de la red de redes Internet y los problemas para la difusión de la vida y productos universitarios.

El fenómeno consumista de “usar y tirar” presente en toda economía productora de mercancías, es favorecido en la industria informática por la constante oferta de “innovaciones” y sus acelerados ciclos de obsolescencia: computadoras cada vez más rápidas, más poderosas, más capaces y multifuncionales. La Ley de Moore[1] desde 1965 predijo que los procesadores duplicarían su capacidad y potencia cada 18 meses. Este desarrollo exponencial sólo puede ser soportado comercialmente por un mercado que se renueva a la misma velocidad. De allí, que los grandes monopolios informáticos fomentan la obsolescencia de los equipos y programas, como una cuestión esencial de supervivencia.

Cierto, todas las aplicaciones se complejizan constantemente y requieren en cada nueva versión mayores recursos de cómputo, sin embargo esto no representa, en la mayoría de los casos, mejoras reales o significativas.[2] Bastaría constatar como, aunque parezca ilógico, la paquetería más usual como Office corre mejor en la misma máquina con Windows 95 o 98 que con el novedoso XP o Windows 2000. ¿Entonces, por qué usamos Windows XP y no el 95 o el 98? Por la sencilla razón de que estos ya no se venden y las nuevas máquinas vienen con el Windows XP “precargado”. Los acuerdos comerciales de Microsoft con los principales fabricantes de equipo nos forzan a utilizar la tecnología de reciente creación y por supuesto, precargado no quiere decir gratis.

Las recientes innovaciones tecnológicas, están orientadas a crear procesadores más potentes, esta vez de 64 bits, aunque orientado principalmente hacia el mercado de los servidores, la apuesta también está encaminada hacia el mercado de computadoras potentes, tipo estaciones de trabajo. La alianza Intel-Microsoft está produciendo un procesador y un nuevo Windows que no corren las aplicaciones de 32 bits y que obligarán en el futuro —ellos apuestan— a cambiar gran parte del parque informático mundial.

A pesar de este continua expansión tecnológica, pareciera que hemos llegado a un umbral social, donde la potencia actual del equipo informático cubre las necesidades más esenciales del usuario común, por la misma razón que estas necesidades, desde hace tiempo, ya no están creciendo al mismo ritmo que la innovación tecnológica. Las implicaciones son severas para la industria informática y podríamos estar en puertas de una nueva reestructuración del mercado informático.

Antes de pensar en modernizarse al último grito de la moda tecnológica y seguir fielmente los dictados del mercado, habría que cuestionarse el rumbo de esta tecnología y ponderar desde otro punto de vista, el concepto de obsolescencia, sobre todo si pensamos como usuarios y no sólo como consumidores.

III. El poder del consumidor

Existe una relación dinámica entre consumidores y monopolios que se media a través del mercado. Fueron los consumidores quienes parcialmente generaron los grandes monopolios[3] informáticos y ahora estos dictan el rumbo tecnológico en gran medida y con ello modifican y transforman a los mismos consumidores. Sería erróneo pensar que únicamente ocurre lo segundo. Bastaría echar una ojeada 10 o 15 años atrás para ver como han aparecido y desaparecido actores y marcas. En este equilibrio, no hay que perder de vista que el poder del consumidor únicamente se hace valer en las respuestas masivas; cuando consume no sólo adquiere un bien, también hace una elección que afecta el mercado. Pero atomizada como es la naturaleza de esta respuesta, el consumidor rara vez puede defender sus intereses y termina sujetándose a los dictados y acuerdos del mercado.

Por ejemplo, la estandarización de los programas es una necesidad vital para los usuarios y obedece a sus intereses conseguirla; a él le favorece que el intercambio de información sea “transparente”, independientemente del programa que se use. El interés de los fabricantes en cambio, es imponer su programa y en muchas ocasiones incluso obstaculizan concientemente el funcionamiento de los programas de la competencia [ver el multicitado juicio antimonopolio de Netscape contra Microsoft]. Así que cuando los fabricantes no se ponen de acuerdo y lanzan cada quien “su versión”, será el consumidor a través del mercado, quien definirá los resultados de esas batallas comerciales. Es el proceso que siguieron los fabricantes hoy prácticamente extintos, por ejemplo, de Wordstar y Wordperfect, que en su momento encabezaron la lista de preferencias de los consumidores mundiales, pero nunca buscaron un estándar de intercambio con otros programas. La batalla de los procesadores de textos terminó con la imposición de una sola herramienta que fue el Word e irónicamente los consumidores pagan hoy un alto precio por su elección: se han quedado sin opciones alternativas.

Sin embargo, la sociedad informatizada crea otros polos de poder porque el consumidor que sabe, el consumidor con conocimiento e información, también puede generar la mercancía que consume. Hablamos en este punto ya no sólo de consumidores, sino de usuarios.

Un valioso ejemplo de esto es el Linux, un sistema operativo que hoy es la principal competencia del Windows a nivel mundial. El Linux fue creado en 1992 por un estudiante finlandés llamado Linus Torvalds, quien compartió con otros usuarios su código fuente, de tal manera que una colectividad adoptó y modificó el Linux a su gusto. Después de muchos años y numerosas mejoras, el Linux se fue imponiendo como un robusto sistema operativo de redes, y además, en evolución constantemente. Hoy, millones de servidores de redes e Internet lo usan como un sistema operativo gratuito, pero sobre todo, adaptable a las necesidades de quien lo usa. Este concepto nuevo, de un programa que puede ser modificado a placer de quien lo utiliza, se conoce en el medio como “sistema abierto” en contraposición de los programas que no pueden modificarse [los sistemas propietarios] porque sus autores o dueños no publican su código y lo protegen con reservas legales y trucos tecnológicos. Es importante no confundir sistemas abiertos con gratuidad. Los sistemas abiertos también generan ganancias y empresas. Incluso algunas corporaciones trasnacionales como Sun, apoyan fuertemente estas tendencias de sistemas abiertos. Otras como Microsoft, defienden a muerte los copyrights y financian la lucha contra la piratería. La mayoría como HP, IBM, Dell, entre otros, oscilan entre ambas posiciones y en ocasiones producen máquinas con Linux o las sacan de circulación.

El resultado de la batalla de sistemas abiertos contra propietarios es del más alto interés de los usuarios y no podríamos asegurar de que lado va a inclinarse el desenlace, pero estamos seguros que el mundo informático sería otro, si todos los programas fueran modificables y adaptables a las necesidades de los usuarios. Sin embargo, la gran mayoría de los usuarios, no han tomado, ya no digamos posición, ni siquiera conciencia de estos sucesos.

En este mismo orden de ideas, debemos mencionar que la Universidad está una posición poco definida en cuanto este tema de los derechos de autor. Por un lado sigue los dictados del mercado y contribuye a la generalización de paquetería propietaria cuando la Universidad podría negociar compras masivas e institucionales, cesiones de licencias institucionales-educativas; y al fin una “compensación” por la promoción masiva de estos programas y por la creación de potenciales futuros usuarios-consumidores. Por el otro, su personal usa masivamente copias ilegales de software en sus computadoras. Una vía alternativa también que habría que estudiar más detenidamente, podría ser promover el uso de programas gratuitos como procesadores de textos, hojas de cálculo y demás, compatibles con Office. Existen muchos programas así.

Consumidor atomizado u organizacional

La Unidad Xochimilco no hace uso de su poder como consumidor principalmente porque no le ha interesado definir sus intereses como usuario corporativo. Ni siquiera cuenta con una política para la adquisición de equipo de cómputo, aunque el recientemente aprobado “Programa de Desarrollo Institucional 2003-2007” prevé a corto plazo [junio de 2003] establecer los lineamientos de inversión, actualización, resguardo y garantía de los recursos informáticos. Sin conocer dichos lineamientos [si es que ya existen], tocaremos el punto, creemos desde otro punto de vista.

Hay definiciones mínimas que es inconcebible no se hayan tomado antes. De manera planificada se deberían definir permanente y escalonadamente, cuales son las características básicas de máquinas para el usuario común. Generalmente los usuarios regulares se pierden en un mar de detalles técnicos y se les dificulta diferenciar [desde el punto de vista de rendimiento y relación costo/beneficio], entre una máquina con gigahertz aquí, de otra con gigabytes allá. Unas veces toman decisiones acertadas, otras no tanto.

Pero el punto a destacar aquí es que esas decisiones se toman a nivel departamental, y esta atomización impide lograr acuerdos con los proveedores que más nos convengan, pactar precios preferenciales y sobre todo, servicios adicionales [valor agregado] como asesorías especializadas, cursos de capacitación, mantenimiento, actualizaciones de equipo, etcétera.

Pero todo esto último no es factible bajo el sistema actual de adquisiciones. Éste funciona con un circuito cerrado de proveedores preaprobados y seleccionados por la Sección de Adquisiciones, de la Coordinación de Servicios Administrativos de la Unidad, que decide la compra. Es un sistema donde la lealtad[4] del proveedor es hacia el funcionario de Adquisiciones y no hacia los usuarios que van a usar el equipo. El tipo de proveedor es —así se le conoce en el medio informático— un “mueve cajas”: compra cajas cerradas que entrega también cerradas. Resultado: una vez hecha la venta, el proveedor se desentiende del problema y si el usuario no se sabe usar el equipo, compró un equipo sobrado o corto para sus necesidades, es problema del usuario. Él vendió lo que le pidieron.

Pero, en el mercado existe otro tipo de proveedores de valor agregado, es decir, que ofrecen un servicio adicional, con un costo extra. A diferencia del perfil del proveedor anterior, éste es un experto y puede resolver problemas y proponer soluciones. Son fuerzas del mercado que están siendo desaprovechadas por la Universidad, y sobre todo, de mayor importancia cuando estamos hablando de ser más usuarios que consumidores.

Finalmente, habría que preguntarse si también dentro de esta política de adquisiciones, no se podría favorecer la adquisición de equipo con mayor integración de componentes nacionales, como discos duros o monitores de manufactura nacional, que contribuyan en pequeña medida, es cierto, al desarrollo tecnológico del país. Aunque el centro de este tema está no tanto, en el poder adquisitivo de la uam, sino en el debate de ideas y propuestas para influir en las políticas públicas, no puede dejar de observarse que las políticas universitarias son parte de las anteriores, que como país nos pueden llevar a favorecer el desarrollo tecnológico.

IV. La Universidad, ¿forma consumidores o usuarios?

Pero la Universidad es campo de generación del conocimiento y puede generar fácilmente usuarios de tecnologías, no simples consumidores. La Unidad Xochimilco es la única de tres Unidades de la uam que no tiene una División de cbi y carece de una disciplina informática en su currícula, que pudiera ser el campo natural de donde extraer a sus usuarios avanzados para ocupar los diferentes puestos de asesoría tecnológica. Pero esa debilidad, puede ser también una ventaja, porque ha solucionado sus necesidades de especialistas reclutando especialistas de las propias disciplinas que abarca. Es decir, somos tal vez la única Unidad donde no tenemos que batallar para que el especialista técnico entienda el punto de vista de una disciplina ajena. Los departamentos de las distintas disciplinas de arquitectura, comunicación, sociología, diseño, biología, entre otras, tienen por lo general, un miembro académico de tales disciplinas como usuario avanzado de informática, algunas veces contratados como responsables de cómputo, otras veces en los profesores que tienden de manera natural a cumplir con ese papel de consultor/solucionador de problemas. Es de la mayor importancia para la Universidad, fortalecer este sector y propiciarlo, especializarlo y capacitarlo más. El pdi reconoce la necesidad de ampliar las plazas de responsables de cómputo, pero no acierta a ubicar que la clave radica en formar especialistas de entre las disciplinas propias de la unidad.

La formación de profesionistas en las diferentes disciplinas universitarias, plantea la necesidad de revisar sus formas de incorporación de la tecnología informática, no sólo en las diferentes currículas de licenciatura y posgrado —y por ende en la actualización del profesorado—, sino en los diferentes espacios del quehacer universitario: gestión académica, administración, servicios de información, investigación, etcétera.

Podemos hablar de un uso adecuado [y su apropiación individual y colectiva] de la tecnología informática si aunada a su adquisición y consumo se da:

• Una política universitaria encaminada a fomentar el desarrollo de las industrias y aplicaciones informáticas propias, locales y nacionales.

• Un equipamiento, actualización y renovación del equipo y paquetería de cómputo basados en criterios normalizados y regulados por una comisión ad-hoc multisectorial que genere los criterios mínimos de adquisición, desempeño, funcionalidad, componentes y costos, acorde con las necesidades de investigación, docencia, gestión y servicio.

• El desarrollo de metodologías didácticas propias, acordes al sistema de enseñanza, que enfaticen el uso racionalizado —basado en los procesos de investigación, diseño y realización de cada disciplina— antes que en la organización lógica por menús e instrucciones de la paquetería computacional.

• El impulso de un programa de cultura informática universitaria básica —para alumnos, profesores-investigadores y administradores— que contemple el uso informado [componentes internos y externos, su funcionamiento e interrelación], racional [¿para qué procesos, cuáles soluciones y técnicas?], organizado [administración y clasificación de la información para su consulta y referencia], distribuido [compartido en las áreas de interés], y en línea [accesible por dos ó más miembros de un equipo de trabajo al mismo tiempo para su construcción colectiva] de los recursos informáticos.

Es decir, que se incorpore la tecnología informática de una manera racionalizada en los diferentes procesos, áreas [organizacionales] y espacios [físicos] universitarios, que provoque el desarrollo de usuarios conscientes de las posibilidades y defectos de la tecnología informática, antes que consumidores guiados únicamente por lógicas de mercado y modas de consumo.

Ahora que el uso de la tecnología informática —junto con las nuevas tecnologías de información-comunicación, telemáticas y digitales— es considerada de per se benéfica —aunado a su valor simbólico de desarrollo y modernidad—, su uso no adecuado [indiscriminado, consumista y acrítico] presenta en los espacios universitarios, al igual que en el resto de la sociedad, efectos contraproducentes como: individualización, fragmentación del espacio colectivo, pérdida del sentido de pertenencia —por ende también pérdida en el sentido de compromiso colectivo— y reducción en el intercambio [simbólico y productivo] personal y de grupo.

Informática y docencia

Si bien se han empezado a impartir contenidos informáticos en los diferentes programas académicos, estos no han sido incluidos aún en las currículas; y su impartición es evidentemente [por su inmediatez] desde una metodología “paquetera”, antes que desde los procesos investigativos, cognoscitivos, creativos, objetuales y productivos de cada área de conocimiento. La metodología “paquetera” consiste en describir el funcionamiento de las aplicaciones informáticas [software], de propósito general y especializadas, a través de su interfase gráfica, menú por menú, e instrucción por instrucción, privilegiando la memorización de claves, atajos y “comandos”.

Una metodología más adecuada a los propósitos de cada área de conocimiento consistiría en apropiar por acercamiento los procesos lógicos de cada disciplina, a las lógicas de navegación y desempeño de los recursos y aplicaciones informáticas. Es decir, reaprender a hacer a través de la computadora, anteponiendo antes que nada los propósitos del conocimiento, sobre la base de una noción clara del funcionamiento del equipo computacional.

Este método de apropiación de una cultura informática básica debe contemplar:

• Evaluación preliminar de los grupos del grado de conocimiento informático, para responder efectivamente a sus requerimientos [trimestre a trimestre esta información puede variar, debido a la heterogeneidad de sus experiencias personales en este campo].

• Enfocar los esfuerzos iniciales a homogenizar el grado de conocimiento y experiencia del grupo. Provocar participación activa de los integrantes avezados.

• Visión crítica e histórica de los alcances, ventajas y limitaciones de la tecnología informática [incluso sus antecedentes filosóficos, biologistas, tecnológicos y científicos].

• Acercamiento al funcionamiento endógeno y exógeno de los recursos informáticos, mediante el seguimiento de los flujos de información y su desarrollo lógico [procesamiento, almacenamiento, envío-recepción, puesta en línea y consulta].

• Comprensión y habilitación en la utilización de las interfases textuales [ms-dos, unix, etc] y gráficas-iconográficas [windows, system-7, etc].

• Habilitación en los procesamientos de datos básicos: textos, bases de datos, hojas de cálculo, graficación, generación de presentaciones y procesamiento de imágenes [mapas de bits y vectores].

• Incrustación, embalaje, intercambio, consulta en sitio y remota de datos.

• Principios de multimedia y sus formatos [audio, animación y video].

• Instalación, configuración y optimización de los recursos y las aplicaciones informáticos —así como mantenimiento preventivo y correctivo básico— para y por los usuarios.

Una vez cubiertos los requerimientos formativos y de habilitación que propicien el uso adecuado de los recursos informáticos por parte de los usuarios —que habrían de generar las condiciones a su vez, para la optimización de los bienes y servicios disponibles— se estaría en el escenario propicio para desarrollar las lógicas de aproximación, navegación y tratamiento de la información para disciplinas específicas, con base en los procesos de cada área de conocimiento.

Así podríamos hablar de cursos de docencia asistida por computadora [ó de capacitación en el caso de educación continua] del tipo: estadística asistida por computadora para las ciencias sociales y no de cursos de spss; cursos de métodos y técnicas para la preparación de informes y reportes académicos antes que cursos de word; cursos de diseño de publicaciones antes que cursos de pagemaker, etcétera.

Autoría-puesta en línea. Una de las capacidades aún no aprovechadas de la tecnología informática es la que tiene que ver con la factibilidad del trabajo autor-puesta en línea [authoring]. Esta técnica consiste en aprovechar al máximo los recursos informáticos ya instalados en la mayoría de las computadoras de uso personal ó escritorio, para producir —bajo criterios básicos e institucionales de edición y con auxilio de utilerías accesibles— material textual [didáctico, organizacional, investigativo y de difusión] en cualesquiera de los formatos informáticos en uso: publicaciones portables, interactivas, en CD y para internet, intra o extranet, entre otras. La Universidad puede facilitar el espacio virtual en sus equipos servidores, para la publicación de estos materiales; además de la validación institucional correspondiente, vía los comités editoriales y las comisiones dictaminadoras entre otros mecanismos.

Este proceso de “autoría-puesta en línea” lo empezamos a observar en el ámbito institucional cuando en 1988 se editó y produjo el primer libro con tecnología de edición de escritorio ó autoedición [desktop publishing] en el Departamento de Relaciones Sociales [coord. Arturo Anguiano; La transición democrática; uam, México, 1988. 194 pp]. Hasta ese momento el aparato de edición-producción había permanecido centralizadamente en la estructura organización de la Rectoría de la Unidad. El uso de este herramental informático permitió un mejor control, ahorró costos de producción y tiempo [no ausente de vicisitudes propias de la instalación de un nuevo sistema de gestión-producción]. El uso de la autoedición es ahora lugar común en los espacios universitarios.

La habilitación para el uso de los recursos informáticos en la producción de material textual en línea, por parte del personal académico, así como la participación en colectivos virtuales en línea y la distribución abierta interactiva de la data producida por el profesorado e investigadores requiere construir una propuesta desde la universidad de una cultura informática, crítica, no dispendiosa e informada [apropiada].

La oferta editorial en línea. A través de la internet y con base en un programa de difusión, se puede acercar la oferta editorial producida en la Unidad, al mismo tiempo que el acervo editorial externo. Asimismo, habría que generar un programa de difusión vía el correo electrónico, sobre las novedades editoriales a los posibles compradores internos y externos. [Adicionalmente, es posible fomentar la adquisición del material depositado en la Librería de la Unidad, a través de la instrumentación de crédito para alumnos, profesores y trabajadores administrativos.]

Ejemplares sobre demanda. Otra forma de aprovechar la tecnología informática es con la creación y reconocimiento de la producción editorial sobre demanda. En ésta se aprovechan los recursos informáticos existentes [escáner e impresoras láser de alta velocidad] aunados a sistemas de encuadernación de escritorio [encuadernadoras térmicas y de arillo metálico] para manufacturar tirajes cortos de publicaciones que no requieren alto tiraje, sin que ello implique dejar de lado los procesos editoriales de validación. [En este punto se hace necesario revisar los costos de manufactura de los tirajes cortos, a través del proceso offset ahora en uso, pues al pasar de tiros de 1,000 ejemplares —en promedio— a 500 no se reduce con ello al 50% el costo. Por lo que finalmente cada ejemplar resulta más caro, y por lo tanto el precio al público resulta mayor, desincentivando directamente su adquisición.] Al mismo tiempo, habría que impulsar el uso del CD interactivo como formato económico para la difusión de libros y publicaciones periódicas; con la posibilidad de su impresión personal, en su totalidad ó por partes.

No está de más mencionar que el mismo proceso de monopolización-estandarización que hemos hablado antes, se observa ahora en el desarrollo de Internet, pues si bien originalmente su propósito abierto de intercambio universitario —primordialmente en áreas de investigación y compartición de bancos de datos, a través de las soluciones “http-html” [protocolo de transferencia de hipertextos-lenguaje de marcaje de hipertextos]— se ha venido desarrollando lentamente [aunado a crecientes propósitos comunitarios y autogestionarios de la sociedad], las aplicaciones comerciales y de entretenimiento están empujando la adquisición de soluciones “multimediáticas” de alto impacto visual, de marca registrada y de alto consumo de recursos informáticos [p. ej. las animaciones desarrolladas con “Flash” de Macromedia, que obligan a quienes deseen consultar su contenido a su adquisición bajo contrato. Este tipo de adquisiciones no necesariamente pecuniarias en un primer momento, conllevan muchas veces la obligación al consumo de material publicitario y/o a la cesión del control, inicialmente parcial, de los recursos de la computadora personal en la cual se instala]. Por ello, se hace necesario impulsar desde la Universidad una concientización en el uso de estándares abiertos en el diseño de páginas web [bajo el uso universal de html], para que éstas puedan ser accesibles para cualquier tipo de equipo, en cualquier momento y en cualquier punto intra y extramuros.

Por otro lado, en este medio el desarrollo tecnológico ha abierto la posibilidad de construir experiencias de televisión y radio, comunitarias, alternativas, estudiantiles y de divulgación, ¿por qué no aprovecharlas? Si bien es cierto el uso del internet es aún limitado en la mayoría de la población, podrían habilitarse por lo pronto, espacios de acceso abierto para su consulta.

VII. Finalmente

Para terminar, este proceso de convertirnos en usuarios pasa principalmente por una constante capacitación. No solamente en el sentido de cursos formales, sino orientados a satisfacer las inquietudes de los usuarios, de tal manera que se empiecen a plantear otras nuevas inquietudes. Se trata que el universitario pueda plantearse usos más jugosos de la tecnología, como simulaciones, bases de datos, búsquedas avanzadas, minería de datos, etcétera. Actualmente el uso de la tecnología es bajo las viejas formas de trabajo: la computadora mayoritariamente en la Universidad se usa como máquina de escribir, se trabaja de manera aislada, no se respalda la información, ya no pensemos que se almacena en una colección de informaciones tipo data warehouse.[7] En resumen, no se interactúa de manera eficiente con la tecnología. Debe darse este paso que nos permita superar la etapa actual donde los problemas del usuario ya no sean como recuperar información que no se respaldó, cómo copiar un archivo o qué hacer para erradicar un virus. Es tiempo que la tecnología nos haga pensar en otros problemas.

VII. Bibliohemerografía

Aréchiga, Uriel; “La tecnología y el progreso-desarrollo”, en Topodrilo, n° 16; México, 1991; pp. 58-62.

Bajar, Victoria R. y Guillermo Levine; “El desarrollo de la computación y de la informática en México: formación académica y planes de estudio”, en Ciencia y Desarrollo, n° 74; México, mayo-junio 1987; pp. 173-177.

Carriedo, Luis Miguel; “Sociedad de la información, utopía humanista: Mattelart”, entrevista en Zocalo. Comunicación, política y sociedad, n° 40; México, junio 2003; p. 3.

Cheek, Martin; “Imprentas de escritorio”, en Personal Computing, n° 55; México, 1992; pp. 50-64.

gdf; “Consumo cultural, acceso a la información y cultura urbana”, en La ciudad de México hoy. Bases para un diagnóstico; gdf-Feecime, México, 2000; pp. 97-111.

Kerlow, Issac Víctor; “Animación tridimensional de imágenes por computadora”, en Ciencia y Desarrollo, n° 57; México, julio-agosto 1984; pp. 17-23.

Lederman, León; “Interrogantes al pizarrón: ¿Adiós a la física? ¿Estudiantes virtuales?”, en Día siete, n° 49; México; pp. 39-45.

Miguel, Pedro; “Internet: utopía finisecular”, en Viento del Sur, n° 9; México, primavera 1997; pp. 55-56.

Monedero Isorna, Javier; “Sobre algunos conceptos fundamentales en la evolución de la informática”, en Aplicaciones informáticas en arquitectura; Ed. Alfaomega, México, 2001; pp. 21-54.

Saéz A., “Globalización y autonomía universitaria”, en Umbral. Ciencia, tecnología, humanidades, n° 11; uam, México, julio 2001; pp. 20-25.

Turrado Saucedo, José, et al; “Panorama de la industria [del papel] en México”, en Ciencia y Desarrollo, n° 118; México, septiembre-octubre 1994; pp. 37-45.

Wooley, Benjamin; “Ciberespacio”, en Topodrilo, n° 39; México, mayo-junio 1995; pp. 16-22.

Zaid, Gabriel; “La superación tecnológica del libro”, en Libros de México, n° 43; México, abril-junio 1996; pp. 11-14.

Zavala Mejía, Genaro; “El enigma de la autopista de la información”, en Revista académica, n° 5; ipn, México, septiembre-octubre 1996; pp. 33-43.



[1] En 1965, cuando preparaba una conferencia, Gordon Moore cofundador de Intel [que en ese tiempo todavía no existía], notó que hasta ese momento la capacidad de los microchips parecía duplicarse cada año. De allí nació la llamada “Ley de Moore”, que es una ley no escrita, pero que ha funcionado para prever el ritmo de crecimiento de los microchips en particular y de la informática, en lo general.

[2] Por ejemplo, Windows XP necesita el doble de memoria [128 mb] y mejor procesador [arriba de 1.5 gigaherts] que su antecesor Windows 2000, que requiere a su vez el doble de memoria [64 mb] y mejor procesador que Windows 98, que a su vez necesita el doble de memoria [32 mb] y mejor procesador que el Windows 95 que corre óptimamente con 16 mb de memoria sobre una Pentium I a 300 mhz. Y sin embargo ¡todos los Windows pueden técnicamente correr los mismos programas!

[3] Esta aserción es evidentemente parcial, pues solamente mira desde el consumidor y pasa por alto los procesos desde el ámbito productivo.

[4] Cuando se habla de lealtad de ninguna manera se esta insinuando actos de corruptela, sino se habla de la actitud cultural del vendedor que buscará complacer los deseos del funcionario de Adquisiciones, sin importarle realmente los deseos del usuario final. Es finalmente este funcionario, quien toma la decisión de a quien se le compra.

[5] Estas ideas no son originales nuestras, las está poniendo en práctica el profesor Fernando Chávez del departamento de Economía de la uam-Azcapotzalco en su área de adscripción.

[6] Hemos visto frecuentemente, como cuando se quiere enviar archivos vía Internet, se mandan como archivos pegados [attachment] a un correo-e. Esta forma es muy ineficiente, sobre todo, porque los archivos se dañan con facilidad y no llegan o no se pueden abrir. Desde el mismo origen del e-mail existe un medio llamado ftp [file transfer protocol], cuya función es enviar archivos. Fácilmente puede manejar archivos de 10, 20 o 100 mb si se quiere. No existen razones técnicas para que los usuarios sufran cuando envían archivitos de más de 1 mb.

[7] Base de datos de elementos dispersos, como son todos los documentos que se producen a diario en la universidad, protocolos de investigación, escritos, etcétera, pero sistematizados de tal manera que pueden buscarse y ser entonces, consultados por un tercero que ignoraba su existencia.