FUNCIÓN HOMEOSTÁTICA DE LA COMUNICACIÓN

(ENTROPÍA - NEGENTROPÍA COMUNICATIVA)

 

 

Rafael R. Huertas

 

 

Texto originalmente publicado en 1998. Reeditado en 2011


portada

 

ÍNDICE

 

Introducción


Parte Primera. Términos.
Conceptos Básicos para una Teoría desde la Comunicación

I. Homeostasis
Concepto de Homeostasis. Predecesores
Claude Bernard
Cannon y la Homeostasis
Repercusiones en la Comunidad Científica
Fletcher. La Conciencia
Psicologismo Reduccionista
Behaviorismo. Hull
Psicoanálisis y Homeostasis
Primeras Conclusiones.
Homeostasis y Cambio Social
Homeostasis en la Percepción
Contrahomeostasis
Ashby - Priban

II. Feedback
Homeostasis y Feedback
Origen y Definiciones
Organismo y Feedback
La difícil frontera en el Feedback

III. Cibernética
Origen y Definiciones
Aparición del Pensamiento Cibernético
Implicaciones de la Cibernética.
La Cibernética en la actualidad

IV. Sistémica
Raíz Físico-Química (Empírica) de la Sistémica
¿Sistémica o Teoría de Sistemas?
Definiciones
Relativismo Sistémico. Subsistemas
Relativismo Sistémico. No Sumatividad
Nuevo Paradigma
Sistémica y Comunicación

V. Entropía y Negentropía
Entropía y Revolución Industrial
Significación e Implicaciones
La Entropía contestada: Negentropía
Extrapolaciones
Teoría de la Información
Deficiencias en la Teoría de la Información
Comunicación y Entropía (-Negentropía)

Parte Segunda. Máquinas.
Función Homeostática de la Comunicación.Entropía-Negentropía Comunicativas

VI.Homeostasis y Máquinas de Comunicar
Máquinas
Tecnología y Comunicación
Equilibrio individual - Equilibrio global
Génesis Homeostático de las Máquinas de Comunicar
La cámara obscura
Uso didáctico. Kircher
Siglos posteriores

VII. Entropía-Negentropía y Máquinas de Comunicar
Redes de Comunicación
Comunicación a distancia
Red óptica en Europa: el caso español
Modelo económico en cambio
Entropía-Negentropía en la prensa
Relación sistémica
Creación y desequilibrios
Póiesis y Máquinas

Parte Tercera. Redes (Seres).
Comunicación y Realidad. (Notas para una Filosofía desde la Comunicación)

VIII. La Sociedad Cibernética
Redes
Inteligencia de Red
Conexiones
Prensa Electrónica
Desregulación en la Aldea Global
Internet / Online
Internet. Definiciones y Aproximaciones
Internet. Origen. Los SIPP

IX. Ciberespacio y Comunicación
Ciberespacio
Hacia el espacio virtual
Hipertexto
Implicaciones
La máquina virtual (siempre maquinante)

X. Comunicación y Realidad
Realidad Virtual
Definición aproximatoria
Origen y otros conceptos.
Presencia y Telepresencia
El espacio de Comunicación
La Realidad como Categoría de Contacto
Hacia una filosofía de la realidad


Referencias Bibliográficas

 


 

INTRODUCCIÓN

El libro que tiene en sus manos es simultáneamente una indagación y una propuesta en el ámbito de la Teoría de la Comunicación. Y ello porque el desarrollo de las comunicaciones, en su vertiente más práctica, está imponiendo de facto nuevos marcos comunicativos, impensables tan sólo hace unos años.

Los tres grandes Media clásicos -Prensa, Radio y Televisión- han cedido, están cediendo paso a una multitud de nuevos medios cuya importancia cualitativa y, cada vez más, cuantitativa, resulta obvio.

Cuantitativa, porque a falta de la ultimísima estadística de incidencia sobre la población de tal o cual producto (siempre al alza), los volúmenes de negocio, las millonarias cifras con las que se operan, las cantidades de dinero en circulación son con mucho superiores a las manejadas sectorialmente a lo largo de la revolución industrial del pasado siglo.

Cualitativa porque plantea a la sociedad un abanico de problemas y situaciones (como, por ejemplo, los de índole ético o jurídico) nunca antes abordado.

Estos nuevos sistemas de comunicación de los que por citar sólo algunos mencionaríamos la comunicación por Satélite o por Cable, la Televisión Digital, la Telefonía inalámbrica, la propia Internet, y por supuesto la Realidad Virtual, realmente están imponiendo unos nuevos marcos, unos nuevos límites en la comunicación, capaces de alterar (en su sentido de modificar, de cambiar aquello que pueda ser cambiable en) el conjunto de las relaciones en el seno de una sociedad dada.

De estos nuevos marcos comunicativos massmediáticos presentes ya a nivel empírico en las sociedades humanas hay que dar cuenta teórica. Esta libro, al menos, lo pretende.

Para ello se ha adoptado un óptica a la que, simplificadamente, podemos llamar sistémica. La aparición de los nuevos elementos de -y para- la comunicación mencionados antes, convertían en prácticamente obligado la adopción de dicho punto de vista.

Y esto porque el imparable ascenso de la informática, ostentosamente visible en estos últimos tiempos, no está, no queda limitado simplemente al parque de ordenadores más o menos extenso disponible en una sociedad en un momento dado.

Por el contrario la informática afecta -está integrada en mayor o menor medida, pero siempre en alguna medida- a todos y cada uno de los elementos de comunicación mencionados con anterioridad. Y no sólo a ellos. Su presencia en la sociedad es realmente abrumadora, aunque lo sea de una forma poco visible. De hecho, la informática en la actualidad está presente en casi todos aquellos aparatos que realicen algún tipo de movimiento.

Éste, el movimiento, que durante siglos ha sido controlado de una manera mecánica, ha dado paso, inicialmente a principio de siglo, a un control eléctrico, para, a renglón seguido, a finales, llegar a un control de tipo informático.

Lavadoras, Máquinas de coser, Máquinas de escribir, Máquinas para disparar, Cámaras fotográficas, Máquinas portátiles para expender billetes, lavaplatos, lavavajillas, secadoras, hornos, centrifugadoras, y un largo etcétera que abarcaría incluso a bicicletas de lujo, incorporan chips informáticos de control, es decir de gestión, de gobierno.

En la fundamentación teórica de estas nuevas formas de comunicar, de estas nuevas formas de relación, se encuentra la Cibernética o lo que es lo mismo la Sistémica. La primera, -el primer término- para referirnos al campo concreto de aplicación de nuevas tecnologías; la segunda, -el segundo término- para referirnos a la perspectiva teórica aplicable a cualquier saber, a cualquier techne o ciencia.

La importancia de la cibernética, y por lo tanto de la sistémica, en la implementación de estas nuevas formas de comunicar, convierte en inevitable este camino teórico emprendido en el campo de la Communication Research.

-------------------

La hipótesis inicial de este trabajo, partió de considerar que la comunicación -cualquier comunicación, y en especial la de masas- cumplía una función homeostática en su acepción generalizada de anclaje, de apaciguamiento, de equilibrio, y que esto se conseguía mediante la (co)participación en un lugar común, en un sentido de la realidad común a los comunicantes.

Me resultaba evidente que, por mucho control de los medios de comunicación que hubiera en la naciente sociedad de masas de los años veinte y treinta, la propaganda, pongamos nacionalsocialista, no llegaba, no podía llegar, a determinados sectores de la sociedad si estos no participaban, aunque fuera en algunas mínimas claves, de ese discurso ideológico, o lo que es lo mismo, si su sentido de la realidad fuera otro. (Y aun en el caso de que el monopolio de los mass media fuera absoluto -como así acabó ocurriendo- subsistieron círculos resistentes en la propia Alemania a pesar de todo)

Expresado con palabras de Umberto Eco (1985), es decir con su discurso, si la influencia de la televisión fuera tan determinante en el seno de una sociedad, si el efecto de su propaganda, de su proclamación de ideales fuera tan rotunda, toda la sociedad italiana de los años cincuenta y sesenta hubiera acabado rezando el rosario democristiano y familiar. No fue así por supuesto, porque, además de no ser la TV un monopolio de comunicación absoluto (periódicos, y la propia interrelación personal le hacían la competencia), era fundamental una mínima (co)participación en un sentido de la realidad determinado, y una buena parte de la sociedad italiana no estaba por esa 'realidad' ideológica.

Por lo tanto, resultaba claro para mí al inicio de la investigación que el ámbito de la realidad experienciable cumple un papel radical en dicho intento reequilibrador. Pero, nada más iniciar una mínima indagación previa en torno a estas dos ideas básicas, antes incluso de empezar a escribir, comprendí que era necesario poner de manifiesto la imposibilidad reequilibradora en términos absolutos. Ya el propio Cannon había utilizado expresamente el neologismo homeostasis para poder obviar así otro concepto con el generalmente va asociado, el de equilibrium, descartado como impropio de lo que él quería expresar.

Tenía pues, una contradicción entre manos (equilibrio-desequilibrio), junto a una realidad que no era uniforme. Poner en conexión estos tres elementos (equilibrio, desequilibrio y realidad movediza) ha sido el objetivo.

Para poder mostrar el papel homeostático de la comunicación en su relación con la realidad, era preciso que utilizara un hilo discursivo en el que conceptos como Cibernética, Retroalimentación, Sistema y Entropía (junto con su antítesis Negentropía), iban a tener una especial relevancia. La aclaración y explicación de los conceptos mencionados resultaba pues fundamental para una mejor posterior comprensión del discurso en sus siguientes fases.

Así pues, podemos decir que el libro contiene un desarrollo investigador en tres fases.

Una primera que consistiría en la delimitación y discusión de los cinco conceptos básicos mencionados, siempre en relación al hecho comunicativo y a la propuesta nuclear del libro, y en la que también se pone de manifiesto la profunda imbricación entre todos los conceptos utilizados.

En la segunda fase, constituida por los Capítulos VI y VII (Máquinas), se intenta demostrar, mediante aportaciones históricas, el doble papel (homeostático/entrópico-negentrópico) que cumple la comunicación, insistiendo más en el papel reequilibrador de las máquinas de comunicar en el primer capítulo y reservando para el siguiente el efecto contrario. Al mismo tiempo se muestra que el doble papel reequilibrador-desequilibrador es constitutivo de la propia máquina (o techne).

Y finalmente en la tercera, Capítulos VIII, IX, y X los elementos comunicativos presentes en la naciente sociedad del siglo XXI, digamos las tecnologías de vanguardia, Redes, Realidad Virtual, etc, -de las que se ofrecen una caracterización genérica- nos permiten reafirmar el doble papel congregante /dispersivo que inevitablemente tienen, así como su vinculación al propio concepto de realidad, de cuya naturaleza se realiza una reflexión en profundidad, permitiendo con ella hacer frente a las prácticas comunicativas del nuevo milenio.

 





Parte Primera. Términos





Conceptos Básicos para una Teoría desde la Comunicación


I. HOMEOSTASIS


Todas las partes del organismo forman un círculo. Por lo tanto, cada una de las partes es tanto comienzo como fin.

Hipócrates


Concepto de homeostasis. Predecesores

Del griego homoios, semejante, similar, y stasis, condición, surgirá el neologismo homeostasis, similar estado o condición. El término fue usado por primera vez por Walter B.Cannon en 1926 en un trabajo de alcance sectorial acerca del organismo humano (Cannon, 1926). Sin embargo no es sino a partir de 1932 cuando el concepto empieza a introducirse en el mundo académico gracias a la publicación del ahora clásico The Wisdom of the Body (Cannon, 1932), y ello a pesar de que otros conceptos o ideas semejantes habían sido ya utilizados por otros investigadores como Pflüger (1877), Fredericq (1885), Richet (1900), C.P. Richter (1927), y sobre todo el fisiólogo francés del pasado siglo Claude Bernard (1859 y 1878).

El primero mencionado, Pflüger, reconoció los naturales ajustes conducentes hacia el mantenimiento de un estado estable en los organismos cuando aseveró: «La causa de cada necesidad de un ser viviente es también la causa de la satisfacción de esa necesidad» (Pflüger, 1877, 57). Por su parte Fredericq yendo un poco más lejos afirmó que «el ser vivo es un agente de tal clase que cada influencia disturbadora induce por sí misma a la aparición de una actividad compensatoria que neutralice o repare esa perturbación. Cuanto más alto en la escala de los seres vivos, más numerosos, más perfectos y más complicados resultan ser esos agentes reguladores. Ellos tienden a liberar completamente al organismo de los cambios y de las influencias desfavorables que ocurren en el entorno» (Fredericq, 1885, 35). Esta larga cita constituye toda una declaración de principios premonitoria de la, aunque presumible (se efectúa en plena II Revolución Industrial) no por ello menos sorprendente, actividad inventiva del ser humano durante todo el siglo XX y que nos ha conducido a la Era Eléctrica (en el decir de McLuhan, 1969b) y a la Sociedad de la Comunicación (en el decir de todos) de la que hablaremos más adelante (capítulos 8 y 9).

Pero limitándonos al campo de lo estrictamente biológico en cuyo contexto fue formulada, aún hemos de aludir a un par de autores con los que Cannon se siente en deuda.

Richet, en 1900, veía claro la naturaleza biológicamente contradictoria del ser vivo, y aun afirmando el carácter estable del mismo «a fin de no ser destruido, disuelto o desintegrado por las fuerzas colosales, a menudo adversas, que le rodean», no dejó de reconocer que esa estabilidad estaba estrechamente ligada a una inestabilidad inherente al organismo (cualquier organismo) de suerte que «Por una aparente contradicción mantiene su estabilidad sólo si es excitable y capaz de modificarse a sí mismo [...]. En cierta forma es estable porque es modificable, siendo la inestabilidad la condición necesaria para la verdadera estabilidad del organismo» (Richet, 1900, 721).


Claude Bernard

Sin embargo, a pesar de la importancia que estas afirmaciones tienen de cara a la elaboración final del concepto de homeostasis, es hacia Claude Bernard por el que Cannon se siente más reconocidamente deudor, ya que a él «pertenece el crédito de ser el primero en dar a estas ideas un análisis más preciso» Cannon, 1929, 399).

En efecto, la figura de Bernard [teórico de la ciencia experimental y personalidad destacada del positivismo del siglo XIX (Uscatescu, 1978, 143)], familiar a cualquier estudiante primerizo de cualquier Facultad de Medicina, pasa por ser el punto de inflexión por el que la Fisiología adquiere el rango de Ciencia Positiva. Su metodología empírico-analítica permitió abrir camino a esta nueva manera de ver las cosas por medio de la cual va a ser posible ligar, como ya hemos visto, a lo externo con lo interno en el campo de la naturaleza orgánica. Sus investigaciones le llevaron al descubrimiento y a la formulación de un nuevo concepto científico (aceptado por la comunidad científica) como es el de Milieu Interne ou Intérieur (Medio Interno) por el que en una sola expresión se intenta designar a todo el vasto conjunto de fluidos que «bañan» al organismo. Este medio interno, o fluid matrix como lo llama Cannon, es fabricado y controlado por el propio organismo de tal manera que el logro de una mayor independencia y libertad respecto de los cambios en el mundo exterior se consigue precisamente gracias al poder preservar en estado uniforme (temperatura, cantidad, densidad, etc.) el propio mundo interior frente los cambios circunstanciales del mundo exterior (Cannon, 1929, 400). Para Bernard «es la fijeza del 'mundo interior' lo que constituye la condición para la vida independiente y libre» (Bernard, 1878, 113), y aunque ésta no sea plenamente realizable sí puede sin embargo afirmar que «todos los mecanismos vitales, por variados que sean, no tienen más que un objeto, el de mantener la unidad de las condiciones de vida en el medio interno» (Bernard, 1878, 121).

Como ya hemos visto, el concepto de Medio Interno, un concepto limitado a un ámbito muy específico de lo fisiológico (el de los fluidos), permitía sin embargo ricas sugerencias y extrapolaciones como las de Richet y Fredericq, hasta el punto que la idea misma sugería como referente, en el propio Bernard, a todo el conjunto de un organismo, al todo orgánico de una unidad vital. Faltaba sólo dar el paso conceptual que vinculara sistemáticamente al organismo, entendido como un todo, con el medio exterior. En la década de los años veinte de este siglo, la cuestión estaba lo suficientemente madura como para que pudiera ser posible efectuar este paso. De hecho fue efectuado casi simultáneamente por C.P. Richter y el propio Cannon.


Cannon y la homeostasis

El primero, Richter, abordó en 1927 la problemática del reequilibramiento de los seres vivos en un artículo titulado «Animal Behavior and Internal Drives», en el que vinculaba el comportamiento de los animales al estado de su Medio Interno. Pero será el segundo, Cannon, quien un año antes, (1926, p. 91) ya había sugerido un término único (homeostasis) como forma de designación específica para referirse al vasto conjunto de fenómenos reequilibradores que se producen el organismo.

La fortuna de este neologismo probablemente es debida no sólo a su claridad y simplicidad conceptual (que nos permite transmitir una realidad compleja mediante el uso de un solo término), sino al hecho mismo de ser una palabra nueva que explica una nueva manera de ver las cosas en relación con un aspecto de la realidad. No importa si Bernard ya adelantara lo que poco más de medio siglo más tarde diría Cannon. Él no puso en circulación un término nuevo con el que expresar de forma incisiva y rotunda un modelo de pensamiento.

Conforme a la definición del propio Cannon (1932, p. 24) la homeostasis no es otra cosa que «los procesos fisiológicamente coordinados que mantienen la mayor parte de los estados estables [steady states] del organismo». Estos procesos, propios de los organismos vivos, son descritos como complejos por naturaleza «involucrando al cerebro y los nervios, el corazón, pulmones, riñones y bazo, todos trabajando cooperativamente». Previamente, Cannon ya había rechazado designar a estos «procesos fisiológicamente coordinados» con el término equilibrium, por considerar que «ese término tiene un significado correcto cuando es aplicado a estados fisicoquímicos relativamente simples en sistemas cerrados», lo que no es el caso puesto que «el altamente desarrollado ser vivo es un sistema abierto que tiene multitud de relaciones con su entorno,..» (Cannon 1929, 400).

Cannon defendió el neologismo por él propuesto afirmando que, aunque el término stasis podía implicar algo inmóvil y fijo, también significa una «condición», y en ese sentido y no en ningún otro era como había de ser entendido. Con respecto a homeo, la forma abreviada de homoios, Cannon sostiene que es preferible a homo «puesto que la primera indica 'semejante' o 'similar' y admite alguna variación, mientras que la última, teniendo el significado de 'mismo', indica una constancia fija y rígida» (Cannon 1929, 401). Está claro entonces que para Cannon «la palabra no implica algo establecido e inmóvil, un estancamiento. Significa una condición que puede variar pero que es relativamente constante»[1] (Cannon, 1932, 24).

Desde el punto de vista de nuestro análisis, y de las propias palabras del propio Cannon, cabe deducir que el concepto de homeostasis tal y como fue concebido por su creador implicaba no sólo la estabilidad («relativamente constante») sino también el cambio («condición que puede variar») de suerte que podría decirse que el término es un típico descriptor antinómico capaz de sugerir simultáneamente dos cosas al mismo tiempo, el cambio y la estabilidad siendo las más evidentes, pero también la unidad y la multiplicidad: la unidad que existe en un ser vivo y que permite «no ser destruido, disuelto o desintegrado por las fuerzas colosales, a menudo adversas, que le rodean»(Richet, 1900, 791), y también la multiplicidad implícita en el devenir de esa propia unidad vital.

Así, no es por casualidad que Cannon considerara el cuerpo humano como un «sistema abierto [donde]...la constancia es en sí misma una evidencia de que hay agentes que están actuando o listos para actuar a fin de mantener esa constancia» (Cannon, 1932, p.281). Esta sorprendente referencia avant la lettre del cuerpo humano como «sistema abierto» (expresión típica de la Sistémica) sólo puede entenderse en la medida en que Cannon, como cualquier otro biólogo o naturalista, además de considerar al cuerpo como un elemento vivo rodeado de un entourage con el que se relaciona y por el cual es influido (ver más arriba), también constituye un proceso vivo, con sus correspondientes fases de nacimiento, evolución y muerte, y en consecuencia «abierto» a esa evolución natural ya descrita en la que la condición homeostática es simultáneamente la garantía de su estabilidad y de su desarrollo.

Por último, respecto de Cannon, de entre los muchos elementos que éste destaca como susceptibles de desencadenar la autoregulación homeostática, hay un par de ellos que sí tienen una directa conexión con el objeto de nuestro estudio: la Homeostasis en la Comunicación. Me refiero a lo que Cannon llama «las funciones homeostáticas del hambre y la sed» (Cannon, 1929, pp. 417-418), por las que el organismo es animado, incitado u obligado, a un determinado comportamiento, que inevitablemente adquiere una dimensión comunicativa en el caso de los seres humanos debido a la naturaleza intrínsecamente social de éstos. Cannon no se preocupa si los actos, las acciones, a las que la regulación homeostática dan lugar, son de carácter voluntario o no. De hecho considera que «es deseable desplazar de la fisiología términos [como los anteriores] que tengan unas implicaciones psicológicas o botánicas» (Cannon, 1929, 422). Para él, todo tiene un carácter automático (teleológico, diríamos nosotros), y sólo cabría hablar de una distinción entre las actividades que ponen en juego a los exteroceptores (sentidos externos si se quiere una definición rápida de éstos), y las actividades que ponen en juego a los interoceptores (sentidos internos). Los primeros dan lugar a lo que Cannon llama actividades exteroafectivas, mientras que los segundos estarían dentro de lo que podría llamarse sistema interoafectivo dentro del cual tienen lugar las actividades interoafectivas. Pero, es importante subrayar que para Cannon, tanto unas como otras guardan una íntima relación y conexión, de suerte que la distinción es sólo puramente analítica, siendo las unas las desencadenantes de las otras, y viceversa (Cannon, 1929, 422-423). Por lo tanto, aunque se suele vincular a las actividades exteroceptoras con las actividades voluntarias (porque ambas están fundamentalmente controladas por el Cortex), sin embargo, para Cannon, «los reguladores homeostáticos actúan [siempre] de una manera automática», es decir independientemente de la voluntad (Cannon, 1929, 422).


Repercusiones en la comunidad científica

En el terreno de la Biología el concepto fue asumido casi de inmediato por toda la comunidad científica correspondiente, y con enorme rapidez su campo de acción se extendió a toda clase de mecanismos somáticos en funcionamiento, de suerte que «ahora no puede restringirse [su uso] a un sólo mecanismo o actividad» (Dempsey, 1951, p. 229). Pero fue en el campo de la Psicología donde el concepto se reveló especialmente útil y donde en cuestión de poco tiempo alcanzó un vasto desarrollo teórico.


Fletcher. La conciencia

La primera inflexión en el alcance y significado del concepto de homeostasis vino de la mano de J.M. Fletcher en l942, en un pequeño artículo de poco más de siete páginas. Éste partiendo del «actual concepto de cuerpo-mente como un todo orgánico» vio con claridad que «hay una base para asumir que los hallazgos de Cannon tienen unas implicaciones en verdad importantes para la Psicología como las que ya tienen para la Fisiología» (Fletcher, 1942, p. 81). Partiendo de esta premisa, Fletcher señala que el campo de la homeostasis abarca también a la Conciencia de tal manera que ésta puede anticiparse a los trastornos físicos que originariamente (en el ámbito restrictivo de la Fisiología) eran contemplados como los agentes que ponen en marcha los mecanismos homeostáticos (Fletcher, 1942, p. 84 y ss.). De esta manera la Conciencia pasa a ser por sí misma un agente homeostático susceptible de generar un comportamiento anticipativo.

Este papel de la Conciencia, que también abarca a los estados adquiridos (es decir a la cultura), poco o nada tiene que ver (en la opinión de algunos autores como Toch y Hastorf) con las pruebas aportadas por Cannon acerca de la inclinación que tiene el organismo a ingerir cantidades de líquido o comida a fin de reestablecer substancias sanguíneas al nivel adecuado. Para ellos, el concepto de homeostasis tal y como es formulado por Fletcher es «un nuevo concepto, no una aplicación de uno ya establecido» (Toch y Hastorf, 1955, p. 82).

Sin embargo, pese a que la inflexión es importante (nada menos que el salto a la conciencia), a pesar de todo, considero que Fletcher no hace otra cosa que llevar hasta sus últimas consecuencias lo que Cannon aparentemente limita al ámbito de lo maquinal, de lo automático, es decir, en última instancia, al ámbito de todo aquello que tiene su origen en lo genético. Y digo que Cannon 'aparentemente' lo limita, puesto que ese ámbito (lo genético) también incluye (aunque Cannon no lo haya explicitado) toda nuestra actividad cerebral posterior, aquella que, basada en nuestra capacidad sináptica, en nuestra capacidad neuronal, es, en definitiva, la causa de nuestro pensamiento.

Naturalmente, algo tan ambiguo como 'lo genético' no basta por sí mismo para producir cultura y pensamiento cultural. Ni siquiera es susceptible de producir lenguaje (nos encontraríamos, en ese caso, con algo inexistente, como es el «bebé chomskiano» [2]). Para que todo esto surja, es preciso la existencia de la sociedad, o lo que es lo mismo de un sistema abierto formado por unidades a las que el propio Cannon también considera como 'sistemas abiertos': los seres humanos. En ellos es posible la conciencia de sí, o simplemente la conciencia a secas; aquella que le permite a Cannon desarrollar el concepto de homeostasis, aquella que permite comprender la existencia de mecanismos autoreguladores como el hambre y la sed, aquella que nos hace conscientes de una interacción. En este marco, el concepto ideado por Fletcher no es otra cosa que una continuación natural del ideado por Cannon.


Psicologismo reduccionista. Freeman

Pocos años más tarde, tras la II Guerra Mundial, el concepto prosiguió su desarrollo teórico, y lo hizo, en primer lugar, con Freeman, quien, en el capítulo de su libro The Energetics of Human Behavior dedicado a la motivación, describió una jerarquía motivacional genético-orgánica que tenía como sustrato básico y primario a la reequilibración de los trastornos digestivos y circulatorios. Para Freeman todo el comportamiento del ser humano está marcado por este sustrato básico de tal manera que «parece bastante razonable asumir que todos los complicados ajustes respecto de los estímulos externos así como todos los esfuerzos creativos del hombre están asociados fundamentalmente con el mantenimiento de los esenciales estados constantes de los fluidos del cuerpo» (Freeman, 1948, p. 329). Esta evidente exageración (no confirmada por los hechos), constituye una extrapolación inapropiada y reduccionista del concepto originario. Pretendiendo llevar a cabo una generalización totalizante, consigue eliminar la riqueza de contenido implícita en el término, de forma que al descender al detalle, a todos los detalles, reduce, limita la acción homeostática (conceptualmente entendida como antinómica) a un mecanismo similar a cualquier acción mecánica que se realice en cualquier cuerpo humano. Como dice Bertalanffy «el principio de la homeostasia a veces ha sido hinchado hasta el punto de hacerlo ridículo», señalando a continuación ejemplos como el de Freeman (1948, pp. 142ss.) donde se liga la muerte del mártir a un «desplazamiento anormal» de sus procesos internos, y señala (Bertalanffy) «hasta que extremos están dispuestos a llegar ciertos autores con tal de salvar un esquema arraigado en una filosofía económico-comercial y que ensalza el conformismo y el oportunismo como valores últimos» (Bertalanffy 1976, 220-221).


Behaviorismo. Hull

La idea de Freeman de que «todo comportamiento es un intento de asegurar la integridad orgánica mediante restauraciones homeostáticas del equilibrio» (Freeman, 1948, p. 1); es decir, la vinculación de dos elementos de la realidad como son, de una parte, la homeostasis, en el sentido fisiológico estricto, y de otra, todo el comportamiento, respondía al pensamiento imperante en los años cuarenta inaugurado por Hull para quien los procesos de aprendizaje conductuales no cumplen otra función que la asegurar la máxima probabilidad de supervivencia en los organismos superiores (léase seres humanos). Estos procesos de aprendizaje tienen lugar de una manera enteramente automática, y se producen conforme a los principios del refuerzo en la satisfacción de las necesidades (Hull, 1943, pp.68-69).


Psicoanálisis y homeostasis

El automatismo homeostático de Hull, que dio lugar a toda una teoría del aprendizaje, tuvo un predecesor en el terreno del psicoanálisis. Para Ives Hendricks «la esencia de las conclusiones de Cannon acerca de la 'homeostasis' coinciden notablemente con las afirmaciones más significativas de Freud [... en] Más allá del Principio del Placer (1920). Sus investigaciones se han realizado en campos científicos separados, sin embargo sus conclusiones finales, de cara a los procesos básicos de la vida, son los mismos; el psicoanalista dice que los procesos psicológicos son iniciados por la necesidad de restaurar un equilibrio emocional el cual es experimentado como placer; el fisiólogo afirma que todos los procesos orgánicos se inician por la necesidad de restaurar un equilibrio físico-químico el cual es experimentado como salud» (Hendricks, 1934), p.93).

Hendricks equipara lo emocional ('equilibrio emocional') con lo físico-químico ('equilibrio físico-químico'), situándose en el lado idealista de la misma moneda cuyo otra cara sería la empirista que correspondería a Freeman. En ambos casos los términos empirista e idealista hay que tomarlos en un sentido lato y no estricto; sin embargo creo que representan con una cierta exactitud lo que pretendo describir, esto es que ambos autores, uno situado en el lado del espíritu, y el otro en el lado de la materia, entienden que existe una suerte de ley por medio de la cual el ente humano restaura su equilibrio. Sin embargo, según ha sido señalado por Maze, la Homeostasis a duras penas puede ser considerada como una ley orgánica (Maze, 1953, p.406). Es más bien un juego de fuerzas específicas, si bien que esa especificidad debe ser asumida como existente en situaciones en las cuales el placer es el resultado.

Otros escritores psicoanalíticos, sin embargo, han visto en el concepto de homeostasis posibilidades diferentes de desarrollo en relación con diversos aspectos de la teoría del Psicoanálisis.

Así, Douglas W. Orr (1942), por ejemplo, postuló un «instinto homeostático» en lugar del Instinto de Muerte encargado de cubrir las tendencias conservadoras en la vida mental, opuestas al sexo considerado como instinto creativo. L.S. Kubie (1948) estableció una jerarquía de instintos en la que todos aquellos considerados vitales lo eran también homeostáticos.

Entre los llamados psicoanalistas no freudianos Franz Alexander desarrolló el concepto considerándolo como un «principio de estabilidad», describiendo la homeostasis en términos psicológicos. Alexander ha sido quizás el que más lejos ha llegado en la modificación (y desarrollo del concepto) al situar el proceso homeostático en la esfera del control autónomo por parte del individuo concreto. Por esta razón el «principio de estabilidad» por él postulado habría que calificarlo como un principio de estabilidad relativo en función de la historia y valores de cada individuo. Él definió la homeostasis teleológicamente como «el esfuerzo orgánico para preservar aquellas óptimas condiciones internas bajo las cuales el proceso de vida es posible» (Alexander, 1948, p.36). Esta función preservadora está bajo el control del Ego que actúa como agente del principio de estabilidad. Su cometido es el de satisfacer las necesidades internas (tal y como son percibidas por el individuo) y proteger al organismo de un exceso de estimulación.

Alexander postula una jerarquía de necesidades entre las que es posible una elección. «Una escala de valores debe ser desarrollada por el Ego quien habrá de renunciar o subordinar determinados deseos si éstos entran en conflicto con otros más importantes» (Alexander, 1948, p.89). Sin embargo, lo que origina esta jerarquía de valores, esta relativización de las necesidades, no es algo único para todos los individuos; de hecho, no puede ser aclarado de una manera precisa. Para Alexander el comportamiento de los seres humanos es comparable al montañero que lleva a su espalda un pesado equipo con el fin de disfrutar (en ultima instancia) del paisaje de una cumbre específica. Las decisiones que llevan a desarrollar un determinado comportamiento, si bien adolecen de una cierta autonomía, no implican (al contrario que en Freeman) que éstas puedan ser explicadas en todo momento como conducentes a una reequilibración psicobiológica, antes bien, estas decisiones, con frecuencia, conllevan, como en el ejemplo del montañero, un claro malestar, una cierta malaise no placentera.


Primeras conclusiones

A estas alturas del discurso, parece ya claro que el concepto de Homeostasis desbordó, en los primeros veinte años de su nacimiento, lo escuetamente fisiológico, pasando a forma parte del vocabulario científico de diversas disciplinas, expandiendo con ello su campo de aplicación e interpretación.

La revisión efectuada hasta el momento, sin ser ni muchos menos exhaustiva, no ha pretendido otra cosa que mostrar precisamente la riqueza del concepto, el cual, generalmente interpretado en un sentido conservador es perfectamente extrapolable a otros ámbitos del pensamiento. Este sentido conservador del que hablo (Freeman, Hull, Hendricks, Orr, Kubie), no es otro que aquel que niega, ignora o soslaya la dimensión tensionante y contradictoria del concepto de Homeostasis. Ello no significa, necesariamente, que las aportaciones efectuadas por estos autores sea absolutamente reduccionista. Más bien, al contrario, sus extrapolaciones han enriquecido el modelo de pensamiento nacido del concepto del homeostasis permitiendo con ello su ulterior desarrollo.

En este sentido además de resaltar la relativización y teleologización que del mismo hizo Franz Alexander, he de mencionar aún a algunos autores que tempranamente sí tuvieron en cuenta ese valor tensionante y contradictorio.


Homeostasis y cambio social

En el campo de la sociología el primero en hacer uso del concepto fue Sorokin (1937). Ello no ha de extrañarnos en absoluto ya que el propio Cannon al señalar que los principios conducentes a la estabilización eran probablemente generales, sugiere que la homeostasis podría ser un concepto útil al considerar la organización social. P.A. Sorokin trata extensamente con los mecanismos homeostáticos de ajuste grupal, a los cuales considera como una función cuando el grupo es amenazado.

En contraste con el uso del término por parte de Sorokin, limitado al carácter equilibrador de la homeostasis, G.C. Homans subrayará el carácter dinámico del mismo. Para Homans «un sistema social está en equilibrio... cuando el estado de los elementos que forman parte del sistema y la mutua relación entre ellos es de tal naturaleza que cualquier cambio, por pequeño que éste sea, en uno de los elementos será seguido por cambios en otros elementos tendentes a reducir la cantidad de tal cambio» (Homans, 1950, p.303). Esta definición que está muy próxima a la del propio Cannon no implica, sin embargo, que Homans proclame que «el equilibrio es una propiedad inherente a un sistema social. El equilibrio existe en algunos grupos una parte del tiempo, no en todos los grupos durante todo el tiempo» (Homans, 1950, p.449). Esto lleva aparejado que un aparente retorno a un estado previo pueda, de hecho, representar una situación enteramente nueva, o lo que es lo mismo, que la estabilidad aparente puede encubrir un cambio lento pero firme y continuo. Por consiguiente, las condiciones que dan lugar a un engañoso equilibrio constituyen, sin embargo, aquellas bajo las cuales se produce un cambio constante, justo el que subyace a la estabilidad supuesta. La condición de 'sistema abierto' del cuerpo humano señalada antes y por la cual éste se halla en constante cambio, es perfectamente extrapolable pues al 'sistema abierto' social, a fin de cuentas constituido por elementos humanos.


Homeostasis en la percepción

En el campo de la percepción uno de los primeros pioneros en aplicar el concepto fue Ross Stagner para quién «las constancias perceptuales han [...] de ser consideradas como manifestaciones homeostáticas» (Stagner, 1951, p.7), en la línea de la Gestalt de concebir en la percepción de esas constancias el máximo rendimiento con el mínimo esfuerzo. No obstante, Stagner considera la homeostasis desde un punto de vista exclusivamente equilibrador.

Fue G.S. Klein (1951, pp. 330-331), quien además de considerar la percepción como la adquisición de 'equilibrio', puso especial énfasis en el rol desempeñado en ello por las diferencias individuales y de personalidad. De nuevo, como en el caso de Alexander, se produce una relativización de conceptos que en principio pudieran ser considerados de una manera unívoca. Para él, el concepto de 'equilibrio' es útil sólo si reconocemos sin ambages que la clase de balanza y los medios para alcanzarla son diferentes según las diferentes personas. 'Equilibrio' significa el mayor o menor estado estable que un individuo alcanza de cara a una tarea, un problema, o a un estímulo en tanto que éste es resuelto conforme a su propio camino, a su propia manera de entender su resolución. Lo que determina la forma de un estado estable son los mecanismos de tensión-reducción que la gente escoge. El equilibrio de un hombre supone el desconcierto, el desencaje, de otro hombre; hay que partir de ese dato básico.


Contrahomeostasis

Será, sin embargo, un escritor psicoanalista, Otto Fenichel, quien acabe introduciendo el concepto de contrahomeostasis en un intento de una mayor racionalización de los complejos fenómenos vitales a los que la propia vida se ve sometida. Para él, la homeostasis no debe ser tomada únicamente como sinónimo de ecualización, de equilibrio, sino que al contrario «parece más apropiado ver en el objetivo último de todas estas tendencias ecualizadoras el intento de mantener un cierto nivel de tensión característico del organismo, [el intento] 'de preservar el nivel de excitación', como ya Freud lo estableció tempranamente, más bien que el intento de la abolición total de la tensión» (Fenichel, 1945, p.12). La aceptación de esta elemental verdad, aquella que asume el carácter intrínsecamente abierto y dinámico de la vida, llevará a Fenichel a considerar la existencia del comportamiento contrahomeostático como una complicación de segundo orden debida a las relaciones con nuestro entorno y con nuestros semejantes. La naturaleza de este «comportamiento contrahomeostático debe ser explicada como una complicación secundaria impuesta sobre el organismo por fuerzas externas» (Fenichel, 1945, p.13).


Ashby-Priban

En 1952 el neurólogo británico William Ross Ashby, a través de su libro Design for a Brain, introdujo en el mundo científico el término homeostato. Este neologismo sirvió en su momento para designar un dispositivo (en principio una máquina) que permitía establecer automáticamente un equilibrio entre varios elementos interconectados.

Naturalmente Ashby lo que sugiere es que el cuerpo humano, el cerebro, es como un homeostato, una máquina, que posee una infinidad de variables. Con la creación de una máquina simple, (de hecho Grey Walter, 1953, la llamó machina sopora, máquina durmiente, por la simplicidad de sus mecanismos[3]) Ashby pretendió mostrar (ilustrar, habría que decir) a escala reducida la analogía entre cerebro y máquina, funcionando en ambos casos con unas reglas a las que cabría nominar como homeostáticas.

El homeostato de Ashby y el posterior de Grey Walter, supuso, en cualquier caso, que el término se introdujese en un sector de la comunidad científica con un valor de uso[4], al mismo tiempo que era aceptado como nuevo significante por parte de todos.

En relación con nuestra propuesta, es absolutamente obligado mencionar a alguien que hizo uso del término en cuestión, Karl H. Priban de la Universidad de Stanford quien, en 1963, dejó firmemente establecido que las regulaciones homeostáticas producidas en el organismo humano conllevan necesaria e inevitablemente un aumento de tensión, de desequilibrio, y que son consiguientemente una invitación a nuevas regulaciones.

Para Priban, el cuerpo humano es como un homeostato, formado por muchos elementos a los cuales hay que considerar como variables dada su cambiante condición. En el estado actual de la tecnología científica, es posible medir una gran parte de esas variables, y así, de la misma forma que Cannon había procedido a analizar empíricamente las variaciones en los diferentes fluidos del organismo, y en los elementos en ellos depositados, tales como agua, cloruro sódico, glucosa, carbohidratos, proteinas en el plasma sanguíneo, grasa, calcio, (Cannon, 1929, 401-417) y otras funciones homeostáticas ya mencionadas más arriba (papel del sistema nervioso autónomo en la homeostasis; funciones homeostáticas del hambre y la sed), así, repito, de la misma forma que Cannon, había procedido a un análisis empírico del organismo humano en lo referente a aspectos fisiológicos del mismo, así procedió Priban (y otros que le antecedieron) en lo referente a la actividad eléctrica en los diferentes elementos del sistema nervioso.

Sus conclusiones, desarrolladas en una Comunicación para el Symposium sobre la Motivación celebrado en Nebraska en l963, y titulado Reinforcement Revisited: A Structural View, no pueden ser, en lo relativo al tema que nos ocupa, más concluyentes.

Tras realizar un muy exhaustivo análisis de las diferentes teorías sobre el Refuerzo, y apoyado en datos empíricos, Priban considera que los diferentes homeostatos que conforman el organismo humano (el cual puede ser considerado en sí mismo como un homeostato) «son mecanismos defectuosos, imprecisos, tal y como ya se ha detallado en la sección dedicada a la percepción. Sin embargo, en un medio relativamente constante, se las arreglan para convertirse en mecanismos progresivamente adaptados [...]. Estos homeostatos deben, no obstante, estar interconectados, es decir cada uno prefijado por el otro, para alcanzar el máximo de control» (Priban, 1963, p.152). Son, por lo tanto, subsistemas dentro de un sistema que a su vez es controlado por éstos, en una suerte de double bind, doble vínculo paradójico, en el que la «compleja interrelación entre subsistemas y sistema consigue alcanzar situaciones estables de una manera más eficaz a como lo haría un sistema más simple» (Priban, 1963, p.147).Esta estabilidad no es sin embargo definitiva.

Tal y como queda probado a lo largo de su trabajo (pp. 121, 124-133), una vez el «alcanzado el nivel de control, nuevas sensibilidades son desarrolladas y nuevos mecanismos se establecen para hacer frente a ellas» (Priban, 1963, p.152).

El punto de vista de Priban, no es, sin embargo, un punto de vista estructural (tan a la moda en esos años); es algo mucho más complejo. «Una visión estructural de esta secuencia de operaciones [las citadas en el párrafo anterior] la explicaría como el producto de un simple homeostato prefijado; una mirada más atenta, más cercana, sin embargo, discerniría entre un modelo [pattern] cíclico (esfuerzo, control, nueva sensibilidad), del siguiente» (Priban, 1963, p.152). Justamente la apariencia de lo contrario sucedería en la lejana contemplación del océano del Norte de California desde el aire un día de temporal; en él es posible «observar una pacífica escena costera formada en parte por una serie de estables, permanentes, modélicas olas [de las que sin embargo sabemos son el resultado de una] tremenda, temible, poderosa, cíclica actividad oceánica» (Priban, 1963, 122).

 



II. FEEDBACK


Nadie puede bañarse dos veces en el mismo río

Heráclito

 


Homeostasis y feedback

Como ya hemos visto a lo largo de toda la sección anterior el término homeostasis ha sido usado indistintamente de dos maneras: bien como un principio de estabilidad, los menos, bien como un principio de cambio, los más. En el segundo de los casos, la aplicación del concepto subsume siempre al primero, es decir, existe cambio porque se intenta alcanzar (de una manera imposible tras la investigación de Priban) la estabilidad.

Este hecho, el doble uso conceptual de la homeostasis, permite afirmar a Watzlawick, siguiendo a David (1958, pp.8-13), que han coexistido «dos definiciones de la homeostasis: 1) como un fin o estado [es decir..] la existencia de cierta constancia frente al cambio (externo) y 2) como un medio, [es decir] los mecanismos de retroalimentación negativa que intervienen para minimizar el cambio [...]. En la actualidad resulta más claro referirse al estado constante o la estabilidad de un sistema[5], que en general se mantiene mediante mecanismos de retroalimentación negativa» (Watzlawick /Beavin/Jackson, 1989, 136).

La doble utilización del término (coincidente con lo expresado más arriba) le lleva a Watzlawick a afirmar que su uso ha quedado limitado a un principio explicativo de carácter general. Pero lo que me parece especialmente subrayable de la definición sintética que Watzlawick y sus compañeros nos ofrecen, es la introducción en ella de otros términos (feedback y sistema) con los que inevitablemente aparecerá relacionado.


Origen y definiciones

«El término feedback ha sido introducido en 1914 por E.H. Armstrong para designar un circuito de regeneración de la señal en una estación de radio» (Escarpit, 1976, p.53). Es por lo tanto un término nacido directamente de la nueva era de la comunicación, cuyos prolegómenos habría que situarlos en la emisión inalámbrica de señales eléctricas en los comienzos de nuestro siglo.

Suele traducirse de varias maneras, siendo las más comunes las de retroacción, realimentación y retroalimentación. Urabayen lo define como «la acción que un elemento ejerce sobre otro [y] tiene como consecuencia una acción de este elemento sobre el anterior» (Urabayen, 1988, p.38).

Asimismo, se entiende que pueden existir dos tipos de feedback, positivo y negativo. En el primer caso la retroalimentación puede ir en el sentido de la acción inicial, «por ejemplo, cuando una corriente de agua en una tubería va llenando un depósito y el nivel de ese depósito hace abrir aún más la válvula de admisión de agua en la tubería. [En el segundo caso] la realimentación negativa va en sentido contrario a la acción inicial: en nuestro ejemplo, cerrando la válvula» (Urabayen, 1988, p.38). El concepto de feedback, está en directa conexión con el concepto de sistema (que veremos más adelante), siendo un caso particular de interacción en el seno del mismo.

Watzlawick, como Urabayen, sitúa la realimentación en relación con el concepto de sistema, (así como con el concepto de homeostasis como ya hemos visto más arriba). Para éste «en ambos casos, parte de la salida de un sistema vuelve a introducirse en el sistema como información acerca de dicha salida [output]. La diferencia consiste en que, en el caso de la retroalimentación negativa, esa información se utiliza para disminuir la desviación de la salida con respecto a una norma establecida [...] mientras que en el caso de la retroalimentación positiva, la misma información actúa como una medida para aumentar la desviación de la salida »(Watzlawick /Beavin /Jackson, 1989, 32).


Organismo y feedback

En lo referente al propio organismo humano, también puede hacerse mención al feedback para explicar al menos una buena parte de sus mecanismos. Un experimento fundamental en relación con lo que estamos hablando fue el desarrollado en Moscú por Eugene Solokov (1960) y explicado por Priban (1963, 118). En éste, el sujeto experimental era sometido de una manera irregular, imprevista, a un beep de intensidad y duración determinadas, al tiempo que eran registradas las respuestas galvánicas de su piel, las de los plexos del sistema nervioso neurovegetativo, así como su encefalograma. Con los dos primeros registros, bien puede decirse que se medían sus respuestas inconscientes, las proporcionadas de una manera automática o refleja por un sistema llamado autónomo. Con el último registro, el del encefalograma, bien puede decirse que se pretendía medir el grado de recepción de los mensajes a nivel de sistema nervioso central.

A lo largo de la situación experimental así descrita, invariablemente se producían las siguientes reacciones. En una primera fase los registros indicaban un incremento de actividad típicos de la alerta, y que son conocidos como «reacción de orientación»,(podría entonces hablarse de un feedback positivo en el que un subsistema orgánico incrementa sus señales de salida, outputs en relación directa con las de entrada, inputs).

En una segunda fase, la de habituación, los indicadores de los cambios producidos en el organismo iban progresivamente atenuándose hasta llegar un momento en que el efecto del sonido era inexistente. Se había producido un claro feedback negativo, de suerte que el sistema nervioso central había controlado al autónomo.

Finalmente, Solokov, en ese momento reducía la intensidad del beep y el proceso volvía a comenzar de nuevo con un incremento de la actividad orgánica. Las conclusiones de Solokov fueron que en los mecanismos de alerta y de habituación juega un papel básico el sistema nervioso central, capaz, como hemos concluido nosotros mismos, de producir feedbacks negativos que reequilibren el subsistema orgánico a los niveles previos; (imposible de otra parte en el ámbito de la conciencia puesto que ya se ha vivido la experiencia de la alerta y la ansiedad).


La difícil frontera en el feedback

Para Escarpit (1976, pp. 54-63) el feedback tiene al menos tres papeles (rôles) diferentes: 1) un rol de regulación, 2) un rol de acumulación cíclica, y finalmente 3) un rol de acumulación didáctica.

El rol de regulación es el más simple según Escarpit, y basta para su funcionamiento que el sistema esté dotado de un programa condicional de tal manera que cuando una parte (receptor) del sistema registre tal o cual efecto, envíe a otra parte (emisor) del sistema tal o cual orden, de suerte que ésta continúe o altere la ejecución del programa.

El termostato sería el paradigma del feedback de regulación. Programado en una determinada temperatura, su «intención confesada es la de mantener la situación en un estado homeostático y reprimir toda manifestación de entropía [...] el sistema tomado en su conjunto no proporciona ninguna información. Es enteramente previsible»(Escarpit (1976, 55).

Este esquema de regulación no puede ser aplicado al conjunto de la sociedad, dada su condición de sistema abierto (aunque es posible describir metafóricamente una gestión de gobierno en un sentido regulador). En ella, en la sociedad, «unos seres humanos y unos grupos de seres humanos están implicados y constituyen otras tantas fuentes autónomas. Ahora bien un feedback de regulación no admitiría más que una sola fuente»(Escarpit (1976, pp.55-56). Sólo sería posible su aplicación en una sociedad robotizada, donde todo estuviera perfecta y absolutamente programado.

El feedback en su rol de acumulación cíclica es descrito como justamente lo contrario al anterior. Mientras que el primero sería asimilable al feedback negativo por cuanto su objetivo es el mantenimiento de un estado o situación, el segundo, el de acumulación cíclica, puede ser descrito como un feedback positivo por cuanto hay una realimentación cuantitativamente positiva de las señales de salida sobre las de entrada en el seno de un sistema dado.

Un típico ejemplo de feedback positivo lo constituye el conocido efecto de 'acople' entre micrófono y altavoces, generador de un ruido característico bien conocido por todos. Otro sería, a nivel cultural, la repetición de (la reiteración en) esquemas comunicativos de probado éxito, tal como los culebrones televisivos, con los que la industria realimenta sus circuitos comunicativos (exhibición/percepción) hasta que el tiempo y la acumulación positiva de un mismo tipo de señal produzca una saturación similar a la producida en el efecto de 'acople'.

Este último ejemplo (el de los culebrones) parece un claro feedback positivo tal y como ha sido descrito aquí. Sin embargo, si tuviéramos en cuenta otras variables en el seno de un conjunto social, o si utilizáramos como muestra otros ejemplos de producción cultural clásica, como es el uso de los arquetipos reutilizados una y otra vez a lo largo de nuestra historia como especie humana, quedaría menos claro si el rol desempeñado por esas señales no sería (en última instancia) un rol de regulación (por emplear la terminología de Escarpit), es decir, un feedback negativo.

La frontera entre el feedback negativo y el feedback positivo aunque nítida en algunas ocasiones, no se nos presenta como tal en otras. Ocurriría algo parecido a la homeostasis tal y como ha sido definida en este obra: de una parte parece que detiene, y de otra, parece que hace avanzar. Esa antinomia que también se encuentra reflejada en el campo de la genética y de la evolución -mutación e invariancia- (Beals y Hoijer, 1968, pp.135-167), queda resuelta en Escarpit por lo que podemos llamar feedback de acumulación didáctica.

Su nombre tiene una justificación etimológica: la acumulación didáctica se produce en el documento, y documento viene de doceo, enseñar.

Mediante el documento, el ser humano intenta escapar de lo evenencial, es decir de todo aquello que nos proporciona una información inmediata mediante la cual establecemos los múltiples feedbacks de regulación por los que nos desenvolvemos en la vida. Para escapar de esa información que no es otra cosa que «una cantidad negativa[6] aportada al espíritu por el acontecimiento cuando pasa del futuro al pasado» (Escarpit 1976, 63), el ser humano ha creado el anti-acontecimiento a través de la elaboración del documento.

Mediante el documento se integran los aspectos acumulativos y los regulativos. En él se acumulan «trazos fijos y permanentes [...] en los que las respuestas dadas en feedback, a través del tiempo, a las experiencias anteriores, quedan disponibles para una lectura, es decir para una exploración libre de toda restricción evenencial o cronológica» (Escarpit, 1976, 62-63).

Tendría uno la tentación de decir que, a fin de cuentas, el feedback de acumulación didáctica no es otra cosa que una suerte de síntesis hegeliana (en ningún momento explicitada como tal por el autor) de los feedbacks negativo y positivo. Sin embargo esto no es totalmente exacto. Tal y como es concebido por Escarpit, el feedback es único, y realmente es un único concepto al cual podemos adjetivar como positivo o negativo, debiendo tener en cuenta, al hacerlo, la borrosa frontera que les separa (según se ha podido ver más arriba). Por lo tanto habría que decir que el rol de acumulación didáctica es uno de los varios roles que puede desempeñar el feedback, cumpliendo, en ese caso, un papel que, ciertamente, aun siendo diferente a los dos anteriores, los aúna e integra.

En otro nivel diferente, en el plano de las interacciones humanas inmediatas, el problema del doble feedback, tanto positivo como negativo, que interactúan de tal suerte, que en ocasiones no es posible establecer una clara diferencia entre ellos, Watzlawick, siguiendo a Bateson (1961), introduce el término recalibración (Watzlawick/Beavin/Jackson, 1989, 136-139).

Con él, se resuelve conceptualmente el hecho de que aun siendo cierto, como lo observó Jackson (1965, 13-14), que en el seno de las familias existe una cierta capacidad para mantener un estado estable mediante la retroalimentación negativa, «sin embargo, también existe aprendizaje y crecimiento en la familia [..] efectos [el aprendizaje y el crecimiento] que están más cerca de la retroalimentación positiva» (Watzlawick /Beavin /Jackson, 1989, 137).

La comparación entre ambas formas de aplicación de los feedback negativo y positivo, -en el ámbito familiar en el caso de Watzlawick, en el ámbito general (regulación) y acumulación cíclica) en el caso de Escarpit-, resulta evidente. En ambos casos, y de manera más explícita en el primero, la interrelación entre los dos tipos de retroalimentación resulta clara; y en ambos casos, de nuevo, el problema es resuelto con la introducción de un concepto que los subsuma e integre: acumulación didáctica (en Escarpit) o recalibración (Watzlawick) serán el resultado.

Llamado en ocasiones calibración a secas, la recalibración es, como en Robert Escarpit, un aspecto funcional de un único feedback, con el que ciertamente podría confundirse como sinónimo. Este aspecto funcional de la calibración no es otro que la función escalonada ya mencionada por Ashby (1952) que se produce al cambiar la calibración «tal como modificar la regulación de un termostato o hacer los cambios de marcha en un automóvil» (Watzlawick /Beavin /Jackson, 1989, 138). Equivalente al concepto de regulación, la recalibración supone ser una re-regulación del sistema extrapolable al conjunto de la sociedad como ya lo hiciera Homans (1950) en el campo de la homeostasis: «Aplicando este modelo a la vida familiar, o a pautas sociales amplias tales como la vigilancia del cumplimiento de la ley, sugerimos que existe una calibración de la conducta habitual o aceptable, las reglas de una familia o las leyes de una sociedad, dentro de los cuales suelen funcionar los individuos o los grupos»(Watzlawick /Beavin /Jackson, 1989, 138). Naturalmente estas reglas, estas leyes, no son eternas (aunque hubiera otras épocas en que así lo pareciera), y cambian con el paso del tiempo precisamente gracias al efecto recalibrador.

Para otros autores, como Scheflen y Birdwhistell «la 'recalibración' es un procedimiento de corrección [...]cuando la interacción se extravía o se desmorona [no reanudándose sino] hasta después de una repetición de los anuncios y presentaciones diversos que los miembros del grupo producen al principio de la interacción» (Scheflen[7], 1984, 162). Limitada al ámbito de la interacción personal directa, en este último caso, como se ve, la recalibración está más claramente definida como una vuelta al orden, a la estabilidad, (retroacción negativa) mediante justamente la reiteración y la acumulación (retroacción positiva).

A falta de una definición más general diría que la recalibración es la capacidad que tiene un elemento de un (sub)sistema, o un (sub)sistema mismo, de readaptar sus pautas (patterns) de pensamiento y de conducta sin suponer por ello una total ruptura con las pautas anteriores.

Es en este sentido en el que la equiparación entre los conceptos de feedback de acumulación didáctica y el de recalibración resulta ostensible. El documento escarpiniano, o para ser más preciso, el nuevo documento nacido en el seno de una cultura, de una tradición, de unas pautas, con un determinado lenguaje, pero sin embargo capaz de decir algo nuevo, de expresar nuevas ideas, de utilizar nuevos términos, cumple una función recalibradora, re-reguladora, o mejor dicho pretende cumplirla. Esto ocurrirá en el preciso momento en que determinados sectores de la sociedad o la misma sociedad entera lo acepte; sólo entonces será cuando podremos decir que esa recalibración ha tenido ya lugar. Por ello podemos decir que la acumulación didáctica es recalibradora, y viceversa que la recalibración no es otra cosa que una acumulación que re-enseña: es decir, una acumulación didáctica.

Sin embargo, a pesar del interés por encontrar definiciones precisas, creo que está claro en este punto del discurso que la retroacción positiva y la negativa son conceptos íntimamente relacionados los cuales resulta difícil separar.

De hecho estas ideas tienen su origen en Maruyana (1963), quien fue el primero en rehabilitar la retroacción positiva abriendo de esta manera una brecha para la «causalidad mutua interrelacionada» y en definitiva para la dialéctica de las retroacciones (Morin, 1986, 285). Su continuidad: en Birdwhistell, ya mencionado, o en von Foerster (1974) con su concepto de causalidad recursiva (Morin, 1986, 285), y sobre todo con Maturana y Varela (1972; 1976) los cuales introdujeron la noción de sistemas autopoiéticos (autocreadores, autogeneradores) por medio de la cual es posible dar explicación de la persistencia así como la transformación de los sistemas gracias a un tipo diferente de retroalimentación que hace que una, o más de una, propiedad del todo recurse en el interior del sistema y literalmente viva sobre sí misma (Bateson, 1993, 290).


III. CIBERNÉTICA


Guerra es padre y rey de todas las cosas.

Heráclito


Íntimamente relacionado con el concepto de feedback, desde donde surge en el siglo XX, se encuentra la Cibernética a la que es inexcusable dedicar, ahora, algunas breves referencias.


Origen y definiciones

El vocablo cibernética es de todos conocido que proviene literalmente del griego kybernetiké término usado por Platón para la descripción simbólica de las relaciones entre el alma y el cuerpo, y que significa el arte del pilotaje. El verbo para expresar la acción de pilotar así como otras palabras conteniendo la misma raíz, disponían en todos los casos de segundas acepciones que las relacionaban con la acción de gobierno, con la acción de dirigir.

No es extraño entonces que en el pasado siglo André-Marie Ampère la reutilizara para referirse «a los medios que se ocupan de gobernar en política» (García de Diego, 1988, 54). O para ser más precisos, en 1834, en su Ensayo sobre la filosofía de las ciencias «intentando [..] establecer una nomenclatura binaria de las diversas ramas del saber, modernizó el término en cibernética [cibernétique] para designar la parte de la ciencia política que trata del ejercicio del gobierno» (Escarpit, 1976, 72). El vocablo utilizado por Ampère nunca llegó realmente a formar parte del vocabulario científico o político y cayó en el olvido.

No es sino hasta el año 1948 cuando, de nuevo, fue puesto en circulación para el gran público por Norbert Wiener a raíz de la publicación por el Massachusetts Institute of Technology de su Cybernetics: Or Control and Communications in the Animal and the Machine. Desde ese momento hasta nuestros días el término ha sufrido una gran expansión y transformación de suerte que periodistas como José Antonio Mayo pueden hablar y hablan de cibergenios, ciberartistas o ciberpunks entre otros (como los cibercoroneles y los ciberempresarios) para referirse a individuos que de alguna manera desarrollan una actividad en el ámbito de la retroacción o feedback.

Renacido el término sin una intencionalidad explícitamente política como la que le dio Ampère, para Wiener la Cibernética no era otra cosa que «la ciencia del control y de la comunicación en el animal y en la máquina» (García de Diego, 1988, 54) en la que es fundamental el propio concepto de feedback.


Aparición del pensamiento cibernético

Niño prodigio, Norbert Wiener obtuvo en 1913, cuando contaba tan sólo 18 años, su doctorado en Harvard (Mass.). Posteriormente, en Europa, estudió filosofía y lógica con Bertrand Russell en Cambridge, y fue alumno de Edmund Husserl en Göttingen. En l9l9, ingresó como profesor de matemáticas en el M.I.T., institución donde permaneció prácticamente toda su vida (Escarpit, 1976, 72). Pero habría que esperar hasta la II Guerra Mundial para que Norbert Wiener comenzara a desarrollar el pensamiento cibernético.

Comisionado por el Gobierno de Estados Unidos para la investigación del control de tiro antiaéreo, codirigió junto al neurofisiólogo Arthur Rosenblueth un equipo multidisciplinar al que pertenecieron individuos de la talla de John von Neumann (matemático), Kurt Lewin (psicólogo), Margaret Mead y Gregory Bateson (antropólogos) (Rodrigo Alsina, 1989, 37). La investigación subsiguiente dio como resultado el diseño de unos sistemas de tiro en los que resultaba absolutamente imprescindible un bucle en forma de feedback que diera información sobre los resultados de la acción realizada, y corrigiera o reforzara (feedbacks negativos o positivos) a la acción en cuestión. De estas investigaciones de aplicación militar será de donde surja el pensamiento cibernético, con lo que se hace bueno, una vez más, el dicho de Heráclito de que «la guerra es el padre y el rey de todas las cosas» (fr.53).

Antes de la publicación, en 1948, del libro ya mencionado, Arturo Rosenblueth, Norbert Wiener y el ingeniero Julian Bigelow[8] publicaron un artículo en el que se exponían los grandes principios de lo que sería la cibernética. Fue en 1943 y su título «Behavior, Purpose and Teleology».

En él, y por primera vez en el campo de las llamadas ciencias positivas, se defiende el concepto de teleología como «un concepto necesario para la comprensión de ciertos modos de conducta» (Rosenblueth/Wiener/Bigelow, 1943, 23), al tiempo que se enfatiza el hecho de que un único modelo de análisis sobre el comportamiento [behavior] «es aplicable tanto a las máquinas como a los organismos vivos» (Rosenblueth/Wiener/Bigelow, 1943, 22).

Este modelo de análisis está basado en una clasificación dicotómica del comportamiento reconociendo que «muchas otras líneas de clasificación son posibles» tales como los diversos grados de libertad en los que la conducta puede mostrarse, la continuidad o discontinuidad de la misma, o bien la proporcionalidad entre outputs e inputs (Rosenblueth /Wiener /Bigelow, 1943, 22).

figura1

Figura 1. Esquema de la conducta (Rosenblueth/Wiener/Bigelow, 1943, 21)


El presente modelo aquí reproducido está basado en una consideración previa y básica: que toda conducta tiene un carácter relacional; es decir, no es posible hablar de conducta[9] en un sólo ítem (individuo, sujeto, máquina, etc) sino siempre en referencia a dos o más ítems: «Por conducta se entiende cualquier cambio de una entidad respecto de su medio.» (Rosenblueth/ Wiener/ Bigelow, 1943, 18).

El carácter 'relacional' del cambio que es la conducta se entiende perfectamente en el momento en que los autores ponen en juego dos conceptos claves, input y output.

Así, «Conducta activa es aquella en la que el objeto es la fuente de un output de energía involucrada en una reacción específica dada. El objeto puede almacenar energía suministrada por un input remoto o relativamente inmediato, pero el input no da directamente energía al output.» (Rosenblueth /Wiener /Bigelow, 1943, 18).

Este carácter relacional es aún más claro y evidente cuando los autores se refieren a la conducta intencional [purposeful behavior]. Una ruleta, o un reloj, aunque construidas con un propósito, con una intención, son máquinas que carecen de intencionalidad específica, (de relacionalidad intrínseca diríamos nosotros) activables siempre en relación a un otro elemento. «De igual manera, aunque un arma de fuego [gun] puede ser usado para un definitivo propósito, la consecución de un objetivo no es intrínseco a la funcionalidad del arma. Pueden ser hechos disparos al azar, deliberadamente sin propósito. Por otra parte, otras máquinas, son intrínsecamente intencionales. Un torpedo con un mecanismo de búsqueda del blanco es un ejemplo.» (Rosenblueth /Wiener /Bigelow, 1943, 19).

Ello no significa, en mi opinión, que las máquinas no específicamente intencionales, o las conductas clasificadas aquí como pasivas, carezcan de relacionalidad posible. El reloj en tanto que es observado, es relacional, y por lo tanto comunica. Las piedras de Mont Saint Michel, también.

Respecto de la naturaleza teleológica de la conducta, ésta queda ligada en los autores al concepto de feedback, que siempre, en su opinión, ha de ser negativo: «Se puede considerar que toda conducta intencional requiere feedback negativos.» (Rosenblueth /Wiener /Bigelow, 1943, 19).

Esta consideración se debe a que, habiendo definido al feedback como la «parte de la energía de salida [energy output] de un aparato o máquina que retorna como input» (p.19), si ésta (la energía de retorno) tuviere el mismo signo que en el momento de la salida, la relacionalidad que se establecería sería, propiamente hablando, una relación entre el objeto emisor y sí mismo. De suerte que (en el ejemplo propuesto por los autores) si una máquina diseñada para incidir en un objetivo luminoso en movimiento dispara considerablemente más alto, los estímulos de retorno provocados por tales disparos la desviarían aún más del objetivo (Rosenblueth/Wiener/Bigelow, 1943, 20).

Estando sustancialmente de acuerdo en que para que haya conducta teleológica ha de haber retroalimentación negativa, sin embargo no creemos que esta condición indispensable excluya de la misma (de la conducta teleológica) a la retroalimentación positiva. Ya hemos visto más arriba cómo ambos conceptos interactúan, hasta el punto de que para poder establecer una comunicación, a veces es necesario una reiterada retroalimentación positiva mediante la reproducción de señales de contacto (Birdwhistell, en Scheflen, 1984, 162). Además, la aparición de la retroalimentación positiva es causa, literalmente, de conducta teleológica en máquinas y seres vivos preparados para ello, alterando la emisión de señales a fin de lograr el retorno adecuado.

Un ejemplo típico lo constituye la ofuscada y a veces atolondrada relación con un ordenador [purposeful behavior]. En bastantes ocasiones el usuario insiste una y otra vez en una determinada relación que no da el resultado esperado. Automáticamente (en especial los primeros días) se tiende a pensar que el fallo está en el ordenador, cuando lo que ocurre es que el fallo está en el emisor de señales, en el operador. Una vez descubierta (a menudo por casualidad) la causa real del 'error', el emisor de señales va cambiando paulatinamente su conducta en sucesivas situaciones similares a fin de lograr una retroalimentación adecuada.

Que el concepto de teleología implica contradicción no es discutible[10], pero sí lo es el que ésta esté basada únicamente en la retroalimentación negativa.

Por último, en el esquema de la conducta diseñado por Rosenblueth, Wiener y Bigelow, se encontraría la capacidad predictiva, siendo la conducta de la ameba un ejemplo de conducta no predictiva (simplemente reacciona ante un estímulo), y la del gato en su cálculo de la trayectoria del ratón, un ejemplo de predicción de primer orden, así como el lanzamiento con la mano de una piedra, y de una flecha mediante arco, ejemplos de primer y de segundo orden de predicción respectivamente (Rosenblueth /Wiener /Bigelow, 1943, 20-21).

La importancia de la aplicación del concepto de teleología al ámbito de las ciencias empíricas, y, en último término, a la tecnología, no escapa a nuestro autores, para quienes «El concepto de teleología comparte una sola cosa con el concepto de causalidad: un eje temporal.», teniendo la causalidad un único camino [one-way], una única dirección relacional, y la teleología no (Rosenblueth /Wiener /Bigelow, 1943, 25).


Implicaciones de la cibernética

En esencia la cibernética además de tratar acerca de «cómo un estímulo exterior se transforma en información (input) y cómo el sistema receptor reacciona con una respuesta (output)» (Rodrigo Alsina, 1989, 37), y de plantear que procesos de esa naturaleza se producen en los seres vivos (García de Diego, 1988, 54), además, repito, de tratar todo eso, se puede afirmar que «la idea de que la información acerca de un efecto, a saber, el hecho de que, si la retroalimentación al efector es adecuada, asegura la estabilidad de éste y su adaptación al cambio ambiental, no sólo abrió el camino hacia la construcción de máquinas de orden superior [...ordenadores fundamentalmente ...] sino que también ofreció una visión totalmente nueva de los complejos sistemas interactuantes que encontramos en biología, psicología, sociología, economía y otros campos» (Watzlawick /Beavin /Jackson, 1989, 31). Y ni que decir tiene, que entre esos otros campos se encuentra el amplio, vasto y complejo del de la Comunicación.

Hasta la aparición de Wiener, el concepto de teleología había quedado relegado al ámbito exclusivo de la reflexión teórica, es decir de la filosofía, o de la psicología analítica. La «ciencia» de los saberes concretos había adoptado el punto de vista determinista (mecanicista) -tal causa ha de determinar tal efecto-, y no es sino hasta la llegada del siglo XX, con la aparición de modelos de Física no estrictamente mecanicista (Relatividad, Mecánica Cuántica, Principio de Indeterminación de Heisenberg) que las puertas no se abren para otro modelo de pensamiento.

Un encadenamiento de hechos de tipo simple tal como a afecta o determina a b, y b afecta o determina a c es una muestra típica de pensamiento determinista lineal, pero si, finalmente, c vuelve a determinar a a, se establece un movimiento circular que implica algo radicalmente diferente: la tripleta a b c constituye un sistema complejo que, en última instancia, se determina a sí mismo, siguiendo unas reglas que son relativas al conjunto a b c, y no a cada una de las partes que lo componen. Estas reglas del conjunto del sistema responden a una finalidad, bien sea incrementar la eficacia del tiro antiaéreo, escribir en el procesador de texto de un ordenador, o establecer una comunicación entre un grupo de seres humanos. A estas reglas, relativas al conjunto del sistema y que responden a una finalidad (teleológica por definición), bien podríamos llamarlas Programa, y ni que decir tiene que pueden existir tantos programas como (sub)sistemas puedan considerarse.

Sin embargo, a pesar de que el pensamiento cibernético tiene en su origen una dimensión teleológica, entrañando una gran complejidad (retroalimentación), el término cibernética era sinónimo en los años cincuenta de todo tipo de tecnologías implicando automatización, o incluso robotización. Wiener se rebeló contra esta interpretación simplista en los últimos años de su vida (murió en 1964 en Estocolmo), de suerte que, en una especie de homenaje sintético, V. Pelekis (1975) colocó como epígrafe de su obra esta frase de Wiener: «Al hombre lo que es del hombre y a la máquina lo que es de la máquina» (Escarpit, 1976, 76).


La cibernética en la actualidad

En la actualidad, tal y como se ha mencionado más arriba, existen un buen número de términos derivados del concepto de cibernética con los que se intenta definir un tipo de individuo, y/o un tipo de situación en el que la retroacción, el feedback, es una pieza esencial para su entendimiento. Añado ahora que el feedback al que hago referencia siempre está en relación con máquinas (subsistemas) creados por el ser humano. De ello hablaremos con más detenimiento en los capítulos dedicados a las máquinas. Tan sólo una breve referencia a uno de los nuevos conceptos claves surgidos de la cibernética: se trata del cyberspace.

Este nuevo concepto no hace relación sino a lo que el Presidente Clinton calificó, en el discurso de la primera toma de posesión de su cargo, como «las autopistas de datos [data highways] y a lo que los ciberpunks se refieren como cyberspace. Ambos términos describen la globalmente circulante interconectada red telefónica que es el conducto para billones de comunicaciones a través de la voz, del fax, o del computador» (Time, 1-3-93, p.45). En palabras del escritor William Gibson, el ciberespacio es «una representación gráfica de datos abstraídos de ...cada computador en el interior del sistema humano» (Time, 1-3-93, p. 45).

En realidad el ciberespacio constituye un nuevo medio, un lugar de encuentro en un nivel diferente y que debe, por esa causa, ser motivo de reflexión, e incluso de teorización. Más adelante volveremos sobre el tema en los capítulos destinados a ello.



IV. SISTÉMICA


-¿Que es el Tao?

-Una nube en el cielo y agua en la jarra.

Yao-shan


Raíz físico-química (empírica) de la sistémica

No creo que sea casual que las primeras reflexiones en torno a la Teoría General de los Sistemas realizadas por Ludwig von Bertalanffy hayan tenido como base la Biología, ni que éstas hayan coincidido en el tiempo con las publicaciones de Cannon y de Whitehead (1926). Como ya se ha sugerido más arriba existe un punto de maduración imprescindible para que nuevas ideas, y nuevas formas de expresión de esas ideas, surjan de una sociedad y sean aceptadas por ella. Como dice el propio Bertalanffy «la aparición simultánea de ideas similares, independientemente y en diferentes continentes, fue sintomática de una nueva tendencia que, sin embargo, requeriría tiempo para ser aceptada» (Bertalanffy, 1976, 11).

Las palabras de Cannon citadas más arriba en el sentido de afirmar que el ser vivo es un sistema abierto que tiene multitud de relaciones con su entorno, así como su negativa a referirse a él en términos de equilibrio pues éste es sólo «aplicable a estados físico-químicos relativamente simples en sistemas cerrados donde las fuerzas conocidas están balanceadas» (Cannon, 1929, 400), y el hecho de que el propio Bertalanffy afirme que en relación a su asunción de «la consideración del organismo como un todo o sistema [...] los primeros enunciados del autor [refiriéndose a sí mismo] datan de 1925-26» (Bertalanffy, 1976, 11), permiten pensar que en los ambientes biológicos de los años veinte conceptos como el de sistema, tomados de la físico-química[11] eran absolutamente usuales.

 


¿Sistémica o teoría de sistemas?

Sin embargo, a pesar de la coincidencia existente -«cuando hay ideas en el aire» (Bertalanffy, 1976, 14)-, el sentido de la autoría en Bertalanffy es lo suficientemente fuerte para que le haga afirmar que «la idea de una 'teoría general de sistemas' fue primero introducida por el presente autor, antes de la cibernética, la ingeniería de sistemas y el surgimiento de campos afines» (Bertalanffy, 1976, 9). Ese mismo sentido de la autoría es el que le llevará a negar una identificación entre la teoría de los sistemas y la cibernética, afirmando que «La cibernética, como teoría de los mecanismos de control en la tecnología y la naturaleza, fundada en los conceptos de información y retroalimentación, no es sino una parte de una teoría general de los sistemas» (Bertalanffy, 1976, 16).

No obstante otros autores como Watzlawick o Joël de Rosnay (1975) han introducido un término nuevo, sistémica, con el que se pretende englobar toda una nueva forma de pensamiento, siendo este término el utilizado como sinónimo de cibernética. Así, Watzlawick, al explicar que «el comportamiento de una persona puede ser comprendido únicamente en función del comportamiento de las demás personas [...]» añade que «Esta actitud debía conducir inevitablemente hacia una epistemología que se podría calificar esquemáticamente de sistémica o cibernética» (Wilder, 1984, pp. 340-341). Asimismo califica de «sistémico, cibernético» (p. 341) al modelo que sostiene la terapia familiar.

Urabayen (1988, 46 y ss.) se hace ligeramente eco de esta posible polémica subrayando en cualquier caso «que el estudio de los sistemas cibernéticos había nacido independientemente» de las investigaciones de Bertalanffy (Urabayen, 1988, 46) y recordando que otro miembro del M.I.T., Jay W. Forrester, tras haber trabajado en la construcción de ordenadores y gestionado su uso para un sistema de alerta aérea en los años cincuenta, desarrolló, ya en los sesenta, lo que se ha dado en llamar Dinámica de Sistemas por medio de la cual «se trata de construir, basándose en la opinión de expertos, modelos dinámicos en los que juegan un papel primordial los bucles de realimentación, y empleando el ordenador como útil básico de simulación» (Aracil, 1978, 33).

A fin de aclarar quien pudiera tener razón, si Watzlawick o Bertalanffy, en la consideración de la Cibernética y Sistémica como sinónimos, parece claro que la G.S.T. (General System Theory) ha sufrido un desarrollo más allá de su autor original, de suerte que al enumerar los progresos novedosos (siete) en el campo de la ciencia moderna, el mismo Bertalanffy menciona a la propia G.S.T. «en el sentido más estricto», -[puesto que se aplica] «a fenómenos concretos»-, junto a la Cibernética, la teoría de la decisión, la teoría de la información, etc, como «destinados [los mencionados progresos] a enfrentarse a las necesidades de una teoría general de los sistemas» (Bertalanffy, 1976, 93-94). Entiendo que es éste segundo sentido de la expresión 'teoría general de los sistemas' más amplio y genérico que el primero (exclusivamente «aplicado a fenómenos concretos», p. 94), el que puede ser legítimamente equiparable a Cibernética, y aún más, si cabe, por el hecho de utilizar en esa equiparación un término nuevo como es el de Sistémica, con el que se intenta resumir un nuevo modelo de pensamiento. Veámoslo.


Definiciones

Tras una primera presentación, como tal teoría, en 1937 en el Seminario de Charles Morris en la Universidad de Chicago, y tras el paréntesis de la segunda guerra mundial, Bertalanffy descubre «que, al fin y al cabo, la teoría general de los sistemas no estaba tan aislada, ni era una idiosincrasia personal en el grado que yo había creído, sino que correspondía a una tendencia del pensamiento moderno». (Bertalanffy, 1976, 93). Para entonces, y casi simultáneamente, habían aparecido tres contribuciones que Bertalanffy juzga fundamentales y coincidentes (Bertalanffy, 1976, 14), Cybernetics de Wiener (1948), la teoría de la información de Shannon y Weaver (1947) y la teoría de los juegos de von Neumann y Morgensten (1947). Tras ellas surgirá como ya hemos visto la Dinámica de Sistemas de Forrester, la Teoría de la decisión, y un largo etcétera en el que habría que incluir, naturalmente, modelos teóricos de la Comunicación (como los esbozados o desarrollados por Bateson, Birdwhistell, Watzlawick y otros), modelos a los que hay que calificar de sistémicos.

La definición del concepto de Sistema por Bertalanffy (1974, 96) como «un conjunto de componentes en estado de interacción», es considerada por el propio autor como excesivamente general y vaga, y «da la impresión [...] de que no hubiera gran cosa que aprender de ella. No es así.» (Bertalanffy, 1976, 38). En efecto, de ella puede deducirse que lo más importante para poder determinar a un sistema no es otra cosa que la relación, la conectividad, la interacción en suma. Interacción «que alude a las modificaciones mutuas experimentadas por los elementos de un sistema por el hecho de pertenecer al mismo. Pero a diferencia de la imagen que daba la ciencia clásica -acción de un elemento sobre otro que la sufre y ante la que reacciona de una u otra manera- la característica de un sistema es que sus elementos pueden ser simultáneamente causas y efectos de las acciones y reacciones» (Urabayen, 1988, 38). Es decir, que la noción misma de sistema lleva implícita la noción de la complejidad de tal manera que es posible definir al sistema como algo en sí mismo complejo tal y como lo hace Jean Ladrière: «Un sistema es un objeto complejo, formado de componentes distintos unidos entre sí por un cierto número de relaciones» (Ladrière, 1973, 686).

La definición de sistema que ofrece el también biólogo Joël de Rosnay (1975, 93) como «conjunto de elementos en interacción dinámica, organizados en función de un fin [but]», es bastante más explícita que la ofrecida por Bertalanffy, en el sentido de incluir en ella, no sólo la característica de la interacción, sino también la de la organización teleológica, en sintonía, como ya hemos visto, con el pensamiento de Norbert Wiener. En esta misma línea, Lennard y Berstein señalan el carácter intrínsecamente temporal a la noción de sistema al afirmar que «un lapso está siempre implícito en un sistema», y que consistiendo un sistema, por definición, en un conjunto de interacciones «ello significa que debe tener lugar un proceso secuencial [desarrollado en el tiempo] de acción y reacción para que podamos describir cualquier estado del sistema o cualquier cambio de estado» (Lennard y Berstein, 1960, 13-14).


Relativismo sistémico: subsistemas

El carácter organizacional de la noción de sistema -que permite incluso a algunos afirmar que «Cualesquiera que sean los niveles, los objetos de análisis de la ciencia son siempre organizaciones, sistemas» (Jacob, 1970, 344), (haciendo del término 'organización' un sinónimo y un complemento del de 'sistema')-, no significa que éste sea un valor rígido e inmutable. De hecho «Para que un sistema [y por lo tanto una interrelación organizacional] pueda formarse y existir, es preciso que los constituyentes de todo conjunto, por su naturaleza o por las leyes que los rigen, sean susceptibles de acercarse y, al mismo tiempo de excluirse, de atraerse y repelerse a la vez, de asociarse y disociarse, de integrarse y desintegrarse» (Lupasco, 1962, 332).

De la noción de sistema emergerá, por la misma lógica de su dimensión relacional, el concepto de subsistema que no es sino un diferente sistema en conexión con el primero. En su origen este nuevo concepto surgirá tras la comprensión de que un sistema dado, cualquier sistema en definitiva, se desenvuelve junto a un entorno que puede ser llamado 'medio' y que es definido como «el conjunto de todos los objetos cuyos atributos al cambiar afectan al sistema y también aquellos objetos cuyos atributos son modificados por la conducta del sistema» (Hall y Fagen, 1956, 20). Esta división entre sistema y medio «hace evidente que cualquier sistema dado puede ser subdividido a su vez en subsistemas. Los objetos pertenecientes a un sistema pueden considerarse como parte del medio de otro sistema» (Hall y Fagen, 1956, 20).

La aparición de esta nueva inflexión en la sistémica y «el carácter evasivo y flexible de este concepto de sistema-medio o sistema-subsistema explica en considerable medida [según Watzlawick] la eficacia de la teoría de los sistemas generales para estudiar los sistemas vivos» (Watzlawick /Beavin /Jackson, 1989, 118). De esta nueva idea, sistema-subsistema, surgirá una reflexión inevitable entre la 'parte' y el 'todo' que quedarán consecuentemente relativizados. En palabras de Koestler, «En realidad 'todos' y 'partes' en sentido absoluto no existen, ni en el dominio de los organismos vivos ni en el de las organizaciones vivas ni en el de las organizaciones sociales» (Koestler, 1967, 50). Los sistemas o mejor (habría que decir), los (sub)sistemas son totalidades en relación con las partes que lo integran, y son partes en relación a las totalidades en las que están integradas.


Relativismo sistémico: no sumatividad

Esto no quiere decir que, a la manera cartesiana, el todo sea descomponible en partes que, una vez analizadas, permitan comprender el todo. La ambigua relación existente entre sistemas y subsistemas (todos y partes) no permite proceder de esa manera.

De hecho, uno de los principales principios de la sistémica es el de la no sumatividad, por el que el 'todo' nunca es igual a la suma de las partes. De la misma forma que el aufhebung hegeliano no es la suma de los momentos antitéticos, o la Gestalt (la configuración) perceptiva no es el producto de la apreciación analítica (matemática, cartesiana) de las partes que la conforman.

Muchos ejemplos se han dado y pueden darse para mostrar el principio de no sumatividad, desde el conjunto de piedras que dejan de serlo para convertirse en el Mont Saint Michel, hasta la inapropiada, por explosiva, suma(¡?) de ácido sulfúrico, agua y potasa. Bertalanffy ofrece uno perfectamente adecuado para nuestra era eléctrica: «tres conductores eléctricos tienen ciertas cargas que pueden medirse por separado en cada uno. Mas si se conectan con alambres, la carga en cada conductor depende de la constelación total y difiere de su carga cuando está aislado» (Bertalanffy, 1976, 69). De la misma forma, cuando hablamos de comunicación entre individuos, no podemos pensar que ésta es un sumatorio de las conductas particulares de cada comunicante, sino más bien «que las secuencias de comunicación serían recíprocamente inseparables; en síntesis, que la interacción es no-sumativa» (Watzlawick /Beavin /Jackson, 1989, 122), siendo (el proceso comunicativo) un (sub)sistema más, perfectamente diferenciable como unidad de estudio.

 


Nuevo paradigma

La ambigua relación existente entre sistemas y subsistemas ya mencionada más arriba supone además que, aunque puedan ser acotados conjuntos sistémicos para su análisis -para su 'decimiento'[12]-, la dimensión espacial en el nuevo paradigma queda radicalmente alterada: «incluso los límites espaciales de lo que parece ser a primera vista un objeto o cosa, resultan, de hecho, bastante vagos. En un cristal las valencias sobresalen, por así decir, al exterior. Los límites de una célula u organismo son igualmente difusos, puesto que estas entidades se mantienen en constante flujo de moléculas que entran y salen de las mismas, de suerte que es muy difícil pronunciarse sobre lo que pertenece o no al 'sistema vivo'. En resumidas cuentas, toda frontera es más dinámica que espacial» (Bertalanffy, 1979, 101).

Esto significa, que, debido a este carácter dinámico de las fronteras entre sistemas, las unidades de análisis son discretamente arbitrarias, constituyendo su discrecionalidad en aquellos parámetros que son comúnmente aceptados por la comunidad científica. No implica, sin embargo, una negación de la objetividad, o mejor dicho, del objeto, de la realidad empírica. El objeto empírico existe, y nadie lo niega: un carbón es un carbón. De lo que se trata es de que un carbón puede ser considerado como parte de un sistema de representación simbólico por el que los Reyes Magos castigan a los niños revoltosos, o como parte de un sistema por el que un determinado grupo de electrones en torno a un núcleo de protones (y otros elementos) constituye una entidad con unas características precisas y bien diferenciadas frente a otras entidades que también están formadas por un grupo de electrones en torno a un núcleo de..., y así sucesivamente. En los dos casos, y de cualesquier otros que se pudieran señalar, el carbón sería visto en relación con, formando parte de, algo que convenimos en llamar sistema.


Sistémica y comunicación

Cuando hablamos de Comunicación a finales del siglo XX, ya no es posible pensarla en términos puramente lingüísticos. Un enorme, gigantesco, e imparable desarrollo de lo audiovisual nos lo impide. Tan sólo es posible concebirla en términos sistémicos, donde la relación, la interactividad, y la complejidad son algunas de sus características esenciales.

De ahí que, y en razón de sus propias investigaciones, uno de los miembros del grupo de Palo Alto (del Center for Advanced Study in the Behavioral Sciences) Ray Birdwhistell, rechace «la idea tradicional según la cual el gesto es una especie de marco un poco superficial alrededor del lenguaje. Para él, gestualidad y lenguaje se integran en un sistema constituido por una multiplicidad de modos de comunicación» (Winkin, 1984, 74-75).

Es por esto que la unidad de análisis nunca puede ser la persona sino las relaciones entre personas, hasta tal punto que al definir al ser humano Birdwhistell afirma «...hacen falta dos miembros a la potencia n de la especie homo sapiens para producir un sólo ser humano» (Mac Dermott, 1984, 313). O dicho de otra manera, la unidad individual de la especie, no es más que un subsistema (que no tiene existencia autónoma sino) formando parte de otro más amplio en el que está integrado.

En este sentido, en esta misma línea, es posible comprender aún mejor el axioma de Watzlawick por el cual no es posible no comunicar (Watzlawick /Beavin /Jackson, 1989, 49-51), es decir que toda conducta, todo comportamiento, es comunicante e implica comunicación. Birdwhistell llega aún más lejos al afirmar que «un individuo no comunica; participa en una comunicación o se convierte en parte de ella» (Birdwhistell, 1959, 104). De la misma manera que, según él mismo dice, «un sistema de transporte no consiste en una vía férrea, estaciones, vagones, etc., sino que la cosa en su conjunto, el sistema, se convierte en el proceso; las partes no son pertinentes más que en la medida en que constituyen el proceso de transporte» (Mac Dermott, 1984, 313-314).

El enfoque sistémico, significa, pues, meterse de lleno en una dimensión procesual que por su misma naturaleza es desarrollada en el tiempo como ya se mencionó más arriba, y por la cual los elementos, las unidades subsistémicas, cuentan sólo en la medida en que interactúan, esto es, en la medida en que son parte de un proceso. La afirmación de Atlan, quien dijo que un sistema vivo es un sistema en el cual los elementos no son componentes químicos, sino reacciones químicas entre componentes (Morin, 1986, 359), es perfectamente extrapolable al sistema comunicativo. De tal manera que puede decirse que un sistema comunicacional es un sistema cuyos elementos no son sólo los sujetos comunicativos sino las reacciones comunicacionales entre los dichos sujetos.

Es desde esta óptica que enfocamos nuestro trabajo.


V. ENTROPÍA Y NEGENTROPÍA


Porque ser y no ser se

generan mutuamente

Lao Tse


Entropía y revolución industrial

El término y concepto de Entropía nació como una consecuencia directa de los inevitables estudios que sobre termodinámica hubieron de hacerse a raíz de la aparición de las máquinas de vapor. De una manera un tanto laxa podríamos remontar dichos estudios a los orígenes de nuestra civilización, recordando cómo Heráclito concebía al fuego como la causa generadora de todas las transformaciones. Pero, realmente, no será sino a partir del momento en que James Watts consiga manufacturar la naturaleza -midiendo en horse-power (HP) dicha manufacturación-, cuando el problema comience a desarrollarse.

No obstante, hubo de pasar un poco más de medio siglo hasta que se produjera la primera teorización positiva a cargo de Sadi Carnot. Hasta entonces, cada máquina era un mundo diferenciado y peculiar, con su propio índice de conversión del carbón en trabajo, sin que pudiera establecerse un linde teórico para ese índice. Con el propósito de establecerlo, en 1824 Carnot publicó un pequeño folleto titulado Réflexions sur la puissance motrice du feu et les machines propes a développer cette puissance, en el que se aseveraba que «el trabajo sólo puede realizarse por transferencia de calor entre diferentes temperaturas, cosa que es equivalente a lo que más tarde se denominó segunda ley de la termodinámica» (Bernal, 1973, vol.I, 451-452).

Como una consecuencia directa de esta ley (que establece una relación entre trabajo, calor y temperatura), Clasius, en 1876, llamó entropía a la función

dS =dQ/T

en donde la derivada de Q (dQ) es la cantidad de calor cedida a un sistema mecánico y T la temperatura absoluta a la que se produce dicha cesión. Esta magnitud permite evaluar la degradación de energía de un sistema en referencia a dos estados o situaciones del mismo. Si el sistema recibe calor, dQ es positivo y su entropía aumenta, si el sistema lo cede, entonces dQ es negativa (respecto al estado inicial) y en consecuencia su entropía disminuye (Watson, 1957, 329).


Significación e implicaciones

Del griego entropé (vuelta), el concepto de entropía viene a significar 'vuelta hacia el interior' (del sistema). Es decir que con la medida de la entropía se intenta expresar aquella cantidad de energía (que vuelve) degradada, desechada o inservible para producir un trabajo efectivo, en contraposición a aquella otra energía que, efectivamente ésta sí, es capaz de producir un trabajo (Eddington, 1945, 60). Esta magnitud es siempre distinta de cero (salvo en el ciclo de Carnot), lo que significa que en un sistema termodinámico es imposible conseguir una transformación íntegra del calor en trabajo, y por consiguiente se produce un pérdida de energía 'útil', una degradación de la misma, tanto más cuanto más baja sea la temperatura de ésta.

Esto no implica que haya una pérdida de energía en el sentido literal: la cantidad de energía -conforme al Principio de Conservación de la Energía ya preformulada por Helmholtz en 1847 (Bernal, 1973, vol.I, 452)- permanece siempre constante. Lo que ocurre es que esa energía ha quedado inservible, degradada, des-ordenada, de cara a la consecución de esa otra cara de la moneda de la energía que es el trabajo (W).

El siguiente paso en la delimitación del concepto tal y como lo entendemos hoy, se dio casi inmediatamente. En 1877, el físico austríaco Ludwig Boltzmann asocia el concepto de entropía al de desorden al definir la entropía de un sistema en términos de probabilidad organizativa (S = k log W), considerando al calor como la energía característica (intrínseca) de los movimientos desordenados de las moléculas en el seno de un sistema, con lo que en razón de que «la forma calorífica de la energía comporta desorden en sus movimientos, [es] por lo que hay una degradación inevitable de la aptitud para el trabajo» (Morin, 1986, 52).

Y así tenemos que para la comprensión del concepto, además de la degradación de la energía en términos calóricos (Clausius), propia de todo ciclo termodinámico irreversible, se une entonces una degradación en términos organizacionales (Boltzmann), lo que sin lugar a dudas es mucho más impactante y desde luego más comprensible desde el punto de vista cultural, de tal manera que, hoy en día, puede decirse que «la entropía puede ser representada como la medida de la desorganización de un sistema» (Eddington, 1945, 60).

A ello hay que sumar la idea ya expresada por Clausius (Morin, 1986, 53) de que el Universo se comporta como un sistema termodinámico global con una energía limitada que tendería inexorablemente a degradarse[13].


La entropía constestada: negentropía

Frente a esta concepción entrópica de la realidad, que concebía al universo como irremisiblemente abocado al desorden, y que es el resultado de una extrapolación desde sistemas termodinámicos cerrados (donde precisamente los estados de orden son a la vez iniciales e improbables), se erigía el sentido común para el cual la progresión irreversible del desorden (entropía) difícilmente podía ser compatible con el desarrollo organizador del universo material, y de la vida, que había finalmente conducido a la aparición del homo sapiens y a todo lo que éste está dando de sí. Además, «a escala humana y social, la corrosión [producto] del segundo principio [de termodinámica] estaba más que compensada por los beneficios técnicos y científicos que de él derivaban, beneficios que constituían una victoria de orden científico [... y de] orden industrial sobre el desorden calorífico» (Morin, 1986, 53).

Esta contradicción que el sentido común observaba (y que a pesar de todo para la vieja Termodinámica tenía un carácter absolutamente excluyente), de alguna manera fue convertida en contradicción incluyente a raíz de las investigaciones de Prigogine (1972, 547-562), acerca de los torbellinos de Bénard que demostraban «experimentalmente que, en condiciones de fluctuación y de inestabilidad, es decir de desorden, los flujos caloríficos pueden transformarse espontáneamente en 'estructura' o forma organizada» [...]. «Y es que el desarrollo nuevo de la termodinámica, de la cual Prigogine es el iniciador, nos muestra que no hay necesariamente exclusión, sino eventualmente complementariedad entre fenómenos desordenados y fenómenos organizadores» (Morin, 1986, 58).

Esta imbricación del desorden y el orden, ya había sido puesta de manifiesto por la nueva física y la astrofísica surgida a partir de 1900. La mecánica cuántica de Max Planc y la «delirante papilla subatómica de fotones, electrones, neutrones, protones [y demás elementos en aparición] desintegra todo lo que entendemos por orden, organización, evolución», aunque todo esto esté integrado en el orden a nivel estadístico (Morin, 1986, 55). El descubrimiento de millones de galaxias con billones de estrellas, todas ellas en expansión, la aparición y muerte de estrellas que no son otra cosa que gigantescas megabombas atómicas, nos conducen a pensar (junto con los descubrimientos en la microfísica) que el desorden no es el resultado determinista del orden, como pensaban los viejos físicos del XIX, sino que éste (el desorden) tiene un carácter genésico, es intrínseco y constitutivo al orden, un orden que ha producido la vida y que, entre otras cosas, nos ha permitido descubrir millones de galaxias, y algunas de las leyes que las rigen (Morin, 1986, 56-58).

Dejando al margen, de momento, esta discusión sobre la imbricación del orden en el desorden y viceversa (sobre la cual volveremos), en cualquier caso la aparición del concepto antagónico al de entropía, la introducción del concepto de negentropía en el léxico científico, ha sido el producto directo de las investigaciones de la propia Física. Y así tenemos que algunas teorías actuales acerca del origen y el destino del universo consideran que éste sufre una alternancia cíclica de expansiones y contracciones, mientras que otros físicos, como el británico Frederic Hoyle, han considerado que en el universo se da una permanente creación de átomos, y, en consecuencia, una disminución compensatoria de la entropía (Escarpit, 1976, 22). En ambos casos, la teoría implica la noción de una anti-entropía que, sin suponer una ruptura con el concepto de entropía (y todas las conquistas materiales a las que había conducido), permitiera dar una mejor explicación de los fenómenos en la naturaleza. A esta noción se le ha dado el nombre negentropía.


Extrapolaciones

En el campo de la Biología el concepto fue pronto asumido, en gran medida, gracias a la insistencia en una visión fisicista de la misma por parte de Schrödinger quien en 1945 planteó el problema de la organización viva desde ambos lados, o como dice Morin «bajo el ángulo de los dos sentidos de la entropía» (1986, 330), puesto que a fin de cuentas, los dos conceptos no son sino la cara y la cruz de la misma moneda (como lo son los dos triángulos equiláteros, opuestos y concurrentes, que forman la estrella).

Expresado en términos sistémicos puede decirse que la naturaleza dinámica de los sistemas abiertos implica que en ellos «no sólo tenemos producción de entropía debida a procesos irreversibles, sino también entrada de entropía que bien puede ser negativa. Tal es el caso en el organismo vivo, que importa moléculas ricas en energía libre [con las que puede evitar el aumento de entropía y desarrollarse] hacia estados de orden y organización crecientes.» (Bertalanffy, 1976, 41). Asimismo «Un sistema abierto consigue tender 'activamente' hacia un estado de mayor organización, es decir, pasar de un estado de orden inferior a otro de orden superior ...». Esto se produce gracias a los mecanismos de retroalimentación propios de los sistemas quienes pueden alcanzar reactivamente un estado de organización superior merced al aprendizaje [la memoria posibilita la recalibración y el documento] es decir, gracias a la información conseguida por el sistema (Bertalanffy, 1976, 156).

La extrapolación se ha invertido: mientras que los físicos del XIX consideraban al universo (y a todos los elementos 'vivos' dentro de él) como un sistema cerrado, a semejanza de un sistema termodinámico de ciclo irreversible, en años recientes «hemos presenciado una expansión de la física orientada a la inclusión de sistemas abiertos» (Bertalanffy, 1976, 39-40), a semejanza, tengo que añadir, de los propios sistemas 'vivos'.

Ambos conceptos, entropía y negentropía, son tremendamente operativos conceptualmente, y fácilmente extrapolables (como yo mismo he hecho tres párrafos más arriba) a formas y expresiones (productos culturales) del conocimiento.

Como sinónimos de desorden y orden, respectivamente, son por completo equiparables a los conceptos de Caos y Cosmos, fundamentales en la cosmogonía griega y en su proceso de creación del universo, de la misma manera que otros conceptos (con una valor igualmente antinómico) lo son en otras cosmogonías. En ellas, el proceso de creación no es otra cosa que «el paso de un estado de desorden indiferenciado (el khaos de los Griegos, el tohu ve bohu de la Biblia) a un orden organizado (el kosmos de los Griegos, el mundus de los Latinos retomado por el cristianismo). Con toda evidencia la creación es descrita como un proceso negentrópico» (Escarpit, 1976, 24).

Sin embargo, esta relación entre caos y cosmos, entre elementos antitéticos, no acaba ahí. Ya hemos visto cómo para la nueva física[14] el desorden es constitutivo y generador del orden que a su vez es susceptible de producir desorden. La relación entre entropía y negentropía no es, pues, una relación inicial, sino una relación permanente. De la misma forma que lo son, en otros ámbitos culturales, conceptos como Hybris (demencia) y Diké (justicia, medida), ying y yang, Eros y Thanatos.

Esta relación no es, como puede verse, nueva: ya Heráclito la puso de manifiesto en su plena dimensión de Conflicto como Rey de todas las cosas (Morin 1986, 80). Ni tampoco la sistémica es ajena a esta manera de ver las cosas. Para la sistémica y en particular para Bertalanffy «cada todo se basa en la competencia entre sus elementos y presupone la 'lucha entre partes'»(Bertalanffy, 1976, 68). Quizás por ello, René Thom sugiere que la vida ha nacido de una «lucha de subsistemas con efectos opuestos que se neutralizan en la zona óptima de la homeostasis» (Thom, 1974, 147); y Morin añade, «ésta se mantiene [...] a través de desórdenes, conflictos, antagonismos» (Morin, 1986, 250).


Teoría de la información

Ya hemos visto como la extrapolación de los conceptos de entropía y negentropía fuera del ámbito estricto de la Termodinámica es totalmente posible. Y cómo estos conceptos son aplicables a campos donde el cálculo matemático no es enteramente necesario.

En el terreno de las Ciencias Sociales, y en concreto en el campo de la Comunicación, el concepto de entropía fue aplicado por primera vez con Claude Elwood Shannon, quien en 1948 publicó a lo largo de dos números de la revista de la compañía telefónica Bell para la cual trabajaba (The Bell System Technical Journal, Vol. 27, pp.379-423 y 623-656) un artículo en el cual se incluía el famoso modelo lineal de comunicación (Rodrigo Alsina, 1989, 36). Al año siguiente, en colaboración con Warren Weaver publica el clásico The Mathematical Theory of Communication que ha dado lugar a lo que se conoce como Teoría de la Información, sobre la cual pretendemos no tanto el realizar una exposición exhaustiva sino más bien subrayar sus deficiencias.

Ya la primera pista sobre el carácter limitado de la teoría, posiblemente estribe en el ámbito de investigación en la cual fue desarrollada, una compañía de transmisión de datos la cual lógica y legítimamente desea obtener el máximo de rendimiento y de eficacia en su actividad. Ya en 1924, un ingeniero de la misma compañía[15] Harry Nyquist publicó un artículo en donde desarrollaba una fórmula con la que medir la velocidad de transmisión de los mensajes telegráficos (Escarpit, 1976, 25). Las semejanzas de la fórmula W = K log m, con la fórmula para la entropía de Boltzmann, S = k log w, son evidentes. En la fórmula de Nyquist, W representa la velocidad de transmisión de los mensajes telegráficos, que está ligada a m modulaciones posibles de corriente eléctrica (las m variables de que dispone el sistema) mediante la relación ya expresada (K es una constante). En la fórmula de Boltzmann, la entropía S (variable macroscópica) está ligada al número de complexiones o configuraciones microscópicas w que pueden tomar las moléculas de un gas en un sistema termodinámico mediante la relación ya expresada.

En 1928, otro teórico de la comunicación, R.V.L. Harley, introdujo por primera vez una medida de la cantidad de información de un mensaje dando con ello un paso más hasta llegar a la formulación por parte de Shannon de la medida de la cantidad de información potencial de una fuente, es decir su entropía (Escarpit, 1976, 26).


Deficiencias en la teoría de la información

Llegados a este punto se han de subrayar al menos dos aspectos problemáticos de la Teoría de la Información.

El primero se refiere al hecho que en «la teoría de la información [...] la significación de los mensajes no es tomada en consideración. Un texto incoherente, es decir toda una serie de caracteres, aparentemente arbitrarios, tiene valor de mensaje. No existe ahí ningún inconveniente en identificar texto y mensaje» (Roubine, 1970, tomo III, 2). Quien esto afirma no es otro que un físico experto en telecomunicaciones quien enfatiza la dimensión puramente técnica de la serie emisor /canal /receptor concebida por Shannon y Weaver (en su forma más esquemática). Para Roubine, el mensaje de un telegrama puede verse desde dos puntos de vista, el de la persona que lo concibe, (para quien tendría un valor cualitativo), y el del empleado de correos que lo contemplaría desde un punto de vista exclusivamente cuantitativo aplicando la tarifa correspondiente a la cantidad de información medida por la longitud del texto. La llamada Teoría de la Información implicaría esta última actitud. Una actitud en la que lo que verdaderamente cuenta es el significante, el signo, y no lo significado, el sentido, tal y como el propio Weaver dice: «La palabra 'información' se usa en esta teoría con un sentido especial que no debe confundirse con su uso cotidiano. En particular, información no debe confundirse con significado» (Weaver, 1981, 25).

El segundo, y sin duda más importante, problema derivado de la Teoría de la Información es que la 'medida de la cantidad de información de una fuente' hace referencia a fuentes sin memoria. Como ha sido demostrado, una moneda (fuente) siempre tendrá la misma entropía (potencial informativo) una y otra vez antes de su lanzamiento al aire, entropía que será anulada en el momento mismo en que se conozca el resultado (Escarpit, 1976, 27). Sin embargo, un ser dotado de memoria hará variar el número de posibilidades en el ofrececimiento de información (considerando a ese ser como una fuente) en función de sus propias experiencias (memoria). De ahí que, estrictamente hablando, queden fuera del cálculo todas aquellas fuentes dotadas de memoria para las que su potencial de comunicación es radicalmente alterado por su experiencia, es decir por su memoria: y es que a semejanza de la termodinámica del XIX «De hecho, Shannon, había concebido el sistema emisor /vía /receptor[16] como un sistema cerrado, no generativo» (Morin, 1986, 346) y olvidado, u obviado «la naturaleza relacional de la información» (Morin, 1986, 347) entre los comunicantes.

Es por esta razón que, siendo consecuentes con todo lo anteriormente escrito en la presente obra, no es de nuestro interés el concepto de entropía en el sentido descrito por Shannon y Weaver, es decir como una medida matemática de la cantidad de información. Sí lo es, sin embargo, en tanto que concepto que ha pasado a formar parte del vocabulario de las ciencias sociales sirviendo, consiguientemente, como moneda de cambio (conceptual e intelectual) en nuestra cultura. Este concepto y otros, como negentropía, ruido, redundancia, puestos en circulación por Shannon, son hoy material imprescindible, y así lo han sido desde su aparición, para cualquier reflexión que en torno al hecho Comunicativo pudiera hacerse.

Además consideramos que el uso no matemático de estos conceptos está plenamente justificado, pues como dice Bertalanffy aunque «Las ventajas de los modelos matemáticos [...] son bien conocidas. No quiere esto decir que modelos formulados en lenguaje ordinario hayan de ser desdeñados o rechazados» (Bertalanffy, 1976, 23).


Comunicación y entropía (-negentropía)

A partir de su introducción en el mundo de la reflexión teórica en torno a la Comunicación, los conceptos de negentropía y entropía han quedado asociados respectivamente, en una visión excesivamente simplista, a información (en su dimensión cuantitativa) y a ausencia de ella, sin subrayar el carácter dinámico y cohesivo que nos permite afirmar que ambos conceptos constituyen las dos caras de una misma moneda[17] en donde «la oposición entre los términos de entropía y negentropía no basta; [esta oposición] hay que incluirla necesariamente en una relación compleja, es decir, no sólo antagonista y concurrente, sino también complementaria e incierta» (Morin, 1986, 335). De tal manera que «para comprender la información, es necesario pasar del sistema de explicación donde la entropía es una magnitud univectorial simple, a un meta-sistema donde la entropía se convierte en un concepto complejo, que comporta a la vez un proceso positivo y negativo (que llegan a ser complementarios, concurrentes, antagonistas)[...]» (Morin, 1986, 346)[18]. O expresado en palabras de Orrin Klapp «Juntas, información y entropía comprenden un continuum» (Klapp, 1986, 118).

Es precisamente este autor, Orrin Klapp, quien moviéndose en el campo de lo que él mismo denomina Information Search (en una clara alusión distanciadora de la Mass Communication Research[19]) ha puesto en práctica esa visión compleja a la que se aludía un poco más arriba.

Klapp propone una reflexión teórica cimentada en cuatro conceptos claves, entropía, información (negentropía), redundancia y variedad, y en la que se desmantelan algunas visiones simplistas que pudieran equiparar, de una manera automática, el primer par de conceptos con el segundo.

Para Klapp, en primer lugar, la información en ningún caso debe ser confundida con la cantidad de información, rechazando, con argumentos similares a los expresados más arriba, la teoría de Shannon en la que «se lidia sólo con una particular característica o aspecto de los mensajes que 'acarrean' información» confundiendo por tanto continente con contenido (Klapp, 1986, 117).

Información es un concepto complejo con un amplio campo semántico que incluye desde el 'conocimiento útil' hasta la 'sabiduría', pasando por 'aprendizaje', 'adaptación', 'sentido' [meaning][20], etc (p.117). Así considerada, la información es siempre negentrópica, opuesta a la confusión y la azarosidad [randomness] que supone ser la entropía: «En general, información significa progreso y entropía un paso atrás». Sin embargo ambas, como ya se ha dicho, forman un continuum (Klapp, 1986, 117-118). Veamos el porqué.

Según Klapp existen dos vías, dos maneras de alcanzar el tedio y el hastío. «Una es mediante la redundancia, es decir, demasiada información que es tan similar que no dice nada interesante y nuevo», proponiendo como ejemplo de «perfecta situación de hastío» las situaciones presentadas en las obras teatrales de Becquet y Sartre Esperando a Godot y Sin salida respectivamente. «La otra es por medio de una sobrecarga de variedad tan insignificante y ruidosa que diga poco de interés y que no encaje en ningún patrón significativo» (Klapp, 1986, 118).

figura2

Figura 2: Los cuatro sectores de la búsqueda de la información

figura3

Figura 3: Diagrama de la búsqueda de información

Sin embargo existe un tipo de redundancia significativa a la que Klapp llama «buena» redundancia, cuya función es la de «dar un sentimiento de proximidad hacia aquellos que la comparten [y que constituye] el fundamento de la continuidad en tanto que memoria y cultura;[el fundamento] de la comunicación en tanto que dadora de sentido a los símbolos; de la resonancia en relación con los otros (el lazo común de la redundancia, a menudo llamado consenso, sin el que la gente no puede sentir al unísono); de identidad en tanto que vuelta [playback] de los recuerdos que nos dicen quién es uno» (Klapp, 1986, 119-120).

La relación entre los cuatro conceptos queda perfectamente expresada en las figuras 2 y 3 (completa y simplificada)(Klapp, 1986, 119-120), con entropía y negentropía (meaning) en dos de sus extremos, y redundancia y variedad en los otros dos. En palabras de Klapp «Todo el que está despierto está en uno de estos cuadrantes, por la sencilla razón de que no hay ningún otro lugar a donde ir» (Klapp, 1986, 120).

Esta relación, que hasta el momento, ha sido presentada estáticamente, tiene, sin embargo un carácter dinámico, pudiendo ver en los esquemas anteriores a los vectores de fuerza que impulsan esa dinámica y en la que es fundamental la consideración de que «la vida humana es una inacabable búsqueda de sentido» teniendo en su contra la tendencia entrópica hacia el desorden y el sinsentido, y siendo el aburrimiento, el hastío [boredom], la señal de que uno se ha desviado o bien hacia la aburrida redundancia (banalidad) o bien hacia la aburrida variedad (ruido) (Klapp, 1986, 120-121).

 

figura4

Figura 4: Movimiento de la búsqueda de sentido

Para Klapp el normal movimiento hacia la negentropía (meaning-search) conlleva continuos cambios de rumbo (como si estuviéramos navegando contra el viento de la entropía), tal y como queda reflejado gráficamente en la figura 4 (Klapp, 1986, 122), «hacia la redundancia en razón de la similitud que refuerza y tranquiliza, y hacia la variedad en razón de la aventura y el descubrimiento» (Klapp, 1986, 121). Y así tenemos que «un típico modelo [pattern] de movimiento podría ser: buscando lo nuevo (buena variedad) nos desviamos hacia la confusión (mala variedad), volvemos hacia lo conocido (buena redundancia) y nos sentimos hastiados por las restricciones de lo acostumbrado, buscamos lo nuevo (buena variedad) y así sucesivamente» (Klapp, 1986, 121-122).

En la vida cotidiana existen multitud de ejemplos que muestran que en cada acto de comunicación se ponen en marcha elementos pertenecientes tanto a la variedad como a la redundancia, constituyendo ambas un continuo que engarza a su vez con el continuo negentropía-entropía. La «buena» o «mala» comunicación no depende entonces de la aparición de la redundancia o de la variedad (que siempre están presentes) sino de su conexión relacional con el sentido o el sinsentido desde y hacia el cual pueden deslizarse (Klapp, 1986, 123-125).

Es desde una óptica relacional (entropía que puede producir negentropía que puede producir entropía, y así sucesivamente) que los conceptos de entropía y negentropía son asumidos como hilo investigador en consonancia con la visión sistémica adoptada en el capítulo correspondiente.

Además, aunque no conozco investigaciones cuantitativas adhoc, una simple ojeada a los estudios audimétricos permiten considerar que este movimiento, por así decirlo, pendular es una característica intrínseca a las audiencias televisivas, con grandes oscilaciones puntuales, como la producida, según el diario El Mundo (17-11-1990), el primer día de emisión de la serie Twin Peaks, quien partiendo de una audiencia aproximada del 33% alcanzó casi al final de la emisión el 62,2% en Time Share, seguramente como consecuencia de la práctica del «zapping-enganche». Estas oscilaciones, producto del tipo de programa y del día u hora de emisión, así como la perecibilidad de las programaciones, e incluso el mismo cambio de estilo de los programas considerados como estables (los informativos), permiten considerar el punto de vista adoptado como punto de partida.

 





Parte Segunda. Máquinas





Función Homeostática de la Comunicación. Entropía-Negentropía Comunicativa


VI. HOMEOSTASIS Y MÁQUINAS DE COMUNICAR


-Todo el mundo sabe que Orfeo ama a Eurídice.

Jean Cocteau (Orfeo Negro)


Máquinas

El término máquina hunde sus raíces en una de las partes más profundas de los orígenes de nuestra civilización. Proviene del término latino machina, y éste a su vez del griego dórico machaná, siendo a su vez un vocablo de origen indoeuropeo. Entonces como ahora servía para designar cualquier tipo de «artificio para aprovechar, dirigir o regular la acción de una fuerza» (RAE, 1992).

El resto de la lenguas derivadas del Latín, o con fuerte influencia de ese idioma, definen el concepto de máquina en términos parecidos, si no exactamente iguales. Así, por ejemplo, nos encontramos con que el Oxford Ilustrated Dictionary (1962) lo hace en su primera acepción como «aparato que sirve para aplicar una fuerza [power] mecánica». Mientras que en el Petit Larousse (1961) se insiste más en la capacidad que tiene lo definido, en tanto que conjunto de aparatos, para «recibir una forma de energía, transformarla y restituirla bajo una forma más apropiada, o para producir un efecto dado».

En todos los casos, el concepto de máquina, definido siempre como aparato, como artilugio, implica una prolongación de la acción humana: una suerte de prótesis aditiva (McLuhan, 1969b) por medio de la cual extendemos y ampliamos el campo de nuestra acción. En ese sentido, en la conciencia del origen humano de la máquina, hay que entender la acuñación latina Deus ex machina (el dios de la máquina) referida a una situación falsamente feliz[21].

El Webster Dictionary (1976) nos recuerda que en su uso arcaico servía para designar cualquier estructura fuera ésta material o inmaterial. Y así sucedía durante la Edad Media, cuando el término máquina valía para nombrar indistintamente tanto a una noria como a la bóveda celeste, así como los esquemas y árboles del Arte de Ramón Llull quien tanto influyó en el P. Athanase Kircher (Cruz Hernández, 1977, 335-339) el gran difusor de la linterna mágica en el siglo XVII.

En algunos idiomas, como el italiano, el término máquina ha quedado definitivamente asociado a un tipo específico de artilugio, tal y como en el español peninsular se acabó haciendo con las batidoras eléctricas a las que se designaba por el nombre de la marca de una ellas (Turmix, ya en desuso). De ello deja constancia Il nuovo Zingarelli (1986) al indicar que en italiano el término (macchina) por antonomasia sirve para referirse al automóvil.

Por su parte el Diccionario de la Real Academia (1992) señala que el término por antonomasia en español designa a la Locomotora. Sin embargo, mientras que en italiano -en una situación descontextualizada- puede decirse 'me han traído en una macchina preciosa' (o 'he subido a una máquina preciosa'), y todo el mundo sabe perfectamente que se trata de un automóvil, en español no ocurre otro tanto, y para que la misma frase sea entendible (con su significación supuestamente antonomásica: locomotora), ésta ha de ser emitida en un contexto muy específico y determinado[22]. En cualquier caso, la vinculación del término en ambos idiomas a dos referentes dispares, expresa bastante bien lo que significa subirse al siglo XX, o quedarse en el XIX. Quizás sea justamente ésa la distancia que separa a Campoamor de Marinetti[23].

La ligazón del término máquina con otros para formar compuestos, es una práctica habitual en los idiomas con influencia greco-latina. Desde machine gun (ametralladora), hasta máquina de escribir, pasando por nähmaschine (máquina de coser), los idiomas mencionados están llenos de ellos, por lo que sería premioso ofrecer una relación completa.

En la actualidad, creemos que existe una revalorización del concepto en un sentido sistémico (subsistémico), ya que tanto puede valer para designar partes como todos. Le Corbusier, por ejemplo, pensaba que una casa no era otra cosa que una máquina para vivir, y una silla, una máquina para sentarse (ABC, 25/08/95). Por su parte, Morin, poniendo como ejemplo a Wiener quien concebía la máquina como un ser físico organizador, y desarrollando hasta sus últimas consecuencias el nuevo modelo de pensamiento, entiende que «Una máquina es, pues, un ser físico práxico, es decir, que efectúa sus transformaciones, producciones o realizaciones en virtud de una competencia organizacional» (Morin, 1986, pp.185-186).

En el ámbito de la teoría de la comunicación, la noción de máquinas de comunicar como concepto explícitamente nuevo fue puesto en circulación por Shaeffer en el ensayo del mismo nombre (1971-1972), si bien Marshall McLuhan, a lo largo de toda su obra lo utilizó continuamente de una manera implícita, especialmente en Understanding Media (1964), donde realizó brillantes análisis, en una especie de recapitulación general, acerca de aquellos elementos que podían suponer un factor de cambio cultural. Todos los elementos analizados por McLuhan en la parte II del texto mencionado, y que comprenden desde la palabra hablada hasta las armas (en total de 25) son elementos comunicacionales. Sin embargo, no resulta fácil para el común de las gentes reconocer a todos ellos como máquinas de comunicar. Mientras que la radio, la máquina de escribir, el cine o la televisión son fácilmente identificables como máquinas, otros, como el vestido, los caminos, o las propias armas (por muy electrónicas que sean), lo serían de muy difícil manera.

A pesar de todo, y precisamente debido a la polivalencia que su uso puede significar, creo que la introducción del concepto de máquinas de comunicar realmente supone ser una novedad epistemológica que a buen seguro dará sus frutos. Shaeffer considera que estas máquinas «manejan los dos grandes aspectos del fenómeno audiovisual, por un lado, la captación y la reproducción de los sonidos y de las imágenes, y por otro, la difusión de mensajes a través del espacio y el tiempo hacia todas clase de poblaciones» (Shaeffer 1971-1972). De esta definición, me parece interesante subrayar especialmente su segunda parte: es decir, la doble capacidad de emisión de mensajes a través del espacio y el tiempo hacia toda clase de poblaciones. Con ella, con esa capacidad, el eje espacio-temporal del determinismo queda roto, y los corsés culturales, aquellos que aprisionan con prejuicios, clichés y rutinas diferenciadoras a los pueblos, comienzan a agrietarse.

Jacques Perriault las llama directamente máquinas de compensar (Perriault, 1991, Capítulo 2º) y, con Shaeffer, opina que la principal característica de este tipo de máquinas es la de producir simulacros, «'apariencias' que se toman por realidad». «No es la voz lo que oímos por teléfono, sino una reconstrucción más o menos fiel, privada para colmo de los gestos que la acompañan. No es al Primer Ministro a quien vemos en la televisión, sino a un arreglo de puntos luminosos sobre la pantalla catódica» (Perriault, 1991, 51). En esa misma línea, define a lo audiovisual contemporáneo como el «conjunto de técnicas que reconstituyen un espectáculo (simulacro para el ojo y el oído a través de formas codificadas, [de índole] cultural y social, que provocan un efecto de realidad)» (Perriault, 1981, 207).

Sin embargo, siendo cierto que los mensajes emitidos, o recibidos, gracias a las máquinas de comunicar, producen una realidad distinta, y en cierto sentido son un simulacro de una realidad primigenia, no por ello, los mensajes mismos dejan de ser realidades con un valor propio. Y siendo cierto, precisamente, que una determinada iluminación sobre el Primer Ministro afectará su imagen (para mejorarla o empeorarla), entonces no podemos hablar de «efectos de realidad» o de «apariencias que se toman por realidades», puesto que ellas mismas son realidades.

Este razonamiento se verá aún claro si utilizamos como ejemplo los productos (los mensajes) obtenidos por las imprentas, esas máquinas de comunicar preaudiovisuales. Los libros impresos son realidades en sí mismas, diferentes por definición a los manuscritos (los originales) en los que se plasmó el primitivo mensaje. En relación a aquel mensaje, estos constituyen un simulacro ciertamente, pero siéndolo, no quiere ello decir que los libros impresos (u otras formas de simulación) se sitúen en un grado de traición absoluta al original. Simplemente son distintos, son realidades diferentes en los que en muchos casos la fidelidad al original es casi total. Esta fidelidad que en otro tiempo tenía un carácter tosco y a menudo impreciso, va camino cada vez más de convertirse, gracias al desarrollo de las tecnologías, en una fidelidad exacta e indiferenciable [especialmente en el campo de la transmisión y (re)creación del sonido donde los avances han sido espectaculares; atrás queda la extraña sensación de hablar por teléfono con una chocante voz gangosa difícilmente identificable]. De hecho, hoy en día es posible poner ejemplos de capacidad de (re)producción tecnológica fidedigna referente a cualquiera de los cinco sentidos clásicos. Desde los facsímiles en pergamino, hasta el falso cuero o mármol, pasando por los sabores y olores (re)producidos químicamente (esos extraños potenciadores de sabor que hay en los alimentos embasados), la tecnología nos proporciona continuamente 'simulacros', conforme a la terminología de Perriault, 'realidades' según el sentido común que son casi, que son como, las realidades originarias. Que siendo iguales, son diferentes; que siendo diferentes son iguales.

Porque en cualquier caso, al margen de los ejemplos concretos que podamos imaginar, ya sea en el pasado, en el presente, y en lo que aún queda por venir, no estaremos hablando (no podemos hablar en la investigación massmediática) de una realidad y su doble, sino de diferentes realidades que a veces se superponen, que a veces se asemejan, y siempre se entrecruzan.

Por ello, por todo lo antes dicho, consideramos insuficiente cualquier definición de los Mass Media que esté basada en la consideración de sus productos como realidades aparentes, como espectáculos (en su sentido de simulación). Este tipo de definiciones, deudoras en lo concreto de la obra de Jean Baudrillard, tienen su fundamento en los análisis políticos realizados por los Situacionistas franceses[24] a mediados de los años sesenta, sobrepasados (como ya veremos) por el increíble desarrollo tecnológico y por la unánime aceptación del concepto de interactividad en la moderna investigación massmediática.

Así, por tanto, consideramos que la mejor aproximación definitoria de las 'máquinas de comunicar' no puede ser otra que una pura y simple descripción de las mismas basada en la formulación previa realizada por Shaeffer. Máquinas de comunicar son, pues, aquellas que realizan la doble función de, por un lado, captar, reproducir y crear sonidos, imágenes y situaciones, y por otro, difundir los mensajes así generados a través del espacio y el tiempo hacia toda clase de poblaciones.

De entre todas las funciones que, hasta un total de cinco, Jacques Perriault señala como propias de las máquinas de comunicar (Perriault, 1991, 57-58), la más interesante para el tema que nos ocupa (así como la más recurrente en Perriault y en otros) es la llamada función compensatoria.

Esta función compensatoria sería el fundamento, la razón y la base para su creación y su existencia, el núcleo constituyente de tal tipo de máquinas. En palabras de Perriault, esta función no es otra que «la función global de las máquinas de comunicar, [...] su finalidad» (Perriault, 1991, 58). Nacen tras la percepción de un desequilibrio en el individuo o en la sociedad con la intención de atenuarlo o incluso de anularlo. Este desequilibrio puede ser debido a muchas causas tales como la «falta de información, [la] ausencia, [la] soledad, [la] guerra, [la] enfermedad o [la] discapacidad. [...] Gracias a ellas [a las máquinas] el equilibrio será reencontrado.» (Perriault, 1991, 58-59). Las máquinas de comunicar son, pues, por definición máquinas homeostáticas, cuya pretensión es reencontrar un equilibrio perdido.


Tecnología y Comunicación

En realidad esta función compensatoria puede ser perfectamente extrapolable a todo tipo de máquinas. Con ellas, con las máquinas producidas gracias a la técnica, el ser humano se dota a sí mismo de elementos que le ayudan a compensar sus deficiencias, sus limitaciones frente a la naturaleza. El mito de una Edad de Oro en la que tales limitaciones no existirían permite comprender que el objetivo de las máquinas -de cualquier máquina- no es otro que el de reencontrar ese equilibrio perdido, añorado y deseado por cualquier ser humano, sea cual fuere su condición.

De hecho «El deseo de construir máquinas que faciliten la labor humana no es exclusivo de nuestra época, ni siquiera de siglos anteriores al nuestro.» (García de Diego, 1988, 50). Ni tampoco este deseo es exclusivo de la civilización occidental; recordemos que los artilugios creados para facilitar y controlar el regadío son comunes a todas las civilizaciones agrícolas. En realidad, bien puede decirse que la propia aparición del ser humano está ligada a la creación y utilización de herramientas (hachas de silex, puntas de flecha, el propio arco) que le han permitido compensar sus limitaciones y deficiencias[25].

Asimismo, aunque conceptualmente bien puede decirse que la aparición del pensamiento cibernético supone, como ya se ha visto, un salto paradigmático, tampoco es nuevo en el ser humano el deseo de automatizar los procesos de computación: «desde Euclides al menos se ha intentado automatizar los procesos de cálculo aritmético» (Perriault, 1971, 2), y ha sido en este campo (en el del cálculo aritmético) donde los resultados, a la larga, han sido más fructíferos. Promovido y desarrollado con certeza a partir del Neolítico por los sacerdotes encargados del cómputo del tiempo, el camino recorrido nos ha llevado a una sociedad donde prácticamente todas las máquinas de comunicar -desde las cámaras de video domésticas a las redes telefónicas- contienen elementos cibernéticos, esto es pequeños (o grandes) computadores que permiten la realización de (un) programa(s).

Esta vinculación de las modernas máquinas de comunicar con el pasado, así como su inserción en el campo más amplio de la máquinas (sin adjetivar) es algo que conviene no dejar de tener presente a fin de poder comprender el hilo conductor de las acciones humanas, y facilitar de esta manera la comprensión de los fenómenos de los que la Investigación Comunicacional (Communication Research) se hace cargo.

Más arriba decíamos que McLuhan había analizado veinticinco elementos comunicacionales, de los cuales tan sólo cuatro o cinco podían ser fácilmente identificados como máquinas de comunicar. Sin embargo, a pesar de todo, a todos ellos (productos de la tecnología) los considerábamos como elementos que producían comunicación, es decir, los calificábamos como elementos comunicacionales. Extrapolando el análisis McLuhiano a cualquier máquina (o a sus resultados), podremos afirmar que cualquier artilugio, cualquier producto de la techne es un elemento comunicacional.

Frank Biocca nos recuerda que la palabra tecnología proviene de la conjunción de las palabras griegas techne y logos (Biocca, 1993, 64-65). La primera fue traducida al latín como ars (arte) y viene a significar la capacidad, la habilidad, que tiene el ser humano para crear cosas siguiendo un modelo teórico extraído inductivamente de la experiencia (modelo teórico que es homologable a Ciencia). «La segunda logos significa palabra, discurso». [Ello implica que] «los orígenes del término sugieren que la comunicación está en el corazón mismo de la tecnología» (Biocca, 1993, 65), de suerte que podemos afirmar que cualquier artilugio, cualquier máquina es un elemento comunicacional.

Y ello por tres razones,

a) porque su aparición implica el surgimiento de un signo, de una palabra, necesariamente inscrita en un discurso;

b) porque la máquina en tanto que producto artificial (término derivado de Arte) queda inscrita por su naturaleza en el campo de lo humano, y ya hemos visto que éste es comunicacional (un subsistema inscrito en primera instancia en un subsistema humano más amplio);

c) porque la máquina, cualquier máquina, surge para superar una limitación, una deficiencia o carencia, de suerte que esa función compensatoria –homeostática- pretende ser como el puente que nos permita llegar a ser lo que podemos ser.

El tipo de discurso que ha hecho de la tecnología un factor fundamental en la liberación del ser humano respecto de sus restricciones y limitaciones no es nuevo. Este discurso, que se remonta ostentosamente al siglo XVIII, y se pone de manifiesto en los artículos de la Enciclopedia, ha sido reavivado muy especialmente con la aparición de nuevas tecnologías massmediáticas. Sin pretender entrar ni mucho menos en una discusión general acerca del mismo (no es el momento ni el lugar), si quisiera subrayar las palabras de Jaron Lanier (fundador de Virtual Programming Language Research) cuando al hablar sobre la Realidad Virtual señala que en relación a ésta «hay un chocante similitud con la retórica asociada con la temprana fotografía, cine, y con las primitivas grabaciones de sonido, y con la temprana tecnología telefónica. Hay una suerte de -digamos- tecnología como ruta hacia una comunidad [...] como ruta hacia una especie de comunión social, y una capacidad para ser libre de las restricciones físicas cimentadas en las fuentes de la experiencia.[...] Pienso que alguna de la temprana retórica asociada con el texto escrito mismo tiene, de hecho, cualidades similares» (Lanier & Biocca, 1992, 156). Esta 'retórica' tiene toda ella un eje común: la superación de la limitación, el reencuentro con el equilibrio.


Equilibrio individual - Equilibrio Global

Esta función homeostática (reencuentro con el equilibrio) de las máquinas de comunicar no se circunscribe sólo a los individuos aislados, sino que puede afectar (y afecta) al conjunto de las sociedades humanas. El proceso pérdida-recuperación-pérdida de equilibrio se produce por igual tanto en unos como en otros, lo que debido a su relación sistémica, origina una profunda imbricación entre ambos.

Quizás el ejemplo más claro de esta imbricación nos lo haya dado la aparición de un fenómeno comunicativo conocido como Radio-Trottoir (Radio Acera) en países africanos y especialmente en el antiguo Congo. El desequilibrio que permitió la aparición de este tipo de comunicación proviene de la siempre difícil conciliación en el continente africano entre Estado y Etnia. Los responsables políticos, a veces, han de tomar decisiones que, lisa y llanamente, entran en contradicción con la pertenencia y fidelidad debida a una etnia; entonces se pone en marcha la Radio Acera que no utiliza otra tecnología que la del boca a boca (boca a oreja).

Ésta propaga tanto noticias de carácter general (cuyo destinatario es todo el mundo), como noticias específicas con un destinatario único. «El funcionamiento de ese dispositivo es sorprendente porque permite alcanzar a alguien preciso, acercándose cada vez más, cada relevo buscando al siguiente más cercano al círculo del interesado, para que la noticia le llegue rápidamente. [...] En el pasado, algunas personas recibían así la información de su arresto enviada por quienes lo habían decidido.» (Perriault, 1991, 56).

Pero lo verdaderamente notable de este sistema de comunicación es la capacidad de imbricación de muchos individuos en una suerte de máquina compensadora que, sin serlo propiamente, obraba como tal. La utilización del término tiene aquí un valor metafórico pero igualmente válido, exactamente lo mismo que cuando decimos que las tortugas de combate romanas (escudos unidos como un caparazón) son máquinas de guerra (Perriault, 1991, 56): funcionan como tales.

El objetivo, pues, de las máquinas de comunicación es compensar, equilibrar, «una suerte de cardán que permite a la sociedad conservar su equilibrio global» (Perriault, 1991, 59). Como con el cardán -ese invento de Gerolamo Cardano que permitía reequilibrar la posición de la brújula cualesquiera que fueren las condiciones de la mar- el equilibrio conseguido (sea global o personal), no tiene otro valor (no lo olvidemos), que el de ser un equilibrio precario. Como ya se ha visto más arriba, la homeostasis está ligada al binomio entropía-negentropía, y, en sí misma, provoca nuevos desequilibrios. Así pues, cuando pasemos a analizar el origen de las máquinas de comunicar, y veamos el carácter compensatorio por el cual esos artilugios han surgido, no deberemos perder de vista la doble cara, la doble faceta, que como Jano, tiene la homeostasis. De esta segunda cara nos ocuparemos en el Capítulo siguiente; ahora veamos la primera.


Génesis Homeostático de las máquinas de comunicar

Entiendo con Perriault que un cierto análisis (no exhaustivo por lo que tendría de imposible) de la génesis y desarrollo de los artilugios de la comunicación (en sentido estricto) «ayudará puede ser a comprender mejor cómo y porqué el hombre se reconstruye y reconstruye el mundo en imágenes y en ruidos, lo que no quiere decir obligatoriamente que el que consume, consuma esta misma reconstrucción» (Perriault, 1981, 19).

En el origen de las tecnologías de la comunicación no hay ninguna fecha precisa, aunque sí hay mitos fundadores. Plinio el Viejo en el libro XXXV de su Historia Naturalis, dedicado a la historia de la pintura y de la plástica, relata el que puede ser el mito genésico de la comunicación a través de una técnica. En él, cuenta la historia de la hija de un alfarero llamado Dibutades. Ésta, enamorada de un joven que tenía que partir para un largo viaje, viendo el perfil de su amante que sobre la pared reflejaba la lámpara de la habitación, trazó con carbón la silueta fijando así la sombra para conservar su recuerdo. Su padre Dibutades la completó por medio de arcilla obteniendo de esta manera una imagen en relieve, lo que dio origen, según Plinio, al nacimiento de la escultura. Al parecer esta obra fue conservada en Corinto, en el templo de las Ninfas, hasta que la ciudad fue arrasada por Mummius (Perriault, 1981, 27).

Además de esta poco conocida historia, la relación entre las sombras -la proyección de la luz- y un determinado tipo de realidad que comunica, es una relación que está bien presente en los cimientos de nuestra civilización a través del mito platónico de la caverna. Según parece, Platón se habría inspirado para la elaboración de su alegoría en los espectáculos dravinianos que se representaban en Atenas y que estaban basados fundamentalmente en la proyección de sombras (Schuhl, 1947). Además se sabe que en la antigua Grecia los iniciados en los misterios de Eleusis conocían -mediante los juegos de la luz y de las sombras- los retratos vivientes de Deméter y de Koré. En otras religiones, en otros cultos también mistéricos como los de Mitra y Mani, parece ser que se encuentran vestigios de ceremonias en los que los juegos de las sombras han tenido una importancia primordial (Perriault, 1981, 26).

Con posterioridad, los testimonios del uso de la proyección de la luz de una manera intencional desaparecen. Hay que remontarse a la Edad Media, y al legado vivo de los templos religiosos, para descubrir la luminosidad y magnificencia de las vidrieras usadas con una intencionalidad inequívocamente didáctica. Y aún se podría añadir que mística, ya que con ellas se permitía a los fieles iletrados el acceso directo al conocimiento de las realidades divinas.

Es a partir del Renacimiento cuando, de nuevo, vuelven a aparecer testimonios de la actividad mencionada, así como de un progresivo interés teórico ligado a la misma. Con la excepción de Ibn Al Haitam (conocido como Al Hazin) y Roger Bacon, no hay durante la Edad Media una excesiva actividad en torno al tema que nos ocupa. Sin embargo, la Óptica de Al Hazen, traducida en el siglo XIII por Vitellione, fue reimpresa en 1572, constituyéndose, en mi opinión, en referente obligado para el pensamiento científico moderno como fue el caso de Kepler quien en 1604 publicó los Paralipomena ad Vitellionem (Perriault, 1981, 32), reconociendo así con este título su deuda óptica con el pasado.


La cámara obscura

Aunque ya durante la Edad Media, el mencionado Al Hazin en su Óptica había establecido el principio de la cámara obscura, habrá que esperar hasta el Renacimiento para que este principio se haga objeto -se objetive en la realidad-, y empiece a ser usado (se convierta en útil-herramienta) por una pequeña pero creciente cantidad de personas.

Hoy en día la expresión cámara obscura puede ser aplicada metafóricamente a diferentes situaciones, pero en el siglo XVI servía únicamente para designar a una habitación en la que era posible visualizar (en principio de forma invertida) una porción de realidad iluminada por el sol, y exterior y opuesta a la propia estancia. Para ello era preciso que el muro externo de la habitación estuviera a la sombra y que la sala estuviera a obscuras, de tal manera que el único punto de entrada de luz se produjera a través de un pequeñísimo agujero habilitado al efecto en uno de sus muros. Esta luz, reflejo de una porción de realidad exterior (casa, paisaje, etc), y por lo tanto ya alterada en su composición espectral (cargada de color por así decirlo) plasmaba, 'pintaba', sobre la blanca pared opuesta de la habitación a obscuras, aquello que le daba origen.

Fue Leonardo da Vinci quien, también interesado por el tema y posiblemente conocedor de la obra de Al Hazin, puso de nuevo en circulación las ideas de éste, llegando a describir el fenómeno que posibilitó la fabricación de la cámara obscura, es decir, propiciando la aparición de una técnica. En las notas dedicadas al sentido de la vista, al ojo, en cuanto que concierne al pintor, afirma: «Sostengo que si la fachada de un edificio, plaza, o campo iluminados por el sol tienen una casa en el lado opuesto, y si en la fachada que no da el sol hacemos un pequeño agujero pequeño de forma redonda, todos los objetos iluminados transmitirán sus imágenes por este agujero y serán visibles dentro de la casa, situada en la pared opuesta, que se tornará blanca, y las imágenes serán exactamente las mismas, pero al revés» (Leonardo, 1993, pp. 14-15).

La causa de esta inversión es puramente geométrica (figura 5): «Supongamos que ABCDE son los objetos iluminados por el sol, y OR el frente de la cámara obscura donde está el orificio NM. Supongamos que ST sea el papel que capta los rayos de las imágenes de estos objetos y los vuelve al revés, porque al ser los rayos rectos, A en el lado derecho se convierte en K en el izquierdo y E del izquierdo se convierte en F en el derecho.» (Leonardo, 1993, p. 17).

 

figura5

Figura 5.Esquema de Leonardo da Vinci de una cámara obscura (Leonardo, 1993, p. 16).

Más adelante en ese mismo texto, Leonardo argumenta, inductiva y deductivamente, que las imágenes entran en el ojo en posición invertida a causa de la pupila, encargándose el cristalino de la operación contraria, al tiempo que rechaza la vieja teoría euclidiana de la proyección ocular de una vis visualis captadora del objeto (Leonardo, 1993, pp. 15-19). Leonardo da Vinci tiene muy claro que la causa de la visión está en la luz, la cual transmite las formas y colores de los cuerpos en los que se refleja (Leonardo, 1993, p. 15).

La ruptura con el pasado medieval se consuma. Y no tanto porque esta teoría no hubiera sido ya expresada anteriormente (Al Hazin y el Maestro Bacon ya lo hicieron), sino porque va acompañada de un instrumento, una instrumentalización práctica de la misma.

Por esta razón considero que la importancia de los escritos de Leonardo acerca del Arte, en lo que a máquinas se refiere, estriba en que por primera vez se hace referencia a la utilización de aparatos por medio de los cuales «hay algunos que miran a los objetos de la naturaleza a través de un vidrio» (Leonardo, 1993, p. 125), e incluso aconseja su uso a quienes poseyendo ya la maestría para poder representar los efectos de la naturaleza con la ayuda de su propia mente, se sirvan de esas técnicas para mejorar su trabajo (Leonardo, 1993, p. 126).

Es de suponer que el mismo da Vinci hizo uso de esta técnica. Y aunque en ningún momento menciona el tipo de vidrio que se ha de usar, (iniciando con ello una tradición) su texto provocará que el Padre Kircher, siglo y medio más tarde, le atribuya la utilización de un cristal cilindro cóncavo (cylindro catoptrico concaao) aplicado al orificio de una cámara obscura (Perriault, 1991, 28-29).

Este interés científico por un fenómeno que seguramente todos habremos descubierto siendo niños en una tarde de verano sintiendo la fascinación de los colores reflejados sobre una pared blanca, continuó con Giovanni Battista della Porta, quien publicó en 1589 su Magiae Naturalis. En el libro decimoséptimo de esta obra, en el que trataba «De los cristales extraños», describió perfectamente la técnica de la cámara obscura, incluyendo en la descripción el uso de una pequeña lente biconvexa. Es por lo tanto el primero en hacerlo y a quien se le debe dar el entero crédito por ello (DeFleur & Ball-Rokeach, 1982, 77), si bien no hay que olvidar que la historia de la cámara obscura está jalonada por muchos nombres como Cardau, Danielle Barbaro, Friedrich Risner, Jacques Metis, Zahn, etc, sin los cuales (sin ese esfuerzo colectivo que es siempre la historia), ésta no tendría lugar..

Della Porta nos dejó una completa reseña de las posibilidades del aparato: «...nada puede ser más agradable para los grandes hombres, los eruditos y las personas de ingenio; que en una cámara oscura podemos percibir, proyectados sobre láminas blancas, tan clara y distintamente como si estuvieran ante nuestros ojos, escenas de cazas, banquetes, ejércitos enemigos, representaciones teatrales y todo cuanto pudiéramos desear». Se extiende luego en posibles montajes escénicos (ofreciendo una valiosa información sobre las costumbres de la época) y concluye diciendo: «las espadas desenvainadas brillarán a través del orificio de tal manera que poco faltará para que atemoricen a los presentes» (DeFleur & Ball-Rokeach, 1982, 77-78).

De la reseña de Della Porta creo interesante destacar tres consideraciones. La primera de ellas es que el uso de la cámara obscura, en este caso, es concebido desde el punto de vista del entretenimiento y el espectáculo, a pesar de que éstos sean especialmente interesantes, según la Porta, «para los grandes hombres, los eruditos y las personas de ingenio». El carácter de entretenimiento -una de las primeras aplicaciones concebidas para la cámara obscura- no empaña, pues, su valor científico, su papel desvelador de ausencias aunque fueran éstas muy cercanas: simplemente al otro lado del muro.

La segunda es el carácter destacado que Della Porta otorga a la capacidad de suplantación de la nueva máquina (la capacidad de situar vicariamente al espectador), produciendo en él sobresalto, sorpresa, e incluso miedo al contemplar el brillo de las espadas desenvainadas, con el que inaugura asimismo una de las principales características que habrán de tener las máquinas de comunicación: la de ofrecer al usuario el don de la ubicuidad. Nada mejor para ello, pues, que ofrecer impresiones fuertes de la misma manera que, siglos más tarde, harán los Hermanos Lumière aterrando a los espectadores al 'echarles' una locomotora encima.

Y por último, la tercera tiene que ver con el empleo de la expresión 'clara y distintamente' que emplea Della Porta para referirse a la imágenes proyectadas. Es la misma expresión que 40 años más tarde empleará Descartes para referirse a las verdades incontestables (que tienen un carácter exclusivamente racional). La ironía de este doble uso (racional y empírico) desaparece si (como hicimos más arriba) consideramos que, en la investigación massmediática, no es posible hablar de una única realidad y su doble sino de múltiples realidades entrecruzadas las cuales pueden ser discernidas, en principio todas ellas por el usuario, clara y distintamente.

Quizás no por casualidad, es precisamente con Descartes cuando la teoría acerca de los mecanismos de la visión humana y de la cámara obscura se hace consistente. En el libro quinto de la Dióptrica describe los experimentos realizados a partir de ojos de animales recién muertos, por medio de los cuales puede afirmarse de una manera concluyente la exacta similitud entre los mecanismos de la visión ocular humana y los de la cámara obscura. De hecho, Descartes avanza un poco más, proponiendo para la cámara obscura la colocación de varias lentes colocadas a una cierta distancia. previamente a esta propuesta desarrolla todo lo que, con posterioridad, sería la teoría de la proyección (distancia focal, plano focal, etc) en lo que Perriault señala como «una argumentación muy densa, [en la que] Descartes demuestra como el análisis biológico fecunda el [análisis] artificial» (Perriault, 1981, 33). Una vez más lo biológico, el estudio de la vida, proporciona los elementos, las herramientas teóricas y prácticas para crear más vida.

De hecho, lo que Descartes propone literalmente es un ojo artificial, inaugurando lo que, a partir de Julien de La Mettrie ya en el Siglo XVIII, podría ser denominado como parte de un (sub)sistema de hombres-máquinas. Ese interés cartesiano por lo artificial no está aislado, sino que se inscribe en un contexto histórico donde dicho interés comienza a desplegarse con fuerza.

Porque es en efecto durante el siglo XVII cuando la mecánica relojera -la medición del tiempo- establece firmemente sus bases, fabricándose los primeros relojes portátiles que dividen ya el día (un artificio más) en 24 horas. Esta concepción universal del tiempo, en unidades exactas de 24 horas (con sus correspondientes 60 minutos y segundos) deja atrás un modelo de tiempo particular y privado, a lo más compartido por unos pocos centenares (los que viven en un mismo convento; los que viven en una misma ciudad). Convierte en arcaico aquel tiempo que dependía de las estaciones del año y del lugar, e inaugura, abre la vía, para una nueva forma de pensar que nos imbrica a todos, que nos convierte en inevitables partícipes de una gigantesca máquina universal de la que somos copartícipes. Un hipotético visitante del siglo XVII se sorprendería (entre otras muchas cosas) de ver como todos llevan atado a la muñeca el tiempo universal.

Ese modelo de pensamiento, mecánico, artificioso (relativo al tiempo en este caso) producido como una consecuencia de las máquinas artificiales nos va a permitir sin embargo, acorde con Morin, hacer emerger en nuestra conciencia (recuperar en suma) el concepto de máquina pre-industrial o extra-industrial, poiética (creadora y productora), aquella capaz de generar alteridad, diversidad, «sí mismo» y de la cual formamos parte (Morin, 1986, 190 y ss.).

En el contexto histórico mencionado dos párrafos más arriba hay que destacar que el propio Padre Marsenne (mentor y amigo de Descartes en París) estuvo interesado en el tema del automatismo llegando a concebir la creación de una lengua artificial cuyos sonidos serían reproducidos mediante dispositivos mecánicos (Doyon y Liaigre, 1967). Y Descartes en un momento de sus Meditaciones Metafísicas (un libro de gran audiencia; traducido al francés en vida del autor y con su beneplácito) concibe a los hombres que ve a través de su ventana como posibles autómatas: «Sombreros y capas, que muy bien podrían ocultar unas máquinas artificiales, movidas por resortes» (Meditación segunda).

Su interés no se circunscribió al mero campo teórico. Al parecer llegó a practicar proyecciones, utilizando los perfeccionamientos ópticos que la época le permitía. En una fecha aún controvertida (1634 según Baillet) residiendo en Amsterdam con un tal Monsieur de Villebresieu, consiguió causarle una enorme sorpresa «cuando Monsieur Descartes hizo pasar ante su vista aparentemente una compañía de soldados a través de su habitación. El artificio no consistía más que en pequeñas figuras de soldados que había tenido cuidado de ocultar, y por medio de un espejo conseguía engrandecer y aumentar estas pequeñas figuras hasta el tamaño natural de un hombre, y parecía hacerles entrar, pasar y salir de la habitación.»[26]

Parece ser que el desarrollo teórico de la cámara obscura corre parejo con su utilización práctica. Ya durante la segunda mitad de ese siglo, según noticias dadas por Kepler y Kircher, no era excepcional el uso de pequeñas cajas (cámaras obscuras) de las que se servían los pintores para mejorar su técnica y reproducir fielmente la naturaleza (Perriault, 1981, 37). Estos pintores, -posiblemente uno de ellos fuera Van Wittel- tuvieron una genial continuación en alguien a quien el ya mencionado Van Wittel llegó a conocer entrado el settecento: Antonio Canal 'Canaletto'. Éste llegó al racionalismo humanista de la lume solivo (luz solar) gracias al uso sistemático de una cámara óptica. «La imagen de un Canaletto que deambula por calles y plazuelas, llevando a sus espaldas el trípode de su cámara óptica [...] con medio cuerpo metido dentro del cajón obscuro...» nos recuerda a la de los fotógrafos del pasado siglo. «Sin embargo, aquellos apuntes [...] Canaletto los consideraba necesarios, como si fueran una especie de garantía de base, de punto de arranque científico para que su poesía alcanzara una gran fidelidad, y esto nos ilumina más que cualquier otra consideración, sobre lo que significaba para el iluminista Canal, poeta de razonables y verificables certidumbres, la apropiación visiva de la realidad» (Paolucci, 1970, 17-18).

'La apropiación visiva de la realidad' se ha convertido, pues -lo vimos ya en sus orígenes da Vincinianos- en uno de los elementos impulsores para la existencia de la cámara obscura. Pero esta apropiación de la realidad (toda apropiación implica un deseo, y todo deseo una carencia) no se realiza conforme a ningún ritual sagrado y lleno de magia, como los que debieron realizar en tiempos paleolíticos, los cazadores-pintores de bisontes y ciervas. Tampoco se realiza conforme a criterios subjetivo-simbólicos como en la Edad Media (el perspectivismo renacentista y la nueva relación con la naturaleza ya es irreversible). Es más bien una apropiación a la que se exige verificabilidad más allá del tiempo y del espacio; en la que sea posible reconocer como nuestras las luces y las sombras de los muros de la Iglesia de la Salute en una hora estival de luz fría, o nuestra humanidad en la humanidad de los paseantes de los 'campi' venecianos.

Ese reconocimiento es la misma sensación que podemos sentir al contemplar los primeros daguerrotipos, con sus personajes desvaídos, a los que más bien adivinamos al paso en una avenida solitaria. La apropiación visiva de la realidad inicia su perfección con los instrumentos ópticos que la reflejan fidedignamente. Y esto es así porque en el acto de la recepción del mensaje comunicado somos capaces de un reconocimiento que nos implica.

Hemos afirmado más arriba que 'toda apropiación implica un deseo y todo deseo una carencia'. En el caso de la obra de Antonio Canal, la triple relación entre apropiación (visiva de la realidad) deseo y carencia es, como veremos, evidente. Controlado por un marchante inglés Joseph Smith (quien fuera nombrado en 1744 cónsul británico en la República de San Marcos, y al que Horace Walpone llegó a definir como the Merchant of Venice), el público de Canaletto era un público fundamentalmente británico (como el Duque de Bedford) el cual, habiendo residido en Venecia, deseaba poseer cuadros que se la recordasen aun años después de su estancia en ella (Paolucci, 1970, 12). Los cuadros cumplían así una función compensatoria (homeostática) por medio de la cual era posible suplir una carencia, la nostalgìa de una ciudad única.

En verdad, lo que decimos acerca de la obra de Canaletto podemos extrapolarlo a toda obra de arte -a toda producción visiva de la realidad- que por su misma naturaleza pretende comunicar algo.

Así por ejemplo, podemos afirmar que el deseo, la carencia que conlleva el deseo, y la realidad que lo motiva están presentes tanto en la producción pictórica de las cuevas de Altamira, como en los dibujos rituales de los indios navajos. En ambos casos se trata de conjurar a la naturaleza para conseguir una buena caza (paleolítico) o conseguir otros beneficios del universo (navajos). Pero también están obviamente presentes -en el decir de Arnold Hauser- en la temprana producción pictórica renacentista, con una burguesía solícita de retratos que rompe así el monopolio de la Iglesia como contratante del artista (Hauser, 1951). Y lo mismo podría decirse de los bustos encargados con profusión durante el Imperio Romano..., o de otros ejemplos similares. En todos ellos, la apropiación visiva de la realidad implica el intento de superación homeostática de una carencia; implica la necesidad de compensar una ausencia, una penuria, una (genéricamente hablando) privación.

Sin embargo, a pesar de que no es nuestra intención embarcarnos, ahora, en un análisis a fondo de la producción artística como elemento de comunicación, sí al menos hay que resaltar (poniéndolo en conexión con lo dicho más arriba acerca de la techne) que si la obra de arte cumple (o puede cumplir) una función homeostática (compensatoria) será, en primer lugar, gracias a la existencia de una techne, presente en la obra de arte por su propia naturaleza. La técnica se convierte así en el primer peldaño, en el primer umbral que hay que atravesar para lograr un elemento de comunicación. Y esto es debido al papel homeostático (compensatorio) que la techne desempeña, independientemente de su ámbito de aplicación.

Otra cuestión sería desarrollar un discurso sobre el nivel de implicación -y por lo tanto de comunicación- de un ser humano respecto de algo (a lo que podemos llamar genéricamente 'obra') realizado por otro ser humano.

En primer lugar habría que señalar que la apropiación visiva de la realidad (ciñéndonos al terreno de lo visual exclusivamente) puede realizarse de muchas maneras, desde una representación figurativa hasta una simple esquematización de la representación anterior lo que, por ejemplo, ha dado origen a la escritura (Gelb, 1976, 51). Y en segundo lugar, recordar que no todas las representaciones de la realidad son inmediatamente implicativas. La escritura jeroglífica o el expresionismo abstracto norteamericano constituirían un buen ejemplo de ello.

De momento, y volviendo al terreno de la génesis de las máquinas de comunicar, las reflexiones arriba apuntadas nos sirven para hacer hincapié en la mayor capacidad implicativa que proporciona una (re)producción de la realidad obtenida mediante medios mecánicos, maquinales. Dichos medios (y la cámara obscura es su precursora) permiten una mayor fidelidad respecto de aquello que se pretende transmitir, en principio la realidad misma. Y al mismo tiempo acercan esa realidad en su absoluta inmediatez al mayor número de personas posibles, las cuales no precisan de una capacidad de decodificación esmerada; tan sólo necesitan de aquellos códigos que ya han obtenido en su aprendizaje socializador, aquellos por medio de los cuales les es posible ver y sentir lo que ven y sienten en su vida cotidiana.

Y ha sido gracias a la pasión de mirar (la vista es el sentido más importante decía Aristóteles) junto con la pasión de descubrir propia del ser humano, además de la necesidad de dar cumplida satisfacción a esas pasiones por causa de una infinita carencia, que objetos como la cámara obscura prosiguieron su lento pero firme desarrollo.


Uso didáctico. Kircher

Perteneciente al mismo siglo que Descartes, y prácticamente contemporáneo suyo aunque le sobreviviera, la figura de Atanasio Kircher, marcará un hito en la pequeña historia del desarrollo de la cámara obscura.

Sacerdote jesuita, físico y filósofo alemán, profesor de filosofía y matemáticas en Würzburgo, hombre de ingenio, dedicó su vida a la investigación fabricando aparatos varios, entre ellos una máquina de escribir. Pero su invento más conocido y con el que su nombre pasaría a la posteridad, fue el de la linterna mágica.

En realidad él la llamó lucerna artificiosa, aunque es presumible pensar que contemporáneamente a él ya se usó, en los círculos de conaisseurs, el apelativo de linterna. De hecho, hay noticias, dadas por el abate Dechales, de la coexistencia de un dispositivo óptico perfeccionado, similar al descrito por Kircher, puesto en funcionamiento por el inventor danés Thomas Walgensten, y al que Millet Dechales llamó laterna, es decir linterna (Perriault, 1981, 55-56).

Tenemos, pues, dos nombres, Walgensten y Kircher, si bien esto no debería de extrañarnos ya que la aparición simultánea de dos o más personas en torno a un avance científico no es nueva en el acontecer histórico, y posiblemente éste sería uno de los casos menos espectaculares. Como siempre en la historia, los descubrimientos del ser humano no son atribuibles exclusivamente a un solo individuo sino a un conjunto de ellos. Existe siempre un factor acumulativo que, como los peldaños de una escalera, va aportando los elementos para alcanzar la solución de tal o cual problema al que finalmente llamamos descubrimiento. De hecho la propia linterna mágica, no es otra cosa que un desarrollo perfeccionado de la cámara obscura, a la que se substituye el foco de iluminación natural (el sol) por un foco de iluminación artificial (la llama) que forma parte del dispositivo de la propia linterna. A ello, si sumamos los dispositivos ópticos necesarios, los cristales de Leonardo (presentes ya en algunas cámaras obscuras), tendremos que la linterna mágica puede ser reconocida como un protoproyector de diapositivas moderno.

 

figura6

Figura 6. Linternas del siglo XVII (Perriault, 1981, 49)

Dos nombres, decíamos, Thomas Walgensten y Athanasius Kircher. Les diferencia una cuestión de talante. El primero es un vendedor, un hombre de negocios perfeccionista del que sabemos que en 1665 realizó una sesión de proyección con linterna de doble lente en la ciudad de Lyon, y que con posterioridad, según el testimonio del propio Kircher pasó a Italia donde se dedicó a vender sus máquinas a los príncipes, hasta el punto que eran «cosa corriente en Roma» (Perriault, 1981, 48).

Kircher, sin embargo, a diferencia del primero, era un investigador, un hombre de ciencia, y por lo tanto alguien presumiblemente interesado en plasmar por escrito sus descubrimientos. En 1646 publica su Ars Magna Lucis et Umbrae cuyo título, curiosamente, nos hace recordar la Ars Magna de Raimon Llull, filósofo medieval cuya obra conocía bien Kircher. En 1671, Kircher publica una segunda edición mejorada de su libro, en la que se incorpora la doble óptica.

Pero en lo que respecta a la función homeostática de esta máquina de comunicar nos interesa en especial el uso al cual fue destinada en un primer momento. Y éste no fue otro que el didáctico.

Desde una perspectiva sistémica, podemos afirmar que con ella se intentaba proporcionar un vehículo por medio del cual se consiguiera superar (en este caso visualmente) el desequilibrio que (en el campo del conocimiento) es propio del ser humano, al tiempo que se daba cumplida satisfacción al ansia de conocer propio de nuestra condición. Sobre este particular creo que no está de más recordar el párrafo inicial con el que Aristóteles abre el Libro I de la Metafísica: «Todos los hombres desean por naturaleza saber. Así lo indica el amor a los sentidos; pues, al margen de su utilidad, son amados a causa de sí mismos, y el que más de todos, el de la vista [...pues] éste es el que nos hace conocer más y nos muestra muchas diferencias».

Al subsistema de comunicación que en ese momento histórico (siglo XVII) está constituido ya por el conjunto de libros facturados de una manera mecánica mediante la imprenta, se va añadir un nuevo elemento (la linterna mágica) que constituirá el núcleo de otro subsistema de importancia capital en nuestros días. El primero, directamente ligado a mecanismos sociales complejos (como la capacidad de una sociedad para alfabetizar a sus miembros), tiene en ese tiempo una incidencia importante pero restringida. Y esto es así aun cuando a veces obtenga 'éxitos', como con los Bestiarios, precisamente por su capacidad de imprimir imágenes de otros mundos a bajo precio. El segundo, inicia en ese momento su andadura.

 

figura7

Figura 7. Diferentes sistemas de proyección en Kircher (Segunda Edición del Ars Magna, Perriault, 1981, 38)

Los fines educativos de Kircher se limitaron al ámbito de lo religioso, hasta el punto de que éste designó a los espectadores con el término de Auditores, «el cual, en el dominio eclesiástico, designa a los catecúmenos» (Perriault, 1981, 56). Este término pudo tener más de un sentido, pues como el propio Kircher señala, la 'Magia Parastática' (que es el nombre que él da a la tecnología de la proyección) es una ciencia «muy oculta» (Perriault, 1981, 44) y un catecúmeno es por definición alguien a quien se inicia en un secreto.

En cualquier caso las ilustraciones con las que Kircher acompañó su texto, están todas ellas transidas de religiosidad, bien por propia convicción, bien por imperativo de su estado eclesiástico.(Ver Figura 7). Y siendo plenamente consciente de su fuerza expresiva, al remitir al lector a los grabados que aquí se muestran añadió: «Pero a partir de estas figuras de la lado, comprenderás todas estas cosas, mejor que si te lo explicase yo mismo con numerosas palabras» (citado por Perriault, 1981, 57)


Siglos posteriores

El uso de la linterna mágica con fines educativos y pedagógicos prosiguió durante el siglo siguiente (siglo XVIII). Y en honor a la reina de Francia Marie Antoinette hay que mencionar un hecho destacado que le incumbe: y es que bajo su iniciativa personal se puso en marcha un ambicioso proyecto para la educación integral del Delfín de Francia utilizando la linterna mágica como instrumento de todas las materias de estudio.

En el siglo siguiente, en el XIX, la linterna vivió una época de desarrollo esplendoroso. Y como muestra indicativa podemos citar que en el catálogo de placas para linterna editado por Molteni en l884 hay más de 8.000 mil títulos (Perriault, 1981, 110). Asimismo, la donación de placas realizada al Museo Pedagógico en 1896 por parte de dos sociedades educativas representó nada menos que un total de 21.000 vistas (Perriault, 1981, 107).

Este desarrollo, aún prosiguió en el siglo XX, para, una vez realizada la electrificación de los grandes núcleos urbanos, acabar desapareciendo, dando paso a los modernos proyectores que basan su tecnología en la luz eléctrica.

Sin embargo, la aplicación didáctica de la linterna mágica, fue siempre a la zaga del desarrollo de la misma con las finalidades propias del simple y puro espectáculo, aquel que pretendiendo entretener y divertir[27], mostraba aquellos elementos de la realidad que satisfacían la curiosidad de un público ávido siempre de sensaciones y conocimiento. De esta aplicación, bien documentada por Perriault (1991, 66-90), se hace eco el film La noche de Varennes, mostrando en su primera escena una barraca de feriantes en el París del periodo revolucionario iniciado tras la toma de la Bastilla, donde, por medio de una máquina de simulación se exhiben acontecimientos de fuerte impacto en la opinión pública de su tiempo.

A lo largo de los distintos ejemplos mostrados a lo largo del texto, hemos podido ver que la exposición por parte de los auditores (público) a los medios (en este caso la linterna) cumple asimismo siempre una función equilibradora por cuanto permite el acceso (deseado) a una realidad diferente, distinta, a la que no hubiera sido posible acceder de otra manera. La máquina, (cualquier máquina de comunicar, sea ésta linterna, proyector de diapositivas, cine, televisión, radio, realidad virtual, o cualquier otra -en definitiva, distintas variaciones de la máquina iniciática) nos permite efectuar ese movimiento necesario para poder franquearnos la entrada a la realidad apetecida.


VII. ENTROPÍA-NEGENTROPÍA Y MÁQUINAS.

 


-¿Que es el Tao?

-Sigue caminando

Yün-men

 


Redes de comunicación

En sentido estricto deberíamos empezar a hablar de redes de comunicación desde el momento en que éstas, presumible y razonablemente, hacen su aparición en la historia de la humanidad coincidiendo con los primeros asentamientos neolíticos. Estas redes de comunicación terrestre sirvieron (como las actuales) para facilitar el intercambio interpersonal, el comercio y las relaciones humanas (Beals y Hoijer, 1968, 301).

Ya mucho tiempo antes, los yacimientos arqueológicos han probado que «el hombre del Paleolítico Superior buscaba o comerciaba los materiales de piedra deseables a distancias considerables» (Beals y Hoijer, 1968, 426). Esto significa que, al menos desde los tiempos paleolíticos, existieron caminos o rutas naturales a través de las cuales poder llevar a cabo este tipo de transacciones; la persistencia en el tiempo (conforme a las pruebas arqueológicas) en el acarreo de estos 'materiales de piedra' así lo indica. Sin embargo, de estas protoredes de comunicación terrestre no quedan, lógicamente, ningún rastro, ninguna prueba material o tangible de su existencia. Tan sólo mediante la capacidad deductiva de los científicos (arqueólogos y antropólogos), podemos suponerlas.

Naturalmente tampoco existe constancia material de las (ahora sí, con seguridad) redes de comunicación terrestre del inicio del neolítico, a pesar de que es perfectamente conocido que durante ese periodo «la guerra y el comercio entre asentamientos situados a largas distancias forma[ba]n parte de un amplio complejo de instituciones» (Harris, 1991, 218).

Siendo coherentes con la óptica explícitamente sistémica adoptada por Marvin Harris en su estudio antropológico y en especial siguiendo su idea de poner en relación los inputs y outputs en el seno de un sistema social (1991, 265-287), podemos afirmar que estas actividades de orden comunicativo constituyeron mecanismos reguladores, re-equilibradores, que buscaban contribuir a una situación (imposible) de equilibrio, bien fuera en el número de muertos por cada bando (pp.389-390) -en cada uno de los subsistemas-, bien para situar la balanza de inputs y outputs en el punto de equilibrio conforme a la Ley del mínimo de Liebig mencionada por Harris (pp.271-272).

Esta situación cambiará con el surgimiento de la llamada revolución urbana (es decir de los Estados), o lo que es lo mismo, en la medida en que «el proceso global de la intensificación, expansión, conquista y estratificación, y centralización del control, se ve continuamente incrementado o 'amplificado' debido a una forma de cambio que se conoce como retroalimentación [feedback] positiva» (Harris, 1991, 412), las necesidades homeostáticas de comunicación aumentan de suerte que ellas son, en última instancia, las responsables de las nuevas redes terrestres, ahora sí, bien documentadas, de los grandes imperios del mundo antiguo y precolombino. Asimismo, las rutas marítimas utilizadas regularmente en la antigüedad por pueblos y ciudades marineras, representaron, en el ámbito acuático, lo que caminos y calzadas en el ámbito terrestre (Beals y Hoijer, 1968, 439-445).

No debiera sorprendernos que el 'instrumento' impulsor y dinamizador del fenómeno homeostático (entendido como un feedback negativo y regulador) haya sido precisamente la retroalimentación positiva -incremento de los inputs de producción, de natalidad y de control territorial (Harris, 1991, 411). Ya vimos más arriba como el doble juego de lo negativo y lo positivo se entremezcla de suerte que «necesariamente [es] una relación compleja, es decir, no sólo antagonista y concurrente, sino también complementaria e incierta» (Morin, 1986, 335). El aumento de 'desorden', el incremento inesperado e incontrolado de determinados índices (población, territorio, producción heterogénea) que configuraban la organización social, llevará a un deseo de mayor control sobre fenómenos que literalmente se escapaban de las manos trayendo como consecuencia la aparición de redes cuya utilidad más patente era el transporte rápido de tropas, y la comunicación con los delegados del poder central. El feedback positivo genera el negativo, y éste a su vez impulsa el positivo en un juego complementario e incierto en el que los feedback positivos «son los grandes creadores de las diferencias de potenciales, son la energía del mundo» (Latil, 1953, 187); el boom explosivo que sigue a la implosión inicial.


Comunicación a distancia

La consolidación de estas redes (no sólo las estrictamente artificiales, sino las 'artificialmente' naturales[28]) como parte del ecosistema humano trajo consigo la búsqueda de formas simbólicas de comunicación a distancia.

Bien sea por el bajo -muy bajo- nivel de simbolismo, bien por su carácter esporádico, no podemos propiamente considerar como constitutivos de una red ni las señales de humo empleadas por los indios de las llanuras americanas, ni el tam-tam africano, ni tan siquiera las torres que en las costas mediterráneas sirvieron para dar aviso de avistamiento de corsarios y piratas.

Habrá que esperar hasta el siglo XVII para que se produzca un primer conato serio en esta dirección. Estuvo a cargo de algunos de los miembros de la Royal Society of London en su reunión de 1661, y del proyecto sólo tenemos unas muy concisas indicaciones reflejadas en las actas publicadas por Birch en 1757. Según ellas «Habiendo sido llamado el señor Hooke, y habiéndosele pedido que sugiriese algunos experimentos que pudiesen se aceptables y útiles para el público, sugirió que se considerasen experimentos sobre transporte terrestre y sobre una rápida transmisión de noticias.»(Birch, 1757, I, 379). Al parecer ambos proyectos tenían un carácter bien diferenciado puesto que «Se dispuso que el señor Hooke pusiese por escrito y presentase al consejo todo su esquema y organización para una rápida transmisión de noticias. Y que Sir Robert Moray y el señor Evelyn visitasen al Cor. Blaunt y lo consultasen en lo concerniente al mejoramiento del transporte terrestre»(Birch, 1757, I, 379). Según Merton «este tema fue discutido en unas quince reuniones de la Sociedad en un periodo de tres años» (Merton, 1984, 208).

Pero no será sino hasta el siguiente siglo cuando, por fin, se establezcan las primeras grandes redes de comunicación por medio de símbolos. Ocurrirá en el continente europeo, y tendrán una finalidad homeostática de control (de regulación, por usar una terminología ya familiar). Todas fueron promovidas por el ingenio de individuos inmersos en una sociedad, pero en todos los casos correspondió al Estado el papel de construirlas y mantenerlas, logrando de esta manera el cometido controlador al que creía tener derecho.

La primera 'gran' red nacerá directamente de las necesidades geoestratégicas[29] de la Francia Revolucionaria, con lo que se hace bueno, una vez más, la afirmación que sitúa en la guerra (conflicto) el origen de todas las cosas.

Sin embargo no será directamente la guerra sino la libertad revolucionaria la que trajo consigo la libre iniciativa -en un siglo plagado de éstas- para investigar un modelo, un diseño, que permitiera transmitir con rapidez y fiabilidad noticias durante un periodo turbulentamente lleno de ellas.

En Noviembre de 1789 la Asamblea Nacional, ya por entonces autoproclamada Constituyente, decide poner a 'disposición de la Nación' los bienes del clero. Esta expropiación forzosa supuso la eliminación del sueldo dado a los sacerdotes. El joven de 25 años Claude Chappe, que lo era, se vio de pronto privado de su sustento y libre para seguir sus inclinaciones naturales que no eran otras que la investigación en el campo de la física aplicada. Entre 1789 y 1793 se sabe que publicó cinco ensayos sobre estos temas en los que abordó «repetidamente el problema de la transmisión de impulsos eléctricos por hilos» (Holzmann y Pehrson, 1994, 66).

Los limitados conocimientos que sobre la electricidad existían en su tiempo condujeron al joven Chappe a simultanear la búsqueda de una solución óptica al problema de la transmisión a distancia, sin por ello dejar de trabajar en una solución eléctrica. Al cabo, fue la solución óptica la primera en conseguir un desarrollo. En 1791 Chappe con la ayuda de sus hermanos y el apoyo de sus convecinos (entre otros el del médico) de su pueblo natal, Brûlon, realiza una primera transmisión pública entre el Castillo de Brûlon y la ciudad de Parcé, distante 16 Kilómetros. El éxito total de la prueba le animará a presentar el 22 de Marzo de 1792, apoyado por su hermano Ignacio -entonces diputado ante la Asamblea Legislativa-, un proyecto por el que podrían enviarse «mensajes, órdenes de combate o cualquier cosa imaginable» (Holzmann y Pehrson, 1994, 66-67).

El proyecto languidecerá de comisión en comisión hasta el 1 de Abril del año siguiente, 1793. Para entonces, -estamos ya en el periodo de la Convención- guillotinado Luis XVI y estando Francia en guerra con todo su entorno, las necesidades militares son cada vez más apremiantes; es por esto que con el decidido apoyo del diputado Charles-Gilbert Romme (el autor del calendario republicano) la asamblea aprueba financiar un experimento a escala mayor. En el discurso de Romme, de nuevo, se alaba el invento, subrayando las inmensas posibilidades que en el campo de lo militar tenía éste. Es en ese instante cuando nacerá un término (un neologismo) para designarlo: telégrafo, o el que escribe a distancia (Holzmann y Pehrson, 1994,67).

 

figura8

Figura 8: Red Francesa de Telégrafo óptico

Unos meses más tarde, durante el verano de 1793, se aprueba la implantación del Telégrafo Estatal, siendo nombrado Claude Chappe Ingénieur Télégraphe. Pronto, a la primera línea (París-Lille, 190 kilómetros) se irán añadiendo otras (París-Estrasburgo, París-Brest, París-Milán, etc), hasta constituir, medio siglo más tarde, la red más extensa de Europa (figura 8) solapándose en su existencia con las primeras redes telegráficas de naturaleza eléctrica. Tanto es así que la máxima expansión de la red óptica se producirá en fecha tan tardía como 1852, con 4800 kilómetros de líneas, 29 grandes ciudades francesas conectadas, y más de 3000 operadores en total (Holzmann y Pehrson, 1994,67-73).

Pero lo que nos interesa es subrayar el valor estratégico que los sucesivos gobiernos y regímenes conceden al nuevo invento, de ahí que estos (a pesar de sus marcadas diferencia ideológicas, República, Consulado, 1er Imperio, etc) continuasen construyendo líneas hasta llegar al punto de expansión mencionado más arriba. De ello, de esa importancia estratégica, son buena muestra las continuas referencias históricas a noticias consideradas políticamente eficaces. Así, el primer mensaje oficial enviado desde Lille el 15 de Agosto de 1794 daba cuenta de la toma de la ciudad de Le Quesnoy a los austríacos y prusianos tan sólo una hora después de haberse producido, lo que en aquel momento resultaba sorprendente. Asimismo, de su valor estratégico da buena prueba el hecho de que Napoleón utilizara un sistema móvil en la campaña Rusa (figura 9).

 

figura9

Figura 9: Sistema Móvil de telégrafo óptico

El sistema de Chappe consistía en una serie de estaciones (torres), distantes entre sí unos dieciséis kilómetros, sobre las que se instalaban unos brazos articulables por medio de los cuales, y dependiendo de la posición de los mismos, se enviaban palabras y frases codificadas. Se estima que la velocidad efectiva de transmisión era de alrededor de unos veinte caracteres por minuto. Teniendo en cuenta que el primer telégrafo electromagnético, el patentado por Cooke y Wheatstone en 1837, era capaz de transmitir a una velocidad de 25 caracteres por minuto, y que no es sino hasta 1858 cuando se alcanza una velocidad efectiva de 2000 caracteres por minuto, se explica que la red óptica resistiera bastante bien la llegada de su competidor tecnológico (Holzmann y Pehrson, 1994,67-73; y 1995).


Red óptica en Europa: el caso español

Otros estados europeos siguieron los pasos del francés y construyeron con mayor o menor eficacia sus propias redes. «Hacia 1840, en casi todos los países europeos hay por lo menos una o dos líneas de telegrafía óptica en servicio» (Holzmann y Pehrson, 1994, 73).

En este sentido, Inglaterra, por motivos estratégicos obvios, seguirá la zaga de Francia en la construcción de líneas, de tal manera que entre 1796 y 1816, Londres quedará unida telegráficamente con Portmouth, Plymouth, Yarmouth y Deal (todos en la costa, y uno, Yarmouth, al norte de la isla de Wight). De nuevo, el control y explotación de dichas líneas correrá a cargo del Estado, en este caso específico del Almirantazgo británico. Del otro lado, Alemania, a partir de 1832, construirá una red basada en tres líneas que unirán las ciudades más importantes del territorio. Rusia abrirá en 1839 una gran línea con 220 estaciones entre San Petersburgo y Varsovia. Incluso en Estados Unidos, algunas regiones quedan cubiertas por líneas de telégrafo óptico (Holzmann y Pehrson, 1994, 73).

En España, el primer intento para realizar tal construcción se produjo en 1799 fecha en la que el rey Carlos IV aprobó la construcción de una línea que uniera Cádiz y Madrid. El ingeniero constructor debiera haber sido el científico canario Agustín de Betancourt, el cual había pasado largos periodos de tiempo en Francia, entre otras razones, por la gracia de una beca concedida por el rey Carlos III. Allí en Francia, conoció el telégrafo de Chappe así como el del inglés Murray, en base a los cuales ideó un sistema de transmisión propio. Sin embargo, la línea propuesta jamás llegó a ser construida (Olivé Roig, 1990).

Ya en el siglo siguiente, se realizaron diversos intentos, a los que podríamos calificar de esporádicos, debido a su falta de continuidad y a la carencia de un plan más amplio en el que pudieran haber estado inmersos. Entre 1805 y 1820 funcionó en la bahía de Cádiz un telégrafo óptico diseñado por el coronel Hurtado, y en los años 30, el oficial de marina Juan José Lerena construyó pequeñas líneas -conforme a su propio diseño de transmisión- que unían Madrid con los Reales Sitios: La Granja, Aranjuez y El Pardo. Finalmente, en 1844, un Real Decreto creaba y regulaba el Servicio de Telégrafos. Entre esa fecha y 1855, que es cuando se introduce el telégrafo eléctrico, se crearon cuatro grandes líneas: Madrid-Irún, Madrid-Valencia-Barcelona, Madrid-Cádiz, y Madrid-Zaragoza-Pamplona, que a su vez disponían de ramales (figura 10; Olivé Roig, 1990).

figura10

Figura 10: Red óptica española

Diseñado y dirigido por el coronel José María Mathé, el nuevo sistema telegráfico español era considerado, al igual que en el resto de los países europeos, como un sistema más de control a cargo del Estado. En el caso español, su finalidad primordial era el mantenimiento del orden público, en una época plagada de bandolerismo y convulsos movimientos insurgentes (Carlismo entre otros ismos). No en balde, 1844 no es sólo el año en el que se decreta la creación de un Servicio Telegráfico Nacional, sino el de la creación de la Guardia Civil.

Como en el resto de Europa, los mensajes iban cifrados y las claves eran cambiadas periódicamente. Los operarios de las torres sólo conocían los datos que rutinariamente habían de ser transmitidos con el mensaje (fecha, hora, estación de origen, destino, etc), pero no el mensaje en sí, del cual sólo conocían las cifras de los códigos (Olivé Roig, 1990). Como vemos, el Estado controlaba completamente el nuevo medio, reservándose para sí no sólo la propiedad de los canales de transmisión, sino también la índole de los contenidos. Lo cual, tampoco es tan extraño en un siglo (sobre todo en su primera mitad) en el que la censura podía legalmente abrir la correspondencia ordinaria (Díaz-Plaja, 1969, 215).

Con la aparición de la telegrafía eléctrica, el Estado español decidió en 1855 desmantelar su red óptica, sustituyéndola por la eléctrica. Esta operación corrió de nuevo a cargo del ya por entonces Brigadier (General de Brigada) José María Mathé, asimismo Director General del nuevo Cuerpo de Telégrafos (Olivé Roig, 1990), por lo que bien puede afirmarse que existe una voluntad continuista por parte del Estado en controlar plenamente este tipo de comunicación. De hecho, el afán controlador que el Estado ha tenido históricamente respecto de las ideas escritas (periódicos), también se trasladó al nuevo campo de la telegrafía, hasta el punto que en los años 90 del pasado siglo le fuera incautada a la agencia Havas por parte del Gobierno español un despacho particular que aquella tenía en Vallecas...y que, no obstante, venía funcionando desde 1871 (Paz, 1989, 72). Esta especie de contradicción, una estación telegráfica particular funcionando durante más de veinte años que de pronto es cerrada por mor del afán monopolístico del Estado quien mediante su Servicio de Correos y Telégrafos se arroga la exclusividad en la oferta de dicho servicio, es la contradicción propia del modelo económico del siglo XIX.


Modelo económico en cambio

Mientras que por una parte existen unas fuerzas emergentes (capitales que desean actuar en el espacio abierto -internacional- del libre mercado), junto a ellas, como si de una fuerza centrípeta se tratara, pervive un modelo de pensamiento más arcaico que se autoconcibe como control, e incluso monopolio de determinadas actividades económicas. En el pasado, fueron la carne o el pan u otros productos monopolizados en su fabricación y distribución por los Gremios. En el siglo XIX, tras la Revolución Francesa, el corsé jurídico-medieval ha desaparecido, y con él gran parte de las organizaciones gremiales, pero aún subsiste un afán regulador por parte de la pirámide del poder político en el ámbito de la información y la comunicación mediática.

Con el emergente capitalismo tal pretensión comienza a cuartearse. La causa estriba en que, amen del afán de enriquecimiento de los nuevos ciudadanos, los prohibitivos costes de instalación, mantenimiento y conservación de cualquier tipo de red comunicativa (el nuevo ferrocarril es un buen ejemplo de ello), obligarán a los Estados a ceder, contratar o subarrendar, los supuestos 'derechos' que a pesar de todo se arrogaban. Así, por ejemplo, la agencia de noticias Havas disponía en 1904 de 3.000 kilómetros de líneas telegráficas propias o subarrendadas, y sólo en Francia disponía de 20 sucursales (Palmer, 1983, 247). Ello, junto a la demanda de servicios, obligó a las compañías telegráficas monopolísticas a la instalación de terminales para estos clientes privados que podían tratar de igual a igual a los diferentes Estados (Timoteo Álvarez, 1987, 35-36). De hecho, está perfectamente demostrado que las Agencias de Prensa constituyeron en el pasado siglo un oligopolio que controlaba el flujo de información distribuida telegráficamente, en una suerte de orden supranacional propio, por encima y al margen de los Estados, orden que perduró formalmente hasta 1934 (Timoteo Álvarez, 1987, 31-42).

Con la aparición de la telegrafía eléctrica, (y en función de complejos fenómenos socioeconómicos apenas descritos aquí) los Estados nacionales acabaron siendo (salvo el caso especial de USA) los propietarios de la red telegráfica básica, pero no de los contenidos que por ella eran transmitidos. En Países como Bolivia, Argentina o la propia España, los Gobiernos no controlaban verdaderamente el flujo de información que les llegaba desde el exterior y circulaba por sus redes.

Nacida como una explícita intencionalidad de control (homeostasis de regulación), la telegrafía ofrece el primer ejemplo 'desregulador' en el campo de la comunicación a distancia, si bien de un alcance extremadamente limitado en virtud del escaso número de personas a las que afectaba directamente. No obstante, los sistemas comunicativos originarios, aquellos nacidos imperiosamente por una necesidad homeostática reguladora, dan paso en el propio siglo XIX, a unos cuantos subsistemas (las Agencias informativas) que desbordan claramente al sistema que les da origen, invirtiendo con ello la relación primigenia: los segundos son el todo, los primeros son la parte. La compleja relación que hay entre los conceptos de sistema y subsistema, una relación formada no sólo por concurrencias sino también por antagonismos, se nos muestra aquí de una manera clara aunque todavía con un alcance escaso.

La negentropía (limitada) a la que daba lugar la creación de sistemas de regulación de la información (los inicialmente controlados por los gobiernos), dio paso a un (todavía limitado) fenómeno entrópico de multiplicación sistémica (las agencias informativas) que a su vez, al constituirse en pool, generaron una nueva ganancia de negentropía (ganancia de información, tal y como preconiza Orrin Klapp) ... que afectaba a un cada mayor número de seres humanos.


Entropía-negentropía en la prensa

Salvando las distancias, el mismo fenómeno, regulador-'desregulador'-ampliación de la regulación, puede observarse con la aparición de la prensa como expresión estable de comunicación.

Inicialmente concebida como fuente de propaganda y control informativo por parte de los Gobiernos (Albert, 1990; Sáiz, 1983; Vázquez Montalbán, 1985), el hecho de ser el resultado de una acción humana dentro de un sistema humano (un subsistema en suma) significará que ésta (la prensa periódica) se haya visto sometida a los ritmos y circunstancias propias del sistema al que, en definitiva, pertenece. El desarrollo de las democracias, es decir, el desarrollo de las libertades concretas (factuales) de los ciudadanos, (entre otras la libertad de opinión, de información y prensa), han supuesto, a la larga, la multiplicación de esa hojas escritas regularmente a las que damos en llamar prensa.

Una ojeada a cualquier kiosko nos bastará para comprobar que esa multiplicación realmente ha tenido lugar: Diarios de información general, semanarios de lo mismo, revistas del corazón puro y duro, prensa femenina-feminista, prensa masculina-elegante, masculina voyerista, informática para niños, informática para mayores, revistas de croché, del automóvil, de decoración, de perros, de armas, de economía, tebeos, de aviones, de arquitectura y diseño, de historia, de artes marciales, de caza, de músculos, de bicicletas, de motos, de submarinismo...; la lista podría hacerse casi interminable si además tuviéramos en cuenta el carácter único, singular, que para cada receptor tiene 'su' lectura (selección de contenidos e interpretación en primera instancia).

Y esto, en lo relativo al campo de la prensa periódica destinada al gran público. Por lo que atañe al campo restringido de la especialización, la multiplicación es absolutamente colosal. Como muestra de ella, la British Library disponía en Abril de 1996 de un stock de 254.646 publicaciones periódicas de interés en el ámbito científico, bien es verdad que en todos los idiomas, y de todos los países (incluso de algunos tan minúsculos como Liechtenstein de donde a pesar de todo se dispone de tres títulos)(Document Supply Centre, Abril 1996).

No es mi propósito aquí intentar averiguar en profundidad si (en la prensa destinada al gran público) los multiplicados panes y peces son milimétricamente iguales o distintos; este libro no tiene esa orientación. El problema de la Aggenda (tematización) o el rol desempeñado por el gatekeeper (portero)[30], es un problema fascinante en el campo de la información, pero está más allá del alcance de este trabajo. No obstante creo que, a la vista de los hechos, estamos en condiciones de poder afirmar que, realmente, en el campo de la comunicación de masas (prensa) ha habido, y hay, una proliferación, un aumento imparable de oferta info-comunicativa, diferenciada y diferente de otras ofertas similares, bien sea en el campo generalista (prensa diaria) bien el campo de la prensa temática.. Y esta proliferación, aun considerando que la raíz que lo motiva es de índole económica (diferentes casas editoriales, diferentes revistas), es sin embargo posible porque realmente hay diferentes tipos de lectores, de consumidores, que hacen factible la existencia misma de la tarta del mercado. Estos, los consumidores, los ciudadanos, se exponen a los media, con la intención de resolver homeostáticamente unas carencias, de suerte que, «el problema de resolver la ambigüedad y la tensión que le acompañan[31] [..] obtienen un sitio preferencial en su agenda cognitiva» (DeFleur & Ball-Rokeach, 1982, 338). De otra parte, aquellos, los media, necesitados de público lector, deseosos de conquistar cuotas en el mercado potencial, se ven absolutamente abocados a intentar establecer una agenda en consonancia con ese público latente, de suerte que «la fijación de la agenda es un proceso interactivo. Los temas son elegidos por los medios para su presentación al público.[..] El público elige su interés sobre esa información en función de sus diferencias individuales [..] y en función de su situación dentro de los estratos y categorías sociales. De este sistema de variables y de factores surge una lista de temas a los que las diversas personas asignan diferentes niveles de importancia. Esa lista es, en su conjunto, la agenda de los medios» (DeFleur & Ball-Rokeach, 1982, 327).

Resumiendo, tenemos pues que, en el campo de la Prensa, la compleja relación sistema-subsistema ha conducido en primer lugar a una proliferación exacerbada de productos mediáticos, a pesar de que, en su origen en el XVII y XVIII (no lo olvidemos), ésta (la prensa) nace como resultado de una voluntad deliberada de control por parte de los Gobiernos (las famosa Gazetas). En segundo lugar, esa proliferación inacabable está en sí misma constituida como una negociación permanente entre (una parte de) el público y (una parte de) los medios.

El público se aproxima a los medios buscando en ese movimiento de feedback negativo apaciguar su tensión dinámica hacia lo que carece. Esos grupos de lectores massmediáticos (subsistemas en definitiva) encuentran lo que buscan en productos que (desde un Tebeo a una revista de Arte pasando por el periódico favorito) a su vez son parte subsistémica del (sub)sistema de comunicación, que a su vez lo es del (sub)sistema humano. Ese encuentro, posible sólo gracias a la coincidencia en la Agenda («la fijación de la agenda es un proceso interactivo»; DeFleur & Ball-Rokeach, 1982, 327) conlleva sin embargo al desencuentro en el momento mismo en que el feedback negativo (homeostasis de regulación) que le dio origen pasa a convertirse en feedback acumulativo conducente a la aburrida redundancia. Por esta causa, en periodos cada vez más cortos, los medios renuevan su 'Contrato de Lectura', modificando la presentación de sus productos, renovando sus plantillas, y en definitiva buscando el nicho de ercado al que aspiran.


Relación sistémica

Decía más arriba que este libro no tiene por objeto de investigación el problema de la configuración de la Aggenda, ni tampoco es necesariamente un trabajo sobre Historia de la comunicación. La breve incursión que he realizado en el campo de la prensa (así como en otros campos) no pretende otra cosa sino mostrar el carácter homeostático de la comunicación en el doble sentido tantas veces indicado: de una parte la comunicación pretende alcanzar un equilibrio, una situación estática, y de otra, ese equilibrio produce, promueve, nuevos desequilibrios, nuevas situaciones que por su misma naturaleza tienen un carácter dinámico, de suerte que bien puede decirse que en la sociedad opera un doble proceso de autoproducción y autodestrucción (Morin, 1975, 14), un doble proceso jánico (como las dos caras de Jano) en el que la entropía y la negentropía constituyen sus facetas. Por ello, en un intento por detenerlo, el ser humano inventa máquinas con las que superar su malaise, ese malestar de -en- la cultura.

En unas ocasiones las máquinas sólo pretenden, como en el caso del alfarero Dibutades, apaciguar una separación; en otras, como en el caso de la Asamblea Nacional, lograr un mayor control sobre los acontecimientos; pero en todas las ocasiones, las máquinas nacen, se desarrollan (y mueren), siempre para compensar un desequilibrio, una ausencia, una carencia, un no-estar-ahí, un no-saber-eso.

Por esta causa inicial (la compensación del desequilibrio) es por lo que se desarrollan elementos de comunicación: palabras, máquinas, tecnologías que unidas entre sí acaban constituyéndose en (sub)sistemas de comunicación. Hay quien opina que la comunicación ha surgido como una forma más de control por parte del poder, es decir de quien ostenta el poder político. Y es cierto que nace como un intento de forma de control, pero no necesariamente del poder político sobre sus 'poseídos', sino del ser humano sobre la naturaleza. Se olvida que la comunicación es un subsistema en relación con los (sub)sistemas sociales. Y el discurso que afirma que la escritura (la representación gráfica de acontecimientos[32]) nace como una forma de control político, es un discurso correcto en sociedades, como el antiguo imperio egipcio, profundamente estratificadas en un orden piramidal donde el privilegio de esa representación, estilización y comprensión de la estilización, está reservado a unos pocos.

Sin embargo, es totalmente incorrecto si esa norma (la escritura como forma de control por parte del poder) se aplica a otros subsistemas humanos caracterizados por la laxitud de sus instituciones, y, en definitiva, por la ausencia de poder político único e institucionalmente centralizado.

Tal era el caso de los llamados 'indios de las llanuras' en América del Norte, pueblos nómadas que subsistían gracias a la caza y a la recolección de plantas silvestres, que tenían por tanto una actitud respecto de su entorno a la que se puede catalogar como de pre-neolítica. En ellos, el gobierno de las bandas era irregular y basado primordialmente en el prestigio personal acumulado a través de la experiencia (edad) y de las acciones guerreras que proporcionaban honores (Beals y Hoijer, 1968, 546). Poniendo como ejemplo a los indios chochonis occidentales, Beals afirma a través de Steward que «El jefe o 'hablador' del poblado era poco más que un cabeza de familia o consejero. Las alianzas entre familias o entre poblados eran de alcance limitado y de breve duración, dándose únicamente en las cacerías o fiestas comunales, cada una de las cuales tenía un director especial. [...] La cooperación habitual de las mismas gentes y, por tanto, el desarrollo de una sumisión y un régimen político fijo, aunque limitado, resultaban imposibles.» (Steward, 1938, 257).

No obstante, a pesar de esa ausencia de poder político fijo, los indios americanos de las llanuras desarrollaron formas estables de comunicación escrita, a las que se cataloga como un modelo (paradigmático) de escritura ideográfica o pictórica (Gelb, 1976, 53). Ignace Gelb prefiere llamarla 'escritura mental' o 'escritura de contenidos' puesto que a fin de cuentas los sistemas de escritura egipcio, sumerio primitivo, hitita, etc, son también escrituras pictográficas, diferenciándose de las anteriores en su capacidad de representación de sílabas (Gelb, 1976, 60-61).

En cualquier caso, esta forma de escritura, presente ya en el paleolítico, era capaz de describir contenidos perfectamente accesibles para cualquier ser humano inmerso en el mismo ámbito cultural, debido fundamentalmente al carácter abierto del (sub)sistema social en el que se desarrollan. Ello explicaría que mientras «entre los indios americanos, los signos dibujados por una persona de la tribu son entendidos por los general por otros miembros de la misma [sin embargo] en los africanos, los signos [pictogramas] son comprensibles tan sólo por la persona que los trazó, o a lo sumo, por alguno de sus amigos más íntimos conocedores del sentido de los signos» (Gelb, 1976, 77). El entorno social sistémico es radicalmente diferente en ambos casos; en el primero es laxo, vagamente democrático, o predemocrático al menos; en los segundos, es profundamente jerárquico, piramidal, estratificado. En los primeros, la 'escritura' tiene una función de control público sobre acontecimientos relevantes, sobre hechos singulares, sobre el transcurrir del tiempo (Gelb, 1976, 53-75) expuestos en la piel donde tales hechos habían sido reflejados. En los segundos este control tiene un carácter privado que beneficia a quien lo posee y a la persona de la cual depende políticamente. El entorno sistémico marca la diferencia.

Por lo tanto, siendo cierto que la escritura nace como un intento de control (una función homeostática reguladora) de la naturaleza y de lo que acontece en ella, sin embargo, no es necesariamente cierto que ese control haya nacido en primer lugar para dominar a otros seres humanos. Esa será una consecuencia inevitable de la revolución neolítica que condujo a la concentración de poder, de manera que podemos afirmar con Gelb que «La escritura sumeria [logo-silábica, jeroglífica] tiene su origen en las exigencias propias de la economía y administración públicas. Con el aumento de la productividad del país, como resultado de los sistemas de canalización y de irrigación inspirados por el Estado, el exceso de la producción agrícola acumulada tuvo que conservarse en los depósitos y silos de las ciudades, lo que exigió llevar una contabilidad de los productos que ingresaban en la ciudad, así como los manufacturados que salían para el campo.» (Gelb, 1976, 93-94).

Como dice Albert, la historia de la prensa, al igual que cualquier otra historia especializada (movimientos sociales, hechos económicos, literatura), no puede ni entenderse ni ser construida «sin una referencia constante a la evolución general de la sociedad» (Albert, 1990, 11) es decir, sin una referencia constante al sistema del cual forma parte: «El acontecimiento, en efecto, revela algo en el sistema, que afecta e introduce, sobre todo, la problemática de la evolución de dicho sistema» (Albert, 1986, 71). Por esta causa, y por la misma razón que no es posible desgajar el acontecimiento del sistema al cual pertenece, tampoco es posible separar el nacimiento de la escritura del contexto sistémico en el que se desarrolla.

La especial insistencia de algunos (Goody, 1990) en la función controladora de la escritura, no permite sin embargo concluir que ésta nace específicamente para que unos seres humanos dominen a otros; eso sería falsear la realidad. Y en el peor de los casos, aun considerando válida esta última hipótesis ya hemos visto más arriba el efecto multiplicador (y liberador de energías) que en el campo de la prensa escrita ha acabado produciendo (tras un larguísimo desarrollo histórico) la, inicialmente función 'controladora' de la escritura jeroglífica.


Creación y desequilibrios

«La creación [la creatividad] surge del desequilibrio» afirma un músico español contemporáneo (Jorge Pardo en El País, 21/01/95).. Esta afirmación, aparentemente reservada al campo de la creatividad artística, podemos hacerla extensiva a cualquier artilugio, máquina o tecnología surgida de nuestra mente. Ya hemos visto algunos ejemplos de ello.

De igual forma, el desequilibrio como impulso creador resulta obvio en lo que respecta a la aparición de las tecnologías conducentes a la conservación, reproducción y transmisión del sonido, y más en concreto en lo que atañe a la voz humana. Como es bien conocido, tanto Edison como Graham Bell fueron motivados y espoleados en sus investigaciones por un desequilibrio de carácter físico.

El fonógrafo debió en gran parte su existencia a la sordera del propio Edison quien según su confesión no había oído el sonido de un pájaro desde que tenía doce años. En el curso de sus investigaciones para mejorar la transmisión telegráfica, Edison descubre que el papel untado con parafina retiene las marcas provocadas por la aguja telegráfica, con lo que es posible proceder a una nueva lectura según patente presentada en 1877. Al mismo tiempo se apercibe que el telégrafo 'canta' (Perriault, 1981, 152). Ello dará pie en breve (tan sólo un año más tarde) a una segunda patente donde, ya sí, se le da el nombre de 'Fonógrafo o Máquina parlante' (Phonograph or Speaking Machine) al aparato allí descrito (Perriault, 1981, 169).

Por su parte Graham Bell, casado con una sordomuda y profesor él mismo de fisiología vocal en Boston, consagró una buena parte de su vida a la educación de los sordomudos. Fruto de ello, de ese interés por sus semejantes, fueron sus investigaciones acerca de la transmisión de la voz a través de los hilos telegráficos y cuyo resultado será una patente inicial depositada en 1876 (Perriault, 1981, 143-144). De nuevo, la coincidencia y la cercanía en las fechas.

Otros investigadores en el campo de la grabación y reproducción del sonido, también durante esa década, estuvieron directamente vinculados con el problema del desequilibrio genésico mencionado más arriba. Ese fue el caso de René Marage, relacionado con el Instituto de Sordomudos en París (Perriault, 1981, 163).

Pero lo que nos interesa, no es tanto la historia menuda de un descubrimiento (el cual, como siempre, está jalonado de nombres) sino la función para la que éste es desarrollado. Ya hemos visto que el objetivo inicial era contribuir a paliar la sordomudez, constituyéndose en una especie de prótesis mecánica de la cual ya hoy nos resulta imposible prescindir. De hecho, Charles Cross, un profesor del Instituto de Sordomudos (aunque expulsado de éste por 'conducta indebida'), concibió su invención (el paléofono) como un instrumento imaginado para que sus alumnos mudos lo llevasen en bandolera «con una provisión de frases para la jornada» (Forrestier, 1969), permitiendo de esa manera paliar su déficit comunicativo. En el sentido más literal: una prótesis, un añadido.

De hecho, todos los datos que existen respecto del nacimiento del teléfono y el fonógrafo indican que estos «son tentativas para oír mejor, prótesis» (Perriault, 1981, 152) que a la larga han resultado beneficiosas para toda la humanidad, porque, en definitiva, era toda la humanidad la que sufría esa carencia comunicativa.

A fin de cuentas, en tanto que añadidos, en tanto que prótesis, estas technes, y otras ya mencionadas, no son sino extensiones del ser humano, «fragmentos de prótesis de la megamáquina social» (Morin, 1986, 200); y «todas las prolongaciones de nosotros mismos [no] son [otra cosa que] intentos para conservar el equilibrio» (McLuhan, 1969b, 69), tentativas con las que compensar una carencia.

Una de las utilidades que, inmediatamente, vieron los contemporáneos a la invención del fonógrafo fue la de que con él se podría conjurar la muerte, si no eliminándola sí al menos paliando su devastador efecto. Tanto a uno como al otro lado del Atlántico surgieron artículos valorativos del nuevo invento en los que, además de otras estimaciones, se elogiaba en primer lugar el hecho de que «cualquiera que ha hablado en el registrador del fonógrafo, y cuyas palabras han sido registradas por él, tiene la seguridad de que su discurso puede ser audiblemente reproducido con sus propias entonaciones mucho tiempo después de que haya regresado al polvo» (Read y Welch, 1959, 12). En efecto, en particular sorprendía durante la época que algo tan personal y perecedero como es la voz pudiera conservarse durante mucho tiempo manteniendo la misma entonación, el mismo timbre, en suma las mismas cualidades que tenía en el momento de la grabación, o por decirlo con palabras de un articulista de la Exposición de París del 89 a propósito de una cantante «[...su canto] no había perdido nada de su frescor ni de su emoción comunicativa» (Perriault, 1981, 191-192).

Este deseo que mencionábamos antes por prolongar la vida a través de una prueba fehaciente de su paso por ella (deseo común a todos los seres humanos) era puesto al alcance de todos gracias a ése y a otros inventos del siglo. De hecho, esta primera utilidad apreciada por los panegiristas del fonógrafo era deudora, y representaba un complemento, de un hábito que lenta pero firmemente iba enraizando en la naciente sociedad de masas. El retrato, de la mano de la fotografía como elemento comunicativo inmortalizador, dejaba de ser privilegio de las clases socialmente acomodadas, para convertirse en un posibilidad generalizada. Como muestra de ello, baste decir que en Estados Unidos durante la década de 1850 se hicieron unos tres millones de retratos por año (Taft, 1938, 76). Y que en ese mismo país, «La conmoción y el gran movimiento de personas durante la Guerra Civil dio a los fotógrafos retratistas un impulso decisivo. Los retratos eran en cierto modo un ligero alivio para el dolor de una separación. Y de algún modo disminuían el gran abismo entre los vivos y los muertos. Eran valiosos recordatorios de los vínculos significativos existentes entre grupos primarios» (DeFleur y Ball-Rokeach, 1982, p.85).

Pero no hace falta recurrir a testimonios lejanos. Basta con usar la memoria y recordar (aquellos que tengan edad para ello) que en Europa, hasta tiempos muy recientes, era relativamente normal encontrar en las casas fotografías de parientes fallecidos que, como iconos, como retratos que eran (al estilo de lo realizados al óleo), permanecían colgados en las paredes cumpliendo el papel de recordatorios; vínculo entre los vivos y los muertos.

El fonógrafo, la máquina registradora de la voz, por razones económicas, no pudo popularizarse al extremo de la fotografía en tanto que recordatorio de los fallecidos. Y ello a pesar de que cualitativamente representaba un paso hacia adelante en la conservación de la vida. Porque frente al carácter estático de la fotografía, del retrato o de la misma escultura, el fonógrafo tenía una dimensión dinámica que lo convertía en algo absolutamente distinto. Literalmente hablando era un recuerdo animado, lleno de viveza y capaz de conservar las características del emitente. Si no con alma, sí al menos con apariencia de alma.


Póiesis y máquinas

A pesar de que el gran desarrollo de las (tele)comunicaciones durante el siglo XX ha obscurecido la importancia capital de sus orígenes, es bien cierto, como dice Perriault, que el verdadero impulso conceptual se produce durante el periodo que va desde 1850 a 1890. Primero, estableciendo las vinculaciones necesarias entre lo biológico y lo tecnológico, entre el cuerpo y su reproducción. Luego, casi inmediatamente, edificando la teorización necesaria [y la práctica incipiente -Carey, Senteck, Leblanc, Nipkow, el propio Edison-] para vincular las diversas tecnologías entre sí, fotografía, teléfono, y fonógrafo (Perriault, 1981, 199-204), dando lugar con ello al cine y a la televisión.

Estas palabras -cine y televisión-, que de manera casi automática traen a la mente un contenido semántico ligado a a una actividad industrial, no hay que abordarlas en nuestro contexto desde ese punto de vista. Ambas tecnologías (también combinables entre sí) no son otra cosa que artificios por medio de los cuales podemos captar, reproducir e incluso crear nuevas imágenes y sonidos, susceptibles de transmisión a través del espacio y el tiempo, conforme a la definición dada anteriormente de las máquinas de comunicar.

Por separado, las tecnologías iniciales (y sus derivados, telegrafía sin hilos, radio, radar y otros) permiten la supresión de una ausencia, de una carencia; es decir nos proporcionan el feedback instrumental con el que poder estar -situarnos- en una determinada situación espacio-temporal. Combinadas, las tecnologías resultantes (en especial la televisión en lo que se refiere a la comunicación de masas), potenciarán ese efecto feedback hasta extremos considerables. Si, además, a ello, hacia el final del siglo XX, incorporamos la programación cibernética (y todo artilugio de comunicación de masas hoy en día ya está asociado con un chip informático) tendremos como resultado un incremento tal de elementos de comunicación -de más en más baratos, de más en más potentes- que configuran una sociedad donde el exceso de información posible, de comunicación en suma, puede hacerse insoportable tal y como dijo Umberto Eco en la clausura del Seminario «Nuevo periodismo y nuevos medios de comunicación» celebrado en Bolonia durante la primera semana de Junio de 1995. Éste añadió que los nuevos Media nos están conduciendo hacia una acumulación infinita de información (ABC, 17/6/95, 100). Según el propio Umberto Eco, el resultado es que «La sociedad esta cambiando a un ritmo vertiginoso. Ahora cuentan la velocidad y la cantidad, lo demás no importa. Y yo me pregunto como se puede hiperseleccionar tanta información y como se puede asimilar. Parece imposible. Sin duda no es un problema para la Semiótica porque es un problema político y social» (Tiempo, 9/10/95, 101). Y también tecnológico añadiría yo, ya que como afirma, entre otros, Umberto Eco «el futuro nos trae unos ordenadores en los que las imágenes de televisión serán una parte de la gran pantalla» (Tiempo, 9/10/95, 101), y en él será posible crear programas informáticos (de hecho, el Laboratorio de Medios de M.I.T ya lo está haciendo) capaces de seleccionar, expurgar, y buscar los contenidos que el usuario desee.

Esta acumulación de la que hablamos (recuérdese el feedback de acumulación Escarpiniano) tiene un carácter doble. De una parte cumple un papel negentrópico («la información es siempre negentrópica» como decía Orrin Klapp), puesto que contribuye a producir reequilibrio respecto de cualquier posible carencia que un ser humano pueda tener en un momento dado, contribuyendo de esa manera a disminuir nuestra relación de incertidumbre respecto del entorno. Pero de otra, al tratarse de una acumulación incesante, que parece no tener fin, es decir que tiende hacia lo infinito, tenemos que la acumulación comunicativa que está transformando nuestro entorno a finales del siglo XX, tiene un carácter absolutamente entrópico entendiendo éste como «medida de la desorganización de un sistema» (Eddington, 1945, 60). El carácter dispersivo de la oferta comunicativa en el macrosistema humano es el causante de ese segundo resultado.

Así pues, tenemos a finales del siglo XX una situación paradójica aunque no nueva como ya hemos visto en las páginas precedentes. En ellas hemos visto que la búsqueda del equilibrio genera nuevos desequilibrios; el descubrimiento y puesta en marcha de un artilugio negentrópico provoca nueva entropía; a una conducta homeostática, le sigue una nueva situación antihomeostática.

Y la causa de ello proviene directamente de las máquinas en sí mismas, de las humanas, y de las artificiales.

De las primeras, en tanto que poseedoras de una Praxis (Marx), de una Dynamis transformadora, y de una Entelequia que le conduce hacia un fin (Aristóteles), no ya sólo como individuos sino como especie. En palabras de Edgar Morin, la máquina humana, como cualquier máquina (y la naturaleza entera lo es) «es un ser físico práxico, es decir, que efectúa sus transformaciones, producciones o realizaciones en virtud de una competencia organizacional» (Morin, 1986, 186), es decir como miembro copartícipe de un sistema.

Las segundas, las artificiales, en tanto que son «un fragmento de prótesis de la megamáquina social» (Morin, 1986, 200), una Extensión del Hombre (McLuhan), es decir del ser humano entendido biológicamente como sistema abierto (Cannon) y formando parte (inevitablemente[33]) de un sistema social que también lo es por definición.

El carácter práxico del ser-máquina que inicialmente se expresa a través del puro y simple trabajo, se amplía con la idea de producción -«creación de una gran diversidad de acciones, procesos, fenómenos, cosas, seres»- que a su vez nos conducen hacia la transformación y hacia una «nueva etapa de generatividad», ya que la propia transformación afecta necesariamente a la propia praxis, (figura 11; Morin, 1986, 188).

figura11

Y esto sucede porque «En la máquina [en cualquier máquina] no hay solamente lo maquinal (repetitivo), hay también lo maquinante (lo inventivo)» (Morin, 1986, 189-190), es decir aquello que, en última instancia, nos conduce a las sucesivas implosiones y explosiones de los sistemas de comunicación y de las sociedades en las que se desarrolla. Lo maquinante, por otro lado, también es aquello que permite «la producción de la diversidad, de la alteridad, de sí mismo» (Morin, 1986, 190).

La fotografía, el cine, la televisión, los efectos especiales, el teléfono, las redes informáticas, etc, son todos ellos ejemplos de esa creación de diversidad a la cual podemos asomarnos y con la que podemos conectar, de alteridad en la cual podemos vicariamente sumergirnos y/o sentirnos solidarios, de sí mismo en tanto que prolongación de los seres humanos, no de uno o de dos ni de un grupo de ellos, sino de todo el conjunto n que los constituye.

 





Parte Tercera. Redes (Seres)






Comunicación y Realidad. (Notas para una Filosofía desde la Comunicación)



VIII. LA SOCIEDAD CIBERNÉTICA


-No entienden cómo al divergir se converge consigo mismo; armonía propia del tender en direcciones opuestas como la del arco y la lira.

Heráclito

La implosión es un concepto creado en Los Álamos durante la Segunda Guerra Mundial para expresar el estado previo a la explosión atómica causado por un detonador. McLuhan lo retomó para describir la nueva situación en la que Occidente había entrado (1969b, 25 y ss.), situación a la que repetidamente a lo largo de su obra catalogó como la de una Aldea Global.

Treinta años más tarde, Derrick de Kerckhove, profesor de la misma Universidad de Toronto en la que McLuhan trabajó, y director del McLuhan Program, afirma en una entrevista aparecida en Diario 16 que el tiempo de la Aldea Global ha terminado; «Con el computador personal comenzó una nueva época y desapareció la aldea, ese punto de encuentro colectivo; ahora estamos en la época del sentimiento del tiempo y del espacio -surge una mente global[34]- en era de simultaneidad y ubicuidad» (Diario 16, 7/1/95, p.33).

Esta novedosa aportación conceptual de Derrick de Kerckhove así como otras (como la de considerar la mente humana como un ecosistema biológico en constante interacción con su entorno tecnológico y cultural) incorporadas en su Brainframes, son, sin embargo, deudoras, como el mismo Kerckhove reconoce, de su maestro.

Porque en efecto, McLuhan -aunque no utilizó expresamente este nuevo concepto (el de Mente Global)- sí lo anticipó repetidamente. Así, en el capítulo de La Galaxia Gutenberg titulado con el aforismo «La nueva interdependencia electrónica vuelve a crear el mundo a imagen y semejanza de una aldea global», se apoya en Teilhard de Chardin para hacer ver que estamos ante una nueva era de la ubicuidad donde «gracias al prodigioso hecho biológico representado por el descubrimiento de las ondas electromagnéticas, cada individuo se encuentra en adelante (de modo activo y pasivo) simultáneamente presente, sobre mar y tierra, en cada uno de los rincones de la tierra» (Teilhard, 1959, 240). Y McLuhan continúa: «Este mayor alcance externo de nuestros sentidos crea lo que Chardin llama la 'noosfera'. En lugar de evolucionar hacia una enorme biblioteca de Alejandría [en un sentido literal, táctil y tangible al mismo tiempo] el mundo se ha convertido en un ordenador, un cerebro electrónico [...] en una fase de total interdependencia y co-existencia» (McLuhan, 1993, 57-58). Y en otro texto (Contra-explosión), de una manera aún más explícita, afirmaba: «las extensiones tecnológicas de nuestro sistema nervioso central [...] están sumergidas en una piscina mundial de movimiento de información, permitiendo al hombre incorporar dentro de sí a toda la humanidad» (1969a).

Esta afirmación premonitoria, difícil de vislumbrar en los años sesenta, es quizás la que mejor define las expectativas suscitadas por el advenimiento de lo que de una manera un tanto apresurada podemos calificar como sociedad cibernética (como la llaman unos), o sociedad de la información (como lo hacen otros).

Y aunque sólo el paso del tiempo acabará asentando un calificativo para el nuevo modelo de sociedad naciente, el caso es que la interconexión, la ubicuidad posible, las redes en suma, dan como resultado un cada vez más creciente uso del término cibernético (y sus derivados) para referirse a ella[35]. En la base, en el núcleo de esta nueva sociedad está la tecnología digital (programas) así como la interconectividad (redes). La conjunción, la sinergia, de unas y otras, están con-formando un mundo en el que «las personas se comunican entre sí por medio de ordenadores, conformando una colmena de conocimientos, donde cada panal conserva sus individualidades que forman, a su vez, una colmena global viva e inteligente» (Kevin Kelly en El País, 4/11/94)[36]. En el corazón de la nueva sociedad surge, está surgiendo, un grupo cada vez más numeroso de personas que participan de lo que se da en llamar cibercultura, «un movimiento contracultural que se está creando en torno al ordenador y las nuevas tecnologías digitales, y que ha descubierto que la unión de informática y telecomunicación genera un poder de conocimiento infinito» (Montxo Algora, director de la muestra 'Art Futura' en entrevista, El Mundo, 7/10/94, suplemento Comunicación, nº209, p.8).

Pero aunque ciertamente las posibilidades de conocimiento se vislumbran como infinitas, aunque «los ordenadores nos hacen sentirnos dioses» (Kevin Kelly en El País, 4/11/94), ello no elimina sino que acrecienta el binomio entropía - negentropía, situándonos en una posición paradójica, ya que la unidad negentrópica propiciada por las telecomunicaciones viene acompañada de unas características dispersivas (entrópicas por tanto) donde todo el mundo puede conectarse con todo el mundo: La máxima negentropía (acceso a cualquier tipo de información y/o conocimiento) junto con la máxima entropía (infinito número de tipos de información y/o conocimiento). A fin de cuentas la misma contradicción que hay entre el Kaos y el Kosmos, entre Hybris y Diké, entre Elohim (los creadores desde la nada, el desorden, es decir desde sí mismos) y YHVH (la Ley), dos nombres para una misma entidad (Morin, 1986, 80).

Veamos entonces, a continuación, un poco someramente aquellos elementos, aquellos dos pivotes (redes y programas) sobre los que gira esta enorme crisis de la comunicación (Kerckhove en Diario 16, 7/1/95), y que se manifiesta tanto en sus aspectos más teóricos como en los más cotidianos y empíricos. Echemos, pues, una ojeada a la Realidad Virtual y a la Interconectividad.


Redes

La idea de un mundo totalmente conectado no es nueva, aunque sí pertenece a nuestro siglo. En 1907 Theodore N. Vail, primer Presidente de la ATT concibió el concepto de Servicio Universal «el cual debe asegurar que toda persona pueda comunicar, rápidamente, económicamente y convenientemente con cualquier otra persona en cualquier parte del mundo» (Lera, 1989, 366).

Sin haber tan siquiera transcurrido 100 años desde que esta audaz formulación fuera realizada, el Servicio Universal concebido por Vail va camino de convertirse en una realidad que está transformando radicalmente nuestras sociedades industrializadas.

La movilidad y portabilidad de los aparatos telefónicos (capaces ya de transmitir no sólo la voz sino cualquier tipo de datos, vía fax o modem) junto a su cada vez más creciente miniaturización (ya existen prototipos de muñeca) es sólo un aspecto más de la transformación tecnológica que como indica el profesor Carlos Soria «ha reverdecido los diálogos y controversias que ya suscitaron las revoluciones industriales del siglo pasado» (Soria Sáiz, 1989, 32).

Proyectos como el Iridium o el Digisat, junto a realidades ya consolidadas, o a punto de estarlo, como el GSM (Global System for Mobile communications) o el GSP (Global System Positioner), nos van acercando cada vez a un mundo plenamente intercomunicado.

De los cuatros ejemplos mencionados en el párrafo anterior (Iridium, Digisat, GSM, GSP), con mucho el más ambicioso a largo plazo, sería el Proyecto Iridium en el que participa la empresa Motorola, y por el que se pretende cubrir todo el área terrestre, todo el planeta en suma, mediante un sistema de 77 minisatélites geoestacionarios de baja altura a través de los cuales sea posible recibir y transmitir voz y datos digitalizados (El Mundo, 20/10/1991). Junto a él se encuentran otros planes similares como el Proyecto 21 (21 satélites; concebido por el consorcio para la explotación marítima de las telecomunicaciones Inmarsat), o el Globalstar (48 satélites; patrocinado por la francesa Alcatel y las norteamericanas Loral y Qualcom) (El País, Suplemento World Media, 9/03/95, p. 21). Sobre todos ellos existe la duda razonable acerca de su plasmación ya que dependerán de la demanda de mercado, además de la competencia con los sistemas ya en vigor.

Mientras tanto, satélites de comunicaciones actualmente en funcionamiento permiten utilizar ya el sistema de posicionamiento global (GPS), el cual, concebido y producido como un instrumento militar, es actualmente operativo en el ámbito civil a nivel de pequeño usuario. Tanto en Estados Unidos como en Japón, y con un coste inferior a los 2000 dólares, ya es posible incorporar dicho sistema como ayuda automovilística a la navegación -en este caso no virtual, sino- real. Asociado a una pequeña terminal (pantalla) y a mapas digitalizados almacenados en un computador adhoc, el conductor puede servirse de la ayuda prestada por el sistema para llegar con seguridad y rapidez a su destino ya que en todo momento será posible conocer su ubicación exacta (Time, 17-7-1995, 49).

Una variante GSP, en la que no está prevista la ayuda a la navegación (disponible ya, como se ha señalado, para usos militares así como en automóviles, a lo que habría que añadir también en la navegación marítima), será la que una empresa de seguros automovilísticos española va a comercializar en breve. El sistema, concebido únicamente para localizar vehículos en los supuestos de robo, atraco, avería o accidente, utilizará la red GSM, además de tres de los treinta y seis satélites GSP. A través de la segunda se establecerá la localización exacta, y mediante la portadora SMS (Short Messages Transmission) de GSM se reenviará ésta al Centro de control de datos donde estará ubicado el ordenador con la cartografía correspondiente (Cinco Días, 22-1-96, 13).

Por su parte, el proyecto Digisat en el que participa la Agencia Espacial Europea (ESA, European Space Agency), así como Retevisión y otras compañías privadas, implicará la irrupción plena de la digitalización en el ámbito de lo audiovisual. Pero, aunque a primera vista lo más llamativo será la alta resolución de las imágenes televisivas (similar en apariencia a las cinematográficas), ciertamente lo más importante del proyecto es la capacidad que tendrá el usuario de interactuar vía satélite con las cabeceras (o nodos) operadores (ABC 19/12/95, p.100). El proyecto es similar a las previstas redes de cable de fibra óptica, capaces de ofrecer servicios interactivos y un número determinado de canales visuales que estará en función del ancho de banda (resolución) requerido: mayor resolución, menos canales, y viceversa.

Tanto Digisat (interactividad digital vía satélite) como Interact (interactividad digital vía cable) son el resultado último de la iniciativa política del ELG (European Lanching Group) promovido por la Unión Europea a finales de l991 debido a las necesidades estratégicas para Europa a la hora de encontrar una norma común en el ámbito de la difusión digital. El conjunto de normas diseñadas para diversos ámbitos (satélite, cable, difusión terrestre, información de servicios -navegación del usuario-, receptores), todas ellas complementarias entre sí, convierten la solución europea en una solución viable a nivel mundial, con más de 170 organizaciones de 21 países adscritos a ella (Satélite TV, 1996, nº 96, pp. 112-113).

Algo similar es lo que está ocurriendo con el GSM, el último de los cuatro ejemplos mencionados más arriba.

Los orígenes del sistema de telefonía digital europeo conocido como GSM (sistema global de comunicaciones móviles) hay que remontarlos al 25 de Junio de 1987, fecha en la que el Consejo de Ministros de la CE aceptó la recomendación del Parlamento Europeo para la creación de un sistema único de comunicaciones celulares móviles (ABC Cultural, nº172, 17/2/95, p. 50). Diez años más tarde, el sistema ya está implantado en la totalidad de los países miembros, además de en Turquía y otras regiones del Este europeo, así como en más de cincuenta países del resto del mundo, especialmente Nueva Zelanda, Australia, Singapur y Hong Kong. Según previsiones de la Unión Internacional de Telecomunicaciones (UIT) «en el año 2000 habrá en el mundo más de 150 millones de suscriptores a un teléfono móvil y más de sesenta millones usarán el GSM» (El País, Suplemento World Media, 9/03/95, p. 16). El núcleo capital del mismo lo constituye la tarjeta identificadora SIM, de tamaño similar a una tarjeta de crédito y que contiene un chip con todos los datos del usuario (número de teléfono tipo de servicio, etc) la cual se introduce indistintamente en cualquier aparato preparado para ello. De esta manera, el sistema de comunicaciones telefónico trabaja por primera vez con usuarios, y no con terminales (aparatos) telefónicos (ABC Cultural, nº172, 17/2/95, p. 51), aun cuando a través de estos el suscriptor pueda (conectando la máquina correspondiente) transmitir faxes, mensajes escritos desde un ordenador, o acceder a la telecompra o telebanca (El País, Suplemento World Media, 9/03/95, p. 16).


Inteligencia de red

En el corazón de la «revolución tecnológica de estas últimas décadas» (Soria Sáiz, 1989, 32), apenas esbozada más arriba, se encuentra la digitalización, aquellos 1 1 y 0 0 que hacían rememorar a Wiener la frase de Lao Tse «Porque ser y no ser crecen juntos» (Wiener, 1949, 205)[37].

Estos elementos digitalizadores (computarización teleológica en suma) incorporados de una manera u otra (como ya se ha dicho antes) a todas las máquinas encargadas de producir procesos de comunicación, permiten la optimización flexible de dichos artilugios estableciendo una sinergia positiva entre ellos, logrando de esa manera potenciar su efecto multiplicador en la comunicación.

En el campo específico de la telefonía (y redes terrestres), en conjunción con la transmisión aérea, la transformación ha sido posible gracias a lo que en el argot específico se conoce como «Inteligencia de Red». Este concepto implica la total flexibilidad de la red (no está limitada por la naturaleza de la información ni por la fuente generadora), así como su adaptabilidad en la oferta de nuevos servicios: transmisión de datos, integración de voz, datos, texto e imágenes tanto fijas como en movimiento, interactividad, terminales multiservicio (el ordenador será su núcleo), desvío de línea, conversación múltiple, etc.

El soporte material, empírico, sobre el que se apoya (y que permite hacer surgir) el concepto de «Inteligencia de Red» no es otro que el ordenador, o lo que es lo mismo la programación teleológica hacia la comunicación que diría Wiener, hasta el punto que «La progresiva digitalización de la red y su evolución hacia la RDSI [Red Digital de Servicios Integrados] la ha convertido en una red informatizada con una dotación progresiva de inteligencia.» (Sánchez Urdiain y Escario, 1992, 16). Para ello ha bastado (está siendo suficiente) integrar los ordenadores a las centrales y subcentrales de telefonía (los centros de conmutación) para de esta manera hacer posible la gran transformación de la oferta comunicativa, sin necesidad de esperar la llegada en masa de la fibra óptica. De hecho, las redes telefónicas (y de cable, que operan conforme al mismo principio) funcionan en su inmensa mayoría (en una coexistencia de materiales) con ambos tipos de soporte, cobre (el más antiguo) y coaxial, permitiendo, a pesar de todo, un incremento sustancial en la transmisión de una mayor masa de datos, así como la llegada de la interactividad (Reinhardt, 1994, 48-49).

La diferencia entre los tres tipos de conductores, cobre, coaxial, y fibra óptica, estriba en la capacidad de acarreo de datos: mínima con el cobre, máxima con la fibra óptica. Si la masa de datos consiste en imágenes en movimiento, a tantos fotogramas por segundo, en muy alta resolución, acompañadas de sonido estéreo, y con un entorno interactivo (un programa virtual complejo), entonces hay que recurrir a un conductor con muy alta capacidad. Si por el contrario el objetivo es sólo conectar una terminal de usuario con una base de datos (modo texto), el cobre que nos une a la subcentral podrá ser suficiente, aun cuando la velocidad a la que se produzca esa conexión sea la mínima posible. En cualquier caso, las redes establecidas en base al cable coaxial permiten ya en la actualidad un impresionante aumento de la oferta infocomunicativa impensable hace tan sólo unos pocos años.

La interactividad ya existente, y aún más la previsible (una interactividad de alta velocidad que constituye el núcleo de la revolución tecnológica) es realmente de nuevo tipo. No está limitada, como hasta ahora lo ha estado, a dos únicos sentidos, oído y habla (sólo mediante el teléfono obteníamos en el pasado una inmediatez en la interacción), sino que ya es posible afirmar que es ampliable, al menos, al sentido de la vista y, sobre todo al del tacto, pues es a través de este último como podemos obtenerla, de momento mediante teclado o ratón. A fin de cuentas «los sistemas interactivos son variaciones sobre el tema fundamental del tacto» (Kerckhove en Diario 16, 7/1/95, p.33). La convergencia de tecnologías diferentes (transmisión analógica, digital, terrestre, aérea, programación teleológica, audio, vídeo, etc), es decir la sinergia de la que hablaba más arriba, además de producir un efecto multiplicador en el campo de la comunicación, está significando «la implicación estrecha de la persona con el mundo» (Kerckhove en Diario 16, 7/1/95, p.33), aunque para ello esté siendo necesario recorrer un largo camino, un largo rodeo, para volver al punto de partida.


Conexiones

Como ejemplo de este efecto multiplicador, creo que puede ser ilustrativo conocer que un simple radio aficionado -en otro tiempo limitado poco más que al intercambio de saludos- puede hoy en día enlazar su ordenador y su radioemisora (mediante un modem) y recibir, a través de ésta, programas BBS emitibles en onda corta, accediendo a cualquier base de datos a la que, por su condición legal de radioaficionado, tenga libre entrada.

Sin embargo, aun siendo éste un modelo ejemplar de interrelación entre aparatos de comunicación diversos, la forma de conexión más común (sea cual fuere su índole), la más accesible y extendida, sigue siendo la proporcionada por las redes terrestres. Tal es normalmente el caso de las BBS (nombre que proviene de las siglas en inglés Bulletin Board System), es decir de los genéricamente llamados Boletines Electrónicos.

Por una módica cantidad, o incluso sin otro coste que el de la factura telefónica, uno puede obtener a través de ellos, programas para computador conocidos genéricamente como Freeware o Shareware[38]. Estos programas normalmente realizados por programadores no empresariales (sin ánimo de lucro) fueron durante esta última década la punta del iceberg del vasto movimiento cultural catalogado como ciberpunk para quien «la información tiene que ser libre [free]» en el doble sentido de libre y gratis (El Mundo, 7/10/94, suplemento Comunicación, nº209, p.8). Hoy en día, no obstante, bajo la catalogación de freeware o shareware muchas veces se ofrecen (ciertamente de manera gratuita) programas de primer nivel (generalmente de empresas unipersonales) que muestran las potencialidades de un programa completo por el que, ahora sí, habría que pagar una determinada cantidad.

En cualquier caso, bien por la búsqueda de un beneficio, bien por la búsqueda de una autosatisfacción, la liberación de las energías creativas de miles de individuos interesados por el fenómeno informático ha generado en el conjunto de la sociedad un incremento sustancial de capacidad operativa, de competividad generadora, que redunda, en última instancia, en beneficio de la propia colectividad desde la cual surgen.

De hecho, cualquiera en teoría puede montar una BBS modesta. Basta para ello contar con un ordenador, un modem, y un programa de comunicaciones. Una vez trabajado éste, será posible la transmisión, y por lo tanto, la recepción de ficheros de cualquier tipo que se hallen contenidos en el Boletín electrónico, es decir, en definitiva, en el espacio del disco duro dedicado a tal fin. Hay revistas (PC Actual, 1995, nº66, Julio-Agosto, pp. 256-259) que explican cómo hacerlo, sin olvidar advertir al mismo tiempo acerca de los problemas familiares que ello puede acarrear, como es el derivado del continuo chirrido de transmisión del modem que además bloquea el único teléfono disponible en la vivienda, con el añadido de que el responsable de esta situación es un adolescente que no ha pedido permiso para ello. Al parecer las peticiones de bajas en el listado BBS que periódicamente publica la revista a la que se ha hecho mención, realizadas por adolescentes desesperados y temerosos, eran frecuentes (PC Actual, 1995, nº66, 257).

Otros boletines electrónicos, aun siendo empresarialmente sencillos (sólo dos personas a cargo del mismo), de hecho se constituyen como nodos de redes de mensajería más amplias que en algunos casos abarcan a toda Europa (PC World, 1995, nº110, Mayo, p. 334). En otros casos, la BBS está concebida como una modesta fuente de distribución de software gratis, que también sirve como instrumento de promoción añadido de un pequeño comercio distribuidor de equipos informáticos. Junto a este tipo de BBS modestas se encuentran las de las grandes corporaciones como IBM España, quien, además de distribuir gratuitamente determinados programas, se sirve de ella para promocionar sus propios sistemas informáticos (entornos operativos) (PC Actual, 1994, nº53, Mayo, pp. 263-264).

Pero en todos los casos, lo interesante a subrayar es que el fenómeno de las BBS ha tenido lugar utilizando para ello redes de bajísima densidad como son las basadas en el cobre (un soporte de transmisión de banda estrecha), sin la tecnología apropiada (TCP/IP o ATM[39]), y a una velocidad ridícula en comparación con las previstas a través de la fibra óptica. Como dato indicativo, un módem considerado actualmente de media velocidad (los hay aún más lentos) transfiere 14000 bits por segundo, lo que equivale aproximadamente a 1400 caracteres de texto por segundo (El País, Suplemento World Media, 9/03/95, p. 28); por el contrario, la televisión digital de alta definición necesitará, al menos, 10 megabytes por segundo (un poco más de 10 millones de bits). Entre los dos extremos, se encuentra la actual capacidad de transmisión de la RDSI paneuropea, Eurie 93, limitada de momento a 64 kilobytes (unos 64000 bits) aunque puede alcanzar los dos millones. A un nivel de usuario mucho más restringido que el anterior (sólo circunscrito a algunos Centros de Investigación, Universidades y Empresas) se encuentran las redes de fibra óptica europea que pueden transmitir a una media de 150 megabytes por segundo (Reinhardt, 1994, 58).

Esta precariedad de medios, subrayada en el párrafo anterior, y en la que a pesar de todo las BBS se han desarrollado, es un dato bien indicativo de la necesidad homeostática, imperiosa incluso, que la sociedad humana ha tenido y tiene por desarrollar sus contenidos potenciales de comunicación.


Prensa Electrónica

Hasta tal punto existe esta necesidad que periódicos como el Chicago Tribune, Los Angeles Times o el prestigioso Washington Post se han apresurado a incorporarse a la oferta infocomunicativa electrónica ante la demanda existente de inmediatez, limpieza e hipertextualidad. De hecho, a fines de 1994 había en Estados Unidos más de 450 publicaciones de este tipo (Time, Mayo-1995, Suplemento especial Welcome to Cyberspace, 56).

Algunos lo llaman pomposamente 'Diario Electrónico'. Otros, como Mario Santinoli, más ajustado a los hechos, prefieren llamarlo Newspad, 'cuaderno de noticias' (Documentos, 1995, nº16, 3), indudablemente por la cualidad que ofrece el poder escribir (e interactuar) en él.

El primer Newspad conocido nació (no podía ser menos) en Silicon Valley, en el Condado de Santa Clara, California. Su nombre, Mercury Center, es decir la versión electrónica del periódico local, el San José Mercury News. A decir verdad el Mercury fue algo más que una mera versión electrónica de un diario impreso; fue el laboratorio de pruebas de la poderosa empresa periodística norteamericana Knight-Ridder (Servicom Magazine, 1994, nº1, 26-27).

En mi opinión, lo más importante del Mercury es que inauguró una linea de acción basada en la interactividad, línea que ha sido seguida por todos los Newspad posteriores, hasta el punto de originar una «simbiosis inusual [donde] los lectores tienen acceso por primera vez a los redactores y editores, y los periodistas gozan de la rara oportunidad de aprender a la velocidad de la luz lo que está pensando la audiencia acerca de los más variados asuntos» (Wolff, 1994).

Atendido por 16 redactores y capaz de generar noticias permanentemente (veinticuatro horas sobre veinticuatro), el Mercury tenía archivados todos los artículos escritos desde 1985 los cuales estaban a la automática disposición de sus lectores. Al mismo tiempo, promocionó diversos forums de discusión y otros servicios (como mensajería electrónica) así como la posibilidad de interaccionar con los propios redactores quienes debían dejar para consulta pública sus notas de trabajo. Estas dos últimas particularidades fueron mal entendidas por algunos periodistas quienes no comprendían porqué tenían que contestar a un lector que les comentaba su último artículo (Servicom Magazine, 1994, nº1, 27), no asimilando, al parecer, que la comunicación es siempre cosa de, al menos, dos.

Con una estética pobrísima (12 líneas de texto por pantalla) y sin gráficos, debido a las limitaciones técnicas ya mencionadas anteriormente, el Mercury tuvo que asociarse con una de las grandes compañías (America on Line) que en Estados Unidos ofrecen servicios por cable, para de esta manera incrementar, como un paquete más, su audiencia (Servicom Magazine, 1994, nº1, 27).

Esta estrategia empresarial (la de integrarse en una compañía multiservicio) es la seguida mayoritariamente por todos los Newspad en la actualidad. Tal es el caso de US News & World Report, incluido en Compuserve (Servicom Magazine, 1994, nº1, 27), o el propio Washington Post quien con el nombre de Digital Ink proyecta un Newspad integrado en la compañía Interchange (El País, Suplemento World Media, 9/03/95, p. 28).

En este último caso, en el del Washington Post, como en todos los demás, las limitaciones son de orden técnico, cifradas en la velocidad y capacidad de transmisión. Pues, a pesar de que el proyecto contempla la hipertextualidad elaborada, sin embargo «hay que tener en cuenta la velocidad de las transmisiones de datos que no nos permite pasar al vídeo» aunque se espera que en dos años esa deficiencia sea subsanada de forma que «cuando se pinche sobre la foto que acompaña al artículo, se podrá ver un pequeño vídeo correspondiente al acontecimiento que se trate» (El País, Suplemento World Media, 9/03/95, p. 28).

Por su parte, Mario Santinoli, Director Técnico de El Periódico de Catalunya, cifra en diez años el tiempo que será necesario hasta que sea plenamente operativo el proyecto empresarial en el que está inmerso junto con otros socios europeos (Asa Multimedia, Acorn, ICT, Archimides Ltd y la Edimburg University). El producto final no será ni un diario ni una televisión, sino una mezcla de ambos. Un lugar de encuentro con los 'lectores' en donde estos podrán navegar a la búsqueda de la de la(s) información(es) de su interés (Documentos, 1995, nº16, 3).

Pero aunque los productos gestionados por empresas periodísticas puedan tardar un cierto tiempo en ser competitivos, lo cierto es que la convergencia tecnológica, la sinergia producida entre diferentes tipos de actividades (Información, Informática y Telecomunicaciones), ya está ofreciendo resultados concretos a través de compañías como Compuserve (por mencionar una de las más antiguas) por medio de las cuales es posible conectarse a las redes de comunicación obteniendo servicios relativos a los tres campos (Carballar, 1995, 35).


Desregulación en la aldea global

A nivel general, a nivel de todos los tipos diferentes de comunicación posible, el fenómeno desregulador (por el que los gobiernos dejan de arrogarse el monopolio en las comunicaciones) ha contribuido, y está contribuyendo, a acelerar la revolución que mencionábamos más arriba. Ello ha originado la aparición de multitud de empresas infocomunicativas por medio de las cuales es posible acceder a múltiples tipos de realidades, rompiendo así, de esta manera, el monopolio ideológico ostentado por el Estado.

La transformación social, desde una sociedad de masas -paradigma de los años treinta- a una sociedad desmasificada, ha originado una demanda temática que a su vez ha dado origen a las Televisiones especializadas (Juan Cueto, Director de Canal Plus, en El País, 22/09/91, 45), a lo largo y ancho del planeta.

El impacto de esas emisoras temáticas (como la Cable News Network, CNN) junto a su transmisión vía satélite, provocaba que, en 1989, personas como Leonard Marks, antiguo director de la Agencia de Información de Estados Unidos, afirmase que «Los límites geográficos a partir de ahora no regulan ya el flujo de información» (Time, 11-11-89, 47). Una semana antes, la CNN había expandido el alcance de su servicio internacional al Sudeste Asiático, al subcontinente Indio y a África, a pesar de que, en la inmensa mayoría de los países comprendidos en ese área, la recepción de emisoras de televisión no autorizadas por el Gobierno correspondiente (en graciosa concesión) no era legal. En algunos casos como en la India simplemente existía una especie de 'vacío legislativo'. La Ley de Telégrafos de la India (Indian Telegraphs Act) de 1855 requiere aún el permiso gubernativo para la instalación de cables bajo tierra, pero no dice nada acerca de su tendido aéreo, con lo cual las compañías vieron literalmente el cielo abierto para el establecimiento de redes televisivas a través de las cuales se transmitía todo tipo de programas, incluidos los emitidos vía satélite (Chan, 1994, 117) (Time, 21-10-91, 71).

En otros casos, como en los Emiratos Árabes Unidos, incluso era ilegal la instalación de parabólicas, aunque siempre había trucos para lograr su recepción, tales como incorporar un potente amplificador a la antena terrestre (Time, 11-11-89, 47). Pero en todos, en todos los casos, la propia presión de ciudadanos-consumidores deseosos de abrirse a otras visiones del mundo provocaba la expansión imparable de la oferta infocomunicativa, hasta el punto que Prannor Roy, Presidente de la New Delhi Television, afirmaba «Tarde o temprano el Gobierno descubrirá que está peleando en una batalla perdida, porque la gente quiere los programas del exterior» (Time, 11-11-89, 47).

Años más tarde -en el momento de escribir estas líneas- y tras el fin de la guerra fría, tan sólo unos pocos países en el mundo mantienen una férrea regulación, un total control, de los contenidos mediáticos -Corea del Norte, Cuba, Irán, Malasia- aunque no siempre logrado. En el camino, sucesivos satélites, como el STAR (Satellite Television Asian Region), han ido desafiando las restricciones reguladoras que impedían el libre flujo de información (Time, 21-12-91, 70-71). Estas restricciones no estaba motivadas por razones económicas sino más bien políticas e ideológicas, hasta el punto de que el Ministro de Información Malayo pudiese afirmar sin ambages en 1991: «Tenemos una censura estricta en este país [y] queremos conocer que es lo que llega del cielo», tras lo cual se prohibió terminantemente los discos parabólicos para poder preservar al país de «valores indeseables» (Time, 21-12-91, 71).

Hoy en día podemos decir que la lucha mantenida por los gobiernos de muy diverso tipo contra el libre flujo de información es, como decía Prannor Roy, «una batalla perdida». La desregulación, entendida ésta en un sentido lato, incluso ha alcanzado a la República Popular China, donde se ha permitido a las universidades y centros de investigación el libre acceso a Internet hasta ahora reservado a una élite oficial. Este nuevo servicio (ofertado, eso sí, por el Ministerio de Correos y Telecomunicaciones) prevé ampliar su radio de acción en el futuro hasta incluir empresas privadas, y más tarde individuos. Y todo ello a pesar de que la posesión de parabólicas y faxes aún esté formalmente limitada (hace falta un permiso especial); no obstante, la vigilancia acerca de la posesión de los permisos es virtualmente ignorada por las autoridades locales (desde, al menos 1994, según datos aportados por Joseph Chan, -1994, 116). La razón última de este fenómeno liberalizador estriba en que, como afirman los propios funcionarios gubernamentales, los riesgos que conlleva el libre acceso a la información serán largamente compensados por los beneficios (Time, 10-04-95, 52-53).

Estos beneficios aludidos resultan patentes en las sociedades occidentales donde la competencia entre empresas de telecomunicaciones de todo tipo redunda en provecho del individuo, no sólo en tanto que sujeto político (como miembro de una comunidad determinada) sino en cuanto sujeto comunicativo susceptible de emitir y recibir mensajes (EMEREC, Emisor-Receptor). La afirmación expresada en 1989 en las páginas de Le Monde por la cual «En nuestros días, nosotros, ciudadanos-telespectadores, no vivimos más en un Estado único, vivimos todos al mismo tiempo en otros Estados y en otras culturas» (Schlesinger, 1990, 107), es absolutamente válida en la actualidad, salvo que habría que empezar a pensar en sustituir la expresión 'ciudadanos-telespectadores' por la de 'ciudadanos-comunicadores'.


Internet / on line

Con el nombre genérico de Internet se conoce lo que algunos han dado en llamar 'Telépolis o ciudad del nuevo milenio' (Echevarría, 1994), otros 'Ciudad Informacional' (Castells, 1995), y aún antes 'Sociedad de la Información' (Masuda, 1981). Estos conceptos implican la existencia misma de una comunidad de seres humanos que la conforman, todos ellos conectados a distancia, y sin una ubicación especial en parte alguna del planeta sino más bien situados a lo largo y ancho de éste.

Esta nueva Telépolis se sirve de los ordenadores y de las redes de comunicación para su existencia, y es difícil calcular el número de sus miembros. Cualquier dato que pudiera aportar ahora quedaría obsoleto en el momento de ser leído. En 1994 se calculaba que el número de usuarios españoles era de unos 60.000, siendo el total mundial de uno 25 millones (Cambio 16, 7/2/94, 60). A fines de 1995 se hablaba de alrededor de 35 millones, siempre como un cálculo aproximado, y las previsiones de crecimiento eran verdaderamente optimistas. La cifra de 35 millones, ciertamente, aun siendo un pequeño porcentaje de la población mundial «es un número lo suficientemente grande como para ser un país de buen tamaño» (Kelly, 1995, 88). De ella, alrededor de un tercio (unos doce millones) son abonados a proveedores on line (Kelly, 1995, 88).

Una empresa on line es aquella que suele utilizar una red electrónica privada para proporcionar información y otros servicios a sus clientes como correo electrónico, tertulias, etc. Por decirlo de una manera simple una empresa on line es una BBS on business (comercial).

Decir on line no significa necesariamente decir Internet, aunque la tendencia es que éstas (las empresas on line) se constituyan en proveedoras de acceso a Internet, aun a riesgo de hacerse la competencia a sí mismas. Pues, prácticamente todo lo que pueda ofrecer una empresa on line lo puede ofertar (más, mejor y más barato) el conjunto llamado Internet. De hecho, esta doble posibilidad (la de acceder a los servicios particulares de empresas on line, junto con la de poder entrar en Internet) está suponiendo en Estados Unidos una pérdida de clientes de las primeras en favor de miles de pequeños proveedores cuyo único cometido es facilitar la entrada a esta última. Como ejemplo paradigmático podemos mencionar al prestigioso semanario The New Yorker el cual estaba suscrito a casi todos los servicios on line del país, y ahora ha prescindido de ellos prefiriendo pagar a un pequeño proveedor de Internet que le facilita la entrada al espacio virtual (Cinco Días, 25-01-96, 3). Asimismo, la tendencia es que los medios de comunicación que, al ejemplo del Washington Post, han apostado en el pasado por montar su Newspad sobre empresas de servicios on line ahora lo empiezan a hacer directamente sobre Internet (Cinco Días, 25-01-96, 3). El reciclaje, pues, la redefinición de estrategias en Compañías como America Online, Compuserve, Prodigy Services se impone necesariamente. Y éste no es otro que facilitar a los usuarios el paso por las distintas zonas de la red, «guiándoles a través de un paisaje que a veces puede parecer caótico o mal señalizado» (Cinco Días, 25-01-96, 3).

La variedad, la diversificación de la oferta es también característica de los múltiples proveedores de Internet que están surgiendo en España. La lista de compañías dedicadas a esta actividad se hace día más numerosa: Servicom, IBM, Bit Mailer, Off Campus, Saranet, Ran, Goya, Eunet, son algunos de los nombres de esa lista (El Mundo, 20-11-95, «Telecomunicaciones», VI). En su inmensa mayoría, además de ofrecer Internet, también suministran otras servicios, como es el caso de IBM España mencionado más arriba a propósito de las BBS.

La razón de fondo estriba en que la inmensa mayoría de la oferta suministrada por las empresas on line tiene un carácter meramente local o regional. Y a esa multitud de compañías terminales que se 'anuncian', que se exponen, en un proveedor on line del tipo, por ejemplo, Ibertex, no les interesa ir más lejos por cuanto supondría un aumento de costes en la presentación de sus productos.


Internet. Definiciones y aproximaciones

Así pues, por lo visto más arriba, todo el vasto conjunto de conectividades posibles no constituye, en sentido estricto, Internet de una manera exclusiva. No obstante, a todo ese conjunto se le suele nombrar con un apelativo común con el que se le subsume y se le identifica como único, bien Internet mismo, bien 'la Red' ('estar conectado a la Red'), o, aun mejor y conceptualmente más correcto, el 'ciberespacio' o 'espacio virtual'.

De entre todas las posibles definiciones que pudiera entresacar entre las ya vistas acerca de lo que constituye el basamento de Internet, quizás, la más adecuada, por completa, pudiera ser la ofrecida por Fiachra O'Marcaigh del The Irish Times quien afirma que Internet «es una red de redes de ordenadores, unidas por líneas telefónicas, fibras ópticas, cables submarinos y enlaces por satélite [...] Es una vasta estructura de información, un dataespacio prácticamente ilimitado. Y es una serie de comunidades, gentes separadas por el espacio pero unidas por la red» (El País, Suplemento World Media, 9/03/95, p. 40).

Pero lo más importante, lo que hace que su crecimiento sea espectacular y su dinamismo imparable, es que Internet es una Red abierta. «No existe ninguna empresa llamada Internet que nos cobre un canon por estar en ella. Internet en sí, es tan sólo un procedimiento mediante el cual, usando otro medios, como la red telefónica [...], podemos ponernos en contacto todos sus usuarios. Los procedimientos de Internet [los protocolos] sólo proporcionan la comunicación, siendo los propios usuarios [y empresas] los que facilitan los distintos servicios» (Carballar, 1995, XVII-XVIII).

Tras la expresión 'usuarios' puede encontrarse desde un individuo aislado hasta una gran Empresa, pasando naturalmente por Corporaciones de toda índole (Universidades, Bibliotecas, Periódicos Electrónicos, Productoras Cinematográficas, y cualquier cosa que uno pudiera imaginar) además de, naturalmente, Compañías proveedoras de acceso, privadas (las famosas BBS y On line) y públicas (como los Centros de Cálculo Universitarios).

A todo ello, es decir, además de los suministradores de información de cualquier clase, hay que añadir los suministradores 'físicos', es decir, las Compañías de Telecomunicación a través de la cuales es posible la transmisión física de las señales eléctricas.

Es fácil comprender entonces porqué Internet, aun no siendo una empresa «que nos cobre un canon por estar en ella», es un gigantesco generador de negocios en el que todo el que tiene algo que ofertar, algo que transmitir, o algo que conocer puede desear estar en su interior.

Asimismo, es también fácil comprender (conociendo que la futura expansión dependerá de la posibilidad de ofertar datos en alta definición) porqué se puede afirmar que «el cable de fibra óptica está siendo instalado con el mismo fervoroso esfuerzo asociado antaño al tendido de las líneas de ferrocarriles durante el siglo XIX» (Time, 17-7-1995, 53).

Esta comparación con la(s) revolución(es) industrial(es) del pasado siglo no es nueva como ya hemos visto con anterioridad. De hecho, se hace inevitable equiparar los actuales cambios estructurales en la comunicación (a los que se puede tildar como revolucionarios) con los producidos en el XIX. El salto cualitativo, el reordenamiento sistémico que provocan, es similar en ambos casos. Con la diferencia que ahora «no hay una sola compañía que tenga los recursos para construir, mantener y gestionar algo tan complejo como una autopista de información [information highway]» (Time, Mayo-1995, Supl. Welcome to Cyberspace, 66-67). Ésa es la razón por la que la sinergia de la que hablábamos más arriba entre informática, telecomunicación e información está dando como resultados alianzas para la construcción de estas autopistas como la realizada por Time Warner (información-entrenimiento) US West (telecomunicación) y Silicon Graphics (informática). Otras muchas alianzas se han establecido, o están en vías de creación, con el objeto de optimizar las posibilidades desregularizadoras y tecnológicas de fin de siglo -TCI, Cox, Comcast y Spring ; Walt Dysney, Ameritech, Bell South y Southwestern Bell- (Time, Mayo-1995, Supl.esp. Welcome to Cyberspace, 65-66), pero considero que el ejemplo dado por la Warner, la US West y Silicon Graphics es absolutamente significativo acerca de los tiempos futuros por venir en el campo de la comunicación de masas.

No se piense sin embargo que, a pesar de las alianzas de grandes compañías, Internet (la red, el ciberespacio) pudiera ser objeto de monopolio alguno. Los ejemplos mencionados se limitan a la construcción de autopistas portadoras y a la prestación de algunos servicios en pequeñas áreas regionales del planeta considerado éste como un todo. Internet es simplemente el nombre genérico para un macrocomplejo edificio en el que realmente participan muchos millones de personas, y miles de compañías.

Respecto de estas últimas, se calcula que a fines de 1995 existían más de 26.000 servidores, es decir de grandes ordenadores encargados de suministrar acceso a algunas de las más de 100.000 compañías, pequeñas, minúsculas o enormes, que tienen algo que decir/ofertar en la red (Kelly, 1995, 89).


Internet. Origen. Los SIPP

El término SIPP, Sistema de Información de los Poderes Públicos, sirve para nombrar concisamente al subsistema de información a disposición del conjunto de los poderes públicos, es decir a las «autoridades que tienen poder de decisión en el Estado» (Grolier, 1980, 18). Naturalmente hay que catalogarlo como un subsistema por cuanto «sólo representa evidentemente una parte de la sociedad global» aunque tenga «relaciones con los demás subsistemas consagrados a una disciplina especial, a una misión determinada» (Grolier, 1980, 18).

Se puede afirmar que el establecimiento de archivos (en definitiva, bases de datos en terminología moderna) se remonta al menos a la revolución neolítica y al nacimiento de la escritura; de ellos existen estudios bien documentados (Posner, 1972). Pero no es sino hasta el presente siglo cuando las necesidades de coordinación y fluidez entre los distintos centros de documentación, se tornan imperativas a fin de superar una desmedida cantidad de información, así como una anquilosada burocracia.

En l974, la Unesco, en el Documento de Trabajo de la Conferencia Intergubernamental sobre el Planeamiento de las Infraestructuras Nacionales de Documentación, Bibliotecas y Archivos, celebrado en París en Septiembre de ese año, presuponía que un subsistema SIPP significaba «la existencia de una red bien coordinada de servicios de bibliotecas, documentación y archivos corrientes en todos los ministerios», así como de «bancos de datos basados en estadísticas fiables y actuales, de modo tal que los altos funcionarios y planificadores puedan tener fácilmente acceso a esa información» (Grolier, 1980, 118-19). Coordinación y accesibilidad, constituían pues, en mi opinión, los ejes claves, las premisas básicas en las que debía basarse un SIPP.

Sin embargo, los criterios de (máxima) coordinación y (máxima) accesibilidad posible en ese momento ya habían sido puestos en práctica en Estados Unidos desde 1969 a través de una red electrónica básica conocida como Arpanet. Y lo que es más importante, esta red no estaba limitada a instancias gubernativas (en especial militares), sino que comprendía Universidades (privadas) e Industrias (por definición también privadas) (Carballar, 1995, 24). La distancia entre lo público y lo privado, entre la sociedad política y la sociedad civil, quedaba pues minimizada gracias al uso 'abierto' de la nueva red.

En el fondo de esta apertura a la sociedad civil se encuentra la concepción que de las relaciones Sociedad-Estado se tiene en USA, donde, a diferencia de Europa, ambas (Sociedad y Estado) forman un continuo en el que el segundo es el resultado natural de la primera. O dicho más simplemente: no existe una drástica ruptura entre la sociedad civil y la sociedad política, entre las estructuras formales de poder y las reales (en última instancia los individuos[40]). Además, las universidades norteamericanas, desde su reforma a fines del XIX, han sido los «principales Centros de Investigación en todos los campos científicos» (Grolier, 1980, 98) existiendo una cierta fluidez informativa desde éstas hacia la sociedad, incluido el gobierno.

Arpanet -diseñada por Bolt, Beranek y Newman para la Agencia de Proyectos de Investigación Avanzados, (Advanced Research Proyect Agency, ARPA), y utilizando el material existente entonces (aquellos pesados ordenadores de cinta magnética y tarjetas perforadoras)- «al principio sólo permitía ejecutar programas en modo remoto» aunque «en 1972 se implementó un servicio de correo electrónico que rápidamente se convirtió en el servicio más utilizado de la red» por cuanto permitía liberar a los investigadores de las considerables diferencias horarias de costa a costa hay en Estados Unidos (Carballar, 1995, 24-25).

Unos pocos años más tarde, en 1973, DARPA (Defence Advanced Research Proyect Agency) empezó a desarrollar un proyecto por el que fuera posible conectar distintas redes entre sí. Este proyecto acabó dando como resultado el protocolo TCP/IP, el cual también debe un número considerable de técnicas a Francia y al Reino Unido. Este último país, junto con Noruega, estuvo conectado desde el primer momento a las redes IP del proyecto conocido como Internetting (Carballar, 1995, 25). Personalmente creo que el nombre es deudor de una tendencia imperante en los años finales de los sesenta y primeros de los setenta por la que se solía incluir el prefijo Inter a algunos de los nuevos proyectos de investigación descentralizada tales como el Urban Systems Inter-Agency Advisory Comittee (USAC) o el Inter-University Consortium for Political Research (Grolier, 1980, 98-99).

Finalmente, en lo que respecta a la historia de Internet, en 1980 se interconectaron las redes CSNET (que unían los departamentos científicos de algunos estados) con Arpanet, y en 1983, el Departamento de Defensa incorporó el protocolo TCP/IP a la red Arpanet, dividiéndola en dos nuevas redes, ARPA Internet para uso de investigadores, y Milnet para exclusivo uso militar. A lo largo de los años ochenta, Arpa Internet fue cambiando de nombre, primero Federal Research Internet, más tarde TCP/IP Internet, al tiempo que otras redes eran creadas (y conectadas) sirviéndose de la tecnología TCP/IP. Por último, en 1990 Arpanet dejó de existir como tal dando paso definitivo a la red de redes que es Internet (Carballar, 1995, 25 y ss.).

El resultado de todo ello es esta explosión electrónica mundial que nos está afectando como individuos y como sociedad, la cual no deja de ser esperanzadora. Pues si bien la Red no deja de ser un vehículo de negocios de muy diverso tipo, lo cierto es que, desde el punto de vista del investigador, ésta, la Red, se está convirtiendo en una inmensa y real biblioteca de Alejandría a la que es fácil obtener acceso. Literalmente, cientos de Universidades y Centros de Investigación en todo el mundo exponen ya una buena parte de sus recursos convirtiéndose así en un cerebro adicional de almacenamiento de datos.

Tanto es así que incluso en el mundo del periodismo se realizan cursillos para optimizar la exploración por el denso laberinto de bases de datos, tal como el realizado en Santa Clara en Octubre de l994 ('Seminario sobre periodismo asistido por ordenador') con una duración de cuatro días, y al que asistieron más de trescientos periodistas (Time, Mayo-1995, Supl.esp. Welcome to Cyberspace, 56).

Tendríamos entonces que el esquema concebido por Grolier para una Biblioteca de investigación basado en procesos de feed-back, y «cuyo núcleo es un sistema dinámico en expansión [constituido como] subconjunto del saber acumulado por la humanidad» (Grolier, 1980, 36) valdría, con algunas ligeras modificaciones, para todo el conjunto de la red electrónica (figura 12)

El resultado, ya lo expuso hace más de cincuenta años Teillard de Chardin: «los elementos humanos se infiltraron más y más el uno en el otro, sus mentes (misteriosa coincidencia) quedaron mutuamente estimuladas por la proximidad. Y como dilatados sobre sí mismo, cada uno de ellos extendió poco a poco el radio de su influencia sobre esta tierra que, a mayor abundamiento, se contrajo constantemente» (Teillard, 1959, p. 240).



IX. CIBERESPACIO Y COMUNICACIÓN


Sacrificar los propios sueños es locura

Iwao Toda (Director de I+D de la NTT); tomado de «El Hombre de la Mancha»


Ciberespacio

A todo el vasto conjunto de redes y subredes (pertenezcan o no a Internet) que entrelazan el planeta se le da el nombre genérico de ciberespacio, o espacio cibernético.

El concepto fue puesto en circulación por William Gibson quien en 1984 publica una novela de ciencia ficción llamada Neuromancer en la que este término aparece por vez primera. Descrito, más bien que definido, como un «espacio que no era espacio» y un «no lugar» (Gibson, 1987, pp. 38 y 166), a través de las secuencias narrativas propias de cualquier relato, el concepto, sin embargo, fue bien pronto asumido por toda la comunidad de investigadores y científicos que hacían de la informática (de la cibernética en su raíz teórica) el eje de su acción, por cuanto era capaz de describir con bastante exactitud el previsible futuro ya emprendido por las redes: es decir, un espacio-producto (de la cibernética) en el más amplio y pleno sentido de la palabra. Multiplicado y tridimensional.

En 1986 Bruce Sterling introduce el concepto de cyberpunk en el prefacio al volumen colectivo de relatos cortos titulado Mirrowshades, tan sólo como un intento por categorizar y definir estéticamente un nuevo género de ciencia ficción al que liga en su análisis con un modelo preciso de subcultura popular (Sterling, 1988, ix-xii). El término tiene una rápida aceptación en el ámbito periodístico hasta el punto que, en la primera aproximación definitoria de lo que es el ciberespacio dada más arriba en este texto, y en la que utilizábamos la descripción que de él daba un periodista del Time (Philip Elmer-Dewitt), ambos aparecen ligados. En ella, en la definición, se afirmaba que el término cyberspace era el preferido por los ciberpunks frente al de data highways.

Sin embargo, a pesar del gusto periodístico por las clasificaciones y la adscripción fácil de etiquetas (y ciberpunk no es precisamente la más adecuada), ni cyberspace significa conceptualmente lo mismo que data highway, ni 'ciberespacio' es un neologismo de argot utilizado por ningún subgrupo social emergente.

Lo prueba el interés que en el ámbito académico suscita el concepto de espacio cibernético. Esto resulta obvio a partir del instante en que comienzan a celebrarse Conferencias Internacionales sobre el tema dentro del marco universitario. La primera de ellas tuvo lugar en la sede de Austin de la Universidad de Texas durante los días cuatro y cinco de Mayo de 1990. La segunda, fue organizada por la Universidad de California en su sede de Santa Cruz un año más tarde. Fruto de ambas es el volumen publicado por el MIT (Massachusetts Institute of Technology) acerca del Ciberespacio (Benedikt, 1993a, 28).

Si además nos reconocemos en el simbolismo añadido que hay en la coincidencia de ser Austin la ciudad en la que se celebra el primer symposium -una ciudad que es la sede del Centro de Operaciones de la NASA-, junto a la concurrencia simbólica de ser Sirius la Editorial encargada de la edición en español de los principales textos de la Conferencia, tendremos que el espacio cibernético coincide en principio con las mismas características de 'inasibilidad'-'asibilidad' que el propio espacio exterior.

Más arriba hemos señalado que el espacio cibernético es también un «espacio virtual». Esta denominación -'virtual'- surge sin duda en el campo de las nuevas tecnologías de la comunicación como un préstamo tomado de la Física Atómica, la cual lo empezó a usar para describir las partículas subatómicas caracterizadas por la relativa efimereidad de su comportamiento (Capra, 1992, 248 y ss.). Esta relativa fugacidad en el proceder de determinadas partículas -dependiendo, entre otras cosas, de su velocidad (Capra, 1992, 195)- no significa ni mucho menos una disminución en la cantidad de 'realidad' que ellas poseen. Son tan reales como aquellas a las que por un «efecto macroscópico colectivo» atribuimos una consistencia y una fuerza, y tan transmisoras de energía como cualquier otro objeto fenoménico de experiencia (Capra, 1992, 246 y 247).

Si entendemos el espacio en términos operacionales (Benedikt, 1993b, 119), es decir como un objeto de experiencia (y sin duda alguna lo es siempre), entonces tendremos que cualquier espacio, incluido el virtual, es susceptible de ser percibido como comunicante por cuanto establecemos con él una relación.

De hecho esta idea no es nueva. Surge en el momento en que es posible clasificar toda la realidad en términos de conducta como ya hicieron Rosenblueth, Wiener y Bigelow (1943), aunque, como ellos mismos indican, el término es tan dilatado que precisa del acompañamiento de un adjetivo.

En cualquier caso, Estar-ahí siempre significa, siempre es un meaning, un sentido sea cual fuere en el otro polo de la relación, en el del receptor. Es por esta razón que Watzlawick sostiene que no es posible disponer de una no-conducta, la cual inevitablemente -en una situación interactiva- se convierte en comunicación (Watzlawick /Beavin /Jackson, 1989, 50). De ahí su primer axioma: «no es posible no comunicarse» (Watzlawick / Beavin / Jackson, 1989, 52).

El espacio, pues, cualquier espacio, comunica, proporcionando un sentido al receptor que se encuentra en él. Quizás por ello, por la comprensión intuitiva de este hecho elemental, fueran arquitectos los que inicialmente promovieron las Conferencias a las que ya se ha hecho alusión (Benedikt, 1993). En su caso, en el de los arquitectos, siempre ha existido una intencionalidad explícita a la hora de proyectar, sean catedrales durante el periodo gótico o verdaderas construcciones efímeras hechas con luz como las realizadas por Albert Speer durante los alemanes años treinta (Adam, 1992, 239-241), y que sin duda debieron entusiasmar al joven Ingmar Bergman de la misma manera como sucumbió a otras fascinaciones, «grité como todos, alcé la mano como todos, rugí como todos, amé como todos» (Gubern, 1989, 83)[41].

Este gusto por las formas en el espacio no es nuevo. Ya Alberti, durante en el siglo XV, en su Diez libros de Arquitectura afirmaba «..y podemos en nuestro Pensamiento e Imaginación idear Formas de Edificios perfectas totalmente separadas de la materia, mediante el establecimiento de un cierto Orden, Disposición y Conjunción de Líneas y Ángulos» (Alberti, 1986). Sin embargo, a diferencia de este estilo platónico tan de la época de Alberti, los arquitectos contemporáneos interesados en el espacio son conscientes de sus raíces materiales así como de la interacción a la que inevitablemente están sometidas las formas, de tal manera que «por primera vez en la historia le corresponde al arquitecto diseñar no el objeto sino los principios mediante los cuales el objeto se genera y varía en el tiempo»[42] (Novak, 1993, 230).

La variabilidad temporal se debe a que en última instancia, no lo olvidemos, el tipo de espacio del que estamos hablando es siempre un espacio de información, de comunicación, en el que actúan agentes humanos (sistemas abiertos por definición) que construyen a imagen y semejanza del mundo en que viven un sistema abierto que está «mantenido por una red de computadoras pero no es idéntico a ésta» y en el que existe un punto de consenso situado en los protocolos (MacFadden, 1993, 309 y 308). Todo lo demás puede tender al caos en su sentido determinista (Tollander, 1993, 294).

Esta última afirmación -que entiendo ha sido experimentada por cualquiera que maneje habitualmente un ordenador- expresa mejor que ninguna el nuevo modelo de comunicación naciente; un modelo en el que la complejidad y la acción recíproca constituyen su base esencial. Es por esta causa, entre otras, que Morningstar y Farmer[43], los creadores de Habitat (un juego de red en el que participaban 15.000 personas), desaconsejan la planificación central detallada para programas de red por considerarla imposible. Por el contrario, para ellos, es factible elevar el nivel de complejidad sistémica «simplemente mediante la introducción de elementos caóticos que están fuera de la esfera de control o del entendimiento de los diseñadores. Los más significativos de dichos elementos caóticos son los agentes computacionales autónomos (otras computadoras) [y por supuesto] la categoría más importante de los agentes computacionales autónomos: los grupos de seres humanos que interactúan» (Morningstar y Farmer, 1993, 262). En la base de esta práctica absolutamente asumida ya en la Red (recuérdese que el punto de consenso se sitúa en los protocolos, todo lo demás es libre) está el hecho de que la enorme, vasta, y caótica (desde el punto de vista determinista) cantidad de información susceptible de ser generada y recibida en la red, es un producto (poiético) de «los usuarios mismos, en lugar de los diseñadores del sistema» (Morningstar y Farmer, 1993, 263), el cual puede y debe ser definido como un sistema agórico abierto (Miller y Drexler, 1988), un ágora de dimensiones planetarias.


Hacia el espacio virtual

Con el espacio virtual, el proporcionado por las autopistas de la información, ocurre algo semejante a lo que ocurrió con los ordenadores. En un principio, al iniciarse el cambio social provocado por su aceptación generalizada (años 70), las grandes compañías, así como los usuarios, creían que lo verdaderamente importante, incluso como negocio, era el ordenador en sí mismo, su marca (y su capacidad -potencia- para realizar operaciones de cómputo). Muy pocos años más tarde todos han descubierto que la potencia real, la capacidad dinámica de transformación y generatividad creativa, residía en la arcilla cocida blanda, en el software (Kelly, 1995, 88). De igual manera, en el espacio comunicativo electrónico han ido surgiendo 'servicios' (capacidades para comunicar), (en última instancia softwares), que han supuesto cada uno de ellos un nuevo punto de inflexión en las potencialidades comunicativas independientemente del tipo de ordenador utilizado (sistemas Unix, Pc o Apple). Sobre este particular recuérdese algo que por ser tan obvio generalmente se olvida: y es que el D.O.S. (Disk Operating System) no es otra cosa que un programa que se carga (y se sustituye) en los ordenadores tipo PC para que estos puedan funcionar de manera óptima. De nada sirve disponer de un máquina potente sin un sistema operativo adecuado (y viceversa).

El último giro hacia adelante en el espacio comunicativo electrónico es el dado con la aparición de un determinado tipo de software, los hojeadores (o browsers) que permiten la lectura (la navegación) a través de un «servicio de información desarrollado en el Laboratorio Europeo de Física de Partículas, CERN, basado en una tecnología conocida como hipertexto» y a la cual se la conoce como World Wide Web, o Web (Carballar, 1995, 236). Este tipo de «servicio» en realidad no es más un tipo de protocolo, un software, un (meta)programa, el HTTP (Hypertext Transport Protocol), en teoría uno más entre otros de los que hay en la Red (Esebbag y M.Valero, 1996, 324 y 320). Pero a diferencia de estos otros (FTP, transferencia de ficheros; Gopher, buscador; Mail, correo electrónico; Telnet, acceso remoto; etc), la potencia del World Wide Web los soprepasa con creces, subsumiéndolos a todos. Con él, con el Web, se puede afirmar lo que ya ha ocurrido en situaciones anteriores: que es «un subconjunto [subsistema] de Internet que está dominando a su anfitrión» (Kelly, 1995, 88), produciendo en su seno un efecto sistémico reorganizador. Tras su irrupción y posterior desarrollo, en la actualidad el consenso indispensable del que hablábamos más arriba (MacFadden, 1993) es responsabilidad del W3 Consortium, un consorcio encabezado por el Laboratorio de Ciencias de la Computación del MIT (Esebbag y M.Valero, 1996, 320).

Con el protocolo HTTP, así como, y especialmente, los (sub)programas desarrollados para desenvolverse en él, se está logrando la aproximación a lo que MacFadden llamaría un verdadero ciberespacio frente al actual pre-ciberespacio (1993, 308). Este espacio cibernético concebido por MacFadden, Gibson y otros, sería un lugar en el que los seres humanos puedan experimentar el espacio y los objetos cotidianos de la misma manera a como lo hacen en el espacio fenoménico natural.

Esta posibilidad ya se está materializando debido a que con el protocolo HTTP se combinan «textos, imágenes, vídeo, sonido, etc» en lo que se ha dado en llamar técnicas multimedia (Esebbag y M.Valero, 1996, 320) con resoluciones cada vez más altas, y con un incremento cada vez mayor de entornos tridimensionales susceptibles de ser 'hollados', bien sea a través de pantalla, bien a través de interfaces multisensoriales (gafas y guantes de momento) que permitan la inmersión plena en el programa de red. Como ejemplo de esto último cabría mencionar el desarrollo de un conjunto de programas hojeadores (browsers) y servidores que para la Web ya ha hecho una Compañía (Silicon Graphics) y que permiten la interacción a distancia en la, así llamada, Realidad Virtual (Estrella y López, 1996, 131-132).

En relación con los términos 'hojeadores' y 'servidores' y en consonancia con la complejidad y la interacción descentralizada mencionada anteriormente (Miller y Drexler, 1988; Morningstar y Farmer, 1993) habría que decir que las compañías de programación dividen sus productos en dos tipos genéricos, atribuyendo con esta división la existencia de dos tipos de usuarios: clientes (hojeadores) y servidores. Los primeros, los programas cliente (distribuidos de forma gratuita), permiten a cualquier usuario (compañía, corporación o individuo) navegar por la red y entrar en todo tipo de servidor de información. Los segundos (programas servidores) permiten a cualquier usuario (compañía, corporación o individuo) crear oferta informativa por compleja que esta sea, remodelando a su conveniencia el programa servidor (Esebbag y Martínez Valero, 1996).

En realidad esta división sólo es correcta desde el punto de vista comercial, puesto que cualquier usuario podría generar servidores programándolos con el lenguaje adecuado (Esebbag y Martínez Valero, 1996, 331-332; Álvarez, 1996). Además -aunque la posibilidad a la que se acaba de hacer mención es rechazada por la inmensa mayoría por su falta de rentabilidad (en esfuerzo y tiempo) ya que prefieren comprar y remodelar un programa servidor ya preconfeccionado- cualquier miembro de la red se convierte de facto en un servidor de información en el momento mismo en que se comunica activamente con otros, bien a través del correo, de los grupos de noticias, o simplemente dirigiendo su interés hacia determinados servicios y obviando otros. La complejidad está servida.


Hipertexto

El concepto de hipertexto mencionado en sucesivas ocasiones a lo largo de este libro tiene su origen remoto en la confluencia del análisis literario y la terminología autónoma de los juegos cibernéticos (y más en concreto, los juegos electrónicos que permitían eliminar naves espaciales enemigas) los cuales incorporaron en el momento de su aparición (años 70) el término 'hiperespacio' para designar un lugar de escape, de lucha, fulgurantemente diverso. Al mismo tiempo, durante esos mismos años, la raíz griega 'hiper' se generalizó en la sociedad occidental a través de la designación oficial de grandes espacios comerciales a los que se da el nombre de 'hipermercados'.

La aparente trivialidad de estos ejemplos no obscurece su importancia; son muestras vivas de cómo es posible la introducción y aceptación de nuevas palabras para designar nuevas situaciones. Tan sólo con posterioridad a la aparición de estos conceptos mencionados, el término hipertexto aparece ligado al análisis literario, si bien ya antes había sido implícitamente usado por Derrida y Barthes (Landow, 1995, 19).

Su antecedente inmediato, aunque no signifique ni mucho menos lo mismo, lo constituye el concepto de 'intertextualidad' aplicado ya por Kristeva en 1969, y relativamente pronto asumido por otros como Rifaterre (1979, 1980). De nuevo, como en otras ocasiones ya mencionadas, a través de un término único (intertextualidad) se intentaba expresar las fértiles relaciones existentes entre diferentes discursos, y a través de él se abría la posibilidad de exploración (y clasificación) de esas relaciones (Genette, 1989, 10 y ss.).

En mi opinión, la aparición del concepto de intertextualidad, tal y como ha ocurrido con otros conceptos en el pasado, es un buen ejemplo de hipertextualidad (de conectividad) y de generatividad reorganizativa (terminológica y conceptual en este caso), que comienza durante ese periodo (finales de los sesenta, inicio de los setenta) por la aplicación insistente del prefijo Inter en diferentes tipos de organizaciones como se ha mencionado más arriba, respondiendo de esa manera, en definitiva, a la asunción pública de un nuevo paradigma científico ('ideas en el aire') cuyo núcleo fundamental (si es que hay que señalar alguno) reside en el más amplio concepto de interacción, es decir, en última instancia, en las situaciones reales de inter-actividad. O dicho en breve: el concepto aparece porque aparecen conductas que permiten su concepción. Surge, porque surge un uso que ha de ser expresado.

En cualquier caso, Nelson en Literary Machines (1981, p.0/2) define la variante que nos ocupa, hipertexto, de la siguiente manera: «Con 'hipertexto' me refiero a una escritura no secuencial, a un texto que bifurca, que permite que el lector elija y que se lea mejor en una pantalla interactiva. De acuerdo con la noción popular, se trata de una serie de bloques de texto conectados entre sí por nexos, que forman diferentes itinerarios para el usuario». Como se ve es una definición pensada, ya en 1981, desde un punto de vista informático que es desde donde realmente surge el término.

Sin embargo, es preciso reconocer que la idea de conectividad entre diferentes discursos (llamados textos) está también presente en Jacques Derrida quien insiste una y otra vez a través de términos distintos, liason (nexo), toile (trama), réseau (red) s'y tissent (se entretejen), en esa conexión inevitable (Derrida, 1972, pp. 71, 108, 172, 111).

En la actualidad, en el campo del espacio virtual nacido a través de la Web, podríamos definir el hipertexto de una manera muy semejante a como ya lo hizo Nelson en 1981, con la particularidad de que los enlaces, los nexos, no han de ser necesariamente palabras (en muchos casos se usan imágenes), ni tampoco han de limitarse al conjunto de documentos que ofrece un sólo servidor, sino que puede hacerse extensiva a toda la red. De esta manera, con un simple clik sobre la palabra o la imagen señalada como nexo podemos obtener la información relativa al mismo, lo cual a su vez -con toda probabilidad- nos conducirá a un nuevo abanico de enlaces, y así sucesivamente (Esebbag y M. Valero, 1996).


Implicaciones

Con la idea práctica de conexionar documentos de una manera electrónica (entendidos éstos en su más amplio significado), se logra en primer lugar la rapidez, la 'coordinación y accesibilidad' reclamada en su momento por los Sistemas de Información de los Poderes Públicos (SIPP), solo que ahora con la posibilidad de hacerla extensiva a cantidades cada vez mayores de seres humanos, que no lo olvidemos constituyen ya «un número lo suficientemente grande como para ser un país de buen tamaño» (Kelly, 1995, 88). Dependerá del ritmo de crecimiento de la red, así como de la evolución de otros (sub)sistemas sociales, para que ésta se haga extensiva a toda la humanidad.

De hecho, aún estamos verdaderamente lejos de un espacio cibernético total aunque todo hace presumir que éste llegará inevitablemente conforme a las previsiones y tendencias que del mismo hay. De momento la Red, el espacio cibernético, no aporta a muchos de sus posibles usuarios grandes alicientes. Según datos estadísticos ofrecidos por la consultora Nielsen, la inmensa mayoría de los 24 millones de norteamericanos que durante los últimos meses de 1995 entraron en Internet la abandonaron al cabo de unas horas para volver al entretenimiento de masas favorito: la televisión (El Mundo, 20-11-95, Supl. «Telecomunicaciones», p.8).

Además, cualquiera que haya entrado en Internet vía Web a finales de 1995, ha podido sentirse decepcionado por la baja velocidad de transmisión, la lentitud desesperante, y la limitación en sus prestaciones. Todo esto cambiará, como repetidamente se ha ido insinuando a lo largo de este libro, en la medida en que vaya renovándose el parque informático (pantallas de alta resolución digital, micrófonos y sistemas de audio interactivos, capacidad de almacenamiento y gestión de grandes cantidades de dígitos, etc), así como que las redes alcancen su máxima posibilidad en la transmisión de datos permitiendo de una manera generalizada la plena aparición del espacio total (imágenes en movimiento, tridimensionales, interactivas, táctiles, y vinculables mediante nexos) ya existente de una manera puntual. Las previsiones de este espacio cibernético total son pues perfectamente realistas.

Hechas las consideraciones que anteceden, sólo nos resta añadir que de las cinco grandes facetas derivables del espacio cibernético, es decir como espacio personal de comunicación (y de interacción sensorial plena), espacio lúdico (y de vicariedad), espacio informativo (y de poder), espacio publicitario (y de transacción), y finalmente espacio de investigación (y de conocimiento), sólo la última está medianamente consolidada.

Todas las facetas descritas en el párrafo anterior, a las que podríamos denominar como caras de un pentaedro simbólico, constan a su vez de múltiples caras (apenas esbozadas por las indicaciones entre paréntesis) las cuales pueden participar, de nuevo a su vez, en más de un lado. En tanto que (sub)sistemas es difícil establecer la separación entre los mismos ya que en ellos «incluso los límites espaciales de lo que parece ser a primera vista un objeto o cosa, resultan, de hecho, bastante vagos» (Bertalanffy, 1979, 101). Con más razón y claridad puede esto afirmarse entonces acerca de entidades constituidas en base a seres vivos y en interacción deliberada.

De ellas, es la última faceta la que nos interesa especialmente que por cuanto las hilvana a todas. Ésta, el espacio de investigación, se puede entender también de una manera polivalente, es decir, hipertextual en su sentido de conectante con diferentes situaciones -modos de estar en el mundo-, a la manera de un átomo capaz de unirse y de engarzarse con otros átomos, organizándose y reorganizándose con ellos.

Por un lado, está el sentido material de la expresión. El espacio virtual genera y está generando enormes cantidades de dinero y sobre todo de esfuerzo (de investigación en suma) para llevarlo a sus límites, en cualesquiera de las posibilidades mencionadas más arriba (Comunicación, Lúdico, Informativo, Publicitario e Investigación material).

De otro, está el sentido originario: el espacio virtual de investigación es un lugar donde el científico puede, desde hace ya décadas, consultar documentos que afecten de una manera u otra al objeto de su investigación.

Y finalmente, está el sentido epistemológico, por el cual el espacio cibernético se convierte en objeto de investigación no sólo en sí mismo, sino y muy especialmente en relación a nuestra manera de estar en el mundo y de comunicarnos con él. O dicho de otra manera, la aparición del espacio cibernético nos permite reflexionar: sobre él mismo, sobre el llamado espacio natural, sobre las relaciones de continuidad entre ambos, y sobre la manera en que, finalmente, se produce la comunicación en un entorno sistémico (o desde un punto de vista sistémico).

A través del concepto de hipertexto (de interconexión sería preferible) descubrimos que cualquier aspecto de la realidad, cualquier trozo o fragmento de ella, tiene un pasado (y un futuro), una relación con otros elementos ramificable hasta lo infinito. Si abro la página de cualquier enciclopedia y leo cualquier ítem, éste me hablará inevitablemente de otros aun sin pretenderlo; y si movido por la curiosidad, renuevo mi búsqueda, volverá a ocurrir lo mismo, y así sucesivamente. La más simple oración puede estar llena de enlaces [links] impretendidos. Así, por ejemplo, cuando Descartes (1968, 31) dice «habiendo considerado [...] que hasta en las modas de nuestros trajes, lo que nos ha gustado hace diez años, y acaso vuelva a gustarnos dentro de otros diez, nos parece hoy extravagante y ridículo, de suerte que más son la costumbre y el ejemplo los que nos persuaden, que un conocimiento cierto», ello nos puede conducir a un sinfín de preguntas. ¿Cuál era la forma de vestir de su tiempo, de qué moda habla, qué tipo de variantes había en el vestir, es que acaso el ritmo de la moda -que percibimos como propio del siglo XX- ha sido siempre de diez años?; y de otra parte ¿de qué conocimiento cierto está hablando?, ¿es que acaso puede haber un conocimiento no verdadero?. Lo que nos llevaría intentar averiguar las respuestas estableciendo los nexos indispensables con otros fragmentos de la realidad no explicitados por el autor.

El desplome de una mujer abatida de un disparo tras salir de su tienda durante la represión en Argelia el mes de Mayo de 1945 (de 35.000 a 45.000 muertos) recogida en un testimonio cinematográfico (TVE 2, 14-3-96) nos podría conducir hacia todo el vasto conjunto de documentos que nos informen acerca del sentido de la realidad (del modo de estar en el mundo) en ese momento y lugar por parte de los implicados. Y así sucesivamente.

La puesta en marcha de los nexos posibles mencionados como ejemplo, constituyen una buena muestra del significado y consecuencias profundas del feedback de acumulación didáctica por medio del cual podemos retrotraernos hacia cualquier situación ampliando de esta manera una parte de nuestro saber.

La potencia de este modelo de feedback es patente en el esquema de la figura 12, el cual también puede ser contemplado como un esquema de feedback de recalibración equiparable en todo al anterior.

figura12

Figura 12. Esquema de feedback de acumulación didáctica, esquema propio basado 'La biblioteca de investigación' de Eric de Grolier (1980, 36).

Esta capacidad retroactiva no está limitada al ámbito exclusivo de la investigación. Por el contrario afecta cada vez más a un mayor número de personas, y por lo tanto está produciendo cambios psico-sociales que afectan a nuestro modo de estar en el mundo (es decir, nuestro modo de estar en la naturaleza o biosfera en la terminología de Teilhard). Piénsese, por ejemplo, en el espacio sonoro actualmente disponible. Nunca antes tantos seres humanos habían podido escuchar tanta música de cualquier época y lugar conociendo todos los datos pertinentes. El espacio sonoro, por ejemplo, creado a través de una Polifonía Renacentista (antes privilegio de nobles y de eclesiásticos) puede ser hoy coparticipado a través de los auriculares de cualquier receptor estereofónico portátil en cualquier calle o plaza, concurriendo de esa manera en una situación, un modo de estar en el mundo simultáneamente a este otro, y sabiendo que, a pesar de todo, los elementos comunes, la luz, la belleza estética, el propio ser humano, coexisten en ambos. El binomio estabilidad-inestabilidad, mutación-invariancia (Monod, 1970) propio de los mecanismos homeostáticos que se manifiestan a nivel biológico, también se encuentra presente, pues, en el ámbito de los productos 'virtuales' comunicativos.

La irrupción de la noosfera teilhardana en nuestras vidas, «en ningún sentido ideal, transcendente o más allá de la realidad» (Benedikt, 1993b, 118) como ha menudo se la ha interpretado, aparece entonces con toda su fuerza a través de las máquinas para producir comunicación, haciéndose ostensible gracias a los feedbacks inherentes al propio hecho comunicativo, ya que, no lo olvidemos, desde un punto de vista sistémico la comunicación «es un sistema cuyos elementos no son sólo los sujetos comunicativos sino las reacciones [retroacciones] comunicacionales entre los dichos sujetos».

Es en este punto que la extrapolación del concepto de hipertexto (interconexión) hacia los seres específicos que forman mi entorno y que constituyen el acontecimiento vivo del cual se nutrirá la realidad documental se hace inevitable. Porque de igual manera que es posible establecer de una forma natural enlaces en un documento (cualquier documento), también es posible establecerlos con los seres que constituyen mi entorno (pasado, presente y futuro).

Si dejamos de concentrar nuestra atención en las situaciones multimediáticas presentes en un terminal informático, o en los planos de una realización fílmica, o en cualquier otro producto resultante de la acción humana, y nos centramos en los seres vivos que conforman nuestro existencia, no es nada difícil inducir que cada uno de ellos tiene vínculos al igual que los que posee uno mismo, y que mi relación con ellos supone mi relación también con esos vínculos ramificables hasta una extensión más allá de la que yo puedo, en principio, abarcar. Y esta inducción es posible porque los nexos [links] del espacio cibernético son realmente extrapolables al espacio 'real'.

Recordemos que, el hipertexto es «una escritura no secuencial» (Nelson, 1981, p.0/2) que naturalmente permite una lectura no secuencial del mismo. Esto implica que ambos lados de la realidad comunicativa tienen ese carácter.

Esa realidad comunicable no está formada únicamente -como pone de manifiesto la hipertextualidad- por los hechos lineales presentes en el acto mismo de la comunicación, sino que también incluye necesariamente los productos 'virtuales' (noosféricos) que me conforman. El yo, ese polo de interacción, que en este momento está siendo (Bateson, 1993, 356) se mueve en constantes feedbacks, hacia adelante (previsiones, proyectos) y hacia atrás (recuerdos), en una suerte de doble vínculo [double bind] que convierte al yo en algo bastante más que un sistema aislado, a través del cual transitan las sendas por medio de «las cuales pueden trasladarse los mensajes y la información», sendas imposibles de cortar porque «si hacemos ese corte estamos cortando la línea de comunicación [ya que] no hay en realidad sistemas aislados» (Bateson, 1993, 356-357).

La interacción, la recursividad del yo con el resto de las cosas permite, por ejemplo, que Bonaparte, en el corazón mismo de la batalla, sueñe «que hace el amor con Josefina» (Morin, 1988, 125), o que en el transcurso de una conversación sea posible revivir literalmente una situación pasada, aunque en otro ámbito y lugar (contexto). En ambos casos, los productos virtuales (noosféricos) se entrelazan, se entremezclan, se introducen retroactivamente en situaciones comunicativas aparentemente lineales señalando múltiples sendas que pueden ser o no recorridas en virtud de una determinada intencionalidad teleológica en la conducta comunicativa, (o en la exposición massmediática, entendiendo ésta como lo que es, una conducta por la cual 'busco', selecciono, anulo perceptos, resalto otros, me sitúo vicariamente, o por el contrario lo hago con la acritud de la distancia valleinclaniana).

La recursividad del yo con el resto de las cosas, la interacción continua, ya fue interpretada por algunas escuelas de la filosofía budista (y más en concreto en el Zen) como samsara (renacimiento, ciclo permanente de nacimiento y muerte) en un sentido más figurado, más taoísta[44], es decir «en el sentido de que el proceso de renacimiento ocurre en cada momento, de modo que uno sigue renaciendo en la medida en que uno se identifica con un yo continuo que vuelve a reencarnarse a cada momento» (Watts, 1971, 72). Su atractivo teórico estriba pues en que plantea «el problema de la acción en círculo vicioso y en resolverlo», siendo por esta causa de «especial interés para los estudiosos de la teoría de las comunicaciones, cibernética, filosofía [...] y otros temas» (Watts, 1971, 72). Este interés surgió (como ya se puso de manifiesto) en el momento mismo del nacimiento de la cibernética, y se desarrolló a través de los investigadores que, especialmente en Estados Unidos, han abordado o abordan desde diferentes ángulos el problema de la comunicación. De ahí las continuas referencias, en muchas ocasiones apenas explícitas, -que Wiener y otros, Bateson, Foerster, Priban, Varela, etc, así como la práctica totalidad de los investigadores informáticos-, realizan en torno a la filosofía y a la práctica Zen[45].

De la mano del hipertexto hemos entrevisto someramente las relaciones de continuidad entre el yo y el resto de la realidad, poniendo de manifiesto, una vez más, la inexistencia de (sub)sistemas aislados.

Esta relación de continuidad, sin embargo, no tiene un carácter linealmente recto como lo tendría una ecuación (del latín aequare, igualar) sino que está marcado por la contradicción, por la paradoja, por elementos antinómicos que, a pesar de todo, oponiéndose se complementan, tal y como ocurre con los binomios 'sentido-sinsentido', 'redundancia-variedad' y en fin 'entropía-negentropía'.

Porque a fin de cuentas, 'yo' y 'mundo' no son exactamente iguales, o al menos no se perciben, no se sienten, como exactamente iguales sino más bien como lo contrario: el yo, ese polo de interacción comunicativa con propensión negentrópica (homeostática), sería lo opuesto a la infinita variada realidad externa de eso que llamamos mundo. Y ello a pesar de que el yo pertenece al mundo, el cual pertenece al yo, el cual pertenece al mundo; o dicho de otra manera, yo y mundo se construyen mutuamente, «el sujeto y el objeto están inseparablemente unidos entre sí» (Varela, 1988, 261).

Pero la continuidad que nos une también nos separa precisamente porque nuestro yo es percibido como opuesto. Esto hace que vivamos simultáneamente en dos niveles. Por un lado está el nivel de percepción inmediata, el aquí y ahora de nuestro presente más fáctico. En el otro se sitúa el nivel genérico que precisamente por serlo puede ser nombrado simbólicamente de muchas maneras -género, especie, noosfera, mundo-. Bateson en un momento de su obra designa a estos dos niveles como nivel de aprendizaje y nivel de evolución, de suerte que «nosotros estamos principalmente en el nivel de aprendizaje pequeño, pero somos también criaturas del nivel mucho más amplio [..] y hay un curioso tipo de acoplamiento imperfecto entre esos dos niveles», de suerte que en el momento en que se entrecruzan, que se entrelazan, «reímos, lloramos, o nos volvemos esquizofrénicos» (Bateson, 1993, 357), es decir la producción creativa, la póiesis, requiere la interacción de esos dos niveles de realidad a fin de construir una nueva realidad basada en lo anterior: desde los chistes a las más complejas teorías científicas, desde las obras musicales hasta el más simple o el más sofisticado producto publicitario.

El recuerdo, la memoria, los arquetipos, las ilusiones, los proyectos, y en fin todo aquello que podemos situar en el ámbito noosférico, son parte de ese proceso creativo.

Desde el punto de vista neurológico esta doble inclusión, yo en el mundo, mundo en el yo, está perfectamente demostrada. Una de las explicaciones de la máquina cerebral, aquella que parte del punto de vista de la herencia filogenética, distingue la existencia de varios 'cerebros' en uno, paleocéfalo (cerebro antiguo, mesocéfalo (cerebro medio) y cortex y neocortex (cerebro nuevo), con diferentes funciones que se complementan (pulsión, afectividad, razón) y que se corresponden con las diferentes etapas evolutivas (Morin, 1988, 103). Esta concepción base para la explicación del funcionamiento del cerebro (y aún hoy en día explicada en los manuales de texto de Bachillerato) está sin embargo desacreditada como modelo de partida para una explicación del mismo (desde el punto de vista de la investigación neurológica). Aun así, permite aproximarnos a una mejor comprensión de la conducta por cuanto «no existe jerarquía razón/afectividad/pulsión, o más bien existe una jerarquía inestable, permutante, rotativa entre las tres instancias, con complementareidades, concurrencias, antagonismos, y, según los individuos o los momentos, dominación de una instancia e inhibición de las otras» (Morin, 1988, 104; siguiendo a Mac Lean, 1976).

La concepción modular del cerebro desarrollada por Fodor (1983) considera que éste está organizado como un mosaico de módulos polineuronales, relativamente autónomos, que disponen al mismo tiempo de una especialización y de una competencia múltiple (Morin, 1988, 106). Esto implica que aquellos elementos (pulsiones y afectos) a los que consideramos irracionales y que nos homologan con la naturaleza, actúan, o pueden actuar, autónomamente, ya que en el conjunto del cerebro «no existe un centro de mandato [específico], sino una federación de regiones que disponen cada una de ellas de su relativa autonomía» (Morin, 1988, 98). De esta doble cualidad, acentrismo y policentrismo, surge de forma consecuente la afirmación de Rodríguez Delgado (1983) por la cual «el espíritu no tiene centro» (Morin, 1988, 98). Y aunque personalmente preferiría no utilizar el término espíritu por la connotaciones que este término tiene en el pensamiento occidental, lo cierto es que el espíritu (pensamiento en James, 1909, I, 428: aquello que aparece y que emerge a través del desarrollo cerebral) es continuación natural del cerebro, y éste (el instrumento analizado, pensado y hecho concepto por el espíritu) continuación natural de aquél (Morin, 1988, 78-94), de la misma manera que mundo y yo (y otros pares de opuestos 'sentido-sinsentido', 'redundancia-variedad', etc) son un continuo no-dual, y por supuesto no uno (Watts, 1971, 61)[46].

 

figura13

Figura 13. Esquema de la relación Yo-Mundo (Varela, 1988, 260).

El continuo entre ambos mundos se puede ver con más claridad por medio del esquema realizado por el biólogo Francisco Varela (figura 13), donde los círculos extremos de la izquierda y de la derecha representan (siguiendo el hilo de nuestro propio discurso) 'mundo' y 'espíritu', respectivamente unidos a través de una conexión compleja. «Tan pronto se traspone el umbral de lo sensorial o de lo motor, los efectos que éstos ejercen sobre el sistema nervioso no tienen una dirección única, como en una calle de una sola vía [...]. Si por ejemplo siguiéramos la excitación creada en la retina en su trayecto hacia la corteza cerebral (lóbulo occipital), podríamos comprobar que en cada fibra que llega a la corteza, proveniente de la retina, desembocan en este mismo punto 100 fibras provenientes de otros lugares del cerebro» (Varela, 1988, 260). Al mismo tiempo, «muchos otros estímulos químicos del eje neuronal se desplazan en sentido contrario, de manera que las vías de transmisión son siempre 'calles de dos manos'» (Varela, 1988, 261).

Esto significa que a la enorme variedad de Mundos (es decir de posibilidades diferentes de significación) se corresponde una enorme variedad de 'Yoes'. Ambos, mundo(s) y yo(es), corresponsablemente se re-organizan (desde el mismo momento en el que, en el paleolítico, tras una primera «apropiación visiva de la realidad» se empiezan a utilizar las lascas como utensilios de corte) autoconstruyéndose en esa re-organización.

El cómputo así realizado (en su sentido etimológico; putare, considerar, reflexionar, cum, con) responde al postulado de la homeostasis cognoscitiva por el que el ser humano tiende a establecer realidades estables (Foerster, 1988, 54) «a fin de no ser destruido, disuelto o desintegrado por las fuerzas colosales, a menudo adversas, que le rodean» (Richet, 1900, 721), a pesar de que la circularidad entre el medio y la dinámica neural, es decir, el trayecto recorrido por los 'impulsos' desde el medio hacia el interior y desde el interior hacia el medio es infinito sin que podamos retrotraer una experiencia dada a unos orígenes precisos (Varela, 1988, 260-261), debido a la dinámica relacional entre ambos.

Por último, sólo añadir lo que Varela afirma como consecuencia de sus reflexiones sobre la recursividad tanto a nivel empírico como lógico y neuronal: «el ideal de la objetividad y de la comunicación [en un sentido absoluto] es un quimera» puesto que la realidad [el mundo el que estamos inmersos] no es «ni subjetivo ni objetivo, ni unitario ni separable, ni dual e inseparable» sino «fruto de nuestra historia conjunta como seres biológicos y sociales [...y en el que] vivimos en una aparentemente interminable metaformosis de interpretaciones que se suceden» (Varela, 1988, 260 y 262-263). A fin de cuentas, el por Lenin (a través de su obrita Materialismo y Empiriocriticismo, 1975) denostado físico y pensador austríaco Ernst Mach (1919) se ha impuesto en el seno de la comunidad científica, de tal manera que en ella cuando se habla de 'verdad' o de 'objetividad' se hace siempre utilizando el término inter-subjetividad, que expresa conceptualmente con bastante acierto todo lo que más arriba se ha querido sugerir. Pero esta comunidad científica no hay que pensarla como una abstracción sino más bien como el conjunto de seres humanos capaces de proporcionarnos nuevos ámbitos de experiencia conforme a unas aspiraciones comunes, de las que ellos, en cierta manera, se convierten en sus portavoces: desde poder hablar a distancia, superando el espacio, hasta iluminar nuestras ciudades, superando la limitación de la obscuridad, pasando por otros muchos ejemplos del mismo tipo escalonado que se pudieran mencionar.


La máquina virtual (siempre maquinante)

De entre todas las máquinas capaces de generar comunicación y, en definitiva, de producir praxis susceptible de generar comunicación hay que destacar especialmente una, el ser humano. Éste puede ser concebido como un ser-máquina capacitado para una multiplicidad de funciones, algunas comunes a otras máquinas, otras específicas de él mismo.

La noción de ser-máquina proviene de la consideración realizada más arriba por la que «Una máquina es, pues, un ser físico práxico, es decir, que efectúa sus transformaciones, producciones o realizaciones en virtud de una competencia organizacional» (Morin, 1986, p.186). Podemos entonces considerar al ser humano como una máquina biológica insertada en «la vida [la cual] comporta la idea de máquina en su sentido más fuerte y más rico: organización a la vez productora, reproductora, y autorreproductora»[47] (Morin, 1986, p.195).

Desde el punto de vista de la comunicación, Jean Cloutier (1973) considera que la máquina humana es un Emerec (émetteur et récepteur) por cuanto cumple con los dos dispositivos básicos (emisión y recepción) propios de una máquina comunicativa. De hecho, es el Emerec por antonomasia debido a que, gracias al pensamiento, dispone de la capacidad inconmensurable para la creación, reproducción y recepción del «universo teóricamente ilimitado de los mensajes virtuales ofrecidos por la lengua» (Escarpit, 1976, 104). Si sustituimos, conforme a la terminología de Peirce (1987), el término lengua (excesivamente restrictivo en su campo semántico) por el de signo (mucho más abierto) tendremos, entonces, que el ser humano es el gran productor de signos de cualquier tipo (desde obras musicales a espacios arquitectónicos pasando por los conceptos expresados a través de la lengua) que por su misma naturaleza -constructos- pueden y deben considerarse 'virtuales' en un sentido lato, reales en un sentido estricto.

Y esta cualidad, propia de la naturaleza doblemente emisora-receptora de los seres humanos, esta doble pertenencia a dos niveles simultáneamente diferentes (Emisión-Recepción), es la que produce en ellos una paradoja (más). En el momento de situarse en la comunicación, de una parte pretenden agotar la entropía, y lo hacen en tanto que obtienen una información sea cual fuere; es decir, literalmente construyen una forma, convierten en forma lo que antes pudiera estar disperso, y lo hacen mediante continuos feedbacks en relación con los estímulos exteriores (el medio). Pero al tiempo, en tanto que productores de información ponen en circulación en el ámbito del sistema nuevas formas de tal manera que «recrean la entropía en la medida en que la agotan» (Escarpit, 1976, 113). Porque no lo olvidemos, el ser humano es un sistema abierto, de manera que «Cada máquina M6 [humana] está directa o indirectamente conectada a otras máquinas M6 [humanas] y se podría incluso decir que ella está conectada a todas las máquinas existentes o que hayan existido» ya que «a fin de cuentas, todos los sistemas que pudieran ser descritos en el mundo no son más que subsistemas de un sistema que incluye a todos los habitantes de la tierra» (Escarpit, 1976, 113 y 111)[48].

El balance información-recepción, informar-informarse, entropía-negentropía, no se agota con la desaparición de un ser humano individual, ni con la extinción (-transformación) de una comunidad cultural determinada, sino que, en la medida en que existan documentos de su ser(-existente), de sus productos, de su praxis, estos pasarán a formar parte del subconjunto del saber documental descrito en la figura 12, y al que todos (teóricamente) pudieran tener acceso, lo que obliga al conjunto del sistema a una reorganización constante.

Respecto de los seres humanos, y teniendo en cuenta que en cada célula de un individuo (en cada parte) está contenido el ADN (el todo), cualquier fragmento de su ser nos proporcionaría la información genética sobre su totalidad. De manera similar, según el esquema diseñado en la figura 12, cualquier parte -ser- podrá disponer del todo -ser-, (y su contrario).

Y esta capacidad comunicativa no puede tildarse como virtual en su sentido de falsa. Ya anteriormente hemos insistido en la imposibilidad de concebir una realidad falsa y otra verdadera, una realidad 'aparente' y otra realidad 'real'. Esta distinción platónica tan querida aún por algunas corrientes filosóficas se basa en la presunción de la existencia de dos dimensiones del ser: una a la que llaman realidad, y otra a la que dan el nombre de lo real, cuando en verdad cualquier manifestación fenoménica del ser es el propio ser (siguiendo a Peirce, 1987, 85). Desde una óptica empirista radical cualquier signo, -cualquier señal como diría Bateson (1984, 125), a fin de evitar entrar en el debate sobre la naturaleza del signo- es un objeto de experiencia que tiene, en un momento dado, un sentido (un meaning) siempre en relación con un alter, con un otro, el cual se lo otorga en el instante en que hace un uso de él (Wittgenstein, 1968, 31).

La dimensión práctica de las señales (su uso) no se agota en lo inmediato, en el aquí y ahora, sino que a través de la mediación comunicativa pasa (esa dimensión) a otros seres, de suerte que los signos perviven inmanentemente a través de la comunidad de interpretantes.

Y esto es posible gracias al carácter inmanente del pensamiento, ya que él «es inmanente no sólo en los senderos de información que están situados en el interior del cuerpo, sino también en senderos exteriores [...]. El nexo individual de senderos que llamo 'yo' ya no es tan precioso porque ese nexo es sólo parte de una mente más vasta» (Bateson, 1993, 26).

La máquina humana (individual, concreta, tangible) puede ser entendida, pues, como máquina virtual (realmente real) en tanto que produce 'efemeiredades' que sin embargo permanecen, (el cuerpo en su desintegración producirá nuevos signos, por ejemplo), y en tanto que ese mismo cuerpo puede ser considerado como un signo. La expresión «el medio es el mensaje» generalmente mal entendida significa que el contenido de cualquier medio es siempre otro medio. «El contenido de la escritura es el habla, del mismo modo que la palabra escrita constituye el contenido de lo impreso y lo impreso es el contenido del telégrafo. Si se nos hace la pregunta '¿Cual es el contenido del habla?', se hace necesario que contestemos: 'Es un verdadero proceso del pensamiento que, en sí mismo, no es verbal'» McLuhan, 1969b, 30).

Este pensamiento que está en el mundo y forma con él un continuo no-dual, pudiera ser considerado como el vehículo metalógico superador de las paradojas a las que estamos vinculados, aunque en realidad es más sencillo y simple considerarlo como el pensamiento mismo (Morin, 1992, 212). El que comprende «que la piel puede considerarse tanto como lo que nos une a nuestro ambiente como lo que nos separa de él. [que] Ve, además, que la piel será considerada como algo que une sólo si antes había sido considerada como algo que separa, o viceversa» (Watts, 1971, 61).

En cualquier caso, la máquina virtual humana (virtual no en el sentido de irreal, sino en el sentido físico primigenio de cambiante, como el fuego heraclitiano) es susceptible de crear artilugios por medio de los cuales se accede a una llamada Realidad Virtual de la que nos ocupamos en el siguiente capítulo.


X. COMUNICACIÓN y REALIDAD


El método ya no puede separarse de su objeto

Heisenberg

 


Realidad virtual

La llamada Realidad Virtual ha generado a través de los medios de comunicación de masas una gran expectación. Las tecnologías que la hacen factible, sin haber sido desarrolladas plenamente aún, han recibido, a pesar de todo, una atención inusitada en los Media. Es el anuncio de lo posible, es, quizás, la sed de futuro. Este interés general no tiene paralelo con cualquier otra tecnología surgida anteriormente en la historia de la comunicación, si bien la causa hay que buscarla en la dimensión comunicacional (hiperinformacional según Eco) que la propia sociedad humana está alcanzando en los finales de este siglo. Por desgracia, una gran parte de esa información a menudo nada tiene que ver con los hechos, o abordan el problema de la realidad virtual sin el deseable rigor y honestidad intelectual que sería de apetecer. En gran medida, «muchos de los artículos importantes y muchos de los reportajes sobre la realidad virtual se centran en elementos colaterales o enteramente fuera de lugar» (Aukstakalnis y Blatner, 1993, 13). Frente a esta actitud estaría otra que considera, en palabras de Jaron Lanier que «la realidad virtual es, en última instancia, una vía para el estudio de nosotros mismos [...] y con la realidad virtual vemos cómo una comunidad se esfuerza para crear unos nuevos medios que inspirarán, humanamente, nuevos tipos de conexiones entre las personas y nuevas exploraciones» (Lanier, 1993, viii).

Existe una frontera borrosa entre los conceptos de 'Ciberespacio' y el de 'Realidad Virtual'. Y de hecho es inexistente si los pensamos ambos en su sentido maximalista, es decir como lugar (espacio o realidad) en el que los seres humanos podamos desenvolvernos como si estuviéramos en el espacio fenoménico natural.

Este sentimiento de identificación (absolutamente ajustado por otra parte), junto al tremendo eco que en los medios de comunicación despiertan las nuevas tecnologías, permite a Lee Kuan Yew, Ministro Principal de Singapur, afirmar en una entrevista: «Desde la revolución industrial, el ritmo de los cambios en la tecnología y la ciencia ha sido cada vez más rápido. Ahora todos estamos vinculados y dependemos unos de otros nos guste o no. Hoy está usted en Singapur y puede volver a París en unas 13 horas. En 20 años podrá volver en tres horas. Más tarde podrá estar en París al mismo tiempo que en Singapur mediante la realidad virtual.»(El País, 28-01-96, 10).

Por otra parte si pensamos ambos conceptos en un sentido minimalista, es decir en consonancia con lo conseguido hasta ahora, tampoco podríamos decir que ambos son radicalmente diferentes. Baste como muestra de ello la actitud tomada por el obispo católico Jacques Gaillot, el cual relevado por el Vaticano como obispo de Evreux (Francia) y nombrado obispo de una diócesis ya inexistente (Paternia, una antigua ciudad del Imperio Romano), ha trasladado su actividad pastoral a Internet, convirtiendo así en realidad (virtual) aquello que en principio parecía «algo surrealista», pudiendo disponer de esta manera de una feligresía potencial de millones de personas en todo el mundo (El País, 17-01-96).

Todas las previsiones -tecnológicas, industriales, económicas- indican que el máximo grado de 'experienciabilidad' fenoménica acabará llegando, aunque nadie aventure fechas. En cualquier caso, de la misma manera a como ha ocurrido con otras tecnologías que tanta expectación levantaron en su momento (fonógrafo, teléfono, etc) devendrán grandes cambios en el modo de estar en el mundo, pero éste seguirá siendo el mismo en el sentido complejo descrito más arriba, con los mismos problemas en el establecimiento de la comunicación y en la búsqueda de la homeostasis. (Y el mundo siendo diferente seguirá igual).

El estudio de la RV, y de otros conceptos, puede servir para entender esos problemas.


Definición aproximatoria

No resulta fácil proporcionar una definición clara de lo que es la Realidad Virtual (RV) ya que «Este medio toma muchas formas. Como el ordenador mismo, es una tecnología proteica. No habrá un sólo tipo de sistema de RV ni tampoco un entorno virtual paradigmático» (Biocca, 1992b, 25). Por esta causa, las definiciones -Greenbaum (1992, 58), Krueger (1991, xiii), (Aukstakalnis y Blatner, 1993, 7)- que hacen una referencia directa a la maquinaria, es decir a aquellos aparatos que conectan nuestros órganos sensoriales al sistema originando de esta suerte un espacio total de 360º volumétricos, adolecerían de alguna carencia presente o futura.

Sin embargo podríamos intentarlo si omitimos cualquier referencia explícita a una maquinaria determinada y por tanto decimos que «los entornos virtuales ... son comunicación mediática» (Ellis, 1991, 321), caracterizada por una total interactividad (Biocca, 1992a, 8) así como una alta sensación inmersiva, queriendo expresar con este término el grado (que puede ser máximo) por el cual el sistema perceptivo humano se sumerge en el interior de estímulos virtuales (Biocca, 1992b, 25) de cualquier tipo.

De hecho, conforme a la definición dada en el párrafo precedente cualquier situación comunicativa resulta ser una circunstancia producida siempre en entornos virtuales.

Por ejemplo, la sensación de inmersión puede darse en el cine o la radio, y, aunque la interactividad pueda ser baja, en cualquier momento el usuario puede, a pesar de todo, cambiar el dial o enfilar la puerta de la sala. Es ese doble grado de interactividad e inmersión el que determina el hecho comunicativo, hasta el punto que puede ser tan extremadamente menguado que se convierta en nulo, desapareciendo de esta manera la comunicación.

De igual manera, la reflexión precedente también vale para los seres humanos en sí mismos (en la llamada realidad 'natural') ya que «El medio más interactivo es el medio interpersonal -el plenamente interactivo ser humano» (Biocca, 1992a, 13). También en la comunicación interpersonal puede ocurrir que en la medida en que descienda el sentimiento de inmersión en la relación comunicativa ésta también descienda y llegue anularse (en el momento en que se abandone el subsistema concreto en el que se produce).

Los productos de la techne son, no debe olvidarse, productos humanos, lo cual nos permite afirmar con Biocca que para el caso concreto de la RV, «toda interactividad basada en el computador es una forma de interacción con otros humanos, incluso cuando no hay ninguno presente» (Biocca, 1992a, 13), afirmación que puede hacerse extensiva a todo lo demás. Sucede «como en el Mago de Oz, [donde] el súbito movimiento de la cortina convierte en repentinamente visible al operador humano de la gigantesca maquinaria de comunicación. Él es nosotros» (Biocca, 1993, 59).


Origen y otros conceptos

La expresión 'Realidad Virtual' fue acuñada en 1989 por el propio Jaron Lanier (Aukstakalnis y Blatner, 1993, 11), personalidad sumamente respetada y querida en el mundo de la programación virtual, y uno de los grandes impulsores de las técnicas de programación inmersivas. El adjetivo 'virtual', en este caso fue un préstamo tomado directamente de la informática, la cual había utilizado el concepto de memoria virtual para expresar la capacidad de un sistema para trabajar con una mayor cantidad de datos gracias a una memoria adicional generalmente volátil (Puelles, 1992, 6). En realidad el origen remoto del concepto de virtualidad proviene (como ya se ha dicho) de la Física Subatómica. Para ésta, las partículas virtuales no implican falsedad alguna, sino que por el contrario juegan un importante papel en la explicación de la realidad. De igual manera hay que considerar que el espacio de comunicación, es decir cualquier espacio, contiene dentro de sí elementos de significación, no importa cuán efímeros estos sean.

En ese año de 1989 surgen los primeros Eyephones ('ojoauriculares' en traducción literal) de la empresa fundada por Lanier, Virtual Programming Language Research (VPL), iniciando así «los inicios industriales de la realidad virtual» (Segura, 1994, 614). En concreto, tras cuatro meses de cobertura en los Media, fue el 6 de Junio de ese año (VR Day) cuando se hizo la presentación pública del 'invento' en dos shows comerciales a cargo de VPL y Autodesk; «desde entonces la VR [Virtual Reality] ha capturado la imaginación del público» (Bricken, 1992, 70) e iniciado una carrera comercial en la construcción y perfeccionamiento de sistemas y visiocascos (mayor resolución, mayor velocidad, mayor inmersión; Segura, 1994) indispensables para una industria del ocio y el entretenimiento la cual, en definitiva, es la que puede generar el mayor volumen de negocio y desarrollo en este ámbito.

Sin embargo, una largo periodo de experimentación de más de 20 años había precedido este suceso, el cual pudo tener lugar, en gran medida, gracias a las necesidades militares que habían motivado la aparición de tecnologías convergentes entre el ordenador (un subproducto humano) y el hombre (mismo) en tiempo real («la guerra es el padre y el rey ....»).

En concreto, a mediados de los sesenta Ivan Sutherland (1965), entonces en el Instituto Tecnológico de Massachusetts, lanzó el concepto de Ultimate Display, el cual no era sino una casco-pantalla que permitía que un piloto pudiera ver simultáneamente dos realidades fenoménicas superpuestas, una la llamada realidad física, y otra la generada por un computador ligado a los movimientos de la cabeza por medio de un dispositivo de localización de la misma. Sutherland fue perfectamente consciente de las implicaciones y del reto que aquello suponía, de manera que, al presentar una comunicación congresual describiendo su aparato, afirmaba «La pantalla es una ventana a través de la cual uno ve un mundo virtual. El reto es hacer que ese mundo parezca real, actúe real, suene real, se perciba real» (Sutherland, 1965, 507).

El primer prototipo llamado «Espada de Damocles» fue realizado en 1970 por un laboratorio de la Universidad de Utah (Segura, 1994, 614)[49], aunque para entonces, en 1969, otro investigador, Myron Krueger, ya había lanzado el concepto de Realidad Artificial por el que intentaba expresar la capacidad de interacción ser humano-programa informático en un entorno tridimensional 'real' (una habitación), donde a través de sensores instalados en el suelo era posible modificar las imágenes del monitor instalado en él (Puelles et al, 1992, 48). Más próximo a los movimientos artísticos de vanguardia surgidos a fines de los sesenta, y a los que se denomina de diferentes maneras (arte cinético, videoarte, videoinstalación, etc), la línea investigadora de Krueger (1991) ha perseguido siempre el objetivo de utilizar (en espacios tridimensionales y mediante sensores) el cuerpo humano en su totalidad como un dispositivo de entrada de información (input device) al sistema (Biocca, 1992b, 28).

El objetivo final de la comercialmente llamada realidad virtual es crear un fuerte sentimiento de presencia (Biocca, 1992b, 27). Para ello es preciso conseguir una alta resolución visual, un sonido estereofónico que responda a distancias y volúmenes, un velocidad mínima de 30 'fotogramas' segundo y un sistema tacto-propioceptor que actúe en tiempo real. Las dificultades, sobre todo en el coste económico, para conseguir estos resultados hacen que las tecnologías de lo virtual progresen con lentitud. En 1991, estas tecnologías estaban en sus albores, y cualquiera que haya podido asomarse a un videojuego virtual durante la primera mitad de los noventa probablemente habrá quedado decepcionado por la enorme distancia entre sus expectativas y los resultados realmente conseguidos; la inmersión, el sentimiento de presencia quedaba truncado no sólo por la baja resolución virtual, sino muy especialmente por el lapso habido entre el movimiento de la cabeza y lo mostrado ante ella. Todo esto llevaba a Dennett a afirmar en 1991 que lo más que se podría conseguir con las nuevas tecnologías sería una «surrealidad virtual» (Dennett, 1991, 7). En verdad el estado actual de las tecnologías de lo virtual para el gran público se corresponde con estados similares por los que han pasado en sus comienzos otras técnicas como el cine y la televisión.

El sentimiento de presencia puede, sin embargo, ser percibido en muchos otros medios y a un coste muy inferior. Artilugios como el Sensorama, 3-D Movies, o el sistema de proyección Imax producen en el usuario una fuerte imbricación sensorial y emocional debido al impacto producido por una nueva tecnología surgida en lo real. Las, para nosotros, primitivas películas en blanco y negro a 16 fotogramas por segundo (Sadoul, 1972, 5), no impedían que la gente iniciara movimientos de huida ante la locomotora de los Lumière, o que un hombre del Estado de Montana tras despertar del sueño ligero de una cabezada en un cine la emprendiera a tiros con un oso al descubrir repentinamente asustado su presencia (Shapiro y McDonnald, 1992, 99).

Y esto era posible porque, a pesar de la baja definición o consistencia de la realidad ante la que el espectador se encontraba envuelto, «el término presencia propone no un objetivo sino un destino, un lugar psicológico, una posición virtual [...] la presencia es un constructo, una variable con varios niveles y dimensiones» (Biocca, 1992b, 27). Siendo coherentes con nuestro discurso (y el de otros), el término presencia tanto vale para ser aplicado en la sala de un cinematógrafo como entre la multitud emergente a través de los pasillos y recodos de una estación de metro.

En todos los casos la presencia, en tanto que constructo, en tanto que lugar psicológico, que posición o situación virtual, podrá ser más o menos intensa en función de los factores intrínsecos, en ese momento y lugar, al sujeto comunicativo. Generalmente la novedad, la vez primera que se está en presencia de una situación distinta, intensifica ese sentimiento. De ahí la necesidad que muchas personas tienen de cambiar de lugar, de sentirse ante signos desconocidos, calles, plazas, señales de tráfico, coches, matrículas, edificios, caras, vestidos, idioma, y en fin todo aquello ante lo que uno pueda sentirse emplazado en la inocencia del descubrimiento, en la fascinación por la realidad, en la belleza de lo experienciable. Entonces, el sentimiento de presencia se intensifica.

Por el contrario disminuye cuando esa presencia se hace redundante, aburrida, monótona (la aburrida redundancia de Klapp), cuando se está instalado en la rutina, dentro de las mismas claves, en el interior de los mismos paisajes. Ello, la disminución, generalmente obliga a buscar un contrapeso reequilibrador mediante el recurso a «feedbacks, hacia adelante (previsiones, proyectos) y hacia atrás (recuerdos)», o simplemente retornando a los media.

Por todo lo dicho, porque la presencia es un constructo, una posición virtual (Biocca, 1992b, 27), y también porque «el concepto de realidad virtual tiene un poco de conundrum» (Biocca, 1992a, 5), de acertijo, de koan, debido a la variedad tecnológica desde la que puede ser abordada, autores como Jonathan Steuer proponen un marco conceptual diferente que nos permita dar cuenta no sólo de la llamada realidad virtual sino de cualquier otra máquina de comunicar. Este marco conceptual genérico no es otro que el marco experiencial (Steuer, 1992, 74), ya que todo acto de comunicación siempre es un hecho de experiencia. Para ello, Steuer utilizará los términos de presencia y telepresencia.

Este último concepto fue acuñado por Marvin Minsky (1980) para describir la manipulación remota sobre objetos físicos realizada a distancia. Posteriormente fue utilizado en el campo de la investigación massmediática por Howard Rheingold quien el 23 de Mayo de 1990 en una comunicación congresual se sirvió de él para definir la Realidad Virtual (Steuer, 1992, 76-77).

 


Presencia y telepresencia

«Presencia es definida como el sentimiento de estar en un entorno [...] El término también es usado algunas veces para describir la experiencia mediada de un entorno físico» (Steuer, 1992, 75). Por su parte «Telepresencia es definida como la experiencia de presencia en un entorno por medio de un medio comunicativo» (Steuer, 1992, 76).

Conforme a estas dos definiciones, la Realidad Virtual puede ser acotada entonces sin hacer mención alguna a ningún tipo de maquinaria, e incluso pudiendo englobar en ella a todo tipo de experiencia mediada. «Una realidad virtual es definida como un entorno real o simulado en el que un perceptor experiencia una telepresencia» (Steuer, 1992, 76-77).

Según esta definición cualquier medio tiene un cierto grado de virtualidad real, ya que cualquier medio lo que hace es crear situaciones, entornos que son entonces susceptibles de ser experienciados (Steuer, 1992, 77-78). La diferencia entre el punto de vista tradicional y el situacional quizás esté expresada a través de la figura 14, donde en el primer caso se pone el acento en la relación interactiva entre emisor y receptor, y en el segundo se hace hincapié en el individuo (Emerec) en conexión mediática con otro(s) individuo(s), en el sentido descrito más arriba por Biocca (1992a, 13), cuya frase ligeramente modificada quedaría del siguiente modo: «toda interactividad mediada es una forma de interacción con otros humanos, incluso cuando no hay ninguno presente»[50].

figura14

Figura 14. Dos modelos de comunicación mediática, (basado en Steuer, 1992, 77).

Pueden ponerse muchos ejemplos de esos otros medios mencionados en el párrafo anterior. En todos los casos posibles, desde una carta a un videojuego pasando por un programa de televisión o una película, todos ellos nos proporcionan en mayor o menor grado un sentimiento de presencia, de estar ahí (being there), de ser ahí. «Leer una carta de un amigo o colega distante puede evocar un sentimiento de presencia en el entorno en el que la carta fue escrita»; «la televisión sitúa al espectador en un espacio virtual[51] en el que ambos espectador y objetos en la pantalla están presentes» (Steuer, 1992, 78 y 79).

En orden a una clasificación acerca del mayor o menor grado de presencia, muchos tipos de parámetros son posibles. Sheridan (1992), por ejemplo, propone cinco (véase gráfico en Biocca, 1992b, 28), tres de ellos de carácter tecnológico, y los dos restantes relativos a dificultad contextual.

Sin embargo, retomando el discurso experiencial de Steuer, -y en cierta manera coincidente con la simplicidad en la definición aproximatoria de la realidad virtual dada más arriba, donde usábamos la interactividad y la inmersión como los elementos característicos de la misma- consideramos con él que lo que permite la noción misma de telepresencia se debe a la conjunción de dos elementos: la interactividad y la vividness. Este último término es de difícil traducción en castellano puesto que en nuestro idioma existe el adjetivo vívido pero no el sustantivo correspondiente (vividez sería en este caso); «significa la riqueza representacional de un entorno mediático» (Steuer, 1992, 81). Interactividad, por su parte, «es el grado en el que los usuarios pueden modificar la forma y contenido del entorno mediático en tiempo real» (Steuer, 1992, 84).

Cada uno de estos dos elementos, dispone a su vez de una serie de variables (figura 15) que pueden ser de mayor o menor intensidad (cualitativa y cuantitativa) siendo por esta causa determinantes a la hora de hablar del grado de telepresencia en tal o cual medio.

figura15

Figura 15. Variables de la telepresencia

El término Breath (respiración, aliento) indica el parámetro referido a la cantidad de sentidos envueltos simultáneamente en la mediación. Depth (profundidad) señala la resolución de cada uno de los canales perceptuales (Steuer, 1992, 81).

Speed (velocidad) hace referencia al tiempo de respuesta mediática en la interacción. Range (escala), al número de atributos manipulables y a la cantidad de variación posible; estos atributos son esencialmente, la espacialidad (dónde aparecen los objetos), la temporalidad (en qué orden temporal lo hacen), la intensidad (en sonido, en los colores, en los olores), y características de las frecuencias (timbre, color). Por último mapping (aproximadamente 'cuadrar') expresa la manera en que las acciones humanas están conectadas con las acciones producidas en el medio; pueden ser absolutamente arbitrarias (uso de teclas para conducir un vehículo en pantalla) o naturales (la acción se desarrolla a través de un volante)(Steuer, 1992, 86).

El esquema de Steuer, las variables propuestas, sin duda alguna pueden ser discutidas, y seguramente podrían emplearse otras diferentes (mayor o menor cantidad de ellas), o semejantes, (con diferentes nombres pero expresando sustancialmente lo mismo). Desde mi punto de vista, la cantidad y la calidad de las variables es realmente lo de menos. Lo que verdaderamente importa son los dos parámetros fundamentales, los dos ejes sobre los que se funda la telepresencia: consistencia (quizás la mejor traducción para vividness) e interactividad.

figura16

Figura 16. Clasificación de algunas tecnologías mediáticas en función de la consistencia e interactividad (Steuer, 1992, 90).

Estos pueden ser perfectamente aplicados al ámbito de la presencia misma, puesto que ese ámbito, no lo olvidemos, está saturado de 'medios', productos resultantes de la techne, que son en sí mismos objetos para la comunicación[52].

Por esta razón (y por nuestra relación continua con el mundo) es por lo que es posible que podamos hablar de una disminución en la intensidad de la presencia en el momento mismo en que, situados en la aburrida redundancia, se procede a anular perceptos y a dejar de percibir, por tanto, elementos de la realidad (Ej.: la monotonía redundante de una estación de metro).

Estos dos parámetros fundamentales permiten también obtener una visión global de la comunicación mediática, no circunscribiéndose al terreno exclusivo de las tecnologías de la realidad virtual, sino abarcando a todas ellas. De esta manera es posible construir un cuadro (figura 16) en el que todas están ubicadas en relación a los dos ejes fundamentales.

En él se encuentran prácticamente la totalidad de medios explícitamente concebidos para la comunicación. Lo culmina, en el extremo superior derecho, un producto literario: el relato corto de Bradbury (1951) titulado The Veldt, y en el que, mucho antes de ser concebida cualquier tecnología adhoc (1951), el cuarto de los niños era el lugar (mágico) en el que todo podía suceder.


El espacio de comunicación

A lo largo de la totalidad del texto que antecede hemos podido ver algunas de las claves fundamentales para comprender el fenómeno comunicativo. Estas claves serán especialmente útiles en el nuevo siglo XXI, el cual no se caracterizará precisamente por un tipo de comunicación de masas que como en los años veinte y treinta fluya en una sola dirección.

Durante el tiempo transcurrido entre esos años y la actualidad, diferentes modelos teóricos comunicacionales han ido apareciendo coincidentes con el desarrollo de los media (Wolff, 1987). Pero, en verdad, han ido transformando sus contenidos no sólo en base a los cambios resultantes en la técnica, sino, y muy especialmente, debido a los cambios ocasionados en los entornos sistémicos que les daban cobijo. No es lo mismo vivir (y teorizar) durante los años que preceden a la segunda guerra mundial, -con la formidable expansión en las sociedades industrializadas de medios como la radio o el cine ya sonoro- que hacerlo en los años posteriores. El abandono de la teoría de la aguja hipodérmica (unidireccional) será su resultado.

Inmersos en una sociedad democrática donde las encuestas de opinión cumplían un papel fundamental, y acuciados por la obtención de resultados fiables, los poll researchers, los sociólogos de opinión norteamericanos, debieron buscar marcos teóricos adecuados con los que pudieran cumplir apropiadamente su papel. La afirmación de uno de ellos, realizada en 1948, por la cual «Ciertos tipos de comunicación acerca de cierto tipo de asuntos, en ciertas condiciones, originan ciertos tipos de efectos» (Berelson, 1948, p.172) constituían, en mi opinión, un claro posicionamiento relativista, puesto que en ella quedaban incluidas todas las variables posibles. De hecho la afirmación de Berelson está apuntando hacia el concepto de 'situación' repetidamente expuesto aquí, o lo que es lo mismo al concepto de realidad misma.

En el nuevo siglo, la búsqueda de estrategias de comunicación deberá pasar por la comprensión de que «lo que el hombre incorpora en la textura de su inteligencia le llega más por impregnación de su espíritu sumergido en la esfera de los mensajes que por el proceso racional de la comunicación» (Moles, 1967, p.30). Asimismo es preciso comprender que no todo tipo de mensajes 'impregnan' de la misma manera, o incluso que muchos de ellos sencillamente no llegan en absoluto, puesto que no lo olvidemos la comunicación es cosa de al menos dos. El olor de la pólvora, las explosiones, los cantos y las borracheras de los «Piratas del Caribe» (uno de los shows de un famoso parque de atracciones) llegarán con más facilidad a la mente de un niño que a la de un adulto. El espacio de comunicación establecido entre los diseñadores del espectáculo (antiguos niños) y los niños actuales establece una representación de una experiencia humana donde otros seres humanos puedan situarse vicariamente en ella. Como Michael Nilan sugiere (1992, 117), todos los esfuerzos de transmisión de conocimientos (de cualquier tipo) están encaminados a la obtención de esa vicariedad, desde los teoremas de Tales al Aufhebung hegeliano, desde una agitada persecución automovilística por las calles de San Francisco a la soledad de los personajes de Ingmar Bergman.

Nilan prefiere llamarlo espacio cognitivo el cual «es una extensión de la metáfora del espacio físico» (Nilan, 1992, 117). Ambos, como dice Nilan, y como ya hemos visto a través de la indagación realizada previamente, son una metáfora de algo a lo que pudiéramos llamar espacio, sin adjetivo alguno que lo clasifique. En él «los seres humanos pueden, y lo hacen, comunicarse unos a otros a través de enormes diferencias en experiencia (ej. abuelos con nietos) y tiempo (ej. investigadores trabajando sobre las ideas de otro)» (Nilan, 1992, 118). Y estas diferencias (realmente enormes si se las considera detenidamente) pueden ser verdaderamente anuladas a efectos comunicativos simplemente porque hay una humanidad común, un ser común, que nos traspasa a todos.

Sin embargo, a pesar de ello, no hay que olvidar que esta pertenencia se vive fragmentadamente, vinculándonos ora a uno de los fragmentos, ora al otro, siempre inevitablemente -aunque no lo sepamos- a ambos (nivel de aprendizaje pequeño-nivel más amplio en palabras de Bateson). Por ejemplo, cuando miramos la televisión nos colocamos simultáneamente en -al menos- dos fragmentos de espacio; de un lado el televisivo o mediático; del otro, el mediado, la habitación en la que se encuentra el anterior. Y la existencia misma de ambos (sub)sistemas, nuestro continuo deambular de uno al otro, es lo que posibilita, en principio, que la comunicación tenga lugar.


La realidad como categoría de contacto

El espacio real de comunicación no es otro, pues, que la realidad misma con sus múltiples caras y facetas.

Esta realidad puede ser fragmentada (a efectos de clasificación), puesto que desde el punto de vista de nuestra experiencia tenemos el hábito de hacerlo. De hecho, a lo largo de nuestra vida como seres comunicantes suele predominar, en un momento dado, uno u otro aspecto de esa fragmentación posible. La realidad, ese continuo formado a base de antagonismos, contradicciones, redundancias, variedades, retroalimentaciones, y subsistemas, puede por tanto ser seccionada al igual que el urbanista puede establecer las secciones de un único plan, o como el matemático puede hablar de un segmento de recta.

La idea de considerar la realidad comunicativa (segmentadamente) como categoría de contacto no es nueva. Tiene un doble origen. De un lado la teoría, es decir un discurso que propone un marco conceptual. Del otro, la propia observación empírica, la cual posiblemente no hubiera sido posible sin el marco teórico adecuado (el cual no se hubiera desarrollado sin la observación empírica).

Por el lado de la teoría, el origen del discurso que propone la realidad como categoría de contacto comunicativa he de remontarlo a lo que genéricamente se ha dado en llamar 'interaccionismo simbólico'. Surgido como etiqueta de una manera un tanto casual[53], el interaccionismo simbólico es la prolongación natural de lo que se conoce como el pragmatismo americano, y heredero por tanto de pensadores como William James, John Dewey, Charles Cooley, pudiendo situar en la Escuela de Chicago (departamento de Sociología y Antropología[54]) su punto crucial de inflexión y desarrollo a través de la actividad teórica y práctica de William I. Thomas, Robert Erza Park, George Herbert Mead, y sus herederos intelectuales como Herbert Blumer y Erving Goffman (Winkin, 1984, 98 y ss.; Blumer, 1982).

El interaccionismo simbólico no es una etiqueta para designar una escuela monolítica sino que por el contrario es la forma genérica a través de la cual poder apelar a un modelo de pensamiento que, como todos, tiene sus inflexiones y matices (Meltzer, Petras, Reynolds, 1975). Sin embargo, creemos que el interaccionismo simbólico puede ser caracterizado por una idea-núcleo en virtud de la cual las relaciones sociales (y la comunicación en suma) es llevada a cabo a través de procesos de interacción -lógicamente, dentro del ámbito de la experiencia- utilizando para ello todo tipo de símbolos, (sonoros, kinésicos, proxémicos, etc). La fuerza de esta idea central reside en que puede ser aplicada a todo tipo de actos de comunicación, desde el vis à vis interpersonal (presencia) a la comunicación a distancia en el tiempo y en el espacio (telepresencia). Incluye en ella todo el universo de símbolos del (sub)sistema humano (noosfera y biosfera), y por lo tanto confiere a éste (el sistema humano) una cierta unidad de análisis, siempre matizable debido a su complejidad retroactiva.

Más en concreto, la idea de establecer como categoría de contacto comunicativo a la realidad (con sus múltiples caras) proviene en primer lugar del trabajo etnográfico de Goffman sobre la interacción interpersonal inmediata (el vis à vis) y su concepto de ocasión [social ocasion] que puede promover (o no) una implicación [to be involved] comunicativa (Goffman, 1982, 290).

Por otra parte, la figura de Eliseo Verón es fundamental para comprender ese concepto. Miembro periférico del Círculo de Palo Alto donde permaneció (la primera vez en 1964) publicando conjuntamente con algunos de sus miembros y deudor por tanto, como él mismo reconoce, de la obra de Bateson, sus investigaciones en el campo de la comunicación le llevaron a formular el concepto de 'Contrato de Lectura' (o contrato enunciativo, el cual «es una dimensión fundamental de no importa qué media») y por el que se «construye una cierta imagen del que habla (el enunciador), una cierta imagen de aquél a quien se habla (el destinatario) y, por consiguiente, un vínculo entre esos dos puntos» (Verón, 1985, 206-207). La comunicación se posibilita pues gracias a la construcción de un lugar audio-visuo-conceptual común, o más simplemente gracias a un (fragmento de) realidad o situación común a los comunicantes.

Finalmente, desde el punto de vista empírico, la idea de considerar fragmentadamente a la realidad como unidad de contacto surge desde la observación de la estrategia comunicativa llevada a cabo por los Medios de Comunicación de Masas, «empresas lucrativas que venden lo que el pueblo quiere. Esta perspectiva entraña que los medios son sólo la mitad de las razones de los problemas que aparentan crear. El público que los compra o los ve es la otra mitad» (Reardon, 1983, 210). Esa estrategia comunicativa genérica (desde el punto de vista de la producción) se basa en la búsqueda del nicho ecológico (el lugar, la «posición virtual» que hablaba Biocca) en donde sea posible establecer la comunicación deseada.

Y esa posición puede estar constituida por 'realidades'[55] de diverso tipo, las cuales son especialmente obvias en el ámbito publicitario el cual, quizás, se constituye en vanguardia inevitable de los mass media (como antaño los poll researchers) debido a la necesidad imperiosa de obtener resultados.

Sin ánimo exhaustivo, y aunque personalmente no me gustan las clasificaciones puesto que nunca son completas y siempre son discutibles, podríamos hablar de una ámbito de realidad infantil (constituida por la inagotable fantasía de los niños), un ámbito de realidad soñada (constituida por los sueños de los adultos), un ámbito de realidad comprometida (con cualquier idea o movimiento ideológico), un ámbito de realidad indagadora (en la que el ser humano en tanto que especie está normalmente situado), un ámbito de realidad del ocio (entendiendo la vida como espectáculo), un ámbito de realidad del juego, un ámbito de realidad participativo, un ámbito de realidad de la ambición, y así sucesivamente hasta completar todos los ámbitos de experiencia posible.

Estos ámbitos no son fragmentos ni inamovibles ni estancos. Se entremezclan, se entrecruzan, y es posible pasar de uno a otro con relativa facilidad a causa de varias razones. La primera, debido al carácter no estático del ser humano, a su condición de sistema abierto. La segunda, por la imposibilidad de conseguir un equilibrio absoluto (conforme a la propia definición de homeostasis). La tercera, por nuestra naturaleza doblemente entrópica-negentrópica (concentración y dispersión). Y por último, por nuestra pertenencia simultánea a dos niveles de realidad. Uno inmediato, el aquí y ahora donde uno está situado. Otro genérico, no inmediato, que nos relaciona con cualquier otra posición, y del que no es posible desvincularse.

Por ejemplo, el individuo sentado frente al televisor gozando de un determinado espacio comunicativo se encuentra también ubicado en un espacio social aún más amplio que puede alterar su posición de audiencia en una próxima ocasión.

Mi condición humana en el presente inmediato, en el aquí y ahora del momento, no me desvincula de mi historia como persona y como especie, y de todas las relaciones hipertextuales a que eso pueda dar lugar. Esta pertenencia simultánea a dos niveles de realidad es la que provoca que la realidad nunca pueda ser estable sino cambiante como el río de Heráclito; se pasa naturalmente de una a otra porque naturalmente estamos en una y en otra.

Ello explicaría porqué un determinado film, una novela o una publicación periódica, puede conectar con nosotros en un momento específico de nuestra vida y sin embargo, visto o leído de nuevo en otra ocasión o periodo, puede dejar de hacerlo. Nuestro ámbito experiencial concreto, nuestra realidad, en ese segundo caso está situada en otro lugar.

Documentales televisivos, revistas especializadas, anuncios específicos para niños, narrativa temática, concursos, noticias (telediarios, periódicos, etc), juegos, magazines, talk shows, tipos de música, etc, ganan y pierden público en función de esa variable. Y un mismo ser humano a lo largo de su vida puede sucesivamente sentirse fascinado por la programación infantil, por los documentales, por una publicación de historia, si tiene hijos (de nuevo) por la programación infantil, por un tipo de música, por los juegos de ordenador, y así sucesivamente.

La comprensión del fenómeno comunicativo pasa necesariamente por la comprensión de la realidad (subsistémica) como lugar de encuentro. Las estrategias comunicativas también. El cómo concretarlas (el diseño visual-auditivo-verboconceptual) está más allá del alcance de este libro. Esa es otra cuestión.

 


Hacia una filosofía de la realidad


A lo largo de todo el texto que antecede hemos visto que el ser humano es un sistema abierto en el interior de la naturaleza que busca situaciones estables (Cannon). Sin embargo, el equilibrio (las situaciones estables) son, desde el punto de vista psicofisiológico imposibles de alcanzar de una manera permanente (Priban). Tan sólo se alcanzan de una manera puntual y provisional. Para superar esa provisionalidad sería necesario situarse en la posición expresada por Heráclito con el término Logos y en su medida siempre cambiante el Fuego.

A pesar de esa imposibilidad de equilibrio permanente, el ser humano computa la realidad como si fuera estable (Foerster), es decir dotándola de un sentido e inscribiéndola en el Universo del Sentido. Y cuando digo inscribiéndola lo hago siendo consciente de su valor etimológico, es decir, in scribere, escribir dentro de sí. Pero no hay que olvidar que esa realidad -dentro de la cual escribimos- es en sí misma un sistema abierto al cual pertenecemos en, al menos, dos niveles (Bateson). Uno inmediato, otro mediado; uno como individuo, otro como especie; uno ontogenético, otro filogenético. Y en fin respecto de estos dos niveles, uno que nos retrotrae al pasado (en las diversa fases de nuestro desarrollo y crecimiento individual) , y otro que nos proyecta al futuro (en tanto que desarrollo y evolución de nuestras potencialidades intelectivas como especie).

Esta realidad forma con el ser humano un continuum (Varela) hecho de antagonismos y contradicciones (Morin). Pues, aunque con toda evidencia somos parte integral de ella y ella de nosotros tal y como se ha mencionado en el párrafo anterior, solemos, sin embargo, nombrarla (y pensarla) como algo ajeno, algo externo, que está ahí fuera, como el polo opuesto de nuestro agón, de nuestra lucha. Porque en cierta manera también lo es. La realidad como sistema abierto está en permanente cambio, y nosotros en tanto que (sub)sistemas abiertos integrados en su seno lo hacemos también. Esta apertura no hay que entenderla como la negación absoluta del cierre. De hecho existe un vínculo retroactivo entre la apertura y el necesario cierre organizacional. Es decir, existe el bucle que posibilita el perpetuo fluir.

En el interior de ese bucle, el ser humano genera tecnologías -comunicativas por definición (Biocca)-, en un intento por superar una carencia (Perriault), por superar una escisión. Esa escisión, causante de nuestro distanciamiento, de nuestra distancia respecto del Medio y los demás seres humanos, provoca la aparición de toda suerte de técnicas justamente para contribuir con ellas a paliar, disminuir o eliminar esa distancia. Estas tecnologías son, sin embargo, en sí mismas impulsoras (Morin) de desorden (entropía) al tiempo que posibilitan el orden (negentropía) o apropiación de la realidad (Paolucci).

Consecuentemente, esta realidad en movimiento, y nuestra pertenencia simultánea a varios niveles de la misma, nos llevan a un perpetuo fluir entrópico-negentrópico comunicativo (Klapp). Por esta razón, y como un intento de anclaje científico del hecho comunicativo, la unidad (sub)sistémica de investigación comunicacional debería estar constituida por los ámbitos de experiencia, es decir por la realidad situacional humana (Steuer, Verón, Goffman).

El problema -y no es un pequeño problema-, es que la realidad es extraordinariamente movediza. No sólo para el caso humano, sino para todo el conjunto del sistema, a corto, medio, largo y largísimo plazo. Cualquier investigación futura acerca de la realidad, acerca de lo que es la realidad, habrá de tenerlo en cuenta.




REFERENCIAS BIBLIOGRÁFICAS

Adam, Peter, 1992, El Arte del Tercer Reich, Barcelona, Tusquets Editores (título original: Art of the Third Reich).

Albert, Pierre, 1990, Historia de la Prensa, Madrid, Rialp, (Edición original: Histoire de la Presse, Paris, PUF, 1970).

Alberti, Leon Battista [1404-1472], 1986, The Ten Books of Architecture, New York, Dover Publications.

Alexander, Franz, 1948, Fundamentals of Psychoanalysis, New York, Norton.

Álvarez García, Alfonso, 1996, HTML. Creación de páginas Web, Madrid, Anaya Multimedia.

Apel, Karl-Otto, 1985, La transformación de la Filosofía. Tomo I. Análisis del Lenguaje, Semiótica y Hermenéutica. Tomo II. El a priori de la comunidad de comunicación, Madrid, Taurus, (edic. orig.: Transformation der Philosophie, Frankfurt am Main, Suhrkamp Verlag, 1972-1973).

Aracil, Javier, 1978, Introducción a la dinámica de sistemas, Madrid, Alianza Editorial.

Aristóteles [384-322 a.C.], 1970, Metafísica, (trad. de V. García Yebra), Madrid, Gredos.

Ashby, William Ross, 1952, Design for a Brain, New York, John Wisley & Sons Inc. (ed. española: Madrid, Tecnos, 1965).

Aukstakalnis, Steve, y Blatner, David, 1993, El espejismo del silicio. Arte y Ciencia de la Realidad Virtual, Stephen Roth (ed.), Barcelona, Página Uno S.L., (Edic. original: Silicon Mirage, The Art and Science of Virtual Reality, Berkeley (CA), Peachpit Press Inc., 1992).

Baillet, Adrian, «Vie de Monsieur Descartes», en Descartes, Discours de la méthode, París, Garnier-Flammarion, s.f. (existe una edición más reciente del texto publicado en 1691 por Baillet: en Ed. La Table Ronde, coll. La Petite Vermillon, 1992).

Bateson, Gregory, 1961, «The Biosocial Integration of the Schizophrenic Family», en Ackerman, Beatman y Sherman (eds.) Exploring the Base for Family Therapy, New York, Family Service Association, pp. 116-122.

----, 1984, «Comunicación», en La nueva comunicación, Ives Winkin (comp.), Barcelona, Kairós: pp. 120-150 (edición orig.: «Chapter 1: Communication», en The Natural History of an Interview, compilado por Norman A. McQuown. Microfilmoteca de la Universidad de Chicago, Colección de Manuscritos de Antropología Cultural, serie 15, nº95, 1971: pp. 1-140).

----, 1993, Una Unidad Sagrada. Pasos ulteriores hacia una ecología de la mente, Barcelona, Gedisa (edic. orig.: A Sacred Unity. Further Steps to an Ecology of Mind, s.l., 1991).

Beals, Ralph L., y Hoijer, Harry, 1968, Introducción a la Antropología, Madrid, Aguilar (ed. original: An Introduction to Antropology, New York, Macmillan Company, 1965).

Benedikt, Michael, 1993a, «Introducción» en Ciberespacio. Los primeros pasos (M. Benedikt ed.), México, CONACYT (Consejo Nacional de Ciencia y Tecnología) y Equipo Sirius Mexicana S.A.: pp. 9-29.

----, 1993b, «El ciberespacio: algunas propuestas» en Ciberespacio. Los primeros pasos (M. Benedikt ed.), México, CONACYT (Consejo Nacional de Ciencia y Tecnología) y Equipo Sirius Mexicana S.A.: pp. 113-205.

Berelson, B., 1948, «Communication and Public Opinion» en Wilbur Schramm (ed.) Communication in Modern Society, Urbana (Il.), Illinois University Press.

Bernal, John D., 1973, Historia social de la ciencia, (2 vol.), Barcelona, Península (ed. original: Science in History, Londres, C.A. Watts & Co. Ltd., 1964).

Bernard, Claude, 1859, Leçons sur les propiétés physiologiques et les alterations pathologiques des liquides de l'organisme, Paris, J. B. Ballière.

-----1878, Leçons sur les Phènomènes de la Vie communes aux animaux et aux végétaux, Vol. I, París.

Bertalanffy, Ludwig von, 1971, Robots, Hombres y Mentes, Madrid, Ediciones Guadarrama S.A.(edición original: Robots, Men and Minds, New York, George Braziller, 1967).

----, 1976, Teoría General de los Sistemas, México, Fondo de Cultura Económica (edición original: General System Theory: Foundations, Development, Applications, New York, George Braziller, 1968).

-----, 1979, Perspectivas en la teoría general de los sistemas, Madrid, Alianza Editorial.

Biocca, Frank, 1992a, «Communication Within Virtual Reality: Creating a Space for Research», Journal of Communication, Vol. 42, nº4: 5-22.

----, 1992b, «Virtual Reality Technology: A Tutorial», Journal of Communication, Vol. 42, nº4: 23-72.

----, 1993, «Communication Research in the Design of Communication Interfaces and Systems», Journal of Communication, Vol. 43, nº4: pp. 59-68.

Birch, Thomas, 1757, History of the Royal Society, Londres.

Birdwhistell, Ray L., 1959, «Contribution of Linguistic-Kinesic Studies to the Understanding of Schizophrenia», en Alfred Auerback (ed.), Schizophrenia: An Integrated Approach, New York, Ronald Press Company, pp. 99-123.

Blumer, Herbert, 1982, El interaccionismo simbólico: Perspectiva y Método, Barcelona, Hora S.A. (Ed. Or.: Symbolic Interactionism Perspective and Methods, New York, Prentice-Hall Inc., s.f.).

Bradbury, R., 1951, «The Veldt» en The ilustrated man, Garden City (NY), Doubleday.

Bricken, William, 1992, «Virtual Reality: Directions of Growth», Revista del Foro de Filosofía / Filosofía Foroa, nº3: 70-75.

Cannon, Walter B., 1926, «Some General Features of Endocrine Influence on Metabolism», Amer. J. Med. Sci., 171: 1-20.

-----1932, The Wisdom of the Body, New York, Norton.

-----1929, «Organization for Physiological Homeostasis», Physiological Review, Vol.IX, nº3: pp.399-431.

Capra, Fritjof, 1992, El Tao de la Física, (tercera edición ampliada), Madrid, Luis Cárcamo Editor (edición original: The Tao of Physics, s.l., 1975).

Carballar, José A., 1995, Internet, Madrid, Ra-Ma Editorial.

Castells, Manuel, 1995, La ciudad informacional. Tecnologías de la información, reestructuración económica y el proceso urbano-regional, Madrid, Alianza.

Chan, Joseph Man, 1994, «National Responses and Accessibility to Star TV in Asia», Journal of Communication, vol.44, nº3: 112-133.

Cloutier, Jean, 1973, La communication audio-scripto-visuelle à l'heure des self-media ou l'ère d'Emerec, Montréal, Presses de l'Université de Montréal.

Cruz Hernández, Miguel, 1977, El pensamiento de Ramón Llull, Madrid, Castalia.

David, R.C., 1958, «The Domain of Homeostasis », Psychological Review, 65: 8-13.

Debord, Guy, 1967, La Société du spectacle, Buchet/Chastel, París; edición en español, La sociedad del espectáculo, Madrid, Miguel Castellote Editor, 1976.

Dechales, Millet, Claudi Francisci, Camberiensis e societate Jesu, Cursus seu Mundus Mathematicus, t.II, Ludugno ex Officino Anissonia, MDCLXXIV.

DeFleur, Melvin L. & Ball-Rokeach, Sandra J., 1982, Teorías de la comunicación de masas, Barcelona, Paidós. (Edición original: Theories of Mass Communication, New York, Longman, 1982).

Dempsey, E. W., 1951, «Homeostasis» en Handbook of Experimental Psychology, S.S. Stevens (ed.), New York, J. Wiley, pp. 209-235.

Dennett, D., 1991, Conciousness Explained, Boston, Little Brown.

Derrida, Jacques, 1972, La Dissémination, Paris, Seuil.

Descartes [1596-1650], 1968, Discurso del Método. Meditaciones Metafísicas (trad. y notas M. García Morente), Madrid, Espasa Calpe.

Díaz-Plaja, Fernando, 1969, La vida española en el siglo XIX, Madrid, Editorial Prensa Española.

Dictionnaire Encyclopédique Petit Larousse, 1961, 5ª edición, Paris, Librairie Larousse.

Doyon, A., y Liaigre L., 1967, Jacques Vauçanson, mécanicien de génie, París, P.U.F..

Echevarría, Javier, 1994, Telépolis, Barcelona, Destino.

Eco, Umberto, 1985, «¿El público perjudica la televisión?», en M.Moragas (ed.) Sociología de la comunicación de masas. II Estructura, funciones y efectos, Barcelona, Gustavo Gili. (Ponencia presentada en el Simposium Internacional de Expertos de la Comunicación, organizado con motivo del Prix de Italia de 1974).

Eddington, Sir Arthur, 1945, Nuevos Senderos de la Ciencia, (traducción y notas de Miguel Masriera), Barcelona, Montaner y Simón. (edición original: New Pathways in Science, s. l., (conferencias Messenger leídas en la Universidad de Cornell, en Abril y Mayo de 1934).

Ellis, Stephen, 1991, «Nature and origins of virtual environments: A bibliographic essay», Computer Systems in Engineering, Vol.2, nº4: 321-347.

Escarpit, Robert., 1976, L'Information et la Communication, Théorie générale, Paris, Hachette.(ed. española: Teoría general de la información y la comunicación, Barcelona, Icaria, 1977).

Esebbag Benchimol, Carlos, y Martínez Valero, Julián, 1996, Internet en la práctica, Madrid, Ediciones Anaya Multimedia (edición especial Cinco Días).

Estrella, Julio, y López, Alejandro, 1995, Cibercultura. Realidad Virtual & Redes, Madrid, Anaya Multimedia.

Fenichel, Otto, 1945, The Psychoanalitic Theory of Neuroses, New York, Norton.

Fletcher, J. M., 1942, «Homeostasis as an Explanatory Principle in Psychology», Psychol. Rev.,49:80-87.

Fodor, J.A., 1983, The Modularity of Mind, Cambridge (Mass.), MIT Press.

Foerster, Heinz von, 1974, Cybernetics of Cybernetics, or the Control of Control and the Communication of Communication, Urbana (Illinois), Biological Computer Laboratory University of Illinois.

----, 1988, «Construyendo una realidad» en Paul Watzlawick (comp.) La Realidad inventada, Buenos Aires, Gedisa (Ed. orig.: Die erfundene Wircklichkeit, München, R. Piper GMBH & Co.KG, 1981): pp.38-56.

Forrestier, Louis, 1969, Charle Cross, l'homme et l'oeuvre, Paris, Minard.

Frazier, P.Jean, y Gaziano, Cecilie, 1979, Robert Erza Park's Theory of News, Public Opinion and Social Control, Journalism Monographs, South Caroline University.

Fredericq, L., 1885, Arch. de Zoöl. Exper. et Gén., III.

Freeman, G.L., 1948, The Energetics of Human Behavior, Ithaca, Cornell Univ. Press.

Freud, Sigmund, 1974, Más allá del Principio del Placer en «Obras Completas», Tomo VII, Madrid, Editorial Biblioteca Nueva: pp. 2507-2541.(Originalmente publicada en 1920).

García de Diego Martínez, Antonio, 1988, Prensa y Tecnología, Madrid, Alhambra Universidad.

Gelb, Ignace J., 1976, Historia de la escritura, Madrid, Alianza. (Ed. Original: A study of Writing, Chicago, The University of Chicago Press, 1952).

Genette, Gérard, 1989, Palimpsestos. La Literatura en segundo grado, Madrid, Taurus.

Gibson, William, 1984, Neuromancer, New York, Ace Books (edic. esp.: Neuromante, Barcelona, Minotauro, 1989).

----, 1987, Count Zero, New York, Ace Books.

Goffman, Erving, 1982, «Compromiso» en La nueva comunicación, Ives Winkin (comp.), Barcelona, Kairós: pp. 287-298 (edición orig.: «Involvement», 3er capítulo de Behavior in Public Places: Notes on the Social Organization of Gatherings, New York, The Free Press, 1963: 33-42).

Goody, Jack, 1990, La lógica de la escritura y la organización de la sociedad, Madrid, Alianza Editorial. (Título original: The Logic of Writing the Organization of Society)

Greenbaum, P., 1992, «The lawnmower man», Film and Video, Vol.9, nº3 (Marzo): 58-62.

Grey Walter, W., 1953, The Living Brain, London, Duckworth.

Grolier, Éric de, 1980, Organización de los sistemas de información de los poderes públicos, París, UNESCO (impreso por PUF).

Gubern, Román, 1989, La imagen pornográfica y otras perversiones ópticas, Madrid, Akal.

Hall, A.D. y Fagen R.E., 1956, «Definition of System», General System Year Book,1: 18-28.

Harris, Marvin, 1987, Caníbales y Reyes. Los orígenes de las culturas, Madrid, Alianza. (Edición Original: Cannibals and Kings. The Origins of Cultures, Random House, Inc., 1977)

----, 1991, Introducción a la Antropología, Madrid, Alianza. (Edición Original: Culture, People, Nature, An Introduction to General Antropology, 5th ed., Harper & Row Publishers Inc., New York, 1991).

Hauser, Arnold, 1951, The Social History of Art, Londres, Routledge & Kegan Paul. (Título en cast.: Historia social de la Literatura y el Arte, Barcelona, Editorial Labor).

Hendricks, Ives, 1934, Facts and Theories of Psychoanalysis, New York, Knopf.

Holzmann, Gerard J. y Pehrson, Byörn, 1994, «Las primeras redes de datos», Investigación y Ciencia, Marzo 1994, nº 210: 66-73.

----, 1995, The Early History of Data Networks, Los Alamitos (California), IEEE Computer Society Press.

Homans, G.C., 1950, The Human Group, New York, Harcourt, Brace.

Hull, Clark L., 1943, Principles of Behavior, New York, Appleton-Century.

Hymes, Dell, 1974, Foundations in Sociolinguistics. An Antropological Approach, Philadelphia, University of Pennsylvania Press.

Jackson, Don, 1965, «The Study of the Family», en Family Process, 4: 1-20.

Jacob, François, 1970, La logique du vivant, Paris, Gallimard (ed. española: La lógica de lo viviente, Barcelona, Laia, 1977).

James, William, 1909, A Pluralistic Universe, New York, Longman. Existe una edición moderna, una edición crítica, a cargo de F.H. Burckhardt, F. Bowers e I.K. Skrupskelis (eds.), Cambridge (Mass.), Harvard University Press, 1977.

Katz, Elihu, 1983, «The Return of the Humanities and Sociology», Journal of Communication, Vol.33, 3: 51-52.

----, Gurevitch, Michael, Haas, Hadassah, 1973, «On the Use of the Mass Media for Importants Things» en American Sociological Review, vol.38 (April):164-181.

Kelly, Kevin, 1995, «No diga Internet, diga Web», Actualidad Económica, 18-12-95: 88-89.

Kielwasser, Alfred P., Wolf, Michelle A., Meyer, Timothy P., 1989, «Toward a Phenomenological-Longitudinal Model of Media Gratification Processes», comunicación presentada en la Conference on Culture and Communication, Philadelphia (PA), Octubre 1989 (disponible a través del Educational Resources Information Center, ERIC, del U.S. Department of Education).

Kircher, Athanasius, 1646, Ars Magna Lucis et Umbrae, Romae Sumptibus Hermannis, Scheres, in-fº.

----, 1671, Ars Magna Lucis et Umbrae in X libros digesta, Admirandae Lucis et Umbrae in Mundo, atque adeo universa natura, vires effectusque uti nova, ita varia novorum reconditiorumqua speciminum exhibitionis, ad varia mortalium usus, panduntur. Editio altera priori multo uctior, Amstelodami, in-fº.

Klapp, Orrin E., 1986, Overload and Boredom. Essays on the Quality of Life in the Information Society, New York, Greenwood Press.

Klein, G.S., 1951, «The Personal World Through Perception», en Perception: An Approach to Personality, R.B. Blake y G.V. Ramsey (eds.), New York, Ronald Press: pp.328-355.

Koestler, Arthur, 1968, Le cheval dans la locomotive, Paris, Calmann-Lévy (edición orig.: The Ghost in the Machine, London, Hutchinson, 1967).

Kristeva, Julia, 1969, Sèméiôtikè, Paris, Seuil.

Krueger, Myron, 1991, Artificial Reality II (segunda edición), Reading (MA.), Addison-Wesley.

Kubie, L.S., 1948, «Instincts and Homeostasis», Psycosom. Med., nº10, pp.15-30.

La noche de Varennes (La nuit de Varennes), Italia-Francia, Dir.: Ettore Scola, Interp.: Marcello Mastroianni, Hanna Schygulla, Harvey Keitel, 115 minutos, color.

Ladrière, Jean, 1973, «Système», en Encyclopaedia Universalis, París, volumen 15, página 686.

Landow, George P., 1995, Hipertexto. La convergencia de la teoría crítica contemporánea y la tecnología, Barcelona, Paidós (ed. orig.: Hypertext. The Convergence of Contemporary Critical Theory and Technology, Baltimore, Londres, The John Hopkins University Press, 1992).

Lanier, Jaron y Biocca, Frank, 1992, «An Insider's View of the Future of Virtual Reality», Journal of Communication, Vol. 42, nº4: 150-172.

Lanier, Jaron, 1993, «Prefacio. Mito y Realidad» en Aukstakalnis y Blatner El espejismo del silicio, Barcelona, Página Uno S.L.: vii-viii.

Latil, Pierre de, 1953, La Pensée artificielle. Introduction à la cybernetique, París, Gallimard.

Lenin, Vladimir Il'ich, 1975, Materialismo y Empiriocriticismo. Notas críticas sobre una filosofía reaccionaria, (introducción de Manuel Sacristán), Barcelona, Grijalbo.

Lennard, Henry L. y Berstein, Arnold (con), Hendin, Helen C. y Palmore, Erdman B., 1960, The Anatomy of Psychoterapy, New York, Columbia University Press.

Leonardo da Vinci [1452-1519], 1993, Cuadernos de notas, Madrid, M.E. Editores S.L. (Antología de los Cuadernos manuscritos de Leonardo da Vinci).

Lera, Emilio, 1989, «La consolidación de las telecomunicaciones» en Timoteo Álvarez (et al.) Historia de los Medios de Comunicación en España, Barcelona, Ariel: pp. 363-382.

Locke, John [1632-1704], 1948, Second Treatise of Civil Government, and Letter on Toleration, editado por J.W.Gough, Oxford, (la Carta sobre la tolerancia ha sido publicada por Tecnos; el Segundo Tratado por Alianza).

Lupasco, S., 1962, L'Énergie et la Matière vivante. Antagonisme constructeur et logique de l'hétérogène, Paris, Julliard.

Mac Dermott, Ray, 1984, «Entrevista con Ray Birdwhistell», en La nueva comunicación, Ives Winkin (comp.), Barcelona, Kairós: pp. 311-321 (edición orig.: «Profile: Ray L. Birdwhistell», The Kinesics Report, vol. 2, nº 3, primavera 1980, pp. 1-16).

Mac Lean, P.D., 1976, «The Imitative-Creative Interplay of our Three Mentalities» en Harris, H., (ed.), Astride the Two Cultures, New York, Random House.

MacFadden, Tim, 1993, «Notas sobre la estructura del ciberespacio y el modelo de actores balísticos» en Ciberespacio. Los primeros pasos (M. Benedikt ed.), México, CONACYT (Consejo Nacional de Ciencia y Tecnología) y Equipo Sirius Mexicana S.A.: pp. 303-327.

Mach, Ernst, 1919, The Science of Mechanics, La salle (Illinois), The Open Court Publishing Company.

Maruyana, M., 1963, «The Second-Cybernetics: Deviation-Amplifying Mutual Casual Processes», American Scientist, nº 51: pp. 164-179 y 250-256.

Masuda, Yoneji, 1981, The Information Society as Post-industrial Society, Washington D.C., World Future Society. (Edic. en español: Sociedad Post-Industrial, Sociedad Informatizada, Madrid, Fundesco-Tecnos, 1984).

Maturana, Humberto, y Varela, Francisco, 1972, Autopoietic Systems, Santiago de Chile (multicop.), Facultad de Ciencias, Universidad de Santiago. Posiblemente el mismo texto, o teniendo a éste como base, ha sido publicado por los mismos autores con el nombre de Autopoiesis and Cognition, Boston, D. Reidel, Boston Stud. Phil. Sci., vol.42, 1980.

Maze, J.R., 1953, «On some Corruption of the Doctrine of Homeostasis», Psychol. Rev., nº 60, pp. 405-412.

McLuhan, Marshall, 1969a, Contra-explosión, Buenos Aires, Paidós. (Edición Original: Counter blast, New York, Harcourt, Brace & World, 1969).

----, 1969b, La comprensión de los medios como las extensiones del hombre, México D.F., Editorial Diana (ed. original: Understanding Media: The Extensions of Man, McGraw-Hill Book Co., 1964).

----, 1993, La Galaxia Gutenberg, Génesis del “Homo typographicus”, Barcelona, Círculo de Lectores. (Edición Original: The Gutenberg Galaxy, Toronto, University of Toronto Press, 1962).

Meltzer, Bernard M., Petras, John W., y Reynolds, Larry T., 1975, Symbolic Interactionism, Genesis, Varieties and Criticism, Londres, Routledge and Kegan Paul.

Merton, Robert K., 1984, Ciencia, Tecnología y Sociedad en la Inglaterra del siglo XVII, Madrid, Alianza. (Edición Original: Science, Technology and Society in Seventeenth-Century England, 1970).

Miller, Mark S., y Drexler, K. Eric, 1988, «Markets and Computation: Agoric Open Systems», en Huberman B.A. (ed.) The Ecology of Computation, Amsterdam, Elsevier Science Publishing.

Minsky, Marvin, 1980, «Telepresence», Omni, Junio: 45-51.

Moles, Abraham, 1967, Sociodynamique de la culture, París y La Haya, Mouton.

----, 1975, La comunicación y los mass media, Bilbao, Ediciones Mensajero.

Molteni, Alfred, 1884, Emploi des projections lumineuses dans l'enseignement primaire. Guide pratique spécialement destiné aux instituteurs, Paris, (A. Molteni ed.).

Monod, Jacques, 1970, Le Hasard et la Nécessité, Paris, Éditions du Seuil (ed. esp.: El hazar y la necesidad, Barcelona, Tusquets).

Moragas Spà, Miquel de, 1985, Sociología de la comunicación de masas. II Estructura, funciones y efectos, Barcelona, Gustavo Gili.

----, 1990, Teorías de la Comunicación. Investigación sobre medios en América y Europa (primera edición, 1981), Barcelona, Gustavo Gili.

Morin, Edgar, 1975, L'esprit du Temps II, Paris, Grasset.

----, 1986, El Método I. La naturaleza de la Naturaleza, Madrid, Cátedra (segunda edición en castellano), (edición original: La Méthode I. La nature de la Nature, Paris, Éditions du Seuil, 1977).

----, 1988, El Método III. El conocimiento del conocimiento, Madrid, Cátedra (ed. orig.: La Méthode 3. La connaissance de la conaissance, Paris, Éditions du Seuil, 1986).

----, 1992, El Método IV. Las Ideas, Madrid, Cátedra (edición original: La Méthode 4. Les idées. Leur habitat, leur vie, leurs moeurs, leur organisation, Paris, Éditions du Seuil, 1991).

Morningstar, Chip, y Farmer, Randall, 1993, «Las lecciones de Lucasfilm's Habitat», en Ciberespacio. Los primeros pasos (M. Benedikt ed.), México, CONACYT (Consejo Nacional de Ciencia y Tecnología) y Equipo Sirius Mexicana S.A.: pp. 251-275.

Nelson, Theodor H., 1981, Literary Machines, Swarthmore Pa., publicación propia.

Neumann, John von y Morgensten O., 1947, Theory of Games and Economic Behavior, Princeton, Princeton University Press.

Nilan, Michael, 1992, «Cognitive Space: Using Virtual Reality for Large Information Resource Management Problems», Journal of Communication, Vol. 42, nº4: 115-135.

Novak, Marcos, 1993, «Arquitecturas líquidas en el espacio» en Ciberespacio. Los primeros pasos (M. Benedikt ed.), México, CONACYT (Consejo Nacional de Ciencia y Tecnología) y Equipo Sirius Mexicana S.A.: pp. 207-233.

Olivé Roig, Sebastián, 1990, Historia de la Telegrafía en España, Madrid, DGCT.

Orr, Douglass W., 1942, «Is There a Homeostatic Instinct, en Psychoanal. Quaterly, nº11, pp. 322-335.

Oxford Ilustrated Dictionary, 1962, edición a cargo de J. Coulson, C.T. Carr, Lucy Hutchinson y Dorothy Eagle, Oxford, Oxford at the Clarendon Press.

Palmer, M.B., 1983, Dès petites journeaux aux grandes agences (Naissance du journalisme moderne), 1863-1914, Paris, Aubier.

Paolucci, Antonio, 1970, Canaletto, Barcelona, Ediciones Toray S.A., versión española a cargo del Dr. J. Guerrero Lovillo. (Edición original: Canaletto, Firenze, Sadea Editore, s.f.).

Paz, Mª Antonia, 1989, «La Agencias: España en el flujo internacional», en Timoteo Alvarez (et al.), Historia de los medios de comunicación en España, Barcelona, Editorial Ariel: pp. 71-80.

Peirce, Charles Sanders, 1987, Obra Lógico-Semiótica, Madrid, Taurus.

Pelekis, V., 1975, Mélanges cybernetiques, Moscú, Mir (ed. original: Kibernetiketcheskaïa Smies, Moscú, Znamié, 1970).

Perriault, Jacques, 1971, Élements pour un dialogue avec l'informaticien, Paris, Mouton Editeur.

-----, 1981, Memoires de l'ombre et du son. Une archéologie de l'audiovisuel, Paris, Flammarion.

-----, 1991, Las máquinas de comunicar y su utilización lógica, Barcelona, Gedisa. (Edición original: La logique de l'usage, Paris, Flammarion, 1989)

Pflüger, E. F. W., 1877, Pflüger'Arch., XV.

Porta, John Baptista [1538-1615], 1957, Natural Magic, (Derek J. Price ed.), New York, Smithsonian Institute for Basic Books.

Posner, E., Archives in the Ancient World, Harvard, 1972.

Priban, Karl H., 1963, «Reinforcement Revisited: A Structural View», en M. Jones (ed.) Nebraska Symposium on Motivation, Lincoln, University of Nebraska Press, pp. 113-159.

Prigogine, Ilya, 1972, «La thermodynamique de la vie», La Recherche, Vol.3, nº24, Junio:547-562.

Puelles, Antonio Alonso, 1992, «Hacia una Estética de la Virtualidad», Revista del Foro de Filosofía / Filosofía Foroa, nº3: 5-10.

------, et al, 1992, «Breve Historia Tecnológica de la Realidad Virtual», Revista del Foro de Filosofía / Filosofía Foroa, nº3: 48-49.

Read, Olives y Welch, Walker L., 1959, From Tin Foil to Stereo. Evolution of the Phonograph, New York, Howard W. Sams.

Real Academia Española, 1992, Diccionario de la Lengua Española, 21ª edición, Madrid, Espasa Calpe.

Reardon, K.K., 1983, La persuasión en la comunicación. Teoría y Contexto, Buenos Aires, Paidós Comunicación.

Reinhardt, Andrew, 1994, «Building the Data Highway», Byte, Vol.19, nº3, Marzo: 46-74.

Rheingold, Howard, 1991, Virtual Reality, New York, Summit Books.

Richet, C., 1900, Dictionnaire de Physiologie, IV, Paris.

Richter, C.P., 1927, «Animal Behavior and Internal Drives», Quart. Rev. Biol., 2:307-343.

Rifaterre, Michael, 1979, «La sylepse intertextuelle», Poétique 40, Noviembre.

-----, 1980, «La trace de l'intertexte», La Pensée, Octubre.

Rodrigo Alsina, Miguel, 1989, Los Modelos de la Comunicación, Barcelona, Paidós.

Rodríguez Delgado, J.M., 1983, The Neurobiological Bases of Spiritual Activities, comunicación del coloquio de Fez (Conferencia Internacional sobre la unidad de la ciencia).

Rosenblueth, Arturo/ Wiener, Norbert/ Bigelow, Julian, 1943, «Behavior, Purpose and Teleology», Philosophy of Science, vol.10, nº1: 18-24.

Rosnay, Joël de, 1975, Le Macroscope. Vers une vision globale, Paris, Éd. du Seuil (edición española: El Macroscopio. Hacia una visión global, Madrid, Editorial AC, 1977).

Roubine, Élie, 1970, Introduction à la théorie de la communication, (tomo III), Paris, Masson.

Sadoul, Georges, 1972, Historia del Cine Mundial, desde los orígenes hasta nuestros días, México, Siglo XXI. (Ed. Orig.: Histoire du cinéma mondial - dès les origines à nos jours, París, Flammarion, 1949 (primera edición).

Sáiz, Mª Dolores, 1983, Historia del Periodismo en España. I.Los Orígenes. El siglo XVIII, Madrid, Alianza.

Sánchez Urdiain, Mª Socorro y Escario Bueno, Ascensión, 1992, «Hacia la consolidación internacional de las telecomunicaciones», Telecomunicaciones 1992/Tendencias, Fundesco: pp.15-33.

Saperas, Enric, 1987, Los efectos cognitivos de la comunicación de masas, Barcelona, Ariel.

Shaeffer, Pierre, 1971-1972, Machines à communiquer,(tomo I Genèse des simulacres; tomo II Pouvoir et communication), Paris, Le Seuil.

Shannon, Claude, y Weaver, Warren, 1949, The Mathematical Theory of Communications, Urbana-champaign, University of Illinois Press (edición española: Teoría Matemática de la Comunicación, Madrid, Forja, 1981).

Scheflen, Albert E., 1984, «Sistemas de la comunicación humana», en La nueva comunicación, Ives Winkin (comp.), Barcelona, Kairós, pp. 151-163. (título original: «Systems in Human Communication», ponencia para el Congreso de la American Association for the Advancement of Science, Society for General Systems Research, University of California, 29 de Diciembre de 1965).

Schlesinger, Philip, 1990, «Identidad europea y cambios en la comunicación; De la Política a la cultura y los medios», Telos, Cuadernos de Comunicación, Tecnología y Sociedad, nº23: 105-116.

Schuhl, Pierre Maxime, 1947, La Fabulation platoniciènne, Paris, P.U.F.

Segura, Jean, 1994, «La panoplia de lo Virtual», Mundo Científico, nº148, Vol. 14: 613-617.

Shapiro, Michael, y McDonnald, Daniel, 1992, «I'm Not a Real Doctor, but I Play One in Virtual Reality: Implications of Virtual Reality for Judgments about Reality», Journal of Communication, Vol. 42, nº4: 94-114.

Solokov, Eugene N., 1960, The Central Nervous System and Behavior, Transactions of the third conference, M.A.B. Brazier (ed.), Josiah Macy, Jr., Foundation.

Soria Sáiz, Carlos, 1989, La crisis de identidad del periodista, Barcelona, Mitre.

Sorokin, P.A., 1937-41, Social and Cultural Dynamics, vol. 4 (capítulos 13 y 14); New York, American Book Co..

Stagner, Ross, 1951, «Homeostasis as a Unifying Concept in Personality Theory», Psychol. Rev., nº58:5-17.

Sterling, Bruce, 1988, «Preface» en Sterling (ed.) Mirrowshades, New York, Ace Books: pp. ix-xvi, (primera edición: Mirrowshades: The Cyberpunk Antology, New York, Arbor House, 1986).

Steuer, Jonathan, 1992, «Defining Virtual Reality: Dimensions Determining Telepresence», Journal of Communication, Vol. 42, nº4: 73-93. Una versión ligeramente distinta de este mismo artículo fue publicada por SRCT (Social Responses to Communication Technologies) una publicación del Departamento de Comunicación de la Universidad de Stanford, nº104, 15 de Octubre de 1993: 3-19.

Sutherland, Ivan, 1965, «The Ultimate Display», Proceedings of the International Federation of Information Congress, 2: 506-508.

Taft, Robert, 1938, Photography and the American Society, Nueva York, MacMillan.

Teilhard de Chardin, Pierre, 1959, Phenomenon Man, New York, Harper. (Ed. Or.: Le phénomène humain, Éditions du Seuil, Paris, 1955).

Thom, René, 1974, Modèles mathématiques de la morphogénèse: recueil textes sur la théorie des catastrophes et ses applications, París, Union Générale d'Editions.

Timoteo Álvarez, Jesús (et al.), 1989, Historia de los Medios de Comunicación en España, Barcelona, Ariel.

Toch, Hans H. y Hastorf, Albert H., 1955, «Homeostasis in Psychology», en Psychiatry, 18:81-91.

Tollander, Carl, 1993, «Maquinarias conjuntas para ciberespacios de participación múltiple» en Ciberespacio. Los primeros pasos (M. Benedikt ed.), México, CONACYT (Consejo Nacional de Ciencia y Tecnología) y Equipo Sirius Mexicana S.A.: pp. 277-302.

Ullmann, Stephen, 1962, Semantics. An Introduction to the Science of Meaning, Oxford, Basil Blackwell & Mott Ltd. (edición española: Semántica. Introducción a la ciencia del significado, Madrid, Aguilar, 1965).

Urabayen, Miguel, 1988, Estructura de la información periodística, Barcelona, Mitre.

Uscatescu, Jorge, 1978, Filosofía, Zaragoza, Edelvives.

Varela, Francisco, 1976, «The Arithmetic of closure», ponencia para el 3er European Meeting on Cybernetics and System Research, Viena, 24 de Abril.

-----, 1988, «El círculo creativo. Esbozo históriconatural de la reflexividad» en Paul Watzlawick (comp.) La Realidad inventada, Buenos Aires, Gedisa (Ed. orig.: Die erfundene Wircklichkeit, München, R. Piper GMBH & Co.KG, 1981): pp.251-263.

Vázquez Montalbán, Manuel, 1985, Historia y Comunicación Social, Madrid, Alianza.

Verón, Eliseo, 1985, «L'analyse du 'Contrat du Lecture': une nouvelle méthode pour les études de positionnement des supports presse», Les médias, expériences, recherches actuelles, applications, Paris, Julio 1985, IREP: 203-230.

Watson, W., 1957, Curso de Física, (tercera edición con un apéndice acerca de la Teoría de la Relatividad a cargo de Herbert Moss), Barcelona, Labor. (edición original: Text-Book of Physics, London, Longmans Green & Co. Ltd., s. f.).

Watts, Alan W., 1971, El camino del Zen, Barcelona, Editorial Sudamericana S.A. (distribuido por EDHASA). (Título original: The way of Zen).

Watzlawick, Paul / Beavin, Janet / Jackson, Don, 1986, Teoría de la comunicación humana, Barcelona, Herder, versión española a cargo del Dr. Carlos E. Sluzki (edición original: Pragmatics of Human Communication, W.W. Norton & Company Inc., 1967).

Weaver, Warren, 1981, «Contribuciones a la Teoría Matemática de la Comunicación», en Shannon y Weaver Teoría Matemática de la Comunicación, Madrid, Forja (edición original: referencia Shannon & Weaver, 1949).

Webster's Third New International Dictionary of the English Language Unabridged, 1976, Chicago, G.& C. Merriam Co., Barcelona, Gustavo Gili S.A.

Whitehead, Alfred North, 1926, Science and the Modern World, Cambridge (Mass.), University Press.

Wiener, Norbert, 1948, Cybernetics: Or Control and Communications in the Animal and the Machine, Cambridge (Mass.), M.I.T. Press.

----- 1949, «Time, Communication, and the Nervous System», en R.W. Miner (ed.) Teleological Mechanisms, Annals of the New York Academy of Sciences, vol. 50: 197-219.

Wilder, Carol, 1984, «Entrevista con Paul Watzlawick», en La nueva comunicación, Ives Winkin (comp.), Barcelona, Kairós, pp. 337-353 (edición orig.: «From the Interactual View - A Conversation with Paul Watzlawick», Journal of Communication, vol. 28, nº 1, otoño 1978, pp. 35-45).

Winkin, Yves (comp.), 1984, La nueva comunicación, Barcelona, Kairós (edición original: La nouvelle communication, Éditions du Seuil, 1981).

Wittgenstein, Ludwig, 1967, Investigaciones filosóficas, México, U.N.A.M.

----- 1968, Los cuadernos azul y marrón, Madrid, Tecnos.

Wolff, Jennifer, 1994, Columbia Journalism Review, Otoño.

Wolff, Mauro, 1987, La investigación de la comunicación de masas, Barcelona, Paidós.

Zahn, Johannes, 1702, Oculus artificialis teledioptricum sive telecospium, Nuremberg, Johan Christopher Lochner, (BNF).

Zingarelli, Nicola, 1986, Il nuovo Zingarelli, Vocabolario della lingua italiana, 11ª edición, Bologna, Zanichelli.



 

NOTAS

[1] Los subrayados son míos.

[2] Expresión tomada de Hymes (1974) quien al defender el lenguaje como una actividad social y no como un producto cognitivo puro, acuña el concepto de competencia comunicativa para expresar que la realización del habla se produce debido a unas reglas sociales y culturales sin las cuales el 'bebé chomskiano' moriría «pues sería incapaz de utilizar las reglas generativas transformacionales en el momento adecuado, el lugar oportuno, y el interlocutor correcto» (Winkin, 1984, 87-88).

[3] Grey Walter la llamó machina sopora por su semejanza con un perro o un gato que duerme cerca del fuego: no se mueve ni se altera salvo cuando algo le molesta, y vuelve a dormitar en el momento en que ha eliminado el elemento perturbador. Frente a ella, Grey Walter, opuso la machina labyrinthea de naturaleza más compleja.

[4] Sobre el uso del lenguaje, ver Wittgenstein, Investigaciones filosóficas y el Cuaderno Marrón. Para Wittgenstein el significado de una palabra es su uso; es decir, se constituye en función de una realidad experienciable.

[5] La cursiva de esta palabra es mía.

[6] Porque contribuye a disminuir nuestra relación de incertidumbre respecto del entorno.

[7] Mencionado por Scheflen como una comunicación personal de Ray Birdwhistell realizada en 1965.

[8] En el orden mencionado y, sorprendentemente, con el nombre propio de Rosenblueth en castellano.

[9] Ni de comunicación. Véase más adelante en el siguiente capítulo.

[10] Wiener en un artículo posterior a propósito de la comunicación cita a Lao Tsé cuando éste dice «Porque ser y no ser se generan mutuamente» (Wiener, 1949, 205).

[11] Quizás sea pertinente hacer mención que durante esa época, en la Universidad Central, en Madrid, existía una Facultad de Ciencias Físico-Químicas, que aún siguió coexistiendo en los años treinta con la novísima Facultad de Químicas. La Licenciatura en Físico-Químicas perduró hasta mediados de los años cuarenta, siendo el famoso "hombre del tiempo" Mariano Medina uno de sus más conocidos Licenciados (Diario 16, 29-11-1994).

[12] Hasta el punto que Lupasco se permite afirmar que «No existen realmente más que sistemas de sistemas, no siendo el más simple sistema más que una abstracción didáctica» (Lupasco, 1962, 186).

[13] La argumentación en este sentido de Watson, (1957, pg. 330) es la siguiente: «si un cuerpo a temperatura T1 pierde una cantidad de calor dQ1, su entropía disminuye en dQ1/T1; si este calor se comunica a los cuerpos circundantes, a temperatura más baja T2 por conducción, etc., la entropía de estos cuerpos aumenta en dQ1/T2. Pero como T1 es mayor que T2, o de lo contrario no hay conducción de calor, resulta dQ1/T1 menor que dQ1/T2, o sea que el incremento de la entropía del cuerpo más frío es mayor que la pérdida de entropía del cuerpo más caliente y, por tanto, la entropía de todo el sistema (que comprende al cuerpo caliente y al cuerpo frío) ha aumentado. Así, el efecto de la conducción, convección y radiación es el igualar la temperatura de las diferentes partes del universo y también aumentar la entropía del mismo». (He cambiado el símbolo del calor, que en Watson era H, a Q, con el fin de mantener una coherencia con lo anteriormente expuesto).

[14] En relación a la observación de nuevas partículas subatómicas y en especial a la creación y destrucción de 'mesones' ver Capra, 1992, pp. 235-253. Sobre el determinismo (o mejor dicho el indeterminismo) ver Eddington, 1945, pp. 78-98.

[15] La American Telephone and Telegraph Company que era su nombre oficial.

[16] La cursiva es mía.

[17] No es preciso recordar que una moneda es por su naturaleza 'una organización negentrópica', si bien puede degenerar hacia la máxima entropía en situaciones de inflación galopante.

[18] El subrayado es mío.

[19] A diferencia de Research (investigación, investigar), Search (búsqueda, buscar) connota una mayor modestia, más activadora de problemas que de soluciones.

[20] También Le signifié (lo significado) saussuriano. Acerca de una discusión sobre meaning ver Ullmann, 1962, capítulo 3, especialmente los apartados I.1, y I.2, donde respectivamente se critica el valor referencial (en su formulación clásica) y se apoya el wittgensteiniano valor relacional del concepto. Sobre el sentido [meaning] en el espacio véanse las explicaciones de Klapp dadas sobre la figura 3.

[21] En las obras de teatro la aparición de un dios en escena (gracias a una maquinaria humana) permitía concluir, inverosímil pero felizmente, una tragedia.

[22] Sobre el valor de uso de los signos lingüísticos, véase la nota 4.

[23] El primero, Académico de la Lengua, Gobernador Civil y, en mi opinión, cursi poeta elogioso de encuentros fortuitos en viajes por ferrocarril (El tren expreso). El segundo, impulsor del Futurismo y creador de su Manifiesto, publicado el 20 de Febrero de 1909 en Le Figaro, en donde dice: «Declaramos que el esplendor del mundo se ha enriquecido con una nueva belleza: la belleza de la velocidad [...] Un automóvil de carreras, con su cofre ornado de tubos parecidos a serpientes explosivas, es más bello que la Victoria de Samotracia».

[24] Especialmente por Guy Debord en La Société du spectacle, 1967. Los situacionistas constituyeron una variante anarquizante del marxismo, de gran importancia en la elaboración de la caldera revolucionaria del 68.

[25] Sobre la homeostasis en el arte primitivo, véase la sección "La cámara obscura" del capítulo VI.

[26] Citado por Perriault en Memoires de l'ombre et du son, 1981, p. 34. El texto de Adrian Baillet fue publicado en 1691; existe una edición reciente de 1992 (véase en las Referencias Bibliográficas).

[27] De hecho, una publicación española de 1849, La Linterna Mágica, tenía por subtítulo el de 'Periódico Risueño', (Díaz-Plaja, 1969, 238).

[28] como resultado metódico de la acción humana: las veredas abiertas en los parques en las zonas donde está prohibido pisar el césped son un buen ejemplo.

[29] Me permito usar un término absolutamente moderno como es el de geoestrategia (nacido en nuestro siglo durante la guerra fría) puesto que el mismo remite a un modelo conceptual de pensamiento presente ya en el siglo XVIII, (con guerras que abarcaron varios continentes) si bien no se acuñara, entonces como ahora, una única palabra para expresarlo. Sobre el valor operativo de los conceptos véase más arriba en las secciones "Cannon y la homeostásis" y "Extrapolaciones" de los capítulos I y V respectivamente.

[30] El concepto de gatekeepers fue introducido en el campo de la sociología por Kurt Lewin en 1947; con posterioridad ha sido aplicado profusamente al campo de la teoría de la comunicación de masas (Saperas, 1987, 60 y ss.), de tal manera que el término no suele ser traducido al español. Eric de Grolier señala que su traducción literal debería ser la de «guardianes» (de la información), y un poco más elegantemente la de «informadores privilegiados» (1980, 44).

[31] contribuyendo «a disminuir nuestra relación de incertidumbre respecto del entorno» como ya se mencionó en la nota 2 del Capítulo II, acerca del feedback negativo en Escarpit.

[32] «En la raíz de toda escritura se encuentra la pintura» (Gelb, 1976, 51).

[33] «...hacen falta dos miembros a la potencia n de la especie homo sapiens para producir un sólo ser humano» (Mac Dermott, 1984, 313).

[34] La cursiva es mía.

[35] Como ejemplo, en las páginas económicas del diario El País se titulaba de esta manera una entrevista al Vicepresidente de Visa Internacional: «La seguridad es el reto de las transacciones cibernéticas»(El País, 19/11/95, 4).

[36] Kevin Kelly es el Editor de Wired, revista que junto con Mondo 2000 es pionera en el tratamiento específico de los problemas surgidos con la cibercultura.

[37] Los aforismos de Lao Tse reflejados en el Tao Te King no siempre están traducidos de la misma manera debido a las especiales características de la escritura china. Así, en el capítulo 2, donde se habla de la contradicción, en unos casos se lee «Porque ser y no ser se generan mutuamente» (Ediciones Sirio S.A., Málaga, 1992), en otros «Porque ser y no ser crecen juntos» (Edicomunicación S.A., Barcelona, 1988). Wiener lo utiliza para 'explicar' porqué un mensaje estable es una contradicción en sí mismo (Wiener, 1949, 205).

[38] Estos términos, freeware y shareware, son derivaciones de los neologismos hardware y software acuñados en inglés para designar respectivamente la maquinaria -el computador propiamente dicho- y los programas. La raíz común ware significa 'arcilla cocida' (en una forma determinada, una vasija, un cuenco, un vaso, etc), y generalmente va precedida del lugar donde se ha horneado, Staffordshire ware. Software (programa) sería, por lo tanto, 'arcilla cocida blanda' (soft), esto es modificable, remoldeable; y hardware (computador) sería 'arcilla cocida dura' (hard), (teóricamente) no modificable, no remoldeable en lo sustancial. Los términos freeware y shareware hacen referencia a la libre disposición de un determinado software (programa) y a la voluntad de compartir éste.

[39] Las siglas corresponden a protocolos de transmisión. Los primeros, TCP/IP (Transmission Control Protocol / Internet Protocol), son protocolos de transmisión que, evidentemente, son utilizados por Internet (Carballar, 1995, 47-48). El segundo, ATM (Asynchronous Transfer Mode) es un protocolo de transmisión para banda ancha que combina las ventajas técnicas precedentes, pudiendo solaparse a aquellos, y que ofrece más rapidez y flexibilidad en la transmisión de datos; ya en uso en Europa (Reinhardt, 1994, 48 y 58).

[40] Sobre los cimientos teóricos del Estado en la modernidad (especialmente en el mundo anglosajón) véase el segundo Tratado sobre el Gobierno Civil de John Locke.

[41] En relación a las pasiones que provocan las formas puedo decir que durante un Palio de Siena, tras el caballo de una Contrada en tumulto había una muchacha sudorosa. Su pelo mojado, sus mejillas absolutamente enrojecidas por la excitación me recordaban a alguien que acabara de hacer el amor.

Por otra parte, la Arquitectura de la luz (Teichmüller; Weigel, 1973,181) -al margen de consideraciones ideológicas extremadamente negativas- ha hecho escuela en Alemania con la construcción de, entre otros edificios, un Parlamento abierto al transcurrir del sol.

[42] El subrayado es mío, la cursiva de Novak.

[43] Creo interesante hacer notar que el nombre completo de uno de los autores referidos es Chip Morningstar, 'Chip Estrella de la Mañana', evidentemente un seudónimo típico de las comunidades agrarias hippies surgidas durante los años 60-70 y que tuvieron continuidad en la primera BBS pública conocida, la CommuniTree de San Francisco, traducible aproximadamente como 'Árbol de la Comunidad' (Benedikt, 1993).

[44] «Ser y no ser surgen recíprocamente». El taoísmo es fundamental en la configuración de la Escuela dhyana o Zen (Watts, 1971, 102 y ss.).

[45] Hasta el punto de ser utilizada como vehículo de propaganda publicitaria por la industria informática, trivializando de esta manera sus contenidos.

La figura sentada en una posición yoga de un occidental meditando, y la pregunta ¿crees en la reencarnación de las máquinas?, acompañaron el lanzamiento publicitario de un entorno operativo a nivel mundial (visible en cualquier medio, como por ejemplo en PC Actual, 1995, Julio-Agosto, nº66, pp. 20-21).

[46] Tao significa 'camino'. El concepto de continuo en bucle sin final podría ser una buena translación en estos tiempos; pero ya se sabe que 'el Tao que puede expresarse no es el verdadero Tao', o lo que es lo mismo conforme a la traducción de Duyvendak «el camino que puede considerarse verdaderamente como el Camino es diferente de un camino permanente» (Watts, 1971, 35).

[47] El subrayado es mío.

[48] Escarpit denomina a las máquinas humanas como M6 en virtud de una clasificación realizada antes de la aparición de los ordenadores personales, de las redes masivas, y, en definitiva, de la explosiva implosión massmediática del último cuarto de siglo, por lo que considero que dicha clasificación no está cerrada.

[49] El nombre del prototipo no es casual. Sword of Damocles era tan pesado que, aunque movido por la propia cabeza, debía colgar del techo, pudiendo producir la muerte del experimentador en un hipotético desplome (Biocca, 1992b, 37).

[50] Se ha sustituido la expresión 'basada en el computador' por mediada.

[51] pero real. El subrayado es mío.

[52] El término medio tiene un valor polisémico. Tanto vale para referirse al 'medio ambiente', como a un 'medio de comunicación'. Normalmente, a lo largo del texto, la palabra ha servido para referirse a un medio de comunicación específicamente diseñado como tal. En este último caso se usa para expresar cualquier constructo humano en su condición mediadora.

[53] «El término 'interaccionismo simbólico' es en cierto modo un barbarismo que acuñé con carácter informal en un artículo publicado en 'Hombre y Sociedad' (Emerson P. Schmidt, editor), New York: Prentice Hall, 1937).» (Blumer, 1982, 1).

[54] Durante los años veinte y treinta, el departamento de Sociología y Antropología de la Universidad de Chicago desarrolló un muy fructífera actividad gracias al impulso de William I. Thomas y Robert Erza Park. El trabajo de campo [fieldwork] como fundamento empírico y la interacción como fundamento teórico (interacción a todos los niveles, incluso de ideas y emociones) fueron las bases del trabajo de Park. (Véase la excelente monografía sobre Park, en Frazier y Gaziano, 1979).

[55] incluyendo el deseo de estar en ellas. Siguiendo a Goffman podemos decir que una social ocasion no produce por sí misma una plena implicación, un to be involved. Esta inclusión (del deseo), inevitable por otra parte, permite además subsumir la Teoría de Usos y Gratificaciones (Katz, Gurevitch, Haas, 1973), la cual ha sido fructíferamente aplicada por investigadores en USA a todo tipo de comunicación. Especialmente mencionable es la reflexión fenomenológica que sobre la misma hacen Kielwasser, Wolf y Meyer (1989).