Por
La escritura informática incrementa el corte que la imprenta introducía entre la escritura y la lectura, ya que rompe el principio de analogía (que la imprenta respetaba) para que la forma de las letras quede preservada de una copia a otra. Con la escritura informática el momento de la impresión se independiza de la captura del texto.
La relación entre el poder y la escritura podría ser tema para toda una tesis de investigación. Pero si me permiten la impertinencia de acotarme a la simplificación de dos o tres pinceladas, podríamos ubicar como denominador común, por un lado la posición de los intérpretes «autorizados», y por el otro, los mecanismos de control de la escritura o producción de textos.
En todo caso, ése fue el esquema clásico hasta que, en el contexto de la dominación del modo de producción capitalista, la invención de la imprenta y la correlativa masificación del mundo de los lectores generaron un «mercado» del libro, es decir, la constitución misma del libro como mercancía. El correlato más inmediato fue la degradación del valor de la «interpretación» del texto (lo que se pudiera leer en un libro dejó de ser tan importante como que se lo compre!!), y por lo tanto de las posiciones «autorizadas» de dicha interpretación. Paralelamente, el cambio de manos de la labor editorial de manos de la iglesia a manos editoriales capitalistas [2] desplazó los alcances de ese control, tal como podemos apreciarlo en cualquier gran librería, viendo cómo son las grandes editoriales las que deciden qué se lee y qué no se lee (me refiero a nivel masivo).
Con el desarrollo de la escritura informática, este dominio sobre los procesos de impresión se ha traslado al proceso de escritura mismo. La digitalización pone en manos de la propiedad privada ya no solo los objetos en los que se «contienen» los textos, sino los códigos mismos del cifrado de las cosas. Veamos cómo funciona esto.
La letra digital
La escritura informática incrementa el corte que la imprenta introducía entre la escritura y la lectura, ya que rompe el principio de analogía (que la imprenta respetaba) para que la forma de las letras quede preservada de una copia a otra. Con la escritura informática el momento de la impresión se independiza de la captura del texto. Aún más: lo que se ha escrito en una computadora puede, no solo ser impreso de múltiples maneras, sino incluso «leído» y/o «comunicado» por medio de la voz (por ejemplo, puedo escribir y enviar un mail que será «leído» por una computadora en el auricular del teléfono de línea del destinatario). Esta dimensión operativa de lo digital suele quedar oculta por la acción misma de los programadores, uno de cuyos objetivos es lograr que dicha operatoria sea «transparente» para el usuario. El ideal del «wysiwyg» (acrónimo de «what you see is what you get») buscaba crear la ilusión de una perfecta analogía entre la actividad de expresión y de compaginación, la ilusión de que «lo que vemos es lo que hacemos».
Pero nada mas lejos de lo que ocurre «realmente», ya que la escritura informática utiliza el formalismo, las propiedades de la letra, para prescindir definitivamente de la «forma» de las letras. Las letras de la escritura informática no están hechas para que las «lea» un hombre, sino una máquina. El cifrado informático no es visible al ojo humano ni responde al principio fonético, porque se inscribe en el flujo eléctrico. Un bit no cifra más que una conexión entre dos puntos de un circuito. «Al cifrar la operación misma de la escritura, la informática la vuelve automática y autónoma, la separa del escriptor» [3]. Todo lo que hacemos con una computadora es transliterado en un código eléctrico cuyo «alfabeto» se reduce a la pura y simple diferencia 0 – 1. De la escritura, solo conserva esta función de cifrado. Digitalizar implica transformar las operaciones de lectura y escritura en una operación de conteo. Para la informática, todo lo que puede contarse (en el sentido de la cuenta, y no del cuento) puede escribirse. La escritura informática ya no mantiene ninguna familiaridad con el universo de la comunicación humana, solo «simula» una legibilidad humana. Por eso mismo puede aplicarse a muchas mas cosas que solo textos. La escritura informática es capaz de simular cualquier «realidad», siempre y cuando la misma pueda ser cifrada.
Podemos verlo en un juego de semejanzas y diferencias con el uso de anteojos: así como los lentes constituyen una especie de «extensión» de la vista, la computadora parece postularse como una «extensión» de la capacidad de «leer y escribir». Pero las diferencias entre uno y otro no son menores. La óptica solo «amplifica» o «ajusta» una imagen para una «capacidad de ver» que sigue residiendo exclusivamente en el cifrado que realiza el ojo y la retina. En ese sentido, podríamos decir que la operación de los lentes es básicamente una operación de «traducción» [4]. La computadora, en cambio, introduce otro tipo de operación: la «transliteración»[5]. De hecho, una computadora no sirve para que dos personas puedan «comunicarse», es decir, para que una persona «lea» lo que otra «escribió». Una computadora solo sirve para «comunicarse» con… otra computadora!!! Y solo en la medida en que esta «comunicación» entre computadoras sea posible, entonces dos personas podrán llegar a «comunicarse» entre si. Que esto es así lo prueban las diarias complicaciones que nos generan los problemas de «formato», es decir, la babel de «lenguajes» informáticos. El ejemplo más clásico o antiguo es de las incompatibilidades entre usuarios de Mac y de PC. Pero estos «malentendidos» también los padecen usuarios de las mismas plataformas: ¿cuántas veces ocurre que recibimos de «alguien» un archivo con un texto, y no podemos leerlo porque no podemos «abrir» el archivo? ¿Que problemas encierra esta operación de «abrir el archivo»? Para poder «abrir» un archivo es necesario que algún programa de nuestra computadora sea capaz de «descifrarlo». Caso contrario, ese archivo nos resultará tan «incomprensible» (ilegible) como el mas arcaico de los jeroglíficos.
El «analfabetismo informático» incluye otra dimensión «analfabética» que ni el más generalizado acceso a las computadoras podría eliminar. El problema no pasa tanto por si cada uno tiene o no una computadora, sino por el alcance que la digitalización tenga en nuestro mundo, por cuantas cosas habrán devenido accesible solo por la vía de una computadora.
El llamado «analfabetismo informático» puede servirnos como ejemplo de los desafíos que nos plantea la digitalización. A diferencia del «analfabetismo» simple, donde la calificación remite a un «saber leer y escribir», en el «analfabetismo informático» esa calificación remitiría a un «saber manejar una computadora». Pero la cuestión no se reduce a la injusticia distributiva que testimonia la falta de acceso a las computadoras que padecen amplios sectores de la población. El «analfabetismo informático» incluye otra dimensión «analfabética» que ni el más generalizado acceso a las computadoras podría eliminar. El problema no pasa tanto por si cada uno tiene o no una computadora, sino por el alcance que la digitalización tenga en nuestro mundo, por cuantas cosas habrán devenido accesible solo por la vía de una computadora.
Pensemos, por ejemplo, en las bibliotecas digitales: el problema ya no se reduce a la conservación de un «objeto» que funcione como soporte de la imagen de un texto (como podría ser el caso del papel), sino que ahora también es necesaria la conservación de los dispositivos de «lectura», ya que los «soportes» digitales (CD, DVD, etc.) implican un cifrado de esa imagen del texto que se vuelve absolutamente inaccesible si no disponemos de la computadora y el software adecuado para su descifrado. De hecho, con cada cambio importante de formato se produce la pérdida sistemática de enormes cantidades de textos, registros sonoros, y todo tipo de documentos.
Las grandes bibliotecas digitales que quieren construir Google y Microsoft serían el paradigma de ese analfabetismo «invisible», ya que universalizarían la transliteración de los textos de la humanidad al código informático, subordinando el acceso a los mismos a la mediación radical de la informática y de las computadoras. A diferencia de los viejos textos griegos o latinos, atesorados y conservados en las bibliotecas clásicas, y que solo requerían de alguien que supiera «leer» esas letras dibujadas sobre el papel, en el futuro, no podremos acceder a ninguno de los registros digitales si no disponemos de la computadora y el software que pueda descifrar esos archivos y presentarnos la «imagen» que ellos encierran de las letras de un sistema alfabético (o de cualquier otro sistema de escritura sensible: notación musical, etc.), o presentarnos el sonido (voz, música, etc.) que en ellos fue codificado.
Bastará entonces una falla radical del sistema de energía eléctrica para reenviarnos a la barbarie y recordarnos que esa escritura está hecha con «letras» que solo pueden «leer» las computadoras [6].
Podríamos considerar también el destino de lo que antes solíamos llamar «originales» o «borradores» de un libro, esos papeles en los que el «autor» dejaba algunas marcas o anotaciones extras, que como tales, constituían un rastro del proceso de elaboración de ese texto. Ahora todo se escribe en computadoras y cada versión «final» de un texto borra las anteriores, justamente, porque lo que se «escribe», «realmente», no es el texto que vemos en la pantalla, sino el «archivo» que lo «contiene». Cada vez que apretamos el botón de «guardar», lo que ocurre no es algo tan simple como guardar un libro en la biblioteca sino una operación de transliteración automática al código eléctrico, es decir, un «guardado» en una «biblioteca» cifrada.
Es cierto que los «procesadores de texto» van perfeccionando sus funciones de simulación y, así como van automatizando operaciones como las de «guardar» (¿cuántas veces un corte de electricidad no habrá «evaporado» unos largos y trabajados párrafos de nuestra mejor redacción?) o la corrección ortográfica, ahora también nos permiten guardar diferentes «versiones» de un mismo archivo (con lo que podemos crear una «historia» del mismo), e incluso realizar comparaciones entre ellas. En ese sentido, la informática no se compadece de nostalgias: lo que sea que extrañemos de cierto proceso que haya sido transformado por la inclusión de computadoras en el mismo, no tenemos mas que pedírselo a la informática y ella sabrá simularlo. Pero es esta potencia misma de simulación, que tiene la escritura informática, la que plantea justamente la gravedad de sus alcances. Tarde o temprano, toda la «cultura» de la humanidad se «escribirá» en lenguaje informático.
Avances del cifrado informático: los implantes de chips
El propio cuerpo humano no parece ser ni un límite ni un obstáculo insalvable para el cifrado informático.
La película «Demolition man», con Sylvester Stallone y Sandra Bullock, nos presenta un ambiente futurista donde la relación sexual se realiza por intermedio de computadoras que cada partenaire conecta a su cerebro y (como celebraba Bullock y maldecía Stallone) «sin intercambio de fluidos». Esta fantasía de ciencia ficción ya está comenzando a realizarse. Los implantes de chip en el cuerpo son cada vez mas frecuentes. En USA un científico logró crear un ojo biónico que permite recuperar la visión. Esto significa un proceso de transliteración, es decir, de cifrado, que permite que «las imágenes capturadas por la cámara son traducidas por el microchip a impulsos eléctricos, que el cerebro puede interpretar como imágenes» [7] (subrayado mío). Subrayo ese «traducir» porque muestra aquí también el ideal del wysiwig, es decir, la búsqueda de una «transparencia» de la operación de conexión entre el chip y el cerebro.
El propio cuerpo humano no parece ser ni un límite ni un obstáculo insalvable para el cifrado informático. La película «Demolition man», con Sylvester Stallone y Sandra Bullock, nos presenta un ambiente futurista donde la relación sexual se realiza por intermedio de computadoras que cada partenaire conecta a su cerebro y (como celebraba Bullock y maldecía Stallone) «sin intercambio de fluidos». Esta fantasía de ciencia ficción ya está comenzando a realizarse. Los implantes de chip en el cuerpo son cada vez mas frecuentes.
Quizás sean más intuitivas las comparaciones en el caso de Matthew Nagle, un hombre inmovilizado desde el cuello hasta las extremidades inferiores, a quien le han implantado un chip en el cerebro, gracias al cual, puede mover el cursor del Mouse de la pantalla, o cambiar el canal o ajustar el volumen del televisor, etc. [8] Aquí se ve como la distancia entre aquello que nos permite «leer» y «escribir» en una pantalla de Word y el caso de ese paciente radica en que, con el Word, «todavía» tenemos que mover nuestros ojos y nuestros dedos para relacionarnos con una pantalla y un teclado, en tanto que para Nagle el chip mismo reemplaza a la pantalla y el teclado.
La «conexión» sexual en «Demolition man» no sería más que una extrapolación de este tipo de sustituciones.
En todo caso, en algo parecido parece pensar el científico inglés Kevin Warwick [9], quien, luego de varios experimentos sobre su propio cuerpo (entre otras cosas se implantó un chip en los nervios de su brazo, y por medio del mismo puede accionar, a distancia, un brazo mecánico), fantasea con la posibilidad de realizar implantes directamente en su cerebro y… en el de su esposa! para lograr una comunicación telepática. Warwick se ha hecho famoso también por las declaraciones de alto impacto mediático que suele hacer: » A todos los que queráis seguir siendo humanos, tengo que deciros una cosa: en el futuro, seréis una subespecie. Los humanos pueden y deben ser actualizados. Las máquinas son superiores porque tienen, al menos, cinco cualidades de las que carecemos: poseen una memoria casi ilimitada, una capacidad de cálculo extraordinaria, la posibilidad de comprender más de tres dimensiones o cinco sentidos -pueden captar ultrasonidos o emitir infrarrojos- y, finalmente, pueden comunicarse sin hablar. Si no reconocemos nuestra inferioridad y utilizamos nuestros conocimientos para mejorar, la inteligencia artificial terminará superando y aniquilando a la humana. El ser humano es sólo superior en comprender bromas o disfrutar de la música. Pero éstas son cosas que, francamente, sólo preocupan a los humanos» [10]. Como ven, es muy preciso en su distinción entre la operatoria de la inteligencia artificial y lo que serían los registros de la subjetividad: una oposición entre una «comunicación» asemántica y sin resto basada en un puro automatismo, y la clásica dimensión humana del malentendido.
La lógica del manual
El proyecto de la inteligencia artificial se funda en la idea que el pensamiento es el efecto de una escritura. La clave del asunto, en realidad, pasa por el pragmatismo, punto central del desarrollo de toda la informática. En efecto, aún cuando las conclusiones de Gödel [11] fuesen generalizables, nada impide formalizar pequeños trozos de realidad estructurados por la ciencia, y desarrollar una máquina que procese automáticamente esa escritura formal, y luego ver hasta donde puede llegar. El desarrollador de software le dio definitivamente la espalda a los objetivos hilbertianos [12]: solo trabajo sobre sistemas estrictamente delimitados, cuyo isomorfismo con un modelo teórico preciso está perfectamente establecido. Aún mas, programar equivale a establecer formalmente ese isomorfismo. Para la inteligencia artificial el mundo es modelizable, puede ser representado por sistemas de escritura estructurados cuya complejidad puede variar según el nivel de representación que se privilegie. Los modelos se vuelven isomorfos gracias a sistemas formales. El objetivo es que la máquina produzca un resultado acorde con unas expectativas definidas. Tal como lo señala Turing [13] (el padre de este pragmatismo informático), la inteligencia no es una cantidad de alguna cualidad sino aquella situación que nos permite conservar la creencia de que el otro nos «entiende». [14] «Habrá inteligencia artificial cada vez que los hombres acuerden, sin saberlo, tomar las reacciones de una máquina en una situación dada como si uno de los suyos la produjera». [15]
En otras palabras, la máquina debe engañarnos como un retórico. Por eso, para que un programa de inteligencia artificial no fracase es necesario saber claramente qué respuestas se esperan. No por casualidad los principales éxitos de la inteligencia artificial se obtuvieron con los juegos, es decir, un ámbito donde tanto las reglas como las estrategias pueden ser modelizables. El jugador, sumido en el juego, convierte a la máquina en su «alter ego» por el solo hecho de haberse ubicado en ese campo.
Los avances han sido muy importantes también en los programas didácticos. De hecho, basta acercarse a cualquier instituto de idiomas más o menos moderno y veremos que en las aulas hay un montón de computadoras y que el proceso de aprendizaje se realiza con ellas. [16]
Quizás por eso no debería sorprendernos ver cómo la «lógica» de los programas informáticos va invadiendo todas las áreas de la vida. No solo porque en todas ellas encontramos cada vez mas aparatos digitales con sus correspondientes «manuales», sino porque aún allí donde aparentemente no habría aparatos, es esa lógica del «manual» la que se impone como modo operatorio.
…para que un programa de inteligencia artificial no fracase es necesario saber claramente qué respuestas se esperan. No por casualidad los principales éxitos de la inteligencia artificial se obtuvieron con los juegos, es decir, un ámbito donde tanto las reglas como las estrategias pueden ser modelizables. El jugador, sumido en el juego, convierte a la máquina en su «alter ego» por el solo hecho de haberse ubicado en ese campo.
Un buen ejemplo son las famosas TCC, terapias conductivas cognitivas. ¿Qué es lo que las caracteriza, según J-A Miller?: «La base para el punto de vista de la TCC es su idea del lenguaje. No teorizan lo que es el lenguaje para ellos, pero considero que es una teoría del lenguaje en particular, una teoría descriptiva. Creen fundamentalmente que el lenguaje no es ambiguo, o por lo menos que el lenguaje puede ser usado en forma inequívoca y que puede ser explícito. Por eso creen que es posible tener un acuerdo previo entre paciente y terapeuta, sobre los que es el trastorno y como curarlo. Es una idea, para la TCC que ustedes pueden ponerse de acuerdo en una terapia y que el paciente puede consentir en una descripción previa del trauma. De esa manera se ponen de acuerdo con el resultado que es, consecuentemente la supresión del trastorno previamente descrito» [17] (subrayado mío).
Ese preacuerdo entre terapeuta y paciente es el acotamiento que requiere cualquier modelización de una situación. La noción misma de modelo para los cognitivos y conductuales, justamente, sigue la lógica de «manual» de la inteligencia artificial. Para decirlo de un modo sencillo y humorístico, podríamos decir que las TCC son como los videojuegos de la psicoterapia. Son dispositivos cuyas reglas y estrategias deben ser modelizables del mismo modo que en un videojuego, es decir, donde la semántica debe estar claramente acotada. Como señala Miller mas adelante en esa misma intervención, «el modelo del lenguaje de la TCC es exactamente el mismo del manual de uso de un aparato». Pero lo que habría que percibir en esta referencia al manual de uso (y que quizás queda perdido por esa insistente y general referencia a la «concepción del lenguaje») es que es el propio «terapeuta» el que se coloca aquí en términos de «aparato». Suele ponerse el acento en el consentimiento requerido al paciente a las reglas de juego de ese dispositivo como expresión de su objetivación, pero lo que no deberíamos perder de vista es que esa objetivación recae, antes que en el paciente, sobre el propio terapeuta y el dispositivo, en la medida en que ambos se presentan ante el paciente como un campo acotado de acciones y resultados posibles.
La actividad de los teóricos cognitivos comportamentales se parece más a la de los desarrolladores de software que a la de los médicos. Su trabajo consiste en programar, y reprogramar, los modelos de TCC que ofrecerán a los consumidores, como una secuencia de versiones cada vez más avanzadas de un programa, como podría ser el caso de un video juego. Las presentaciones en los congresos de TCC se parecen a las presentaciones de nuevos desarrollos de software, donde se destacan la formalización y modelización de nuevas funciones y nuevos recursos, a semejanza de lo que podría ser la presentación de una nueva versión de Office o Windows.
Paradójicamente, cuanto mas avanza esa modelización (que se supone es la modelización del comportamiento humano), mas «sordo» es el terapeuta instrumentador respecto de su paciente, puesto que tanto mayor es la cantidad de «interpretaciones» de que dispone para clasificar y acomodar las variantes de su comportamiento, tanto menor será su capacidad para atender a lo singular del caso.
Quizás por eso no debería sorprendernos ver cómo la «lógica» de los programas informáticos va invadiendo todas las áreas de la vida. No solo porque en todas ellas encontramos cada vez mas aparatos digitales con sus correspondientes «manuales», sino porque aún allí donde aparentemente no habría aparatos, es esa lógica del «manual» la que se impone como modo operatorio.
Un claro ejemplo de esta relación entre TCC y la informática son algunos de los desarrollos del Media Labs del MIT donde ya diseñan «software capaz de reconocer y adaptarse al estado emocional del usuario», para lo cual, obviamente, proceden a la modelización de las «emociones». Así funciona «Laura» (ese es el nombre de uno de esos software «afectivos»): «Cuando Laura le pregunta al usuario «¿Cómo está hoy?», el software evalúa la respuesta y elige la apropiada entre una cantidad amplia de posibilidades. Otra parte del programa controla lo que Laura dirá y diseña su respuesta eligiendo expresiones, gestos, tonos de voz y otros «atuendos» emocionales. También compara lo que dirá con lo que ya ha dicho antes y determina qué elementos contienen información nueva y les agrega mayor énfasis». [18] No es demasiado descabellado imaginar a «Laura» como la futura terapeuta cognitivo conductual.
Informática y «necesidades»
Según nos enseña la economía, las crisis capitalistas son siempre (o de última) crisis de sobreproducción, es decir, alguna imposibilidad (por la razón que sea) de realizar el valor de cambio de las mercancías acumuladas (como es el caso, por ejemplo, de la crisis de las hipotecas de propiedades cuyo precio de venta ya no puede realizarse). Por eso el modo de producción capitalista requirió una constante ampliación de los mercados (es decir, de la demanda). Ahora bien, la ampliación de los mercados puede lograrse de dos modos: o por extensión, es decir, incrementando la cantidad de consumidores [19] , o por intensión, es decir, incrementando el consumo de los mismos consumidores. Este último costado puede tener una primera fase expansiva (consumir más mercancías del mismo tipo), pero básicamente, implica ampliar la cantidad de mercancías por la vía de ampliar su variedad. Una primera manera de lograr esa variedad pasa por la simple variación de la presentación de mercancías que en el fondo siguen siendo el mismo producto. Pero el fondo del asunto consiste en ampliar el campo de las «necesidades» humanas, «conquistando» los cuerpos como en su momento se conquistaron naciones y continentes, y generando en ellos nuevas «demandas».
La epidemia de obesidad en USA y otras partes del mundo no es más que una de las «evidencias» de cómo esta insaciable demanda de consumir se invierte en insaciable consumo (para el caso, de alimentos).[20] Pero es también el caso del consumo creciente de todo tipo de fármacos y psicofármacos.
La digitalización abre las vías a la tendencia a cobrar, ya no por las cosas sino por el usufructo mismo de las cosas, por cada «satisfacción» brindada.
¿Dónde interviene lo digital? En el desarrollo de todos los consumos que operan a partir del cifrado digital del cuerpo humano y sus «necesidades». Tanto más modelizado y digitalizado sea el cuerpo humano, tanto mayor será el espectro de «necesidades» que se podrán generar y amplificar, tanto mas vasto será el mercado que se habrá creado. Esa es la perspectiva desde la que deberíamos considerar los implantes de chips y toda la parafernalia de ortopedias que actualmente se practica sobre los cuerpos (en los dientes, los ojos, los oídos, los miembros, órganos, etc.). Como ocurre con todas las mercancías, el «valor de uso» de todas esas «extensiones» no debería hacernos olvidar el predominio de su «valor de cambio». En otras palabras, este «conocimiento» digitalizado del cuerpo humano, no se diferencia de conocimientos previos en el sentido que tampoco está al servicio de satisfacer «necesidades» sociales (si pueden llamarse así), sino las «necesidades» de rentabilidad de sus productores.[21] Pero el carácter digital de ese «conocimiento» introduce unas posibilidades de manipulación, y sobre todo de expansión, de las «necesidades» humanas, de alcances imprevisibles. Las pretensiones de propiedad sobre el código del genoma humano no son más que un ejemplo paradigmático. Pero esto vale para las bibliotecas digitales, la música, y todo aquello que va siendo tomado por el control digital. El problema de la piratería informática desnuda las formas hacia las que tiende ese control. En tiempos del vinilo, el derecho a escuchar melodías o música se obtenía con el traspaso de la propiedad del objeto disco. Con la digitalización, la propiedad privada puede pretender cobrar por cada vez que el archivo digital se «abra», es decir, se reproduzca esa música. La digitalización abre las vías a la tendencia a cobrar, ya no por las cosas sino por el usufructo mismo de las cosas, por cada «satisfacción» brindada. El «valor de cambio» ya no se realizaría con la venta del objeto, sino en la realización misma del valor de uso de la cosa.
A modo de conclusión
Hay dos cuestiones que se suelen subrayar como características de nuestra cultura moderna. Por un lado, el aparente predominio de lo imaginario (las pantallas invaden todos los aparatos, los carteles y anuncios publicitarios invaden todos los espacios, la imagen es el canal preferido de todas las formas de «comunicación», etc.), y por el otro, la omnipresencia del consumo y la correlativa objetivación de la subjetividad en la figura del consumidor.
Son infinitos los abordajes y estudios que se hacen de estos problemas. Pero creo que se suele pensarlos en el modo de la traducción (o desde alguna reivindicación semántica). Pensando en qué podría «aportar» el «método psicoanalítico» a estos «análisis», creo que esta «manera de leer», que da prioridad a la dimensión de la escritura, permite ordenar muchos fenómenos como efectos en relación a los modos de funcionamiento de esa letra invisible, propia de la escritura informática, y tan afín a las exigencias de un modo de producción y régimen social que tanto más nos encandila cuanto más nos vamos hundiendo en la catástrofe.
Desde Chiloé al sur de Chile, hasta los desiertos de Kenia y Egipto; de los archipiélagos de Finlandia y Laponia en el Círculo Polar Ártico a los campamentos de refugiados en Tanzania y Azerbaiyán, el acceso a la lectura representa un verdadero reto. Conoce lo que algunas personas, comunidades y países hacen por los libros y la lectura
Los niños suelen tener comportamientos desafiantes y disruptivos. Estas conductas son un síntoma de lo que al niño le ocurre. Un nuevo enfoque basado en recientes investigaciones en neurociencia y psicología infantil ayudan a acompañar el crecimiento y fortalecer el vínculo.
El artista Miguel Arzabe se inspira en técnicas y motivos culturales de su herencia andina para crear un bestiario contemporáneo abstracto que reanima la relación entre la naturaleza humana y la animal.
Concientizar sobre el medio ambiente y la interconexión entre las actividades humanas y el mundo natural es esencial para el futuro del planeta. Los docentes de cualquier materia ya integran estos temas en sus clases.
SUSCRIBIRSE A LA REVISTA
Gracias por visitar Letra Urbana. Si desea comunicarse con nosotros puede hacerlo enviando un mail a contacto@letraurbana.com o completar el formulario.
DÉJANOS UN MENSAJE
Imagen bloqueada