Thursday, June 04, 2009

Diseño web:
entre procesos ecphrásticos e hypotipósticos

Desde hace muy poco tiempo, hemos podido ver al libro como algo no natural y comenzado a percibirlo como tecnología. Toda lectura y escritura de un texto supone reproducciones en términos de codificación y decodificación de información; por lo que cualquier texto escrito, guarda información, almacena datos a través de un procedimiento técnico e incluye -como práctica tecnológica doble- procedimientos de registro y recuperación, es decir de escritura y lectura (Longinotti).

En contra de esta percepción de la escritura como tecnología, pueden ubicarse un par de planteamientos relevantes. Por un lado, encontramos aquellos que se quedan solo con los efectos negativos de la tecnología y hacen hincapié en la devaluación de la educación y la pobreza intelectual de los textos de lectura; tal como lo menciona el cardenal John Henry Newman al hacer una crítica a la inundación de material impreso en Idea of a University, en donde afirma que las lecturas baratas, accesibles y fáciles, tiranizan al público en tanto que éstas deben leerse sin esfuerzo, sin trabajo o preparación previa, sin fundamento, sin ningún objetivo y lo mas importante, sin supervisión alguna; por lo cual Newman además de estar en contra de la “democratización” del conocimiento, denuncia una mecanización intelectual que deriva necesariamente de la mecanización y producción en serie de la escritura (Newman, 1907).

La segunda forma de resistencia, tiene que ver con aquellos quienes sostienen que la tecnología de la información es incapaz de afectar la cultura –o por lo menos no directamente- y lo hacen al señalar la ausencia de la tecnología como factor determinante en la mayoría de estudios históricos o predictivos que correlacionan fenómenos culturales con factores de otra índole (económicos, políticos, académicos), como si la tecnología fuera meramente reductiva y por lo tanto, terminan negando que ésta forma específica de producto cultural pueda tener algún efecto (Landow, 2009, pág. 76).

Ahora bien, la escritura, la imprenta y los libros son tan tecnológicos como cualquier otra cosa; los libros, después de todo, son máquinas de enseñanza y de comunicación (Landow, 2009, pág. 80). Pero es interesante evaluar esta dimensión de la escritura como tecnología desde otro lugar que no sea solamente por ser objetos o productos de procesos técnicos complejos, es decir, desde los sistemas mismos que de algún modo están presentes en estos objetos y que son los que proponen una relación tecnológica de interacción (Longinotti).

A este respecto, Longinotti trae a colación el trabajo de Walter Ong en donde afirma que la escritura alfabética o alfanumérica es una tecnología y que como tal, necesita ciertas herramientas particulares que hacen posible su codificación y decodificación (estilos, pinceles, plumas, superficies preparadas para su intervención como papeles, pieles, tablas, etc.), pero que no solo es una colección de recursos externos, es además, un conjunto de transformaciones interiores del usuario que realiza las operaciones de registro y recuperación en contacto con el dispositivo (Longinotti).

Podemos dar cuenta de dos elementos importantes en los argumentos de Longinotti y Ong, en primer lugar, la estrecha relación existente entre la colección de recursos externos, herramientas o medios y las características formales del dispositivo mismo (sea este un libro impreso, un hipertexto o una imagen) y de su reproductibilidad. El segundo elemento, tiene que ver con el condicionamiento que llevan a cabo estos medios en las prácticas de registro y recuperación, codificación y decodificación, lectura y escritura.

Comencemos por analizar estos elementos, que evidenciando cambios en las prácticas de registro y recuperación (que por ende cambian los comportamientos de lectura y escritura) construiremos un sólido argumento en contra de la imposibilidad de la tecnología por permear la capa cultural.

Diego Levis, considera la escritura como la primera mediación técnica en el proceso de comunicación verbal, porque es “en principio, representación y prolongación (incompleta) de la palabra hablada”, además permite al mismo tiempo el surgimiento de una nueva memoria externa y fija, un registro del saber humano (Levis, 2009, pág. 57). Por otra parte, la escritura en sus primeras etapas fue un factor determinante para la construcción de la visión del mundo de las civilizaciones de la Antigüedad y se le asociaba directamente con las clases dominantes, relación que perduró hasta bien entrada la Edad Media.

Hace cuatro mil años, los sumerios y los egipcios encontraron formas diferentes para producir textos históricos, religiosos, jurídicos y en menor cantidad académicos y literarios; los primeros, con la escritura cuneiforme y los segundos con la invención del papiro, un producto de manufactura mucho más sofisticada que utilizaba como herramientas el pincel y el tintero, y que además era más práctico y versátil que la arcilla, el marfil, la corteza vegetal o el cuero.

En ese entonces florecieron las escuelas de escribas, porque eran ellos -los altos funcionarios que dominaban el arte de la lectura y la escritura que incluso podían llegar a pertenecer a la clase social mas alta después de la familia real-, los que terminaban siendo depositarios del saber religioso y científico, además de ser responsables de la transmisión del mismo (Panyella, 2005, pág. 22).

En esta cultura del manuscrito daremos cuenta de que tanto las características formales de los manuscritos como las de los procesos de recuperación, se deben precisamente a las limitaciones que suponía el trabajo del escriba. Por ejemplo, en la época de Platón, Virgilio o San Agustín, los textos no tenían espaciado entre palabras, no había mayúsculas ni puntuación, se constituían como una serie ininterrumpida de caracteres alfanuméricos (véase fig1.) que condicionaban directamente los procesos de recuperación ya que requerían una habilidad importante para poderlos dominar fonéticamente porque la lectura en voz alta era la mejor alternativa para su decodificación, haciendo de esta manera, que la lectura de los textos se convirtiera en algo así como una actuación en público (Landow, 2009, pág. 137).

Dadas las características formales de los manuscritos, uno de los trabajos más importantes –además de su escritura y reproducción- era la conservación misma, porque no solamente el tiempo, los insectos y la humedad los deterioraban, cada lectura implicaba una degradación significativa, comparable en una muy menor escala con el libro impreso y en completa oposición al hipertexto.

Los procesos de registro que llevaba a cabo el escriba, suponían la tenencia por su parte, de grandes habilidades receptivas, en tanto que, para producir varias copias simultáneas de un mismo texto, éste se dictaba (oralizaba) para que varios escribas o amanuenses lo copiaran al mismo tiempo. El gran desafío de este sistema, se encontraba al intentar reproducir imágenes que reflejaban datos o información que su autor incluía en la obra y que dadas las características del sistema de reproducción debían verbalizarse u oralizarse para poderse reproducir (Longinotti), lo que implicaba al mismo tiempo, una destreza especial por parte de quien dictaba el original, ésta práctica de descripción de imágenes o mejor, de verbalización de las mismas Mario Carpo la propone como un método ecphrástico.

La ecphrasis, concepto un tanto ambiguo, es considerado frecuentemente como “la descripción de la experiencia de la visión” (Anaya, 2005, pág. 11), una definición sucinta para lograr una aplicación razonable. Tratando de encontrar una definición más precisa, Danilo Albero[1], cita las tres que ofrece Guideon Burton[2] de donde podemos consolidar una sola definición en los siguientes términos: “exponer con detalles, describir detallada y vívidamente un objeto, persona o evento (en este caso particular, una imagen) que incluso puede suponer una narración”. Claramente ésta es la función de quién realiza la “lectura” del “original” en el caso de la reproducción de imágenes en la cultura del manuscrito.

A este respecto, encontramos que las limitaciones que presentaba el sistema de reproducción escribano, condicionaba directamente las características formales de la escritura e incluso su contenido, en tanto que, como bien lo señala Longinotti al citar a Carpo, las imágenes no tenían utilidad científica porque un discurso científico debía ser transmisible y aquellas imágenes no lo eran; “en una cultura que carece de imágenes reproducibles y dadas las limitaciones de la mediación ecphrástica, el discurso teórico tiende inevitablemente a formalizar sus argumentos”.

Como alternativa a este sistema de reproducción ecphrástico, Ptolomeo desarrolla un sistema alfanumérico cuyo propósito era la reproducción de imágenes cartográficas - Carpo lo describe como una maquina generadora de imágenes[3]-. Este sistema de reproducción de imágenes cartográficas implica ciertas habilidades que van más allá del conocimiento de las técnicas de escritura y es tal vez el primer caso en donde se realiza una metacodificación o codificación de la codificación. En primera instancia -la codificación en términos de Ong-, el registro de información verbal mediante la invención alfabética o la máquina alfabeto mencionada por Longinotti y otro al transformar una imagen en un archivo de letras y cifras, de esta forma, además de garantizar una reproducción fiel del original, abre el camino para que podamos entender el funcionamiento de la producción y reproducción de la imagen en el hipertexto, porque a diferencia del sistema ecphrástico en donde se verbaliza la imagen y esta verbalización es la que se transfiere, Ptolomeo propone dos procesos: uno para codificar (las reglas para pasar de la imagen al sistema alfanumérico –textual-) y otro para decodificar (regresar a la imagen a partir de esta metacodificación o metaescritura alfanumérica). Importante señalar en este punto que lo que se “transmite” es éste nuevo código o metaescritura, lo que hace necesaria la inclusión de nuevas practicas y competencias para su recuperación, ya que en este sistema, quién no conozca el método de Ptolomeo simplemente no podrá reconocer o reconstruir la imagen transmitida, notable diferencia que veremos con mas detalle cuando analicemos lo que sucede en el hipertexto.

Una vez descritas las características del sistema de reproducción de manuscritos y evidenciada la relación que Carpo propone con la ecphrasis, podemos poner el sistema de Ptolomeo en esos mismos términos, es decir, considerarlo como un sistema de doble vía, por un lado ecphrástico –al convertir la imagen en texto- y por el otro hypotipóstico –al convertir el texto nuevamente en imagen-[4], y de esta manera compararlo con los procesos de codificación que se llevan a cabo dentro de la producción del diseño web[5].

El diseño web o para la web, a diferencia del diseño gráfico “tradicional”[6] debe tener en cuenta otros aspectos importantes tales como navegabilidad, interactividad, usabilidad, hipertextualidad, multimedialidad, flujos de información y por ende arquitectura de la información[7], por lo cual no puede considerarse únicamente como el diseño de interfaz.

Los proyectos de diseño web han heredado y mutado algunas metodologías del diseño de software clásico -en parte los websites son también aplicaciones de software[8]- separando de esta manera cuatro grandes etapas en el desarrollo de un proyecto de este tipo: Conceptualización, Arquitectura (IA)[9], Diseño de interfaz y Maquetación. Analizaremos ligeramente la segunda y tercera etapa, para entender el proceso en su totalidad, pero haremos un especial énfasis en la Maquetación por sus similitudes con el sistema de reproducción de Ptolomeo.

La arquitectura de información es una disciplina relativamente nueva que nace tras la definición que hace Richard Saul Wurman en 1975, en su libro titulado “Information Architects”[10] pero que Louis Rosenfeld y Peter Morville ampliaron y precisaron de la siguiente forma (2001): “[la arquitectura de la información] clarifica la misión y visión del sitio, equilibrando las necesidades del patrocinador y las necesidades de la audiencia. Determina el contenido y funcionalidad que el sitio va a tener. Especifica cómo los usuarios van a encontrar la información al definir su organización, navegación, etiquetado y sistemas de búsqueda. Mapea cómo el sitio se va a acomodar al cambio y crecimiento en el tiempo“. En palabras de Juan C. Camus,“la Arquitectura de Información es el conjunto de prácticas que entendiendo el objetivo de un sitio web, organiza el contenido en subconjuntos de nombres comprensibles para el usuario final, facilitando las operaciones de búsqueda y uso de la información que contienen”[11] y dentro de los entregables que arroja esta etapa encontramos el sitemap, y los wireframes[12], materia prima indispensable para continuar con el diseño de interfaz (véase la figura 2).

El proceso continua en su etapa mas conocida (diseño de interfaz), teniendo como materia prima los entregables de la etapa anterior (wireframes y sitemap), es aquí en donde los requerimientos funcionales adquieren su carácter visual, se usan y se re-crean metáforas visuales[13] orientadas a posibilitar la interacción del sistema; en términos generales es donde se compone el look and feel del mismo[14] (véase la figura 3) y éste debe hacerse pensando en su forma de producción, es decir, se deben tener en cuenta las limitaciones y posibilidades de su codificación (etapa de Maquetación), porque al igual que las imágenes del manuscrito debían verbalizarse (oralmente) o los mapas de Ptolomeo que debían ser transformados en su sistema alfanumérico –verbalización escrita-, éstas composiciones gráficas digitales deben sufrir el mismo proceso ecphrástico, porque de lo contrario no sería posible su distribución ni funcionamiento en la web[15].

Ahora bien, a lo que nos enfrentamos en este punto, es a la real tarea de la etapa de Maquetación, es decir, a la verbalización (escrita) de una imagen (el entregable de la etapa de diseño de interfaz) y cuyo producto será una pagina hipertextual (véase la figura 4), es decir, una pagina HTML[16] con una serie de estilos gráficos aplicados[17], que al igual que el sistema de Ptolomeo será esta codificación la que se transmitirá para su posterior interpretación por los software de navegación (browsers)[18].

Como mencioné anteriormente, el diseño de interfaz debe realizarse pensando en las limitaciones que este tipo de escritura supone, dentro de las cuales podemos señalar a modo de ejemplo, la orientación del texto, la utilización de fuentes tipográficas de sistema[19] -sobre todo en los cuerpos de texto, ya que en titulares puede ser reemplazada por imágenes sin mayores dificultades-, la imposibilidad de usar word wrap o texto flotante alrededor de formas diferentes a rectángulos, entre otras.

Es claro, hasta el momento, que tanto en el sistema de Ptolomeo como en la Maquetación, son fácilmente identificables los procesos ecphrásticos. En cuanto a los hypotipósticos, aquellos que tienen que ver con el proceso contrario a los ecphrásticos –que en este caso serían de decodificación- encontramos una gran diferencia. Como ya lo expuse, en el sistema de Ptolomeo el lector del mapa debía ser un conocedor de las reglas con las cuales fue escrito para que pudiera realizar el proceso inverso, con el hipertexto el funcionamiento no es el mismo. La gran mayoría de lectores de hipertexto no son letrados en cuanto a maquetación web, difícilmente saben cual es la sintaxis o cómo escribir código HTML, por lo cual necesitan que algo lo interprete y lo presente tal cual como fue diseñado desde un comienzo. Este algo es precisamente el browser y su función la de un interprete[20].

Por último y a manera de conclusión –no con la intención de cerrar el tema, por el contario de abrir algunas otras rutas de profundización- encuentro dos aspectos que se tornan relevantes en este análisis. El primero de ellos tocante al roll del maquetador como un productor y no solamente como escriba (reproductor), en tanto que al verbalizar las imágenes no solo logra reproducir el diseño original sino que también crea una nueva versión de él (véase la figura 5), esto es llamado codificación semántica de HTML y se utiliza cuando no es posible cargar las reglas de presentación (CSS) o los dispositivos –normalmente móviles- no las pueden interpretar.

El otro punto, un tanto más interesante, tiene que ver con la definición de la labor misma del registro de este tipo de escritura, que hasta ahora he referido como una transformación, pero que amerita un mayor nivel de precisión. A este respecto sugiero tres conceptos que pueden dar luz a dicha definición, a saber, transcodificación (Manovich), transliteración (Landow) y traducción (Eco).

Del análisis de estos tres conceptos, dado que en los tres se encuentran puntos de contacto, puede surgir una definición mucho mas concreta, por ejemplo, y solo como abrebocas a esta ruta de profundización propuesta, Manovich define la transcodificación como “traducir a otro formato” (Manovich, 2006) –cosa que necesariamente se cumple en el proceso de maquetación, se cambia de PNG (fireworks) o PSD (photoshop) a HTML-, lo interesante acá es que Manovich –al igual que Longinotti al describir el método ecphrástico- utilice la palabra traducir que al ponerla en el contexto de Umberto Eco, podríamos cuestionar aspectos como las diferencias y ausencias en la reproducción de los textos traducidos, o las equivalencias funcionales que puedan identificarse. Por último, transliteración definido como el proceso de representar los signos de un sistema de escritura con los signos de otro, Landow lo utiliza al referirse a las primeras aplicaciones del hipertexto (Landow, 2009) lo que inmediatamente lo sitúa dentro del contexto analizado.

Vemos pues que además de explicitar a la escritura como tecnología de transmisión de conocimiento, exponer los métodos y procesos llevados a cabo en la era del manuscrito y relacionarlos con las prácticas actuales del diseño web, se intentó poner en evidencia algunos puntos interesantes para continuar la investigación critica sobre estas prácticas técnicas y poco exploradas a la luz de la teoría crítica.



[1] Albero, Danilo, La écfrasis como una de las múltiples posibilidades de la mímesi en http://www.boletindeestetica.com.ar/investigacion/posgrado/Albero.pdf

[2] Ekphrasis: 1) Vivid description; using details to place an object, person, or event before the listeners' eyes (=hypotyposis or evidentia). See also enargia. 2) The Greek term for the progymnasmata exercise, description. 3) Ecphrasis has another more restricted definition: the literary description of a work of art. Philostratus Lemnius helped to fix this more restricted sense of this term in the second century in his Imagines. http://humanities.byu.edu/rhetoric/Figures/E/ecphrasis.htm

[3] Carpo en Longinotti

[4] Hipotipósis, etimológicamente apunta al proceso de conformación de las imágenes con palabras, recorre el camino inverso a la ecphrasis (Noguerol), Roman de la Calle también define este mismo concepto como el tránsito del texto a la imagen (De la calle, 2005).

[5] El diseño web comúnmente es entendido como un conjunto de prácticas proyectuales orientadas a la planificación, diseño y producción de sistemas de información que funcionan sobre una red, sea esta pública, semi-pública o privada (internet, extranet o intranet).

[6] llamaré tradicional a todo diseño gráfico cuyo producto final no se produzca para su funcionamiento en nuevos medios o no contemple la posibilidad de cambiar en función de la interacción de un usuario.

[7] http://es.wikipedia.org/wiki/Dise%C3%B1o_web

[8] Todo website tiene dos grandes capas, front-end y back-end, el primero mucho mas cercano al diseño visual y el segundo al procesamiento y sistematización de datos.

[9] IA por las iniciales en inglés de Information Architecture, algunos autores llaman a esta etapa Prototyping.

[10] la persona que organiza los patrones inherentes a la información, haciendo entendible lo complejo” o también, que es “una persona que crea un mapa de información que permite a otros encontrar su vía personal hacia el conocimiento”.

[11] Usando.info: blog dedicado a usabilidad, Arquitectura de Información y Contenidos Digitales http://www.usando.info/main_file.php/us_uw/8485/

[12] Un wireframe es una representación esquemática de una página web. Esto significa que muestra todos los elementos que deben incluirse en una página en particular, pero sin definir el look and feel. Simplemente muestra las funcionalidades, contenido y links que deben aparecer en una pagina para que los diseñadores de interface puedan hacer un mock up (también llamado “comp” – visual composition) y los programadores entiendan como funciona la pagina y que se supone que ocurre allí.- http://www.usability.gov/design/define.html-.

[13] Carlos Scolari en Hacer clic. Hacia una sociosemiótica de las interacciones digitales. (2004). Trata en detalle la interface y sus metáforas.

[14] Es importante señalar que aunque la usabilidad (otro concepto crucial en el diseño web) normalmente se relaciona solo con esta etapa de diseño es un tema transversal a todas las demás, una interfaz usable es condición necesaria pero no suficiente para un sistema usable.

[15] “La web”, entendida como un termino coloquial para hacer referencia a internet –pero no como sinónimo-, basa su funcionamiento en el protocolo de comunicación HTTP (HyperText Transfer Protocol) de donde se infiere que lo que transfiere son documentos de Hipertexto, éstos a su vez están enlazados entre si por links y pueden contener diferentes tipos de contenido en formatos binarios y textuales. Los binarios son aquellos precompilados o creados directamente por algún proceso interno de un software especifico, en donde hay porciones de datos representadas por valores numéricos, apuntadores y datos comprimidos (http://www.w3.org/TR/webarch/), algunos ejemplos podrían ser: imágenes(ej: PNG, JPG, GIF, etc), animaciones y videos (ej: SWF, MOV, etc), sonidos (ej: MP3, WAV, MIDI, etc) y también documentos que normalmente reconocemos como de texto pero cuyo formato es binario (ej: DOC, PDF). En cuanto a los textuales, son aquellos que –haciendo una definición muy sencilla- su contenido es alfanumérico (como el de Ptolomeo) y se pueden abrir sin ningún problema con el bloc de notas o su equivalente (notepad, text editor, etc), algunos ejemplos podrían ser: HTML (HyperText Markup Language - por obvias razones), XML, TXT, etc.

Ahora bien, dadas las características de esta monografía no profundizaré en las razones por las cuales no es viable, aunque si tecnológicamente posible, la creación de un website a partir de solamente imágenes puestas sobre una estructura básica de HTML (lo que haría innecesaria la etapa de Maquetación), pero señalaré que dichos argumentos pasan por la naturaleza misma del medio (hipertextualidad, usabilidad, fragmentación, etc). Para una descripción detallada de los problemas de usabilidad que esto generaría, véase el trabajo llevado a cabo por la W3C > Web Accesibility Iniciative en:

http://www.w3.org/WAI/eval/Overview.html

[16] Acá es necesaria una acotación conceptual de los términos HTML e Hipertexto, porque aunque muy cercanos no pueden considerarse como sinónimos. Hipertexto, en palabras de Landow se refiere a un texto compuesto por bloques de palabras –para Barthes lexías- electrónicamente unidos mediante múltiples trayectos, cadenas o recorridos en una textualidad abierta, eternamente inacabada y descrita con términos como enlace, nodo, red, trama y trayecto (Landow, 2009, págs. 24,25). Por otra parte el HTML es un lenguaje de markup que permite la creación del hipertexto, es decir, todo HTML es un hipertexto, pero no todos los hipertextos son HTML.

[17] La escritura del hipertexto tiene como otra de sus cualidades la separación de presentación y contenido, en los archivos HTML se encuentra el contenido y en otros llamados CSS las reglas de su presentación.

[18] Las características particulares de esta escritura, su sintaxis, las prácticas específicas y su incidencia en la visualización de la imagen en internet espero poder abordarlas detalladamente en una versión ampliada de este texto.

[19] Las fuentes de sistemas son aquellas familias tipográficas que están disponibles en todos los sistemas operativos. Algunas de estas tipografías están en mayor porcentaje en diferentes plataformas pero hay ciertas familias que llegan hasta un 98% de presencia en todos los sistemas operativos. El uso de estas fuentes asegura -en parte- que el diseño se interprete de la misma manera en todas las plataformas y se evitará que el navegador (browser) las tenga que reemplazar por otras y que el diseño se rompa o no se vea como el original.

[20] He resaltado el término interpretar al hacer alusión al proceso mediante el cual el software pinta los elementos escritos en las páginas HTML. No es una casualidad que este tipo de lenguajes se les llame lenguajes interpretados –o script-, precisamente por la necesidad de un interprete a diferencia de los lenguajes compilados que se crean por medio de un programa informático cuyo resultado será un archivo en código máquina. Las implicaciones de la doble mediación (imagen > interficie/browser > usuario) en la visibilidad de la imagen en internet las analizo mas profundamente en: http://acidmorph.blogspot.com/2008/11/internet-image-visibility-relative.html


Bibiografía

Albero, D. (s.f.). www.boletindeestetica.com.ar. Recuperado el Mayo de 2009, de Boletin de Estética: http://www.boletindeestetica.com.ar/investigacion/posgrado/Albero.pdf

Álvarez, R. (s.f.). euler.us.es. Recuperado el Mayo de 2009, de El legado de las matematicas. De Euclides a Newton: Los genios a través de sus libros: http://euler.us.es/~libros/images/euclides33.jpg

Anaya, J. L. (2005). Arte argentino: cuatro siglos de historia (1600-2000). Buenos Aires: Emecé.

De la calle, R. (2005). El espejo de la Ekphrasis. Mas aca de la imagen. Mas alla del texto. Escritura e imagen (1), 59-81.

Eco, U. (2008). Decir casi lo mismo: La traduccipon como experiencia. Barcelona: Lumen.

Kress, G. (2005). El Alfabetismo En La Era De Los Nuevos Medios De Comunicación.

Landow, G. P. (2009). Hipertexto 3.0: Teoría crítica y nuevos medios en la era de la globalización. Barcelona: Paidos Iberica.

Lee, H., Lee, C., & Yoo, C. (1999). A Scenario-Based Object-Oriented Hypermedia Design Methodology. Information & Management , 36, 121-138.

Levis, D. (2009). La pantalla ubicua. Televisores, computadoras y otras pantallas. Buenos Aires: La Crujía.

Longinotti, E. (s.f.). maestriadicom.org. Recuperado el Mayo de 2009, de Maestria en Diseño Comunicacional - Dicom: http://maestriadicom.org/articulos/tecnologias-del-texto-y-de-la-imagen-libros-antiguos-maquinas-virtuales/#footnote_19_34

Manovich, L. (2006). El lenguaje de los nuevos medios de comuniacción: La imagen en la era digital. Buenos Aires: Paidos.

Morville, P., & Rosenfeld, L. (2001). Arquitectura de la información para el WWW. México: McGraw Hill.

Newman, J. H. (1907). The idea of a university.

Noguerol, F. (s.f.). www.letrasdechile.cl. Recuperado el Mayo de 2009, de http://www.letrasdechile.cl/mambo/index.php?option=com_content&task=view&id=327&Itemid=46

Ong, W. J. (1996). Realidad y Escritura: Tecnologías de la palabra. Buenos Aires: Fondo de Cultura Económica.

Panyella, I. (2005). El papiro egipcio : el primer libro de la historia. Revista TK (17), 17-23.

Pellerey, R. (2006). La utopía de la traducción. deSignis: Publicación de la federación latinoamericana de semiología , 215-226.

usability.gov. (s.f.). www.usability.gov. Recuperado el Mayo de 2009, de U.S. Department of Health & Human Services: http://www.usability.gov/design/define.html

Velasco-Martin, J. (s.f.). mantruc.com. Recuperado el Mayo de 2009, de http://mantruc.com/palabras/intro-ia/argus.html


Wednesday, December 03, 2008

En proceso...

Ahora, estoy trabajando en las relaciones o las nuevas relaciones de los agentes de la imagen digital con las interfaces. Porque el cambio de rol de consumidor a productor, no fue dado simplemente por las nuevas características de la imagen digital, las interfaces y su evolución jugarón un papel muy importante, es por esto que encuentro algunas preguntas que motivaron este nuevo trabajo.

Cual es el papel de la interfaz en el cambio de roles? si los consumidores pasaron a ser productores, es probable que pronto puedan estar en condiciones de ser proveedores? de crear ellos mismos las interfaces? cual es y cual sería entonces, el rol del diseñador en este nuevo esquema? Y por otro lado, en relación con la visibilidad de la información, sería posible correlacionar la visibilidad o invisibilidad de la interface con la información que logra ver o no el individuo?

El punto de partida teórico para realizar este análisis será:
La rebelión de la mirada. Introducción a una fenomenología de la interfaz (Català Domènech)
La interface en El lenguaje de los nuevos medios de comunicación (Lev Manovich)
Cliquear: Hacia una teoría semiótica de los dispositivos interactivos. (Carlos Scolari)
Hacia una taxonomía de los regímenes de info-visualización (Carlos Scolari)

Tuesday, November 25, 2008

.internet-image { visibility: relative; }

Imagine, por un instante, que usted esta en Madrid, en el Museo del Prado, frente a una obra que se ha considerado como el máximo referente de la pintura barroca española, esta viendo lo que aparentemente parece una escena cotidiana en la corte, en donde aparece un gran lienzo, un pintor vestido como cortesano con una paleta y unos largos pinceles, una infanta, un par de damas, una enana y un niño le que da una patada a un perro adormilado. Es probable que en este momento usted ya tenga una construcción mental muy aproximada de la obra a la que hago mención, pero volvamos al museo, muévase unos cuantos pasos hacia el frente y deténgase a leer la pequeña ficha junto al cuadro que dice: “Autor: Diego Velazquez. Técnica: Aguafuerte, punta seca y buril”. Esto cambia las cosas, verdad? Esa construcción mental que teníamos en la cabeza sufrió un fuerte remesón.

El anterior ejemplo, pone en evidencia que las imágenes mantienen una estrecha relación con su soporte, una relación que va mas allá de considerar a este ultimo como un simple instrumento mediante el cual se materializa la imagen, a considerarlo como una parte importante que afecta sensiblemente las condiciones de su visualización. Este efecto es manifiesto en la imagen industrial[1] y mucho más notorio en la imagen Internet[2], en donde a diferencia de las demás imágenes industriales –no digitales–, tiene la posibilidad de variar su soporte, posibilidad que asociada a su comportamiento y a las nuevas características que supone la imagen en nuevos medios, hace que deba considerarse en términos de imagen/situación, al mismo tiempo que deben reformularse los actores implicados en ella.

Este planteamiento lo podemos descomponer en tres grandes partes que guiarán el desarrollo de esta idea. En un primer momento, la caracterización de la imagen en nuevos medios, la definición del concepto imagen/situación y su relación con lo visible en Internet, y por ultimo, las implicaciones que esto tiene en los actores de la imagen en Internet.
La imagen como imagen/situación

Antes de definir y caracterizar la imagen Internet como imagen/situación, es necesario precisar algunos conceptos que hasta ahora he mencionado muy superficialmente y son fundamentales en este discurso. Conceptos como, digital y nuevos medios, son referencias necesarias que normalmente se escuchan de forma naturalizada o transparente, como si se entendiera claramente a que hacen referencia, cuando precisamente ocurre lo contrario, son términos tan ambiguos que se adjudican indiscriminadamente sin temor a equivocarse, con la seguridad de que alguna definición se encontrará dentro del contexto deseado.

Digital, es tal vez el mejor ejemplo al respecto. Definiciones que van desde “cualquier cosa relativa a los dedos”[3], hasta “información […] representada mediante signos abstractos (números, letras, fonemas...) que no tienen ninguna similitud con la realidad que representan”[4], hacen necesaria su precisión dentro de este contexto específico. Esta ambigüedad es precisamente la razón por la cual Lev Manovich en su libro “El lenguaje de los nuevos medios de comunicación” evita al máximo su utilización –aunque el subtitulo del libro sea: “La imagen en la era digital”–. Manovich muestra que el término digital actúa como una idea global que involucra tres conceptos distintos: la digitalización (conversión de analógico a digital), un código de representación y la representación numérica, haciendo especial hincapié en este último y proponiéndolo como el único que bajo este contexto (nuevos medios) resulta crucial, porque cambia radicalmente la naturaleza de los medios, en tanto que, al convertirlos en datos informáticos los vuelve programables (2006: 99).

De esta definición de lo digital en términos de lo que es susceptible a ser representado numéricamente y su relación con la naturaleza de los medios, podemos concluir que lo digital es una condición necesaria de los nuevos medios, aunque no suficiente. Manovich propone muy claramente cinco principios que pueden considerarse como un excelente punto de partida para la caracterización de esto que llamamos nuevos medios[5], a saber, representación numérica, modularidad, automatización, variabilidad y transcodificación. (2006: 72-95).

A continuación haré una muy breve descripción de cada uno de estos principios. El primero de ellos, la representación numérica, que como ya lo mencioné al hablar de lo digital, tiene que ver directamente con la capacidad de los nuevos medios para ser descritos en términos formales, utilizando datos discretos –en oposición a los datos continuos, propios de lo analógico–. En cuanto a la modularidad, Manovich lo propone como una característica fractal de los nuevos medios, en tanto que al agrupar o combinar los distintos elementos que los constituyen[6], pueden crear otros nuevos medios sin que necesariamente pierdan su identidad y pone como ejemplo una página web, en donde se agrupan imágenes, videos, animaciones, texto y demás elementos bajo un mismo “techo”, un código HTML.

Ahora bien, los siguientes principios, Manovich los formula en relación con los dos primeros, veamos el caso de la automatización. La representación numérica y la modularidad permiten automatizar algunas operaciones para la creación, manipulación y acceso de los nuevos medios. El ejemplo más claro de ello lo constituyen los motores de búsqueda como proceso automático de acceso a los nuevos medios, introducimos una palabra clave y por medio de diversos algoritmos encontramos un listado coherente de respuestas relacionadas. Sobre la variabilidad, principio también construido sobre los de representación numérica y modularidad, tiene que ver con la capacidad de los nuevos medios para mutar o cambiarse ellos mismos, esto en oposición a los medios tradicionales en donde se produce un objeto cuyas características formales se preservan indefinidamente, en los nuevos medios, estos objetos o creaciones son susceptibles de ser modificadas o cambiadas en cualquier momento, incluso por agentes automatizados. Manovich relaciona a este respecto, la separación entre presentación y contenido existente en Internet y resalta la variabilidad de aquel contenido extraído de bases de datos o aquel que se ajusta o se personaliza de acuerdo al usuario.

Por último, encontramos, el principio de transcodificación (cultural), que para Manovich es el más importante, ya que, como los nuevos medios se crean, se distribuyen, se guardan y se archivan con ordenadores, es posible esperar que la tradicional lógica cultural sea influenciada sensiblemente por la lógica del ordenador, de esta forma cabe pensar que la capa informática afecte a la capa cultural. Las maneras en que el ordenador modela el mundo, representa los datos y permite trabajarlos, las operaciones fundamentales que hay detrás de todo programa informático y las convenciones de su interfaz, influyen en la capa cultural de los nuevos medios, en su organización, en sus géneros emergentes y en sus contenidos. “En el argot de los nuevos medios, transcodificar algo es traducirlo a otro formato” (2006: 92).

Una vez definidos estos conceptos y esclarecidas sus relaciones, es posible hablar de la imagen Internet, como una imagen que hace parte de los nuevos medios y que por definición es digital, pero que se comporta de una manera muy particular. Lo visible en términos generales se construye a partir del conjunto de imágenes que el ojo crea al mirar[7], en Internet, lo visible se crea a partir de una imagen completamente variable[8], que solo puede ser reproducida bajo las mismas condiciones en las cuales se produjo la mirada, es decir es repetible en el tiempo pero no así –o por lo menos no con la misma precisión–, en el espacio. Es por esto que la imagen en Internet debe considerarse como una dualidad imagen/situación, que afecta directamente la forma en la que vemos Internet.

Para entender mejor este planteamiento imagine, nuevamente, que usted esta junto a una mujer de unos ochenta años aproximadamente; la mujer esta viendo hacia afuera, desde la ventana de un treceavo piso un paisaje tranquilo y relativamente estable (sin cambios evidentes en su composición), usted se acerca a la ventana para ver aquello que la mujer esta viendo y aparentemente lo puede ver, ve el “mismo” paisaje; le pide a la mujer que le describa lo que ve para intentar corroborar esta idea y comienza a descubrir pequeñas diferencias, la mujer no logra identificar claramente ciertos objetos más lejanos que usted sí y eso en definitiva cambia la imagen mental que se crean ambos de lo que están viendo. Pero esto, es un fenómeno que ocurre todo el tiempo y con todos los objetos, por lo tanto no es relevante quedarme en este punto, argumentando que lo visible es singular en tanto que las percepciones son particulares debido a nuestras condiciones físicas. Es más interesante cuando estas percepciones se ven seriamente afectadas por instrumentos que median la mirada. Volviendo a la situación en la ventana, usted le pide a la mujer que se ponga un par de lentes especiales, unos lentes de alguien de la familia que padece miopía y vuelve a preguntarle sobre lo que esta viendo. Ahora, la mujer le describe un paisaje completamente diferente, mucho mas nublado, con figuras prácticamente irreconocibles. Cambia los anteojos y repite el proceso, ahora la mujer ve las mismas figuras que usted esta viendo, incluso, aquellas que se encuentran más lejos, pero invierte los colores.

Vemos, pues, como cuándo la imagen es variada por el objeto que media la mirada, la construcción de lo visible cambia, efecto plausible de igual manera en la imagen/situación de Internet. La pantalla, sea esta la de la computadora, el celular, el PDA, o cualquier dispositivo mediante el cual se establezca la conexión, funciona como los lentes de la mujer al transcodificar los datos informáticos en los que se almacenan y distribuyen las imágenes en Internet. Ahora bien, este proceso de transcodificación, en teoría, debería ser el mismo para todos; pero al igual que los lentes de la mujer, para acceder a la imagen Internet se debe pasar, además del dispositivo, por una serie de plataformas que intervienen sensiblemente en su visualización. Por lo tanto, la variabilidad de la imagen Internet es directamente proporcional a la cantidad de objetos –sean estos físicos (hardware) o lógicos (software)–, que se encuentren entre la imagen en su estado más elemental (representación numérica) y nuestra mirada, por lo cual –teniendo en cuenta que nunca vamos a poder ver la imagen Internet sin mediación alguna– la imagen Internet no va a poder ser vista de la misma manera en todos los lugares o espacios donde se mire, lo que nos lleva al concepto de imagen/situación.

Esta cualidad de la imagen Internet puede ser definida en términos de un “conjunto de circunstancias que se producen en un momento específico y que determinan [la visualización de las imágenes en Internet]”[9], es decir, se refiere a la “localización espacial y temporal del hecho comunicativo[10], al tiempo y al lugar en que [la última transcodificación es producida]”[11]. Teniendo en mente esta aproximación al término situación y habiendo revisado los dos ángulos del concepto imagen/situación –por un lado, desde la caracterización de la imagen en nuevos medios y por el otro, desde su relación entre lo visual y su interficie–, profundizaré en algunos puntos específicos que ayudarán a explicar mejor este comportamiento propio de la imagen Internet.

Actualmente, según un estudio de Opera[12], el uso de las hojas de estilo –una de las tecnologías fundamentales que liberó a los diseñadores de la poca funcionalidad gráfica del HTML y posibilitó a los programadores separar contenido y forma– es la principal tecnología para crear la imagen Internet. Su uso alcanza al 80,39% de las páginas, seguida con un 37,5% de las páginas que hacen uso del plugin flash[13], razón por la cual analizaré con mas detalle y en profundidad, el comportamiento del contenido producido por hojas de estilos.[14]

El HTML (HyperText Markup Language), por definición es un lenguaje interpretado[15], y como tal, tiene la ventaja de ser independiente de la máquina en que se ejecute, es decir puede funcionar en cualquier medio que posea dentro de su software, un intérprete que permita su transcodificación; en este caso particular, el interprete es el browser o navegador que convierte este meta-lenguaje en la imagen Internet. Ahora bien, cada browser “pinta” la imagen según sus condiciones particulares, lo que implica una visualización diferente en cada caso y aunque existan diversos mecanismos para intentar estabilizarla[16], cada navegador sigue sus propias reglas. The Web Standards Project (WaSP), fundado en 1998, nació con la idea de luchar y asegurar la accesibilidad de las tecnologías web para todos, actualmente es el encargado de aplicar el Acid test[17] –versión 3 disponible desde el 3 de marzo de 2008–. Este test evalúa entre muchas otras cosas, el cumplimiento de las especificaciones de HTML y CSS –según el W3C -The World Wide Web Consortium– y las tecnologías ECMAScript y DOM –habituales en la Web 2.0–, consolidándose, de esta manera, como el punto de referencia para todos los navegadores vigentes en el mercado. La idea, entonces, es que en la medida en que se cumpla este test, se asegurará una imagen Internet mucho mas estable y mas accesible –en teoría, todo solucionado–, pero el resultado es concluyentemente desalentador.

Existen aproximadamente siete navegadores reconocidos[18] que se usan para acceder a Internet, de los cuales solo tres pueden considerarse significativos para un análisis de este tipo, en tanto que son los que superan el 1% en cuanto a utilización; estos son: Internet Explorer (73%), Mozila Firefox (19.03%) y Apple Safari (6.31%)[19]. Ahora bien, si relacionamos esto con el resultado del Acid3 Test al 7 de septiembre de 2008, nos damos cuenta que el navegador que es ampliamente más utilizado, ocupa el último lugar en la lista con un muy discreto 12%[20]; en cuanto a Firefox y su última versión para Windows vista aparece con un esperanzador 92%, aunque su versión mas difundida logra un regular 50%; por último encontramos a Safari, uno de los dos únicos navegadores que lograron el 100% en la prueba pero lamentablemente tiene menos del 10% de penetración en los usuarios.[21]

Es evidente que en este momento, la imagen Internet esta completamente supeditada a su condición de imagen/situación, su variabilidad depende en gran medida de los elementos ajenos a la intención con que fue creada, es decir, lo visible en Internet se ve afectado directamente por las relaciones que supone con su interficie. Pero estas relaciones no son las únicas causantes de su propiedad situacional, también existen elementos internos, propios de su naturaleza –la de la imagen Internet– que sí tienen que ver con la intención con la cual es creada y que hacen posible hablar de ella como situación.

Cuando lo que vemos al acceder a Internet cambia de acuerdo a nuestro comportamiento, nuestros gustos o nuestras condiciones geográficas particulares, estamos presenciando otro tipo de variabilidad que es independiente a la transcodificación que se produce para hacer visible la imagen. Este tipo de variación es, normalmente, automática[22] y en muchas ocasiones prácticamente imperceptible. Dos grandes ejemplos a este respecto, los encontramos todos los días cuando consultamos nuestro mail o cuando simplemente hacemos una búsqueda en Google. El primero de estos ejemplos tiene que ver con la publicidad contextual (contextual advertising), cuando consultamos nuestro correo electrónico[23] en Gmail, por ejemplo, encontramos una muy disimulada barra sobre el inbox en donde nos ofrecen cualquier tipo de cosas que extrañamente tienen alguna relación con nuestros gustos o intereses[24].

Por otro lado y mucho mas interesante aún, encontramos a los sistemas pro-personalización de Google, en donde progresivamente el buscador cambia según el comportamiento del usuario. Por ejemplo, la lista de resultados se entrega optimizada de acuerdo a la ubicación geográfica del usuario, las búsquedas recientes y el historial de navegación[25]. Este ejemplo particular de personalización o de variación en la imagen Internet desde su contenido mismo, tiene una doble implicación: en primera instancia y quizás la mas inmediata, tiene que ver con que la misma búsqueda realizada en dos situaciones distintas arrojará resultados diferentes, pero por otra parte, tiene un sentido mas amplio e interesante, Google nos esta mostrando unos resultados, pero al mismo tiempo ocultando otros, es decir, esta decidiendo que es lo que existe y que no, que podemos ver y que no[26].

Por último, una vez analizada y caracterizada la imagen Internet como imagen/situación y determinado que su variabilidad depende de los elementos involucrados en su interficie –sean estos propios o ajenos-, podemos concluir algunas cosas relevantes con respecto al rol de los actores involucrados en su ciclo de vida. La imagen Internet, como imagen digital, cambia el uso que se le da a la imagen, al igual que cambió de adoctrinar a reproducir, ahora cambia de reproducir a producir y esto gracias a que el medio en el cual se crea, es el mismo que se utiliza para distribuirla y para consumirla, es decir, se cambia de un modelo piramidal –productor, distribuidor y consumidor–, a uno horizontal, en donde el consumidor puede ser el mismo productor y a su vez el mismo distribuidor[27], por lo cual es mejor redefinir a estos actores como lo hace Brenda Laurel, al llamarlos agentes, haciendo referencia a “el que inicia la acción” (Laurel, 1993, p4).

Teniendo en cuenta lo anterior, concluimos que los roles de estos agentes deben cambiar, en tanto que la tarea principal del productor ya no será la de crear imágenes –el consumidor mismo esta en condiciones de hacerlo–, sino de diseñar y suministrar las herramientas o interfaces necesarias para que el consumidor pueda llevar a cabo su nuevo rol como productor[28]. Por lo tanto, la necesidad de entender a la imagen Internet como imagen/situación ya no solamente atañe al diseñador visual o al nuevo proveedor de interfaces y/o herramientas de producción de lo visible en Internet, también afecta a este nuevo consumidor, entendido como un participante activo, como un agente dentro de este nuevo ciclo de la imagen digital, que de no entenderlo, la estabilidad y la homogeneidad de lo visible en Internet será cada vez menor.

______________________

[1] El término imagen industrial o imagen artificial hace referencia a todas aquellas imágenes construidas a través de dispositivos, sean estos tecnológicos, mecánicos o de otra índole. Por lo tanto, al hacer alusión a este tipo de imagen –que será el eje del presente texto– estaré dejando al margen, la imagen natural (de la naturaleza misma, que la vemos por que está, no por que alguien la construya) y la pintura (entendida como aquella imagen que el humano construye directamente –si se quiere, naturalmente– pero sin la mediación de un artefacto).

[2] La expresión “imagen Internet” hace referencia al conjunto de elementos visuales, sean estos gráficos o lingüísticos que se presentan al sujeto por medio del dispositivo mediante el cual se conecta a Internet, no pretendo distinguir entre aquel contenido interactivo que busca la participación activa del usuario y el que no, este análisis se realiza entendiendo a la imagen como aquello que el soporte (singular combinación de elementos físicos y lógicos) muestra en un momento determinado.

[3] http://es.wikipedia.org/wiki/Digital

[4] http://www.catedu.es/documenta/glosario.html (Centro Aragonés de Tecnologías para la Educación)

[5] Manovich no pretende con esta caracterización establecer parámetros rígidos ni leyes absolutas en cuanto a qué es y qué no puede clasificarse como nuevo medio, simplemente pone en evidencia ciertas propiedades de los nuevos medios que permiten diferenciarlos de otros medios o medios tradicionales.

[6] Píxeles, polígonos, vóxeles, caracteres o scripts.

[7] Ledesma, M. Regimenes escópicos y lectura de imágenes, en: www.fcedu.uner.edu.ar/clm/ledesma.html

[8] Variabilidad del entorno digital que Català Domènech, hablando de la interfaz, evidencia al describir como difuminada su visibilidad por el continuo cambio de posiciones de los elementos que la configuran (Català Domènech, 2003).

[9] WordReference.com

[10] Felipe Londoño, doctor en Ingeniería Multimedia de la universidad Politécnica de Cataluña, en su tesis, Interficies de las Comunidades Virtuales, define perfectamente este “espacio” al cual hace referencia la situación de la imagen Internet. Propone como Interficie –término utilizado en el Laboratorio Multimedia de la Universidad Politécnica de Cataluña, como traducción al catalán, de la palabra Interfaz o Interface– al “espacio o lugar de encuentro entre dos o más entidades, donde se [reflejan] las cualidades físicas de las partes que interaccionan y donde se [desarrolla] una acción interactiva” (Londoño, 2002, p15), de esta misma manera diferencia el concepto de interficie del de Interfaz, en tanto que involucra el contexto del hecho comunicativo, no se limita a los mecanismos de control dispuestos “sobre” la pantalla y utilizando términos de Brenda Laurel, incluye también aspectos cognitivos y emocionales de la experiencia del usuario. (Laurel, 1993).

[11] Cfr., HYMES, D.H. citado en LOMAS, C. (1999) Cómo enseñar a hacer las cosas con las palabras, Barcelona, Paidós, 288 - 290.

[12] El estudio “MAMA: Key findings”, fue realizado por Opera –Compañía desarrolladora del navegador que lleva su mismo nombre- el 15 de octubre de 2008 y fue publicado en el sitio de su comunidad de desarrolladores (http://dev.opera.com/articles/view/mama-key-findings).

[13] http://www.thuer.com.ar/blog/2008/ (Sebastián Thüer: Tecnología, diseño y tendencias en Internet)

[14] La imagen Internet en cuya generación se involucren componentes de flash, será tratada más adelante cuando haga referencia a la incidencia de las versiones del software en su visualización.

[15] Lenguaje cuyas instrucciones se traducen (transcodifican) a código máquina sobre la marcha en el momento de su ejecución, característica que lo define en oposición al lenguaje compilado.

[16] La estabilidad de la imagen Internet la defino en términos de la constancia de su transcodificación, es decir, que en la medida en que más se transcodifique –en diversos medios y mediante distintos navegadores– de la misma manera, se considerará mas estable. Por otro lado, estos mecanismos que menciono para intentar asegurar una visualización aproximada en los diferentes navegadores, tienen que ver con dos aspectos fundamentales, el primero de ellos, tocante a los conocimientos y experticia necesaria para escribir el meta-lenguaje que el navegador debe interpretar, a este respecto, la W3C, desarrolla un muy buen trabajo al respecto. Por otra parte encontramos que escribir de la forma “adecuada” –siguiendo los estándares– este meta-lenguaje no siempre es suficiente, porque los navegadores no “pintan” lo mismo en ciertos casos particulares y allí comienzan los problemas, en muchas ocasiones es necesario reescribir el código o pensar en soluciones alternas para no tener que implementar “hacks” o instrucciones que solo entiendan ciertos navegadores y de esta manera hacer un código no válido por los estándares y poco administrable.

[17] http://acid3.acidtests.org/

[18] Internet Explorer, Firefox, Safari, Opera, Camino, Seamonkey, Google Chrome.

[19] fuente: Net Applications: Apple’s Safari Web browser share hits new all-time high of 6.31% in June 2008 en http://www.macdailynews.com/

[20] Resultado para la versión 6 y 7, que son las versiones utilizadas por la gran mayoría. La versión beta (8) también se encuentra en el último lugar de las ultimas versiones con un igualmente discreto 18%. Fuente: http://www.anomalousanomaly.com/2008/03/06/acid-3/

[21] Es necesario acotar, que los resultados de los diferentes navegadores cambian en los distintos sistemas operativos, lo que apoya la idea de que entre más elementos se encuentren entre la imagen en su estado elemental (representación numérica) y la mirada, la variabilidad será mayor.

[22] Como hice referencia al comienzo del texto, este análisis se centra en lo que ve quien esta frente al dispositivo en donde se presenta la imagen Internet, no en su interacción ni en las posibilidades que esta conlleva para poder variar la imagen, por lo tanto solo se considera aquel contenido cuya “personalización” ocurre automáticamente y no por una previa selección de su apariencia por parte del usuario.

[23] Yahoo o Gmail (Google mail) fueron los pioneros en este campo.

[24] https://www.google.com/adsense/

[25] More transparency in customized search en: http://googleblog.blogspot.com/

[26] El tema del poder de Google, los motores de búsqueda y lo que existe pero es invisible en Internet es motivo para un posterior análisis, por ahora solo pretendo establecer a manera de conclusión que una construcción estable de la imagen/situación no solo afecta su visibilidad física, sino también la visibilidad en cuanto a su existencia para los demás. Google prioriza aquellas páginas construidas con un meta-lenguaje válido –que sigue los estándares establecidos– por sobre aquellas que no, incluso, “castiga” a aquellas que intentan engañar a las “arañas” que recuperan e indexan el contenido en Internet.

[27] Vale aclarar que los roles de productor, distribuidor y consumidor, no desaparecen, cambian en cuanto a su independencia, en esta medida una misma persona (o sistema) se puede convertir en cualquiera de los tres.

[28] Manovich propone incluso en los casos en donde el consumidor no crea directamente lo que dentro de este contexto llamo la imagen Internet, como un co-autor, al elegir que elementos se muestran o que rutas se siguen al navegar dentro de un hipertexto, generando de esta forma una obra única y particular. (Manovich, 2006, p97).


_____________________
REFERENCIAS

CATALÀ DOMÈNECH, Josep M. (2003). La rebelión de la mirada. Introducción a una fenomenología de la interfaz, en: http://www.dialogica.com.ar/unr/postitulo/medialab/archives/000356.php

LAUREL, Brenda. (1993). Computers as Theatre. U.S.A.: Addison-Wesley Publishing Company, Inc.

LEDESMA, María. Regímenes escópicos y lectura de imágenes, en: www.fcedu.uner.edu.ar/clm/ledesma.html

LOMAS, C. (1999) Cómo enseñar a hacer las cosas con las palabras, Barcelona: Paidós.

LONDOÑO, Felipe. (2002). Interficies de las Comunidades Virtuales. Universidad Politécnica de Cataluña, Laboratorio Multimedia, Tesis doctoral.

MANOVICH, Lev (2006). El lenguaje de los nuevos medios de comunicación. La imagen en la era digital, Buenos Aires: Paidos.


________________
BIBLIOGRAFÍA

A LIST APART. Three Circles of Hell http://www.alistapart.com/articles/webstandards2008/

LOWE, D (1986) Historia de la percepción burguesa, México, FCE.

McLUHAN, Marshal. (1969). La comprensión de los medios como las extensiones del hombre. México: Ed. Diana, original en inglés: 1964.

SCOLARI, Carlos A. (2004). Cliquear: Hacia una teoría semiótica de los dispositivos interactivos, en: http://www.dialogica.com.ar/unr/postitulo/medialab/archives/cat_interfaces.php