Mostrando entradas con la etiqueta opinión. Mostrar todas las entradas
Mostrando entradas con la etiqueta opinión. Mostrar todas las entradas

domingo, 25 de marzo de 2007

The Long Tail


Uno de los días en los que más me he divertido fue allá por el año 1982. Un amigo trajo a casa un juego llamado “El Candidato” y junto con otros amigos echamos una partida. Era un juego muy original, similar al ajedrez pero con cuatro jugadores y unas reglas de movimiento de piezas totalmente diferentes. Entre ellas había una muy peculiar, llamada el diplomático, que permitía reubicar cualquier otra pieza que entrara en su alcance de ataque. Esto originaba situaciones muy divertidas que, potenciadas por las bromas y el ingenio de alguno de los participantes, hizo que literalmente nos revolcáramos de risa.

Unos meses después quisimos repetir la experiencia, pero nuestro amigo dijo que se habían perdido las piezas, y además no recordábamos las reglas.

Durante un tiempo pregunté en grandes almacenes y jugueterías por “El Candidato” y nadie sabía de él, hasta que al final me olvidé del asunto, más o menos hasta 1995.

Por ese año, y ante la incipiente difusión de la Web entre la comunidad universitaria (todavía no había llegado al gran público), recordé el asunto y realicé unas cuantas búsquedas en Altavista. Ya por entonces la sensación empezaba a ser “todo está en Internet”, y cada día descubríamos un nuevo sitio web maravilloso sobre algún tema insospechado. Pero “El Candidato” no estaba por ningún lado.

Repetí la búsqueda hacia el año 1999, ya sobre Google, que había desbancado a Altavista en menos de un año (entre 1998 y 1999). Parecía que teníamos a mano la herramienta definitiva. Pero “El Candidato” no aparecía.

Volví a olvidarme del tema. Hasta 2006. La Web había cambiado profundamente desde mi intento anterior: se había socializado. Habían aparecido los blogs y las redes sociales, un ejercito de internautas generando contenido —en contra de lo que piensan algunos reaccionarios — de inmensa utilidad. Utilidad inmensa aunque muy específica. El principio del fin de los medios de comunicación “de masas” y el nacimiento de los medios de comunicación “de minorías”. El ocaso definitivo de la era industrial.

No recuerdo exactamente qué búsqueda hice (algo como [“juego de tablero” “el candidato”]), pero llegué a un blog especializado en juegos que decía “El djambi o ajedrez de Maquiavelo es un juego para cuatro personas inventado por Jean Anesto en 1975. Se clasifica como juego de tablero abstracto. También se le conoce con los nombres de El Candidato o El Líder”.

O sea, que el principal problema era que el nombre del juego no era “El Candidato” sino que en una determinada versión de 1982 se le llamó así. Una vez averiguado el nombre originario del juego fue fácil encontrar las reglas. Ni más ni menos que en la Wikipedia, ¡cómo no! Ese antro de perversión de la realidad, según esos mismos reaccionarios.

No sólo eso, desde el artículo de la Wikipedia hay un enlace a un sitio francés desde el que descargarse imágenes del tablero y las fichas. Así que volví a quedar con mis amigos, los de aquel día en el 82, y jugamos. Y volvimos a reírnos como entonces.

Pero no acaba aquí la historia; intentando aclarar una duda sobre las reglas, llegué a una página de la Sociedad Británica para el Conocimiento . Si miráis las propiedades de la imagen del tablero que aparece en el artículo, se ve que la misma está tomada de la web http://www.juegosdelmundo.com.

Curioso. Esta web es la página de una artesana asturiana que construye sobre cuero una serie de juegos, entre ellos “El Candidato”, ¡y los vende por Internet! En una semana tenía el juego en casa, precioso, pagado contrareembolso.

Me parece increíble cómo la red permite la localización de un producto absolutamente minoritario, y cómo un pequeño productor consigue ganarse la vida vendiendo estos productos minoritarios, que no compensarían a ninguna tienda tradicional, gracias a que su mercado potencial es todo el planeta. Muchas minorías esparcidas por todo el mundo pueden hacer una mayoría. Es lo que se conoce como The Long Tail.

Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/3/2007.

domingo, 18 de febrero de 2007

Vienen curvas


¿Sabían ustedes que la Ingeniería Informática es una profesión no regulada?

¿Y eso… qué significa?

Significa que un proyecto informático no necesita tener un responsable titulado y colegiado que lo avale. Cualquier proyecto de Ingeniería (no informática) o Arquitectura tiene que ser supervisado y firmado por un Ingeniero o Arquitecto que da el visto bueno y realiza el seguimiento de su desarrollo para garantizar cosas como que se ajusta a las especificaciones, que sigue las normas y estándares.

Decimos, por ejemplo, que los arquitectos tienen las “atribuciones profesionales” para construir casas. Esto no quiere decir que el arquitecto ponga los ladrillos, pero sí que, si la casa se viene abajo o no tiene ventanas, el arquitecto es el responsable de ello. El Colegio de Arquitectos es quien controla a los arquitectos y, en caso de incompetencia manifiesta, expedienta o incluso expulsa del ejercicio profesional a quienes corresponda.

Es un sistema social que beneficia (a) a los arquitectos competentes y (b) a los clientes, que disponen de mecanismos de control de calidad.

Supongo que a estas alturas ya se están imaginando ustedes por qué suceden ciertas cosas en el desarrollo de proyectos informáticos: el Ave Madrid – Barcelona irá más lento de la cuenta por “incompatibilidad” de sistemas informáticos, la transacción bancaria no puede realizarse porque el sistema “se ha caído”, etc. Sin responsables; afortunadamente en castellano tenemos el modo impersonal para poder comunicar estas cosas.

Lo grave es que, a día de hoy, a falta de seis meses seis de la publicación del “Catálogo de Títulos Universitarios Oficiales”, el Estado Español no tiene la menor intención de que en él aparezca la Ingeniería Informática, ni de regular la profesión. Y las universidades parecen estar de acuerdo. A pesar de que España es el único país de la Unión Europea en esta situación.

¡¡¡¿¿¿Pero cómo puede ser esto???!!!

Serrat, en su Plany al mar dice: “per ignorància, per imprudència, per inconsciència i per mala llet.”. Supongo que debe ser por un poco de todo eso.

Pero ahora los informáticos se están movilizando desde la universidad, desde las asociaciones y desde Internet; no sólo están molestos con un Estado que no ha movido un dedo en más de 25 años de existencia “de facto” de la profesión y el sector, sino que empiezan a estar enfadados, quieren hacerse oír: quieren una profesión regulada, quieren atribuciones profesionales, quieren una titulación de primera incluida en el Catálogo Oficial de Títulos.

Vienen curvas.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/1/2007

El largo camino hacia la libertad informática


Los sistemas propietarios

Cuando comencé en esto de la informática, el mercado estaba dominado por soluciones propietarias. Los fabricantes de ordenadores vendían el hardware junto con un sistema operativo propio (en muchos casos absolutamente burdo) y, si podían, incluso con la aplicación hecha a medida para el cliente. Este es el punto de partida de este artículo: el modelo más esclavizante de mercado informático, al que las empresas que lo profesaban se aferraron ferozmente frente a los nuevos vientos. Un sistema completo costaba entre 5 y 10 millones de pesetas de la época.

Como en los sistemas absolutistas, los tres poderes de la informática (hardware, sistema operativo y aplicaciones) estaban en manos de una sola organización.

La independencia de poderes

En 1981 surgió un nuevo modelo que cambiaría el mundo: comercializar de modo independiente el hardware, el sistema operativo y los programas, siendo cada uno fabricado por diferentes empresas. Los impulsores de este modelo fueron IBM y Microsoft, con el PC compatible y el MS-DOS. En aquella época, empresas como Apple o NCR se mantuvieron firmes en el modelo antiguo. Y perdieron. Y el resultado del nuevo modelo fue un abaratamiento del producto completo porque se había incrementado enormemente la competencia entre compañías. Ahora uno podía comprar el hardware a decenas de fabricantes diferentes y montar sobre éste sistemas operativos de tres o cuatro desarrolladores.

Pero el software seguía siendo caro.

Sobre el año 1983, sustentado por la posibilidad de distribución electrónica (vía modem –con las BBS–, o vía Internet –FTP en aquella época–), surgió una nueva idea de comercialización del software, el shareware. Particulares que habían desarrollado un programa para sus propios fines pensaron que éste podía ser útil a otros usuarios, así que permitieron que el programa pudiera utilizarse de modo más o menos gratuito, a veces arrancando con una pantalla de aviso (nag-screen) que desaparecía si uno pagaba unos cuantos dólares al autor. De lo contrario se mantenía el molesto aviso, e incluso algunas veces (pocas) el programa dejaba de funcionar al cabo de unas semanas.

Más adelante la idea de shareware evolucionó, dando lugar al menos a tres categorías básicas: el freeware, el shareware propiamente dicho (y diversas variedades del mismo como el postalware o el adware), y los trials o versiones de prueba de programas comerciales.

Software Libre: más allá del freeware

Pero el freeware, a pesar de ser una propuesta interesante, puso de manifiesto un problema, especialmente cuando los ordenadores pasaron de ser objetos independientes y comenzaron a conectarse masivamente en red: un programa gratuito puede esconder funcionalidades “ocultas”, que permitan, por ejemplo, que el programa recabe información confidencial del usuario y la envíe por la red, o quizá que envíe spam desde la máquina huésped a miles de destinatarios, etc. Tras esta idea aparecen o se desarrollan nuevos conceptos como spyware, malware, troyanos, etc. Surge por tanto la idea de poder inspeccionar qué está haciendo realmente un programa, y para ello lo mejor es disponer del código fuente del mismo.

Junto con lo anterior, también surge la idea de que una comunidad de usuarios (eso sí, altamente tecnificados) podría, en caso de disponer del código fuente, modificarlo y adaptarlo a sus propias necesidades, es más, si estos usuarios / programadores ponen a su vez a disposición de la comunidad el código fuente modificado estarían posibilitando que nuevos usuarios mejorasen el producto, quizá a un ritmo tan acelerado que las compañías tradicionales no pudieran competir en calidad y creatividad.

Para dar soporte a estas ideas, sobre el año 1984 surge un nuevo modelo de licencia, la GNU Public License, que constituye el siguiente paso hacia la libertad. Este nuevo tipo de software se denominó software libre, y en la actualidad no sólo goza de buena salud, sino que en muchos ámbitos comienza a desplazar al software tradicional.

Naturalmente (y este es quizá uno de sus puntos débiles) la mayoría de los usuarios no posee los conocimientos suficientes (ni quizá el tiempo) como para involucrarse en el proceso de desarrollo, y consideran erróneamente que el software libre no es más que un cierto tipo de software gratuito que pueden usar a su antojo y provecho. Bueno, de hecho el software libre no tiene ni siquiera que ser gratuito, aunque en la práctica (casi) nadie paga por él, y menos en un contexto social como el español en el que la filantropía es como mucho un concepto que explica algunos acontecimientos históricos remotos.

A mi juicio, el concepto más importante del software libre es la obligatoriedad de poner a disposición de la comunidad el código fuente obtenido tras cualquier modificación y distribución de un programa libre. Ello hace que las empresas de desarrollo tradicionales queden virtualmente fuera del proceso, ya que para ellas el código fuente es su capital más importante. De hecho los propios programadores del mundo GNU hablan de “software vírico”, porque utilizar un fragmento de código libre “contagia” nuestro programa, de modo que también, automáticamente, se convierte en software libre.

Por ese motivo consideré en el polémico artículo GNU o el nuevo comunismo que el software libre respondía a una de las ideas motrices del comunismo: “la tierra, para el que la trabaja”, actualizada a nuestros tiempos, es decir, “el software, para el que lo trabaja”.

Código Abierto: más allá del software libre

Aún existe otra iniciativa todavía más libre desde el punto de vista del usuario: el código abierto (open source). En él, el código fuente es puesto a disposición de la comunidad para que pueda evolucionar sin ninguna limitación, ni siquiera la obligatoriedad de que el resultado de las modificaciones sea también código abierto.

El gran peligro de éste tipo de licencia, en opinión de la gente de GNU, es que una empresa tome el código de un programa construido por la comunidad y desarrolle a partir de él un programa propietario. Esto no es ni más ni menos que lo que ha hecho Apple con el Unix BDS, una versión de Unix de código abierto sobre la que Apple ha montado sus últimas versiones de MacOS. Desde el punto de vista de GNU, esto es una atrocidad, mas desde el punto de vista de la gente de Open Source es un avance más para el mundo del software. Para el usuario, evidentemente, la disponibilidad de un sistema operativo robusto, fiable y fácil de utilizar es una ventaja, y para Apple, sin duda, una decisión acertadísima, como todas sus decisiones recientes. Aquí Apple, el gran defensor de las soluciones cerradas incluso en hardware, se alía con el mundo del software abierto. Bueno, se aprovecha, dirán algunos. Aunque está claro que los usuarios ganan un sistema más robusto y potente que el anterior.

¿Modelo entre el Software Libre y el Código Abierto?

El inconveniente del software libre es que en la práctica está vetado para las empresas tradicionales y que la obtención de recursos económicos para sostener su modelo es complicada. Me pregunto: ¿no habría algún modo de poder anular en ciertos casos la cláusula de obligatoria redistribución de las modificaciones a condición de hacer partícipes a los desarrolladores previos de los beneficios obtenidos con la comercialización ulterior? Soy consciente de que sería muy complejo determinar quiénes fueron los participantes y en qué grado durante el desarrollo de un proyecto de software libre, pero este proceso se simplifica en el caso de software libre auspiciado por alguna fundación.

En este sentido, la licencia LGPL o la cláusula que Sun ha añadido a la reciente liberación de Java bajo licencia GPL permiten al menos el uso de librerías por parte de productos comerciales. Cada vez más especialistas opinan que el futuro del desarrollo informático son el modelo libre o el abierto, y seguramente tienen razón. No me sorprendería ver a Microsoft dentro de unos años exponiendo las bondades del software libre como modelo de negocio; no hay que olvidar que Microsoft terminó siendo una abanderada de Internet cuando inicialmente se propuso construir una red alternativa llamada “Microsoft Network”, que finalmente acabó siendo un portal más.

Herramientas de desarrollo propietarias

Hasta ahora hemos hablado de programas de usuario, pero las herramientas de desarrollo merecen un comentario aparte. A mi juicio, el peor error en el que puede caer un departamento de desarrollo informático es el de depender de un fabricante propietario de sus herramientas. A lo largo de mi experiencia profesional he visto caer torres muy altas, he visto desaparecer excelentes herramientas de programación o ser modificadas de una versión a otra de modo que el código fuente (el capital de la empresa) dejaba de ser útil para la siguiente versión, es decir, o uno continuaba con la herramienta antigua o sencillamente tiraba casi todo el código y empezaba de cero. Esto ha sido especialmente cierto para todo lo relacionado con los interfaces de usuario.

Y, sin embargo, este grave error se comete por doquier. En España, muchísimas empresas utilizan software de desarrollo de Microsoft, lo que, entre otras cosas, les limita la plataforma sobre la que ejecutar sus aplicaciones (Windows, Internet Information Server, etc). Todavía más sorprendente: ¡en muchos casos es el cliente de dichas empresas el que obliga a que se utilicen estas herramientas! Creo que en gran parte esto se debe al hecho de que la Informática es en España (único país de la UE en el que sucede esto) una profesión no regulada (¡señores políticos, cuándo introducirán atribuciones en el sector!) y por tanto las decisiones acerca de plataformas de desarrollo no recaen sobre informáticos. Es como si el cliente de un arquitecto le obligara para contratar sus servicios a que utilizara determinado programa de diseño o de cálculo de estructuras. Está claro que el arquitecto está más cualificado que el cliente para saber qué programa de cálculo de estructuras debe utilizar.

Y conste que siempre he defendido a Microsoft como la empresa que ha sabido llevar el uso del ordenador a los hogares, al usuario no técnico. Y aunque, como siempre se dice, sus tecnologías son “importadas” de otros, como Xerox, el mérito de la difusión corresponde a Microsoft. Pero llevar, a través de herramientas “facilonas”, el asunto del desarrollo informático al usuario no técnico me parece, sencillamente, una salvajada.

El desarrollo de software debería siempre apoyarse en herramientas sometidas a algún tipo de procedimiento de estandarización, sea una organización (ISO, ANSI...) o un proceso bien establecido (Java Community Process). Esto hace que los esfuerzos de desarrollo tengan una mayor extensión temporal. Tengo código desarrollado en Lisp, en C++ o en Java que sigue siendo útil después de diez, quince o veinte años. ¿Qué proyección temporal podemos esperar del código desarrollado en ASP o en las Microsoft Foundation Classes? ¿Que pasará si Microsoft se hunde en tres o cuatro años ante el fracaso con Windows Vista y el DRM? Bueno, no creo que esto suceda, pero como decía antes, torres más altas han caído.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) en dos entregas: el 25/10/2006 y el 25/11/2006

La revolución de la información


Hubo un tiempo (o quizá lo he soñado) en que la vocación dominaba el mundo.

Existía el placer del trabajo bien hecho, y los profesionales de cualquier materia se enorgullecían de conocer profundamente su trabajo. Zapateros, herreros, tenderos o viajantes eran respetados porque cumplían su papel social lo mejor posible, y transmitían sus conocimientos a la generación siguiente con el cariño que toda empresa importante exige.

La universidad y los medios de comunicación no eran excepción, estaban poblados por personas que pretendían hacer bien las cosas y por tanto, cuando opinaban, eran “autoridades en función de su calidad”.

Luego llegó el capitalismo, no ya como modelo económico, sino en su forma más salvaje: como modelo social. Lo importante no era ya el trabajo en sí, sino su rendimiento económico. Y como el ratio económico suele ser menor (por unidad de tiempo) en el trabajo bien hecho, comenzó a primar el trabajo hecho “de cualquier manera”, ya que maximizaba el beneficio.

En los medios de comunicación, eso significó la sustitución del “impacto en función de la calidad” por el “impacto en función del poder dentro del oligopolio”. Es decir, los medios se convirtieron en “autoridades en función del poder”, fuera este político o económico o de cualquier otra índole (si es que hay alguna otra, cosa que dudo).

En este contexto se entiende la lucha feroz de los últimos treinta años por evitar la libre competencia en el sector de los medios de comunicación.

Pero al igual que la batalla por perpetuar modos obsoletos de distribución de contenidos (SGAE), esta otra batalla también está perdida. ¿Por qué? Por los blogs.

Para bien o para mal, cualquiera puede publicar en la Web; ¿significa esto, como defienden algunos, basura y mediocridad? Pues no exactamente. Quienes aducen esto olvidan (porque creen que siguen viviendo en el paradigma del capitalismo social) una cosa: la capacidad de elección, y por tanto de filtrado de contenidos, que tienen las personas.

Porque si un blog está mal escrito, o defiende posturas inaceptables para la mayoría, o miente con descaro, allá su autor, porque a diferencia de los medios tradicionales los blogs están sometidos al juicio de sus lectores, y aquí no hay cuota fija, sino un infinito universo en donde elegir.

El poder de los medios de comunicación tradicionales no se basa en lo que diferencia a unos de otros, sino en lo que los une. El espejismo de polémica y enfrentamiento entre ellos encubre una profunda aceptación del sistema y establece una muralla infranqueable para otras realidades. Porque el cupo fijo impide la difusión de otras ideas.

Pero eso se acabó, estamos en otra era, en el inicio de un cambio tan profundo que la revolución industrial habrá de parecer un juego de niños. Piensen que todo cambio tecnológico importante provoca, cierto tiempo después, cambios sociales aún más importantes, y los cambios sociales que provocará Internet están a punto de llegar: ya se ven en el horizonte.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/6/2006

Historia de un poema - escalera (diálogo sobre poesía con Luis Enrique López Bascuas)


Nota preliminar: a lo largo de varias entregas a partir de esta intentaré ejemplificar uno de los rasgos de mi poética (que nunca escribí), que consiste en la idea del poema-iceberg, es decir, que el poema no es más que la parte del iceberg que flota sobre la superficie, pero que todo poema debiera tener un posible desarrollo argumental que ha sido condensado en unos pocos versos y que no obstante está ahí, bajo el agua.


(a) El poema

RELLANO
Como un rompecabezas que a partir de cierto momento comenzara a encajar,
y desde ese momento todo es fácil, por algún motivo no del todo oculto
[ aunque tampoco obvio,
como un camino que asume su pendiente en el instante mismo en que
[ fallan las fuerzas,
como un nudo que empieza a deshacerse,
como la idea precisa que aporta perspectiva y genera un nuevo orden
[ en que todo se simplifica, es decir la síntesis de Hegel,
o como los guijarros que encajan en un bote, ocupando la mínima expresión,
o ese grano de arena que desploma la duna, o el naipe que
[ derriba los castillos, o la gota que colma,
tan lejos y a la vez tan cerca del mundo de las cosas y los hechos,
ha llegado mi vida a este valle de paz.


(b) Carta I (14/11/2005)

Hola Paco:

No hace mucho que María José me dio una de tus poesías titulada Rellano. La verdad es que me pareció preciosa pero, tanto más la leía, tanto más notaba que algo dentro de ella no iba bien. Había algo desatinado en algún punto, algo oculto por la fuerza de sus imágenes (nótese aquí la función mendaz de la poesía y, por ende, de la belleza) pero persistente que me hacía quedar inquieto. Por fin descubrí lo que era: el séptimo verso estaba mal. Cuando comprendí en qué sentido ese verso no encajaba me tome la libertad de cambiarlo y así nació Rellano II, versión que te adjunto para someterla a tu consideración.

RELLANO II
Como un rompecabezas que a partir de cierto momento comenzara a encajar,
y desde ese momento todo es fácil, por algún motivo no del todo oculto
[ aunque tampoco obvio,
como un camino que asume su pendiente en el instante mismo en que
[ fallan las fuerzas,
como un nudo que empieza a deshacerse,
como la idea precisa que aporta perspectiva y genera un nuevo orden
[ en que todo se simplifica, es decir la síntesis de Hegel,
o como los guijarros que encajan en un bote, ocupando la mínima expresión,
o ese grano de arena que completa la duna, o el naipe que
[ fortifica el castillo, o la gota que nos colma,
tan lejos y a la vez tan cerca del mundo de las cosas y los hechos,
ha llegado mi vida a este valle de paz.

Eso me tranquilizó unos días hasta que caí en la cuenta de que bien pudiera haberme precipitado. ¿Y si el verso séptimo es el único que está bien? Ante la gravedad de esta situación me puse a la tarea de reconstruir los otros ocho versos de modo que dotaran al séptimo del armazón apropiado en el que sostener su esplendor. Así nació Rellano III, versión que asimismo someto a tu poético juicio.

RELLANO III
Como un rompecabezas que a partir de un cierto momento se disuelve,
y desde ese momento ya nada es fácil, por algún motivo no del todo
[ obvio aunque tampoco oculto,
como un camino hecho pendiente en el instante mismo en que
[ fallan las fuerzas,
como hilo que empieza a convertirse en nudo, un nudo gordiano,
como el desliz de las ideas que hace precipitar el pensamiento
[ hacia complejas entropías, es decir el “nada es” de Gorgias,
o como el vértice del último guijarro que estalla el bote, ironía de
[ espacios deshabitados,
o ese grano de arena que desploma la duna, o el naipe que
[ derriba los castillos, o la gota que colma,
tan lejos y a la vez tan cerca del mundo de las ideas y los azares,
ha llegado mi vida a este monte de paz.

Dado el volumen global de cambios, diríase que Rellano II es más fiel a la pretendida idea que trata de expresar Rellano que Rellano III, si bien Rellano III proporciona un giro de tuerca que bien podría encajar en una visión más globalizadora de Rellano. En cualquier caso, he llegado a pensar que ambos poemas (el II y el III) estaban en tu cabeza y que una suerte de discontinuidad cognitiva ha hecho que se materialicen en el mundo en la forma de Rellano sin más. Por eso, sólo me queda felicitarte por la síntesis conseguida y autorizarte a utilizar los otros dos poemas en el modo en que estimes más oportuno (lo que incluye desestimarlos) puesto que son, obviamente, más obra tuya que mía.

Un saludo,
Luis Enrique


(c) Respuesta a la Carta I (14/11/2005)

Gracias por tus comentarios.

La verdad es que creo que (para mí) un objetivo fundamental de la poesía debería ser justo el que ha provocado en ti, es decir, un motor a la reflexión entendida un poco en sentido zen, no estrictamente científico sino más bien meta-lógico (por llamarlo de algún modo).

Me he divertido mucho, además, leyendo tus observaciones; en parte porque tienes razón al menos en un escenario: si el estado de ánimo descrito fuera el de estabilidad / inestabilidad, el verso 7 está mal, aunque creo que también el 1, el 3 y el 4, que debían aludir a “la última pieza del rompecabezas”, “el final de la pendiente” y “el nudo que acaba de deshacerse”; ¿quizá es el 6 el que está mal? ¿no debería hablar de guijarros desencajados que a la menor sacudida tenderán a reubicarse? ¿No será que mi vida no ha llegado a un valle de paz sino que está al borde de una reestructuración absoluta? ¿No será lo mismo una cosa y la otra?

Veamos…

Rellano IV
Como la última pieza que en un rompecabezas terminara encajando,
y desde ese momento todo es fácil, por algún motivo no del todo
[ oculto aunque tampoco obvio,
como un camino que acaba su pendiente en el instante mismo en
[ que vuelven las fuerzas,
como un nudo deshecho,
como la idea precisa que aporta perspectiva y genera un nuevo orden
[ en que todo se simplifica, es decir la síntesis de Hegel,
o como los guijarros que encajan en un bote, ocupando la mínima expresión,
o ese grano de arena que ya no encuentra duna, o el naipe
[ derribado, o la gota disuelta,
tan lejos y a la vez tan cerca del mundo de las cosas y los hechos,
ha llegado mi vida a este valle de paz.

No sé, quizá uno de los enigmas del poema sea esta tensión contradictoria entre estable / inestable, inicio / final, reposo / movimiento.

Creo que (poema + tus comentarios + mi respuesta + lo que siga) serían un buen ejemplo del “sentido de la literatura”.

En cualquier caso, ¿por qué no una escalera con 4 rellanos?

(d) Carta II: sigo subiendo (16/11/2005)

Hola, otra vez:

Qué interesante eso que apuntas de que los versos 1, 3 y 4 también pudieran estar mal! Claro, si uno piensa en las dimensiones que señalas (estable/inestable, inicio/final, reposo/movimiento) puede releerse el poema desde lugares diferentes y evaluar qué encaja y qué no. Tarea Borgiana: ¡reconstruir el poema para hacer verdad todas las posibles combinaciones de esas tres dimensiones duales! Por cierto, desde esa óptica Rellano III es perfecto, yo creo que no hay un solo verso que se salga del lugar del espacio marcado por la siguiente coordenada (inestable, inicio, movimiento). Claro es que hay que tener un espíritu dispuesto a comprender que el final de un estadio bien pudiera ser el comienzo del siguiente.

En cualquier caso quiero explicar un poco más las dimensiones que yo tenía en la cabeza cuando insinuaba que algo en Rellano no encajaba (de hecho, el verso 7 y no otros) y que fue el origen de los otros dos Rellanos. Bien, de primeras parece que Rellano viene a decir “todo empieza a encajar…qué paz!”, pero el verso siete sólo puede interpretarse así “todo empieza a desmoronarse… qué ¿?” Pongo los signos de interrogación porque no es obvio lo que hay que poner a continuación. (De hecho, Rellano III adopta una solución bastante inquietante que creo yo es uno de sus valores). Pues bien, como ya resultará obvio, Rellano II no es sino la reconstrucción (mínima) de Rellano para que todo sea consistente con la primera interpretación; Rellano III es la reconstrucción (no tan mínima) de Rellano para que todo sea consistente con la segunda interpretación. Y Rellano III en los interrogantes pone “paz”, pero una paz de monte, no de valle, una paz que proviene de transitar hacia un lugar que no se conoce, no de asentarse en el lugar que ha sido domesticado (tal como hace Rellano II).

Pero ahora aparece Rellano IV con una apuesta decidida por situarse en las antípodas de Rellano III, es decir en el lugar del espacio marcado por las siguientes coordenadas (estable, final, reposo). Y además, el poema parece pretender que ese lugar es un lugar privilegiado de paz. Pero si esto es así, oh fascinación de las fascinaciones… el verso 7 vuelve a estar MAL!!!!! (y algunos otros). Véase: bajo el supuesto de que las coordenadas (e,f,r) marcan un lugar deseable, el foco no puede estar en el grano de arena y menos no encontrando duna, el foco debe estar en la duna que ya no requiere arena; y el naipe no puede estar derribado sino que debería estar reposando; y lo de la gota es sublime porque, como verás más abajo, encaja en cualquiera de las dos interpretaciones del poema. Por tanto, en Rellano IV vuelve haber un lío pues nos trastea con la idea paradójica de que (e,f,r) es un lugar ora deseable ora abominable (y la construcción del poema no da para argumentar que el propósito del mismo es justamente transmitir esta dualidad). [Por cierto, es fascinante cómo funciona el sistema cognitivo humano: ¿te das cuenta que queriendo tú hacer una cosa distinta a la que hiciste vuelves a caer en un mismo lugar estructural y que queriendo yo leer una cosa diferente no vuelvo sino a leer la misma cosa, dado también un cierto nivel de abstracción?]. Por tanto, humildemente me he vuelto a asignar la tarea de reconstruirlos según estos criterios. Una vez más someto el resultado a tu consideración:

RELLANO V

Como un rompecabezas que encuentra la última pieza que lo completa,
y desde ese momento ya nada es fácil o difícil, obviamente,
como un camino que culmina las fuerzas encontrando destino,
como un nudo deshecho,
como la idea precisa que aporta perspectiva y genera un nuevo orden
[ en que todo se simplifica, es decir la síntesis de Hegel,
o como los guijarros que encajan en un bote, ocupando la mínima expresión,
o esa duna indiferente a la arena desgranada, o el naipe reposado,
[ o la gota disuelta,
tan en el centro del mundo de las cosas y los hechos,
ha llegado mi vida a esta meseta de paz.

RELLANO VI

Como un rompecabezas despojado de piezas
que desdibuja la frontera entre lo fácil y lo difícil, incomprensiblemente,
como un camino hacia ninguna parte que se hace con las fuerzas que ya se han ido,
como un nudo gordiano,
como un sistema en entropía absoluta, es decir, las homomerías de Anaxágoras,
o como los espacios de un bote que han desalojado toda materia,
o ese grano de arena que ya no encuentra duna, o el naipe derribado, o la gota disuelta,
tan en el centro del mundo de las ideas y los azares,
ha llegado mi vida a esta sima de paz.

¡¡¡No deja de ser impresionante la fuerza poética del verso 7 que me ha obligado ya a construirle cuatro poemas!!! Nótese que estoy haciendo un poema para completar un verso y no un verso para completar un poema. Me recuerda a un día en que me compré un montón de ropa sólo para que luciera una corbata que me gustaba un montón.

Posibles tareas futuras con estos rellanos:

1. Ponerse a la tarea de escribir los poemas-escalera porque, ¿cómo se sube o baja de un rellano a otro?
2. Intentar que una vez construidos todos los rellanos y tramos surja un edificio con el sentido de una vida.
3. Seguir yo desvirtuando tu poema hasta que aparezca uno que no comparta con él ni una sola palabra y que sin embargo esté totalmente determinado por él.
4. Empezar tú a criticar mi nuevo poema y a corregirlo progresivamente. Fascinante sería que el resultado fuese tu Rellano original, pero ahora motivado por razones y caminos antes insospechados.
5. Una vez cerrado el círculo de este universo particular, ponerlo todo en un libro, publicarlo, hacernos millonarios y buscar las coordenadas que mejor sienten a nuestro espíritu.


(e) Respuesta a Carta II (21/11/2005)

Últimas reflexiones:

Sobre tu punto 4 de posibles tareas: “Fascinante sería que el resultado fuese tu Rellano original, pero ahora motivado por razones y caminos antes insospechados” no es ni más ni menos que el argumento del cuento de Borges Pierre Menard, autor del quijote

La clave para entender por qué el rellano original es poéticamente (que no científicamente) el mejor la da tu propio comentario: “¡¡¡No deja de ser impresionante la fuerza poética del verso 7 que me ha obligado ya a construirle cuatro poemas!!!”. De algún modo todos los rellanos, igual que en las casas, descansan sobre el primero, están implícitos en él, y ese verso 7 tiene la fuerza motriz para generar todos los razonamientos ulteriores. Si modificáramos el verso 7 toda está riqueza se perdería “como lágrimas en la lluvia” (cito Blade Runner).

PD.
Estoy pensando (con tu consentimiento) publicar toda la serie de poemas junto con los comentarios en mi sección del “libro de notas”, por supuesto citándote como coautor. Podría llamarse “Historia de un poema-escalera”

(f) Carta III (22/11/2005)

A riesgo de entrar en contradicción por reflexionar tras las últimas reflexiones:

Lo que sugiere Menard es un juego de niños cuando se compara con la envergadura de la tarea por mí propuesta (sin que esto desmerezca en modo alguno la empresa de Menard, que era colosal, o la intuición de Borges, afiladísima como un diente de lobo estepario). Recuérdese la idea motriz del autor del análisis de las costumbres sintácticas de Moulet: “No quería componer otro Quijote —lo cual es fácil— sino el Quijote. Inútil agregar que no encaró nunca una transcripción mecánica del original; no se proponía copiarlo. Su admirable ambición era producir unas páginas que coincidieran ­palabra por palabra y línea por línea­ con las de Miguel de Cervantes”. La cuestión fundamental es que él se PROPONÍA escribir un nuevo Quijote idéntico. Mi propósito es que tú vuelvas a escribir tu mismo poema SIN proponértelo, es decir, que como resultado obtuvieras (¿o quizá he de decir, obtuviéramos?) un nuevo poema idéntico al anterior, deudor éste de mecanismos internos (a ti) inquebrantables (pero que en algún modo asomarían a la luz en esta tarea) que intentan incorporar la información novedosa que yo pongo a tu disposición. Volvamos la cabeza para conceder una última mirada a Menard mientras seguimos avanzando en nuestro camino.

Ah, mi querido amigo, cuando vemos un hermoso cuadro en azules y rojos cuya armonía nos cautiva, ¿dónde esta la fuerza pictórica, en el azul o en el rojo?; cuando el silencio en una sinfonía permite sentir la expectación de los siguientes acordes invertidos, terroríficos, que están a punto de aparecer, y el conjunto nos cristaliza la emoción, ¿diríamos que más las notas que el silencio han obrado el milagro? Y por fin, ¿habríamos de elogiar los errores que aparecen en las teorías del mundo so pretexto de que en ellos descansa la fuerza motriz que permitió generar las explicaciones verdaderas que hoy nos admiran y reconfortan?

Sí, sí, sí, el rellano original es un poema magnífico, vibrante, esplendoroso. Pero, tras recorrer toda la escalera, qué distinto se lee ahora…

L.E.

P.D. Lo de la publicación me parece fenomenal pero hay algo fundamental que debe ser cambiado. En Rellano III, en el verso 4 aparece la frase “un nudo gordiano”. Como sabes, luego he descubierto que esa frase no va ahí, sino en Rellano VI y, por tanto, debe ser fulminanemente eliminada de Rellano III.
Por otro lado, llamarme coautor es un poco exagerado, quizá sería mejor considerarme interlocutor, o algo así.

Epílogo

Bien, aquí acabó la correspondencia –y con ello esta serie de tres entregas– mas no el asunto. Quizá los lectores tengáis algo que añadir…

A modo de conclusión, me pregunto si tal vez la diferencia entre Ciencia y Literatura es que la última no termina de cristalizar en una propuesta definitiva, sino que pretende definirla a base de rodearla; por eso probablemente es capaz de definir cosas para las que la Ciencia no se encuentra preparada…

Un poema entonces NO es un iceberg, sino la capa de agua que lo rodea dejando algo en medio (el incognoscible iceberg) que de este modo llega a aprehenderse de un modo no del todo explícito.

Y eso es mejor que no tener nada.

Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) en tres entregas: el 25/3/2006, el 25/4/2006 y el 25/5/2006

La brecha digital II: sobre la modernización de la administración pública


El otro día recibí un correo (en papel) de mi banco en el que me informaban que me habían retenido cierto importe debido a una providencia de apremio del Ayuntamiento de Madrid.

Me quedé pensando… ¿qué será esto, una multa? No me han multado, que yo sepa… ¿Serán las nuevas cámaras de la M-30 que todo el mundo sabe dónde están salvo algún despiste? Al cabo de dos semanas me llega por fin algo más de información: el apremio es por el pago de la contribución de un apartamento ¡que vendí hace quince años! ¿?

Me indican en el documento que para cualquier consulta hable con la agencia tributaria, con la sección de catastro. Llamo por teléfono y me atienden muy amablemente, explicándome que para resolver el problema debo pedir cita previa (caramba, qué nivel) y visitarles llevando la escritura de venta del inmueble. “Si quiere le doy cita previa para la semana que viene, porque para esta ya no hay”.

Hasta aquí todo bien, con la salvedad ya obvia en cualquier asunto relacionado con el estado de que es el ciudadano quien tiene que perder su (de él) tiempo para resolver su (de ellos) error.

Bueno, por lo menos dan cita previa, no tendré que esperar una cola en una ventanilla, como antes. Imagino un pasillo blanco con despachos con plantas en los que uno recibe atención personalizada, qué menos después de hacerme perder el tiempo.

Un día antes de la cita me ejecutan, es decir, retiran de mi cuenta bancaria el importe retenido previamente.

El día de la cita me presento en la agencia tributaria, sección catastro, con mis papeles. Afortunadamente es zona verde, de modo que abono mi ticket y dispongo de una hora máximo para el trámite.

Entro con mis papeles y me dirijo al mostrador de información. “Buenos, días, tengo cita previa para las 10:30”.

Y aquí encontramos la brecha.

Sorprendentemente, la señorita de información, con toda naturalidad, ME DA UNA PAPELETA CON UN NÚMERO, y me dice, “espere usted ahí hasta que salga su número”.

Obediente, me siento y estudio la situación. De despachos nada. No hay despachos. Es más, mi papeleta pone la mesa 30 y en el marcador electrónico que anuncia la(s) mesa(s) sólo hay una mesa: la 30. Curioso procedimiento digno de los extorsionadores del señor K.

En realidad no espero más de diez minutos hasta que sale mi número en la mesa 30. Bueno, más bien salen ¿6 números? ¿Cómo de grande es la mesa 30?

La respuesta es que no hay mesa 30. Lo que hay es todo un área del recinto separada por biombos con muchas mesas. Las seis personas que hemos sido avisadas entramos juntas en el pasillo central de dicha área, algo perplejas, y una funcionaria nos dice: “siéntense ahí a esperar”. O sea, una espera dentro de la espera dentro de la espera. Por suerte todas ellas cortas.

Y aquí llegamos al colmo de la brecha digital. El trabajo de la funcionaria consiste en otear todas las mesas del recinto –unas 30, a lo mejor de ahí viene lo de “mesa 30”, es decir “30 mesas”– para determinar en el más puro estilo manual cuál de ellas está libre. Cuando una queda libre, indica a uno de los qué esperamos (ignoro el criterio) “pase ahí”. Obviamente no nos pide la papeleta de “mesa 30”.

La verdad es que me atienden muy amablemente (en esto no tengo quejas) y modifican el catastro para que quede constancia de que el apartamento no me pertenece desde hace 15 años, y me entrega un justificante de ello.

–Con este justificante –me dice–, ya puede ir a la junta municipal correspondiente para reclamar que le devuelvan el dinero.

Todavía no he ido.

PD. Unos días antes de la publicación de este artículo, Hacienda (que somos todos) me ha enviado una rectificación de declaración de IRPF en la que me reclama que he pagado de menos porque no he declarado la posesión del Inmueble1. No me dicen cuál es el tal Inmueble1, pero ¿a que ya se están ustedes imaginando?


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/2/2006

La brecha digital


Según la Wikipedia, la Brecha Digital es una cuestión de alcance político y social que hace referencia a la diferencia socioeconómica entre distintas comunidades que tienen Internet y las que no.

Yo pienso que hay otro tipo de brecha digital, que consiste en la deficiente o incorrecta adaptación de procedimientos no digitales, y las situaciones kafkianas que de ello se derivan. Lo explicaré con un ejemplo.

Muy bonito, fantástico y con plugin gráfico enseñando el terreno de juego y permitiendo elegir exactamente las localidades que uno quiere, los organizadores del torneo Masters Series de Madrid han desarrollado un sitio Web muy cómodo (sobre todo porque si uno quiere comprar las entradas en ventanilla tiene que irse al quinto pino y el teléfono para compras telefónicas no lo cogen ni a la de tres).

Pero aquí está la Web para ayudarnos. Estamos a dos meses del torneo y podemos comprarlas desde un navegador, todo un lujo tecnológico. Además ahora tengo ADSL en casa, así que incluso en fin de semana. Bien, me conecto, elijo mis localidades (ya no quedan para final y semifinal, pero quedan para cuartos, que no se sabe quién tocará, pero a ver si hay suerte), y paso a efectuar el pago con tarjeta de crédito. Introduzco los datos de la tarjeta y demás campos requeridos.

El sistema me cuenta una película de que ahora (por supuesto para mayor seguridad MÍA –que tengo antivirus que no es el panda y firewall y wireless cifrada y no guardo los datos en el disco duro y no sé cuantas cosas más–) hace falta una “clave de firma” adicional de mi banco. No obstante, me dicen, como es un sistema de nueva implantación, puedo continuar el proceso sin la clave de firma durante tres operaciones. Es decir, que me avisan con tiempo, vale, ¡qué bien!

Y aquí encontramos la brecha.

Cuando elijo la opción de continuar, el sistema me comunica que no puedo efectuar el pago sin mi clave de firma. Supongo que los sistemas informáticos también son capaces de mentir. Joder, bueno, qué se va a hacer, voy a la página de mi banco a solicitar mi clave de firma. Afortunadamente ya todo está en la red…

Entro en la Web del banco y me paso unos diez minutos buscando la opción relativa a la clave de firma, que está en un sitio muy lógico: ¡servicios! Y veo una hermosa opción “activar clave de firma”, pero está... ¡deshabilitada!, grayed, como decimos los informáticos. No puedo elegirla.

Me leo todas las opciones y encuentro la salvación: hay otra opción que reza “cambiar a modo avanzado”. “¡Ah, claro!” pienso, “si paso a modo avanzado me dejará activarla”. Bien, vamos progresando, tras cambiar a modo avanzado ya puedo elegir “activar clave de firma”. Selecciono esta opción y el sistema dice: “usted no dispone de clave de firma, debe solicitarla en la opción correspondiente”. Localizo la opción y el sistema dice algo así como “en tres días recibirá por CORREO su clave de firma”.

Aquí me quedo pasmado.

Si tengo que esperar tres días, ¿cómo acabo la compra?

Decido llamar por teléfono a un salvador número de atención al cliente de mi banco. Me responde una señorita que me explica amablemente que tengo que esperar tres días a que me llegue por correo la clave de firma (eso ya lo sabía). No parece reaccionar cuando le digo que tengo que efectuar un pago ahora. Al parecer eso no está previsto en su diagrama de preguntas y respuestas. No hay solución. Lo siento. Vuelva usted mañana.

Bueno, pensemos, intento la compra telefónica con los organizadores del torneo, pero nadie descuelga el teléfono. Tengo otra tarjeta: voy a probar con ésta. Recupero la pestaña original de la compra, doy a volver y el sistema dice:

“Su sesión ha caducado, vuelva a comenzar el proceso.”

¡Paciencia! O como dicen en una chirigota de Cádiz, ¡contró, contró! Por segunda vez selecciono las entradas –las que había pedido antes se han quedado pilladas, bueno, un error del sistema, aunque si se explota podría bloquear todas las entradas del torneo sin comprarlas realmente– ¡menuda broma!. Relleno mis datos y los de la tarjeta y llego a lo de la maldita clave de firma (de vez en cuando sigo llamando por teléfono a los organizadores, que no contestan). Elijo “continuar sin clave de firma”...

Lo mismo: “usted no puede continuar sin clave de firma”.

Pruebo con la de una amiga, de otro banco, ya tengo diez entradas falsas bloqueadas, y cinco verdaderas, relleno todos los datos por tercera vez y con esta tarjeta consigo continuar. Parece que en su banco son menos severos con esto de la clave de firma. ¡He saltado la brecha digital! Y he dejado en el camino diez entradas bloqueadas.

...

A los tres días, por correo ordinario, me llegó la clave de firma, que guardo como un tesoro para futuras ocasiones. Por cierto que en cuartos nos tocó Nadal, que fue finalmente el ganador del torneo.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/1/2006

Estándares, reutilización e innovación (reflexiones sobre lo efímero, segunda parte)


En el artículo anterior quería hablar de lenguajes de programación y terminé hablando de conectores de audio. Me voy a poner un poco técnico pero, como si estuviéramos en clase, si alguien no entiende algo que lo pregunte (para eso están los comentarios, ¿no?).

¿Cómo afecta la estandarización a la reutilización de código?

A lo largo de mi vida profesional he trabajado con muchos lenguajes de programación (BASIC, COBOL, Pascal, Fortran, Lisp, Ada, C, C++, Java, varios lenguajes de shell e incluso algún lenguaje ultra-específico, como el RPL, un lenguaje “a pila” que permitía programar las calculadoras HP). Mi conclusión después de 25 años generando código fuente es que mientras más estándar es un lenguaje, más vigencia temporal tiene el código, más reutilizable es. Por ejemplo, hoy puedo usar código Lisp o C generado hace 15 años y funciona perfectamente, aunque el Intérprete Lisp o el compilador de C que utilice sean diferentes a los que utilizaba hace 15 años. Sin embargo mis programas en RPL vagarán por el Hades de las calculadoras HP como almas en pena. Porque, al fin y al cabo, ¿qué es el alma sino software?

Ejercicio: ¿qué futuro tendrá un programa desarrollado en ASP de Microsoft? A ver… ...sólo funciona en ordenadores con un sistema operativo de Microsoft instalado… ...Bueno, son la mayoría, mientras nadie lo desbanque… Además, sólo funciona sobre servidores Web Internet Information Server… ¡¡¡Uffff!!! ¿No puedo usarlo con Apache? ¿Estamos diciendo que mis productos dependen de que Microsoft siga siendo líder en el mercado? De las diez mayores compañías de informática en los años 80 sólo quedan tres. ¿Servirá para algo un programa en ASP dentro de 10 años?


¿Qué aporta Java?

A lo largo de los 90 se hicieron con el poder los interfaces gráficos de usuario. Hoy día no se concibe una aplicación de línea de comandos excepto en programación de sistemas. En esa época los lenguajes de programación quedaron descolocados. Microsoft, Borland y algunos más se esforzaron por sacar su propia solución al problema de la generación de interfaces gráficos para Windows sobre C++ y Pascal, porque os puedo asegurar que en aquella época era casi demoníaco (en diversos sentidos del término) desarrollar un programa para Windows. Muchos programas con amplia cuota de mercado (por ejemplo WordPerfect) sucumbieron por no adaptarse de modo satisfactorio a las nuevas tendencias (hay quien dice que Microsoft se encargó de ocultar lo suficiente de su API de programación de Windows para garantizar este fracaso de los competidores de Word). A mediados de los 90 la cosa mejoró con el nacimiento de los IDEs, que permitían que los interfaces se desarrollaran “dibujando” componentes en una rejilla, a los que posteriormente se les daba funcionalidad. Pero para utilizar esos componentes había que incorporar al código del programa las librerías del fabricante del compilador. Es decir, en términos prácticos, se había perdido la estandarización. Tengo programas de esa época implementados en C++ que no pueden compilarse a menos que se haga con la versión exacta de Borland C++ con que fueron desarrollados. Es decir, código inútil al cabo de tan sólo 2 o 3 años.

Entonces apareció Java, que, entre otras virtudes (y defectos) incorporó al estándar los métodos necesarios para definir un botón, un cuadro de texto o cualquiera de esos componentes que se habían apoderado del mundo. Ahora, un programa hecho con la versión 1.1.3 de Java (hace casi 10 años) puede compilarse con la 1.5. Es un avance. Espero no tener que tirar mi código fuente hasta dentro de otros 10.

¿Cómo afecta la estandarización a la innovación?

Este es el precio a pagar: desgraciadamente la frena; cuando se definió ANSI C no existían ciertos conceptos modernos de programación como las excepciones, los hilos o los patrones de diseño, y ¡ni siquiera los interfaces gráficos! Esto se mitigó en parte con la especificación del C++, aunque el resultado fue un híbrido que horroriza a los puristas de la programación orientada a objetos. En resumen: la estandarización frena la evolución rápida porque es difícil incorporar elementos novedosos a un estándar, al menos por dos motivos: (a) el proceso de consenso, aceptación y modificación de un estándar es lento, y (b) las modificaciones deben ser compatibles con lo anterior, lo cual a veces es posible (por ejemplo en el caso de la adaptación de un minijack monoaural a un minijack estéreo), a veces genera productos híbridos, poco puros (como el caso del C++) y otras veces es sencillamente inviable, lo que nos conduce a la producción tecnologías de usar y tirar.

Tecnologías de usar y tirar

En pocos años hemos pasado de un panorama socio-técnico basado en tecnologías de larga duración (véase el CD, nacido en 1980 y todavía vigente, o el disco de vinilo, que se utilizó desde 1948 hasta mediados de los 90) a tecnologías de usar y tirar (telefonías de primera, segunda y tercera generación, sistemas operativos en las PDA, el mini-disk, las cintas de video de 8mm, etc.) Como resultado (o como origen, según se mire) tenemos un panorama de aceleración tecnológica vertiginosa y una montaña creciente de aparatos obsoletos en las casas y los vertederos. Entusiasmo para los usuarios geek, desconcierto para el resto. Como consumidor de electrónica me gusta esta aceleración porque obliga a aprender constantemente; como programador, lo siento, me quedo siempre con los estándares.

Lectura recomendada: En el principio… fue la línea de comandos de Neal Stephenson


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25711/2005

Estándares, reutilización e innovación (reflexiones sobre lo efímero)


Más o menos todo el mundo sabe lo que es un estándar: un acuerdo entre fabricantes que define y normaliza cierto procedimiento o componente de determinada categoría de producto. Según la wikipedia, un estándar es “lo que es establecido por la autoridad, la costumbre o el consentimiento general. En este sentido se utiliza como sinónimo de norma”. El “consentimiento general” se refiere a lo que se ha dado en llamar estándar de facto, es decir, en estos casos no hay acuerdo entre fabricantes, sino que un único fabricante crea un procedimiento o componente que es masivamente aceptado por el mercado o el resto de los fabricantes. Alcanzar un estándar de facto es el sueño dorado de todas las empresas (naturalmente previa patente del componente o procedimiento). Algunas, como Sony, insisten especialmente en esta dirección (cito a modo de ejemplo: el prácticamente difunto mini-disk y el memory stick). Es una apuesta fuerte que si se gana producirá grandes beneficios. En otros casos, los fabricantes se alinean en torno a dos o más estándares, que compiten por imponerse en el mercado. Y lo de menos es la calidad técnica; aquí entran en juego infinidad de factores socio-económicos. Ejemplo de esto fue la disputa entre los sistemas de video 2000, beta y VHS. En la actualidad se ha dado el pistoletazo de salida a la guerra HD-DVD versus Blu-ray. Lo que sí parece claro (al menos históricamente) es que al final sólo queda uno.

Los estándares nos afectan a todos, desde los cables de conexión de aparatos hasta los lenguajes de programación. Por ejemplo, actualmente el estándar casi absoluto de interconexión de aparatos de imagen es el euroconector. Pensado para transmitir casi cualquier tipo de codificación de señal (video compuesto, s-video, RGB…) nos somete a los usuarios a un trace de conexión casi insufrible. Vamos, que puede transportar casi cualquier señal pero es in-enchufable; supongo que todos lo habéis experimentado. ¡Además siempre están en los lugares más inaccesibles! Una de las alternativas, el RCA, que proviene del mundo del audio, tiene el inconveniente de que hace falta un conector por cada señal individual que queramos transmitir (una si es video compuesto más audio izquierdo y derecho, es decir, tres conectores; cinco si es RGB más audio estéreo) pero la ventaja es que el acto de “enchufar” es infinitamente más simple. Todavía mejor es el caso de los jack y mini-jack (estos provienen, cómo no, del mundo de la música profesional), que permiten encapsular una o varias señales en un único conector que además por su diseño ayuda al humano en la tarea de conectar. Que provengan de la música profesional es absolutamente lógico, porque en ella los instrumentos y aparatos se enchufan y se desenchufan frecuentemente. El euroconector se pensó en una época en que al televisor se le enchufaba el video y listo. Era para siempre. Pero con la proliferación de discos duros capaces de reproducir video y la rápida evolución de nuevos productos tengo la sensación de que estamos constantemente enchufando y desenchufando aparatos, lo que genera un odio al euroconector y a sus diseñadores que mejor no comentar aquí.

Pero el euroconector es un estándar de hecho y de derecho, es decir, llegó para quedarse. Porque cuando un estándar se afianza en el mercado se frena la evolución. ¿Quién fabricaría un DVD con un tipo de conexión que no tuviera ningún televisor? La única salida a este pozo gravitatorio es incluir en los aparatos varios tipos de conectores en la esperanza de que el mercado se decante por algún otro. Así los televisores empiezan a incluir conexiones DVI, RCA, SPDIF, VGA, etc. Ya veremos si alguna de ellas finalmente acaba con el odiado euroconector.

Pero bueno, yo en realidad empecé este artículo queriendo hablar de lenguajes de programación y he acabado hablando de conectores. Dejaremos los lenguajes de programación para el mes que viene.

Como ejercicio, pensad en cómo el USB ha derrocado a los puertos serie y paralelo e incluso al todopoderoso Firewire.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/20/2005

Software, patentes, propiedad intelectual y creación


Tema candente este de las patentes de software, al menos entre los informáticos. Y como está candente y además he visto en algunos foros que hay un poco de confusión al respecto creo que merece la pena que dedique el artículo de este mes a aclarar algunos conceptos.

En la actualidad en software se considera bajo el amparo de la “propiedad intelectual”, como sucede con libros, discos y películas, entre otros (iba a decir “productos” como le gustaría a la SGAE y a la ministra, pero me lo callo).

Esto significa que alguien es propietario de lo que ha hecho por el mero hecho de haberlo hecho (me ha quedado bastante aliterativo, ¿eh?) No hace falta ni siquiera registrar un libro o un programa de ordenador en ningún sitio para que su autoría nos pertenezca si la podemos demostrar de algún modo, aunque el registro de la propiedad intelectual es una prueba más, ni necesaria ni tampoco suficiente. Pero cuidado, una cosa son los derechos intelectuales (“esto lo he creado yo”) y otra cosa los económicos (“distribúyelo tú y te ganas lo que puedas, quizá dándome una parte”). Los derechos intelectuales son intransferibles, pertenecen al autor lo quiera o no (quizá por eso muchos autores han perseguido sus libros para quemarlos, porque no podían cambiar la autoría), mientras que los económicos se pueden vender, alquilar o lo que sea según las reglas de mercado. Evidentemente, mientras no haya algún contrato de por medio, los derechos económicos pertenecen inicialmente a la persona que ostente los intelectuales.

La patente es una cosa bien distinta. No se refiere a quién creo algo, sino a quién lo puede explotar, incluso ¡sin haberlo creado todavía o habiendo sido creado por otro que no lo patentó! Ejemplos hay muchos de lo absurda que puede llegar a ser una patente, en especial en el terreno del software informático. Por ejemplo Sony ha presentado hace poco una patente sobre la posibilidad de transmitir datos directamente al cerebro. ¿Increíble? Donde las dan las toman, porque también ha sufrido las consecuencias de la aplicación de una patente sobre el control de la vibración del mando de una consola según la acción del juego que le ha obligado a suspender las ventas de sus Playstations en Estados Unidos.

Es obvio que para poderse desenvolver en un mundo de patentes hace falta una enorme capacidad económica, porque el registro de una patente es caro y la ejecución todavía más. El tema de las patentes mueve cifras astronómicas que sólo pueden permitirse las grandes, es más, diría muy grandes, empresas.

¿Frenan las patentes la creación? Para responder a esto voy a clasificar la creación software macro-creación y en micro-creación. Llamaré macro-creación a la invención de una categoría de software que abre las puertas a una nueva concepción de una tarea. Suelo poner como ejemplo la creación de la World Wide Web en 1990 por parte de Tim Berners Lee y la programación del primer navegador (WorldWideWeb) y el primer servidor Web, aunque cualquier categoría genérica de programa tuvo un programa original que creó la categoría (hojas de cálculo, proceso de textos, incluso sistema operativo o compilador). Este tipo de macro-creación tiene casi siempre consecuencias sociales importantes, como hemos podido comprobar en el caso de la Web. La micro-creación, no menos importante desde el punto de vista económico, quizá incluso más importante, se refiere a las pequeñas modificaciones en la concepción de un tipo de software que ya existe, como por ejemplo la realizada por Mozilla cuando implementó el navegador FireFox. El tipo de software ya existía, pero Mozilla lo ha mejorado, hecho más utilizable, etc. También existe creación en este proceso, aunque es menos profunda. Seguramente es menos creación pero más ingeniería.

Quizá pudiéramos comparar la macro-creación y la micro-creación con la composición de una obra y la interpretación de la misma, sobre todo en el ámbito del Jazz o en el flamenco, géneros en los que el intérprete tiene un papel mucho más importante que en otros tipos de música.

Es posible (es lo que argumentan las grandes empresas) que la instauración de un sistema de patentes para el software potencie la macro-creación, ya que estas grandes empresas podrían invertir más en equipos de personas que generasen nuevas ideas, sin riesgo a que estas ideas fueran luego utilizadas por otros para enriquecerse. Pero lo que para mí está claro es que las patentes acabarían con la micro-creación, porque las pequeñas empresas o particulares que quisieran reimplementar una idea ya existente tendrían que pagar por ello, y el precio de la patente lo fija la empresa propietaria. Es decir, prácticamente se imposibilitaría la reimplementación de ideas. Sólo el compositor podría tocar su obra. Y nadie mejoraría los productos.

¿Para qué querría Microsoft mejorar el IExplorer si no tuviera competencia? Afortunadamente ni Microsoft ni nadie tiene la patente de creación de navegadores, lo que como sin duda sabéis ha permitido el nacimiento de un producto mucho mejor y de código abierto, FireFox, que ha obligado a Microsoft a decir que sacará en breve una nueva versión de IExplorer, porque está perdiendo cuota de mercado a pasos agigantados.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 2576/2005

Máquinas creativas


Pero, ¿qué es la creatividad?

¡Uffffff!

Bueno, corriendo el riesgo de ser simplista, voy a intentar recorrer un camino “implementable”. Es decir, elaborar un análisis que permita enfoques computacionales del problema, aunque ello implique una simplificación quizá escandalosa. Pero esto es un ejercicio mental ¿no?

A mi modo de ver, el proceso creativo tiene al menos dos componentes computacionales: un proceso generador y un proceso selector.

El proceso generador es bastante común en el humano; casi todos los humanos de 15 años se afanan por crear algo único, personal, impactante… y ninguno lo consigue. Este proceso se asienta probablemente en la recombinación (uso deliberadamente el término biológico) de material “percibido” en otras creaciones, más quizá una cierta componente aleatoria en forma de “mutaciones” de este material percibido. El resultado obviamente es bastante desigual (depende del material recombinado y del acierto de las mutaciones) y desde luego poco original.

Con el tiempo uno va recombinando su propio material, de modo que el resultado gana en originalidad, y se dice entonces que el creador alcanza “su propio lenguaje”. Además aumenta la destreza en el proceso, de modo que la calidad media del material en bruto aumenta, aunque al creador le da la sensación de “caminar en círculos”, apresado en su propio estilo. Lo que por cierto a veces genera crisis y rupturas muy interesantes.

El proceso selector es menos común, porque depende de la formación, cultura y criterio del creador, aunque fundamental. Consiste en un ejercicio de autocrítica (constructiva) del propio trabajo. Digo constructiva porque conozco muchos casos en los que este proceso es tan salvaje que nunca nada pasa el filtro, y el creador nunca crea, es decir, se convierte en un no-creador.

Desde el punto de vista computacional, el proceso selector es mucho menos tratable que el generador. Pero aunque no sepamos cómo implementarlo no vamos por ello a bloquearnos; tenemos una solución alternativa: hagamos que el humano sea el selector. Para ello podemos diseñar sistemas en los que (a) el ordenador genere material recombinado o bajo ciertas ecuaciones y (b) el humano guíe al sistema por el camino más interesante.

La solución…
En los próximos capítulos.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/11/2004

La prehistoria de la Informática


Como dice el profesor A. Brain, la informática está en la más absoluta prehistoria.

Esto es quizá difícil de ver para quienes estamos metidos en la vorágine –actualmente casi todos los primermundistas– de esta disciplina-cada-vez-más-industria, en la que los fabricantes nos venden la maravilla a precios cada vez más bajos. Pero lo veremos más claro si pensamos en “la informática que debería ser” y no en la “informática que es”. Algunos ejemplos: (a) enciendo el ordenador y espero 2 minutos para que me pida la contraseña (¿todavía no me conoce?), la escribo y me marcho a tomar café para que cargue todos los malditos plugs de la bandeja del sistema, antivirus, firewall y finalmente el lentísimo programa de correo; (b) me comunico con “mi” sistema a través de dos absurdos dispositivos que me permiten moverme como un caracol por la información a base de pulsar botones, rellenar formularios y elegir menús, es decir, no sé si estoy en una planta industrial, una ventanilla del insalud o un restaurante con una carta complicadísima; (c) asumo que la máquina nada sabe de mi ni nada va a saber, hace lo que laboriosamente le pido y basta, estímulo-respuesta, no hay cognición de por medio (faltaría más, es una máquina, ¿no?).

La metáfora de “la herramienta” se ha apoderado de nuestros sueños: si usted es arquitecto tiene una herramienta (autocad) para hacer sus planos; si es músico le damos una herramienta (secuenciador) para grabar su música (y de paso para que luego sus instrumentos toquen solos en las galas de verano, previa compra del .mid correspondiente por 8 euros si es un tema de moda); si es diseñador una herramienta (photoshop) para hacer sus diseños. Hasta los informáticos tenemos herramientas para programar “casi sin saber” (entornos integrados de desarrollo), que al ocultarnos la complejidad de los entresijos del asunto nos imponen muros allí donde la herramienta no llega. Y así le va al sector.

¿Podemos hacer más?

Por favor, claro que podemos; se supone que el hombre es una máquina universal, ¿o no? Quizá se trate de pensar un poco y de imitar menos. Claro que imitar es fácil… y al parecer rentable.

El término “rentable”, ese que puebla nuestras praderas, parafraseando a Les Luthiers, ese que se ha apoderado de nuestra realidad poco a poco, de manera sutil, de las izquierdas y las derechas… Lo “no rentable” sencillamente “no existe”. Peor, ni siquiera existe lo “no rentable a corto plazo”, como la investigación, o lo “rentable con baja probabilidad”, como los cuadros de Van Gogh, cuando los pintó, claro.

Quiero que esta columna explore vías alternativas, reflexione sobre las posibilidades de la tecnología como nueva puerta a lo social, que reivindique un cambio de punto de vista.

Quiero que esta columna sirva también de soporte a una asignatura que exponga a los futuros ingenieros en informática la triste realidad actual y transmita como mínimo una idea: abramos nuestras mentes, pensemos en la informática que debe ser, en la que será en esos días en que miremos atrás y veamos este nuestro presente con toda su brutal y bárbara realidad, la fatigosa realidad de pulsar teclas y botones, rellenar cajitas, repetir y repetir y repetir las mismas acciones una y mil y cien mil veces.

Aunque luego despertemos y nos encontremos con nuestro prehistórico escritorio.

Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/10/2004

viernes, 16 de febrero de 2007

GNU o el nuevo comunismo (notas sobre una conferencia de Richard Stallman)


¿Qué es GNU?
Para los no iniciados, GNU (que significa GNU’s Not Unix, acrónimo lúdico y recursivo, como muchos de los términos que rodean al mundo GNU) es una organización que pretende fundamentalmente la promoción del software libre, a través del uso de lo que se denomina licencia GPL (GNU Public License).

¿Y qué es el software libre?
En palabras de GNU, «cuando hablamos de software libre nos estamos refiriendo a libertad, no a gratuidad». El software libre no es, en contra de lo que mucha gente cree, software gratuito. Ni siquiera es software que pueda utilizarse de cualquier manera y para cualquier propósito, ya que un programador está obligado a cumplir ciertas condiciones si utiliza código GNU. Observe que he utilizado deliberadamente los términos “programador” y “código”, porque son la clave del asunto.
Primero, un comentario para neófitos: un programa de ordenador usualmente consiste en una “novela” escrita en lenguaje de ordenador, que se denomina código fuente. Este código fuente, al ser compilado, genera el código ejecutable, que es el que los ordenadores son capaces de ejecutar.
El común de los mortales no está para nada interesado en el código fuente, porque ni conoce ni le importa el lenguaje en el que está escrita la “novela”, y mucho menos está interesado en modificarla. De hecho, el modo de trabajo tradicional consiste en que al cliente final se le vende sólo el código ejecutable. La empresa desarrolladora del software continúa trabajando en el código fuente del programa para mejorarlo, y así va generando sucesivas versiones. El código fuente, por así decirlo, forma parte del “capital” de la empresa, y ocasionalmente se vende a otras empresas a un precio varios órdenes de magnitud mayor que el del código ejecutable.
Lo que sí obtiene el usuario de software libre es un beneficio indirecto, que es una mayor calidad en el producto final, ya que al estar el código fuente sometido a un proceso de mejora constante por diferentes programadores, normalmente alcanza unas cotas de calidad raramente obtenidas por el procedimiento tradicional de desarrollo software.
Si usted no va a modificar un programa, tanto le da que sea GPL, OpenSource o simplemente freeware (términos que explicaré más adelante). Simplemente lo que quiere es que sea gratis y, por supuesto, que funcione correctamente, que cumpla lo mejor posible su propósito.
Pero si usted es programador, más pronto o más tarde encontrará que cierta funcionalidad que desea incorporar a un programa ya ha sido programada por alguien, y que este código fuente quizá se encuentra disponible en Internet. Como repetir el trabajo parece un poco absurdo, quizá usted se encuentre tentado de tomar ese código fuente, incorporarlo al suyo propio, y ¡a correr!
El problema surge si dicho código fuente se encuentra bajo licencia GPL, ya que la licencia GPL obliga a respetar una serie de términos, que podemos resumir en:

  • El código fuente sometido a licencia GPL se puede distribuir libremente. Se puede cobrar por dicha transferencia. También se pueden distribuir los ejecutables generados a partir del código fuente para plataformas concretas, ahorrando a los usuarios el proceso de compilación. Y por supuesto, el código ejecutable generado se puede utilizar libremente.

  • Es posible modificar libremente el código fuente o incluirlo en un programa mayor, estando obligado entonces el programador a distribuir el resultado bajo licencia GPL.

  • No se ofrece ninguna garantía ni existe ninguna responsabilidad por parte de los autores del código en caso de mal funcionamiento de los programas.

Curiosamente, las compañías que comercializan software “sin código fuente” centran sus ataques a la licencia GPL en este último punto, y los usuarios defensores de la licencia GPL centran sus alabanzas en el primero. Yo voy a discutir principalmente del segundo.

Impacto empresarial de GPL
Un primo mío vino el otro día a contarme que en nuestro pueblo estaba muy de moda una empresa que hacía “software libre”, y que esto era fantástico porque de este modo el código fuente que desarrollaban quedaba a disposición de la empresa que pagaba por el desarrollo. Yo le pregunté, asombrado, ­—¿Software libre? ¿Estás seguro? ¿Saben los de la empresa contratante lo que eso significa?—. Porque una cosa es disponer del código fuente del desarrollo y otra muy diferente que ese código sea “publico” o peor todavía, “libre” y esté disponible para cualquiera, incluida la competencia de la empresa contratante.
Imaginemos que una empresa A invierte 60.000 € en contratar el desarrollo de un programa que le permite una gestión automatizada por la que ahorrará 30.000 € anuales. Es una inversión justificable. Pero, si la empresa B, que se dedica a las mismas actividades que la A, puede copiar y utilizar libremente dicho programa, se convierte en igual de competitiva que la empresa A, sin efectuar ningún gasto y sin necesidad de fomentar la innovación.
Quizá la empresa B invierta un poco para mejorar el programa, pagando a los mismos desarrolladores, obteniendo así un producto todavía más competitivo.
Peor todavía, puede que la empresa A mejore su programa con sus propios recursos, sin volver a contratar a los desarrolladores: da igual, el resultado de sus mejoras tiene necesariamente que ser distribuido bajo licencia GPL.
La pregunta es la que yo le hice a mi primo: ¿sabe la empresa A dónde se está metiendo?

Desde la informática más cerrada hasta la informática más abierta
Los que llevamos algunas décadas trabajando en informática hemos vivido una difícil evolución desde modelos muy cerrados (los viejos sistemas de IBM, NCR y otros) hasta modelos más abiertos. Pero a veces es complejo anticipar dónde acabará una decisión e incluso cómo se posicionan las diferentes empresas dentro de esa lucha despiadada por la cuenta de resultados a medio plazo.
Los modelos de informática más cerrados eran comunes en los años 70 y consistían en diseños conjuntos hardware / software, estando ambos conceptos en manos de los desarrolladores y dejaban al cliente a merced de éstos.
Parece irónico que IBM, una de las principales defensoras de los modelos más cerrados, fuera quien posibilitó la entrada, a lo largo de los años 80, en una nueva generación de máquinas en las que el hardware y el software eran desarrollados por empresas diferentes (modelo que, por ejemplo, Apple nunca abandonó). Este modelo es mucho más abierto que el anterior, aunque presenta problemas técnicos importantes: es como si un fabricante de automóviles desarrollara la carrocería y varios fabricantes fabricasen diferentes motores, todos acoplables a la misma carrocería. Esto es técnicamente más complejo que si hay un solo fabricante para todo.
El proceso de apertura en los desarrollos informáticos ha continuado durante los 90 centrándose en dos nuevas estructuras bipolares: código fuente y código ejecutable, programas gratuitos y programas de pago.
En cuanto a la gratuidad de los programas tenemos varias categorías: programas de pago, programas shareware (digamos “de pago si te gustan”) y programas freeware (gratuitos). A esto hay que añadirles una incómoda categoría de reciente aparición: los programas que incluyen spyware, adware o similares, un concepto peligrosísimo (desde mi punto de vista, un spyware no es más que un virus troyano que legalmente no puede ser desalojado por los antivirus). Supongo que el lector estará medianamente familiarizado con estas categorías, y que no tendrá muchos problemas en clasificarlas como más o menos abiertas.
En cuanto a la distribución del código fuente hay al menos tres modalidades:

(a)Bajo ciertas condiciones contractuales, el desarrollador entrega una copia del código fuente al cliente, que pueden servir a éste para auditar la corrección y la adecuación a las especificaciones del producto comprado. No obstante, el cliente NO tiene derecho a modificar ni distribuir el producto. Esto, por ejemplo, está pasando con Windows. Las administraciones que lo usan (al menos las técnicamente más informadas) están firmando acuerdos con Microsoft por los que reciben una copia del código fuente del sistema operativo.

(b)La licencia GPL, que obliga, si se modifica el código fuente (o si se integra en otra aplicación) a que el resultado sea también publicado bajo licencia GPL. Consciente de los problemas que genera la licencia GPL, GNU ha creado una versión más suave, la licencia LGPL. LGPL es “Lesser GNU Public Licence”, algo así como “licencia GPL, pero menos”. En este caso quien modifique el código original no está obligado a distribuirlo, de modo que las empresas pueden rentabilizar su inversión.

(c)El código OpenSource, que puede ser utilizado y modificado a voluntad sin que ello implique ningún compromiso por parte de quien lo modifique o integre en otra aplicación.

Gratuito y “entrega de código fuente” son dos cosas diferentes, como se esfuerzan en aclarar los de GNU, pero con la difusión del uso de Internet cualquiera puede conseguir un programa en las modalidades (b) o (c), compilarlo (si es que no lo encuentra ya compilado para la plataforma en la que quiera utilizarlo) y utilizarlo de modo gratuito.
Esto hace que el último refugio para el beneficio económico de quienes desarrollan GPL sea la consultoría, el soporte y la adaptación a necesidades concretas de los clientes, aunque con los inconvenientes anteriormente comentados.

¿Y la invención?
Decía Machado: “de cada diez cabezas / nueve embisten y una piensa”. En informática, de cada mil cabezas, novecientas noventa y nueve copian y una inventa. Pero quienes copian sólo introducen pequeñas mejoras en las ideas originales, mientras que quien inventa (y esto es lo que diferencia a la informática de las ingenierías y las aproxima al arte) abre nuevos mundos de posibilidades. Cuando Berners-Lee construyo en 1990 el programa WordWideWeb estaba abriendo la puerta a un universo nuevo, quizá anticipado en 1945 por Vanevar Bush. Luego vino Mosaic, NetScape, Internet Explorer, Opera, Mozilla y tantos otros, que no fueron más que copias mejoradas de la idea original.
Tengo dudas —y que me perdonen los GNU/linuxeros— de que el proceso GPL fomente la invención: UNIX existe desde los 70 aunque haya sido perfectamente copiado y mejorado por GNU; las ideas de los interfaces gráficos no son de GNU, ni de Windows; ni siquiera, como muchos creen, de Apple. Los interfaces gráficos se crearon en 1973 en los laboratorios Xerox PARC. La tecnología Web se creo en el CERN, y se hizo gratuita. En un sistema social que no protege las ideas, tengo mis dudas de que la invención sea rentable para alguien.

¿Por qué no ir más allá? ¿Qué pasa con otros objetos sometidos a la propiedad intelectual?
Stallman se para en seco cuando se habla de música o literatura. Admite que la cultura debería ser libremente distribuible sin pagar royalties (¡qué opinará la SGAE sobre esto!). Pero no se atreve a admitir que una novela o un tema musical pueda ser modificado y vuelto a distribuir. La idea, no obstante, es fascinante. Esto existe desde siempre en la música popular, hasta que las discográficas la han mercantilizado. Y al menos creo que tiene sentido en otro dominio de aplicación: las traducciones de obras literarias. ¿Cuántas veces nos ha pasado que hemos detectado un error de traducción en un libro? Un libro con licencia GNU podría ser corregido por cada lector y vuelto a publicar: ¿generaría esto una nueva literatura? Existen hasta herramientas informáticas para ello, y ¡una enciclopedia construida de este modo!

Conclusión
La licencia GPL es una idea original, interesante, ¡y comunista, en el mejor sentido del término! Permite que desarrolladores idealistas (y normalmente financiados por otras actividades que dejan mucho tiempo libre, como funcionarios de los centros de cálculo de la administración o las universidades) compartan y mejoren su código fuente, al tiempo que evitan que las empresas saquen provecho de su esfuerzo implementando productos que usen fragmentos de código GPL.
Desde este punto de vista los términos de la licencia son excelentes.
Sin embargo, desde el punto de vista empresarial, hay que tener muy claro lo que se está haciendo cuando se utiliza código GPL, y si no que se lo pregunten a CISCO Systems, que ha sido objeto de fuertes presiones por parte de GNU por haber incluido código con licencia GPL en uno de sus routers.
El código bajo licencia OpenSource no está en cambio sometido a estas limitaciones. Un programador puede usarlo, modificarlo y distribuir el producto final como quiera. La contrapartida es que el autor del software original no percibiría beneficios por ello. Ni siquiera el beneficio de poder obtener el código fuente mejorado.
La licencia GPL establece dos universos: el de lo empresarial y el de lo compartido, lo comunista, ambos divididos, como no podría ser de otro modo, por un telón de acero.
Al final de su conferencia, alguien preguntó a Stallman que cómo podía entonces ganarse la vida un programador si distribuía su código fuente de modo gratuito. La respuesta fue tajante: “dedíquese a otra cosa y programe en sus horas libres”, una opinión que curiosamente coincide con mis propias ideas sobre lo que deberían hacer los escritores de literatura para que ésta sobreviva.


Publicado originariamente en la Revista Poética Almacén el 1/2/2004

¿Dónde están las autoridades?


Como dijo Discépolo en su famoso tango “cambalache”, en nuestra sociedad se mezclan en una misma vitrina burros y grandes profesores, y —añado yo— un vasto elenco de mediocres que desarrollan sus diversas profesiones sin llamar la atención, de modo más o menos chapucero.

No me refiero a ninguna profesión en particular. Desde el fontanero que repara una tubería que vuelve a gotear a los pocos meses hasta el investigador que avala sus resultados con pruebas estadísticas que no comprende, pasando por el ingeniero informático que termina un programa en tiempo y forma a base de cortar y pegar código hallado en Internet.

Recuerdo que hace años un profesional tenía cierto gusto por “las cosas bien hechas”, el trabajo fino, correctamente acabado, planeado con cuidado. Ya no. Lo que cuenta es la cantidad, la productividad, el número de trabajos por unidad de tiempo, el rendimiento neto. ¿Qué ha cambiado? La progresiva inserción en una economía de mercado que valora las cosas sólo en términos monetarios, y la asimilación por parte de los trabajadores —sean del signo político que sean— de esas reglas de juego.

Ya no existen las cosas bien hechas; existen las cosas completadas, terminadas, listas para la venta, principalmente en su envoltorio externo, que es el que para la venta cuenta, preparadas para la promoción y el marketing, ya sean libros, aparatos electrónicos, programas de televisión o música de cámara.

Mientras, los mecanismos políticos andan ocupados básicamente en problemas anacrónicos, a veces objetivamente absurdos, y el individuo carece de mecanismos de acción efectiva sobre su contexto social.

Y no solamente no existen las cosas bien hechas; aún más grave es que este paradigma mercantil ha acabado con los sistemas de control extra-mercantiles capaces de poner en evidencia que el “nuevo traje del emperador” es una falacia. Estos sistemas de control se fundamentaban en la existencia de personas independientes —los críticos, o en la jerga técnica, las autoridades sobre un tema determinado— que emitían una opinión acerca de los productos. Un verdadero crítico es un orientador, sometido también a las reglas del juego, ya que en función de la utilidad que su trabajo tenga se consolidará o no como referente para cada usuario en particular.

Pero en la actualidad el aparato mercantil ha puesto a la zorra a cuidar a las ovejas, es decir, los críticos son juez y parte, bien porque además de críticos son productores del bien que evalúan, bien porque son asalariados del medio que genera (más o menos directamente) ese bien.

Claro, todos ustedes están pensando ahora en la pobre literatura, que más bien debería pasar a llamarse “sistema de publicación de libros”. Es un gran ejemplo de esto. Caso típico: el escritor X ejerce de crítico para analizar la obra del escritor Y en el suplemento cultural del periódico P. En la mayoría de las reseñas actuales de libros que aparecen en los suplementos culturales, el libro del escritor Y está publicado por una editorial del grupo del periódico P. Y más grave: el escritor X tiene también varios libros publicados en esa o en otra editorial del grupo del periódico P. Todos los libros de los autores de las editoriales del periódico P son obviamente grandes obras literarias; en esto hay un acuerdo unánime en reseñas, listas de ventas e incluso en la opinión de los propios autores, que puestos a cuidar a las ovejas, quién mejor que ellos. La ideología del periódico P es absolutamente irrelevante: no es una cuestión política, como a veces se quiere hacer creer, sino económica.

Este, amigos, es el auténtico “cambalache” literario. En las vitrinas de la vida se han mezclado críticos, editores, autores, redactores, jurados y empresarios… El único que queda fuera del cambalache es el lector. ¿Cómo salir de este círculo? ¿Es posible restablecer la vieja figura del crítico independiente? Me parece que no.

Tengo que reconocer que soy excesivamente optimista con la tecnología, pues creo que la solución puede venir de la mano de ésta, a través de lo que se conoce como “sistemas de recomendación”. En ellos son los propios usuarios los que cuidan a las ovejas, habida cuenta de que los sistemas oficiales son absolutamente incapaces.

Pero dado que no todos los usuarios tienen los mismos gustos, ni el mismo nivel cultural, ni las mismas inquietudes, no basta con la idea naif de emitir puntuaciones y calcular promedios, tan extendida por la Web. Lo que debemos hacer —por explicarlo de un modo simple— es estructurar a los usuarios en grupos similares (utilizando las valoraciones que emitan de una serie de productos dentro del ámbito a evaluar mdash;libros, en el caso del ejemplo—), de modo que las opiniones de un usuario sólo serán pertinentes para los usuarios de su grupo. Así, todos los usuarios afines al grupo editorial del periódico P se recomendarán sin duda entre ellos, pero su opinión no afectará a quienes buscan literatura, no “libros publicados”. Técnicamente no es demasiado complejo, socialmente sí.

Con estas técnicas, los burros y los grandes profesores —y todos los mediocres que en el mundo son— seguirán mezclados en la vitrina de Discépolo, no hay remedio para esto, porque es la sociedad que nos ha tocado. Pero, al menos, cada uno tendrá un manojo de carteles colgados con los colores de los diferentes grupos de usuarios, donde alguno seguramente dirá, con letras bien visibles: “mensaje para los del grupo G: este tipo es un verdadero, auténtico y absoluto burro. No pierdas tu tiempo con él”.


Publicado originariamente en la Revista Poética Almacén el 1/9/2003

Sobre librerías y bibliotecas II


He de reconocer que en mi artículo Sobre librerías y bibliotecas me quedé corto.

El otro día indagando por la red —en lo que un amigo mío denomina "recreo"— encontré una fuente inmensa de libros, es decir, una auténtica biblioteca en Internet. Su uso es un poco complicado para el profano (en informática), pero voy a dar la pista que conduce a ella: es un canal de IRC en irc.undernet.org llamado #biblioteca.

Por poner un ejemplo de lo que puede encontrarse allí, baste decir que casi todos los libros que cité en mi artículo “los otros escritores” pueden obtenerse en préstamo en esta biblioteca.

Esta práctica, no ciertamente legal, está no obstante clarísimamente a favor de la lectura. Tanto más cuanto la mayor parte de los libros que se ofrecen están descatalogados y nadie piensa en reeditarlos.

De momento es un fenómeno minoritario, pero cuando se extienda surgirá sin duda la polémica, como sucedió con la difusión de música y está sucediendo con las películas. Se alzarán voces iracundas. Se tomarán medidas contra la difusión y contra la lectura de esos libros... ¡Caramba, esto me está recordando a Farenheit 451!

En este contexto me pregunto si la "defensa de la lectura" que algunos enarbolan no será en realidad una "defensa de la venta de libros". Ya lo veremos. De antemano, la postura de los lectores la tengo clara. La de los editores también. La que me intriga es la de los políticos e instituciones públicas.

Curiosamente, las bibliotecas han existido desde que existe la escritura —mucho antes que las librerías, invento bastante más reciente—. Y a nadie importó nunca que un libro se leyera en una biblioteca o se llevara a casa para leerlo en lugar de ser adquirido. Claro que existía un objeto físico reconocible, aunque en el fondo irrelevante. Quienes difunden libros en la red han elegido con toda precisión el término biblioteca: se trata de leer, no de comerciar.

Pero —como alguno de los iracundos dirá, y de hecho se ha dicho en el contexto de la (mal llamada) música—, ¿qué pasa con los autores? ¿Quién va a escribir si no cobra nada por sus obras?

Señores, para empezar, lo de cobrar por escribir es un invento moderno. ¿Vivía Kafka de sus libros? ¿Vivía Unamuno de sus libros? ¿O Machado? ¿O Cortázar? La literatura es quizá un modo de vida, pero no un modo de ganarse la vida. Evidentemente Stephen King sí vive de sus libros (y seguro que muy bien), pero eso es otra historia...


Publicado originariamente en la Revista Poética Almacén el 1/12/2002

Los otros escritores



Voy a intentar en este pequeño artículo hacer algo extremadamente complejo, como es realizar una valoración, desde un punto de vista literario —aunque sin olvidar los aspectos no estrictamente literarios— de algunos escritores de un género tan subvalorado por unos y sobrevalorado por otros como es la Ciencia Ficción.
Lo hago porque creo que puede ser útil a lectores que quieran introducirse en este mundo y no sepan por dónde empezar. Mi experiencia es que los rankings que pululan por Internet son confusos porque combinan las valoraciones de dos tipos de lectores: el lector "adolescente" (Cortázar hubiera dicho el lector "hembra", pero corren otros tiempos), que busca fundamentalmente libros fáciles y sorprendentes, y el lector de literatura, que se interesa más por el estilo, las reflexiones, los personajes.
La tarea es difícil porque, al contrario de lo que sucede en la literatura tradicional, las valoraciones comúnmente aceptadas son bastante engañosas, cosa que me asombra y para la que no encuentro explicación satisfactoria.
Mis comentarios, no obstante, están mediatizados por dos hechos. El primero es que no he leído las obras en su idioma original, y el segundo es que no he leído todas las obras.
El primer problema lo resolveré aclarando que mis valoraciones se van a referir al par escritor—traductor, que es al fin y al cabo a lo que el lector medio va a tener acceso.
Sobre mi desconocimiento de muchos escritores sólo me puedo defender diciendo que, si en este artículo no se cita algún escritor, no se presuponga nada sobre él. Agradeceré comentarios en este sentido que me puedan llevar a descubrir algún filón oculto.
LOS MITOS
Lo primero es derribar algunas torres: Asimov, Clarke y Heinlein.
Isaac Asimov tiene grandes ideas —las tres leyes de la robótica, la propagación de las alteraciones de los acontecimientos a lo largo del tiempo, que sigue una campana de Gauss, para el asombro del protagonista de "El fin de la eternidad", la psicohistoria...—, pero, pese a ser quizá el autor más famoso de ciencia ficción, hay que reconocer que escribe fatal. ¿Por qué es tan famoso? No lo sé (aunque admito que en mi adolescencia leí casi toda su obra). Dicen que "Los propios dioses" es su mejor novela. A mí particularmente me gusta "El fin de la eternidad", y por supuesto sus ensayos sobre divulgación científica, genero en el que sí es un maestro, de entre los que recomiendo "El electrón es zurdo".
Arthur C. Clarke escribe correctamente, pero creo que está algo sobrevalorado, quizá gracias a Kubrick y a 2001, película que como es conocido se rodó en paralelo con la escritura del libro. Clarke no está mal, pero le falta algo. Prefiero a Kubrick.
Lo de Heinlein francamente no lo entiendo. Quizá sea como Asimov, para leer en la adolescencia. Lo cierto y verdad es que he tenido que abandonar sus libros recién empezados cada vez que lo he intentado.
Tampoco encuentro especial interés (aunque confieso que he leído muy poco de él, así que no se tenga muy en cuenta esta opinión) al "mítico" Philip K. Dick. Quizá su fama se deba a su desordenada vida. Muchas de sus novelas han sido llevadas al cine, dando como resultado grandes películas, como Blade Runner o Minority Report (mejor la primera que la segunda, pese al despliegue de medios).
También me parece intragable "Arrecife brillante', de David Brin. Mal escrito, pesado, infantil.
CLÁSICOS MÁS O MENOS ACEPTABLES
Frederik Pohl. Se nota algo antiguo, pero su "Pórtico" se lee bien (aunque abuse del psicoanálisis) y tiene algunas buenas ideas. Lo peor es su obsesión por las relaciones sexuales.
Poul Anderson. Trata el tema de los viajes en el tiempo (en "Los guardianes del tiempo") como debe tratarse: como un impredecible generador de paradojas. Profundo su tratamiento histórico; a veces parece que estemos leyendo un tratado de historia.
Gregory Benford. Medianamente interesante, aunque le he leído poco. "Sudario de estrellas" es pasable. "Cosmo" también, pero nada especial. Hay quien dice que en inglés escribe muy bien.
Larry Niven. Imaginador de la mayor obra de ingeniería jamás concebida, e imposible de construir. Su "Mundo anillo" es prodigioso, agorafóbico, correctamente escrito. Interesante también la continuación, "Los ingenieros del mundo anillo". Otras obras no son tan buenas.
Orson Scott Card. Tiene libros de una imaginación impresionante, aunque cuando se pone psicológico es insufrible. Desde que se puso de moda se ha dedicado a escribir sagas de pésima calidad, explotando las ideas hasta aburrir al lector. En fin, una pena, producto de la mercantilización de nuestros días. Últimamente he descubierto que le debe muchísimo a Ursula K. Leguin: el "ansible", el interés por las peculiaridades de otras especies inteligentes y la imposibilidad de una comunicación completa con ellas, las limitaciones de los viajes estelares... Sus mejores libros: "Traición", fantástico, "El juego de Ender" y "La voz de los muertos", el segundo de la saga, y a partir de éste la saga se va al garete, y también "La memoria de la Tierra", y ni uno más de esta otra serie.
Frank Herbert. Autor de "Dune", una saga de éxito, que inspiró la película de David Lynch. Bien escrito, profundiza en el tema de los poderes mentales.
Nancy Kress. "Mendigos en España", a pesar de lo desafortunado del título, trata de modo muy interesante el problema de la ingeniería genética. La segunda parte —"Mendigos y opulentos"— es algo más floja, y la tercera parte "La cabalgata de los mendigos" bastante mala.
Naturalmente hay clásicos más antiguos: Verne, excelente —para mí, sobre todo "La vuelta al mundo en 80 días" y "La isla misteriosa"—, H. G. Wells, Orwell, Lovecraft y Bradbury. Este artículo no va con ellos, pero hay que citarlos.
MIS PREFERIDOS
Vernor Vinge
Mi preferido entre todos. Con ideas originalísimas, como la singularidad tecnológica, un punto en el tiempo en el que la capacidad tecnológica de una sociedad tiende a infinito ("La guerra de la paz", "Naufragio en el tiempo real"), o la idea de que las propiedades del universo no son iguales en todas partes, existiendo regiones (como la zona próxima al centro de las galaxias) donde la inteligencia no es posible (lo que él denomina "las honduras sin pensamiento") y zonas (en los confines de la galaxia) donde es posible la existencia de seres con otro tipo de pensamiento, seres incomprensibles para los humanos ("Un fuego sobre el abismo").
Todos sus libros son interesantes, aunque por desgracia casi imposibles de encontrar, y algunos, como "True names" ni siquiera han sido traducidos al castellano. No ha escrito más de cinco o seis novelas.
William Gibson
Fantástico. Entiende qué es y qué pretende la Inteligencia Artificial. Entiende a dónde nos pueden llevar la Biología y la Medicina. Para muchos es el creador de la cultura "cyberpunk" aunque creo que parte de sus ideas ya se encuentran en "True names" de Vinge. Su ambiente ha sido reproducido en el cine en películas como Jonny Mnemonic (basada en uno de sus relatos) y Matrix.
Su estilo es moderno, combina tiempos, acciones y personajes. No para "adolescentes".
Ursula K. Leguin
Aunque es una escritora que podría considerarse clásica, para mí es un descubrimiento reciente. Lo más cercano que he encontrado, dentro del género, a la pura literatura. Una prosa al servicio de los personajes, que cambia según el modo de pensar y de sentir de cada especie, remarcando las sutiles y a veces insalvables diferencias entre ellas.
"El mundo de Rocanon" y "La mano izquierda de la oscuridad" comparten un mismo telón de fondo: la historia de un enviado de una liga de mundos a un planeta cuyos habitantes desconocen los vuelos espaciales.
Dan Simons
De prodigiosa imaginación. Bien escrito. "Hyperion" y "La caída de Hyperión" son dos libros fundamentales en cualquier biblioteca de ciencia ficción, con un tratamiento serio y creíble de los personajes, incluso sometidos a las más increíbles situaciones.
Kim Stanley Robinson
"Marte Rojo" me parece un libro muy interesante, aunque no tanto el resto de la saga. Alterna tiempos y líneas argumentales, y profundiza en las consecuencias políticas de la colonización de Marte. Verdadera ciencia ficción hard. Bastante realista.
EL PROBLEMA DE ENCONTRAR BUENOS LIBROS
El gran problema para leer ciencia ficción en castellano es encontrarla. Los libros no se reeditan, ni siquiera los clásicos (con escasas excepciones).
En Internet existe una iniciativa para convertir libros descatalogados a formato electrónico y ponerlos a disposición de los lectores. Esta práctica, no del todo legal, está sin embargo permitiendo el acceso de muchos lectores a la mejor ciencia ficción. ¿Los perjudicados? Los malos libros. Dos de los grandes impulsores de esta iniciativa son diaspar y sadrac. Gracias por vuestro trabajo.
Como avisé al principio, el aficionado a la ciencia ficción probablemente echará en falta algunos escritores. Me he atenido a mi propia experiencia de lectura y no pretendo ser exhaustivo. Si falta alguno bueno, hacédmelo saber. Nos interesa.
Actualización: Tiempo después de escribir este artículo descubrí el que actualmente es mi escritor preferido de Ciencia Ficción: el australiano Greg Egan, y otro de los mejores: Neal Stephenson.

Publicado originariamente en la Revista Poética Almacén el 1/11/2002