Mostrando entradas con la etiqueta tecnología. Mostrar todas las entradas
Mostrando entradas con la etiqueta tecnología. Mostrar todas las entradas

domingo, 25 de marzo de 2007

The Long Tail


Uno de los días en los que más me he divertido fue allá por el año 1982. Un amigo trajo a casa un juego llamado “El Candidato” y junto con otros amigos echamos una partida. Era un juego muy original, similar al ajedrez pero con cuatro jugadores y unas reglas de movimiento de piezas totalmente diferentes. Entre ellas había una muy peculiar, llamada el diplomático, que permitía reubicar cualquier otra pieza que entrara en su alcance de ataque. Esto originaba situaciones muy divertidas que, potenciadas por las bromas y el ingenio de alguno de los participantes, hizo que literalmente nos revolcáramos de risa.

Unos meses después quisimos repetir la experiencia, pero nuestro amigo dijo que se habían perdido las piezas, y además no recordábamos las reglas.

Durante un tiempo pregunté en grandes almacenes y jugueterías por “El Candidato” y nadie sabía de él, hasta que al final me olvidé del asunto, más o menos hasta 1995.

Por ese año, y ante la incipiente difusión de la Web entre la comunidad universitaria (todavía no había llegado al gran público), recordé el asunto y realicé unas cuantas búsquedas en Altavista. Ya por entonces la sensación empezaba a ser “todo está en Internet”, y cada día descubríamos un nuevo sitio web maravilloso sobre algún tema insospechado. Pero “El Candidato” no estaba por ningún lado.

Repetí la búsqueda hacia el año 1999, ya sobre Google, que había desbancado a Altavista en menos de un año (entre 1998 y 1999). Parecía que teníamos a mano la herramienta definitiva. Pero “El Candidato” no aparecía.

Volví a olvidarme del tema. Hasta 2006. La Web había cambiado profundamente desde mi intento anterior: se había socializado. Habían aparecido los blogs y las redes sociales, un ejercito de internautas generando contenido —en contra de lo que piensan algunos reaccionarios — de inmensa utilidad. Utilidad inmensa aunque muy específica. El principio del fin de los medios de comunicación “de masas” y el nacimiento de los medios de comunicación “de minorías”. El ocaso definitivo de la era industrial.

No recuerdo exactamente qué búsqueda hice (algo como [“juego de tablero” “el candidato”]), pero llegué a un blog especializado en juegos que decía “El djambi o ajedrez de Maquiavelo es un juego para cuatro personas inventado por Jean Anesto en 1975. Se clasifica como juego de tablero abstracto. También se le conoce con los nombres de El Candidato o El Líder”.

O sea, que el principal problema era que el nombre del juego no era “El Candidato” sino que en una determinada versión de 1982 se le llamó así. Una vez averiguado el nombre originario del juego fue fácil encontrar las reglas. Ni más ni menos que en la Wikipedia, ¡cómo no! Ese antro de perversión de la realidad, según esos mismos reaccionarios.

No sólo eso, desde el artículo de la Wikipedia hay un enlace a un sitio francés desde el que descargarse imágenes del tablero y las fichas. Así que volví a quedar con mis amigos, los de aquel día en el 82, y jugamos. Y volvimos a reírnos como entonces.

Pero no acaba aquí la historia; intentando aclarar una duda sobre las reglas, llegué a una página de la Sociedad Británica para el Conocimiento . Si miráis las propiedades de la imagen del tablero que aparece en el artículo, se ve que la misma está tomada de la web http://www.juegosdelmundo.com.

Curioso. Esta web es la página de una artesana asturiana que construye sobre cuero una serie de juegos, entre ellos “El Candidato”, ¡y los vende por Internet! En una semana tenía el juego en casa, precioso, pagado contrareembolso.

Me parece increíble cómo la red permite la localización de un producto absolutamente minoritario, y cómo un pequeño productor consigue ganarse la vida vendiendo estos productos minoritarios, que no compensarían a ninguna tienda tradicional, gracias a que su mercado potencial es todo el planeta. Muchas minorías esparcidas por todo el mundo pueden hacer una mayoría. Es lo que se conoce como The Long Tail.

Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/3/2007.

domingo, 18 de febrero de 2007

Vienen curvas


¿Sabían ustedes que la Ingeniería Informática es una profesión no regulada?

¿Y eso… qué significa?

Significa que un proyecto informático no necesita tener un responsable titulado y colegiado que lo avale. Cualquier proyecto de Ingeniería (no informática) o Arquitectura tiene que ser supervisado y firmado por un Ingeniero o Arquitecto que da el visto bueno y realiza el seguimiento de su desarrollo para garantizar cosas como que se ajusta a las especificaciones, que sigue las normas y estándares.

Decimos, por ejemplo, que los arquitectos tienen las “atribuciones profesionales” para construir casas. Esto no quiere decir que el arquitecto ponga los ladrillos, pero sí que, si la casa se viene abajo o no tiene ventanas, el arquitecto es el responsable de ello. El Colegio de Arquitectos es quien controla a los arquitectos y, en caso de incompetencia manifiesta, expedienta o incluso expulsa del ejercicio profesional a quienes corresponda.

Es un sistema social que beneficia (a) a los arquitectos competentes y (b) a los clientes, que disponen de mecanismos de control de calidad.

Supongo que a estas alturas ya se están imaginando ustedes por qué suceden ciertas cosas en el desarrollo de proyectos informáticos: el Ave Madrid – Barcelona irá más lento de la cuenta por “incompatibilidad” de sistemas informáticos, la transacción bancaria no puede realizarse porque el sistema “se ha caído”, etc. Sin responsables; afortunadamente en castellano tenemos el modo impersonal para poder comunicar estas cosas.

Lo grave es que, a día de hoy, a falta de seis meses seis de la publicación del “Catálogo de Títulos Universitarios Oficiales”, el Estado Español no tiene la menor intención de que en él aparezca la Ingeniería Informática, ni de regular la profesión. Y las universidades parecen estar de acuerdo. A pesar de que España es el único país de la Unión Europea en esta situación.

¡¡¡¿¿¿Pero cómo puede ser esto???!!!

Serrat, en su Plany al mar dice: “per ignorància, per imprudència, per inconsciència i per mala llet.”. Supongo que debe ser por un poco de todo eso.

Pero ahora los informáticos se están movilizando desde la universidad, desde las asociaciones y desde Internet; no sólo están molestos con un Estado que no ha movido un dedo en más de 25 años de existencia “de facto” de la profesión y el sector, sino que empiezan a estar enfadados, quieren hacerse oír: quieren una profesión regulada, quieren atribuciones profesionales, quieren una titulación de primera incluida en el Catálogo Oficial de Títulos.

Vienen curvas.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/1/2007

El largo camino hacia la libertad informática


Los sistemas propietarios

Cuando comencé en esto de la informática, el mercado estaba dominado por soluciones propietarias. Los fabricantes de ordenadores vendían el hardware junto con un sistema operativo propio (en muchos casos absolutamente burdo) y, si podían, incluso con la aplicación hecha a medida para el cliente. Este es el punto de partida de este artículo: el modelo más esclavizante de mercado informático, al que las empresas que lo profesaban se aferraron ferozmente frente a los nuevos vientos. Un sistema completo costaba entre 5 y 10 millones de pesetas de la época.

Como en los sistemas absolutistas, los tres poderes de la informática (hardware, sistema operativo y aplicaciones) estaban en manos de una sola organización.

La independencia de poderes

En 1981 surgió un nuevo modelo que cambiaría el mundo: comercializar de modo independiente el hardware, el sistema operativo y los programas, siendo cada uno fabricado por diferentes empresas. Los impulsores de este modelo fueron IBM y Microsoft, con el PC compatible y el MS-DOS. En aquella época, empresas como Apple o NCR se mantuvieron firmes en el modelo antiguo. Y perdieron. Y el resultado del nuevo modelo fue un abaratamiento del producto completo porque se había incrementado enormemente la competencia entre compañías. Ahora uno podía comprar el hardware a decenas de fabricantes diferentes y montar sobre éste sistemas operativos de tres o cuatro desarrolladores.

Pero el software seguía siendo caro.

Sobre el año 1983, sustentado por la posibilidad de distribución electrónica (vía modem –con las BBS–, o vía Internet –FTP en aquella época–), surgió una nueva idea de comercialización del software, el shareware. Particulares que habían desarrollado un programa para sus propios fines pensaron que éste podía ser útil a otros usuarios, así que permitieron que el programa pudiera utilizarse de modo más o menos gratuito, a veces arrancando con una pantalla de aviso (nag-screen) que desaparecía si uno pagaba unos cuantos dólares al autor. De lo contrario se mantenía el molesto aviso, e incluso algunas veces (pocas) el programa dejaba de funcionar al cabo de unas semanas.

Más adelante la idea de shareware evolucionó, dando lugar al menos a tres categorías básicas: el freeware, el shareware propiamente dicho (y diversas variedades del mismo como el postalware o el adware), y los trials o versiones de prueba de programas comerciales.

Software Libre: más allá del freeware

Pero el freeware, a pesar de ser una propuesta interesante, puso de manifiesto un problema, especialmente cuando los ordenadores pasaron de ser objetos independientes y comenzaron a conectarse masivamente en red: un programa gratuito puede esconder funcionalidades “ocultas”, que permitan, por ejemplo, que el programa recabe información confidencial del usuario y la envíe por la red, o quizá que envíe spam desde la máquina huésped a miles de destinatarios, etc. Tras esta idea aparecen o se desarrollan nuevos conceptos como spyware, malware, troyanos, etc. Surge por tanto la idea de poder inspeccionar qué está haciendo realmente un programa, y para ello lo mejor es disponer del código fuente del mismo.

Junto con lo anterior, también surge la idea de que una comunidad de usuarios (eso sí, altamente tecnificados) podría, en caso de disponer del código fuente, modificarlo y adaptarlo a sus propias necesidades, es más, si estos usuarios / programadores ponen a su vez a disposición de la comunidad el código fuente modificado estarían posibilitando que nuevos usuarios mejorasen el producto, quizá a un ritmo tan acelerado que las compañías tradicionales no pudieran competir en calidad y creatividad.

Para dar soporte a estas ideas, sobre el año 1984 surge un nuevo modelo de licencia, la GNU Public License, que constituye el siguiente paso hacia la libertad. Este nuevo tipo de software se denominó software libre, y en la actualidad no sólo goza de buena salud, sino que en muchos ámbitos comienza a desplazar al software tradicional.

Naturalmente (y este es quizá uno de sus puntos débiles) la mayoría de los usuarios no posee los conocimientos suficientes (ni quizá el tiempo) como para involucrarse en el proceso de desarrollo, y consideran erróneamente que el software libre no es más que un cierto tipo de software gratuito que pueden usar a su antojo y provecho. Bueno, de hecho el software libre no tiene ni siquiera que ser gratuito, aunque en la práctica (casi) nadie paga por él, y menos en un contexto social como el español en el que la filantropía es como mucho un concepto que explica algunos acontecimientos históricos remotos.

A mi juicio, el concepto más importante del software libre es la obligatoriedad de poner a disposición de la comunidad el código fuente obtenido tras cualquier modificación y distribución de un programa libre. Ello hace que las empresas de desarrollo tradicionales queden virtualmente fuera del proceso, ya que para ellas el código fuente es su capital más importante. De hecho los propios programadores del mundo GNU hablan de “software vírico”, porque utilizar un fragmento de código libre “contagia” nuestro programa, de modo que también, automáticamente, se convierte en software libre.

Por ese motivo consideré en el polémico artículo GNU o el nuevo comunismo que el software libre respondía a una de las ideas motrices del comunismo: “la tierra, para el que la trabaja”, actualizada a nuestros tiempos, es decir, “el software, para el que lo trabaja”.

Código Abierto: más allá del software libre

Aún existe otra iniciativa todavía más libre desde el punto de vista del usuario: el código abierto (open source). En él, el código fuente es puesto a disposición de la comunidad para que pueda evolucionar sin ninguna limitación, ni siquiera la obligatoriedad de que el resultado de las modificaciones sea también código abierto.

El gran peligro de éste tipo de licencia, en opinión de la gente de GNU, es que una empresa tome el código de un programa construido por la comunidad y desarrolle a partir de él un programa propietario. Esto no es ni más ni menos que lo que ha hecho Apple con el Unix BDS, una versión de Unix de código abierto sobre la que Apple ha montado sus últimas versiones de MacOS. Desde el punto de vista de GNU, esto es una atrocidad, mas desde el punto de vista de la gente de Open Source es un avance más para el mundo del software. Para el usuario, evidentemente, la disponibilidad de un sistema operativo robusto, fiable y fácil de utilizar es una ventaja, y para Apple, sin duda, una decisión acertadísima, como todas sus decisiones recientes. Aquí Apple, el gran defensor de las soluciones cerradas incluso en hardware, se alía con el mundo del software abierto. Bueno, se aprovecha, dirán algunos. Aunque está claro que los usuarios ganan un sistema más robusto y potente que el anterior.

¿Modelo entre el Software Libre y el Código Abierto?

El inconveniente del software libre es que en la práctica está vetado para las empresas tradicionales y que la obtención de recursos económicos para sostener su modelo es complicada. Me pregunto: ¿no habría algún modo de poder anular en ciertos casos la cláusula de obligatoria redistribución de las modificaciones a condición de hacer partícipes a los desarrolladores previos de los beneficios obtenidos con la comercialización ulterior? Soy consciente de que sería muy complejo determinar quiénes fueron los participantes y en qué grado durante el desarrollo de un proyecto de software libre, pero este proceso se simplifica en el caso de software libre auspiciado por alguna fundación.

En este sentido, la licencia LGPL o la cláusula que Sun ha añadido a la reciente liberación de Java bajo licencia GPL permiten al menos el uso de librerías por parte de productos comerciales. Cada vez más especialistas opinan que el futuro del desarrollo informático son el modelo libre o el abierto, y seguramente tienen razón. No me sorprendería ver a Microsoft dentro de unos años exponiendo las bondades del software libre como modelo de negocio; no hay que olvidar que Microsoft terminó siendo una abanderada de Internet cuando inicialmente se propuso construir una red alternativa llamada “Microsoft Network”, que finalmente acabó siendo un portal más.

Herramientas de desarrollo propietarias

Hasta ahora hemos hablado de programas de usuario, pero las herramientas de desarrollo merecen un comentario aparte. A mi juicio, el peor error en el que puede caer un departamento de desarrollo informático es el de depender de un fabricante propietario de sus herramientas. A lo largo de mi experiencia profesional he visto caer torres muy altas, he visto desaparecer excelentes herramientas de programación o ser modificadas de una versión a otra de modo que el código fuente (el capital de la empresa) dejaba de ser útil para la siguiente versión, es decir, o uno continuaba con la herramienta antigua o sencillamente tiraba casi todo el código y empezaba de cero. Esto ha sido especialmente cierto para todo lo relacionado con los interfaces de usuario.

Y, sin embargo, este grave error se comete por doquier. En España, muchísimas empresas utilizan software de desarrollo de Microsoft, lo que, entre otras cosas, les limita la plataforma sobre la que ejecutar sus aplicaciones (Windows, Internet Information Server, etc). Todavía más sorprendente: ¡en muchos casos es el cliente de dichas empresas el que obliga a que se utilicen estas herramientas! Creo que en gran parte esto se debe al hecho de que la Informática es en España (único país de la UE en el que sucede esto) una profesión no regulada (¡señores políticos, cuándo introducirán atribuciones en el sector!) y por tanto las decisiones acerca de plataformas de desarrollo no recaen sobre informáticos. Es como si el cliente de un arquitecto le obligara para contratar sus servicios a que utilizara determinado programa de diseño o de cálculo de estructuras. Está claro que el arquitecto está más cualificado que el cliente para saber qué programa de cálculo de estructuras debe utilizar.

Y conste que siempre he defendido a Microsoft como la empresa que ha sabido llevar el uso del ordenador a los hogares, al usuario no técnico. Y aunque, como siempre se dice, sus tecnologías son “importadas” de otros, como Xerox, el mérito de la difusión corresponde a Microsoft. Pero llevar, a través de herramientas “facilonas”, el asunto del desarrollo informático al usuario no técnico me parece, sencillamente, una salvajada.

El desarrollo de software debería siempre apoyarse en herramientas sometidas a algún tipo de procedimiento de estandarización, sea una organización (ISO, ANSI...) o un proceso bien establecido (Java Community Process). Esto hace que los esfuerzos de desarrollo tengan una mayor extensión temporal. Tengo código desarrollado en Lisp, en C++ o en Java que sigue siendo útil después de diez, quince o veinte años. ¿Qué proyección temporal podemos esperar del código desarrollado en ASP o en las Microsoft Foundation Classes? ¿Que pasará si Microsoft se hunde en tres o cuatro años ante el fracaso con Windows Vista y el DRM? Bueno, no creo que esto suceda, pero como decía antes, torres más altas han caído.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) en dos entregas: el 25/10/2006 y el 25/11/2006

La revolución de la información


Hubo un tiempo (o quizá lo he soñado) en que la vocación dominaba el mundo.

Existía el placer del trabajo bien hecho, y los profesionales de cualquier materia se enorgullecían de conocer profundamente su trabajo. Zapateros, herreros, tenderos o viajantes eran respetados porque cumplían su papel social lo mejor posible, y transmitían sus conocimientos a la generación siguiente con el cariño que toda empresa importante exige.

La universidad y los medios de comunicación no eran excepción, estaban poblados por personas que pretendían hacer bien las cosas y por tanto, cuando opinaban, eran “autoridades en función de su calidad”.

Luego llegó el capitalismo, no ya como modelo económico, sino en su forma más salvaje: como modelo social. Lo importante no era ya el trabajo en sí, sino su rendimiento económico. Y como el ratio económico suele ser menor (por unidad de tiempo) en el trabajo bien hecho, comenzó a primar el trabajo hecho “de cualquier manera”, ya que maximizaba el beneficio.

En los medios de comunicación, eso significó la sustitución del “impacto en función de la calidad” por el “impacto en función del poder dentro del oligopolio”. Es decir, los medios se convirtieron en “autoridades en función del poder”, fuera este político o económico o de cualquier otra índole (si es que hay alguna otra, cosa que dudo).

En este contexto se entiende la lucha feroz de los últimos treinta años por evitar la libre competencia en el sector de los medios de comunicación.

Pero al igual que la batalla por perpetuar modos obsoletos de distribución de contenidos (SGAE), esta otra batalla también está perdida. ¿Por qué? Por los blogs.

Para bien o para mal, cualquiera puede publicar en la Web; ¿significa esto, como defienden algunos, basura y mediocridad? Pues no exactamente. Quienes aducen esto olvidan (porque creen que siguen viviendo en el paradigma del capitalismo social) una cosa: la capacidad de elección, y por tanto de filtrado de contenidos, que tienen las personas.

Porque si un blog está mal escrito, o defiende posturas inaceptables para la mayoría, o miente con descaro, allá su autor, porque a diferencia de los medios tradicionales los blogs están sometidos al juicio de sus lectores, y aquí no hay cuota fija, sino un infinito universo en donde elegir.

El poder de los medios de comunicación tradicionales no se basa en lo que diferencia a unos de otros, sino en lo que los une. El espejismo de polémica y enfrentamiento entre ellos encubre una profunda aceptación del sistema y establece una muralla infranqueable para otras realidades. Porque el cupo fijo impide la difusión de otras ideas.

Pero eso se acabó, estamos en otra era, en el inicio de un cambio tan profundo que la revolución industrial habrá de parecer un juego de niños. Piensen que todo cambio tecnológico importante provoca, cierto tiempo después, cambios sociales aún más importantes, y los cambios sociales que provocará Internet están a punto de llegar: ya se ven en el horizonte.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/6/2006

La brecha digital II: sobre la modernización de la administración pública


El otro día recibí un correo (en papel) de mi banco en el que me informaban que me habían retenido cierto importe debido a una providencia de apremio del Ayuntamiento de Madrid.

Me quedé pensando… ¿qué será esto, una multa? No me han multado, que yo sepa… ¿Serán las nuevas cámaras de la M-30 que todo el mundo sabe dónde están salvo algún despiste? Al cabo de dos semanas me llega por fin algo más de información: el apremio es por el pago de la contribución de un apartamento ¡que vendí hace quince años! ¿?

Me indican en el documento que para cualquier consulta hable con la agencia tributaria, con la sección de catastro. Llamo por teléfono y me atienden muy amablemente, explicándome que para resolver el problema debo pedir cita previa (caramba, qué nivel) y visitarles llevando la escritura de venta del inmueble. “Si quiere le doy cita previa para la semana que viene, porque para esta ya no hay”.

Hasta aquí todo bien, con la salvedad ya obvia en cualquier asunto relacionado con el estado de que es el ciudadano quien tiene que perder su (de él) tiempo para resolver su (de ellos) error.

Bueno, por lo menos dan cita previa, no tendré que esperar una cola en una ventanilla, como antes. Imagino un pasillo blanco con despachos con plantas en los que uno recibe atención personalizada, qué menos después de hacerme perder el tiempo.

Un día antes de la cita me ejecutan, es decir, retiran de mi cuenta bancaria el importe retenido previamente.

El día de la cita me presento en la agencia tributaria, sección catastro, con mis papeles. Afortunadamente es zona verde, de modo que abono mi ticket y dispongo de una hora máximo para el trámite.

Entro con mis papeles y me dirijo al mostrador de información. “Buenos, días, tengo cita previa para las 10:30”.

Y aquí encontramos la brecha.

Sorprendentemente, la señorita de información, con toda naturalidad, ME DA UNA PAPELETA CON UN NÚMERO, y me dice, “espere usted ahí hasta que salga su número”.

Obediente, me siento y estudio la situación. De despachos nada. No hay despachos. Es más, mi papeleta pone la mesa 30 y en el marcador electrónico que anuncia la(s) mesa(s) sólo hay una mesa: la 30. Curioso procedimiento digno de los extorsionadores del señor K.

En realidad no espero más de diez minutos hasta que sale mi número en la mesa 30. Bueno, más bien salen ¿6 números? ¿Cómo de grande es la mesa 30?

La respuesta es que no hay mesa 30. Lo que hay es todo un área del recinto separada por biombos con muchas mesas. Las seis personas que hemos sido avisadas entramos juntas en el pasillo central de dicha área, algo perplejas, y una funcionaria nos dice: “siéntense ahí a esperar”. O sea, una espera dentro de la espera dentro de la espera. Por suerte todas ellas cortas.

Y aquí llegamos al colmo de la brecha digital. El trabajo de la funcionaria consiste en otear todas las mesas del recinto –unas 30, a lo mejor de ahí viene lo de “mesa 30”, es decir “30 mesas”– para determinar en el más puro estilo manual cuál de ellas está libre. Cuando una queda libre, indica a uno de los qué esperamos (ignoro el criterio) “pase ahí”. Obviamente no nos pide la papeleta de “mesa 30”.

La verdad es que me atienden muy amablemente (en esto no tengo quejas) y modifican el catastro para que quede constancia de que el apartamento no me pertenece desde hace 15 años, y me entrega un justificante de ello.

–Con este justificante –me dice–, ya puede ir a la junta municipal correspondiente para reclamar que le devuelvan el dinero.

Todavía no he ido.

PD. Unos días antes de la publicación de este artículo, Hacienda (que somos todos) me ha enviado una rectificación de declaración de IRPF en la que me reclama que he pagado de menos porque no he declarado la posesión del Inmueble1. No me dicen cuál es el tal Inmueble1, pero ¿a que ya se están ustedes imaginando?


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/2/2006

La brecha digital


Según la Wikipedia, la Brecha Digital es una cuestión de alcance político y social que hace referencia a la diferencia socioeconómica entre distintas comunidades que tienen Internet y las que no.

Yo pienso que hay otro tipo de brecha digital, que consiste en la deficiente o incorrecta adaptación de procedimientos no digitales, y las situaciones kafkianas que de ello se derivan. Lo explicaré con un ejemplo.

Muy bonito, fantástico y con plugin gráfico enseñando el terreno de juego y permitiendo elegir exactamente las localidades que uno quiere, los organizadores del torneo Masters Series de Madrid han desarrollado un sitio Web muy cómodo (sobre todo porque si uno quiere comprar las entradas en ventanilla tiene que irse al quinto pino y el teléfono para compras telefónicas no lo cogen ni a la de tres).

Pero aquí está la Web para ayudarnos. Estamos a dos meses del torneo y podemos comprarlas desde un navegador, todo un lujo tecnológico. Además ahora tengo ADSL en casa, así que incluso en fin de semana. Bien, me conecto, elijo mis localidades (ya no quedan para final y semifinal, pero quedan para cuartos, que no se sabe quién tocará, pero a ver si hay suerte), y paso a efectuar el pago con tarjeta de crédito. Introduzco los datos de la tarjeta y demás campos requeridos.

El sistema me cuenta una película de que ahora (por supuesto para mayor seguridad MÍA –que tengo antivirus que no es el panda y firewall y wireless cifrada y no guardo los datos en el disco duro y no sé cuantas cosas más–) hace falta una “clave de firma” adicional de mi banco. No obstante, me dicen, como es un sistema de nueva implantación, puedo continuar el proceso sin la clave de firma durante tres operaciones. Es decir, que me avisan con tiempo, vale, ¡qué bien!

Y aquí encontramos la brecha.

Cuando elijo la opción de continuar, el sistema me comunica que no puedo efectuar el pago sin mi clave de firma. Supongo que los sistemas informáticos también son capaces de mentir. Joder, bueno, qué se va a hacer, voy a la página de mi banco a solicitar mi clave de firma. Afortunadamente ya todo está en la red…

Entro en la Web del banco y me paso unos diez minutos buscando la opción relativa a la clave de firma, que está en un sitio muy lógico: ¡servicios! Y veo una hermosa opción “activar clave de firma”, pero está... ¡deshabilitada!, grayed, como decimos los informáticos. No puedo elegirla.

Me leo todas las opciones y encuentro la salvación: hay otra opción que reza “cambiar a modo avanzado”. “¡Ah, claro!” pienso, “si paso a modo avanzado me dejará activarla”. Bien, vamos progresando, tras cambiar a modo avanzado ya puedo elegir “activar clave de firma”. Selecciono esta opción y el sistema dice: “usted no dispone de clave de firma, debe solicitarla en la opción correspondiente”. Localizo la opción y el sistema dice algo así como “en tres días recibirá por CORREO su clave de firma”.

Aquí me quedo pasmado.

Si tengo que esperar tres días, ¿cómo acabo la compra?

Decido llamar por teléfono a un salvador número de atención al cliente de mi banco. Me responde una señorita que me explica amablemente que tengo que esperar tres días a que me llegue por correo la clave de firma (eso ya lo sabía). No parece reaccionar cuando le digo que tengo que efectuar un pago ahora. Al parecer eso no está previsto en su diagrama de preguntas y respuestas. No hay solución. Lo siento. Vuelva usted mañana.

Bueno, pensemos, intento la compra telefónica con los organizadores del torneo, pero nadie descuelga el teléfono. Tengo otra tarjeta: voy a probar con ésta. Recupero la pestaña original de la compra, doy a volver y el sistema dice:

“Su sesión ha caducado, vuelva a comenzar el proceso.”

¡Paciencia! O como dicen en una chirigota de Cádiz, ¡contró, contró! Por segunda vez selecciono las entradas –las que había pedido antes se han quedado pilladas, bueno, un error del sistema, aunque si se explota podría bloquear todas las entradas del torneo sin comprarlas realmente– ¡menuda broma!. Relleno mis datos y los de la tarjeta y llego a lo de la maldita clave de firma (de vez en cuando sigo llamando por teléfono a los organizadores, que no contestan). Elijo “continuar sin clave de firma”...

Lo mismo: “usted no puede continuar sin clave de firma”.

Pruebo con la de una amiga, de otro banco, ya tengo diez entradas falsas bloqueadas, y cinco verdaderas, relleno todos los datos por tercera vez y con esta tarjeta consigo continuar. Parece que en su banco son menos severos con esto de la clave de firma. ¡He saltado la brecha digital! Y he dejado en el camino diez entradas bloqueadas.

...

A los tres días, por correo ordinario, me llegó la clave de firma, que guardo como un tesoro para futuras ocasiones. Por cierto que en cuartos nos tocó Nadal, que fue finalmente el ganador del torneo.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/1/2006

Estándares, reutilización e innovación (reflexiones sobre lo efímero, segunda parte)


En el artículo anterior quería hablar de lenguajes de programación y terminé hablando de conectores de audio. Me voy a poner un poco técnico pero, como si estuviéramos en clase, si alguien no entiende algo que lo pregunte (para eso están los comentarios, ¿no?).

¿Cómo afecta la estandarización a la reutilización de código?

A lo largo de mi vida profesional he trabajado con muchos lenguajes de programación (BASIC, COBOL, Pascal, Fortran, Lisp, Ada, C, C++, Java, varios lenguajes de shell e incluso algún lenguaje ultra-específico, como el RPL, un lenguaje “a pila” que permitía programar las calculadoras HP). Mi conclusión después de 25 años generando código fuente es que mientras más estándar es un lenguaje, más vigencia temporal tiene el código, más reutilizable es. Por ejemplo, hoy puedo usar código Lisp o C generado hace 15 años y funciona perfectamente, aunque el Intérprete Lisp o el compilador de C que utilice sean diferentes a los que utilizaba hace 15 años. Sin embargo mis programas en RPL vagarán por el Hades de las calculadoras HP como almas en pena. Porque, al fin y al cabo, ¿qué es el alma sino software?

Ejercicio: ¿qué futuro tendrá un programa desarrollado en ASP de Microsoft? A ver… ...sólo funciona en ordenadores con un sistema operativo de Microsoft instalado… ...Bueno, son la mayoría, mientras nadie lo desbanque… Además, sólo funciona sobre servidores Web Internet Information Server… ¡¡¡Uffff!!! ¿No puedo usarlo con Apache? ¿Estamos diciendo que mis productos dependen de que Microsoft siga siendo líder en el mercado? De las diez mayores compañías de informática en los años 80 sólo quedan tres. ¿Servirá para algo un programa en ASP dentro de 10 años?


¿Qué aporta Java?

A lo largo de los 90 se hicieron con el poder los interfaces gráficos de usuario. Hoy día no se concibe una aplicación de línea de comandos excepto en programación de sistemas. En esa época los lenguajes de programación quedaron descolocados. Microsoft, Borland y algunos más se esforzaron por sacar su propia solución al problema de la generación de interfaces gráficos para Windows sobre C++ y Pascal, porque os puedo asegurar que en aquella época era casi demoníaco (en diversos sentidos del término) desarrollar un programa para Windows. Muchos programas con amplia cuota de mercado (por ejemplo WordPerfect) sucumbieron por no adaptarse de modo satisfactorio a las nuevas tendencias (hay quien dice que Microsoft se encargó de ocultar lo suficiente de su API de programación de Windows para garantizar este fracaso de los competidores de Word). A mediados de los 90 la cosa mejoró con el nacimiento de los IDEs, que permitían que los interfaces se desarrollaran “dibujando” componentes en una rejilla, a los que posteriormente se les daba funcionalidad. Pero para utilizar esos componentes había que incorporar al código del programa las librerías del fabricante del compilador. Es decir, en términos prácticos, se había perdido la estandarización. Tengo programas de esa época implementados en C++ que no pueden compilarse a menos que se haga con la versión exacta de Borland C++ con que fueron desarrollados. Es decir, código inútil al cabo de tan sólo 2 o 3 años.

Entonces apareció Java, que, entre otras virtudes (y defectos) incorporó al estándar los métodos necesarios para definir un botón, un cuadro de texto o cualquiera de esos componentes que se habían apoderado del mundo. Ahora, un programa hecho con la versión 1.1.3 de Java (hace casi 10 años) puede compilarse con la 1.5. Es un avance. Espero no tener que tirar mi código fuente hasta dentro de otros 10.

¿Cómo afecta la estandarización a la innovación?

Este es el precio a pagar: desgraciadamente la frena; cuando se definió ANSI C no existían ciertos conceptos modernos de programación como las excepciones, los hilos o los patrones de diseño, y ¡ni siquiera los interfaces gráficos! Esto se mitigó en parte con la especificación del C++, aunque el resultado fue un híbrido que horroriza a los puristas de la programación orientada a objetos. En resumen: la estandarización frena la evolución rápida porque es difícil incorporar elementos novedosos a un estándar, al menos por dos motivos: (a) el proceso de consenso, aceptación y modificación de un estándar es lento, y (b) las modificaciones deben ser compatibles con lo anterior, lo cual a veces es posible (por ejemplo en el caso de la adaptación de un minijack monoaural a un minijack estéreo), a veces genera productos híbridos, poco puros (como el caso del C++) y otras veces es sencillamente inviable, lo que nos conduce a la producción tecnologías de usar y tirar.

Tecnologías de usar y tirar

En pocos años hemos pasado de un panorama socio-técnico basado en tecnologías de larga duración (véase el CD, nacido en 1980 y todavía vigente, o el disco de vinilo, que se utilizó desde 1948 hasta mediados de los 90) a tecnologías de usar y tirar (telefonías de primera, segunda y tercera generación, sistemas operativos en las PDA, el mini-disk, las cintas de video de 8mm, etc.) Como resultado (o como origen, según se mire) tenemos un panorama de aceleración tecnológica vertiginosa y una montaña creciente de aparatos obsoletos en las casas y los vertederos. Entusiasmo para los usuarios geek, desconcierto para el resto. Como consumidor de electrónica me gusta esta aceleración porque obliga a aprender constantemente; como programador, lo siento, me quedo siempre con los estándares.

Lectura recomendada: En el principio… fue la línea de comandos de Neal Stephenson


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25711/2005

Estándares, reutilización e innovación (reflexiones sobre lo efímero)


Más o menos todo el mundo sabe lo que es un estándar: un acuerdo entre fabricantes que define y normaliza cierto procedimiento o componente de determinada categoría de producto. Según la wikipedia, un estándar es “lo que es establecido por la autoridad, la costumbre o el consentimiento general. En este sentido se utiliza como sinónimo de norma”. El “consentimiento general” se refiere a lo que se ha dado en llamar estándar de facto, es decir, en estos casos no hay acuerdo entre fabricantes, sino que un único fabricante crea un procedimiento o componente que es masivamente aceptado por el mercado o el resto de los fabricantes. Alcanzar un estándar de facto es el sueño dorado de todas las empresas (naturalmente previa patente del componente o procedimiento). Algunas, como Sony, insisten especialmente en esta dirección (cito a modo de ejemplo: el prácticamente difunto mini-disk y el memory stick). Es una apuesta fuerte que si se gana producirá grandes beneficios. En otros casos, los fabricantes se alinean en torno a dos o más estándares, que compiten por imponerse en el mercado. Y lo de menos es la calidad técnica; aquí entran en juego infinidad de factores socio-económicos. Ejemplo de esto fue la disputa entre los sistemas de video 2000, beta y VHS. En la actualidad se ha dado el pistoletazo de salida a la guerra HD-DVD versus Blu-ray. Lo que sí parece claro (al menos históricamente) es que al final sólo queda uno.

Los estándares nos afectan a todos, desde los cables de conexión de aparatos hasta los lenguajes de programación. Por ejemplo, actualmente el estándar casi absoluto de interconexión de aparatos de imagen es el euroconector. Pensado para transmitir casi cualquier tipo de codificación de señal (video compuesto, s-video, RGB…) nos somete a los usuarios a un trace de conexión casi insufrible. Vamos, que puede transportar casi cualquier señal pero es in-enchufable; supongo que todos lo habéis experimentado. ¡Además siempre están en los lugares más inaccesibles! Una de las alternativas, el RCA, que proviene del mundo del audio, tiene el inconveniente de que hace falta un conector por cada señal individual que queramos transmitir (una si es video compuesto más audio izquierdo y derecho, es decir, tres conectores; cinco si es RGB más audio estéreo) pero la ventaja es que el acto de “enchufar” es infinitamente más simple. Todavía mejor es el caso de los jack y mini-jack (estos provienen, cómo no, del mundo de la música profesional), que permiten encapsular una o varias señales en un único conector que además por su diseño ayuda al humano en la tarea de conectar. Que provengan de la música profesional es absolutamente lógico, porque en ella los instrumentos y aparatos se enchufan y se desenchufan frecuentemente. El euroconector se pensó en una época en que al televisor se le enchufaba el video y listo. Era para siempre. Pero con la proliferación de discos duros capaces de reproducir video y la rápida evolución de nuevos productos tengo la sensación de que estamos constantemente enchufando y desenchufando aparatos, lo que genera un odio al euroconector y a sus diseñadores que mejor no comentar aquí.

Pero el euroconector es un estándar de hecho y de derecho, es decir, llegó para quedarse. Porque cuando un estándar se afianza en el mercado se frena la evolución. ¿Quién fabricaría un DVD con un tipo de conexión que no tuviera ningún televisor? La única salida a este pozo gravitatorio es incluir en los aparatos varios tipos de conectores en la esperanza de que el mercado se decante por algún otro. Así los televisores empiezan a incluir conexiones DVI, RCA, SPDIF, VGA, etc. Ya veremos si alguna de ellas finalmente acaba con el odiado euroconector.

Pero bueno, yo en realidad empecé este artículo queriendo hablar de lenguajes de programación y he acabado hablando de conectores. Dejaremos los lenguajes de programación para el mes que viene.

Como ejercicio, pensad en cómo el USB ha derrocado a los puertos serie y paralelo e incluso al todopoderoso Firewire.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/20/2005

Vernor Vinge y la singularidad tecnológica


En matemáticas, una singularidad es un punto del dominio de una función para el cual el valor de la función se hace infinito. Quizá siendo más precisos con el lenguaje podríamos decir que el valor para dicha función en ese punto no está definido, pero sin embargo al aproximarnos al punto la función va tomando valores más y más elevados.

Por ejemplo, la función 1/x tiene un punto de singularidad en x=0, porque a medida que x se aproxima a 0 (podéis tomar una calculadora y comprobarlo) su valor se hace más y más grande.

Resulta que estas singularidades aparecen en ocasiones en los modelos físicos que describen la naturaleza, y suelen ser bastante difíciles de interpretar porque llevan al extremo la situación física que los genera. El ejemplo tradicional es el de los agujeros negros. En el contexto de la física, las singularidades suelen estar asociadas a situaciones en las que las interpretaciones tradicionales dejan de tener sentido.

Un agujero negro es en esencia una singularidad gravitatoria. En ellos la materia está tan condensada que la inmensa fuerza gravitatoria generada impide que la luz (que como predijo Einstein se ve afectada por la gravedad) escape de él. La esfera de proximidad al agujero negro a partir de la cual la luz ya no puede escapar tiene un nombre muy poético: el horizonte de sucesos. Se llama así porque a partir de este horizonte no es posible saber nada de lo que sucede dentro, ya que la información no puede ser transmitida en ningún soporte (ni siquiera la luz) que escape a la atracción gravitatoria del agujero negro. Como vemos, en el caso físico no es necesario que la magnitud (la gravedad en el ejemplo) se haga infinita, sino simplemente lo suficientemente alta para que se produzca un hecho sorprendente o anómalo.

Pues bien, Vernor Vinge, matemático y escritor de novelas de ciencia ficción, profesor de la Universidad Estatal de San Diego, ha postulado la teoría de que, al ser el avance tecnológico un proceso acelerado que acumula novedades en intervalos de tiempo cada vez más cortos, llegará un momento en que los rapidísimos cambios tecnológicos no puedan ser asimilados por la sociedad, produciéndose realidades no comprensibles según las leyes sociales actuales. Estas realidades podrían ser desde que el ser humano origine un nuevo tipo de inteligencia (mejorándose a sí mismo o construyéndola en un nuevo soporte), como sostienen muchos investigadores en Inteligencia Artificial, por ejemplo Kurtzweil, Minsky y Moravec, hasta que aparezca algún nuevo tipo de tecnología que altere profundamente el funcionamiento social, como explica Neal Stephenson en su novela La Era del Diamante, en la que describe un futuro en el que la nanotecnología está tan extendida y dominada como la luz eléctrica en la actualidad.

Vinge, en su libro Naufragio en el Tiempo Real (secuela de La Guerra de la Paz), explora un futuro lejano en el que personas procedentes de diferentes (aunque próximos) momentos de nuestro futuro cercano disponen de una tecnología enormemente dispar, hasta el punto de ser casi incomprensible para las personas que provienen de épocas ligeramente anteriores a otras. En ese futuro lejano descubren que ya no existe la humanidad, aunque no hay rastro de guerras ni de cataclismos; las ciudades están, simplemente, abandonadas. Nadie sabe a dónde fuimos.

Pues como dice la tercera ley de Clarke, una tecnología suficientemente avanzada es indistinguible de la magia.

Más información en:
http://en.wikipedia.org/wiki/Technological_singularity
http://www.ugcs.caltech.edu/~phoenix/vinge/vinge-sing.html


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/7/2005

Software, patentes, propiedad intelectual y creación


Tema candente este de las patentes de software, al menos entre los informáticos. Y como está candente y además he visto en algunos foros que hay un poco de confusión al respecto creo que merece la pena que dedique el artículo de este mes a aclarar algunos conceptos.

En la actualidad en software se considera bajo el amparo de la “propiedad intelectual”, como sucede con libros, discos y películas, entre otros (iba a decir “productos” como le gustaría a la SGAE y a la ministra, pero me lo callo).

Esto significa que alguien es propietario de lo que ha hecho por el mero hecho de haberlo hecho (me ha quedado bastante aliterativo, ¿eh?) No hace falta ni siquiera registrar un libro o un programa de ordenador en ningún sitio para que su autoría nos pertenezca si la podemos demostrar de algún modo, aunque el registro de la propiedad intelectual es una prueba más, ni necesaria ni tampoco suficiente. Pero cuidado, una cosa son los derechos intelectuales (“esto lo he creado yo”) y otra cosa los económicos (“distribúyelo tú y te ganas lo que puedas, quizá dándome una parte”). Los derechos intelectuales son intransferibles, pertenecen al autor lo quiera o no (quizá por eso muchos autores han perseguido sus libros para quemarlos, porque no podían cambiar la autoría), mientras que los económicos se pueden vender, alquilar o lo que sea según las reglas de mercado. Evidentemente, mientras no haya algún contrato de por medio, los derechos económicos pertenecen inicialmente a la persona que ostente los intelectuales.

La patente es una cosa bien distinta. No se refiere a quién creo algo, sino a quién lo puede explotar, incluso ¡sin haberlo creado todavía o habiendo sido creado por otro que no lo patentó! Ejemplos hay muchos de lo absurda que puede llegar a ser una patente, en especial en el terreno del software informático. Por ejemplo Sony ha presentado hace poco una patente sobre la posibilidad de transmitir datos directamente al cerebro. ¿Increíble? Donde las dan las toman, porque también ha sufrido las consecuencias de la aplicación de una patente sobre el control de la vibración del mando de una consola según la acción del juego que le ha obligado a suspender las ventas de sus Playstations en Estados Unidos.

Es obvio que para poderse desenvolver en un mundo de patentes hace falta una enorme capacidad económica, porque el registro de una patente es caro y la ejecución todavía más. El tema de las patentes mueve cifras astronómicas que sólo pueden permitirse las grandes, es más, diría muy grandes, empresas.

¿Frenan las patentes la creación? Para responder a esto voy a clasificar la creación software macro-creación y en micro-creación. Llamaré macro-creación a la invención de una categoría de software que abre las puertas a una nueva concepción de una tarea. Suelo poner como ejemplo la creación de la World Wide Web en 1990 por parte de Tim Berners Lee y la programación del primer navegador (WorldWideWeb) y el primer servidor Web, aunque cualquier categoría genérica de programa tuvo un programa original que creó la categoría (hojas de cálculo, proceso de textos, incluso sistema operativo o compilador). Este tipo de macro-creación tiene casi siempre consecuencias sociales importantes, como hemos podido comprobar en el caso de la Web. La micro-creación, no menos importante desde el punto de vista económico, quizá incluso más importante, se refiere a las pequeñas modificaciones en la concepción de un tipo de software que ya existe, como por ejemplo la realizada por Mozilla cuando implementó el navegador FireFox. El tipo de software ya existía, pero Mozilla lo ha mejorado, hecho más utilizable, etc. También existe creación en este proceso, aunque es menos profunda. Seguramente es menos creación pero más ingeniería.

Quizá pudiéramos comparar la macro-creación y la micro-creación con la composición de una obra y la interpretación de la misma, sobre todo en el ámbito del Jazz o en el flamenco, géneros en los que el intérprete tiene un papel mucho más importante que en otros tipos de música.

Es posible (es lo que argumentan las grandes empresas) que la instauración de un sistema de patentes para el software potencie la macro-creación, ya que estas grandes empresas podrían invertir más en equipos de personas que generasen nuevas ideas, sin riesgo a que estas ideas fueran luego utilizadas por otros para enriquecerse. Pero lo que para mí está claro es que las patentes acabarían con la micro-creación, porque las pequeñas empresas o particulares que quisieran reimplementar una idea ya existente tendrían que pagar por ello, y el precio de la patente lo fija la empresa propietaria. Es decir, prácticamente se imposibilitaría la reimplementación de ideas. Sólo el compositor podría tocar su obra. Y nadie mejoraría los productos.

¿Para qué querría Microsoft mejorar el IExplorer si no tuviera competencia? Afortunadamente ni Microsoft ni nadie tiene la patente de creación de navegadores, lo que como sin duda sabéis ha permitido el nacimiento de un producto mucho mejor y de código abierto, FireFox, que ha obligado a Microsoft a decir que sacará en breve una nueva versión de IExplorer, porque está perdiendo cuota de mercado a pasos agigantados.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 2576/2005

Aterrizaje (forzoso)


Todo esto está muy bien, diréis —como diría Cabana— mis queridas, amigas, personas lectoras, pero ¿sirve para algo? Es decir, ¿no es una mera digresión intelectual? ¿Una pirueta có(s)mica? ¿De verdad se puede componer algo con este conglomerado de ideas más o menos extravagantes? ¿Y cómo sonaría todo esto?

La respuesta, en este artículo. Bueno, al menos en parte. El lector aplicado, curioso y tecnológicamente alfabetizado (es decir, todos vosotros que llegáis a estas páginas) seguramente ya ha indagado por la Web intentado responderse a la pregunta “¿lo que cuenta este tipo tiene algún fundamento?”

Bien, todo depende de lo exigentes que seamos con la música y del sentido estético musical que a cada uno los genes (y lo que vino después) le dieron. Yo dispongo de un criterio musical amplio (estoy seguro en mi caso de que está definido genéticamente) que me hace resultar más agradable la música clásica contemporánea que el mismísimo Mozart. Es decir, que me voy del Barroco a Arnold Schoenberg y Alban Berg pasando (casi) exclusivamente por el romanticismo, el nacionalismo y los impresionistas. Por tanto reconozco que estoy bien situado para que las composiciones automáticas me resulten interesantes. Sin embargo, no soporto el clasicismo, lo que quizá no sea el caso de muchos de vosotros, de modo que los ejemplos que os mostraré después os pueden resultar horrendos.

Lo que está claro si habéis indagado por ahí es que lo que normalmente se encuentra es bastante flojo, y uno de los motivos es que en el binomio programador-músico prima el de programador en casi todos los casos. Porque, sorprendentemente, casi todos se olvidan del asunto de la duración de las notas, y se dedican a generar corcheas como locos. Podéis ver algunos ejemplos de esto en los applets que cuelgan de esta página. No es que yo vaya a ir mucho más lejos, al menos por el momento, pero en los ejemplos que vais a oír he ingresado la idea de duración (generada, al igual que las notas, con fractales o sistemas caóticos) y la idea de contrapunto, generando voces idénticas demoradas en el tiempo. Tengo muchas otras ideas y poco tiempo para probarlas…

Estas son las composiciones que someto a vuestro sabio criterio; creo que sus nombres son autoexplicativos:

fuga
paisaje
virtuoso
percusión
nana

Y así acabo por hoy. A partir del mes que viene creo que esta sección deberá tomar nuevos rumbos para evitar el riesgo de agotaros y de agotarme.


Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/5/2005

La prehistoria de la Informática


Como dice el profesor A. Brain, la informática está en la más absoluta prehistoria.

Esto es quizá difícil de ver para quienes estamos metidos en la vorágine –actualmente casi todos los primermundistas– de esta disciplina-cada-vez-más-industria, en la que los fabricantes nos venden la maravilla a precios cada vez más bajos. Pero lo veremos más claro si pensamos en “la informática que debería ser” y no en la “informática que es”. Algunos ejemplos: (a) enciendo el ordenador y espero 2 minutos para que me pida la contraseña (¿todavía no me conoce?), la escribo y me marcho a tomar café para que cargue todos los malditos plugs de la bandeja del sistema, antivirus, firewall y finalmente el lentísimo programa de correo; (b) me comunico con “mi” sistema a través de dos absurdos dispositivos que me permiten moverme como un caracol por la información a base de pulsar botones, rellenar formularios y elegir menús, es decir, no sé si estoy en una planta industrial, una ventanilla del insalud o un restaurante con una carta complicadísima; (c) asumo que la máquina nada sabe de mi ni nada va a saber, hace lo que laboriosamente le pido y basta, estímulo-respuesta, no hay cognición de por medio (faltaría más, es una máquina, ¿no?).

La metáfora de “la herramienta” se ha apoderado de nuestros sueños: si usted es arquitecto tiene una herramienta (autocad) para hacer sus planos; si es músico le damos una herramienta (secuenciador) para grabar su música (y de paso para que luego sus instrumentos toquen solos en las galas de verano, previa compra del .mid correspondiente por 8 euros si es un tema de moda); si es diseñador una herramienta (photoshop) para hacer sus diseños. Hasta los informáticos tenemos herramientas para programar “casi sin saber” (entornos integrados de desarrollo), que al ocultarnos la complejidad de los entresijos del asunto nos imponen muros allí donde la herramienta no llega. Y así le va al sector.

¿Podemos hacer más?

Por favor, claro que podemos; se supone que el hombre es una máquina universal, ¿o no? Quizá se trate de pensar un poco y de imitar menos. Claro que imitar es fácil… y al parecer rentable.

El término “rentable”, ese que puebla nuestras praderas, parafraseando a Les Luthiers, ese que se ha apoderado de nuestra realidad poco a poco, de manera sutil, de las izquierdas y las derechas… Lo “no rentable” sencillamente “no existe”. Peor, ni siquiera existe lo “no rentable a corto plazo”, como la investigación, o lo “rentable con baja probabilidad”, como los cuadros de Van Gogh, cuando los pintó, claro.

Quiero que esta columna explore vías alternativas, reflexione sobre las posibilidades de la tecnología como nueva puerta a lo social, que reivindique un cambio de punto de vista.

Quiero que esta columna sirva también de soporte a una asignatura que exponga a los futuros ingenieros en informática la triste realidad actual y transmita como mínimo una idea: abramos nuestras mentes, pensemos en la informática que debe ser, en la que será en esos días en que miremos atrás y veamos este nuestro presente con toda su brutal y bárbara realidad, la fatigosa realidad de pulsar teclas y botones, rellenar cajitas, repetir y repetir y repetir las mismas acciones una y mil y cien mil veces.

Aunque luego despertemos y nos encontremos con nuestro prehistórico escritorio.

Publicado originariamente en Computación creativa y otros sueños (Libro de Notas) el 25/10/2004

viernes, 16 de febrero de 2007

IA, robots "blandos" e internet (una poética de la telaraña)


Internet es amada por unos, denostada por otros. Los nostálgicos evocan el tacto del papel en un mundo que se derrumba y que ya nunca volverá, mientras los tecnólogos se enorgullecen tanto de la Internet actual que son incapaces de ver la "Internet que debería ser".

Pero el hombre es un sistema procesador de información que encuentra placer en el mero hecho de procesarla, y lo que nadie cuestiona es que la disponibilidad de información ha crecido en los últimos años (y esto no ha hecho más que empezar) en varios órdenes de magnitud.

Y mientras los nostálgicos siguen aferrados al papel en su mundo que se derrumba, otros empezamos a sentir sobre nuestros hombros lo que yo llamo "la avalancha de información". Me gusta comparar Internet con el mito de Tántalo, condenado por Zeus a sufrir en castigo por su arrogancia hambre y sed eternas, a pesar de estar rodeado de abundante comida y bebida que se apartaban de sus manos cuando intentaba alcanzarlas.

¿Y qué puede hacer la computación para aliviarnos del problema que ella misma ha generado? Bueno, creo que la respuesta es sencilla aunque "ponerle el cascabel al gato" no es nada fácil. Pero, ¿cuando ha sido fácil ponerle el cascabel al gato?

Esta solución ha de venir de la mano de un conjunto de herramientas emparentadas con la Inteligencia Artificial, los agentes inteligentes y los robots software o sofbots (me gusta traducir este último término como robots "blandos", un tanto humorísticamente).

En definitiva, de lo que se trata es, como siempre en estos casos, de que alguien haga el trabajo por nosotros, al menos en parte. Ese alguien, o algo, debería ser capaz de interactuar con la Web como los humanos: navegar con descripciones aproximadas, rellenar formularios, extraer y validar la información recibida y combinar todo esto de modo flexible.

En mi grupo venimos trabajando desde 1998 en este tipo de herramientas, con resultados modestos pero a mi entender muy prácticos. Algunos de estos resultados pueden verse en http://baloo.eui.upm.es.

Así, mientras algunos nostálgicos se aferran al papel -al poco que va quedando- e insisten en los defectos y los peligros de este nuevo medio, otros intentamos de diversas maneras hacerlo más humano.

Pongo un ejemplo paradigmático: tener el Boletín Oficial del Estado en Internet es útil, pero eso no nos evita tener que leerlo si estamos a la espera de cierta convocatoria. Pero dicen que el ser humano está hecho para leer poesía (esto ya lo dudamos hasta los poetas), no para leer BOEs. ¿No sería posible que las máquinas hicieran esto último por nosotros, mientras nos dedicamos a leer, sin ir más lejos, el último libro de Ramón Buenaventura?

La respuesta es, naturalmente, que sí. Pero los tecnólogos están tan orgullosos de la "Internet como es" que a lo sumo alcanzan a querer hacerla más rápida, para meter por los cables -claro está- todavía más información ¡pobre Tántalo!

Es tan sencillo (o tan complejo) como crear un "perfil de usuario" que indique en qué esta interesado uno, y programar a la máquina para que nos avise si algún artículo del BOE "encaja" con ese perfil. Uno de los problemas es que algo tan sencillo para los humanos como "encajar" puede llegar a ser extremadamente complejo para una máquina. Eso sí, si conseguimos programarlo, la máquina lo hará miles de veces más rápido que el humano. Y sin cansarse.

Es la historia de la humanidad. Un continuo crear de nuevas cosas mientras las antiguas -las calles que conocimos, los valores que tuvimos, lo que aprendimos y lo que olvidamos- se derrumban.

Y allí quedaran, perplejos, aferrados al papel, algunos -paradójicamente llamados "analfabetos tecnológicos"- de los hombres más cultos. Leyendo libros de papel. Leyendo incunables. Leyendo el BOE. Es el miedo a lo nuevo. A no dar la talla. Pero tranquilo, si has llegado a estas páginas, no es tu caso.

Pues por más que ame las calles que conocí en mi infancia, esas calles se fueron, ya no existen. Cayeron en el pozo de lo que ya no es. Y negarlo no me ayudará a descubrir las calles nuevas, si las hay. Así que vamos a buscarlas. Cada uno a su modo.

Publicado originariamente en la Revista Poética Almacén el 1/11/2001