Skip to content

java

Spring Framework (1) – Beans? Beans!

Spring FrameworkÚltimamente, por «necesidades del guión», he estado revisando la documentación de Spring, aprendiendo cosas nuevas y recordando algunas que había olvidado. He estado tomando algunas notas, de esas que al final acaban perdiéndose, así que al final me he decidido a pasarlas a limpio y colgarlas en la web.

Estoy siguiendo la documentación oficial, con un enfoque paso a paso de abajo arriba, lo que quiere decir que estoy generando mucho material. Para evitar polucionar el blog con decenas de posts sobre el tema los he juntado en forma de una serie de artículos dedicados a Spring.

Primera tanda de artículos:

Introducción

Ejemplo Básico

Beans (1): Instanciación y Dependencias

Beans (2): Definición

Beans (3): Inicialización Perezosa y Autowiring

Beans (4): Inyección de Métodos

Beans (5): Ciclos de Vida

Beans (6): Plugins y Factorías

Estos artículos abarcan la parte más básica de definición de los beans, los siguientes abordarán el uso anotaciones y alguna de las funcionalidades ofrecidas por el contexto.

El software que hace funcionar Facebook

FacebookFacebook es la red social de más éxito hoy en día, y desde un punto de vista puramente técnico, sus datos son realmente espectaculares. Presume de tener del orden de unos 30.000 servidores capaces de servir unos 570 billones de páginas al mes. Hace una semana publicaron un artículo con algunos detalles del software que utilizan en sus máquinas.

Aunque empiezan diciendo que se consideran un sistema de tipo LAMP (Linux Apache MySQL PHP), enseguida aclaran que más bien es un «LAMP con heteroides». Utilizan versiones de Linux, MySQL y PHP que ellos mismos han optimizado. Además de mucho otro software, naturalmente, propio y ajeno, la mayoría de código abierto.

HipHop para PHP es uno de los desarrollos propios de Facebook más conocidos, y se trata básicamente de un compilador cruzado que toma código escrito en PHP y genera código equivalente en C++ que puede ser compilado con g++ para una ejecución de forma nativa más óptima. Con este enfoque aseguran haber conseguido hasta una reducción de un 50% del consumo de CPU en sus servidores.

Thrift es un desarrollo propio de Facebook que liberó y ahora forma parte de la fundación Apache. Sirve para poder realizar llamadas entre distintos lenguajes de programación, que en el caso de Facebook son unos cuantos: PHP, C++, Java, Erlang, … La idea es que en un fichero de texto plano se definen las estructuras de datos y las funciones públicas, y la librería genera el código fuente correspondiente para el lenguaje de programación que se le indique. La librería garantiza que los datos serán serializados en el cliente y reconstruidos en el servidor donde quieran que se ejecuten estos de una forma totalmente transparente y eficiente. O sea, un RPC (posibilidad de realizar llamadas remotas) con su propio IDL (lenguaje de definición de interfaces). No obstante es un proyecto que ha decaido un poco, sobre todo por el auge de Avro que el mes pasado se convirtió en un proyecto «raíz» de Apache. De características similares, pero con un enfoque más atractivo, ya que no obliga a utilizar código fuente generado de forma automática por una herramienta.

Cassandra es otro de los productos estrella de Facebook. Es un sistema de almacenamiento distribuido altamente escalable y con una gran tolerancia a fallos. Es uno de los baluartes actuales de las base de datos «NoSQL» para el almacenamiento de pares (clave, valor). Hace un tiempo escribí un post explicando el modelo de datos en el que se basa su funcionamiento. Es un software muy interesante y que ha entrado a formar parte también de la fundación Apache.

Hadoop es un conjunto de proyectos de código abierto originales de la fundación Apache con los que se persigue que los desarrolladores tengamos las herramientas necesarias para poder generar programas distribuidos, escalables y con alta disponibilidad. Se compone de un núcleo de librerías comunes, varios frameworks, y una serie de software más específico implementado sobre los anteriores. Uno de los más populares es MapReduce que implementa las funciones Map y Reduce utilizadas para el procesamiento de grandes cantidades de información en entornos principalmente de cloud computing. La idea básica es que se parte de unos vectores con los datos a procesar a los que aplica la función Map para generar nuevos vectores en un dominio distinto, y luego se aplica la función Reduce para agrupar los vectores generados al dominio de salida deseado. Recomiendo leer el artículo de la Wikipedia para entenderlo mejor. Es muy interesante.

Hive es un subproyecto dentro de Hadoop, aunque es un desarrollo original de Facebook que luego liberó. Es un datawarehouse cuyo objetivo es permitir acceder a través de consultas SQL a los enormes vectores de información utilizados normalmente con Hadoop con el propósito de realizar análisis estadísticos o de tipo data-mining.

BigPipe es una de las «armas secretas» de Facebook. Es un servidor de páginas webs dinámicas que introduce el concepto de pagelets con el que descompone una página web en varias partes, de forma que cada una de ellas pueda generarse en paralelo. La idea es que cuando se solicita una página web esta se devuelva lo antes posible, pero con una estructura mínima que se compone de bloques vacíos (perfil, búsqueda, chat, …). Estos bloques son las pagelets que se van generando en paralelo en el servidor, y que cuando están listas se envian al cliente y se renderizan con JavaScript. De esta forma se consigue que la generación de una única página web se haga en paralelo, en vez de forma secuencial como es lo más habitual, y que el fallo en un subsistema (perfil, búsqueda, chat, …) no impida servir una página, aunque esté incompleta.

Memcached es un proyecto externo de código abierto muy popular al que Facebook ha contribuido optimizando algunas partes. Es un sistema distribuido de cache de objetos con un alto rendimiento. La idea es evitar tener que hacer consultas pesadas almacenando resultados previos en memoria, de forma que pueden ser servidos directamente en vez de ejecutando cada vez las consultas. O sea, el funcionamiento normal de una cache pero aplicado a gran escala, sobre queries que atacan una base de datos, clientes que solicitan páginas webs, o cualquier otro tipo de pares (clave, valor). Pero no es mágico, no es un software que se pone entre cliente y servidor y lo hace todo. Hay que programar. En los clientes hay que llamar a la cache para ver si tiene el dato, y si no lo tiene hacer la consulta de la forma habitual, y entonces llamar a la cache para que almacene el dato durante el tiempo que se quiera que sea válido.

Varnish es un acelerador de HTTP de código abierto. Se coloca entre los clientes y uno o más servidores web actuando como balanceador de carga. Pero es un software que ofrece mucha más funcionalidad que la de mero balanceador. Ofrece un servicio de cache para responder a las peticiones de forma inmediata sin tener que realizar realmente las llamadas a los servidores web, y permite ejecutar procesos a medida para prácticamente cualquier tipo de información o evento que se produce en una comunicación HTTP. Facebook lo utiliza sobre todo para servir las fotos e imágenes de los perfiles, ¡unos cuantos billones de ficheros cada día!

Scribe es el sistema de log desarrollado por Facebook y liberado como código abierto. La idea es que los cliente envian a servidores dedicados, a través del anteriormente mencionado Thrift, las trazas en forma de pares (categoría, mensaje). Y los servidores organizan todos los mensajes recibidos en función de sus categorías escribiéndolos finalmente en ficheros alojados en algún tipo de filesystem distribuido, ¡unas cuantas decenas de billones de mensajes cada día!

Desmitificando a Cassandra

CassandraCassandra es una de las piezas de software clave dentro de las complejas infraestructuras de una red social de tanto éxito hoy en día como es Facebook. De hecho, es un desarrollo original de la propia Facebook que ha liberado como código abierto. Otros sitios tan populares como Twitter o Digg también están apostando por este software.

Cassandra se define a si misma como una base de datos distribuida de segunda generación altamente escalable. Sin embargo, el término «base de datos» resulta engañoso para los que estamos acostumbrados a trabajar con las tradicionales base de datos relacionales. Cassandra no sigue el modelo relacional. No es un «RDBMS«. Es una base de datos «NoSQL«.

¿Pero cómo son las bases de datos «NoSQL»? Pues una de sus principales características es que carecen de una estructura fija de tablas. Es decir, se componen de un conjunto de entidades básicas, pero estas carecen de una definición fija de atributos. Es como si cada fila de cada tabla, en un modelo relacional, pudiera tener el número de columnas que quisiera. Algo que de entrada resulta bastante extraño para los que estamos acostumbrados a trabajar con modelos relacionales. Y motivo por el que la mayor parte de los artículos que pueden encontrarse por Internet tratan de explicar como trabajar con estos nuevos modelos comparándolos con los antiguos relacionales.

El ejemplo comparativo más clásico es el propuesto por Jonathan Ellis, desarrollador principal de Cassandra, y que consiste en definir una base de datos para un servicio web, llamémoslo «Multiblogs», similar al popular Blogger, que permite a sus usuarios crearse sus propios blogs y dejar comentarios en los mismos. En Cassandra esta tarea es tan sencilla como editar un fichero de configuración llamado «storage-conf.xml» y añadir las siguientes líneas:

Y no hay más. En serio. ¿Y dónde están los nombres de los atributos? ¿Dónde están los clásicos «title», «author», …? ¿Y los tipos de cada atributo? ¿Y se permiten NUMBER, VARCHAR, DATE, …? ¿Y cómo se definen las claves primarias? ¿Y qué ocurre con las foreign keys? ¿Y …? A mi particularmente la definición del modelo me resultó tan poco natural la primera vez que la ví, que creo que intentar explicarla en base al modelo relacional es un error que desvirtúa su verdadera naturaleza. Mejor ver primero como se estructura, y luego hacer las comparaciones.

Cassandra Data Model
El modelo de datos de Cassandra se compone de los siguientes elementos:

Column: Es el elemento de menor granularidad al que se puede hacer referencia por un nombre. Como un pixel dentro de un bitmap. Lo interesante es que no es un valor escalar, sino un estructura compuesta por tres atributos: name: binary, value: binary y timestamp: int64.

Un ejemplo de una instancia de este tipo de estructura en notación JSON:

No hay restricciones con respecto a lo que pueden contener los atributos. Todos los valores los deben suministrar los clientes de la base de datos, incluido el timestamp. Como una «variable» definida dentro de un programa en cualquier lenguaje de programación. Y ahí reside precisamente la diferencia con los modelos relaciones tradicionales. El modelo apenas proporciona al gestor información acerca del dominio de la aplicación. No se define hasta el último detalle lo que puede insertarse o no en la base de datos. De hecho, en la práctica puede insertarse cualquier tupla de la forma (nombre, valor, fecha) que se quiera. Cassandra, a lo que se dedica en realidad, es a gestionar de forma muy eficiente colecciones distribuidas verdaderamente enormes de este tipo de tuplas, del orden de billones, de una manera altamente escalable.

El resto de elementos del modelo de datos de Cassandra sirven para agrupar estas simples tuplas.

Super Column: Es una agregación de columns que puede referenciarse por un nombre. Se implementa como una estructura que se compone de dos atributos: name: binary y columns: list<Column>. En la práctica se la considera igual que una column, sólo que en vez de almacenar un valor almacena una lista de columns. Es un recurso bastante útil, ya que permite tener una colección de valores anidados asociados a otro valor.

Un ejemplo de una instancia de este tipo de estructura:

De igual forma que antes, no hay restricción acerca de lo que deben contener. Nada impediría insertar en el ejemplo una nueva column con cualquier tipo de información en tiempo de ejecución por parte del cliente.

Repito. El contenido de estas agrupaciones se define en tiempo de ejecución, en función del uso que las aplicaciones clientes hagan de ellas. Como una «estructura» definida dentro de un programa en cualquier lenguaje de lenguaje de programación. Evidentemente aportan una flexibilidad enorme a los modelos que ya se encuentran en producción, pero también un descontrol enorme si no se documenta exhaustivamente el uso que se quiere hacer de ellos.

Row: Es una agregación de columns o super columns que se referencian con un nombre. No hay más, sólo un nombre contenido dentro de un vulgar String. Ese nombre es la «clave» (key) que identifica de forma unívoca a un registro.

En el siguiente ejemplo puede verse una row que agrupa tres columns, o lo que es lo mismo, tres columns almacenadas bajo una misma clave:

En este punto es importante no confundir una row con una super column. La row es sólo una palabra «clave», no es una estructura, carece de atributos.

La mayoría de la gente parece sentirse cómoda pensando en las rows como el equivalente a la clave primaria de cada registro en las tablas del modelo relacional.

Column Family: Es una agregación de rows que se referencia con un nombre. Y tampoco hay más, sólo un nombre contenido dentro de un vulgar String.

En el siguiente ejemplo puede verse una instancia de este tipo de colección, que consta de dos rows de super columns que a su vez contienen columns (he añadido comentarios por claridad):

Insisto. No hay estructura predefinida. Cassandra lo gestiona todo como arrays asociativos. Como las propiedades de los objetos en JavaScript. O como las clases Dictionary en ActionScript. O como las clases HashMap en Java. Cassandra mantiene colecciones ordenadas de objetos a los que se accede por un nombre (clave), que en la terminología de Cassandra se llama row (key). El modelo en realidad es un hash de varias dimensiones, donde las columns se sitúan en el nivel más bajo, las super columns son un hash de columns, las rows son un hash de columns o super columns, y las column families son un hash de rows. Teniendo la cadena de nombres (claves) se puede acceder a todos los elementos que la componen.

Es importante destacar que los nombres de las column families que quieran utilizarse en Cassandra han de definirse en su fichero de configuración «storage-conf.xml». Y cuando se añade o elimina una column family en este fichero es necesario reiniciar el servidor. Además, para cada column family se debe especificar un método de ordenación de sus columns. O dos, si se compone de super columns, para indicar como se ordenan por defecto en primer lugar las super columns, y luego las columns que contienen cada una de ellas.

Eso de las ordenaciones es algo bastante importante, ya que Cassandra almacena físicamente cada column family en un fichero distinto ordenado por los criterios dados. En consecuencia, se debe tratar de almacenar la información relacionada en una misma column family, y ordenada de la forma en la que más habitualmente se vaya a acceder a ella.

La mayoría de la gente parece sentirse cómoda pensando en las column families como el equivalente a las tablas en el modelo relacional.

Keyspace: Es una agregación de column families que puede referenciarse por un nombre. No es una estructura con atributos, es tan sólo otro contenedor al que se accede por un String con su nombre.

La mayoría de la gente parece sentirse cómoda pensando en las keyspaces como el equivalente a los esquemas (conjunto de tablas) en el modelo relacional.

Cluster: Es el elemento de más alto nivel que puede referenciarse por un nombre. Es de naturaleza más física que los anteriores, más relacionado con el hardware, ya que agrupa los nodos (máquinas) sobre los que se ejecuta Cassandra. Puede contener uno o más keyspaces.

Y esa es a muy grandes rasgos toda la estructura del modelo. Que no es poco. Y espero que haya quedado claro a estas alturas que Cassandra almacena pares de datos compuestos por una clave y un valor (más un timestamp), que no asegura ningún tipo de integridad referencial, que no permite hacer joins, y es más, que no permite ejecutar ningún tipo de sentencia SQL. Todos los pares de valores que almacena se insertan/modifican/borran/recuperan con una cadena de la forma keyspace.columnfamily[row][column] o keyspace.columnfamily[row][supercolumn][column], aunque se permite operar de una sola vez con todas las columns de una clave o de una supercolumn, y también con rangos de claves.

No obstante, utilizar este esquema no significa renunciar a las buenas prácticas aprendidas a lo largo de años de uso de los tradicionales modelos relacionales. Por ejemplo, para las rows (claves) nada nos impide seguir utilizando por comodidad algún tipo de secuencial o UUID generado automáticamente, como se hace en la actualidad para las claves primarias con las columnas AUTOINCREMENT o las SEQUENCES de Oracle:

De igual forma, el concepto de foreign key se debe seguir utilizando (aunque en ningún caso se garantice su integridad). Cassandra no pone ninguna restricción a la hora de que una misma clave que identifica una row aparezca en varias column families distintas. Es más, los desarrolladores enfatizan este hecho, ya que teniendo la clave de un objeto se pueden obtener todos los objetos relacionados en cualquier otra column family:

Y la necesidad de índices la podemos satisfacer creando column families específicas a nuestras necesidades. Para, por ejemplo, dado un «nombre de usuario» averiguar cual es su «clave»:

Pero, ¿por qué las webs más grandes de Internet no utilizan base de datos tradicionales? ¿Acaso no tienen «usuarios», «artículos», «comentarios», … y todo ese tipo de entidades que tan bien casan tabla por tabla con el modelo relacional? ¿MySQL y Oracle se están quedando obsoletos? ¿Por qué se necesita otro paradigma? No creo que se pueda responder con una sola palabra clave a todas estas preguntas. De hecho, si tuviera que hacerlo yo, no me decidiría por una única palabra, sino por dos: «rendimiento» y «escalabilidad».

Las base de datos relacionales no están respondiendo de forma adecuada a los retos que los grandes sitios webs actuales les plantean. Y por tanto se supone que tampoco lo harán a las necesidades de los futuros desarrollos que seguirán la línea marcada por estos. El problema no es que los modelos relacionales no puedan almacenar de forma ordenada la ingente cantidad de información que gestionan estos sitios. El problema es que sus tiempos de respuesta no son los más adecuados para lo que los usuarios demandan, y sus requerimientos de hardware no son lo suficientemente flexibles como para poder adecuarlos de forma óptima a las cambiantes necesidades del negocio. Las grandes webs se hartaron de desnormalizar sus modelos de datos e invertir dinero en mejorar el hardware de sus ordenadores, así que optaron por utilizar directamente modelos desnormalizados y altamente escalables horizontalmente (añadir más ordenadores a la red para aumentar el rendimiento).

Sin embargo, el párrafo anterior no viene a significar que haya que desechar todo el conocimiento adquirido hasta la fecha y rehacer los desarrollos actuales sobre modelos relacionales. No es eso. Lo que trata de resaltar es que a los grandes sitios de Internet las soluciones tradicionales no les valen. No hay ningún incoveniente en que las pequeñas, medianas y grandes empresas, que no tengan que manejar Petabytes de datos en tiempo real, puedan seguir trabajando con sus base de datos actuales. Lo importante es saber que esas propuestas alternativas están ahí, y conocer un mínimo acerca de la filosofía de funcionamiento de las mismas. Dentro un tiempo puede llegar a ser tan natural trabajar en una base de datos «NoSQL» como lo es hoy en día trabajar con un «RDBMS».

Para terminar, algunas páginas de referencia:

http://wiki.apache.org/cassandra/API: API de Cassandra. Muy recomendable echarle un vistazo a las funciones, parámetros y valores retornados.

http://wiki.apache.org/cassandra/ClientExamples: Ejemplos de clientes en varios lenguajes de programación. Muy recomendable para ver que en la práctica todo se reduce al uso del API.

http://arin.me/blog/wtf-is-a-supercolumn-cassandra-data-model: Un artículo de un ingeniero de Digg describiendo el modelo de datos de Cassandra con bastantes ejemplos.

http://blog.evanweaver.com/articles/2009/07/06/up-and-running-with-cassandra: Un artículo de naturaleza bastante práctica en el que se puede ver a Cassandra en funcionamiento.

Struts y Spring

Estos días he estado recibiendo un curso de formación introductorio a Struts y Spring. Dos frameworks bastante populares dentro del mundillo del desarrollo, principalmente web, para Java. Es bastante fácil encontrar referencias a ambos productos aquí y allá, pero encontrar a alguien que sepa decir con precisión para que sirven exactamente cada uno de ellos es algo más complicado. Sobre todo por que, a mi juicio, son soluciones que intentan abarcar demasiados aspectos a un mismo tiempo con el objeto de ofrecer una solución completa y exhaustiva, lo que hace que se pierda facilmente la perspectiva del conjunto si no se va cuidado. Hay muchos sitios donde mirar, y al final es fácil no saber donde poner la mirada. A algunos de estos mega-proyectos no les vendría mal una operación de «marketing» para venderse mejor.

Struts me lo han conseguido vender más o menos bien, aunque con matices. Pero Spring no me ha acabado de llegar, posiblemente por las circunstancias de mi proyecto actual, donde ya se encuentran resueltos muchos de los problemas que se plantearon gracias a un framework propio. Pero vayamos por partes.

Todo artículo que trate de Struts parece tener que empezar hablando irremediablemente del patrón MVC (Modelo-Vista-Controlador). Este framework vive de él. Y la idea general que he sacado del curso es que todo gira alrededor suyo, y en la separación de capas que proporciona. Al principio yo esperaba que me iban a mostrar un sistema de plantillas bastante elaborado, a la manera de muchos paquetes PHP, pero curiosamente esa parte la hemos visto al final. Lo primero ha sido ver como se pasa el control al framework de forma transparente a través del fichero web.xml habitual en las aplicaciones web. Lo que en un principio me ha alegrado, hasta que me he dado cuenta de que en realidad lo que se estaba haciendo era poner las referencias a los servlets en otro fichero. El mismo perro con otro collar. Afortunadamente, más tarde ha mejorado mi percepción al entender como se conseguía que las clases de negocio se dedicasen sólo y exclusivamente al negocio, las clases de presentación a lo suyo, y así sucesivamente. Siempre está bien tener este tipo de organización que garantice que todos hacen lo mismo en un mismo sitio, y Struts puede ser un punto de partida tan válido como cualquier otro.

Struts actúa como un proxy intermedio que controla el flujo de vida de las aplicaciones redirigiéndolo a nuestras clases en los momentos adecuados.

Una visión algo parcial de Struts nos permite verlo además como un conjunto de librerias, del que cada cual utiliza las partes que le interesa. Con este enfoque, la primera libreria que vimos fue la de internacionalización, ya que es algo bastante sencillo de entender de entrada, y su uso no implica cambios demasiados grandes en la forma habitual de escribir un JSP. De hecho es bastante simple, consiste en utilizar una fichero de recursos por cada idioma que soporte la aplicación, con las cadenas de texto, y hacer referencia a ellos a través de las etiquetas propias que proporciona Struts. El uso de etiquetas propias embebidas dentro de los propios JSP es una constante en este framework.

Otras librerías que vimos fueron las enfocadas a la creación y gestión de formularios, elementos muy frecuentes en la mayoría de aplicaciones webs transaccionales. Desde facilidades para tareas comunes, como el mantenimiento de los valores previos introducidos entre llamada y llamada al servidor, pasando por un tratamiento casi transparente de las excepciones, hasta el control de errores y validación de campos de entrada de forma centralizada. Todo ello mediante la escritura de clases que reciben directamente la información a tratar en cada caso, y que son llamadas por el propio framework que controla en todo momento el flujo de proceso de la aplicación. Siendo quizás la parte más representativa de esta parte, el hecho de que los nombres de las clases a las que tiene que llamar el framework residen en ficheros XML, aunque lógicamente las clases que escribimos están obligadas a implementar determinadas interfaces para que puedan ser llamadas correctamente.

Por lo que respecta a Spring, su patrón de diseño clave es el de la inversión de control, aunque el framework en su conjunto abarca muchas áreas. Por una parte la gestión de la capa de acceso a datos (DAO y ORM), por otra parte la de gestión del negocio (J2EE), y por otra parte la capa de presentación. Lo que viene a ser otra vez el omnipresente patrón MVC. Como curiosidad, hay que mencionar que Spring ofrece soporte de forma nativa para el uso de programación orientada a aspectos, de forma que nos permite inyectar código propio en clases ajenas. Sobre esto último, durante el curso, vimos la evolución que ha sufrido el framework, y las posibilidades mejoradas que ofrece al respecto la versión 2.0, aunque a mi parecer no tantas como otras soluciones creadas especificamente para este propósito. De hecho, esto es un incoveniente que se plantea para muchas de las funcionalidades que ofrece el framework. Como su gestor de transacciones por ejemplo, que se queda corto frente a un servidor de aplicaciones normal.

En la práctica el uso de Spring es similar al de Struts, en lo que al uso de ficheros XML se refiere. El peso de la configuración recae en el uso de «contextos», ficheros en los que a grandes rasgos se definen las clases concretas que debe utilizar el programa. Lo que de entrada puede sonar algo extraño, ya que estamos acostumbrados a instanciar objetos de un paquete específico en nuestro código fuente. La ventaja de este enfoque es que permite modificar los paquetes que debe utilizar una aplicación de manera indirecta, minimizando así las dependencias «hardcoded» entre componentes. No obstante, esto es sólo una minúscula parte de la potencia que ofrece este enfoque. Por ejemplo, en un fichero de contexto podemos indicar que un determinado objeto se trate mediante el patrón Singleton, de forma que sólo se instancie una única vez a lo largo y ancho de toda la aplicación. Pero las ventajas no acaban ahí, ya que es posible incluso indicar las clases a utilizar al instanciar los parámetros de los constructores, e incluso de variables de instancia. Es evidente que en la práctica todo esto tiene un carácter bastante técnico.

Spring, entre otras muchas cosas, permite reducir las dependencias entre los componentes de una aplicación declarando de forma independiente las clases concretas a utilizar en cada caso. Y proporciona patrones, interfaces y facilidades para la integración con otros paquetes populares, como Hibernate, por citar sólo uno, e incluso con el propio Struts, minimizando el impacto del uso de los mismos.

En cualquier caso, hablando ya de una forma más general, lo que no me ha convencido de ninguna de las maneras, es la aseveración de que estos frameworks permiten cambiar el comportamiento de una aplicación sin tener que tocar el «código fuente». Y por una razón muy sencilla. En el momento que me obligan a escribir el nombre de una clase en un fichero XML, ese fichero pasa a formar parte de mi «código fuente». Ese fichero XML se tiene que distribuir junto el resto de la aplicación, y ese fichero XML hace referencia a una parte de mi código. Tratando de ser un poco magnánimo, es fácil entender que en realidad esto es algo que llevamos haciendo toda la vida, como cuando parametrizamos el nombre de un driver de acceso a base de datos en un fichero de configuración. La clase del driver no suele ser parte de nuestro código, pero no por ello deja ser código. Eso sí, por favor, que no me lo vendan como si ambas cosas fueran casos distintos.

En cualquier caso, a mi me parece un atraso que en pleno siglo XXI se sigan escribiendo JSP y XML prácticamente a mano. Los ficheros de texto son muy complicados de validar, y los editores normalmente no pueden detectar los errores semánticos que se cometen habitualmente al escribir cadenas de texto. Y de los «scriptles» mejor ni hablo.

En estos cursos tan intensivos de paquetes tan grandes es fácil verse saturado por la cantidad de información que se recibe. Uno está acostumbrado a hacer las cosas de una forma determinada en el día a día, y de pronto se te plantea, no una, sino cuatro, cinco, seís, … formas distintas de hacer una misma cosa con una herramienta que estás viendo por primera vez. Agravada además la experiencia por el hecho de que todo este tipo de software en particular se encuentra saturado por una cantidad ingente de abreviaturas, siglas, acrónimos, etiquetas, y los omnipresentes ficheros XML con sus inmumerables posibilidades disponibles como hilos conductores de todo el proceso.

Sin embargo, superado el «shock» inicial, es recomendable hacer una pausa y pararse a analizar todo desde la distancia. A mi juicio, la principal dificultad de estos frameworks la plantea el hecho de que requieren una visión estratégica del desarrollo del software, es decir, a muy largo plazo. Las ventajas de los patrones de diseño que implementan estas soluciones son el tipo de artificio que se supone que debe tener presente en todo momento un «arquitecto de sofware». Para un «programador de a píe» no dejará de ser una forma de hacer las cosas, un poco rebuscada quizás. La separación de capas, la posibilidad de poder cambiar el comportamiento de diversos aspectos de una aplicación modificando un, llamémosle «fichero de configuración», la reducción de dependencias entre paquetes, o la posibilidad de inyectar código de forma casi arbitraria, es algo grande, muy grande en realidad.

Si trabajas para una empresa/proyecto que usa un framework propio, puede que estos paquetes no te resulten demasiado atractivos, aunque resuelvan ciertas cosas de mejor forma que los estás haciendo tú. Pero si no estás trabajando con ningún paquete de estas características, entonces son una alternativa seria a considerar. Aunque abrumen un poco, requieran paciencia al principio para entender la filosofía de diseño, no se presenten como el típico IDE visual de drag and drop, y haya que dedicarles un tiempo hasta conseguir definir un buen flujo de trabajo que se ajuste a nuestras necesidades.

Programación Orientada a Aspectos

Recientemente, en la documentación técnica aportada por un cliente para un proyecto, se insitía en la imperiosa necesidad de utilizar el paradigma de la programación orientada a aspectos para los nuevos desarrollos. A estas alturas, cuando uno lee estas cosas, lo primero que piensa es «Golden Hammer habemus». Pero ya se sabe que donde manda patrón (cliente), no manda marinero (desarrollador). En San Google y Santa Wikipedia puede encontrarse bastante información sobre el tema, aunque no está nunca de más intentar sacar conclusiones por uno mismo.

La definición de «Programación Orientada a Aspectos» (AOP) es similar a cualquier otra que se pueda leer acerca de una nueva tecnología que pretenda solventar los problemas recurrentes de la construcción de software. Separar, encapsular, modularizar, facilitar, … ¿Pero qué tiene entonces de especial este paradigma? ¿No tenemos ya la ubicua programación orientada a objetos para eso? Pues la verdad es que a lo que estamos acostumbrados está bien (OOP), pero la AOP aporta un puntito interesante al asunto. La gracia del tema está en que parece haber sido ideada más por programadores que por arquitectos. Su índole es de carácter práctico, y va más allá del trazado de subdivisones, diagramas de abstracciones, o esquemas de muy alto nivel de más que cuestionable utilidad en el día a día.

Para entender que es lo que aporta la AOP frente a otras tecnologías, lo mejor es utilizar un ejemplo. Esto es lo que hacen prácticamente todos los artículos que pueden leerse por Internet, y resulta comprensible, los objetivos que persigue este paradigma son tan génericos que resulta complicado entender la filosofía de su enfoque si no se ve su aplicación sobre casos concretos.

El ejemplo «paradigmático» de esta tecnología consiste en imaginar un paquete de clases cualquiera, escrito en cualquier lenguaje de programación disponible, al que se quiere añadir una nueva responsabilidad. Por ejemplo, imaginemos que se trata de un paquete de clases que se utiliza para gestionar las cuentas de usuarios de un sistema online. Por política de la empresa propietaria del sistema, se decide que cada vez que se ejecute un método de estas clases, se debe escribir en un fichero de texto de trazas (log) un mensaje con el nombre del método ejecutado para hacer un seguimiento exhaustivo del uso de este paquete.

Siguiendo un procedimiento bastante habitual, se abriría el IDE, y se empezaría a cambiar uno a uno los métodos de las clases, añadiendo las líneas de código oportunas para escribir al log. Aunque es posible también que se creara un paquete nuevo de clases por encima, a modo de proxy, que se dedicase solamente a escribir al log y pasar la llamada al paquete original. Con este último enfoque incluso se podría utilizar un patrón Factory, e instanciar clases de un paquete u otro a conveniencia, para su uso por ejemplo en los entornos de desarrollo donde el seguimiento exhaustivo no es preciso. No obstante, aún quedarían bastantes detalles por afinar, como qué sistema de logger utilizar, y sobre todo, qué ocurrirá si en un futuro se decide cambiar dicho sistema de, supongamos inicialmente uno in-house, a un paquete comercial, o tal vez a uno libre y de código abierto. Aunque sobre este último punto se podría argumentar que lo correcto sería ceñirse a una interface bien definida, y posiblemente estándar, para que el cambio fuese lo menos dramático posible. Y aún asi, habría que seguir decidiendo que ocurre si se produce por ejemplo una excepción al escribir al log, y una de serie de cosas por el estilo.

La clave del asunto está en observar dos puntos importantes. Primero, que las distintas soluciones implican modificar el código ya existente, y segundo, que el paquete afectado asume una nueva responsabilidad más allá de para la que fue creada originalmente, esto es, gestionar cuentas de usuario. La programación orientada a aspectos promete que es capaz de conseguir lo que se pide sin tener que modificar ni una sola línea de código ya existente, y manteniendo claramente separadas ambas funcionalidades, a pesar de que una utilice la otra.

¿Y cómo obra esta magia? Pues viendo a los programas como lo que son en la práctica, cuando se encuentran en ejecución: flujos de instrucciones y datos. Considera los acontecimientos que suceden durante la ejecución de un programa (creación de una instancia de la clase C, ejecución del método M, lanzamiento de la excepción E, …), y se los ofrece al programador, para que pueda asociarles el código que quiera que se ejecute cuando ocurra alguno de esos acontecimientos. Es similar a la programación basada en eventos, donde se indica a que método se tiene que llamar cuando ocurre algo de particular interés, como la pulsación de un botón por ejemplo, pero llevada a otro ámbito, el de la ejecución del código. Similar a lo que se hace desde un depurador cuando se pone un punto de parada condicional. La AOP permite al programador escribir una regla del estilo «cuando se ejecute cualquier método del paquete [de cuentas], llama a mi función [que escribe un mensaje en el log]». Y lo más grande es que en la práctica (en la vida real, con un compilador real que soporte AOP) basta crear un fichero con apenas 10 líneas de código para escribir esa regla y conseguir el resultado deseado.

Esta tecnología no espera que el programador se ciña a una interface, a un diseño por contrato, que utilice anotaciones, o cualquier otro tipo de meta-información embebida dentro de «su» código. El enfoque es radicalmente opuesto. La tecnología ofrece cosas al programador en vez de exigirle. Permite inyectar «por fuera» la funcionalidad requerida en el momento deseado.

Lo bueno de este enfoque, vuelvo a repetir, retornando al ejemplo, es que no hay que tocar el código fuente ya existente, las reglas se definen en otro fichero, y las funcionalidades quedan separadas completamente, es sólo en el fichero de reglas donde se encontrarán las referencias a los dos paquetes. Por un lado el sistema de gestión de cuentas, que se dedicará única y exclusivamente a gestionar cuentas, y por otro el sistema de logging, que se limitará a escribir al log.

¿Pero cómo se consigue esto en la práctica? Pues gracias a una serie de proyectos que han incorporado la AOP a lenguajes de programación de uso habitual. Para probar esto de una forma rápida y cómoda recomiendo AspectJ, que es una implementación para Java, y AJDT, que es su correspondiente plugin para Eclipse. En este ambiente, la definición de la regla del ejemplo quedaría escrita en un fichero con extensión «.aj» de forma similar a como se muestra en el ejemplo siguiente:

El código es bastante sencillo, es más, tiene el aspecto de código Java ordinario, pero utilizando algunas palabras reservadas propias. Por ejemplo, aspect sirve para encapsular las reglas, de igual forma que lo hace class con los métodos y atributos. De hecho, un aspect funciona por defecto como un Singleton, y admite métodos y atributos como si fuera una clase ordinaria. La diferencia es que permite además incluir puntos de corte (pointcut), que sirven para definir los momentos concretos durante la ejecución del programa en los que se tiene que activar. Con execution se indica que se active, como si fuera un evento, cuando se ejecute un método que cumpla con el patrón que se le pasa como parámetro. Otras posibilidades incluyen handler para que se active al saltar una interrupción de un tipo concreto, call para cuando se invoque a un método, get para cuando se acceda a un atributo, y así sucesivamente. Merece la pena echar un vistazo a la documentación para hacerse una idea mejor de la potencia disponible. El parámetro que admite un punto de corte es una expresión regular que permite hacer referencia a una o más partes del código del programa. En el ejemplo la expresión tiene que leerse como «cualquier método, de cualquier tipo, de cualquier número de parámetros, de cualquier clase, del paquete com.enterprise.product.accounts».

La escritura de expresiones regulares siempre suele resultar una actividad un tanto viciante. Las combinaciones son infinitas, e incluso se pueden concatenar con «||» y «&&» como si fueran expresiones booleanas. Ahí van unas cuantas:

Una vez definido un punto de corte se puede refinar un poco más el momento concreto en que se quiere activar, y asociarle el código que se quiere ejecutar. En el código de ejemplo se ha utilizado before para indicar que se quiere activar antes de que se produzca la ejecución de los métodos que cumplen con la expresión regular, pero también se podría haber utilizado after para indicar que se activara después de la ejecución, e incluso around para sustituir completamente el comportamiento del método original por otro. Esta última posibilidad es ciertamente deliciosa, por decirlo de una forma suave.

Por último, queda el código que queremos que se ejecute. Código Java simple y llano, como una vulgar salida por la consola estándar, que redirigida a fichero podría hacer las veces de tosco sistema de logging. De esta forma, lo que ocurrirá, es que cuando se ejecute cualquier método del paquete cuentas se ejecutará también el código con la salida por consola. ¡Objetivo cumplido! Y todo ello sin haber tenido que tocar ni una sola línea de código original. ¡Promesa cumplida! Y es más, si algún día la empresa decidiera cambiar el sistema de log por otro más elaborado, el cambio sería transparente, ya que bastaría con cambiar el código de la regla. E incluso si, en una última vuelta de tuerca, se decidiera cambiar el paquete de cuentas por otro, sería muy sencillo hacer que las nuevas clases escribiesen al log cambiado la expresión regular. El único problema extremadamente grave que se plantea es que ya no podremos facturar un número insano de horas a nuestros clientes por hacer estos cambios como veniamos haciendo hasta ahora. ¡Maldita tecnología!

Un último comentario acerca del ejemplo, sobre la palabra reservada thisJoinPoint. Almacena el punto de concreto dentro de la ejecución del código original en el que ha activado la regla. La he puesto a modo de referencia, para destacar el hecho de que dentro del código se puede hacer referencia a información de contexto. De hecho, se puede incluso referenciar al propio objeto dentro del que se ha producido el evento, y los argumentos que recibe o retorna el método. Recomiendo nuevamente mirar la documentación para ver las enormes posibilidades que ofrece AspectJ a este respecto.