Skip to content

Slurp!

Mirando los logs de la web he visto que ha empezado a visitarla Slurp, el indexador de Yahoo!. Estaba generando un error 404 Not Found porque no encontraba robots.txt. Así que lo he puesto para que no se queje. De momento doy vía libre a todo el quiera visitarnos:

User-agent: *

Para los que no sepan de que estoy hablando, decir que robots.txt es un fichero de texto que se ubica en el directorio raiz de las webs, para que los indexadores como Yahoo!, o buscadores como Google, sepan si el propietario de la web les da permiso para indexar su sitio. También permite restringir el acceso a determinados directorios o ficheros. Aunque hay que tener en cuenta que robots.txt es tratado sólo como una recomendación, no como una obligación. Ni todos los (ro)bots lo leen, ni todos los bots le hacen caso. Si se quiere proteger el acceso a determinada información de la web hay que utilizar otros medios, como el uso de .htaccess.

Lavado de Cara

He cambiado el theme que viene por defecto con Drupal por uno que me he hecho yo mismo. Era la primera vez que hacía uno y, la verdad, me ha costado bastante, dos días enteros de peleas con CSS.

He optado por un estilo muy simple, con apenas cinco colores, y sin imágenes. En especial me ha gustado como ha quedado el menú de la izquierda, con esa línea horizontal debajo de cada enlace sin llegar a cubrir todo el ancho de la columna.

También he activado varios módulos: search, comment y codefilter. Este último detecta las etiquetas <?php y ?> dentro de los contenidos y cambia de color el código fuente.

Primer «hack» para Drupal

Al activar el módulo path de Drupal, que permite crear alias de URLs, he creido que sería mejor que la lista de alias se mostrara directamente como URLs en vez de texto plano. Así que, ni corto ni perezoso, he abierto path.module, localizado la función path_overview, y modificado la siguiente línea:

$rows[] = array($data->dst, $data->src, ...

por:

$rows[] = array( l($data->dst, $data->dst), $data->src, ...

¡Y ha funcionado!