You are currently browsing the monthly archive for Juny 2009.

browserlab

A ver si llega a funcionar.

“BrowserLab provides web designers exact renderings of their web pages in multiple browsers and operating systems, on demand. BrowserLab is a powerful solution for cross-browser compatibility testing, featuring multiple viewing and comparison tools, as well as customizable preferences. Since BrowserLab is an online service, it can be accessed from virtually any computer connected to the web. Also, Adobe Dreamweaver® CS4 software users have access to additional functionality such as testing local and active content.”

Supported Browsers and Operating Systems

  • Firefox 2.X and 3.X (Windows XP and Mac OS X)
  • Internet Explorer 6.X and 7.X (Windows XP)
  • Safari 3.X (Mac OS X)

Viewing and Diagnostics Tools

Screenshots can be viewed in a single view, side by side view, or as an overlay view with variable transparency. Each viewing option features a zoom function.

Browser Sets

Browser Sets allow designers to customize, edit, and save a combination of browsers to test.

web | browserlab

blueprint

Blueprint es un plugin que se instala en Flex Builder o Flash Builder el cual permite un acceso rápido a referencias de código sobre un componente, clase o función haciendo la vida de los desarrolladores un poco mas sencilla (Si eso es posible :p ).

Con una combinacion de teclas ALT+b para Windows o CTRL+b para Mac, se lanza una ventana de ayuda con las referencias de codigo del elemento seleccionado.

Blueprint se instala de una manera simple y sencilla y sin duda es de gran ayuda.

Fuente: klr20mg
Más información: Adobe Labs

firefox35-rc1

Aunque el desarrollo de la versión final se ha ido retrasando un poco en las últimas semanas, ya tenemos entre nosotros la primera versión candidata de Firefox 3.5, disponible para ser descargada para cualquier plataforma y en más de 70 idiomas. El nombrarla Release Candidate 1 hace pensar que habrá una segunda RC próximamente, antes del lanzamiento de la versión final, el cual ya se espera con muchísima ansia por parte de los usuarios del genial navegador de código abierto.

En esta versión candidata se ha mejorado el sistema de navegación privada y se ha continuado mejorando tanto la estabilidad como el rendimiento del motor Javascript Tracemonkey. Se incluye soporte para transformaciones de gráficos vectoriales SVG, geolocalización, fuentes descargables y mejoras en el soporte de las últimas propiedades CSS y HTML5, incluyendo la capacidad para reproducción de audio y video sin tener el plugin de Flash instalado en el sistema.

Por supuesto Firefox 3.5 RC1 es una versión en pleno desarrollo y no se recomienda su instalación en entornos que requieran estabilidad. Los usuarios que ya estén usando versiones beta anteriores pueden actualizar automáticamente desde el menú de ayuda del navegador.

Via | Genbeta

El nou servei de Google que ha de revolucionar la forma de treballar en xarxa i comunicar-se es diu Wave (“ona” en anglès), un servei que unifica el correu electrònic, el compte de missatgeria instantània, documents, mapes i xarxes socials com Facebook i Twitter i que estarà disponible a finals d’aquest any.

Pel que s’ha pogut veure, la nova aplicació sembla la combinació de Twitter, Friendfeed (una eina creada per penjar continguts i comentar-los amb els amics) i Facebook. Amb una única pàgina, l’usuari pot enviar missatges directes als seus contactes en temps real, així com compartir fotos i documents o afegir i eliminar membres a la conversa quan ho considerem necessari.

Segons els seus creadors, els germans Jens i Lars Rasmussen (que ja van ser els creadors de Google Maps), per desenvolupar el nou servei s’han inspirat en les dues formes més populars de comunicació a internet: l’e-mail i la missatgeria instantània. Lars Rasmussen va explicar que el projecte va néixer intentant respondre la pregunta “A que s’assemblaria el correu electrònic si s’inventés avui?”.

L’aplicació funcionarà a partir de Waves (ones), que són espais web inicialment buits que l’usuari pot omplir amb allò que vulgui (documents, imatges, audio, vídeos…). Aquest espai el pot compartir en xarxa amb amics o col·laboradors que podran xatejar amb l’usuari, comentar els continguts i editar-los (si l’usuari ho autoritza). Google ha publicat un vídeo per donar a conèixer les seves possibilitats:

Algun dels aspectes més interessants del Wave és que totes les aplicacions estan integrades en un únic entorn i no disperses, que admet multiplicitat de medis (a més de les aplicacions ja comentades, permet postejar, twitejar, concertar cites, modificar un mapa, jugar als escacs, etc. L’aplicació és en codi obert, de manera que els desenvolupadors poden dissenyar noves aplicacions per Wave gràcies a l’API (Interfície de Programació d’Aplicacions, en anglès). Un altre dels punts forts de Wave és que la comunicació es produeix en temps real. Si bé això no és cap novetat tecnològica (és en el que es fonamenta qualsevol xat), si que és nou el fet que múltiples usuaris (fins a 15) puguin comunicar-se entre ells de forma simultània i treballar sobre els mateixos documents alhora. El Wave conservarà un historial de totes les modificacions que s’hagin fet sobre un document, de manera que sempre podrem recuperar les versions anteriors.

No hi ha data concreta pel llançament del Wave, però tot apunta que serà cap a finals d’any. Probablement, Google hagi fet pública la seva idea per tal d’animar els desenvolupadors a fer les seves aportacions al projecte.

Si tens que decorar alguna part de la llar o tens que fer un aplicatiu i necessites imatges a continuació poso una url on podreu trobar un llistat de webs de fotos.

Animeu-vos a crear!!

url: http://www.virtualhosting.com/blog/2007/100-legal-sources-for-free-stock-images/

font: domestika.org

robots-txt

Durante la semana he recibido algunos correos de personas confundidas con respecto al uso del archivo robots.txt y de la meta etiqueta robots. En este post vamos a tratar estos dos temas, explicando las diferencias y utilidad de cada uno de ellos con cara al posicionamiento y optimización de una web.

Robots.txt

El archivo Robots.txt es un simple archivo de texto que sirve para indicarle a los robots o bots de los motores de búsqueda, encargados de rastrear e indexar los contenidos de las webs, qué secciones de nuestras webs queremos que indexen, y qué secciones querems que omitan y, por ende, que no aparezcan en los resultados de búsqueda.

Saber manejar este archivo es super importante para evitar diferentes problemas de indexación que evitan que obtengamos buenos resultados en Google: el contenido duplicado y la pérdida de PR en páginas administrativas (backend) por dar un par de ejemplos. Si tu sitio no tiene un archivo robots.txt, entonces el bot de Google ingresará a tu página y comenzará a indexar todo lo que se le cruce en el camino, para bien o para mal.

robots-txt-explicacion

La ubicación normal del archivo robots.txt (un archivo de texto normal con instrucciones ingresadas de acuerdo a un estandar que veremos más adelante) es el root o folder principal de tu página web, donde se encuentra tu index. Por ejemplo, este es mi archivo robots.txt: http://ilmaistro.com/robots.txt.

Crear un archivo robots.txt es súper sencillo, ya que lo podemos crear en un bloc de notas común y corriente. Lo difícil es aprender a agregarle contenido adecuadamente. Los comandos utilizados dentro de este archivo son los siguientes:

  • User-agent: [nombre del spider / bot de un buscador determinado]
  • Disallow: [Directorio o archivo]
  • Allow: [Directorio o archivo]
  • Sitemap: [URL del sitemap XML de tu sitio]

El user-agent viene a ser el nombre con el que se identifica oficialmente al crawler o bot de un buscador o servicio de indexación determinado. Estos son los más comunes:

  • Googlebot (Google)
  • googlebot-image (Google Image)
  • googlebot-mobile (Google Mobile)
  • msnbot (MSN Search)
  • yahoo-slurp (Yahoo)
  • yahoo-mmcrawler (Yahoo MM)
  • yahoo-blogs/v3.9
  • teoma (Ask/Teoma)
  • twiceler (Cuil)
  • robozilla (Dmoz checker)
  • ia_archiver (Alexa)
  • baiduspider (Baidu)

Mediante el comando disallow, indicamos los archivos o directorios de nuestro blog que no queremos que sean indexados; es decir, aquellos que no queremos que aparezcan en los resultados de búsqueda de Google u otros. El comando Allow hace lo contrario.

Finalmente, mediante el comando Sitemap indicamos la URL en donde se encuentra el sitemap XML de nuestro sitio (la lista de URLs de nuestra página web, que ayuda a Google a indexar todo nuestro sitio más rápido).

Configurando el archivo robots.txt para WordPress

Mi archivo robots.txt contine indicaciones bastante específicas para el Google Bot (User-agent: Googlebot), las cuales paso a explicar a continuación:

Las siguientes líneas evitan que Google indexe los directorios que almacenan los archivos administrativos (wp-admin), la carpeta includes (wp-includes), la carpeta donde guardamos nuestros backups y cualquier otro folder en la raiz del sitio donde guardemos información que no deseamos que sea indexada.

Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /directorio/
Disallow: /backup/

Estas líneas evitan la indexación de archivos que terminen con estas extensiones: php, js (java scripts), inc, css (hojas de estilo), gif, jpg, png (no queremos que en los resultados de búsqueda aparezca en enlace a una imagen, esto se lo dejamos a Google images), etc.

Disallow: /*.php$
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /*.gz$
Disallow: /*.cgi$
Disallow: /*.wmv$
Disallow: /*.png$
Disallow: /*.gif$
Disallow: /*.jpg$
Disallow: /*.cgi$
Disallow: /*.xhtml$
Disallow: /*.php*
Disallow: */trackback*
Disallow: /wp-*

Esta línea evita la indexacion de URLs con el operador “?” (común en las URLs con resultados de búsqueda):

Disallow: /*?*

Estas líneas evitan la indexación de los feeds individuales (copia del contenido de cada post en formato para feeds), las páginas de categorías y las URLs generadas por la paginación (page 2, page 3, etc), todo con la finalidad de evitar la indexación de contenido duplicado:

Disallow: */feed/
Disallow: /category/*
Disallow: /page/

Y, finalmente, esta línea permite que bot de Google Images que indexe las imágene de la web:

User-agent: Googlebot-Image
Disallow:
Allow: /*

Ahora, si no desean molestarse en aprender este código tan fácil, les recomiendo instalar el plugin Robots-Meta para WordPress, el cual les permitirá configurar el archivo de manera sencilla y rápida.

Si no tienen un blog en WordPress pero quieren generar rápidamente un archivo robots.txt, existen algunos generadores en línea, pero yo recomiendo el que nos brinda la herramienta para webmasters de Google.

¿Y si tengo un blog o web pero no tengo acceso al servidor?

En este caso, podemos obtener la misma funcionalidad mediante la utilización de la meta etiqueta robots. El único inconveniente es que tendremos que personalizarla de acuerdo a la página en la cual la coloquemos, lo cual hace esta labor muy trabajosa para ser aplicada en un CMS. Sirve para páginas con poco contenido o para usuarios que sepan personalizarlas vía código PHP, por ejemplo.

La meta etiqueta robots tiene el siguiente formato:

<meta name="robots" content="robots-terms">

El contenido dentro de “robots-terms” es una lista, separada por comas, con uno o varios de los siguientes indicadores, dependiendo del caso: noindex, nofollow, all, index y follow.

  • NoIndex, indica l bot que la página actual no debe ser indexada
  • NoFollow, le indica al bot que no siga los enlaces de la página actual
  • Los operadores follow, index y all no son necesarios ya que se asumen como activos en forma tácita

Si la etiqueta robots contiene información contradictoria (follow, nofollow) entonces el bot decidirá por si mismo que acción tomar.

La siguiente etiqueta en uno de nuestros posts, por ejemplo, indicaría a Google que no indexe ese post en particular, pero que siga los enlaces en el mismo:

<meta name="robots" content="noindex,follow"> | <meta name="robots" content="noindex">

Existen, además, otros operadores para la sección “robots-terms”, que sin embargo no son muy utilizados. Ojo, no todos ellos son validados por todos los buscadores, algunos funcionan solo para los principales, o solo para Google, como es el caso del operador “Unavailable_After”, el cual le indica a Google que a partir de cierta fecha la página debe dejar de indexarse (útil para noticias u ocurrencias válidas solo para un determinado lapso de tiempo).

Finalmente, recomiendo infinitamente configurar adecuadamente un archivo robots.txt para su web o blog. Como se habrán dado cuenta, su utilidad es muy valisoa y sin embargo una gran cantidad de webs no tiene uno activo.

Esto es sin duda la noticia del día (de estos dias). La presentación de una página de demo en Youtube en la que usamos HTML5 y los controles multimedia para mostrar los videos (solo en Chrome, Safar4i, Webkit, Firefox 3.5,..).

enlace | youtube html5