You are currently browsing the category archive for the ‘Produccio’ category.

Navegant e trobat aquesta pàgina de tutorials per fer coses retro.

Per si teniu ganes d’experimentar amb el photoshop.

http://www.hongkiat.com/blog/40-incredibly-inspirational-retro-vintage-photoshop-tutorials/

blueprint

Blueprint es un plugin que se instala en Flex Builder o Flash Builder el cual permite un acceso rápido a referencias de código sobre un componente, clase o función haciendo la vida de los desarrolladores un poco mas sencilla (Si eso es posible :p ).

Con una combinacion de teclas ALT+b para Windows o CTRL+b para Mac, se lanza una ventana de ayuda con las referencias de codigo del elemento seleccionado.

Blueprint se instala de una manera simple y sencilla y sin duda es de gran ayuda.

Fuente: klr20mg
Más información: Adobe Labs

robots-txt

Durante la semana he recibido algunos correos de personas confundidas con respecto al uso del archivo robots.txt y de la meta etiqueta robots. En este post vamos a tratar estos dos temas, explicando las diferencias y utilidad de cada uno de ellos con cara al posicionamiento y optimización de una web.

Robots.txt

El archivo Robots.txt es un simple archivo de texto que sirve para indicarle a los robots o bots de los motores de búsqueda, encargados de rastrear e indexar los contenidos de las webs, qué secciones de nuestras webs queremos que indexen, y qué secciones querems que omitan y, por ende, que no aparezcan en los resultados de búsqueda.

Saber manejar este archivo es super importante para evitar diferentes problemas de indexación que evitan que obtengamos buenos resultados en Google: el contenido duplicado y la pérdida de PR en páginas administrativas (backend) por dar un par de ejemplos. Si tu sitio no tiene un archivo robots.txt, entonces el bot de Google ingresará a tu página y comenzará a indexar todo lo que se le cruce en el camino, para bien o para mal.

robots-txt-explicacion

La ubicación normal del archivo robots.txt (un archivo de texto normal con instrucciones ingresadas de acuerdo a un estandar que veremos más adelante) es el root o folder principal de tu página web, donde se encuentra tu index. Por ejemplo, este es mi archivo robots.txt: http://ilmaistro.com/robots.txt.

Crear un archivo robots.txt es súper sencillo, ya que lo podemos crear en un bloc de notas común y corriente. Lo difícil es aprender a agregarle contenido adecuadamente. Los comandos utilizados dentro de este archivo son los siguientes:

  • User-agent: [nombre del spider / bot de un buscador determinado]
  • Disallow: [Directorio o archivo]
  • Allow: [Directorio o archivo]
  • Sitemap: [URL del sitemap XML de tu sitio]

El user-agent viene a ser el nombre con el que se identifica oficialmente al crawler o bot de un buscador o servicio de indexación determinado. Estos son los más comunes:

  • Googlebot (Google)
  • googlebot-image (Google Image)
  • googlebot-mobile (Google Mobile)
  • msnbot (MSN Search)
  • yahoo-slurp (Yahoo)
  • yahoo-mmcrawler (Yahoo MM)
  • yahoo-blogs/v3.9
  • teoma (Ask/Teoma)
  • twiceler (Cuil)
  • robozilla (Dmoz checker)
  • ia_archiver (Alexa)
  • baiduspider (Baidu)

Mediante el comando disallow, indicamos los archivos o directorios de nuestro blog que no queremos que sean indexados; es decir, aquellos que no queremos que aparezcan en los resultados de búsqueda de Google u otros. El comando Allow hace lo contrario.

Finalmente, mediante el comando Sitemap indicamos la URL en donde se encuentra el sitemap XML de nuestro sitio (la lista de URLs de nuestra página web, que ayuda a Google a indexar todo nuestro sitio más rápido).

Configurando el archivo robots.txt para WordPress

Mi archivo robots.txt contine indicaciones bastante específicas para el Google Bot (User-agent: Googlebot), las cuales paso a explicar a continuación:

Las siguientes líneas evitan que Google indexe los directorios que almacenan los archivos administrativos (wp-admin), la carpeta includes (wp-includes), la carpeta donde guardamos nuestros backups y cualquier otro folder en la raiz del sitio donde guardemos información que no deseamos que sea indexada.

Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /directorio/
Disallow: /backup/

Estas líneas evitan la indexación de archivos que terminen con estas extensiones: php, js (java scripts), inc, css (hojas de estilo), gif, jpg, png (no queremos que en los resultados de búsqueda aparezca en enlace a una imagen, esto se lo dejamos a Google images), etc.

Disallow: /*.php$
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /*.gz$
Disallow: /*.cgi$
Disallow: /*.wmv$
Disallow: /*.png$
Disallow: /*.gif$
Disallow: /*.jpg$
Disallow: /*.cgi$
Disallow: /*.xhtml$
Disallow: /*.php*
Disallow: */trackback*
Disallow: /wp-*

Esta línea evita la indexacion de URLs con el operador “?” (común en las URLs con resultados de búsqueda):

Disallow: /*?*

Estas líneas evitan la indexación de los feeds individuales (copia del contenido de cada post en formato para feeds), las páginas de categorías y las URLs generadas por la paginación (page 2, page 3, etc), todo con la finalidad de evitar la indexación de contenido duplicado:

Disallow: */feed/
Disallow: /category/*
Disallow: /page/

Y, finalmente, esta línea permite que bot de Google Images que indexe las imágene de la web:

User-agent: Googlebot-Image
Disallow:
Allow: /*

Ahora, si no desean molestarse en aprender este código tan fácil, les recomiendo instalar el plugin Robots-Meta para WordPress, el cual les permitirá configurar el archivo de manera sencilla y rápida.

Si no tienen un blog en WordPress pero quieren generar rápidamente un archivo robots.txt, existen algunos generadores en línea, pero yo recomiendo el que nos brinda la herramienta para webmasters de Google.

¿Y si tengo un blog o web pero no tengo acceso al servidor?

En este caso, podemos obtener la misma funcionalidad mediante la utilización de la meta etiqueta robots. El único inconveniente es que tendremos que personalizarla de acuerdo a la página en la cual la coloquemos, lo cual hace esta labor muy trabajosa para ser aplicada en un CMS. Sirve para páginas con poco contenido o para usuarios que sepan personalizarlas vía código PHP, por ejemplo.

La meta etiqueta robots tiene el siguiente formato:

<meta name="robots" content="robots-terms">

El contenido dentro de “robots-terms” es una lista, separada por comas, con uno o varios de los siguientes indicadores, dependiendo del caso: noindex, nofollow, all, index y follow.

  • NoIndex, indica l bot que la página actual no debe ser indexada
  • NoFollow, le indica al bot que no siga los enlaces de la página actual
  • Los operadores follow, index y all no son necesarios ya que se asumen como activos en forma tácita

Si la etiqueta robots contiene información contradictoria (follow, nofollow) entonces el bot decidirá por si mismo que acción tomar.

La siguiente etiqueta en uno de nuestros posts, por ejemplo, indicaría a Google que no indexe ese post en particular, pero que siga los enlaces en el mismo:

<meta name="robots" content="noindex,follow"> | <meta name="robots" content="noindex">

Existen, además, otros operadores para la sección “robots-terms”, que sin embargo no son muy utilizados. Ojo, no todos ellos son validados por todos los buscadores, algunos funcionan solo para los principales, o solo para Google, como es el caso del operador “Unavailable_After”, el cual le indica a Google que a partir de cierta fecha la página debe dejar de indexarse (útil para noticias u ocurrencias válidas solo para un determinado lapso de tiempo).

Finalmente, recomiendo infinitamente configurar adecuadamente un archivo robots.txt para su web o blog. Como se habrán dado cuenta, su utilidad es muy valisoa y sin embargo una gran cantidad de webs no tiene uno activo.

Web interessant (en anglès) on trobareu un llistat de recursos javascript com per exemple: corousels, scrolls, popups… molt interessants per aplicar i donar vida a les vostres webs.

Enllaç: http://www.webdesignerwall.com/general/javascript-in-modern-web-design/

En esta web (en inglés) podréis encontrar 12 normas básicas para estructurar correctamente el html:

contenido,  marcado, css, js y sobretodo el más importante.. “Just do what you can”
http://www.smashingmagazine.com/2008/11/12/12-principles-for-keeping-your-code-clean/

Article molt interesant per fer efectes de disseny a les nostres maquetacions amb jQuery.

L’article parla de com fer:

  • Border-radius
  • Border-image
  • Multiple Backgrounds
  • Box shadow y text-shadow
  • Opacity

Link de l’article:

http://www.anieto2k.com/2009/02/24/tecnicas-css3-que-podemos-conseguir-con-jquery/

Font: anieto2k

sumopaint-peix

SUMO Paint es un completo editor de imágenes que sin llegar al grado de complejidad y posibilidades que ofrece Photoshop dispone de numerosas caracteristicas y funcionalidades que lo hacen similar a éste como soporte para capas, efectos, pinceles, filtros, además de su interfaz. [Fuente: Desarrollo web]

SUMO Paint es una herramienta totalmente gratuita y está realizada con el software de Adobe Flex.

Imagen extraída de mrrookie.
Acceso SUMO Paint: http://www.sumopaint.com/app/

mozilla-test-pilot1

Realizar estudios de usabilidad suele ser un proceso complicado y caro, pero conforme un producto avanza estos son necesarios para mejorarlo. La fundación Mozilla quiere disponer de una plataforma con la que realizar estos estudios y, para ello, están preparando Mozilla Test Pilot.

La idea es que esta plataforma permite responder dudas sobre múltiples funciones de accesibilidad. ¿Cuánta gente utiliza el botón Home? Si son muy pocos este podría eliminarse. ¿Las pestañas se crean más con el teclado o con un botón? La opción más usada podría ser optimizada. Estas son el tipo de preguntas que quieren responderse mediante Mozilla Test Pilot.
Llegeix la resta d’aquesta entrada »

“A list Apart” explora el diseño, desarrollo, y el significado del contenido web, con una especial atención a los estándares web y las buenas prácticas.

Temas sobre los que trata:

– Código: Browsers, CSS, Flash, HTML and XHTML, Scripting, Server Side, XML.

– Contenido: Brand Arts, Community, Writing.

– Cultura: Industry, Politics and Money, State of the Web.

– Diseño: Graphic Design, User Interface Design, Typography, Layout.

– Procesos: Creativity, Business, Project Management and Workflow.

– User Science: Accessibility, Information Architecture, Usability.

¿Problemas con la maquetación?

¿No se cuadran esas cajas al “flotarlas”?

¿Los degradados no se muestran en Explorer 6?

¿Que son los standards y ese rollo?

¿Crees que está todo perdido y la vida del maquetador es una xapuza de código raro?

Pues en esta página hay un listado de bugs de maquetación y sus respectivas soluciones. Para solucionarnos un poquito la vida mientras maquetamos…y tal.

http://www.positioniseverything.net/