Tarsis.net — Agencia Web y Marketing Digital — Tel: (+34) 911 413 259 EN

Tarsis.net › Agencia Web y Marketing Digital

Archivo de la categoría ‘Marketing digital’

Posicionamiento en buscadores (SEO) en 2017

Tarsis.net

Los cambios introducidos en los algoritmos de Google para mejorar continuamente los resultados de búsqueda hacen del posicionamiento en buscadores un panorama siempre cambiante. Además, con el advenimiento de las redes sociales, muchas personas se han preguntado si el SEO sigue siendo relevante. ¿Cómo debe una pyme desenvolverse en este teatro de operaciones?

Posicionamiento en buscadores (SEO)

En una entrada anterior explicábamos y relacionábamos las actualizaciones en el algoritmo de Google, y los diferentes aspectos que el buscador persigue para poder seguir ofreciendo resultados relevantes en las búsquedas que hacemos. Un solo vistazo nos servirá para darnos cuenta de que los parámetros que sirven para puntuar una página respecto a unos determinados términos de búsqueda son muchos (alrededor de 200) y además crecientes y variables en el tiempo.

El negocio de un buscador es vender publicidad, lo cual sólo tiene sentido si es capaz de ofrecer buenos resultados como respuesta a una petición del usuario. En el momento en que esos resultados dejen de ser relevantes, los usuarios dejan de usar ese motor de búsqueda y se esfuma el negocio — no pequeño — del buscador. Por su lado los encargados del SEO de un sitio web intentan — tradicionalmente con bastante falta de atención a las buenas prácticas — obtener los primeros puestos en la página de resultados. Estos dos intereses en conflicto han dado como resultado una carrera permanente entre las dos partes en la que Google ha ido refinando más y más sus criterios para evitar que se deslicen en su índice resultados de poca calidad. Su negocio depende de ello.

A resultas de esto se han ido sucediendo las modificaciones de sus algoritmos que producen periódicamente tsunamis en el posicionamiento de las páginas y esfuerzos renovados por parte de los encargados de SEO para recuperar el posicionamiento perdido.

Entretanto las redes sociales han hecho su aparición y absorbido una parte relevante de las relaciones entre personas y de las personas con las marcas. ¿Qué impacto tiene este estado de cosas en la estrategia Internet de una pequeña o mediana empresa? ¿Sigue siendo interesante invertir en posicionamiento en buscadores o hay que abandonarlo en favor de las redes sociales?

¿Quiere mejorar su posicionamiento en buscadores? Contacte con nosotros

Posicionamiento en buscadores (SEO) frente a redes sociales (RRSS)

Hemos recurrido a dos fuentes solventes para adquirir información que nos ayude a determinar si tenemos que seguir trabajando en nuestro SEO o dedicar nuestros mejores esfuerzos a las redes sociales: Pew Internet Search Engine Use 2012 y AIMC Navegantes en la Red 2016.

Lo que empezamos buscando es cuántos usuarios utilizan los buscadores frente a los que utilizan redes sociales. Los datos extraídos de ambos estudios son como sigue:

Uso frecuente de buscadores y redes sociales
En porcentaje sobre el total de usuarios de Internet
Redes sociales (*) 88%
Buscadores 91%

 

Fuentes: Pew Internet Search Engine Use 2012 y AIMC Navegantes en la Red 2016

(*) En el dato se agregan como usuarios frecuentes tanto los que utilizan las redes sociales diariamente como los que las utilizaron en la última semana.

La primera impresión de las cifras es que ambos canales pueden ser equiparables, pero se trata sólo de cifras brutas, en las que no se ha hecho ningún tipo de filtrado que pueda arrojar conclusiones útiles a una empresa. Por ejemplo, las cifras incluyen todo tipo de usuarios y todo tipo de usos, pero nosotros estamos interesados en qué repercusión tienen los usuarios en busca de bienes o servicios para las pymes, así que el tipo de usuario y la finalidad del acceso son capitales para poder analizar el caso más profundamente.

El uso principal que los usuarios dan a las redes sociales son las relaciones interpersonales y la búsqueda de noticias. Si en el estudio de la AIMC nos fijamos en qué canales son consultados por los usuarios para afinar su decisión antes de la compra de un producto o servicio, veremos que sólo el 19,8% utiliza las redes sociales para informarse previamente a la compra, mientras que el 57,5% utiliza la web de la marca y el 56,7% utiliza blogs y foros (los porcentajes exceden el 100% porque muchos usuarios utilizan más de un canal para informarse).

Tanto para llegar a la web de la marca como para localizar opiniones en blogs y foros lo más probable es que el usuario haya tenido que pasar antes por un buscador. Un porcentaje que además puede variar aún más en favor de los buscadores si su negocio es B2B, dado que las redes sociales están mejor orientadas hacia B2C o incluso C2C; y lo mismo ocurre si el tipo de compra es local, dado que la mayoría de los usuarios recurren a buscadores para encontrar un proveedor presencial en sus cercanías.

Por lo tanto nuestra conclusión es que sería muy arriesgado abandonar el SEO, so pena de cuasi desaparecer del panorama comercial, y que tenemos que poner en él el grueso de nuestras energías aunque, como veremos a continuación, tampoco podemos desentendernos de las redes sociales, porque — sorpresa, sorpresa — también influyen en el SEO.

Veamos a continuación qué técnicas funcionan, después de que las muchas actualizaciones del algoritmo de Google hayan defenestrado tantas malas prácticas a lo largo de los años.

Técnicas que funcionan

Lo primero que es necesario aclarar es que, a medio y largo plazo, sólo las técnicas SEO que se ajusten a buenas prácticas son rentables. Si nos permitimos caer en técnicas tramposas, Google acabará aplicándonos un castigo que puede sacarnos de los resultados del buscador para siempre. Google tiene mucha memoria para recordar qué es lo que hemos hecho a lo largo de los años, además de tener una cuota del mercado de los buscadores en España que supera el 95%.

Si usted busca atajos o encarga su SEO a una agencia con pocos escrúpulos que le promete resultados milagro en tiempo récord, puede sencillamente condenar a su sitio web. El SEO es una carrera de resistencia, no de velocidad, y los administradores web no están en situación de dictar las reglas por las que se rige la carrera.

¿Cuáles son entonces las técnicas que sí podemos utilizar con tranquilidad para hacer subir nuestro posicionamiento en los buscadores? Naturalmente, aquellas que dan valor a los resultados que ofrece el buscador:

  • Contenido relevante y de calidad. Por encima de cualquier otro factor, ser capaces de producir contenidos relevantes y de interés para los usuarios, que además sean bien accesibles y estén correctamente formateados es lo mejor que podemos hacer por nuestro sitio web.
  • Enlaces entrantes relevantes desde sitios con autoridad. Es comprensible que, si alguien considera nuestras páginas lo bastante interesantes como para enlazarlas desde su propio sitio web, los buscadores consideren esto favorablemente, pero atención: los excesos del pasado, las granjas de enlaces y los enlaces comprados han hecho a los buscadores mucho más precavidos respecto a cómo se valoran esos enlaces. Si los enlaces proceden de una fuente sospechosa, nuestro sitio puede verse también penalizado por hacer spam en los resultados de los buscadores. Sólo aquellos referidores con autoridad, que tengan relación con la página enlazada, serán bien vistos por los buscadores.
  • Renovación permanente de los contenidos. En varias ocasiones las actualizaciones de los algoritmos de indexación han ido dirigidos hacia la mejor valoración de aquellos sitios que mantienen una actividad constante de actualización de sus contenidos. Esto es una señal clara de que los buscadores valoran la adición continuada de dichos contenidos.
  • Velocidad de respuesta del sitio web. Puesto que no todo el mundo vive en Silicon Valley o tiene acceso a 4G, y mucha de la navegación se hace actualmente desde dispositivos móviles, los buscadores realizan permanentemente mediciones de las velocidades de carga de las páginas, e incorporan estos resultados en la valoración que hacen de ellas. Es comprensible porque cada segundo extra que tarda una página en cargarse aumenta la tasa de rebote de la misma, perjudicando automáticamente el valor del resultado del buscador que percibe el usuario.
  • Dominio con autoridad. ¿Es nuestro dominio antiguo? ¿Ha estado durante años ofreciendo contenidos relacionados con las palabras clave que el usuario ha introducido en la caja de búsqueda? Los buscadores valoran positivamente esos factores, y desconfían de los dominios nuevos que crecen como la espuma.
  • Manifiesto de páginas a indexar (sitemap). Los buscadores hacen un buen trabajo determinando las páginas que están incluidas dentro de nuestro sitio web, pero los administradores pueden querer que se indexen páginas que no están enlazadas o que la araña del buscador no ha detectado correctamente. Los mapas del sitio en formato XML (sitemap.xml) hacen precisamente esa función. Todos los buscadores los reconocen y agradecen encontrarlos.
  • Canonización de las URL de las páginas del sitio. Cuando una misma página es accesible mediante más de una URL (algo que ocurre en la mayoría de los gestores de contenido), los buscadores pueden pensar que estamos tratando de colarles páginas extra como una técnica de spam. Si el código de la página contiene metainformación que anuncia cuál es la URL canónica por la que debe ser accedida, el buscador sabrá reconocer esta información, ofrecerá sólo la URL canónica en sus resultados y no nos penalizará en el posicionamiento.
  • Encriptación SSL/TLS del sitio web (HTTPS). Tras las revelaciones de Edward Snowden sobre la vigilancia global sobre el tráfico Internet llevada a cabo por la NSA estadounidense, se despertó en todo el mundo una mayor consciencia sobre la necesidad de encriptar la información. Sensibles a este caso, los buscadores empezaron a premiar a los sitios web que ofrecen una versión segura (protocolo HTTPS en lugar del tradicional HTTP).
  • Adaptación del sitio a dispositivos móviles. No es una sorpresa para nadie que un volumen creciente del tráfico Internet se produce a través de dispositivos móviles, como smartphones o tabletas. Como quiera que una web diseñada únicamente para un dispositivo de sobremesa resulta una frustración para un usuario móvil y eso afecta a cómo éste percibe los resultados que el buscador acaba de servirle, no es de extrañar que se premie a aquellos sitios web que son capaces de ser representados correctamente en todo tipo de dispositivos.
  • Relevancia y menciones en las redes sociales que puedan ser asociadas con páginas en el sitio web. La relevancia en las redes sociales ha desplazado en buena medida a los enlaces entrantes en la valoración que Google hace de nuestras páginas. Cualquiera puede advertir la existencia de botoneras que ofrecen compartición en redes sociales en cualquier sitio web (incluido éste mismo). No es casualidad, dado que Google monitoriza la presencia en redes sociales (lo que llama “señales sociales”, social signals) como un indicio de nuestra relevancia respecto a un tema (en realidad un significado semántico), a través de la sanción social.

 

Técnicas que (ya) no funcionan

En la otra cara de la moneda, ¿qué técnicas de posicionamiento en buscadores van ser penalizadas? Las que vayan a producir resultados de baja calidad en los buscadores:

  • Abuso de las palabras clave, tanto en los campos meta como en los propios contenidos. Las páginas sobretrabajadas en palabras claves son marcadas como spam por los buscadores. A diferencia de otros tiempos en los que las palabras clave eran la materia de la que se alimentaba el posicionamiento, en la actualidad las palabras clave han perdido cierta importancia, sobre todo a partir de la actualización Hummingbird de Google.
  • Abuso de los campos meta. Al igual que los anteriores, pero no solamente en relación a las palabras clave, sino a cualquier metainformación añadida a la página. Los buscadores prefieren otros medios para informarse de esta metainformación, tales como los datos estructurados, microformatos o las herramientas que los propios buscadores ponen a disposición de los administradores web.
  • Contenidos de baja calidad, antiguos, copiados o duplicados. Cualquiera de estas características son un indicio para un buscador de que la inclusión de esta página entre sus resultados puede ser decepcionante para un usuario, y por tanto serán relegados o completamente ignorados. No olvidemos que los buscadores han estado durante años luchando contra las páginas artificialmente creadas para mejorar el posicionamiento de otras páginas.
  • Enlaces entrantes no relevantes o comprados. Sospechosos inmediatamente de formar parte de estrategias de falsificación de enlaces para falsear el posicionamiento. Si el sitio desde el que se enlaza es ya sospechoso de haber formado parte de las llamadas granjas de enlaces, entonces la penalización está servida.
  • Dominios sin autoridad conteniendo palabras clave. En el pasado una de las estrategias que se ha estado utilizando para atraer tráfico y obtener un mejor posicionamiento en buscadores es registrar dominios conteniendo las palabras clave que se quiere posicionar, y apuntar esos dominios al contenido en cuestión (p. ej. “vacaciones-en-mallorca.com”). Esta práctica ha quedado fuera de uso, condenada por ser una duplicación de contenidos.
  • Contenidos ocultos. Como desde el inicio del SEO se ha empleado la técnica de disimular la saturación en páginas de palabras clave mediante el sencillo recurso a hacer partes de la página invisibles (precisamente donde se practicaba la saturación), los buscadores han aprendido hace tiempo que si la página tiene partes ocultas, esas partes pueden tener gato encerrado. Una pena, porque tanto desde el punto de vista de la usabilidad como de la rapidez de la carga de contenidos las zonas ocultas son un recurso útil para la experiencia de usuario.

 

¿Qué estrategia puede seguir una pyme?

Sabemos que las pequeñas y medianas empresas no tienen la capacidad de embarcarse en largos, costosos y sesudos estudios de experiencia de usuario, modelos de atribución o embudos de conversión, sino que tienen que centrarse en técnicas más próximas al marketing de guerrilla: bajo mantenimiento, costes reducidos y factibilidad general dentro de los recursos de la empresa.

Concentrémonos pues en acciones factibles:

  • Mejore el contenido de su web, tanto en calidad como en cantidad, y hágalo continuamente y de acuerdo a las buenas prácticas que recomiendan los buscadores.
  • Mantenga una presencia permanente en redes sociales, y elija bien esa presencia. Si no puede estar en todas, esté en una, pero cuídese de que esa presencia sea de calidad y atraiga tráfico de calidad a su sitio web.
  • Mida y analice los datos. Necesita analítica que le haga darse cuenta de qué canales tienen mejor resultado, trabajar sobre los datos todos los meses y tomar decisiones sobre las conclusiones que extraiga.

Si su empresa no tiene personal que pueda dedicarse a estas labores, entonces contrate a una agencia fiable que le ponga en marcha y trabaje de forma continuada para que sus servicios Internet sean productivos para su negocio. Nosotros podemos ayudarle, contacte con nosotros.

La importancia de lo local

Unas palabras finales, dado que en España el 99,9% de las empresas son pequeñas o medianas (Fuente: “Retratos de las pymes 2015”, Subdirección General de Apoyo a la PYME, Ministerio de Industria, Energía y Turismo) y tienen una alta probabilidad de trabajar en un ámbito local: Si su negocio tiene estas características, es muy importante que los buscadores puedan relacionar su sitio web con el entorno en que opera.

Tratándose de un negocio local las búsquedas que harán sus potenciales clientes incluirán casi con seguridad una referencia local (“mercado delicatessen madrid”) y estar o no estar relacionado con ese ámbito geográfico es toda la diferencia para aparecer o no en los resultados de alguien que está ya buscando una empresa o profesional que le resuelva un problema. Usted quiere estar entre esos resultados.

Los buscadores tienen mecanismos para permitir a los administradores web indicarles cuál es su localización geográfica, y asociar esa localización a un negocio. Forma parte importante de sus propios intereses poder situar a su negocio en el mapa, porque así sus resultados serán mejores y podrán vender más publicidad. No deje de aprovechar esa coincidencia de intereses.

Publicado en: Marketing digital Web

Etiquetas:

Actualizaciones del algoritmo de Google

Tarsis.net

La búsqueda de resultados de calidad para responder a una consulta es la principal preocupación de cualquier buscador. Google tiene un largo historial de modificación de sus algoritmos de indexación, que muchas veces actúan reactivamente contra la incansable marea de administradores web que tratan de encontrar el atajo hacia los primeros puestos en los resultados del buscador.

GoogleEn este artículo se ofrece un histórico de las principales actualizaciones que, a lo largo de su historia, ha llevado a cabo Google sobre los algoritmos que posicionan páginas en los resultados de búsqueda.

No se trata de una relación exhaustiva, sino que se ha centrado en aquellas actualizaciones más relevantes para el posicionamiento de pequeñas y medianas empresas, y se han dejado de lado muchas actualizaciones de menor tamaño o bien que solamente se sospecha que se han producido.

Los ingenieros de Google han confirmado que el buscador lleva a cabo una media de tres actualizaciones diarias de su lógica, por lo que se trata de un trabajo siempre en marcha, que mantiene a los operadores SEO en continua vigilancia del posicionamiento de sus páginas.

¿Quiere mejorar su posicionamiento en buscadores? Contacte con nosotros.

2017 Owl. Mejora en la detección de noticias falsas para evitar su aparición en los resultados de búsqueda, una de las preocupaciones tanto de los buscadores como de las redes sociales tras las pasadas elecciones presidenciales estadounidenses. Anuncio de Google.
2017 Fred. Sin confirmar. Una posible actualización para penalizar sitios web más centrados en la obtención de ingresos que en la publicación de contenidos de alta calidad.
2017 Interstitials intrusivos. Penalización de páginas que incluyen anuncios del tipo interstitial por considerar que bajan la calidad de la experiencia de usuario.
2016 Possum. Actualización que busca ampliar el ámbito de los resultados de búsqueda a sitios web locales en áreas próximas a la buscada.
2015 RankBrain. Google anunció que su algoritmo de indexación utilizaba aprendizaje automático (machine learning) como uno de los factores más relevantes para ofrecer sus resultados.
2015 Mobilegeddon. Actualización para mejorar el posicionamiento de sitios web adaptables a dispositivos móviles, y penalización de aquellos que no lo sean. Anuncio de Google.
2014 HTTPS/SSL. Potenciación de los sitios web que ofrecen sus contenidos a través del protocolo seguro HTTPS, y consecuente minusvaloración de aquellos sitios que permanecen con el tradicional HTTP.
2014 Pidgeon. Modificación sustancial del tratamiento de los resultados locales, que alteró muchos de los posicionamientos de este tipo.
2013 Hummingbird. En la misma línea que Caffeine, se trata de una actualización para mejorar aspectos semánticos que permitan relacionar significados entre páginas, texto de los enlaces y términos de búsqueda.
2013 Panda Recovery. Corrección de Panda para mitigar algunas de las penalizaciones impuestas, que habían producido una caída significativa en el posicionamiento de ciertas páginas legítimas.
 2012 Exact-Match Domain. Disminución en la importancia adjudicada a la presencia de las palabras clave exactas en el nombre de dominio del sitio que aloja la página, para evitar el spam web.
 2012 Pirate. Penalización de páginas que infringen el acta DMCA de derechos de propiedad intelectual.
2012 Penguin. Otra de las actualizaciones de gran impacto en el tiempo. Se trata de nuevo de potenciar en los resultados las páginas con contenidos de calidad y dejar fuera a aquellas que no lleguen a un mínimo. Modificaciones para el refinamiento de Panda se han ido desplegando a lo largo del tiempo. Anuncio de Google.
2012 Ads above the fold. Penalización de páginas con abuso de anuncios en la parte superior de la página.
2011 Freshness. Potenciación de la aparición en los resultados de búsqueda de contenidos más recientes sobre otros más antiguos.
2011 Encriptación de las búsquedas. Google desplegó HTTPS en sus servidores web y dejó de informar a través de sus estadísticas de cuáles son los términos de búsqueda que condujeron a una visita orgánica a un sitio web.
2011 Schema.org. Inclusión del soporte para el estándar de datos estructurados con el fin de ayudar a los buscadores a comprender mejor la oferta de una página web, y actuar consecuentemente en su posicionamiento.
2011 Panda. Una de las más importantes actualizaciones de Google hasta ese momento. Su objetivo era la penalización de sitios web con contenidos de baja calidad, granjas de contenidos y abuso de anuncios. Una declaración de intenciones de Google respecto a la importancia que concede a los contenidos como indicador de la calidad de un resultado. Panda tuvo varias actualizaciones en los meses siguientes, refinando aspectos en busca de la calidad de contenidos. Anuncio de Google.
2010 Social Signals. Google confirma que utiliza datos procedentes de redes sociales para posicionar una página.
2010 May Day. Penalización de sitios con páginas que trataban de abusar de la “larga cola” del posicionamiento.
2010 Google Places. Potenciación de los aspectos locales de los resultados de búsqueda a la vez que el servicio de localización de negocios de Google veía una considerable potenciación.
2009 Caffeine. Google amplía su infraestructura para permitir indexación prácticamente en tiempo real. Anuncio de Google.
2009 Vince. Actualización cuyo principal efecto fue posicionar preferentemente a páginas pertenecientes a grandes empresas.
2009 Canonical. Los mayores buscadores alcanzaron un acuerdo para soportar la etiqueta “canonical” para declarar la URL estándar con la que una página debía ser accedida, facilitando a los buscadores la tarea de encontrar contenidos duplicados y dejando de penalizar a sitios web en los que un mismo contenido podía ser accedido a través de varias URL.
2005 Big Daddy. Actualización para mejorar el indexado de páginas a través de la canonización de sus URL.
2005 Jagger. Penalización de páginas con enlaces de baja calidad (enlaces recíprocos, granjas de enlaces y enlaces de pago).
2005 XML Sitemaps. Google permite a los administradores web enviar manifiestos de páginas en formato XML, a modo de sugerencias de páginas a indexar.
2005 Bourbon. No se tiene certeza del alcance de esta actualización, pero se especula que se trata de evitar páginas con contenidos duplicados (por ejemplo cuando la página es accesible doblemente a través de un dominio con y sin “www”).
2005 Nofollow. Los mayores buscadores introducen simultáneamente el atributo nofollow en los enlaces externos, lo que permite evitar spam en los enlaces, por ejemplo en los comentarios de los blog.
2004 Brandy. Inclusión de capacidades semánticas para mejorar los resultados utilizando sinónimos tanto en las claves como en los textos enlazados.
2004 Austin. Penalización de páginas con textos ocultos y exceso de palabras clave en los campos meta.
2003 Florida. Primera modificación del algoritmo para descartar páginas con saturación de palabras clave, una práctica muy utilizada desde los años 90.
2003 Cassandra. Modificación del algoritmo con el punto de mira en los enlaces entrantes desde dominios propiedad del mismo propietario.

 

Fuente: Moz.com

Publicado en: Marketing digital Web

Etiquetas:

Vuelta a lo básico: Formularios

Tarsis.net

Quince años después de la popularización de la web, aún nos sigue sorprendiendo cómo tantas empresas en España utilizan de forma tan pobre una herramienta tan básica e importante.

Stress

Aun en el tiempo de las redes sociales, muchos de los recursos que las empresas emplean en los medios sociales van dirigidos a conseguir atraer a sus posibles clientes a su web (lo que se conoce como inbound marketing).

Lo más probable es que, tras contactos informales a través de redes sociales, búsqueda de referencias sobre nuestra empresa y navegar por nuestra web, un posible cliente acabe rellenando algún tipo de formulario web que inicie la comunicación con nuestra empresa.

Los formularios web son la vía por la que se establece la relación con clientes o posibles clientes de una manera que formaliza la posible relación. Es el primer paso manifiesto en un proceso de compra, o un contacto formal con un cliente establecido, según el caso.

Esto puede parecer algo demasiado obvio, pero en el mundo real, observando los sitios web de muchas empresas españolas, no podemos dejar de notar que, incluso si es patente que la empresa ha dedicado un considerable esfuerzo para dotarse de un sitio web bien construido y una presencia sólida en medios sociales, ese camino que abre la vía al contacto formal con un cliente o posible cliente tiene demasiadas veces un final nada acorde con el esfuerzo invertido y el objetivo buscado.

Más claro: muchos de los formularios web que podemos observar en las webs de muchas empresas, y los procesos asociados con ellos están fatalmente mal hechos y mal manejados, dando una pobre imagen de nuestra profesionalidad y de lo que valoramos el contacto con esos clientes.

Es decir, invertimos esfuerzos en generar leads de negocio, pero no rematamos bien el trabajo, dando al traste con el esfuerzo invertido. Un verdadero desastre en cualquier momento, pero especialmente en tiempos que no permiten algo así.

Sitios web profesionales, orientados a negocio. Contacte con nosotros.

Los diez pecados capitales

He aquí una lista de los pecados capitales que observamos en muchos de los sitios web de empresas españolas:

  • Carencia de formularios. Es sorprendente la cantidad de pequeñas empresas que aún pretenden mantener el contacto sin un formulario, recurriendo a un simpre enlace a una dirección de correo (mailto:). No sólo este mecanismo no permite la normalización de la entrada de información (¿qué datos le pedimos?) sino que la tendencia en el uso del correo electrónico ha sido durante años el uso creciente de clientes de correo web (webmail). ¿Cómo se espera que un enlace de este tipo lleve a una comunicación eficaz?
  • Formularios que no funcionan. Un posible cliente se toma la molestia de indagar sobre nosotros, de rellenar un formulario en el que tiene que ponernos sus datos y… al enviar el formulario se nos ofrece un error de página no encontrada. ¿De verdad podemos permitirnos eso?
  • Formularios mal construidos. Formularios demasiado largos, que no indican cuáles de los campos son opcionales, con un orden incorrecto. Cada dato extra que pedimos a un contacto nos aleja del momento en que éste hace clic en el botón de enviar. Pedir demasiados datos o crear cualquier tipo de fricción en ese proceso es siempre contraproducente.
  • Falta de especialización de los formularios. Un único formulario para servir a todos los propósitos del sitio sería algo estupendo desde el punto de vista del mantenimiento del sitio web, pero es algo sencillamente irreal. Si tenemos diferentes tipos de bienes y servicios que vender, tráfico de diferentes sitios, diferentes campañas, cada una de esas posibilidades de negocio deben ser atendidas por un formulario especializado, pensado siempre para optimizar la conversión.
  • No se verifican los campos. Pedimos datos a nuestros visitantes, pero no nos tomamos la molestia de hacer la comprobación de que una dirección de correo electrónico realmente lo sea. La adquisición de datos de calidad baja da origen a bases de datos de calidad pobre. No cometa ese error porque los datos con los que trabaja son con frecuencia cimientos sobre los que construir su negocio.
  • Falta de registro del origen del tráfico hacia el formulario. Sin una analítica del origen del tráfico que potencialmente genera negocio, ¿cómo piensa que puede dirigir sus energías para hacer crecer su negocio la próxima semana, el próximo mes, el próximo año? ¿Cómo sabe dónde tiene que anunciarse, dónde escribir, en qué red social se generan los lead más interesantes?
  • Carencia de referencia en la solicitud de información. Usted no necesita disponer de un software CRM o un helpdesk para que cada solicitud de información que le llega disponga de una referencia única que la identifique, sirva a su personal para gestionar la petición más eficientemente y dé a su negocio la imagen de profesionalidad que usted busca. Es sencillo de resolver técnicamente y su imagen se lo agradecerá.
  • Solicitudes de información que se contestan tarde o no se contestan. Si sus formularios de contacto se responden más allá de las primeras 48 horas o no se responden en absoluto, usted no sólo ha perdido una oportunidad de negocio presente, sino que probablemente ha perdido también cualquier oportunidad futura. Algunos expertos incluso le dirán que el límite no son ya 48 horas, sino 24.
  • Respuestas que perjudican la imagen de la empresa. Una respuesta con mala ortografía, que no ofrece la información que el cliente ha pedido, que llega al interesado con un Asunto del mensaje mal pensado o procede de un Remitente que no está adecuadamente identificado puede producir tan mal efecto como no responder a una solicitud. ¿Sabe usted cómo están siendo respondidas las solicitudes de información de su empresa?
  • Respuestas hacia una vía muerta. La respuesta a una solicitud de información debe llevar idealmente a una transacción comercial, o dejar al menos abierta esa posibilidad para más adelante y alimentar la relación con el posible cliente para ofrecerle civilizadamente nuestros servicios en el futuro. Sin embargo nos encontramos demasiadas veces cómo respuestas a estas solicitudes son manejadas por alguien no entrenado para sostener y nutrir esa relación, que tan sólo busca responder a cuantas más solicitudes en el menor tiempo posible, sin complicarse la vida. Si un contacto advierte consciente o inconscientemente desgana o inconcreción en la respuesta cuando aún no se ha convertido en cliente, ¿qué puede pensar que ocurrirá cuando haya ya contratado con nosotros?

Es muy posible que usted haya observado estos síntomas en webs que ha visitado, que haya incluso padecido como cliente las carencias de algunos de estos formularios. Reflexione por un momento: ¿Qué conclusión ha sacado cuando le ha ocurrido algo similar? ¿Cuál ha sido la impresión que ha obtenido de la empresa con la que ha querido contactar?

Como todos los elementos que ponemos en juego en nuestra presencia Internet, los formularios de contacto deben tener un impacto positivo en nuestro negocio. Y estos elementos en concreto son especialmente importantes. No podemos descuidarlos.

Un consejo bien intencionado: Revise cómo están construidos sus formularios web, pruébelos regularmente y compruebe también los procesos que estos llevan asociados. Su negocio se lo agradecerá.

Publicado en: Empresa Marketing digital Web

Etiquetas: