Twitter, empresa de medios

Twitter cards

En New Yorker un buen resumen de la trayectoria de los últimos años de Twitter, ahora que se han anunciado los deseos de salida a bolsa.

Twitter ha pasado de ser una empresa de tecnología a ser una empresa de medios de medios por derecho propio .

Este punto ha sido protagonista del debate acerca de Twitter – también sobre Google – y creo que la nueva definición se le queda pequeña. Twitter – también Google – son una cosa diferente a lo que hasta ahora se ha entendido como empresa de medios en tanto en cuanto mantienen la característica fundamental de las empresas tecnológicas en internet: la capacidad de escalar en tanto en cuanto sea una cuestión técnica (más servidores, mejor arquitectura) y no de captación, trabajo y gestión de equipos que produzcan contenidos.

Relacionado: Las publicaciones ante los intermediarios que agregan
, Por qué todo el mundo quiere ser Whatsapp

No quiero ir a leerte ni buscarte, quiero que me “descubran” el mejor contenido

Zite para ipad

Llevo años pensando y sosteniendo que si tuviese que empezar un proyecto online, lo haría alrededor del concepto de la agregación de contenidos y no tanto desde la creación y edición de los mismos. Si a eso añado que llevo una temporada elogiando Zite y que en los últimas semanas además me he enganchado a Prismatic (análisis en Genbeta), no tengo sino motivos en reafirmarme en que estamos en un cambio de tendencia muy claro en el consumo de contenidos, no quiero ir a leerte ni buscarte, quiero que me “descubran” el mejor contenido.

¿De dónnde venimos?

La apuesta por la agregación viene de largo en internet, más que justificada por dos aspectos consustanciales a la realidad de la web. Por un lado tenemos que se pasa de la escasez a una superabundancia de contenido, escenario para el que necesitamos herramientas nuevas que nos ayuden a filtrar y valorar el contenido frente a los mecanismos tradicionales (como la marca del medio); por otro tenemos que por el ritmo de la web la unidad de consumo pasa a ser el artículo y deja de ser la publicación.

techmemeDesde hace mucho los medios tienen claro que están intermediados irremisiblemente por los buscadores, no es casual que Google siempre esté en su diana a la hora de reclamar alguien que pague. Además surgen los primeros agregadores, desde los puramente algorítmicos como Google News y Techmeme (que más adelante introduciría le edición humana como complemento para mejorar) y luego vienen los basados en el filtro de la comunidad como Digg y Menéame. Cada tipo, con sus puntos fuertes y débiles, reafirma que los medios serán intermediados por alguien más que los buscadores.

A la vez surgió el RSS y los lectores para los contenidos en ese formato, muy orientados al patrón “quiero leerlo todo de esta fuente”, algo que encaja mucho con la blogosfera y la dificultad de abordar como lector su naturaleza distribuida.

¿Dónde estamos?

La adopción de estos agregadores llega a ser muy significativa, aunque desigual. Si bien Menéame se mantiene y crece en España, Digg va a la deriva mientras otros como Reddit explotan. Sin embargo, la gran competencia a Google como generador de tráfico viene de una nueva fuente insospechada, la “web social” con dos protagonistas – Facebook y Twitter – que se rebelan como lugares de intercambios de enlaces a contenidos más que significativos. Añadiría Pinterest, pero con lo que mueve fuera de Estados unidos quizás haya que ser prudente con las expectativas respecto a él.

Y digo insospechados porque, aunque ahora lo veamos muy claro, en su génesis ninguna de las dos herramientas estaban pensadas para ser un escenario de intercambio de enlaces a contenidos interesantes (de memes en el caso de Facebook). De hecho, el uso como “curator” (Dreig comenta respecto al término y su labor) en Twitter es bastante habitual y uno intenta practicarlo y aprovecharlo cuando lo hacen otros.

¿Y los RSS? Hace no demasiado escribíamos por aquí que ya no quedan “super consumidores” de información, que de cada fuente quieren leerlo todo como un apunte ante la muerte de Bloglines. Haberlos “haylos”, claro, pero el sector de los lectores RSS puros está de capa caída como agregador/intermediario frente a los contenidos por dos motivos: la ausencia de modelo de negocio y el cambio en el patrón de consumo de los contenidos.

Con la mayoría de fuentes difícilmente querremos “leer todo” y cada vez estamos más abiertos a que nos seleccionen, filtren, recomienden. Es el patrón de los medios sociales, sobre todo de Twitter, donde incluso aunque sigamos a un medio y este dispare todo lo que publica con su usuario, la propia naturaleza líquida de Twitter hace sólo nos impacte en algunos casos. En Facebook es el algoritmo de su newsfeed quien nos filtra todos esos intentos de impacto.

¿Hacia dónde vamos?

Mi impresión es que la tendencia a la que hemos asistido los últimos años es el perfecto caldo de cultivo para el florecimiento de nuevos agregadores e intermediarios, lejos del “leer todo de una fuente” y muy cerca del concepto “descubreme y fíltrame el mejor contenido”. Es el caso de Zite, de Prismatic, de Flipboard, cada uno con su filosofía buscando el santo grial de ofrecer lo más relevante de internet para cada usuario.

De hecho lo más interesante de estas propuestas es como intentan manejar la señal/ruido. Cuanto más conocen al usuario y qué le puede interesar (mejor filtro), menos capacidad tienen para sorprenderle con una fuente y tema (descubrimiento). Flipboard canaliza sobre todo lo que seguimos en medios sociales, Zite y Prismatic confían más en su algoritmo de recomendaciones… y de momento, para mi, van ganando como servicios para conseguir contenidos interesantes. Google por su parte perpetró Currents con el modelo viejo en mente: dadas unas fuentes, mostrar todo en un formato revista.

Mi ideal es la combinación de un Zite o Prismatic con un servicio tipo Pocket (nuevo nombre de mi adorado Read it Later). Con eso uniría la posibilidad de descubrimiento y filtrado, con las lecturas que ya sé que quiero tener disponibles más adelante (y que además son un “input” adicional para perfeccionar las recomendaciones). Sigo manteniendo, por supuesto, algunas fuentes de las que quiero leer todo, que considero “autoridades” y complemento echando un vistazo a medios generalistas (intentando evitar el muy insufrible periodismo político de declaraciones), pero el peso que tienen en mi “mix de contenidos” es mucho menor que hace varios años.

FlipBoard

Críticas y límites o cuando descubrir no es suficiente

Por supuesto el buscador sigue teniendo un valor fundamental, aunque en algunos contextos mucho menor que hace apenas unos años: para saber un dato que necesito, bien; para buscar un buen artículo para leer, análisis de un tema en concreto o algo en tiempo real, mucho menos. Para Google esto debería ser un motivo de preocupación, menor porcentaje de la información relevante para uno llega a través de él.

Y, también por supuesto, el modelo de recomendador / descubridor tiene sus limitaciones. La primera y más importante es el peligro de reduccionismo de la realidad conocida, como le digo qué temas y fuentes me interesan, como decido seguir a unos y no a otros, puedo quedar confinado en mi burbuja de opiniones y temas en los que me encuentro cómodo. Se pierde el criterio periodístico de la “portada por relevancia informativa” en favor de la portada “en función de los intereses que has declarado”.

Eso en el caso de que asumamos un servicio como Zite como única fuente informativa, algo improbable y poco recomendable. Lo habitual será un uso de varias vías, escenario en el que servidor intenta apalancarse, pero en cualquier paso apostaría a que los agregadores van a ir ganando peso. Aún así, sigo pensando que las críticas a los filtros en internet son, de momento, exageradas y alarmistas.

Los medios y generadores de contenidos tendremos que ir asumiendo este escenario, muchos lo ven como una liberación – después de todo salimos de la tiranía de un único gran redirector de tráfico – pero como toda intermediación supone también una pérdida. Una cosa sí que han aprendido este tipo de servicios, al contrario que los lectores RSS plantean modelos de negocio amigables con los productos, compartiendo ingresos en caso de que los haya. En cualquier caso, bloggers y medios cada vez necesitaremos enviar más señales de que merecemos ser recomendados… ¿me compartes con tu red social?

News.me

Por aquí dejamos referenciado hace tiempo el potencial del acortador Bit.ly en la agregación de contenidos, en contraposición al modelo Digg en aquel entonces. Hace semanas han presentado News.me, una aplicación para iPad basada en el concepto de “lector social” que han desarrollado en alianza con New York Times. La idea es presentar una portada basada en lo compartido por nuestros contactos, filtrándonos para ofrecernos lo más importante al estilo Summify, gracias a los datos que aporta bit.ly.

News.me ofrece una experiencia de navegación y de lectura bastante buenas, pero estos son aspectos en los que hay rivales mejores (Flipboard, Readitater); lo realmente diferenciador es que se plantea como un servicio de pago – un dólar a la semana o 35 al año – y un esquema de compensación a los medios cuyo contenido acaban mostrando al usuario que les otorguen licencia para ello (aunque el no tener acuerdo con los mismos no les impide por ahora mostrar los contenidos). Y aquí es donde entramos en el “meollo” de los agregadores: o son meros intermediarios que aportan tráfico final al medio (Digg, Menéame, Google News) o no tienen modelo de negocio (que es lo que le ha pasado históricamente a los lectores RSS. News.me quiere resolver esto cobrando al usuario y licenciando el contenido para poder ofrecerlo completo, pero lo tienen realmente complicado en un tipo de servicio en el que hay propuestas gratuitas (Flipboard, Zite) que si bien no tienen ese filtro adicional que puede aportar bit.ly, sí que configuran la portada social de una forma solvente y sin pagar… aunque siguen sin dibujar cuál será su modelo de negocio.

Summify: porque Twitter necesita una velocidad lenta en ocasiones

Summify

Entre las herramientas que han aparecido en los últimos años para “reducir el ruido” e intentar filtrar la información relevante de forma personalizada, hay proyectos simples como Summify, a los que merece la pena echar un vistazo . Básicamente lo que ofrece es, a partir de nuestros usuarios en Twitter, Facebook y Google Reader, determinar los enlaces más compartidos por nuestras fuentes y contactos y envía un resumen diario por correo a la hora que le indiquemos. Perfecto para la mañana siguiente a una desconexión y para el ritmo de consumo de Twitter (no tanto para Facebook y Google Reader), el “tiempo real”, que hace que nos perdamos mucho de lo compartido cuando no estamos conectados.

Por cierto, este tipo de aproximaciones que simplifican y filtran es algo en lo que creo que más tarde o más temprano entrará Google, al menos si hacemos caso a lo que declaró Ev William en esta entrevista.

Relacionado: Twitter. Calidad y relevancia en contenidos de internet

Ya no quedan “super consumidores” de información, apuntes ante la muerte de Bloglines

Bloglines

Hace algunos años, lo más sexy del sector internet no era social (al menos no en el sentido con que se utiliza este término ahora) ni en tiempo real, eran los buscadores de blogs y los lectores de RSS. Y todos, o casi todos, barruntábamos sobre qué potencial podían tener estos últimos y como eran el camino hacia el nuevo tipo de usuario online: se multiplicaba la creación de contenidos, los blogs estaban en su punto álgido y los lectores de RSS venían a encajar perfectamente en este universo permitiendo a cada usuario configurarse su dieta informativa. Cuando hace un par de días Ask anunció que cerraba bloglines no pude evitar recordar como hace apenas cinco años se trataba del “no va más de la web 2.0”.

El camino hacia la irrelevancia de los lectores de RSS

En estos cinco años Bloglines no sólo ha visto como ha aparecido un competidor más completo, Google Reader, sino que no ha sido capaz de encontrar un modelo de negocio válido que no acabase siendo “añado publicidad a los contenidos de otros”, una línea roja para este tipo de servicios. Pero, sobre todo, ha ocurrido que lo que en 2004 y 2005 parecía la revolución que iba a cambiar el mundo no ha sido tal o, al menos, ha acabado por derroteros muy diferentes de los que favorecían el modelo del lector RSS. Por aquél entonces la presencia en la red era sinónimo de blog, un ecosistema distribuido muy enfocado a crear publicaciones y a consumir información y contenidos.

¿Qué ha pasado desde entonces? Aparecieron servicios con un enfoque hacia lo personal buscando lo relevante para cada usuario. Con ellos llegó una mayor centralización de la presencia online: no conversamos cada uno desde su casa, quedamos para vernos en un centro comercial. La gente empezó a seguir publicaciones en Twitter y Facebook y con ello la necesidad de un tercero que resuelva la complejidad de la distribución de fuentes ya no existe.

Las publicaciones ganan algunas cosas, pierden otras

Curiosamente en entornos como Twitter y Facebook se acepta lo que en un lector de RSS era muy criticado: dar sólo el titular más un párrafo y tener que completar la lectura la web produciendo páginas vistas. Además para las publicaciones tienen otra ventaja sobre el modelo de Bloglines, mecanismos para compartir lo que están leyendo que ayudan a dar visibilidad a la publicación (“retuits”, “me gusta”) y más control de la marca en estos entorno (Reader sí que añadió algo en esta línea con sus compartidos). En definitiva, más tráfico hacia la versión web – más fácil de rentabilizar – que hacia la versión RSS.

Claro que yo no haría una lectura tan positiva, el cierre de Bloglines y la caída de tráfico de Reader (PaidContent) también son el síntoma de que el perfil de “super consumidor de información” también está en vías de extinción. Me refiero aquél que sigue a decenas – cuando no centenas – de publicaciones y quiere leerlo todo de ellas, para el que el lector de RSS es una herramienta impagable. La transición a modelos como el de Twitter lleva aparejada la mezcla de las publicaciones con un montón comunicaciones diferentes lo que supone dos efectos: menos propensión a “suscribirse a una publicación” y mucha más a “qué me cuentan mis contactos” y, aún suscribiéndose, muchos menos impactos por el efecto de “veo sólo lo que me ponen en portada cuando me conecto y no todo lo publicado”.

El RSS en el backoffice

Como bien señala César en otro blog más, el RSS goza de mucho mejor salud que sus lectores. En una era en la que ofrecer APIs para que las aplicaciones hablen entre sí se ha convertido en obligatorio para casi cada servicio, el RSS se ha convertido en el estándar para que las publicaciones permitan que sus servicios se integren en webs de terceros.

En definitiva…

Seguiremos existiendo los “super consumidores” de información, espero que con una proporción suficiente como para que se mantengan servicios como Google Reader. La transición menos traumática para nosotros sería hacia listas de Twitter y una aplicación para acceder a él que haga amable su lectura. En cualquier caso, la muerte de Bloglines también es una aviso para cualquier empresa del sector internet que construya servicios para el usuario final. En cinco años se pasa del todo a la nada si no eres capaz de detectar los cambios de patrones de uso por parte de los usuarios, cambiar el foco de tu servicio y ejecutar todo esto de forma brillante.

Actualización: Desde Google Reader niegan la información de PaidContent sobre su decrecimiento, post en su blog.

Digg hacia el modelo Twitter

DiggQue Digg y los que aplican su modelo tenía que hacer una reflexión ante la eclosión de Facebook y, sobre todo, de Twitter es algo que muchos llevábamos pensado bastante tiempo. La tendencia hacia el compartir enlaces en el entorno personal (servicio de redes sociales) o en Twitter donde la gente tiende más a seguir gente de la que espera enlaces interesantes acaba compitiendo con los agregadores sociales tipo Menéame a la hora de descubrir contenido relevante. De hecho, más que nadie Twitter está consiguiendo cristalizar el planteamiento que lanzó coRank en 2007: no tanto la portada por consenso de todos mediatizada por un sistema de karma, sino la que se forma por votos de quienes yo considero gente con criterio.

El nuevo Digg da un giro hacia su “tuiteración”, como explica Kevin Rose en el vídeo que publica TechCrunch. Se trata no ya de la portada de la comunidad, sino que uno sigue a gente y según lo que voten ellos se formara la nueva “home personalizada” que se llamará “My News”, que convivirá con la general “Top News”. La evolución hacia un Twitter sólo de de enlaces se refleja en varias novedades más, los medios podrán inyectar su contenido directamente, lo que comparta la gente a la que seguimos podremos “rediggearlo” en lugar de ir a noticias pendientes de salir en portada (que parece que se elimina) y se invitará a seguir en Digg a los usuarios que ya seguimos en Twitter o Facebook.

Si hay una cosa que no se puede negar a la gente de Digg es su esfuerzo por no quedarse atrás, a pesar de que estos cambios no dejan de ser algo “chirriantes”. Todo lo que ha montado Digg lo puede hacer Twitter y, si me apuran, Bit.ly y hasta Google Reader. El mayor incentivo que tiene enviar un enlace a Digg o Menéame no es que la vean los contactos, sino la posibilidad de que llegue a la portada principal e influya en lo que lee una gran cantidad de gente. Con estos cambios, la nueva portada de Digg va a ser menos relevante y para que lo vean “los followers” uno ya tiene otras herramientas. ¿Existen otros modelos de integración con Twitter? A mi siempre me hubiese gustado que me permitiesen votar sin necesidad de ir a la web de Digg, a través de lo que comparto en Reader o en Twitter (¿quizás con un hashtag?), pero no parece que eso de momento esté en sus planes.

PD: Mi usuario en Twitter y en Digg.

Google Reader entre Digg y los contenidos personalizados

People en el Google Reader

Desde hace años venimos comentando que Google tenía con Reader la forma de crear un Digg semi distribuido, a partir de las lecturas, votos y compartidos de sus usuarios. Anuncian hoy dos novedades muy interesante para todos los que somos usuarios de este lector de feeds, la sección con los artículos más populares a partir de las acciones de su base de usuarios y ordenación “mágica” de los artículos de las fuentes que tengamos agregada basada en nuestras acciones anteriores (si hemos dicho que algo nos gusta y lo hemos compartido).

Las novedades en Reader me parecen interesantes pero algo desfasadas respecto a cómo está evolucionando el estado de “compartir y valorar enlaces”. A la hora de armar un Digg el planteamiento es “un usuario, un voto”, sin tener en cuenta quien sabe de qué o si como usuario valoro mucho el criterio de algunos otros pero no de todos. Demasiado simple y sin visibilidad fuera de Reader, una fuente de ruido para cuando uno busque entretenimiento.

La opción de personalizar el orden en que se muestran los artículos de las fuentes agregadas en Google Reader también me gusta como concepto, pero llega muy tarde – SearchFox lo tenía cuatro años – y mientras los usuarios han ido cambiando los últimos años: se comparten más enlaces en otros sitios (blogs, twitter, redes sociales), se comentan allí, se redistribuyen allí… por muy social y personalizado que lo vistan, los agregadores RSS tienen muy complicado salir del nicho de super consumidores de información en el que se han instalado. Google Reader sigue siendo el mejor de su categoría, máxime cuando Bloglines parece un cadáver andante, pero el consumo de información personalizado para el gran público difícilmente podrá articularlo un servicio lector de RSS.

Más sobre Google Reader y su potencial: Compartidos en Google Reader y Digg, Google Reader, lo que quiere y lo que puede ser,

Tr.im desaparece y Bloglines en camino

La lectura hoy de TechCrunch nos deja dos noticias de desapariciones, una confirmada (la de tr.im, TC) y otra cava vez más anunciada (la de Bloglines, TC).

Ambos cierres – si la del pionero agregador se confirma – difieren en los efectos para los usuarios: mientras que Bloglines permite exportar todas las suscripciones a otro servicio, las direcciones gestionadas por tr.im desaparecerán a finales de año, confirmando los problemas de los acortadores de URLs. Para un contexto de consumo efímero y ciertas necesidades (básicamente, Twitter), pueden tener cierto sentido, pero para la web “de verdad”, acabamos finalmente con miles de enlaces rotos.

Lo que si comparten Bloglines y tr.im es el de pertenecer a dos tipos de servicios con cierto grado de adopción pero para los que nadie ha encontrado un modelo de negocio. Aunque siempre se ha especulado sobre cómo poner en valor los datos agregados que ambos poseen (Bit.ly está en ello, otros agregadores como Google Reader podrían estarlo), lo cierto es que después de varios años los agregadores personales basados en RSS ni han saltado al gran público ni nadie ha conseguido generar negocio a partir de ello. Con los acortadores de URLs el proceso va camino de repetirse, decenas de servicios clónicos unos de otros y un panorama poco claro de cómo generarán ingresos.

Como nota final, una pena la desaparición de Bloglines si se confirma, fue uno de los grandes, pero llevaba demasiado tiempo como un cadáver andante. Conviene quizás recordar como hace años productos como Bloglines y servicios como del.icio.us estaban en boca de todos, que especulábamos sobre su gran valor y potencial (incluido servidor, claro)… que nunca llegó a cristalizarse, sus fundadores vendieron a Ask y Yahoo y ninguno de ellos consiguió llegar a convertirlos en una herramienta de uso masivo ni en un negocio rentable. Hoy su pedestal en los comentarios de los “early adopters” lo ocupan los Friendfeed, Twitter, el “tiempo real”… no sería tan extraño que con más de uno se repitiese la historia dentro de unos años.

Nestoria y su ¿Dónde puedo vivir?

Nestoria

¿Dónde puedo vivir? es un invento de la gente de Nestoria, un agregador / buscador de clasificados de vivienda muy bien planteado. Para algunas ciudades europeas – incluidas Madrid y Barcelona – permiten determinar a que estación de metro debes llegar por trabajo cada día, cuanto tiempo estás dispuesto a asumir para ello y un límite de lo que uno está dispuesto a pagar. Y a partir de todo ello te ofrecen un montón de resultados de los sitios de clasificados de vivienda que agregan, tanto en venta como en alquiler.

Movimientos como este ¿Dónde puedo vivir? y otros como las aplicaciones para móvil de Idealista reflejan la necesidad de aportar cada vez más valor añadido en un sector saturado y en el que la apuesta por el SEO se antoja cortoplacista. Y no sólo porque cada vez Google llena las páginas de resultados con sus servicios – que también – sino por la propia tendencia del buscador de acaparar nichos, con integraciones que confirman su vocación: ser intermediario entre el usuario y la información. También lo comenta Javier.

Las publicaciones ante los intermediarios que agregan

Kiosko de prensa

Los próximos meses se antojan movidos, con las grandes empresas de medios buscando compensar los ingresos perdidos en canales tradicionales con los ingresos en internet. No han necesitado mucho tiempo para entender que los intermediarios en la web se llevan gran parte del negocio – básicamente se lo lleva Google – y haciendo analogía con los resúmenes de prensa, se plantean como cobrarles por indexarles (El Mundo) ante las dudas que suscitan los modelos de pago por contenidos en internet.

Este tipo de confrontaciones entre publicaciones y los intermediarios que agregan suelen dar lugar a dos posiciones bastante fijas y dogmáticas, una por parte de “la vieja escuela” que ve a los nuevos actores en la red como destructores de las esencias y ladrones de contenidos, y otra que insiste en plantear que los cambios de modelo que impone la web son una genial noticia para las empresas de medios, que deberían abrazar cualquier cosa que le plantee Google. Servidor tiene muchas dudas al respecto, ambas posiciones al fin y al cabo no son excluyentes, pueden estar ambas equivocadas.

Google no es el amigo de los medios

Google es un intermediario que actúa en su propio interés, no es “bueno para los periódicos”, es bueno para los usuarios que encuentran en él un valor. Es un tema que hemos discutido a veces por aquí: si el punto de acceso a la información pasa a ser Google News, los periódicos ya no tienen lo que realmente quieren, seguir siendo el medio de cabecera de sus lectores, su página de inicio; pasarían a repartirse las migajas que reparta Google News, que controla quien sale en primer lugar y quien en el enlace 300 de una noticia, que mezcla fuentes de una forma anárquica (o al menos secreta) y que lo mismo tiene en su tope a un periódico de provincias que a un medio online que a la prensa de referencia (Google News y los periódicos).

Claro que Google es quien mejor se ha adaptado a lo que hay en la web: abundancia. En una internet en las que exista Google News es mejor estar que no estar, pero dista de ser una buena noticia para los dueños de los periódicos. ¿Tienen opción por tanto? No, no la tienen, los periódicos están condenados a ser intermediados mientras quien ofrezca una mejor ventana a la abundancia de contenidos sea una empresa tecnológica y no ellos, la mayoría empeñados en que son capaces de ofrecer todo lo que interesa a todo el mundo y, por tanto, no precisan colocar un enlace “a la competencia”. En todo caso, el problema de la industria de los contenidos no es Google, es la abundancia.

Luchar contra el intermediario

Los medios por su parte, al hacer la analogía entre los agregadores en internet y los resúmenes de prensa, dejan de lado un par de puntos muy importantes:

  • Querer salirse de un agregador (ya sea buscador o de otro tipo), es como querer no estar en el kiosko, es un factor clave de distribución de tu producto. A veces leo a quien se queja de que los medios hagan SEO y se me hace difícil entenderlo, es como quejarse de que los medios lleguen al estanco de la esquina.
  • Pensar que Google o los agregadores “sin los contenidos de las grandes empresas de medios, no son nada” es pecar de soberbia. De hecho es una decisión que pueden tomar hoy mismo, configurar su robot.txt y autoexcluirse de ser indexados, dejarían el camino abierto a un no poco relevante conjunto de nuevos medios. Pueden preguntar a los responsables de sus ediciones digitales, que tanto invierten en SEO, en intentar salir en Menéame y estrategias de este tipo.

¿Conclusiones?

No las tengo, o son obvias (autoexcluirte de Google es un suicidio en los contenidos en internet, no ya por los ingresos de ese tráfico sino porque es a día de hoy la gran fuente de posibles nuevos lectores diarios) o conducen a caminos muy feos (que busquen que los gobiernos obliguen a los agregadores a indexarles y pagarles) que es posible que algunas empresas de medios intenten forzar.

Desde el punto de vista de un “nuevo medio”, la visión es clara: hay que luchar por estar en los intermediarios, así funciona internet, pero el objetivo debe ser convertir en lector habitual, o de lo contrario se crea una falsa sensación de fortaleza basada en tráfico prestado por otro. De todo esto, hay otra consecuencia, enlazar poco a otras webs no hace que fidelices más a tu comunidad, más bien al contrario. Es ingenuo pensar que tienes usuarios cautivos, a los que si no se lo dices, no se enterarán que hay otras webs de tu temática… enlazar a contenidos que interesen a tu comunidad ayuda a fidelizar, esos usuarios volverán a buscar más enlaces y, de alguna manera, serás su intermediario entre ellos y la temática que les interesa. Leer quejas de medios que nunca enlazan a nadie porque la gente prefiere acceder a la actualidad mediante Google, Menéame o cualquier otro intermediario resulta tragicómico.

Imagen de Carlos Carreter.