Archivo de la etiqueta: big data

Tips de Marketing Digital para el sector de la Moda

El sector de la moda cada vez más está innovando en estrategias que le hagan posicionarse como uno de los sectores más demandados y consumidos por millones de personas en el mundo. Y si ya consumíamos moda anterior al boom de las redes sociales ahora el instinto impulsivo de comprar moda crece y la forma en que la moda llega a nosotros es mucho más atractiva impidiendo que evitemos hacer clic en el botón comprar, pero ¿por qué está pasando esto? ¿Cómo podemos hacer que nuestra marca y sus productos sean deseados por miles de consumidores?

A continuación, os damos las claves que necesitáis saber para tener éxito en el mundo digital con una marca de moda:

  1.  Saber sacar partido a las crisis reputacionales de la marca en redes sociales. Si las marcas son astutas podrán darle la vuelta a los comentarios negativos y volverlos a su favor. Algunas veces es mejor que hablen de ti ‘mal’ pero que hablen, que no quedar en el olvido. Muchas celebrities son criticadas por la elección de su vestuario, se acaba haciendo viral y transformándose en  todo un verdadero éxito.
  2. Integrar contenido multimedia en la estrategia digital. Gracias a los vloggers de moda cada vez se consumen más contenidos en formato vídeo.
  3. Big Data. Es una estrategia que tiene muy integrada en su empresa el grupo Inditex que trata de recoger muchos datos sobre los gustos de los consumidores además de detectar en tiempo real lo que están comprando y dónde se está comprando. oficinas-de-inditex_flowmarketing
  4. Multicanalidad del ecommerce. Buscar, compartir y publicar contenido a través de nuestro smartphone es más que una realidad. Por eso, debemos adaptar todos nuestros contenidos a todos los dispositivos, nunca se sabe a través de cual nos llegará una compra. Facilitemos la vida al consumidor.
  5. Recomendaciones de influencers. Es realmente increíble el poder que están adquiriendo estas personas que con tan solo ponerse una prenda y enseñarla en sus redes sociales consiguen que se agote en cuestión de minutos. Y es verdad que genera en el usuario de Internet un deseo irrefrenable de tener la prenda porque vemos que le queda tan bien que necesitamos experimentar la misma sensación en nosotros mismos. Un fenómeno social digno de estudio. influencers_flowmarketing
  6. Personalización de la compra. Ofrecer productos adecuados al estilo de cada usuario permitiéndoles incluso personalizar el diseño del producto que van a comprar.
  7. Exclusividad en la publicación de contenido. Colecciones que solo tus seguidores puedan ver a través de una determinada red social o suscripción a una página web.  Anunciando con tiempo la publicación de una colección en tu perfil de una red social puede ser un éxito ya que el que deseé ver dicha colección tendrá que entrar en tu perfil un día determinado a una hora concreta. Es una manera de atraer clientes potenciales.
  8. Compartir. Animar a los consumidores a compartir fotos, vídeos y opiniones de las prendas y complementos que acaban de adquirir en la tienda, o su experiencia en eventos de la marca a través de hashtags. Generarás comunidad entorno a la marca y de esta manera sabrás que usuarios son clientes fieles, por qué compran lo que compran y cuándo lo han comprado.prendas_moda_flowmarketing

No debemos olvidar que las nuevas tecnologías cambian constantemente, y la forma de enviar y recibir contenido en nuestros dispositivos también así que lo que hoy nos puede ser muy útil en unos años puede quedar obsoleto. El mejor consejo es estar muy atento a los nuevos hábitos de los consumidores y reinventarse.

Microsoft lanza #AzureML (Machine Learning)

El poder de combinar Machine Learning con los beneficios de la Nube; Microsoft AzureML

Azure Machine Learning es un nuevo sistema que ha lanzado Microsoft se trata de una nueva manera de aplicar aprendizaje y comprensión a los datos con alto histórico sobre un problema o tema concreto que ayude a crear nuevos modelos y usar el análisis predictivo de los mismos para detectar su futuro. Por ejemplo, trabajar sobre los motores de búsqueda (Google o Bing) y su comportamiento, recomendaciones de productos online de los usuarios, sistemas de prevención de fraude de tarjetas de crédito, predicción de tráfico con GPS… y muchos, muchos más.

El sistema Machine Learning puede ayudar a reducir drásticamente los tiempos de espera de una sala de urgencias, los atascos proponiendo rutas alternativas en tiempo real, predecir brotes de enfermedades o prevenir la delincuencia de ciertas zonas geográficas. Para hacer realidad ese futuro, tenemos que hacer que el sistema sea más accesible, que llegue a cada una de las empresas para que todas puedan aportar y en los tiempos necesarios.

¿Quién sería el encargado de utilizar este nuevo sistema? Pues un perfil reciente y muy solicitado denominado Data Scientist, el cual combina la estadística y la programación informática. Dicho perfil es escaso y se encuentra con problemas como que las licencias de software son caras, aunque existen, cada vez más, software de canal abierto “open source” y son muchos los lenguajes de programación por lo que la curva de aprendizaje es muy empinada. Además, la implementación de algunos modelos de aprendizaje automático en sistemas de producción requiere de muchos meses de investigación e inversión en ingeniería lo cual agrava los costes aún más por lo que pocas empresas tienen acceso a ellos.

Microsoft Machine Learning Azure, es un servicio de nube completamente gestionada para la construcción de soluciones de análisis predictivo que ayuda a superar los retos que la mayoría de las empresas tienen en el despliegue y uso de ML. ¿Cómo? Ofreciendo un servicio integral ML que tiene todos los beneficios de la nube. En cuestión de horas, con Azure ML, los clientes y partners pueden construir aplicaciones basadas en datos para predecir, pronosticar y cambiar los resultados futuros - un proceso que anteriormente requería semanas e incluso meses.

Azure ML reunirá las capacidades de nuevas herramientas de análisis, potentes algoritmos desarrollados para productos de Microsoft como Xbox y Bing, y años de experiencia de aprendizaje de máquina en un servicio sencillo en la nube (cloud) y de fácil uso.

En julio, se dará a conocer la versión previa pública Azure ML y comenzará el nuevo viaje de presentar un ML con todos los beneficios de la computación en nube (cloud computing) accesible para todas las organizaciones. Los clientes serán capaces de crear soluciones completamente nuevas que reúnan ideas en la gestión de #BigData o gestión de gran volumen de datos, Internet de las cosas (IoT) y el análisis predictivo.

Visita el blog de Microsoft para leer el artículo completo.

http://blogs.technet.com/b/microsoft_blog/archive/2014/06/16/microsoft-azure-machine-learning-combines-power-of-comprehensive-machine-learning-with-benefits-of-cloud.aspx

Digital Data Distribution; Un nuevo enfoque para la optimización de Big Data y buen uso del Marketing en Tiempo Real a través de técnicas, herramientas y personas adecuadas.

Tealium presentó la semana pasada junto con Web Analytics Demystified el estudio  The Digital Data Distribution, Platforms in action, un nuevo enfoque para la optimización del marketing en tiempo real.

Portada WhitePaper The Digital Data Distribution.
Portada WhitePaper The Digital Data Distribution.

 

Como resumen del estudio os presento algunos datos muy curiosos aunque os recomiendo que os lo leáis al completo.

Muchos ejecutivos y directores de empresas coinciden en que el objetivo hoy en día es la “visión 360 grados del cliente”, algo que permite poder tomar decisiones de negocio de éxito, transformar modelos de marketing y conducir a la compañía al incremento de los beneficios; el santo grial del servicio al cliente y su análisis. Esto ha provocado un giro inesperado hacia los datos de los clientes y su valor, un nuevo y divino tesoro que puede dar acceso a los comportamientos y secretos del consumidor/user. Pero dicho acceso no es un proceso fácil, todo lo contrario, hablamos de una gran cantidad de datos almacenados que sin computadoras poderosas y potentes algoritmos no significan nada.

Los informes de Gartner (reconocida empresa consultora y de investigación  de las tecnologías de la información con sede en Stamford) ya demuestran en sus últimos estudios que el 64% de las empresas encuestadas en 2014 pondrán o han puesto ya en marcha una iniciativa de “grandes datos”. Al 56% le resulta un reto superior la determinación de cómo obtener valor a través del Big Data, de los cuales al 41% se refiere a definir la estrategia y el 34% a la obtención de habilidades y capacidades necesarias para llevarlo a cabo.

Por tanto, es evidente que nos encontramos con dos problemas iniciales:

  1. Llevar a cabo una visión 360 grados de consumidor no es sencillo y requiere un gran esfuerzo en costes con enigmáticos resultados en cuanto a expectativas.
  2. Actualmente, la mayoría de las compañías están planeando su plan e inversión en “big data” pero les sigue resultando difícil a posteriori y por desconocimiento, determinar la creación de valor que les va a aportar; establecimiento de objetivos, definir los esfuerzos en costes y traducirlo en resultados/números.

Web Analytics Demystified habla que realmente el problema del Big Data no es la agregación de datos sino la forma en la que se utiliza el término. Se hace mal uso del término. El BIG además de generar confusión despierta “miedo” a las empresas, sus prospects, clientes etc. Se propone empezar con algo “pequeño” e ir probando el valor que ello aporta. Y llamemos pequeño a un dataset de X tamaño pero que nos permita probar, quitarnos el miedo y así obtengamos una solución a pequeña escala, como recomiendan en el estudio “empezar poco a poco” haciendo Little Big Data.

Dicho de otro modo, ser capaz de describir los resultados es solo la mitad de la batalla. Saber lo que se quiere hacer con Big Data si un plan de negocio y estrategia es como querer ser un atleta olímpico y no empezar por contratar a un entrenador bueno y específico que nos ayude a elaborar un plan de actuación, entrenamiento personalizado, establecimiento de objetivos y estrategias, etc.

Para ello, además de dedicar tiempo es recomendable destinar inversión en recursos humanos para rodearse de las personas adecuadas en cada momento.

Para encontrar más soluciones y propuestas échale un vistazo tú mismo al estudio completo, te lo recomiendo ;)

http://tealium.com/assets/pdf/WAD-D3P.PDF

Datos: La importancia de la Calidad.

Estudio; La calidad de los datos en las empresas. Tendencias y buenas prácticas para una estrategia efectiva.

Experian Marketing Services.

“El 93% de las empresas creen que los datos son vitales para alcanzar el éxito en sus campañas de marketing”, para mí, la frase resumen de Alfonso del Gallo, Director General, España Experian Marketing Services  en el Estudio; La calidad de los Datos.

El estudio de este año ha revelado que el 68% de las empresas españolas carece de un enfoque coherente y centralizado en la calidad de los datos. Igualmente, los conceptos ad-hoc dividen los recursos y aumentan la segmentación de la información.

Estudio Calidad de los Datos_imagen post

Una calidad de datos escasa tiene un efecto negativo en los
presupuestos, las actividades de marketing y, lo que es más
importante aún, en la satisfacción del cliente. Las empresas que no
pueden controlar la calidad de sus datos no se comunican de manera
efectiva con sus clientes.

Veamos en el caso de España como se reparten las causas de “datos erróneos” versus la media mundial:

Fuente Experian Marketing Services
Fuente Experian Marketing Services

Destacar que el mayor porcentaje de causa de datos erróneos se los llevan los “errores humanos”, es por ello que se aconseja automatizar cuanto más mejor, la máquina se equivoca menos. El segundo porcentaje más alto se lo lleva “la falta de comunicación entre departamentos”, algo muy común y que debe mejorarse fomentando el trabajo en equipo y el establecimiento de estrategias comunes para todos, plazos de entrega, etc.

La calidad de los datos es la base de cualquier actividad basada en
ellos, por lo que, para poder superar con éxito el año, las empresas
deberán dar prioridad a la precisión y la accesibilidad de sus datos.

Para más información accede al estudio completo de Experian Marketing Service:

http://www.experian.es/servicios-marketing/estudio-calidad-de-datos-2014-optimizar-bases-datos.html

Evento IAB Madrid “Claves y retos jurídicos del Big Data”.

Ayer lunes 19 de mayo estuvimos a las 19:00 horas en el Evento del IAB Madrid “Claves y Retos Jurídicos del #BigData” en el Centro de Innovación del BBVA.

 

Os paso el enlace al vídeo streaming del Evento para el que quiera visualizarlo al completo aunque como siempre os paso mi resumen.

 

https://www.centrodeinnovacionbbva.com/eventos/32600-big-data-claves-de-negocio-y-retos-juridicos

 

En cuestiones de retos jurídicos se profundizó poco pero destaco los siguientes puntos de cada uno de los ponentes invitados.

 

Pepe Cerezo (pensador de internet, Socio y Director Madrid de RocaSalvatella)

 

“Data is the New OIL”, es la base de todo negocio sea la industria que sea y permite:

 

+ touch points

 

+ oportunidades

 

+ conocimiento de los usuarios/consumidores

 

+ segmentación

 

+ negocios y agentes () 

 

Big Data genera:

 

Nuevos Negocios; alianzas insospechadas

 

Nuevos procesos; Ahorro de costes

 

Toma de decisiones; Fast Data

 

Servicios; más personalización, fidelización y recomendación.

 

El User proporciona Datos constantemente, desde que se levanta hasta que se acuesta cada día. “La clave está en adelantarse y ofrecerle en el preciso momento aquello que necesite” decía Pepe. Lo que llevo llamando yo desde hace meses el “Data Momentum“.

 

Cerró su ponencia con esta frase de Riley Newman, head of Data science Airbnb; “Data is the voice of your customer“.

 

Mikel Lekaroz (CEO & Founder de e-CDO Consulting)

 

Partió de la premisa que la Publicidad y el Marketing Online hoy en día son ineficientes:

 

- Indiscriminado

 

- Irrelevante

 

- No segmentado

 

También habló de la necesidad de convertir este entorno en una oportunidad para plantear nuevas regulaciones y planteó algo muy interesante “quizá necesitemos auditoría externa como en el área de la contabilidad empresarial para mejorar la autorregulación que muy pocos cumplen y que dejan mal a los pocos que lo hacen bien“, decía Mikel. Algo en lo que realmente estoy de acuerdo. Tal y como somos en España, aquello de autorregularse, me parece que no es para nosotros.

 

Actualmente, la autorregulación va por detrás de la tecnología y es una barrera muy alta. Hacía una comparación en una slide sobre la tortuga y la liebre; la autorregulación vs tecnología.

 

Antonio Muñoz, (Business Affairs Digital en el Consejo de Regulación en Telefónica Digital)

 

Comenzó hablando sobre el concepto Big Data vs Privacidad/Ciber-seguridad. Tener presente ambas en cada punto del proceso es algo importante; recogida de datos, legitimidad en la misma, almacenamiento (tiempos), análisis de datos y singularidad/identidad con enfoque.

 

Sociedad Liquida de Datos, según A. Muñoz, se dibuja como 4 círculos concéntricos:

 

4. Protección de datos

 

3. Privacidad (plantear nuevas políticas)

 

2. Confianza

 

1. Legitimidad del usuario

 

Comparaba el Big Data con el concepto “Big Brother” y la desconfianza que se genera con él. Quizá es mejor hablar de Smart Data. Algo en lo que estoy totalmente de acuerdo y que ya posteé en Twitter hace meses; “Big is good, Smart is better“.

 

Javier Puyol (Letrado del Tribunal Constitucional y Director de la Asesoría Jurídica Contenciosa Corporativa de BBVA)

 

Empezó compartiendo un dato muy reciente de IBM; el 60% de los directivos de las empresas ya se plantean el tema Big Data y el uso de la tecnología como algo fundamental en las estrategias de negocio.

 

Debe pesar poco la privacidad si el Big Data está bien hecho y planteado“.

 

Hay que adoptar medidas de seguridad para comercializar patrones de comportamiento de los usuarios“. Por tanto, hay que plantar un cambio de filosofía, no hay certezas concretas pero si patrones y predicciones de los mismos.

 

El Big Data de por sí es impreciso en un uso primario, trabajarlo es lo que proporciona valor”.

 

El Big Data no tiene límites lingüísticos ni geográficos”.

 

Resumen del Debate Final

 

- Saber bien dónde queremos llegar con el Big Data.

 

- Ética vs Legalidad

 

- Todos somos usuarios, consumidores o víctimas del Big Data mal gestionado.

 

- Evitar “abusos” del Big Data para fines con dolo (empleados, manipulación…)

 

- Plantear nuevas políticas de privacidad y regulación.

 

- Proceso de disociación entre lo Público vs Personal.

 

- Si hay Scoring Ok, hay consentimiento.

 

Espero que os haya servido de mucho este post y para los que necesiten más información al respecto os recomiendo este Curso Intensivo del IAB en Legalidad y New Media:

 

http://www.iabspain.net/eventos/157/curso-intensivo-legal-new-media/

Pepe Cerezo ayer en el Centro de Innovación del BBVA en el Evento “Claves y retos jurídicos del Big Data” del IAB.

 

Google Think Performance y Ponencia de @Juan_Barea.

El pasado 7 de mayo, es decir, ayer mismo, estuve en el Google Think Performance #Thinkperf2014 en MediaLab Prado (Madrid) y tengo que decir que en general estuvo muy interesante por el enfoque que le dieron todos los ponentes e invitados. Ya era hora de hablar del #Data y del #User.

Pero, sin duda, la ponencia más interesante en mi opinión fue la de Juan Barea (@Juan_Barea), founder and CEO de Universal Diagnostics y embajador español de la NASA – Singular University, titulada “Tiempos exponenciales”. Dicha presentación además de fresca, entretenida e incluso divertida resultó ser de lo más inspiradora y motivadora.  Creo que casi todos los que estábamos allí salimos con un subidón increíble, con las pilas cargadas. Hasta el Director de Google España y Portugal, Javier Rodríguez Zapatero, en la charla de clausura del evento tiró su tarjeta de discurso al suelo y dijo algo así como “es una “P” como una casa tener que hablar después de esta ponencia”…

La ponencia arrancó con la explicación de cómo la tecnología crece de manera imparable y de forma exponencial, para ello nos puso el ejemplo de la Leyenda del origen del ajedrez y los granos de trigo* http://dunia.somms.net/?p=12

También puso el ejemplo de como las tecnologías de la información están doblando su potencia (en velocidad, capacidad, disminución de precio, ancho de banda) cada 18 meses. Es decir que en poco más de un año la potencia de un ordenador nuevo tiene el doble de potencia que el que nos compramos hace relativamente poco. Así de rápido va este tema de la tecnología y así con todo.

Nos contó varios ejemplos relacionados con el Big Data y las ventajas de trabajar los datos a gran escala, por ejemplo, la revolución en biotecnología; el análisis del ADN individual a través de la saliva (ya al alcance en USA por 99$), el control del código genético e investigación del genoma humano, enfermedades que desarrollaremos y medicinas o terapias personalizadas para cada caso que acabarán con enfermedades como el cáncer o la diabetes. El uso de robots de fabricación en empresas (Baxter), ya las hay 100% automatizadas y también llevadas a la logística como el caso de Amazon para sus almacenes. Nuevos aviones programados o vehículos automáticos que reducirán la tasa de mortalidad por accidentes humanos a través de Inteligencia Artificial y miles de ejemplos más…

La clave de esto es como en cuestión de 5 años máximo será algo normal y habitual en todos los países. Se acabó aquello de “dime en qué parte del mundo has nacido y te diré como vives”. Eso ya no tendrá tanta relevancia pues “habremos llegado a la Hiperconectividad y a la evolución del acceso a Internet desde cualquier parte del mundo y habremos creado una gran plataforma global” decía Juan Barea.

Eso da miedo pero no debería ¡Todo lo contrario! En breve pasaremos a un mercado Hiper-globalizado, donde habrá más oferta y transparencia dando lugar a la “ley del Precio único” y al que cualquier empresa tendrá acceso como cualquier otra, sea grande, mediana o pequeña. Estamos necesitados de mercados más polarizados. Actualmente, nuestro esquema es como un diábolo, en el triángulo de arriba tenemos los “productos Hich-end” y en el triángulo de abajo los “low-End” dejando una zona muerta en el centro la cual Juan Barea denomina “Zona de la muerte” (adjunto slide con esquema de la ponencia)*:

thinkperf2014_imagen mercados_JBarea

Entramos en una nueva Era denominada por el autor “Era de la Innovación y la Tecnología donde todas las industrias y sectores serán High-tech pero también van a sufrir una disrupción”. A la que la pregunta siguiente sería; ¿vale, pero con qué tecnología? El Big Data, Peer to Peer (red de computadores automatizadas), Robótica, Internet de las cosas, Impresión en 3D… Aclaraba Juan Barea que “No es una cuestión de dinero ni conocimiento si no más bien de una cuestión de ACTITUD“.Y esto a mí, personalmente, me encanta, sí, es una cuestión de actitud.

¿Cómo hacemos frente a esto? Pues el protagonista de esta gran historia nos da cuatro pistas:

1. Para tomar la ola hay que estar encima de ella (no mirando a Cuenca como los españoles todo el día pensando en “la crisis”. (palabras textuales y con las que estoy totalmente de acuerdo).

2. Llenar la empresa de frikies por mucho que a algunos grandes o pequeños directivos crean que es un error. La alta dirección tiene que acercarse a la tecnología.

3. Conectarse a los polos de Innovación Mundial (referencias como consultar When ideas have sex o seguir de cerca las publicaciones de Singularity University).

4. Aprender a cambiar CONTINUAMENTE. Aquello de la insatisfacción permanente que es otro concepto que me encanta.

Maravilloso, sencillamente una ponencia espectacular como publiqué en Twitter.