La importancia de la cultura analítica en una empresa

light-bulbs-1875384_1280

Ya no basta con usar datos para crear eficiencias; las compañías dicen que necesitan encontrar ideas que cambien las reglas del juego, las empresas están descubriendo que necesitan “democratizar” sus datos y análisis, poniéndolos directamente en manos de cada usuario comercial.

 

Convertirse en una organización basada en el conocimiento requiere una gran inversión en personas, procesos y tecnología. En el movimiento analítico actual, hay mucho enfoque en acumular datos y contratar al científico de datos y al talento analítico, necesario para controlar el uso efectivo de la información en toda la organización.

 

Sin embargo, tal inversión en el lado de la oferta puede ser un tanto desigual. Concentrarse demasiado en las herramientas, datos y necesidades de personal técnico puede descuidar traer el lado funcional de la organización para el viaje. La magnitud de esta preocupación está bien establecida. McKinsey estimó que en los próximos años las industrias estadounidenses enfrentarán una escasez analítica de talentos de 140.000 a 190.000 personas con las habilidades de datos necesarias. Sin embargo, el mismo informe señala la brecha aún mayor de talentos de aproximadamente 1,5 millones de gerentes y analistas con el know-how para utilizar los datos y tomar decisiones efectivas.

 

Estar conectados

Unos cuantos esfuerzos clave llevan a los tomadores de decisiones en las organizaciones a trabajar con datos transaccionales en tiempo real. Tal cambio requiere que los tomadores de decisiones se ocupen de la mayor velocidad de los datos, las anomalías y los patrones surgen de diferentes maneras que pueden ser suavizadas por los analistas cuando los informes son monitoreados semanalmente o agregados de manera diferente.

Pero las herramientas y los métodos ricos en datos aportan más información a la toma de decisiones en un nivel granular para el cual muchos gerentes no están listos. La visualización se ha convertido en una forma estratégica de abordar la complejidad de los datos. Sin embargo, centrarse únicamente en el arte de los datos y la infografía para reemplazar el rigor estadístico puede simplemente reemplazar la sobrecarga de información por sobrecarga visual, lo que obliga a los responsables de la toma de decisiones a comprender e interpretar diversas técnicas de visualización y opciones de sus analistas.

hands-1691225_1280

 

Análisis de autoservicio – Competencias para satisfacer las crecientes expectativas

En un discurso en el Consumer Electronics Show de este año, el CEO de Ford, Mark Fields, declaró: “No somos sólo una empresa fabricante de automóviles, somos una empresa de tecnología”. Y agregó: “A medida que nuestros vehículos pasan a formar parte de Internet de Las cosas, y como los consumidores nos dan permiso para recopilar esos datos, también nos convertiremos en una compañía de información “.

Cuando surgen nuevas economías y se rompen los viejos modelos de negocios, muchas empresas, como Ford, se están redefiniendo, moviendo sus bienes y servicios tradicionales.

Al mismo tiempo, el deseo de análisis de autoservicio proviene de los propios usuarios del negocio. En nuestra cultura de: “a la carta”, o de tecnología infundida, muchos empleados han llegado a esperar un acceso instantáneo a la información que desean. Ya no están contentos con tener que pasar por intermediarios -en un proceso engorroso y que consume mucho tiempo- para hacer preguntas sobre datos como “¿Cómo puedo mejorar la tasa de entrega a tiempo?” O “¿Cómo optimizo la fábrica a través de…?” Los empleados se están volviendo mucho más cómodos con el uso de nuevas tecnologías de autoservicio – y las prefieren para hacer sus trabajos cotidianos.

Tratamiento visual como punto de partida en vez de como punto final

Cuando los analistas diseñan visuales sin la interacción del usuario en mente, sus gráficos e infografías simplemente son un intercambio estático de su propio análisis. Pero a medida que la visualización de la información continúa haciéndose más común, la presentación visual se está volviendo menos importante en los entornos empresariales. El diseño debe ser suficiente para ser un punto de partida para un decisor que invita a la interacción. Una presentación visual maleable se piensa mejor como un punto de partida del proceso analítico del tomador de decisiones.

¿Dónde se dirigen los análisis de autoservicio?

Éste es solo el comienzo. El análisis de autoservicio futuro utilizará la inteligencia artificial para dar otro salto cuántico – no solo nos dirán lo que pensamos que necesitamos saber, sino lo que ellos piensan que necesitamos saber. Ellos nos dirán el tipo de preguntas que deberíamos estar haciendo, y nos mostrarán los datos para encontrar las respuestas.

Los avances en el análisis de autoservicio están cerrando rápidamente la brecha entre el usuario empresarial y el científico de datos. En el futuro, todos podríamos ser científicos de datos.

 

Las nuevas arquitecturas analíticas también están haciendo posible que los usuarios empresariales hagan preguntas de esos datos de diferentes maneras. En lugar de probar hipótesis, pueden hacer preguntas abiertas de los datos para encontrar los tipos de patrones ocultos y conexiones que pueden ser tan valiosas.

Como también pueden dejar que los datos “hablen por sí mismos”. Esto es crítico para que los usuarios de negocios exploren libremente los datos.

 

 

Fuente

http://data-informed.com/

http://data-informed.com/self-service-analytics

 

 

Posted in Blog | Tagged , , | Leave a comment

Predicciones en Analytics para el 2017

business-1137363_1280

 

Hablamos mucho de datos, análisis y procesamiento de información pero como todas las cosas, tenemos que tener claro el norte de nuestro destino y hacia dónde queremos ir. Esto extrapolado a una empresa, con mucha más razón. Es por ello que hoy te hablaremos sobre predicciones en Analytics para el 2017.

Si analizamos el cierre de 2016, podemos describir un año mixto para el análisis de datos. Los datos de las encuestas en el período previo a la elección de Brexit y Trump, por ejemplo, han visto a muchos rechazar el poder de los datos, con Mike Murphy, un estratega republicano que predijo un triunfo de Clinton, diciendo después de las elecciones: Destrozados en átomos. Esta noche, los datos murieron. Sin embargo, los informes de la desaparición de los datos son prematuros.

Ante esto se debe continuar transformando la forma en que los científicos de datos, analistas de datos y usuarios empresariales aprovechan las ideas para ofrecer valor comercial y mejorar los procesos operativos.

Tendencias y predicciones analíticas para ver en 2017.

La calidad de los datos y la preparación de datos comenzarán a converger.

2017 será el año en que la calidad y la preparación de datos convergen, las organizaciones entenderán mejor cómo implementar las capacidades de ambos para obtener los mejores resultados analíticos y a su vez tendrán funciones separadas y distintas.

Pero, a medida que evolucionan, las soluciones de preparación de datos están comenzando a incorporar muchas capacidades de calidad. La preparación de estos extrae información de una variedad de fuentes dispares y luego la mezcla y la manipula para que sea limpia y precisa para el análisis. Del mismo modo, los proveedores de calidad están comenzando a resolver los problemas de preparación de datos.

 

Avances en el análisis conductual

Se espera que el monto que las compañías gastan en anuncios digitales crezca hasta $77.370 billones en Estados Unidos el próximo año, y comprender a la audiencia es vital para asegurar que se gaste bien su dinero.

La capacidad de predecir la personalidad de alguien presenta una clara oportunidad para dirigir la publicidad, permitiendo a los vendedores segmentar las audiencias de acuerdo al tipo de personalidad en lugar de por edad o género, lo cual es craso y altamente poco fiable.

Los psicólogos han intentado entender diferentes tipos de personalidad y comportamientos mediante casillas de verificación durante décadas, y los vendedores digitales tienen ahora una cantidad significativa de datos sobre sus clientes disponibles que podrían permitirles hacer lo mismo. Según un comunicado de prensa publicado a principios de este año por Universiti Teknologi Malasia, el erudito de investigación Dr. Ikusan R. Adeyemi dijo: “Nuestra investigación sugiere que los rasgos de personalidad de una persona pueden deducirse por su uso general de Internet”, y podría hacerlo usando algoritmos Machine Learning analizando sólo media hora de navegación web.

Los datos de Internet de Cosas (IoT) impulsarán la demanda de bases de datos.

doors-1767563_1280

La era de IoT está sobre nosotros, y más compañías están comenzando a aprovechar los datos de estos dispositivos para la analítica. Pero, ¿cuál es la mejor manera de acceder y usar estos datos?

Los usuarios que recopilan datos dispares de toda la organización y de diferentes partes de los procesos operativos necesitan la capacidad de mantener las marcas de tiempo y, a continuación, reúnen, agrupan y reproducen información en el tiempo para una visión holística. Gracias a los dispositivos IoT y los datos que producen, el próximo año, veremos un aumento en la demanda de bases de datos de series de tiempo, junto con la funcionalidad de preparación de datos en tiempo real.

Analítica más penetrante

Tradicionalmente, los procesos analíticos avanzados han sido delegados a los científicos de datos. Sin embargo, más vendedores están empezando a agregar capacidades analíticas avanzadas a sus soluciones, permitiendo a los usuarios empresariales cotidianos abordar este proceso y obtener información predictiva. En 2017, veremos que las analíticas avanzadas transforman de una novedad a una capacidad básica que impulsa las operaciones de la compañía.

Análisis establecidos para despegar

La analítica integrada es el área de más rápido crecimiento de Business Intelligence (BI). En un estudio de la firma de análisis de autoservicio Logi Analytics, más del 66% de los equipos de TI dijeron que ahora están usando analíticas integradas en sus organizaciones, mientras que casi el 30% dijo que lo estaban considerando.

Los análisis integrados consisten en cualquier herramienta de BI y analítica orientada al consumidor que se ha integrado en aplicaciones de software, funcionando como un componente de la propia aplicación nativa en lugar de una plataforma independiente. La analítica integrada permite a los usuarios finales utilizar datos de mayor calidad porque mejoran los estándares de gobierno.

La popularidad de la analítica integrada ha crecido exponencialmente en los últimos años, y esperamos que esta curva aumente en el transcurso del próximo año.

El papel del Data Scientist evoluciona

Según una encuesta de Forrester, las empresas invertirán un 300% más en inteligencia artificial (IA) en 2017 que en 2016. Esto tiene ramificaciones significativas para la analítica, en Machine Learning, ya que será capaz de analizar datos a una escala que los humanos simplemente no podrían. Como señala Forrester, “impulsará decisiones comerciales más rápidas en marketing, comercio electrónico, gestión de productos y otras áreas del negocio, ayudando a cerrar la brecha entre las ideas y la acción“.

Pero, ¿significa esto el fin del Data Scientist en 2017? Otra encuesta reciente de KDnuggets preguntó cuándo la mayoría de las tareas Predictive Analytics / Data Science de nivel experto actualmente realizadas por Data Scientist humanos serán automatizadas. Un 51% de los encuestados dijo que espera que esto suceda en la próxima década, mientras que sólo un cuarto dijo que espera que el proceso tome más de 50 años o nunca.

Virtualización de datos está de vuelta.

 fractal-1626616_1280La virtualización de datos es sinónimo de agilidad en el acceso a la información – facilita la visión de los datos de negocio de forma unificada, simplificada e integrada en tiempo real según precisen las aplicaciones consumidoras

La virtualización de datos será más popular para los procesos de análisis. La virtualización de datos es un enfoque que, en lugar de mover los datos de un origen a un almacén de datos para su análisis, deja los datos donde reside y crea un almacén de datos virtual. Los datos residen físicamente y permanecen en sistemas transaccionales, pero estos almacenes virtuales permiten a los usuarios ver la información en un orden lógico. Es una técnica con muchas promesas. Reduce los costos porque las organizaciones no necesitan crear almacenes; Ayuda con el análisis en tiempo real porque los datos no necesitan ser movidos; Y aumenta la agilidad, permitiendo a los usuarios analizar más fuentes más rápidamente.

Aunque tenía más de 10 años de antigüedad, la virtualización de los datos tenía su parte de barreras que impedían su uso generalizado en los procesos analíticos. Y aunque todavía existen desafíos, veremos un renovado interés por esta tecnología a lo largo de 2017, una tendencia impulsada en gran medida por proveedores que traen la virtualización de datos junto con la preparación de estos para crear una arquitectura de información que ofrezca agilidad de autoservicio a un costo menor.

¡A por ello!

En 2017, habrá nuevos desafíos para los analistas profesionales. También habrá nuevas tecnologías y nuevas maneras de trabajar para ayudar a superarlas. La socialización de datos verdaderamente revolucionará la preparación de datos de autoservicio y la experiencia analítica. La poderosa combinación permitirá a los científicos de datos, analistas de negocio e incluso a los usuarios empresariales principiantes de una empresa buscar, compartir y reutilizar datos preparados y gestionados para lograr una verdadera colaboración empresarial y agilidad, lo que dará lugar a mejores y más rápidas decisiones comerciales.

 

 

 

Fuente

channels.theinnovationenterprise.com

smartdatacollective.com

 

 

 

 

Posted in Blog | Tagged , , , , | Leave a comment

Optimiza tu ROI con un buen almacenamiento en la nube

money-1520866_1280Hablar de la nube es hablar de mejorar tiempos y recursos, sin embargo hay un valor agregado, que en el siguiente post te contaremos <<cómo optimizar el ROI de tu empresa almacenando datos en la nube>>.

Según IDC, para 2020 el 40% de todos los datos serán generados por máquinas. Gran parte de estos datos son datos de registro no estructurados de servidores web / de aplicaciones, dispositivos móviles e Internet de cosas (IoT). Las empresas de todo tipo y tamaño están buscando formas de analizar estos datos para reducir las amenazas a la seguridad, identificar nuevas oportunidades de ingresos y aumentar la eficiencia operativa. Aplicaciones como Splunk permiten el análisis rápido de los datos generados por la máquina.

Las soluciones de almacenamiento de locales de los últimos años no fueron diseñadas para manejar esta cantidad de datos, ni la velocidad de su crecimiento. La nube pública debe ser la solución perfecta para los datos IoT, ya que ofrece almacenamiento casi ilimitado y puede ser muy rentable.

Las plataformas en la nube son perfectas para un desarrollo ágil en la parte superior de sus sistemas locales. Toma tiempo reemplazar los sistemas centrales, pero es fácil girar una aplicación de un cliente móvil en la nube y probar rápidamente si tiene un efecto sobre las ventas.  Aunque también hay que estar pendiente con problemas como latencia y mayores tarifas de acceso. Estos contratiempos amenazan con poner un hueco serio en el valor que la mayoría de las compañías imaginan que obtendrán de la nube pública.

¿Cómo, entonces, las compañías pueden evitar ser aplastadas bajo el peso del crecimiento del Machine Data  sin excesivos presupuestos y recursos de TI? A continuación te presentamos algunas pautas que te ayudarán en tu empresa, para que aproveche la utilidad de la nube y así obtenga el control de Machine Data.

 

Conoce los requisitos específicos de tus datos

El primer paso para gestionar eficazmente el Machine Data, es aprender exactamente qué información está generando el entorno actual. Hay muchas soluciones de análisis de datos en el mercado que pueden ayudar con esta investigación, sin embargo, es importante asegurarse de que estas aplicaciones se ejecutan eficientemente.

Por ejemplo, miles de empresas utilizan Splunk (NASDAQ: SPLK) para monitorear y analizar las operaciones de TI y los datos de seguridad. La plataforma puede escudriñar terabytes de datos todos los días, pero por cada terabyte analizado, requiere 23 veces que en almacenamiento por niveles. Para que Splunk pueda ejecutar con eficacia procesos de indexación, los equipos de TI deben poder cambiar rápidamente los datos entre niveles fríos, cálidos y calientes y maniobrar a través de un mundo híbrido de entornos locales y de nube.

También hay opciones de código abierto para análisis de Machine Data, incluyendo el ElasticStack de Elastic (Elasticsearch, Logstash y Kibana). Estas soluciones aprovechan la nube y su escalabilidad, manteniendo los datos cerca de su fuente. Todas estas aplicaciones requieren un almacenamiento de alto rendimiento y un acceso de baja latencia a sus sistemas de origen; las organizaciones que proporcionan estos términos están listas para sacar la mayor ventaja de lo que las soluciones tienen que ofrecer.

Evita el exceso de almacenamiento

Antes de invertir en nuevas opciones de almacenamiento de Machine Data, asegúrate de que los equipos de TI no compren más capacidad de la que necesitan. Esto suena obvio, pero es asombroso cuántas empresas exceden en el almacenamiento, porque tienen miedo de no tener suficiente capacidad. Al construir una estrategia para almacenar y administrar Machine Data y su rápido crecimiento en los próximos años, hay que investigar las diferentes maneras en que las soluciones actuales pueden ser mejoradas antes de expandir la huella de almacenamiento de la compañía.

Haz de Edge Computing una prioridad

Cuando las empresas trasladan datos a la nube, un temor común es la latencia potencial y los problemas de rendimiento que la infraestructura de la nube puede invitar. Edge computing utiliza arquitecturas distribuidas para llevar los recursos del centro de datos al borde de las redes, permitiendo que los datos sean analizados y utilizados en tiempo real, reduciendo drásticamente la latencia.

Edge computing es un ajuste perfecto para aplicaciones de análisis de Machine Data, debido a que proporciona un almacenamiento de alto rendimiento para los datos que crecen rápidamente, también es efectivo para analíticas operativas, contenido multimedia y aplicaciones financieras, como aplicaciones de mercados: financiero y de capital. De hecho, cualquier empresa que almacena grandes cantidades de datos en las instalaciones y necesita un alto rendimiento es un candidato sólido para Edge computing.

Asóciate con expertos en gestión de datos y en la nube

Los equipos inteligentes de TI apoyan las prioridades de negocio de sus empresas mientras trabajan para mejorar la eficiencia de las operaciones básicas. Sin embargo, la gran cantidad de Machine Data en la empresa puede hacer prácticamente imposible que los equipos de TI puedan manejar por sí mismos. Los proveedores de servicios que se especializan en la administración y maximización de conjuntos masivos de datos y servicios en la nube pueden ser una asociación estratégicamente beneficiosa para las empresas que luchan con este problema, ya que trabajar con ellos ayuda a los equipos de TI a hacer lo que mejor saben hacer.

No dejes que tus datos vayan a la basura

money-1425583_1280El Machine Data, debe ser una prioridad comercial por una razón: puede ser muy valioso. Con el apoyo de aplicaciones analíticas y almacenamiento de alto rendimiento y escalable, las organizaciones pueden descubrir las ideas ocultas en sus enormes cantidades de almacenamiento de información. Estos conocimientos pueden ayudar a mejorar todos los aspectos de un negocio, desde la optimización de las experiencias de los clientes y la toma de decisiones realmente informadas en tiempo real para reducir drásticamente los ciclos de análisis de datos y reforzar la seguridad de los mismos.

Si se están ejecutando procesos en la nube a través de toda una industria con conexiones fáciles a sus clientes, socios y proveedores. Puede agregar servicios de datos y extensiones

Beneficios

En todo caso el crecimiento de Machine Data, no se ralentiza pronto, mediante el uso de estas directrices, se puede administrar de manera eficaz sin inundar tu departamento de TI, ni explotar los presupuestos de almacenamiento, de tal manera que tu empresa puede utilizar la información para su propósito más valioso: obtener información importante sobre sus operaciones  y mejorar enormemente su rentabilidad.

 

Fuente:

 

 https://www.datanami.com

http://www.smartdatacollective.com

 

 

 

 

Posted in Blog | Tagged , , , , | Leave a comment

Rendimiento empresarial con Text Analytics & Machine Learning

phrases-390805_1280El mundo de los grandes análisis de datos es increíblemente diverso, y la gente está llegando con nuevas herramientas analíticas y técnicas cada día. Ante ello no debe pasar desapercibido el uso de Text Analytics y Machine Learning.

El Text Analytics se está convirtiendo en una tarea omnipresente en muchas áreas de negocio. El Machine Learning es el enfoque más común utilizado en el análisis de texto, y se basa en modelos estadísticos y matemáticos. Los enfoques lingüísticos, que se basan en el conocimiento del lenguaje y su estructura, son mucho menos utilizados. Estos dos enfoques se consideran a menudo como enfoques alternativos o competitivos.

Las organizaciones que analizan sus datos pueden obtener información sobre sus mercados y sus operaciones, ser más productivas y competitivas y ofrecer mayores capacidades de software y valor a sus clientes.

Esto es particularmente cierto cuando se utilizan rutinas analíticas de texto basadas en reglas para extraer el sentimiento de grandes fuentes de texto no estructurado. Una vez que los algoritmos de aprendizaje de Machine Learning, identifican a los clientes que tienen más probabilidades de cambiar de proveedores, la empresa puede ejecutar Text Analytics en notas, comentarios u otra fuente de datos textuales para responder a la pregunta más valiosa: ¿Por qué? en muchas cosas.

El retorno de este tipo de inversión analítica puede ser abrupto, particularmente cuando se traen herramientas de visualización.

 

accountant-1794122_1280El análisis lingüístico

Los dos enfoques son, de hecho, enfoques complementarios y cooperativos que, cuando se combinan adecuadamente, proporcionan la forma más eficaz de extraer información de alta calidad de los grandes datos.

En Conento utilizamos este tipo de modelos de Procesamiento de Lenguaje Natural cada vez en más ocasiones. Por ejemplo, en el análisis y clasificación de las respuestas abiertas en los cuestionarios de investigación; para estructurar información textual en las redes sociales o para hacer análisis de sentimiento; para clasificar documentos; para procesar conversaciones de Call Center, previamente codificadas en texto o mediante software de reconocimiento de voz; etc.

Sin embargo, el Machine Learning está en una mejor posición para extraer ideas (de texto previamente analizado y estructurado, en lugar de no estructurado), mientras que la Lingüística no tiene nada que ver con la extracción del conocimiento.

Y podemos aprovechar estos dos hechos si hacemos las cosas en el orden correcto. En primer lugar, el análisis lingüístico profundo genera una representación rica y precisa de la estructura de los textos; En segundo lugar, Machine Learning utiliza esta estructura para extraer ideas de las características reales, que es la tarea que naturalmente se destaca.

 

Estructurados Vs. Datos no estructurados

 

code-1839406_1280

Lo interesante de este enfoque es que funciona en ambos extremos del espectro de la estructura de datos. Gran parte de los grandes análisis de datos trata de convertir datos no estructurados en datos estructurados, pero el progreso no necesariamente ocurre en línea recta.

Todo el análisis de texto genera una estructura donde no había estructura. Una vez que crea esos datos estructurados, crea las conexiones entre ellos y se convierte en el siguiente paso. Obviamente, los conjuntos de habilidades necesarias para crear modelos predictivos y para realizar análisis de sentimientos no siempre son los mismos.

Y dar el siguiente paso en el análisis de enlaces puede requerir un entendimiento más profundo, incluyendo cómo programar reglas para motores de procesamiento de lenguaje natural (PNL). No importa donde se establezca su gran bandera de análisis de datos, es bueno saber donde otros han ido antes que tu negocio.

 

Fuente

https://www.datanami.com

http://blog.bitext.com/

 

 

 

Posted in Noticias | Tagged , , , | Leave a comment

Oportunidades dentro del B2B

business-561387_1280

 

El E-commerce y la manera de hacer negocios está cambiando constantemente, si nos remontamos al pasado, las primeras apariciones de comercio comenzaron con el trueque por citar un ejemplo. Al día de hoy con un click mi producto y/o servicio puede estar en el continente de mi elección.

Hoy te hablaremos del B2B. Teniendo en cuenta que consiste en los negocios de comercio realizados entre empresas. Actualmente tenemos empresas que han sabido recopilar información y que la venden a otras que le puede servir de mucho.

El B2B se puede distinguir en tres modalidades:

  • El mercado controlado por el vendedor en busca de compradores.
  • El mercado controlado por el comprador que busca proveedores.
  • El mercado controlado por intermediarios que persiguen el acuerdo entre vendedores y compradores.

Ventajas:

  • Reducción de costes y ampliación de mercado
  • Aumento de la velocidad en las operaciones
  • Centralización de oferta y demanda / Mayor control de las compras
  • Información de compradores, vendedores, productos y precios en un lugar común.

Herramientas útiles de datos:

Existen herramientas que te puedan ayudar a conseguir ventajas competitivas en el negocio que estés emprendiendo o que lleves ya un recorrido. Aquí te mencionaremos dos opciones: una gratuita a disposición de cualquier empresa, data.alibaba.com, que ofrece detalles interesantes sobre los principales datos del mercado B2B para una palabra clave determinada.

biz trends

Fuente: data.alibaba.com

A través de éste recurso se puede analizar la proporción de compradores y vendedores que participan en la plataforma, los artículos más buscados (así como los proveedores más destacados que los están vendiendo) y las palabras clave relacionadas con esa búsqueda en concreto, lo que te permitirá construir una estrategia de palabras clave dentro de la plataforma.

A su vez, ofrece la distribución geográfica de la procedencia de las búsquedas y su estadística, algo similar a Google Trends que te permite detectar en qué países hay compradores más activos en la búsqueda de productos dentro de la plataforma.

analitica en biz trends

analitica 2 en biz trends

Por otro lado te presentamos Smart Steps de Telefónica,  ésta utiliza datos de la red de telefonía móvil anónimos y agregados, procedentes de sus marcas presentes en varios territorios. Marcando la diferencia de los métodos tradicionales de captura de datos, basados en comportamientos reales.

Los datos de tráfico se enriquecen con información sociodemográfica y de comportamiento, acerca del lugar de trabajo y de residencia, con información de los objetivos y motivaciones del visitante, modo de transporte utilizado, poder adquisitivo, grupo de edad, y otros atributos que permiten sofisticadas segmentaciones y evaluaciones de perfil.

Esto permite a las empresas clasificar los datos para evaluar únicamente el tráfico de su población meta y añadir así valiosos atributos a sus Insights.

Teniendo en cuenta que hay una necesidad de controlar y extraer toda la potencia de los datos para mejorar en tu negocio, Conento te puede asesorar y asistir en ésta demanda a través de varias herramientas como: Modelos econométricos,  medición de reputación o también un instrumento que te permita visualizar tus datos a través de dashboards, como Tableau.

De ésta manera puedes analizar estas opciones y según los intereses en tu negocio, elegir lo mejor y cumplir tus metas.

 

Fuente

http://alibaba.amvos.com

http://blogs.icemd.com

 

 

 

 

Posted in Blog | Tagged , , , | Leave a comment

Herramientas clave para IOT

china

El Internet de las Cosas entre algunas de sus funciones permite que el usuario sea transparente en su entorno y que esté conectado a la vez. El ejemplo más cercano del IoT está en el propio hogar, donde electrodomésticos, servicios o pequeños gadgets como las bombillas ya están conectados a Internet. El otro gran ámbito de acción del IoT es el de las ciudades avanzadas o Smart Cities.

En ellas el Internet de las Cosas se aprovecha para medir ciertos parámetros externos (ya sea temperatura, energía, actividad, luz, humedad, errores, etc.), de forma automática y sin la interacción del ser humano. Y que esos datos viajen a un centro de procesamiento para que se tomen las decisiones adecuadas en tiempo real. Por ejemplo, son muchas las ciudades que están implementando redes de sensores en multitud de puntos como alarmas, semáforos, alcantarillas, vehículos, alumbrado entre otras cosas.

Actualmente hemos visto un auge de algunas herramientas de tecnología que son útiles para muchos y que está íntimamente ligadas con el Internet de las Cosas: Rapsberry Pi y Arduino.

 

rapsberry

¿Qué es Raspberry Pi?

Es un ordenador del tamaño de una tarjeta de crédito. Consta de una placa base sobre la que se monta un procesador, un chip gráfico y memoria RAM. Fue lanzado en 2006 por la Fundación Raspberry Pi con el objeto de estimular la enseñanza de informática en las escuelas de todo el mundo.

La Raspberry Pi es una  plataforma muy popular para la creación de prototipos, lo que hace que sea  también una  plataforma interesante para el Internet de las Cosas (IOT) gracias a su potencia  y bajo coste.  Pero la construcción de un dispositivo IoT no  es simplemente crear una aplicación ya que realmente se necesita una gran cantidad de infraestructura de apoyo.

El rapsberry puede ser utilizado en proyectos de: robótica, domótica, media center o servidor de archivos, en donde las dimensiones, el gasto eléctrico y el ruido producidos por una PC estándar son limitaciones, Raspberry Pi es la respuesta ideal para todos estos problemas.

Un sistema de videovigilancia: Si lo que te interesa es conocer lo que sucede en un determinado lugar mientras no estás presente, el binomio Raspberry Pi más webcam es una buena mezcla. Valiéndose del software Motion, el miniordenador detectará cualquier movimiento que suceda delante del objetivo y lo grabará. También existe la posibilidad, con algunos ajustes más, de recibir el vídeo en directo en el smartphone.

Tiene tantos usos como se desee: desde controlar el sueño de un bebé desde otra habitación -puede accionar una alarma cuando el niño se ponga de pie, por ejemplo- hasta estar informados de lo que sucede en el jardín o ver quién está llamando a la puerta.

 

Arduino: otra opción dentro del IoT

 

arduino-1080214_1280

Arduino es un elemento que nos permite de forma sencilla y económica conectar cualquier cosa a Internet. Con un Arduino y un sencillo módulo ethernet o wifi podemos conectar a Internet sensores para informar, controlar motores o bombillas desde cualquier parte del mundo o mandar un SMS o email cada vez que se abra la puerta de casa.

 

Éste ha sido adorado por la comunidad permitiendo que casi cualquier persona con unos conocimientos básicos de electrónica y programación pueda diseñar e implementar sus ideas.

 

En este sentido gracias a Arduino se están creando múltiples iniciativas para satisfacer las necesidades del IoT, tales como sensores para el hogar, circuitos con control y gestión de cámaras de videovigilancia o incluso termostatos de tipo Nest. Y su futuro puede ser todavía más relevante en el mercado del Internet de las Cosas por su acercamiento a Windows 10.

 

 

Fuente

 

https://soloelectronicos.com/

 http://www.xataka.com

http://www.elconfidencial.com

 

 

 

Posted in Blog | Tagged , , , , | Leave a comment

La automatización es la nueva realidad en Big Data

board-1709196_1280

Saber que cuentas con los recursos adecuados y en el tiempo correcto es lo ideal en el mundo de los datos. Para éste tema en concreto te ayudará saber cómo usar la automatización dentro del Big Data.

La disposición de los datos correctos en el momento adecuado facilita una implantación exitosa de las campañas de automatización o, incluso, nos dice si es posible implantarlas todas. Numerosos desarrollos dentro de los últimos meses han creado una realidad diferente para el  Big Data y su futuro. Sus tecnologías se perfeccionaron. El movimiento de auto-servicio dentro de la esfera de datos prosperó. ¿El resultado? grandes volúmenes de datos pasaron a ocupar el lugar central en el paisaje de datos como elementos críticos de la ciencia de datos – la preparación, el análisis y la integración – se automatizaron.

large-895567_1280

Entre grandes y pequeñas empresas

Gracias a la proliferación del movimiento de automatización, incluso la más pequeña de las organizaciones ahora puede acceder a grandes ventajas de los datos. Ha habido cierto debate acerca de la automatización y que los analistas de datos están llamados a acceder a ésta información.

Pero si hablamos de la automatización en los procesos industriales, tenemos que partir que aquí se generan grandes cantidades de datos, estos, evidentemente  permiten sacar de manera eficiente conclusiones para responder a preguntas específicas, por ejemplo, qué ocurría en los diversos sistemas de automatización para producirse un cierto defecto de fabricación, o el seguimiento de todos los componentes fabricados que podrían verse afectados por una máquina que estaba fuera de tolerancia, o cómo una condición de fuera de tolerancia en una célula de fabricación especial afectaría los pedidos del cliente.

Grandes cantidades de información permitirían responder a preguntas aparentemente simples, como “contar las veces que una determinada máquina rebasó un umbral” ver otra manera de responder de forma rápida que no se haya hecho fácilmente en el pasado.

El impacto de la nube

Existen numerosas opciones de análisis que los usuarios finales pueden acceder a través de la nube y que pueden tener una idea de todo tipo de datos – muchos de los cuales pueden hacerlo casi en tiempo real. Que van desde la gama de Business Intelligence y análisis prescriptivos; estos servicios requieren simplemente de organización para conceder acceso a los proveedores de sus datos.

Por otro lado aparece el Cloud analytics, éste permite disminuir la infraestructura física, reduce los costes y subcontrata con eficacia cálculos potencialmente difíciles que requieren muchos recursos.  Los algoritmos de Machine Learning pueden dar una idea de la acción recomendable, basada en resultados de análisis (además de las explicaciones) y automatizar el proceso de modelado de datos, lo que puede resultar extremadamente difícil con grandes volúmenes de datos sensibles al tiempo.

Seguridad en la automatización

El movimiento de la automatización ha logrado numerosos aspectos importantes en la ciencia de datos, que los usuarios de negocios pueden aprovechar sin entender las complejidades del desarrollo de algoritmos para el análisis y la preparación de datos además de la carga de aplicaciones.

De manera significativa, los usuarios pueden utilizar estas facetas de la ciencia de datos de una manera que se adhiere a las políticas de gobierno y proporciona el nivel de seguridad requerido para los datos de la empresa. Lo mejor de todo, la automatización hace que las iniciativas de grandes volúmenes de datos sean mucho más asequibles y accesibles para la empresa.

 

Fuente

http://data-informed.com/

http://www.masingenieros.com

 

 

Posted in Blog | Tagged , , , | Leave a comment

Los especialistas de Marketing dentro del mundo de los DATOS

network-1760305_1280

El Big Data ha traído un montón de datos a la mesa para las empresas modernas, ahora quienes también entran a éste juego para manejar grandes cantidades de información son los especialistas de Marketing y ante ello deben desarrollar nuevas habilidades.

El papel de un especialista de Marketing es ayudar a las marcas a tener un buen apalancamiento, un correcto direccionamiento de productos y la conciencia global de una ‘misión central del negocio‘. Significa que el análisis de datos se ha convertido en algo cada vez más valioso para los anunciantes, dándoles información en tiempo real sobre las tendencias actuales, campañas y sobre las iniciativas que han fracasado.

Las empresas hoy en día están más en sintonía con los números, las figuras y las métricas porque entienden que el éxito de sus campañas de marketing se basan en la capacidad de analizar los datos y activar comportamientos y acciones de compras, todo esto se puede convertir en una visión práctica para optimizar los esfuerzos de marketing en curso.

Los datos han permitido a los especialistas medir el rendimiento en tiempo real, lo que significa  que el ritmo de toma de decisiones es mucho más rápido. Se ayuda a informar optimizaciones casi instantáneamente, y los que trabajan en el departamento de Marketing ya no tienen que esperar largos períodos de tiempo para tomar decisiones  importantes.

Business Intelligence

presentation-1311164_1280

Para gestionar el Big Data se necesita aplicar tecnología de Business Intelligence ésta disciplina evoluciona intentando adaptarse al ritmo de los datos. Con Business Intelligence nos referimos al conjunto de metodologías y tecnologías que nos permiten extraer, analizar y transformar los datos en información de utilidad, con el fin de crear distintas estrategias que se adapten a las necesidades concretas de cada empresa.

La utilidad del Big Data en el Marketing

El Big Data, a pesar de ser algo que suene más bien propio de los expertos en tecnología, física y matemáticas, es en realidad la mayor y mejor herramienta que los especialistas en marketing pueden usar para sus campañas y estrategias. A continuación veremos una lista de los usos que se le puede hacer:

  • Elaborar estrategias de marketing personalizado
  • Tener visiones de negocio más precisas
  • Ayudar en la segmentación de clientes para entender su comportamiento como también detectar y evitar la pérdida de clientes
  • Cazar oportunidades en ventas
  • Cuantificar el riesgo
  • Hacer seguimiento de tendencias del mercado
  • Ayuda a la planificación y predicción
  • Análisis del comportamiento de los clientes

 

board-1097118_1280Por otro lado se recomienda  que los especialistas de Marketing  desarrollen buenas relaciones con los profesionales de TI y los Data Scientist dentro de su empresa. De esta manera, sabrán a quién acudir si tienen alguna pregunta y si necesitan más información sobre los datos.

 

 

Fuente

 

www.cio.com

http://comunidad.iebschool.com

 

 

 

 

 

Posted in Blog | Tagged , , , | Leave a comment

Atribución holística para una mejor inversión en marketing

social-media-1233873_1280

¿Dónde debo invertir? ¿Cómo conseguir más ventas / leads con la misma inversión? Al momento de manejar el presupuesto anual de inversión publicitaria este tipo de preguntas se nos vienen a la mente. En el siguiente post te sugerimos como optimizar la inversión a través de Modelos de Atribución.

 ¿Para qué sirven?

Sirven para entender el camino seguido por los clientes durante su proceso de decisión y compra, y así entender qué acciones de marketing motivan a comprar y cuales no.

inversion-ma

 

 

En los Modelos de Atribución los protagonistas son los CLIENTES y los FUTUROS CLIENTES. Sin embargo hay que entender un poco mejor a estos actores claves y para ello es importante seguir sus pasos al momento de ejecutar una compra, analizar el tiempo que transcurre mientras que un usuario pasa de un canal a otro. Esto puede determinar si la experiencia del cliente está siendo positiva durante su Customer Journey, es decir si nuestros canales están bien sincronizados y si el engagement es positivo entre el usuario y nuestra marca.

¿Estás en ON o OFF? Modelo de atribución holística SMARTEK

Ante ello os queremos presentar a Smartek  quien ofrece el primer servicio de ATRIBUCIÓN HOLÍSTICA en España el cual pretende identificar y explicar las rutas que el usuario realiza vs. las que no finaliza en su proceso de venta o conversión. El modelo aprende de multitud de situaciones diferentes combinando todas las posibilidades de escenarios OFF y ON de las rutas. Es decir, analiza tanto las rutas de usuario completas como incompletas y hace la atribución dando más peso a los soportes que el usuario ha tenido en rutas completas.

 

captura-smartek

 Utilidad

  • Dirigido por los datos
  • Gran poder explicativo
  • Puede tener en cuenta factores exógenos

 

Fuente

 

www.e-interactive.es

 

smartek.tech

 

 

 

 

Posted in Blog | Tagged , , , | Leave a comment

18 años premiando a la PUBLICIDAD ESPAÑOLA

logo

La gala es uno de los eventos más esperados en el mundo de la publicidad donde todos los equipos: clientes y agencias se unen para dar lo mejor de cada uno. Los Premios a la Eficacia son los más valorados por los anunciantes españoles, quienes premian en nuestro país las mejores estrategias de las marcas en el diseño e implementación de sus campañas de comunicación comercial y la demostración de los resultados obtenidos, ya sea en términos de ventas, notoriedad, etc.

 

La cita fue en el Teatro Real, la majestuosidad del sitio engalanaba por completo dicho evento en su XVIII edición, convocada anualmente la Asociación Española de Anunciantes (aea), y cuenta con la asesoría estratégica y organización de SCOPEN.

Estos Premios evidencian el valor de la publicidad como uno de los principales motores de nuestra economía y que cada vez va en aumento.

ganadores

La campaña del Sorteo Extraordinario de Navidad de Loterías y Apuestas del Estado, con el claim “el mayor premio es compartirlo”, realizada por la agencia Leo Burnett, se llevó el Gran Premio a la Eficacia 2016 y oro en “Eficacia en Comunicación Comercial”.

En el 2015 incrementó un 4% las ventas de Loterías, al desarrollar el mismo concepto que ya en 2014 supuso que las ventas  dejaran de descender. Además del corto de animación al puro estilo de Pixar, con Justino – vigilante nocturno de una fábrica de maniquíes –  como protagonista, se crearon perfiles de los personajes en las redes sociales y se produjo un aumento record de los seguidores en Facebook, Twitter e Instagram tanto en el ámbito español como en el internacional.

Por otro lado, los Premios Eficacia han reconocido un año más a McCann como Agencia Creativa del Año. Y Arena Media, por su parte, ha ganado el premio a la Agencia de Medios del Año.

Éste es el tercer año consecutivo que los Premios Efi’s cuentan con el presentador Jesús Vázquez y, con la novedad de un guion teatralizado, realizado por Beda Docampo,  intervinieron los actores Emilio Gavira, Raquel Cordero, que encarnaba al personaje de “La Gala” y también participó la soprano Ayelén Mose.

 

 

 

 

 

 

 

 

Posted in Noticias | Tagged , , | Leave a comment