The CrossFit Open Games: una competición para todos 

cas

Más de 380 mil atletas participando en una misma prueba. 100 nacionalidades siguiendo el camino de los Juegos. Para algunos es una mera prueba, para otros es la demostración del arduo esfuerzo de todo el año. Toca pasar el examen anual. Son los CrossFit Open Games, es decir, la competición de CrossFit abierta a todo el mundo que propone 5 tests, Workouts of the Day (WoDs), uno por semana, durante un periodo de 5 semanas.

Y de todos estos atletas, ¿Quiénes serán los ganadores de los CrossFit Games? En agosto lo sabremos.

Hasta entonces, en Conento queremos dar una pista sobre qué perfil de atleta tiene más probabilidades de ganar y cuáles son sus características que le van a permitir alzarse con el premio de la persona más en forma del mundo. Tal como consiguieron Mat Fraser y Katrin Davidsdottir el año pasado.

 Un reto para todos

IMG-20170323-WA0005

Para empezar, nos centraremos sólo en los Open Games usando los datos públicos que se exponen en su web, games.crossfit.com, para iniciar a dibujar cómo son sus perfiles y cómo influyen la edad, peso, altura o incluso la región donde entrenan para escalar posiciones en el ranking.

¿Ayudará o perjudicará la altura al saltar el cajón, o el peso en utilizar las mancuernas? ¿Obtienen mejores resultados las atletas europeas o las californianas? ¿Influyen de igual forma el peso y altura para hombres y mujeres?

Para cada uno de los cinco tests, se mostrará qué características de atletas son más favorables de obtener un mejor resultado. Por ejemplo, las atletas más livianas pueden tener mayor ventaja al saltar el cajón en el 17.1, aunque mayores dificultades en levantar los numerosos kilos por encima de la cabeza en el tercer ejercicio, 17.3. Hasta la fecha podíamos compararlo con las atletas del propio gimnasio o en la clasificación global de CrossFIT, pero ahora os lo mostraremos comparando con atletas de características similares de todo el mundo.

Además, al finalizar los Open, se ofrecerá la relación entre cada uno de los tests. Es decir, resolveremos si los atletas que ganan el 17.1, ganan también el 17.2 y 17.3, o cuáles de los cinco están más relacionados y cuáles son más diferentes, etc. Y todo esto no solamente para los atletas top que competirán a los CrossFit Games, sino también para los atletas terrenales, que ven el CrossFit como un medio para mejorar su salud. ¿Cómo es el perfil de este atleta?

Estas preguntas y muchas más, quedarán resueltas en los próximos días con los análisis de los resultados de todos los atletas del campeonato CrossFit Open. Estad atentos.

 ¡Sé parte de este proyecto!

Y si tenéis interés por un análisis que os gustaría tener respuesta, por favor, escribidnos a info@conento.com

Que sirva como aperitivo unos primeros datos sobre los participantes por regiones de los actuales CrossFit Open Games. De los más de 380 mil participantes, las dos regiones que aportan mayor número de atletas son Europa y América Latina con más de 63 mil atletas (16,4%) y 35mil atletas (9,2%). Y los resultados para cada ejercicio varía notablemente para cada región. Por ejemplo, los atletas de Europa obtienen, en global, los mejores resultados en el 17.1 y, por el contrario, obtienen las posiciones más bajas en el 17.3.

FINAL

 

¿Deseas conocer más? ¡No te pierdas el próximo post que publicaremos la semana que viene con el análisis de los dos primeros tests!

 

 

Posted in Blog | Tagged , , , | Leave a comment

¿Data analytics & Data Science, realmente se complementan?

magic-cube-378543_1280

Quizás los términos Data Analytics Data Science puedan sonarte parecidos pero podrían ser distintos y complementarios, lo analizamos contigo en el siguiente post.

Por un lado con Data Science se trabajan modelos y es un amplio término paraguas por el cual el método científico, las matemáticas y las estadísticas se aplican a los conjuntos de datos con el fin de extraer conocimiento.

Mientras que con Data Analytics se interpretan los datos y se detectan dónde están específicamente, estableciendo para ser escaneados y analizados a menudo con un objetivo específico en mente.

Adaptarse a los cambios

Los cambios están golpeando el mercado sobre una base diaria. Si bien tu negocio puede ser pequeño o grande y ser relativamente afectado, ¿por qué arriesgarlo cuando se puede evitar problemas por completo? con el análisis de datos te permite adaptar tu estrategia de negocio de una manera rápida y eficiente.

Con tu equipo podrían desarrollar nuevas formas y oportunidades para adaptarse a los cambios que pueden surgir. Tener un plan sobre cómo utilizar los datos, en caso de que cualquier cambio importante podría resultar esencial en el mercado de hoy.

La gente ahora necesita encontrar el valor en la información que se está presentando. Los expertos específicos son excelentes para diferentes tipos de datos.

business-man-1962249_1280

 

Desarrollar nuevas estrategias

Al permitir un acceso rápido y fácil a una diversa biblioteca de datos, con Big Data puedes desarrollar estrategias que no has considerado antes. Esto se debe a que los datos que vas a utilizar se centralizan y cualquier tipo de información está disponible al presionar un botón. Utilizar esta ventaja para hacer una lluvia de ideas y ejecutar simulaciones para maximizar su productividad e impulsar en tu negocio.

Y para poder procesar estos datos y aplicar buenas estrategias necesitamos de la sinergia de estas dos áreas Data Analytics Data Science, para que dependiendo del caso se unan o trabajen por separado según los objetivos planteados. 

 

 

 

Fuente 

https://datafloq.com

http://dataconomy.com

 

 

Posted in Noticias | Tagged , , | Leave a comment

Comparte, analiza y produce tus datos

icon-2032150_1280

La gran revolución de datos en los negocios se ha producido debido al enorme aumento en la cantidad de información que somos capaces de capturar y analizar, de un número cada vez mayor de fuentes. Es la fuerza motriz detrás de una ola más amplia de transformación impulsada por la tecnología que está teniendo lugar gracias a los avances en campos como la automatización, la Inteligencia Artificial y el Machine Learning.

 

Sin embargo el social media ha llegado a influir en casi todos los aspectos de nuestra vida cotidiana – tanto personal como profesionalmente. Su naturaleza a la carta ha aumentado dramáticamente las expectativas de los usuarios finales respecto a la disponibilidad y oportunidad de los datos empresariales. Y los métodos de recopilación de datos inherentes a las plataformas de medios sociales, como el crowdsourcing, que es la envidia de los usuarios y analistas de negocios que buscan desesperadamente compartir información y curar conjuntos de datos en toda su organización. Es hora de que las organizaciones transformen la forma en que piensan sobre los datos empresariales, y esto significa “intercambiar datos” para maximizar los resultados analíticos y empresariales.

 

Una evolución en la accesibilidad de datos y autoservicio

La preparación de datos de autoservicio ha avanzado significativamente en los últimos 18 meses. Las herramientas modernas proporcionan acceso a Dark Data bloqueada en repositorios de datos semiestructurados y no estructurados, funciones de preparación de datos automatizados y predefinidos, exportaciones directas de datos listos para análisis a herramientas de visualización y plataformas de Business Intelligence (BI), automatización incorporada y Funcionalidad de gobierno para seguridad y cumplimiento.

Sin embargo, a pesar de todas estas innovaciones, para la mayoría de los usuarios empresariales y analistas, el acceso a los datos sigue limitado a fuentes de datos personales, informes históricos o datos controlados por los guardianes de TI y BI, que pueden estar obsoletos en el momento en que los reciben. Demasiadas personas están construyendo hojas de cálculo de Excel e informes en reclusión, utilizando fuentes que no pueden confiar completamente y / o tomar decisiones de negocios basadas en información incompleta.

web-page-2084779_1280

 

Tiene todo el sentido que Facebook, Twitter y LinkedIn hayan gastado miles de millones de sistemas de refinación para que las personas compartan datos entre sí, desde fotografías hasta filosofías sobre la vida. Millones de datos han sido capturados desde sus bases de usuarios en todo el mundo y puestos bajo el microscopio para aprender cómo, cuándo y por qué nos comunicamos – compartir datos – entre sí. ¿Por qué no poner esta tecnología y conocimiento para repensar la forma en que compartimos y comunicamos estos datos dentro de una organización?

 

Compartir e integrar datos

En pocas palabras, la socialización de datos permite a los individuos y equipos buscar, acceder, compartir y reutilizar datos preparados y gestionados, así como aprovechar las calificaciones de los usuarios, las recomendaciones, las discusiones, los comentarios y la popularidad para tomar mejores decisiones acerca de qué datos utilizar en los procesos analíticos.

Los individuos pueden aprender unos de otros compartiendo fuentes, descubrimientos y experiencias con sus equipos. Y, al incorporar elementos de gamificación, pueden aprender cómo sus compañeros utilizan sus contribuciones y comprender mejor su valor en el proceso analítico. En general, con la socialización de datos, el crowdsourcing, los usuarios empresariales y los analistas de datos pueden ser más productivos y estar mejor conectados a medida que obtienen, limpian y preparan datos para procesos analíticos y operativos.

 

Gobernanza de Datos

Gracias a los recientes avances en el gobierno de preparación de datos de autoservicio mencionados anteriormente, se aplican características tales como enmascaramiento de datos, retención de datos, linaje de datos y permisos basados ​​en roles a lo largo de los procesos de acceso a datos, preparación y análisis.

Además, al igual que las plataformas de medios sociales (por ejemplo, LinkedIn) emplean un editor para revisar el contenido antes de publicarlo, con la socialización de datos, los científicos de datos y los profesionales de TI pueden servir como administradores de datos, supervisar el contenido compartido y determinar si debe ser certificada como empresa fuente de datos. Con estas medidas en su lugar, la calidad de los datos se mejora, y esto significa mejores análisis y resultados para todos.

 

Democratización del acceso a datos empresariales

Pero cada vez más, las empresas buscan “democratizar” este acceso a los datos. Y se ha hecho evidente que incorporar datos y análisis en toda la organización, asegura que sus efectos pueden medirse en cada proceso y es a menudo un enfoque más productivo que intentar imponer directivas de datos de manera centralizada, de arriba hacia abajo.

 

 

 

Fuente

 

http://data-informed.com

https://www.forbes.com

 

 

Posted in Blog | Tagged , , | Leave a comment

Una herramienta que mide a StakeHolders: Triple E

arte final

Métricas que ayudan a gestionar la marca de una forma integral y continua

Hoy en día, nos encontramos inmersos en un mercado donde la diferenciación y la conexión emocional con las personas se hace indispensable para la sostenibilidad y crecimiento de las empresas, por ello, gestionar los intangibles tiene cada vez una mayor relevancia en el mundo empresarial. La marca es uno de los activos más importantes de las compañías y en Conento queremos ofrecer métricas desde el punto de vista del stakeholder que ayuden a gestionar este intangible con un enfoque global que recoja todos los ámbitos donde se desarrolla la marca.

Nuestras métricas y herramientas para medir y gestionar la marca se caracterizan por (1) su capacidad de gestión ya que ofrece las claves que fortalecen la marca; (2) están orientadas a negocio (verificamos la relación con el negocio, cuando sube el KPI de Energía, sube las actitudes relacionadas con el negocio), (3) es adaptable a cada sector y marca, (4) detecta alertas en la marca en tiempo real y (5) es predictiva, cuantificamos cuanto sube la marca ante incrementos de las palancas.

En un primer momento, comenzamos desarrollando un nuevo modelo de gestión de marca desde el punto de vista del stakeholder denominado Triple E, una solución estratégica con una metodología sólida y rigurosa, orientada al negocio, que permite conocer cuál es la fuerza de la marca y detectar las palancas que ayudan a fortalecerla. Esta métrica se enfoca en tres pilares fundamentales: Energía, Esencia y Experiencia.


art2

 

  • La Energía de la marca es el indicador clave de los tres. Mide la fuerza de la marca en la mente y corazones de las personas, cuando una marca es conocida, diferente y capaz de generar vinculación emocional con el stakeholder, es una marca fuerte. Hemos demostrado que cuando la Energía crece, la lealtad hacia la marca crece y por tanto, el negocio.
  • La Esencia de la marca son las ideas, contenidos y valores que se asocian a la marca, son distintas en cada sector. La esencia nos va a dar el perfil de contenidos de la marca que sustentan o potencian la Energía.
  • La Experiencia nos dice la capacidad de estimulación que tiene la marca. Dónde y cómo vivas la experiencia va a impactar en la fuerza de la marca. La experiencia se mide en cada punto de contacto entre la marca y el consumidor.

Lo especial de este modelo es que las tres dimensiones están conectadas y mediante modelos de ecuaciones estructurales somos capaces de saber cuánto impacta la esencia y la experiencia en la Energía de la marca.

La comunicación entre las empresas y sus stakeholder ha cambiado, ha pasado de ser una comunicación unidireccional por parte de las compañías con pocos canales de interacción a una nueva forma de relacionarse en ambos sentidos y con múltiples canales. Desde Conento hemos visto la necesidad de dar un paso más hacia delante en métricas de marca y ofrecer una herramienta que ayude a gestionar este intangible de una forma más activa y continua en el tiempo: el BrandPulse.

El BrandPulse es una solución analítica y tecnológica que permite gestionar la marca desde el punto de vista del stakeholder, en real time, detectando las posibles alarmas y tendencias que pudieran perturbar la fuerza de la marca. Parte del Modelo Triple E y combina estos resultados de percepción de las personas, extraídos mediante encuesta, con análisis de datos de fuentes de RRSS.

Para su realización, se recoge toda la información disponible en social media y mediante algoritmos de Machine Learning, se da movimiento a las dimensiones del Modelo Triple E en tiempo real, ayudando a detectar alarmas y orientar la toma de decisiones. Con ello, conseguimos una métrica continua y al mismo tiempo, sólida y rigurosa porque parte de una métrica offline con fuerte base matemática y capaz de englobar todo el ecosistema donde se mueve la marca.

El Modelo de la Triple E y la herramienta online BrandPulse son métricas que miden la marca desde el punto de vista del stakeholder para ayudar a las empresas a la gestión de este intangible de una forma más precisa y continua en el tiempo.

Posted in Blog | Tagged , , , , | Leave a comment

Rentabiliza tus datos correctamente

 

currency-163476_1280

La palabra ROI para empresarios o CEOs de compañías es muy apetecible ya que todos quieren tener el mayor retorno de inversión y quizás no se estén cumpliendo del todo este objetivo, con lo cual analizaremos en conjunto esta situación.

En algunas empresas impulsadas por datos, saben que podrían sacar mayor provecho a sus datos, ya sean estructurados o no estructurados, pero tienen dificultades para discernir el valor entre las muchas ofertas de soluciones. Las empresas pueden prácticamente ahogarse en los datos recolectados de diversas fuentes, pero todavía no tienen el know-how o la infraestructura para aprovecharlos.

 

Monetizar la información

Cuando los datos se utilizan correctamente, las empresas tienen la capacidad de mejorar la toma de decisiones en toda la organización e incluso identificar nuevos flujos de ingresos. Para monetizar la información de esta manera, las empresas deben tomar ideas y ponerlas en procesos operativos. Esto significa no sólo reservar BI y análisis para analistas de negocio y otros roles de poder, sino más bien poner los datos en manos de los responsables de la toma de decisiones operacionales en toda la empresa.

Por ejemplo, imagina cuánto más eficiente podría ser un ejecutivo de clientes con acceso instantáneo a la información de clientes, historial de transacciones y disponibilidad de productos o partes. Aunque esta información ha residido históricamente en diferentes sistemas, armar equipos de soporte al cliente con la capacidad de acceder intuitivamente y tomar decisiones a partir de estos datos es un enorme diferenciador competitivo.

Para que una organización obtenga el valor completo de su información, también es importante que el acceso a datos de autoservicio se extienda a los socios, clientes y otros grupos externos.

 

shopping-cart-1276260_1280

 

Para que las empresas amplíen de manera efectiva el autoservicio a todas las partes interesadas internas y externas, primero deben comprender la metodología para la monetización de los datos. Para tomar prestada una analogía de la fabricación, el valor se crea al convertir materias primas en productos terminados, y esta metodología específica implica la gestión de una cadena de valor de datos.

A partir de datos sin procesar, una organización puede utilizar las herramientas de TI existentes para capturar todo tipo de datos: transaccionales, logísticos, de marketing, de clientes, etc. Cuanto más integrada sea esta información, más completa será la imagen y mejor será el marco para la monetización de datos.

 

Customer journey 

credit-card-1730085_1280

La experiencia del cliente es diferente en varias industrias. Al definir el sector, tomar en cuenta factores como precios, modelo de negocio y audiencia. Cada industria tendrá un mayor énfasis en las diferentes etapas del viaje. Los clientes B2C normalmente pasan menos tiempo en medio del embudo, mientras que los clientes B2B requieren un mayor nivel de consolidación, creación de relaciones y compromiso antes de realizar una compra.

El Big Data te permite mejorar aspectos específicos de tu contenido para que se ajuste al molde en el viaje del comprador.

Con esta información, puedes buscar ciertos rasgos en los consumidores y ver claramente lo que están demandando. Esto puede hacer maravillas para ahorrar tiempo y recursos, con la finalidad de aumentar en el ROI.

El valor de los datos se realiza solamente mejorando un proceso de decisión real usando aplicaciones informativas. Cualquier organización puede encontrarse con una enorme cantidad de datos, pero tener una gran cantidad de información  no ofrece ninguna oportunidad. Es el valor que las empresas extraen de estos datos que conducirán a una mayor comprensión, tanto para el negocio como para sus clientes. Las organizaciones deben reconocer esto y comenzar a realizar el retorno total de sus inversiones en administración de información.

 

 

Fuente

data-informed.com

datafloq.com

 

 

 

Posted in Noticias | Tagged , , | Leave a comment

Procesa tus Datos no estructurados con TOPIC DISCOVERY

archive-1850170_1280

 

Muchas veces hemos hablado de aprovechar y utilizar correctamente nuestros datos. En esta ocasión te presentaremos otra opción para procesar de manera óptima, dicha información: Topic Discovery.

¿Qué es Topic Discovery?

Los modelos temáticos (nombre en español) o conocidos como modelos temáticos probabilísticos, se refieren a algoritmos estadísticos para descubrir las estructuras semánticas latentes de un cuerpo extenso de texto. En la era de la información, la cantidad de material escrito que encontramos cada día es simplemente más allá de nuestra capacidad de procesamiento. El Topic Discovery puede ayudar a organizar y ofrecer conocimientos para comprender grandes cantidades de texto no estructurados.

Originalmente desarrollado como una herramienta de minería de texto, se han utilizado modelos temáticos para detectar estructuras instructivas en datos tales como información genética, imágenes y redes. También tienen aplicaciones en otros campos como la bioinformática.

Aplicación

Captura

 

A través de esta herramienta, podemos identificar de manera semi-automática temáticas de las que se esté hablando en un conjunto de comentarios.

Esto puede ser beneficioso en varios ámbitos, como: Descubrimiento de patrones recurrentes, manifestación de opiniones de clientes, entre otras cosas.

 

Fuente

journalofbigdata.springeropen.com

vision.stanford.edu

 

 

Posted in Noticias | Tagged , , , | Leave a comment

Herramientas claves para un Data Scientist

blur-1853262_1280

Es probable que no sea la primera vez que leas que los Data Scientists  lideran el paquete de mejores empleos y en 2017 no son la excepción. Pero para dejarlo claro a los curiosos, un “Data Scientist” normalmente se refiere a una mezcla de habilidades, parte de estadística, programador y ahora también con una visión de negocio.

Por ejemplo, los científicos de datos a menudo tienen que emplear código de computadora (como el lenguaje de programación de Python) para procesar datos que no pueden estar en un formato bien empaquetado, mientras que un “estadístico” es convencionalmente muy concentrado en sofisticadas técnicas de análisis de datos (aunque las opiniones varían).

Juego de funciones

Estadístico

Para ser un científico de datos, necesita pensar como un investigador. Pero en lugar de trabajar con ratones de laboratorio, está creando experimentos con los datos de su empresa, pensando en interpretaciones e implementando una solución que crea el mayor valor para su negocio.

Eso significa probar hipótesis, establecer intervalos de confianza, controlar sus variables y evaluar los resultados – necesitará tener los fundamentos de las estadísticas descriptivas y de inferencias.

Por ejemplo, es posible que tenga que entender por qué las ventas aumentaron en un 10% en un mes determinado. Usando la estadística, uno puede entender las fuentes potenciales de un aumento en ventas – en una promoción dada, por citar un caso.

Programador

Como Data Scientist, su principal producto son los datos – números de ventas, cifras de usuarios, participación – que se genera a partir de un producto tecnológico, por lo que tendrá que desarrollar programas capaces de procesar grandes volúmenes de datos lo más rápido posible y traducir los datos en conocimientos prácticos.

Experto en Negocios

El poder real de la ciencia de datos está afectando al negocio de maneras cuantificables, usualmente identificando y mejorando los indicadores de desempeño clave (KPIs). A partir de ahí, puede responder a las preguntas de sus responsables de la toma de decisiones de negocio enmarcadas utilizando estos KPI. La línea de preguntas suele ir:

- Preguntas descriptivas. Busca entender lo que ha sucedido.

- Preguntas predictivas. ¿Dónde podemos usar la ciencia de los datos para predecir lo que sucederá?

- Preguntas prescriptivas. ¿Qué haremos después?

Por último, como científico de datos, siempre debe “cerrar el círculo” con sus partes interesadas y revisar si cumple con las expectativas y los objetivos de ROI.

Data Scientist Conento

Nuestros Científicos de Datos, además de realizar las funciones que hemos indicado arriba, se dedican también a automatizar/optimizar y agilizar los análisis más comunes para facilitar la información que se proporciona a los clientes.

Si quieres estar dentro de nuestro Team de Data Scientists pincha este enlace

 

Fuente

http://data-informed.com

http://www.cronista.com

 

Posted in Blog | Tagged , , | Leave a comment

¿Qué hay detrás de la caja negra de los datos?

cube-250082_1280

 

Constantemente estamos generando datos en nuestras compañías, esto no debería ser un problema ya que podría convertirse en una oportunidad y porqué no decir una fortaleza. Todo dependerá de las prioridades de cada empresa.

Teniendo en cuenta que la caja negra de datos (Black Box) es la información que las empresas no han sabido comunicar en su momento, esta vez analizaremos desde un punto de vista que involucra el análisis de los datos.

El desafío de la aceptación de la caja negra

La incapacidad de explicar los puntos clave del negocio puede representar una barrera para una aceptación más amplia del uso de estas herramientas en toda la organización. Las empresas necesitan tener una comprensión del proceso de medición utilizado para evaluar eficazmente el rendimiento de una solución dada. Si esa solución no está funcionando como se anticipó, hay que revisar la estrategia utilizada para entender lo que funcionó y lo que no. Esto requeriría una comprensión más profunda de los insumos claves del negocio. La falta de comprensión de los puntos clave del negocio es la razón fundamental por la cual la mayoría de las organizaciones optan por las soluciones de tipo lineal / logístico más simples sobre la caja negra. Cuando una empresa exige una mayor comprensión de los insumos, las soluciones de caja negra no pueden ser la opción preferida – se pueden analizar de una manera muy detallada, lo que es especialmente importante cuando las soluciones no producen los resultados esperados.

¿Qué tan importante es entender las soluciones de caja negra?

Por lo tanto, el uso de técnicas más avanzadas para ofrecer potencialmente soluciones superiores tiene sentido científico. Sin embargo, desde una perspectiva práctica del negocio, estas técnicas altamente avanzadas se implementan con mayor frecuencia en entornos donde el componente de variación al azar o error es muy grande.

Esta es la situación predominante cuando se intenta explicar el comportamiento de marketing y puede ser perjudicial en los casos en que se utilizan técnicas para explicar variaciones de datos que son verdaderamente aleatorias. En ambientes donde el nivel de variación que puede explicarse verdaderamente es bastante pequeño, las técnicas más tradicionales (por ejemplo los modelos de regresión lineal y logística) funcionarán igual que las técnicas más avanzadas.

La clave para evaluar la superioridad de una solución sobre otra es la validación y las ganancias resultantes, donde se puede observar lo bien que una solución predice el comportamiento sobre otra solución. La noción de un sólido entorno de validación es un área en la que los profesionales y académicos están de acuerdo.

Analizar “aquí y ahora” tus datos

La analítica de los datos se ha convertido en un elemento fundamental y aunque los algoritmos de Machine Learning han capturado el foco recientemente, hay un elemento igualmente importante para ejecutar analíticas, por citar un ejemplo predictivas, especialmente cuando el tiempo de resultado y la perspicacia de datos son críticos: computación de alto rendimiento. “Data intensive computing”, o la convergencia de High Performance Computing (HPC), grandes datos y análisis, es crucial cuando las empresas deben almacenar, modelar y analizar enormes conjuntos de datos complejos muy rápidamente en un entorno altamente escalable.

Mejora del producto

En la fabricación, la convergencia de grandes datos y HPC está teniendo un impacto particularmente notable. Los fabricantes de automóviles, por ejemplo, usan computación intensiva de datos tanto en el lado del consumidor como en el de la Fórmula 1. En el extremo del consumidor, la industria automotriz ahora captura rutinariamente los datos de la regeneración de cliente y de las pruebas físicas, permitiendo que los fabricantes mejoren calidad del producto y experiencia del conductor.

Así que si una organización está luchando para mantener su productividad de marco, la computación intensiva de datos puede proporcionar la solución más rápida y rentable.

En conclusión

El uso de soluciones de caja negra no debe ser totalmente excluido de la caja de herramientas del analista. Dado el enfoque del analista en los resultados cuantitativos, siempre querrá ver los resultados de varias opciones de la caja negra. Estos pueden entonces ser comparados con los resultados obtenidos de técnicas más tradicionales. Si las técnicas tradicionales llevan a más o menos los mismos resultados que las soluciones de caja negra (que es el escenario en la mayoría de los ejercicios de análisis predictivo), entonces se emplearán las técnicas de tipo más tradicional.

Sin embargo, las soluciones de caja negra pueden terminar proporcionando resultados superiores. Bajo estas circunstancias, las pruebas deben realizarse usando ambos enfoques dentro de una campaña de marketing en vivo para comprender mejor las implicaciones. Es importante que las organizaciones no impidan diferentes enfoques, como las soluciones de caja negra, si se demuestra que producen resultados positivos. Pero los usuarios empresariales también deben ejercer prudencia en la adaptación de soluciones que no se entienden fácilmente.

 

Fuente

www.the-cma.org

http://dataconomy.com

 

Posted in Blog | Tagged , , , | Leave a comment

Utilicemos efectivamente los datos y solucionemos problemas

database-schema-1895779_1280

En los últimos años el uso de análisis para generar ideas de negocio es una necesidad obvia, ya que puede ayudar significativamente a las empresas a mejorar todas sus facetas.

La brecha entre lo que las compañías pueden hacer con los datos y lo que realmente están logrando no es un fenómeno nuevo.

El nuevo arte de la solución de problemas

Las organizaciones no abordan la analítica con el mismo rigor que otras disciplinas más maduras. Pero los negocios se enfrentan a problemas complejos todos los días, y se ven obligados a resolverlos de forma rápida y eficiente. Aquí es donde entra en juego la ciencia de la decisión. Este mercado necesita metodologías y marcos probados para seguir afectando materialmente los resultados del negocio.

Captura

Los principales desafíos en datos y análisis han cambiado

A medida que las empresas se apoyan más en el análisis para informar en la toma de decisiones, persisten los retos de los datos, particularmente los problemas de calidad, consistencia y usabilidad.

En el pasado, la falta de perspicacia del dominio en matemáticas o estadísticas era siempre una preocupación superior, pero ahora, la perspicacia del negocio y las habilidades de la comunicación se han convertido en desafíos dignos también.

analytics-1907993_1280

Modelos de propiedad de datos y Gobernanza continúan cambiando

Los modelos de Gobernanza también dependen de la persona responsable de Datos y Analítica, sin embargo la mayoría de las organizaciones  tienden a tener un modelo centralizado, donde un grupo proporciona el servicio de análisis a toda la empresa.

Aunque el Big Data ha sido promocionado durante algunos años, todavía estamos en una etapa temprana respecto al Data Science y a nivel de decisiones en una empresa.

La mayoría de las compañías no cuentan con habilidades necesarias para poner en marcha la infraestructura técnica  para ingerir, almacenar y analizar el volumen de datos a menudo en tiempo real presentados.

En esta batalla estratégica por dominar los datos, se trata de procesar una información muy fragmentada para establecer patrones, correlacionesy a su vez extraer la información más relevante. Pero también para evitar confusiones, visiones parciales, bloqueo de decisiones, desconexión entre departamentos y análisis sesgados y muy costosos.

 

Fuente

data-informed.com

datanami.com

 

Posted in Noticias | Tagged , , , | Leave a comment

Lenguaje universal de datos en el sector de la salud

ambulance-1501264_1280

 

Gran parte de los datos están en múltiples lugares

Cada vez más, la asistencia sanitaria ha llegado a reconocer que se necesitan datos agregados de salud. Numerosos emprendimientos en esta dirección ahora están emergiendo. Es importante entender dónde estamos en esta evolución, y qué tipos de tecnologías futuras pueden surgir una vez que lleguemos allí.

La asistencia sanitaria ha evolucionado para reconocer que los datos de salud necesitan ser centralizados. Una solución focalizada en la persona ya que a medida que avanzamos hacia la salud de la población y la compensación basada en el valor de los servicios, la capacidad de encuestar a una población y capturar todos los datos desde donde se ha creado es fundamental para poder ofrecer recomendaciones de alta calidad.

Los datos de salud se producen en diferentes formatos (por ejemplo, texto, numérico, papel, digital, imágenes, videos, multimedia, etc.). La radiología utiliza imágenes, existen registros médicos antiguos en formato de papel, y los EMR (Registro médico electrónico) actuales que pueden contener cientos de filas de datos textuales y numéricos.

A veces los mismos datos existen en diferentes sistemas y en diferentes formatos. Tal es el caso con los datos de las reclamaciones versus los datos clínicos. Y parece que el futuro tiene aún más fuentes de datos, como el seguimiento generado por el paciente de dispositivos como monitores de fitness y sensores de presión arterial.

 

Definiciones inconsistentes / variables

A menudo, los datos de salud pueden tener definiciones inconsistentes o variables. Por ejemplo, un grupo de clínicos puede definir una cohorte de pacientes asmáticos de manera diferente que otro grupo de clínicos.

Los expertos están descubriendo constantemente nuevos conocimientos acordados. A medida que aprendemos más acerca de cómo funciona el cuerpo, nuestro entendimiento continúa cambiando lo que es importante, qué medir, cómo y cuándo medirlo y los objetivos a los que va dirigido. Por ejemplo, los clínicos están de acuerdo en que un diagnóstico de diabetes es un valor Hg A1c por encima de 7, pero el año que viene es posible que el acuerdo sea algo diferente.

Pasar de la consulta a datos agregados

medical-802967_1280

La realidad pragmática es que los datos agregados son necesarios, y la simple transmisión de los registros individuales no es suficiente. Una institución determinada puede crear sus propios datos agregados de todas las fuentes que puede capturar, pero ese almacén de datos es independiente de los acumulados por diferentes instituciones. Un paso adelante, sí, pero todavía un poco lejos de la meta.

Las limitaciones de la respuesta a la consulta se han hecho evidentes: este intercambio de copias de registros individuales de una institución a otra no hace nada para descomponer los silos de datos centrados en la institución. Es muy difícil construir cuadros de mando útiles para la salud de la población y los valores basados ​​en este tipo de infraestructura. Se necesitan datos agregados.

Ha habido algunos intentos emergentes de desarrollar datos agregados. Instituciones como Epic, aunque tiene uno de los centros de consulta y respuesta más grandes de Estados Unidos, también ha desarrollado un enfoque de datos agregados para la gestión de la salud de la población (Healthy Planet).

 

¿Hacia dónde vamos?

Los desafíos en la agregación de datos entre instituciones son más políticos / empresariales que tecnológicos. Supongamos que los datos de salud pueden agregarse de manera muy amplia e incluir datos extraídos de múltiples instituciones. Eso abre varias opciones de la “generación siguiente” para la innovación:

Los datos universales pueden ser utilizados por la Inteligencia Artificial en formas que son escalonadas. Enfoques en la enfermedad, la cartografía de la enfermedad clínica con datos genómicos, la identificación de recomendaciones de atención individualizada – apoyo de decisión verdaderamente inteligente para los clínicos y los pacientes – estas son todas las cosas que ya no pertenecen en el ámbito de la ciencia ficción. Y que se verán en los próximos años.

 

www.cio.com

www.healthcatalyst.com

 

 

Posted in Blog | Tagged , , | Leave a comment