Krypton Solid

La última tecnología en raciones de 5 minutos

Siete secretos para el éxito de un proyecto de big data

Muchas empresas ahora comprenden lo que constituye big data; hacer que el big data sea un éxito es otro asunto. Solo pregunta Doug Laney, un analista con Gartner Inc.; Mike Gualtieri, un analista con Forrester Research Inc.; y Robert Morison, miembro principal de la facultad en el Instituto Internacional de Analítica – tres expertos en big data cuyo trabajo les da una idea de cómo las empresas están utilizando big data. Estos son los factores que consideran que contribuyen al éxito de los macrodatos y los que pueden significar el fracaso de los grandes volúmenes de datos.

Lo que se debe hacer con el big data

Hacer empieza pequeño
Los CIO han escuchado este consejo antes, pero ¿qué comenzando pequeño ¿significar? «Significa comenzar con un dominio empresarial en el que se percibe la oportunidad de mover la aguja proverbial en el desempeño y la oportunidad de aprender al extraer más datos», dijo Morison del Instituto.

Señaló a una empresa de fabricación de productos farmacéuticos que quería mejorar el rendimiento de su producto entre un 1% y un 2%. Con las herramientas de BI tradicionales, podría analizar una cantidad limitada de su historial de fabricación, lo que da como resultado una visión limitada de dónde se podría ajustar el proceso para aumentar la producción. La compañía se preguntó si analizar más datos podría ayudar a identificar los verdaderos impulsores del rendimiento de la fabricación y adquirió tecnología de código abierto relacionada con Hadoop que le permitió cargar tres años de historial de producción en cuestión de semanas.

«Poco después, están desarrollando mapas de calor de las combinaciones de variables, en este caso, cosas como presión, temperatura, agitación y tiempo, que pueden conducir a un mejor rendimiento del producto», dijo Morison. «Entonces, en cuestión de meses, pasaron de explorar lo que podrían hacer si miraran más datos a lanzar experimentos en sus instalaciones de fabricación para mejorar su rendimiento».

Hacer experimentar
Es hora de que los CIO y los líderes empresariales se desvíen del estilo de gestión de proyectos orientado al consumo y a los objetivos de la TI tradicional, dijo Morison. En su lugar, fomente la experimentación y el pensamiento creativo. En su ejemplo de fabricación farmacéutica anterior, «el objetivo era aprender lo que pudieran y mejorar a medida que avanzaban», dijo. «Lo que es realmente bueno acerca de esta aplicación, una vez que comenzaron a hacerlo, cada nuevo lote de fabricación se convierte en parte de la base de datos. Tienen un ciclo de retroalimentación constante. Es un pequeño experimento para hacer las cosas cada vez mejor».

Laney de Gartner dijo que la experimentación debería incluir «la integración de fuentes de datos que tal vez no vayan juntas de forma natural». Los minoristas, por ejemplo, están analizando las imágenes de las cámaras de seguridad «para comprender el flujo de sus clientes en las tiendas», lo que les da la oportunidad de identificar perfiles y patrones de compra, dijo.

Un píxel Las herramientas de gestión de big data continúan

ser de valor

Hacer aprieta el gatillo en Hadoop
Big data no es solo Hadoop, «pero Hadoop es un gran catalizador» porque es barato y de fácil acceso, dijo Gualtieri de Forrester. Para muchas de las empresas que están teniendo éxito con big data, Hadoop está en un segundo plano. «Adopte Hadoop. Conviértalo en su plataforma experimental para sus datos porque puede reunir todos los datos de manera relativamente rentable», dijo.

Hacer aprovechar los datos oscuros
Laney se refiere a los datos corporativos que están almacenados y que nunca se han visto o escuchado de ellos como «datos oscuros», y alienta a los CIO a considerar la gran cantidad de posibilidades en las que están sentados. Algunas empresas ya lo están. Las aseguradoras, por ejemplo, están ejecutando herramientas de minería de texto sobre informes de ajustadores antiguos para comprender mejor el fraude o las tendencias en el negocio de seguros, dijo Laney.

Además, exponer datos oscuros a la luz del día podría generar nuevas fuentes de ingresos valiosas. Dólar general paga por su almacén de datos empresarial compartiendo datos de bienes de consumo empaquetados con los clientes, dijo Laney. Y proveedor de software como servicio Tendedero, una startup que ayuda a los compradores en línea a determinar el ajuste perfecto, está analizando los datos de sus clientes para brindarles a los minoristas más visibilidad sobre las preferencias de los clientes. También están surgiendo nuevas plataformas para ayudar a distribuir y vender datos de una variedad de proveedores, dijo Laney, que incluyen: Microsoft; Web programable, adquirida por MuleSoft en 2013; Mercado de datos, adquirida por QlikTech el otoño pasado; y qDatum, una startup con sede en Alemania.

Lo que no debe hacer con el big data

No ceder a la locura de R
Si bien el lenguaje de programación de código abierto R se asocia comúnmente con la ciencia de datos, los CIO no necesitan contratar científicos de datos que conozcan R para poner en marcha un programa de análisis avanzado. El software estándar llevará a las empresas bastante lejos. Así como los CIO no le pedirían a un desarrollador de Java que programe un informe de inteligencia empresarial en estos días, lo mismo se aplica a la analítica avanzada, según Gualtieri. Herramientas de Laboratorios de datos alpinos, Alteryx, SAS, RapidMiner y KNIME son lo suficientemente maduros como para realizar alrededor del 80% de los trabajos de análisis predictivo sin tener que construir todo desde cero, dijo.

No solo informa sobre los datos
Dejar atrás la analítica tradicional es uno de los mayores diferenciadores entre las empresas que hacen que el big data funcione para ellas y las que no. «Esto va más allá de los gráficos circulares y de barras», dijo Laney de Gartner. «Empiece a integrar datos en los procesos comerciales, y no solo a informar sobre los datos». Gualtieri también ve la analítica avanzada como un diferenciador. «¿Puede hacer informes más tradicionales y mejores informes con big data? Sí, pero eso es más de lo mismo. El diferenciador competitivo es cuando realmente crea modelos predictivos sobre esos datos», dijo. Desafortunadamente, junto con la escasez de científicos de datos, Gualtieri dijo que la imaginación para ir más allá de la analítica tradicional es escasa.

No creo que la analítica se adoptará automáticamente
Morison dijo que un error de análisis que ve con frecuencia es que «se realizan análisis razonablemente buenos, pero no se adoptan». Evite el inconveniente trabajando en estrecha colaboración con la empresa, dijo, un consejo que fue reforzado para él en conversaciones recientes con un par de directores de análisis: «Tienen socios comerciales en cada paso del camino o no comienzan, incluso cuando ven algo que vale la pena hacer «, dijo.

Bienvenido a The Data Mill, una columna semanal dedicada a todo lo relacionado con los datos. ¿Escuchaste algo nuevo (o chisme)? Envíeme un correo electrónico o encuéntrame en Twitter en @TT_Nicole.

Deja un comentario

También te puede interesar...

La élite de las nuevas tecnologías Krypton Solid

Si tenemos suerte en la vida, alguien vendrá y nos desafiará con nuestra visión del mundo. Es molesto, aterrador, estimulante, frustrante y profundamente perturbador. La mayor parte del tiempo al mismo tiempo. Si ha tenido

Cómo encontrar el código fiscal

Hay personas que pueden memorizar su código fiscal de memoria, pero hay muchas otras que ni siquiera recuerdan el principio. Si eres parte de este segundo y más denso host y si lo necesitas volver

¿Qué es el aprendizaje no supervisado?

El aprendizaje no supervisado se refiere al uso de algoritmos de inteligencia artificial (IA) para identificar patrones en conjuntos de datos que contienen puntos de datos que no están clasificados ni etiquetados. Por tanto, los

7 formas de diseñar para una audiencia global

7 formas de diseñar para una audiencia global Antes de sentarse a diseñar un sitio web para un cliente, desarrolle personas de usuario que sean representativas de su público objetivo. Una vez que haya establecido

¿Qué es la generación de lenguaje natural?

¿Qué es la generación de lenguaje natural (NLG)? La generación de lenguaje natural (NLG) es el uso de programación de inteligencia artificial (IA) para producir narrativas escritas o habladas a partir de un conjunto de

ServiceNow supera los objetivos de ingresos para T2

ServiceNow, los creadores de una plataforma de automatización en la nube utilizada para servicios de TI y otras funciones, proporcionaron resultados financieros mejores de lo esperado en el segundo trimestre del miércoles. La compañía reportó

Código abierto en la fase de auge

A veces Matt Asay me hace reír a carcajadas. (A la derecha, el logo de Sand Hill Road VC, Leapfrog Ventures.) La canción de Matt de ayer, negada por los aspirantes de código abierto que

Xen de código abierto frente a Citrix XenServer

Si sus clientes buscan tecnología de virtualización versátil, es posible que estén interesados ​​en Citrix XenServer u otras implementaciones de Xen de código abierto. Pero, ¿cuál de estos es mejor para el entorno de su

Definición infraaplicada

¿Qué se usa en exceso? El término gastos generales respaldados se refiere a una situación que surge cuando los gastos generales ascienden a más del presupuesto que una empresa realmente está presupuestando para llevar a

Los trabajadores de Google anuncian planes sindicales

Un grupo de trabajadores de Google anunciaron planes para sindicalizarse con Communications Workers of America (CWA). los Sindicato de Trabajadores del Alfabeto estará abierto a todos los empleados y contratistas de la empresa matriz de