Mostrando las entradas con la etiqueta noticias big data. Mostrar todas las entradas

sábado, 23 de septiembre de 2017

thumbnail

Desmascarando 8 mitos del Big Data y el Análisis


Big Data Analisis

Desmascarando 8 mitos del Big Data y el Análisis 

Al igual que con otros conceptos tecnológicos emergentes, el Big Data y la Analítica están obsesionados por los mitos. Aquí hay ocho mitos que usted querrá disipar a medida que avanza su estrategia de análisis.

No hay duda de que el concepto de análisis de datos masivos ha sido arrastrado por el barro varias veces a lo largo de los años. Los primeros adoptantes lucharon en muchas áreas que finalmente condujeron a tasas de fracaso más altas de lo esperado y, en última instancia, un pobre retorno de la inversión. Sin embargo, muchos de los errores del pasado han sido superados desde hace tiempo. Lo que queda, sin embargo, es una serie de mitos que rodean conceptos y pasos de implementación que algunos sienten todavía reflejan la verdad.


A pesar de que la trayectoria es menos que estelar, o percepción, los grandes datos siguen siendo un gran problema. IDC publicó un pronóstico en el tercer trimestre de 2016 que mostró que el gran mercado de datos y analítica alcanzó tasas de crecimiento interanual de dos dígitos. Si esto es cierto, entonces muchos de esos mitos aterradores que siguen flotando casi seguramente deben estar equivocados. ¿Derecha?

Te interesa: Dónde comprar datos masivos?

La cosa acerca de los mejores y más duraderos mitos, leyendas y tradiciones es que siempre hay una pepita de verdad que mantiene la mentira. Esto es comúnmente el caso con tecnologías complejas que a menudo son más exageradas y en última instancia se vuelven más lentos de lo esperado para ser adoptado. Los datos masivos son una de esas tecnologías, pero no es la única. Otros ejemplos recientes en los que se han formado mitos negativos alrededor de la tecnología incluyen WAN definidos por software (SD-WAN), seguridad de TI e incluso cloud computing. Sin embargo, si la tecnología es en última instancia el ajuste adecuado para las organizaciones empresariales, los mitos eventualmente son superados y la verdad está expuesta.

Hoy vamos a ver ocho de esos mitos que han surgido del gran movimiento de datos y análisis. Como usted está hojeando a través de las diapositivas, trate de averiguar donde la verdad se convirtió en sesgo hasta el punto donde la falacia se formó. Esta es la mejor manera de derribar el mito y traer la realidad de nuevo a la imagen. En la mayoría de los casos, un concepto erróneo que rodea algún aspecto de grandes datos o analítica se debió a un error en el juicio hecho por un número de primeros adoptantes. En otras situaciones, los mitos formados por el departamento de TI de la empresa carecen de las habilidades y herramientas necesarias para ejecutar un gran proyecto de datos. Finalmente, surgieron algunas falacias basadas en una simple desinformación y mala comunicación con respecto a conceptos y componentes de grandes arquitecturas de datos.



Guarde todos sus datos; puede ser que lo necesite un día

Uno de los mitos más grandes que se producen durante los primeros días del gran movimiento de datos es que las organizaciones empresariales deben tener en cada chatarra de datos que podrían ser recogidos. Para aquellos que siguieron ese camino, se les dio la tarea de averiguar dónde almacenar los datos al costo más bajo. Muchos buscaban tecnologías de archivo de datos basadas en la nube, como Amazon Glacier o Google Coldline Storage. Si bien estas tecnologías son realmente excelentes soluciones de bajo costo para el archivado de datos para la recuperación de desastres, no es el lugar adecuado para el análisis de datos. En última instancia, se descubrió que los verdaderos beneficios de los grandes datos vienen en el análisis en tiempo real y la presentación de informes de la información obtenida recientemente

Los grandes análisis de datos son demasiado caros

Cuando empiece a discutir el tema de los grandes datos a aquellos que no están completamente informados, a menudo vienen con la sensación de que muchos líderes de TI sienten que no pueden permitirse el costo de empezar. Esto probablemente se produjo porque los datos grandes primero se hicieron populares entre las organizaciones empresariales más grandes. Historia tras historia sobre los grandes datos que se apalancan en empresas como Facebook, Microsoft y Wal-Mart llevó a muchos a creer que esta era una tecnología sólo alcanzable por la mayor de las organizaciones. Aunque esto puede haber sido cierto desde el principio, las grandes soluciones de datos y analíticas basadas en la nube ahora permiten a las empresas comenzar pequeñas y escalar sus grandes ambiciones de datos según sea necesario, con costos iniciales relativamente bajos.

Ya estamos demasiado lejos de la gran curva de datos

Si usted está en el campo que piensa que su ventana de oportunidad de utilizar datos grandes y análisis de informes para obtener una ventaja competitiva ha cerrado desde hace mucho, tengo algunas noticias para usted. Los grandes datos van a ser parte de TI de la empresa durante mucho tiempo. Si usted piensa que va a pasar los datos masivos y esperar a que la próxima ola de la tecnología grande para montar, vas a estar esperando durante mucho tiempo. La verdad es que las próximas innovaciones en el análisis de datos no van a ser nada más que evoluciones de una gran base de datos que muchos ya tienen en su lugar. Dicho esto, todavía hay mucho tiempo para ponerse al día dado los avances en las herramientas y plataformas que han surgido en los últimos años. Esto es especialmente cierto en los campos de la inteligencia artificial y la automatización que pueden reducir drásticamente el tiempo y el esfuerzo gastado aprovechando la información obtenida de un gran análisis de datos.

Necesita saber qué preguntas hacer antes de iniciar un gran proyecto de datos

Si bien siempre es una buena idea iniciar cualquier proyecto de datos grande con una idea general de lo que está tratando de lograr, no es necesario saber qué preguntas exactas que busca obtener respuesta. A menudo, la analítica puede ayudar a responder preguntas o resolver problemas que ni siquiera consideró. Si usted está demasiado centrado en informar sobre respuestas muy específicas, puede perder la visión crítica que puede llegar a ser más útil que usted pensaba. Aunque las ideas pueden ser extrañas, también siguen siendo muy útiles.


El personal de IT no puede moverse fácilmente a los roles de análisis de datos

Una de las mayores preocupaciones en torno a los grandes proyectos de datos en 2017 es la escasez de datos de los científicos a menudo se informa en los medios de comunicación. Esta noticia ha llevado a muchos a creer que los analistas de datos sólo son buenos si tienen un fondo arraigado en la ciencia de los datos. En otras palabras, no se puede tomar algún profesional de TI que es la codificación o la gestión de máquinas virtuales y convertirlos en un experto en análisis. Si bien es cierto que la curva de aprendizaje para el análisis de datos es empinada, es lógico que cualquier persona con experiencia en TI empresarial (y tal vez introvertida) tenga una ventaja sobre otros que buscan entrar en el juego de análisis de datos.

Los resultados de la Analítica solo confirmarán lo que ya sabes

El viejo dicho "no sabes lo que no sabes" suena verdad en el mundo del análisis de datos. En muchos casos, los líderes empresariales sienten que son los que conocen íntimamente su negocio y su mercado. Por lo tanto, hay muy poco que se puede aprender de grandes ejercicios de análisis de datos. Esto es más un problema con romper el molde de la sabiduría convencional en el negocio que un mito verdadero con respecto a los datos grandes. En última instancia, se ha comprobado muchas veces que las organizaciones impulsadas por datos obtienen información clave del negocio que tiene el potencial de proporcionar verdaderas ventajas competitivas.

Te interesa: El rol del Big Data y la Analítica en la industria de la energía

Todas las plataformas de análisis son las mismas

Las plataformas de análisis son todas iguales. La diferencia está en lo que estás buscando. Estas declaraciones no podrían estar más lejos de la verdad y mostrar una falta de investigación en el campo de los grandes datos y análisis. La mejor manera de probar esto es pilotar varias plataformas usando los mismos datos y buscando las mismas respuestas. Probablemente se sorprenderá de lo diferentes que serán los resultados. Utilice esta información para encontrar el ajuste adecuado para sus datos y vertical del negocio.

El lago de datos es apenas un nombre de lujo para el almacén de datos

Los almacenes de datos empresariales existen desde hace mucho tiempo. Por lo tanto, cuando el data lake comenzó a surgir, muchos asumieron que esto era simplemente una palabra de moda utilizada para condimentar el concepto de EDW. Mientras que el data lake suena como un término inventado en la sala de conferencias de una empresa de marketing, hay diferencias claras entre EDW y los lagos de datos, en gran parte girando alrededor de los métodos de almacenamiento de datos estructurados y no estructurados.

Conclusión

Es importante ser capaz de separar el hecho de la ficción en este mundo de rápido crecimiento de TI empresarial. Creer en los mitos puede paralizar un departamento de TI en la celebración de demasiado tiempo en las tecnologías que realmente pueden impulsar un negocio hacia adelante. Por eso es tan crítico que como comunidad, identificamos y derribamos mitos en todas las tecnologías, incluyendo el Big Data.

Libros Big Data en PDF
1. Big Data en el Sector Financiero
2. Ejemplos prácticos de Big Data
Etiquetas big data libro pdf - big data libros pdf - libro big data español pdf - libros de big data en español - big data pdf español - descargar libro big data gratis - libro big data pdf - big data para dummies español pdf - big data el poder de los datos pdf - libros de big data en español pdf - big data español pdf - big data para directivos pdf - libro big data español - big data pdf - las bases de big data pdf - big data for dummies pdf español - big data for dummies español pdf - libros sobre big data en español - hadoop soluciones big data pdf - libros de big data pdf - big data para principiantes pdf - big data libros - libros de big data - libros sobre big data - libros big data en español

martes, 12 de septiembre de 2017

thumbnail

Big Data en las empresas

Big Data en las empresas

Big Data en las empresas


Los datos masivos, reunidos de la manera correcta, están ayudando a los negocios a obtener ideas nuevas e innovadoras. Andrew Liles, CTO de Tribal Worldwide explora este tema.

Aprovechar grandes datos utilizando AI vale la pena el esfuerzo; las empresas que no están adoptando estas tecnologías ya están rezagados en términos de productividad y pierden en la competencia

¿Por qué Big Data?

La última cosa que es ahora la inteligencia artificial (AI). Aunque AI ha existido por décadas, es sólo recientemente que ha progresado en entornos de consumo principales. Debido a su alto costo de entrada, esta industria ha estado dominada principalmente por marcas con bolsillos profundos y acceso a cantidades masivas de datos; eso es porque AI no es nada sin la otra frase de moda de hoy: grandes datos.

AI con datos limitados a menudo no es más que un conjunto de reglas, que devolverá respuestas rudimentarias. Los datos son fundamentales para ayudar a que los dispositivos de IA aprendan cómo piensan y sienten los seres humanos y también permiten la automatización del análisis de datos. Sin suficientes datos - la materia prima de AI - veríamos algo similar al terrible ejemplo de la ayuda "AI-powered" que era Clippy de Microsoft.

Sin embargo, con la reciente explosión de datos, los algoritmos ahora pueden ser entrenados para ofrecer un mejor resultado y ayudarnos a hacer nuestros trabajos de manera más eficiente.

Te interesa: El rol del Big Data y la analítica en la industria de la energía


Aplicaciones del Big Data

Un ejemplo de lo que puede hacer AI cuando funciona con Big Data es el servicio de traducción en constante evolución de Google. Hace más de diez años, Google pasó de un sistema basado en reglas a un sistema de aprendizaje estadístico basado en la IA, usando miles de millones de palabras de conversaciones reales y texto para construir un modelo de traducción más preciso. Sin embargo, eso fue sólo el comienzo.


Ahora las empresas de todas las industrias se están uniendo a los gustos de Google. Hoy en día, muchos minoristas de moda, como ASOS, están ofreciendo servicios impulsados ​​por AI para anticipar las necesidades del cliente y proporcionar mejores servicios.

Para ayudar a los clientes de ASOS a expresar su propio sentido del estilo, utilizan el software de reconocimiento de imágenes de AI como Wide Eyes, para analizar las fotos de los clientes, localizar artículos como sombreros, faldas y bolsos para recomendar colecciones relevantes dentro de su catálogo actual. Este análisis casi instantáneo se ha hecho posible mediante la formación del software con miles de imágenes.

Como se demostró anteriormente, el usuario experimenta los beneficios de utilizar Big Data para ayudar a los clientes a describir lo que quieren es evidente, pero eso es sólo el comienzo. La aplicación diversa de datos grandes a través de muchas industrias diferentes es interminable. Muchas marcas ahora están incluso utilizando datos grandes para ayudarles a tomar mejores decisiones de marketing mediante la creación de herramientas como los modelos de valor de la vida del cliente.

Utilizando AI y algoritmos de datos grandes - como el bosque aleatorio, la similitud de coseno y las redes neuronales recurrentes profundas - para analizar todos los posibles factores de influencia y los factores de retorno que harán el mayor impacto, diciéndole si debe gastar sus dólares de marketing para incentivar la recompra en determinados segmentos de clientes.

Te interesa: Qué es Big Data? Todo lo que necesitas saber

Cada una de estas aplicaciones de AI requiere una gran cantidad de datos para tener éxito. Los cinco grandes - Google, Apple, Facebook, Amazon y Microsoft - no solo tienen Big Data, sino que tienen petabytes de datos que registran todos nuestros movimientos digitales.

Dicho esto, los grandes datos y la inteligencia artificial no están fuera del alcance del resto de nosotros. No es sólo el volumen que importa, sino la calidad de "Big Data". Tomemos como ejemplo los conjuntos de datos disponibles a través de Transport for London; es una gran iniciativa para exponer sus datos de viaje histórico haciendo hermosas visualizaciones como el latido del tubo de Oliver O'Brien.

Sin embargo, esto por sí solo no le da mucha comprensión de lo que los clientes están experimentando, dónde van, la razón de los retrasos, los fracasos, etc Para obtener información interesante sobre el por qué, es necesario casar los datos con el contexto - , eventos y otros factores que podrían afectar el transporte.

Para aquellos de nosotros fuera de los cinco grandes, es demasiado tarde? ¿Tienen todos los datos grandes cosidos? No, hemos visto muchas grandes marcas (algunas de ellas descritas anteriormente) que se unen al juego Big Data.

Sin embargo, los datos deben ser retenidos y guardados, es un activo que debe ser reconocido en su balance general. Si se utiliza correctamente, podría darle una ventaja competitiva sobre los demás.

Explora: los últimos libros sobre Big Data y Analítica

¿Cómo procesa grandes datos?

Early Big Data utiliza técnicas como Map Reduce, pero los científicos necesitan herramientas de mayor nivel que requieren menos programación para establecer correlaciones entre diferentes conjuntos de datos, resolviendo problemas científicos, sociales o industriales.

Apache Spark es un líder en esta área, proporcionando formas sencillas y elegantes para expresar análisis complejos que se pueden ejecutar en pequeños conjuntos de datos de muestra rápidamente antes de ejecutar el análisis en grandes conjuntos de datos mediante la distribución de tareas sin esfuerzo a muchas máquinas.



Etiquetas big data libro pdf - big data libros pdf - libro big data español pdf - libros de big data en español - big data pdf español - descargar libro big data gratis - libro big data pdf - big data para dummies español pdf - big data el poder de los datos pdf - libros de big data en español pdf - big data español pdf - big data para directivos pdf - libro big data español - big data pdf - las bases de big data pdf - big data for dummies pdf español - big data for dummies español pdf - libros sobre big data en español - hadoop soluciones big data pdf - libros de big data pdf - big data para principiantes pdf - big data libros - libros de big data - libros sobre big data - libros big data en español


lunes, 11 de septiembre de 2017

thumbnail

Dónde comprar datos masivos? Aquí están los mayores brokers de datos de consumo

¿Dónde comprar datos masivos? Aquí están los mayores brokers de datos de consumo

big data brokers


Los datos son poder en la economía digital. Las corporaciones multinacionales han hecho que los datos de la agricultura sigan todo lo que hacemos - lo que compramos, con quién hablamos, dónde tomamos vacaciones - una estrategia empresarial básica.



El ritmo y la escala de esta agricultura de datos se ha acelerado sin duda de forma exponencial en los últimos años gracias a Internet, los medios de comunicación social y la gestación de la sociedad "siempre en línea". Pero estaba pasando mucho tiempo antes de que Facebook y Google estuvieran en la escena.

"Data Brokers" comenzó a construir bases de datos a mediados del siglo XX, para catalogarnos y nuestros hábitos de marketing, detección de fraude o puntuación de crédito. Y en la era de Internet, se han adaptado con entusiasmo para poder ingerir y procesar las corrientes de información mucho más ricas y más cargadas de información que ponemos a nuestra disposición hoy.

Te interesa: Qué es Big Data? Todo lo que necesitas saber

Aquí hay un resumen de algunas de las empresas que probablemente saben tanto, o más, acerca de nosotros como Google o Facebook, pero por lo general sabemos mucho menos sobre ellos.

Acxiom

Acxiom comenzó la vida como demografía, como un proyecto secundario de Charles Ward para recopilar datos para su uso en la política local. Descrito como "la empresa más grande de la que nunca has oído hablar", fue pionera en el modelo de negocio de recolección de datos sobre las personas, segmentándolas y vendiéndolas a otras empresas para utilizarlas en su comercialización. Gracias a las asociaciones con bancos y minoristas a principios de los años 80, se convirtió en un líder mundial en marketing directo y en marketing de datos.



Hoy en día, afirman tener datos sobre "todos, pero un pequeño porcentaje" de los hogares de EE.UU., y se dice que sus datos se utilizan para hacer el 12% de las ventas de marketing directo de la nación. La compañía ha sido criticada en particular por los informes de que la gente ha tenido dificultades para evitar que Acxiom utilice sus datos o para eliminar sus datos de los sistemas de Acxiom. Ha respondido a esto en los últimos años ofreciendo un "opt-out" global y dando a los consumidores alguna visibilidad sobre qué información en ellos se lleva a cabo, a través del sitio web aboutthedata.com.

Nielsen

Nielsen ha existido desde 1923 y se ha establecido como líder en investigación de mercado y calificaciones. Además del comportamiento de los consumidores en los Estados Unidos, el cual mide a través de su Programa Nacional de Consumidores, está activo en la recolección de datos sobre consumidores en más de 100 países. También fue pionero en las técnicas de medición de audiencia para audiencias de TV, música, radio y revistas que se han convertido en estándares de la industria. El año pasado, anunció planes para que su base de datos minorista - conocida como Consumer Packaged Goods (CPG) - esté disponible públicamente (a un costo) a gran escala, para permitir que otras empresas construyan aplicaciones basadas en los datos. Usted puede ver una interesante historia gráfica de la empresa aquí.

Experian

Experian, como se conoce, comenzó cuando una agencia de referencia de crédito estadounidense del mismo nombre fue adquirida en 1996 por especialistas en marketing directo del Reino Unido GUS, que había realizado ventas por correo con catálogos desde 1900. El grupo combinó la puntuación de crédito con la base de datos y la experiencia de marketing que había construido a lo largo de los años para comenzar a ofrecer sus servicios a través de múltiples industrias, inicialmente financiera y luego expandirse a todos los sectores. También comenzó a vender directamente a los consumidores - al ofrecer información sobre su propia solvencia crediticia sobre la base de datos recopilados por Experian y comprados a terceros. Esto era un movimiento astuto (algunos dirían cínico!), Ya que aprovechó la creciente conciencia pública de la recolección de datos corporativos que había comenzado a hacer titulares de noticias en todo el tiempo. La empresa se desembarcó en agua caliente con la comisión federal de comercio de los Estados Unidos sobre la forma en que se comercializó este servicio, ofreciendo una prueba gratuita que automáticamente (y con una advertencia insuficiente, se alegó) se convirtió en una suscripción pagada.

Te interesa: El rol del Big Data y la analítica en la industria de la energía

Equifax

Equifax es la compañía más antigua cubierta aquí, establecida en Georgia, EE.UU. en 1899. Referencias de crédito fueron su negocio principal desde el principio, así como proporcionar datos a las compañías de seguros para evaluar el riesgo y fijar las primas. En la década de 1970, la empresa fue criticada basándose en la percepción de que estaba vendiendo datos sobre el comportamiento personal, como la orientación sexual, jugando junto con una teoría de que estas características podrían predecir la probabilidad de que las personas paguen sus préstamos. Hoy se dice que Equifax tiene información sobre 800 millones de personas en todo el mundo, con ingresos de 3.100 millones de dólares el año pasado.



Corelogic

Corelogic principalmente presta servicios para las industrias hipotecaria e inmobiliaria. Es más joven que los otros negocios cubiertos aquí, que se formó cuando First American Corporation adquirió la propiedad de los datos de bienes raíces de Experian en los años noventa. Hoy en día proporciona analítica para la industria hipotecaria sobre la base de datos que recoge de fuentes abiertas, su propia base de clientes, y traído de otros corredores. Un informe de la FTC de EE.UU. en 2014 encontró que tenía datos sobre 795 millones de transacciones de propiedad histórica, y 93 millones de solicitudes de hipoteca. El mismo informe lo nombra como uno de los principales especialistas de corretaje de datos (incluyendo Acxiom, también cubierto aquí) liderando el mercado en una industria que operaba en gran parte con poca conciencia pública de sus prácticas generales.

Conoce los últimos libros de Big Data actualmente en el mercado.




Etiquetas big data libro pdf - big data libros pdf - libro big data español pdf - libros de big data en español - big data pdf español - descargar libro big data gratis - libro big data pdf - big data para dummies español pdf - big data el poder de los datos pdf - libros de big data en español pdf - big data español pdf - big data para directivos pdf - libro big data español - big data pdf - las bases de big data pdf - big data for dummies pdf español - big data for dummies español pdf - libros sobre big data en español - hadoop soluciones big data pdf - libros de big data pdf - big data para principiantes pdf - big data libros - libros de big data - libros sobre big data - libros big data en español


sábado, 9 de septiembre de 2017

thumbnail

Qué es el Big Data? Todo lo que necesitas saber

Qué es el Big Data? Todo lo que necesitas saber 

Que es el big data


Todos los días los seres humanos comen, duermen, trabajan, juegan y producen datos, muchos y muchos datos. Según IBM, la raza humana genera 2.5 quintilones (25.000 millones de millones) de bytes de datos cada día. Ese es el equivalente a una pila de DVDs que llegan a la luna y la espalda, y abarca todo, desde los textos que enviamos y las fotos que subimos a las métricas de sensores industriales y las comunicaciones de máquina a máquina.



Esa es una gran razón por la cual el "Big Data" se ha convertido en un eslogan común. En pocas palabras, cuando las personas hablan de datos masivos, significan la capacidad de tomar grandes porciones de estos datos, analizarlos y convertirlos en algo útil.

¿Exactamente qué es el Big Data?
Se trata de: tomando enormes cantidades de datos, a menudo de múltiples fuentes
y no sólo un montón de datos, pero diferentes tipos de datos-a menudo, múltiples tipos de datos al mismo tiempo, así como los datos que cambiaron con el tiempo-que no necesita ser transformado por primera vez en un formato específico o hecho coherente y analizar los datos de una manera que permita el análisis continuo de los mismos conjuntos de datos para diferentes propósitos y hacer todo eso rápidamente, incluso en tiempo real.

En los primeros tiempos, la industria creó un acrónimo para describir tres de estas cuatro facetas: VVV, para el volumen (las grandes cantidades), la variedad (los diferentes tipos de datos y el hecho de que los datos cambian con el tiempo) y la velocidad velocidad).

Grandes datos frente al almacén de datos

Lo que el acrónimo VVV omitió fue la noción clave de que los datos no necesitaban ser cambiados (transformados) permanentemente para ser analizados. Ese análisis no destructivo significaba que las organizaciones podían analizar los mismos conjuntos de datos para diferentes propósitos y analizar datos de fuentes reunidas para diferentes propósitos.

Por el contrario, el almacén de datos fue diseñado específicamente para analizar datos específicos para fines específicos, y los datos fueron estructurados y convertidos a formatos específicos, con los datos originales esencialmente destruidos en el proceso, para ese propósito específico -y ningún otro- en qué se llamaba extraer, transformar y cargar (ETL). El enfoque ETL de data warehousing limitó el análisis a datos específicos para análisis específicos. Eso estaba bien cuando todos sus datos existían en sus sistemas de transacción, pero no tanto en el mundo conectado a Internet de hoy con datos de todas partes.

Te interesa: El rol del Big Data y la analítica en la industria de la energía


Sin embargo, no piense por un momento que los datos grandes hacen que el almacén de datos sea obsoleto. Los grandes sistemas de datos le permiten trabajar con datos no estructurados en gran medida, pero el tipo de resultados de la consulta que obtiene no está ni cerca de la sofisticación del data warehouse. Después de todo, el almacén de datos está diseñado para profundizar en los datos, y puede hacerlo precisamente porque ha transformado todos los datos en un formato coherente que le permite hacer cosas como construir cubos para profundizar drilldown? Los proveedores de data warehousing han pasado muchos años optimizando sus motores de consulta para responder a las consultas típicas de un entorno empresarial.

Los datos grandes permiten analizar mucho más datos de más fuentes, pero con menos resolución. Por lo tanto, estaremos viviendo con los almacenes de datos tradicionales y el nuevo estilo por algún tiempo por venir.

Los avances tecnológicos detrás de los grandes datos Para lograr las cuatro facetas necesarias de grandes volúmenes de datos, variedad, uso no destructivo y velocidad, se requieren varios avances tecnológicos, incluido el desarrollo de un sistema de archivos distribuido (Hadoop), un método para dar sentido a datos dispares a la volada Google MapReduce y más recientemente Apache Spark), y una infraestructura de nube / Internet para acceder y mover los datos según sea necesario.

Hasta hace aproximadamente una docena de años, no era posible manipular más de una cantidad relativamente pequeña de datos en un momento dado. Limitaciones en la cantidad y ubicación del almacenamiento de datos, poder de cálculo y la capacidad de manejar los dispares formatos de datos de múltiples fuentes hicieron la tarea casi imposible.

Entonces, alrededor de 2003, los investigadores de Google desarrollaron MapReduce. Esta técnica de programación simplifica el trato con grandes conjuntos de datos, primero asignando los datos a una serie de pares clave / valor, luego realizando cálculos sobre claves similares para reducirlos a un solo valor, procesando cada trozo de datos en paralelo en cientos o miles de valores bajos -cost máquinas. Este paralelismo masivo permitió a Google generar resultados de búsqueda más rápidos a partir de volúmenes cada vez mayores de datos.


Alrededor de 2003, Google creó los dos avances que hicieron posible grandes datos: Uno era Hadoop, que consta de dos servicios clave:

almacenamiento de datos confiable utilizando el Sistema de Archivos Distribuidos Hadoop (HDFS)
procesamiento de datos paralelo de alto rendimiento usando una técnica llamada MapReduce.
Hadoop se ejecuta en una colección de productos básicos, servidores compartidos. Puede agregar o quitar servidores en un clúster de Hadoop a voluntad; el sistema detecta y compensa problemas de hardware o del sistema en cualquier servidor. Hadoop, en otras palabras, es auto-sanación. Puede entregar datos y ejecutar trabajos de procesamiento de gran escala y alto rendimiento a pesar de los cambios o fallas del sistema.

Aunque Hadoop proporciona una plataforma de almacenamiento de datos y procesamiento paralelo, el valor real proviene de complementos, integración cruzada y implementaciones personalizadas de la tecnología. Para ello, Hadoop ofrece subproyectos, que añaden funcionalidad y nuevas capacidades a la plataforma:

Te interesa: El discurso de Narendra Modi sobre el análisis de datos

Hadoop Common: Las utilidades comunes que soportan los otros subproyectos de Hadoop.
Chukwa: Un sistema de recolección de datos para la gestión de grandes sistemas distribuidos.
HBase: Una base de datos distribuida y escalable que admite el almacenamiento estructurado de datos para tablas grandes.
HDFS: Un sistema distribuido que proporciona acceso de alto rendimiento a los datos de la aplicación.
Hive: Una infraestructura de data warehouse que proporciona resumen de datos y consultas ad hoc.
MapReduce: Un marco de software para el procesamiento distribuido de grandes conjuntos de datos en clústeres de computación.
Pig: Un lenguaje de datos de alto nivel y un marco de ejecución para el cálculo paralelo.
ZooKeeper: Un servicio de coordinación de alto rendimiento para aplicaciones distribuidas.
La mayoría de las implementaciones de una plataforma Hadoop incluyen al menos algunos de estos subproyectos, ya que a menudo son necesarios para explotar grandes datos. Por ejemplo, la mayoría de las organizaciones optan por utilizar HDFS como el sistema de archivos distribuido principal y HBase como una base de datos, que puede almacenar miles de millones de filas de datos. Y el uso de MapReduce o el Spark más reciente es casi un dado ya que aportan velocidad y agilidad a la plataforma Hadoop.

Con MapReduce, los desarrolladores pueden crear programas que procesen cantidades masivas de datos no estructurados en paralelo a través de un clúster distribuido de procesadores o equipos autónomos. El marco MapReduce se divide en dos áreas funcionales:


Map, una función que distribuye el trabajo a diferentes nodos del clúster distribuido.
Reduce, una función que agrupa el trabajo y resuelve los resultados en un solo valor.
Una de las principales ventajas de MapReduce es que es tolerante a fallos, lo que logra mediante el monitoreo de cada nodo en el clúster; se espera que cada nodo informe periódicamente con las actualizaciones de trabajo y estado completadas. Si un nodo permanece en silencio durante más tiempo que el intervalo esperado, un nodo maestro anota y reasigna el trabajo a otros nodos.

Apache Hadoop, un framework de código abierto que utiliza MapReduce en su núcleo, fue desarrollado dos años después. Originalmente construido para indexar el ahora-oscuro motor de búsqueda de Nutch, Hadoop ahora se utiliza en virtualmente cada industria importante para una amplia gama de trabajos grandes de los datos. Gracias al sistema de archivos distribuidos de Hadoop ya YARN (Yet Another Resource Negotiator), el software permite a los usuarios tratar conjuntos de datos masivos repartidos por miles de dispositivos como si estuvieran todos en una enorme máquina.

En 2009, los investigadores de la Universidad de California en Berkeley desarrollaron Apache Spark como alternativa a MapReduce. Debido a que Spark realiza cálculos en paralelo utilizando el almacenamiento en memoria, puede ser hasta 100 veces más rápido que MapReduce. Spark puede funcionar como un marco independiente o dentro de Hadoop.

Incluso con Hadoop, todavía necesita una forma de almacenar y acceder a los datos. Normalmente se realiza a través de una base de datos NoSQL como MongoDB, como CouchDB, o Cassandra, que se especializan en el manejo de datos no estructurados o semi-estructurados distribuidos a través de múltiples máquinas. A diferencia de los almacenes de datos, donde las cantidades masivas y los tipos de datos convergen en un formato unificado y se almacenan en un solo almacén de datos, estas herramientas no cambian la naturaleza o ubicación subyacente de los datos. datos de sensores y se pueden almacenar prácticamente en cualquier lugar.

Aún así, tener cantidades masivas de datos almacenados en una base de datos NoSQL entre clústeres de máquinas no es muy bueno hasta que hagas algo con él. Ahí es donde entra el análisis de datos de gran tamaño. Herramientas como Tableau, Splunk y Jasper BI permiten analizar esos datos para identificar patrones, extraer significado y revelar nuevas ideas. Lo que hagas desde allí variará dependiendo de tus necesidades.



Etiquetas big data libro pdf - big data libros pdf - libro big data español pdf - libros de big data en español - big data pdf español - descargar libro big data gratis - libro big data pdf - big data para dummies español pdf - big data el poder de los datos pdf - libros de big data en español pdf - big data español pdf - big data para directivos pdf - libro big data español - big data pdf - las bases de big data pdf - big data for dummies pdf español - big data for dummies español pdf - libros sobre big data en español - hadoop soluciones big data pdf - libros de big data pdf - big data para principiantes pdf - big data libros - libros de big data - libros sobre big data - libros big data en español


miércoles, 6 de septiembre de 2017

thumbnail

El discurso de Narendra Modi sobre análisis de datos


El discurso de Narendra Modi sobre análisis de datos

Para facilitar la tarea a los contribuyentes honestos y dificultarla para los evasores de impuestos, el Primer Ministro Narendra Modi ha sugerido que el departamento de impuestos sobre la renta reduzca la interfaz humana y aumente el uso de la tecnología. Hablando en una conferencia de funcionarios de impuestos ayer, PM Modi les pidió que utilizaran análisis de datos para realizar un seguimiento proactivo y determinar los ingresos no declarados y la riqueza.


El departamento de impuestos ya ha comenzado la segunda parte de la desmonetización mediante el escrutinio de depósitos en efectivo sospechosos y las transacciones realizadas después de noviembre del año pasado, cuando se anunció la prohibición de notas.

Según los expertos, el análisis de datos puede establecer vínculos entre las personas, sus ingresos e inversiones y puede elevar las banderas rojas. Mediante el uso de herramientas avanzadas para escudriñar tanto los datos estructurados como los no estructurados, el gobierno puede analizar y establecer relaciones entre diferentes entidades o personas que van a varios niveles, basándose en diferentes conjuntos de datos tales como direcciones, llamadas telefónicas, interacciones de redes sociales, devoluciones.

Te podría interesar: El rol del Big Data en la industria de la energía

¿Alguna vez se ha preguntado cómo los sitios web le muestran anuncios que coinciden con sus intereses? Siguen sus búsquedas y comportamiento en Internet. Los datos financieros también pueden someterse a un escrutinio similar pero más cercano si se despliega el análisis de datos para detectar discrepancias fiscales.

Robot-auditorias -o computadoras que comparan su información tributaria con datos de terceros- pueden traer a casi todos los contribuyentes individuales bajo escrutinio.

Aunque el departamento de impuestos que tamiza a través de toneladas de datos generados después de la desmonetización todavía se limita al escrutinio básico, como buscar direcciones comunes o números de teléfono, con análisis de datos puede profundizar en las transacciones financieras. Esto ya está ocurriendo en los Estados Unidos.

Los siguientes escenarios ya se han convertido en realidad en los EE.UU. donde el departamento de impuestos hace uso extensivo de análisis de datos:


1. Testificas contra ti mismo en medios sociales
Si obtiene una deducción fiscal mostrando visitas a Singapur y Dubai como visitas de negocios, los datos masivos pueden compararlo con la información que publicó en las redes sociales. Si has publicado fotos que muestran que te diviertes todo el tiempo, puedes ser llevado a escrutinio. En los EE.UU., las autoridades fiscales pueden leer sus mensajes de correo electrónico y mensajes de redes sociales.

2. Sus transacciones de tarjeta
En los EE.UU., las empresas de pago como Paypal también están obligados a compartir toda la información del usuario con el departamento de impuestos. Las auditorias robotizadas comparan sus datos de declaración de impuestos con información de terceros y genera una alarma para los funcionarios de impuestos si encuentra alguna irregularidad.

Te podría interesar: Cómo evitar el abismo del Big Data

3. Micro-datos de viajes
Su información incluso en las puertas de peaje puede aterrizar con las autoridades fiscales, dándole pistas sobre su paradero exacto en un período determinado para que esta información se puede comparar con sus reclamaciones en la devolución.


4. Construir su ADN financiero
En Estados Unidos, los análisis de datos se utilizan para clasificar toda la información recopilada de terceros como eBay, Facebook y compañías de tarjetas de crédito en 32.000 categorías de metadatos con un millón de atributos únicos. Esta enorme capacidad para analizar datos puede ayudar a las autoridades fiscales a crear su tipo de ADN financiero, un almacén de información sobre sus hábitos financieros, comportamiento y acciones recolectadas de los datos en línea. Si su declaración de impuestos está en gran diferencia con su ADN financiero, usted estará para arriba para el escrutinio manual.




Etiquetas big data libro pdf - big data libros pdf - libro big data español pdf - libros de big data en español - big data pdf español - descargar libro big data gratis - libro big data pdf - big data para dummies español pdf - big data el poder de los datos pdf - libros de big data en español pdf - big data español pdf - big data para directivos pdf - libro big data español - big data pdf - las bases de big data pdf - big data for dummies pdf español - big data for dummies español pdf - libros sobre big data en español - hadoop soluciones big data pdf - libros de big data pdf - big data para principiantes pdf - big data libros - libros de big data - libros sobre big data - libros big data en español


lunes, 4 de septiembre de 2017

thumbnail

Cómo evitar el abismo del Big Data

Cómo evitar el abismo del Big Data

Big Data Investigaciones


¿Por qué tantas organizaciones fallan en la conexión de analítica a la acción, y cómo equipar mejor a su equipo para el éxito al hacer la transición siempre crítica hacia los datos masivos?.


Ahora, los beneficios empresariales del Big Data han sido martillados; ahora, es el momento de desmitificar grandes datos por hablar de sus retos y volver a examinar los marcos actuales y los procesos de negocio. Entonces, ¿por qué el 71% de los que intentan el salto analítico no obtienen resultados reales?

Parte de ella se puede explicar por donde estamos en la línea de tiempo de la evolución de los datos: los años formativos, Big Data 1.0. Al igual que los primeros días de Internet, hay dolores de crecimiento asociados con la navegación a través de aguas tecnológicamente inexploradas. Podemos entender el potencial transformador de los datos masivos, pero nuestras herramientas y conjuntos de habilidades predicen el nuevo enfoque analítico.

Deficiencias de las herramientas tradicionales

Demasiadas empresas se ven obstaculizadas por los sistemas heredados, las aplicaciones obsoletas y los métodos de almacenamiento de décadas de antigüedad. Intentar trabajar con el Big Data en una hoja de cálculo es tan ineficiente como tratar de arreglar un coche con un solo destornillador.

Te interesa: El rol del Big Data y la analítica en la industria de la energía


Las cadenas de suministro externalizadas y de múltiples niveles de hoy requieren un nuevo sistema con datos de gran alcance y la capacidad de procesarlo. Excel y sistemas ERP carecen de la capacidad de respuesta, así como los algoritmos para sopesar varios KPIs a través de los departamentos, y mucho menos entre los socios comerciales o el mercado global.

Afortunadamente, existe ahora una nueva generación de software analítico que se basa totalmente en la gestión de complejas cadenas de suministro a través de datos conectados. Muchas de estas soluciones son funcionalmente una gran mejora con la adopción de la computación en la nube, lo que hace que el almacenamiento sea barato y más fácil de escalar.

En el mundo de los grandes datos, no hay lugar para silos separados de información. Las empresas que pretendan subir rápidamente a través de esta curva de aprendizaje deben adquirir un nuevo conjunto de herramientas que no sólo sea lo suficientemente robusto como para manejar el volumen de datos, sino lo suficientemente flexible como para permitir la colaboración de conjuntos de datos clave a través y más allá de la empresa.

... Pero las herramientas no lo son todo

Dado que las herramientas están destinadas a ser utilizadas por los seres humanos, la forma en que se utilizan juega un papel importante en el resultado de los datos. Un error común que atrofia la capacidad de una organización para extraer valor de sus analíticas es donde el tomador de decisiones se posiciona en el proceso. Muchas veces, usan datos para apoyar sus propias decisiones en lugar de dejar que ilumine una idea imparcial, dirección o conclusión. Una visión valiosa viene de dejar que los datos hablen por sí mismos.

Otro impulso común para las empresas que trabajan con datos por primera vez es detectar el patrón estadístico y luego ir a buscar un problema que resuelve. En su lugar, el enfoque debe comenzar con el problema y asignar el problema a los datos. Si el problema se comparte entre varias unidades organizativas, combine y analice diferentes conjuntos de datos para descubrir conocimientos ricos en contexto.

Si usted no tiene una estrategia de datos sólida en su lugar, comience por hacer preguntas: ¿Qué pasaría si elevamos el precio del producto en $ 1? ¿Cuándo sería el mejor momento para lanzar una nueva función? ¿Cuáles fueron los efectos cuantificables de cambiar un distribuidor? Algunas preguntas pueden ser demasiado complejas para asignar dependiendo de qué tan lejos se encuentre su empresa en su adopción de datos.


El éxito en los datos se basa en un cambio cultural

Todos los datos del mundo no son iguales a la productividad basada en datos. Al igual que cualquier otro salto tecnológico importante en la historia, los grandes datos vienen con una dimensión social: Requiere repensar la jerarquía tradicional de arriba hacia abajo de una organización, cómo evaluamos el desempeño empresarial y lo que significa para nuestras funciones y responsabilidades ocupacionales . Requiere de los primeros defensores, el apoyo del liderazgo, la participación activa, y la voluntad de cambiar para tener éxito.

Te interesa: Big Data, el nuevo foco de investigación

El ex científico jefe de Amazon Andreas Weigend lo establece simplemente con sus nueve reglas para los datos masivos. De la lista, más de la mitad son acerca de cómo ajustar la cultura en torno a cómo vemos los datos:

- Colectar todo
- Empezar con el problema, no con los datos
- Compartir datos para obtener datos
- Basar la ecuación de su negocio en métricas centradas en el cliente
- Eliminar restricciones irrelevantes
- Abrazar la transparencia
- Hacer trivialmente fácil para las personas conectarse, contribuir y colaborar
- Deje que la gente haga en lo que la gente es buena, y las computadoras hagan lo que para ellas son buenas
- No culparás a la tecnología por las barreras de las instituciones y la sociedad

¿Cuáles son sus mayores retos en la gestión de datos masivos? ¿Cuáles son sus mejores prácticas?

Háganos saber en la sección de comentarios.



Etiquetas big data libro pdf - big data libros pdf - libro big data español pdf - libros de big data en español - big data pdf español - descargar libro big data gratis - libro big data pdf - big data para dummies español pdf - big data el poder de los datos pdf - libros de big data en español pdf - big data español pdf - big data para directivos pdf - libro big data español - big data pdf - las bases de big data pdf - big data for dummies pdf español - big data for dummies español pdf - libros sobre big data en español - hadoop soluciones big data pdf - libros de big data pdf - big data para principiantes pdf - big data libros - libros de big data - libros sobre big data - libros big data en español


sábado, 2 de septiembre de 2017

thumbnail

Big Data, el nuevo foco de investigación


Un nuevo instituto de la Universidad de Wisconsin-Madison tratará de avanzar una de las tendencias tecnológicas más influyentes de la era moderna: la ciencia de datos masivos.


"Los datos masivos" es el eslogan para las partes de la informática que se ocupan de grandes datos de información. En las últimas dos décadas, los datos masivos han ayudado a cambiar casi todos los campos académicos e industriales imaginables. En astronomía, los investigadores pueden utilizar herramientas de datos masivos para analizar datos de telescopios para recopilar nuevos conocimientos sobre las estrellas. En política, los agentes del partido han utilizado un gran análisis de datos para orientar más eficazmente a los votantes durante las campañas.

El Instituto de Fundaciones en Ciencias de la Información, que será parte de los Institutos de Wisconsin para el Descubrimiento, volverá a examinar el núcleo de las matemáticas, las estadísticas y la informática que hacen posible la ciencia de datos masivos. La misión final será llegar a nuevas formas de utilizar de manera más eficiente y eficaz grandes conjuntos de datos.

Te interesa: El rol del Big Data y la analítica en la industria de la energía

Stephen Wright, profesor de ciencias de la computación en la universidad, dirige a los 14 miembros de la facultad detrás de la nueva iniciativa. Dijo que los grandes datos se enfrentan a algunos desafíos inminentes que harán revisar los fundamentos necesarios.

Por un lado, los grandes datos son cada vez mayores. "El tamaño de los conjuntos de datos sigue explotando", dijo Wright. "Es difícil desarrollar algoritmos y marcos computacionales para mantenerse al día con esa escala".
Como es, hay muchos aspectos de grandes conjuntos de datos con los que luchan las metodologías actuales, dijo Wright: "Muchos de los datos son realmente ruidosos. Mucho de eso es muy confuso. Mucho falta." También hay límites sobre cómo pueden convertirse en poderosas computadoras. Apenas dentro de los cinco años pasados, los adelantos en el desarrollo del procesador de computadora se han retardado. "El procesamiento de datos y el análisis de datos es una tarea muy intensa", dijo Wright. "El hecho de que las computadoras hayan dejado de mejorar tan rápidamente es algo que debemos considerar".

Además de Wright, la lista del instituto incluirá profesores de UW que tienen registros de innovación a través de la ciencia de datos.

Robert Nowak, un profesor de ingeniería, ha utilizado grandes datos para crear una aplicación que traza sabores de cerveza para predecir con precisión qué tipos de cerveza le gustará a una persona - como Pandora, pero para IPAs y lagers en lugar de música. Sebastian Roch, un profesor de matemáticas, ha hecho un chapoteo en "biología computacional", mapeando patrones complejos de evolución entre especies. Rebecca Willett, profesora asociada de ingeniería eléctrica e informática, ha trabajado a la vanguardia de la imagenología médica.
Wright dijo que se enfocarían en tres áreas de investigación para la primera fase de su trabajo: la expresión de grandes problemas de datos como declaraciones matemáticas, representando gráficamente grandes problemas de datos y buscando mejores formas de recopilar datos.

"No intentamos mirar el conjunto de datos completo", explicó Wright, con respecto al enfoque en la adquisición de datos. "Tratamos de seleccionar pequeñas cantidades de ella, y sólo mira eso, en lugar de elegir al azar, puedes ser inteligente".

El grupo ha recibido una pequeña donación de la National Science Foundation para comenzar su trabajo. Si el instituto hace incursiones, dijo Wright, la esperanza es que consiga más fondos de la NSF para crecer en una empresa más grande que podría trabajar con otros grupos alrededor del mundo en la innovación de la ciencia de la información.




Etiquetas big data libro pdf - big data libros pdf - libro big data español pdf - libros de big data en español - big data pdf español - descargar libro big data gratis - libro big data pdf - big data para dummies español pdf - big data el poder de los datos pdf - libros de big data en español pdf - big data español pdf - big data para directivos pdf - libro big data español - big data pdf - las bases de big data pdf - big data for dummies pdf español - big data for dummies español pdf - libros sobre big data en español - hadoop soluciones big data pdf - libros de big data pdf - big data para principiantes pdf - big data libros - libros de big data - libros sobre big data - libros big data en español


thumbnail

El rol del Big Data y la Analítica en la industria de la energía


La reducción del consumo de energía, la búsqueda de nuevas fuentes de energía renovable y el aumento de la eficiencia energética son objetivos integrales de Big Data para proteger el medio ambiente y sostener el crecimiento económico



Grandes volúmenes de datos en movimiento son cada vez más monitoreados y analizados en tiempo real, lo que ayuda en el logro de estos objetivos. Muchas grandes organizaciones y empresas utilizan diferentes medidas para asegurarse de que tienen los recursos energéticos que necesitan hoy y en el futuro. Las fuentes de energía no tradicionales, como las granjas solares, las turbinas eólicas y la energía de las olas, están llegando a ser opciones más realistas, ya que los precios y la escasez de combustibles fósiles siguen siendo un problema.

Al igual que numerosas industrias, Big Data Science transforma la energía vertical, ofreciendo ideas para reducir los costos en los mercados bajos, así como permitir a los productores de petróleo ajustarse a las demandas en tiempos de auge. La reciente caída de los precios del petróleo ha golpeado duramente la economía del mundo. Con grandes fluctuaciones en los precios, así como el alto costo de los proyectos de energía, la información de calidad más que nunca importaba más. 
El Big Data podría utilizarse para aumentar la eficiencia energética a medida que las organizaciones comienzan a utilizar datos de transmisión para aumentar la eficiencia energética. Por ejemplo, una gran universidad monitorea la transmisión de datos sobre su uso de energía e incorpora datos meteorológicos para realizar ajustes en tiempo real en la utilización y producción de energía.



El campo de la energía utiliza la ciencia de los datos para reducir costos, minimizar el riesgo y optimizar las inversiones. Minimizar los costos con la ciencia de los datos es una aplicación popular en la industria de la energía. La optimización de las decisiones de inversión toma varias formas, como ayudar a los inversores y un mejor recurso interno. Además, la ciencia de los datos contribuye a mejorar la seguridad pública a través de una mejor supervisión y monitoreo.
Big Data es valioso por numerosas razones. En primer lugar, proporciona al campo de energía información y esto siempre es valioso cuando se usa correctamente. Actualmente se utiliza para aumentar la experiencia del cliente, maximizar los beneficios y mejorar la eficiencia. Los medidores inteligentes y los sistemas de información meteorológica en tiempo real son útiles en la recopilación de datos, la toma de decisiones y la mejora de la fiabilidad. Además, permite a los inversionistas comprender el impacto de la respuesta del cliente, los ciclos de inversión de capital, la volatilidad del precio del combustible y otros factores que influyen en las decisiones de inversión. El verdadero valor de Big Data es en realidad demasiado grande para poder comprenderlo plenamente, ya que cada vez hay más datos disponibles, serían aquellas industrias y negocios capaces de aprovechar la información y darle sentido a la misma que obtendría los beneficios y se mantendría por delante de competencia.
Los miembros de una comunidad de negocios comparten y analizan colectivamente los datos de uso de energía de transmisión. Esto permite a las organizaciones de la comunidad utilizar la energía de manera más eficiente y minimizar los costos de energía. La transmisión de datos les permite mantener las fichas de la oferta y la demanda y asegurarse de que los cambios en la demanda se anticipan y en equilibrio con la oferta. 

Big Data es una gran herramienta para el avance de la producción de fuentes alternativas de energía. Se espera que el uso de la analítica y la ciencia de datos crezca en el campo de la energía. En un escenario de bajo precio del petróleo, la administración buscaría información sobre la reducción de costos a partir de los datos. En los períodos de crecimiento, la ciencia de los datos guiaría la toma de decisiones de gestión con mejores perspectivas de mejorar la producción y adaptarse a la demanda del mercado.





Etiquetas big data libro pdf - big data libros pdf - libro big data español pdf - libros de big data en español - big data pdf español - descargar libro big data gratis - libro big data pdf - big data para dummies español pdf - big data el poder de los datos pdf - libros de big data en español pdf - big data español pdf - big data para directivos pdf - libro big data español - big data pdf - las bases de big data pdf - big data for dummies pdf español - big data for dummies español pdf - libros sobre big data en español - hadoop soluciones big data pdf - libros de big data pdf - big data para principiantes pdf - big data libros - libros de big data - libros sobre big data - libros big data en español