Sie sind auf Seite 1von 7

¿Que es la nube?

Pese a que el término “nube” no apareció hasta la década de 1990, algunos pioneros
de la computación previeron lo que ocurriría con las redes computacionales ya en
1960. J.C.R. Licklider (que participó en el desarrollo de ARPANET) y John McCarthy
(quien acuñó el término “inteligencia artificial”) fueron dos de los principales previsores
de lo que se convertiría luego en la nube.
Licklider concibió las primeras ideas de una red computacional global en 1962, en
discusiones sobre el concepto de “Red Computacional Intergaláctica”. Estas ideas
contenían casi todo lo que es internet hoy. Licklider aplicó el concepto en ARPANET y
plasmó su visión en diferentes documentos, en los que describió aplicaciones en la red,
predijo el uso de redes para soportar comunidades de intereses comunes, y la
colaboración entre personas sin importar la ubicación.
McCarthy en tanto opinaba que “la computación algún día estará organizada como un
servicio público”, así como la luz o el agua. Aunque el germen de la idea estaba
plantado en la década de 1960, no sería sino hasta los 90’s cuando se empezó a usar
la palabra “nube” para referirse a todo eso.
La definición de la nube puede parecer poco clara, pero, básicamente, es un término
que se utiliza para describir una red mundial de servidores, cada uno con una función
única. La nube no es una entidad física, sino una red enorme de servidores remotos de
todo el mundo que están conectados para funcionar como un único ecosistema. Estos
servidores están diseñados para almacenar y administrar datos, ejecutar aplicaciones o
entregar contenido o servicios, como streaming de vídeos, correo web, software de
ofimática o medios sociales. En lugar de acceder a archivos y datos desde un equipo
personal o local, accede a ellos en línea desde cualquier dispositivo conectado a
Internet, es decir, la información está disponible dondequiera que vaya y siempre que la
necesite.
Las empresas utilizan cuatro métodos diferentes para implementar recursos en la nube.
Hay una nube pública, que comparte recursos y ofrece servicios al público a través de
Internet; una nube privada, que no se comparte y ofrece servicios a través de una red
interna privada, normalmente hospedada en el entorno local; una nube híbrida, que
comparte servicios entre nubes públicas y privadas, según su finalidad; y una nube
comunitaria, que comparte recursos solo entre organizaciones, por ejemplo, con
instituciones gubernamentales
1.¿Qué es Big Data?
Desde la escritura cuneiforme, el más antiguo sistema de escritura conocido hasta la
fecha, hasta los centros de datos modernos, la raza humana siempre ha recopilado
información. Es más, se prevé que, en 2020, nuestra civilización habrá generado 40
zettabytes de información, lo que equivale a 57 veces el número de granos de arena
presentes en todas las playas del mundo
Con ese ímpetu Google presentó en 2004, el otro componente básico que hoy en día
aún forma parte de las plataformas Big Data: un nuevo paradigma en procesamiento
distribuido al que llamó Map & Reduce.
Más tarde se revela el Cloud Bigtable que es el servicio de base de datos de Big Data
NoSQL de Google, al que muchos consideran el precursor de los almacenes de datos
NoSQL tipo Cassandra, HBase… otras de las piezas destacadas que conforman el
universo Big Data.
Google ha seguido enriqueciendo el panorama Big Data con nuevas invenciones, pero
si importante fue Google, tanto o más fueron los ingenieros de Apache Doug Cutting y
Mike Cafarella que alrededor de 2006 llevaron los paradigmas de Google a la
culminación de la primera plataforma Big Data Open Source a la que
llamaron Hadoop y que hoy en día sigue siendo la base de la mayor parte de sistemas
Big Data y sobre la que ha crecido un enorme ecosistema de herramientas que lo
utilizan como su base.
Cuando hablamos de Big Data nos referimos a conjuntos de datos o combinaciones de
conjuntos de datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de
crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis
mediante tecnologías y herramientas convencionales, tales como datos relacionales y
estadísticas convencionales o paquetes de visualización, dentro del tiempo necesario
para que sean útiles.
Aunque el tamaño utilizado para determinar si un conjunto de datos determinado se
considera Big Data no está firmemente definido y sigue cambiando con el tiempo, la
mayoría de los analistas y profesionales actualmente se refieren a conjuntos de datos
que van desde 30-50 Terabytes a varios Petabytes.
La naturaleza compleja del Big Data se debe principalmente a la naturaleza no
estructurada de gran parte de los datos generados por las tecnologías modernas, como
los web logs, la identificación por radiofrecuencia (RFID), los sensores incorporados en
dispositivos, la maquinaria, los vehículos, las búsquedas en Internet, las redes sociales
como Facebook, computadoras portátiles, teléfonos inteligentes y otros teléfonos
móviles, dispositivos GPS y registros de centros de llamadas.
En la mayoría de los casos, con el fin de utilizar eficazmente el Big Data, debe
combinarse con datos estructurados (normalmente de una base de datos relacional) de
una aplicación comercial más convencional, como un ERP (Enterprise Resource
Planning) o un CRM (Customer Relationship Management).
2. ¿Por qué el Big Data es tan importante?
Lo que hace que Big Data sea tan útil para muchas empresas es el hecho de que
proporciona respuestas a muchas preguntas que las empresas ni siquiera sabían que
tenían. En otras palabras, proporciona un punto de referencia. Con una cantidad tan
grande de información, los datos pueden ser moldeados o probados de cualquier
manera que la empresa considere adecuada. Al hacerlo, las organizaciones son
capaces de identificar los problemas de una forma más comprensible.
La recopilación de grandes cantidades de datos y la búsqueda de tendencias dentro de
los datos permiten que las empresas se muevan mucho más rápidamente, sin
problemas y de manera eficiente. También les permite eliminar las áreas problemáticas
antes de que los problemas acaben con sus beneficios o su reputación.
El análisis de Big Data ayuda a las organizaciones a aprovechar sus datos y utilizarlos
para identificar nuevas oportunidades. Eso, a su vez, conduce a movimientos de
negocios más inteligentes, operaciones más eficientes, mayores ganancias y clientes
más felices. Las empresas con más éxito con Big Data consiguen valor de las
siguientes formas:
3. Desafíos de la calidad de datos en Big Data
Las especiales características del Big Data hacen que su calidad de datos se enfrente
a múltiples desafíos. Se trata de las conocidas como 5 Vs: Volumen, Velocidad,
Variedad, Veracidad y Valor, que definen la problemática del Big Data.
Estas 5 características del big data provocan que las empresas tengan problemas para
extraer datos reales y de alta calidad, de conjuntos de datos tan masivos, cambiantes y
complicados.
Hasta la llegada del Big Data, mediante ETL podíamos cargar la información
estructurada que teníamos almacenada en nuestro sistema ERP y CRM, por ejemplo.
Pero ahora, podemos cargar información adicional que ya no se encuentra dentro de
los dominios de la empresa: comentarios o likes en redes sociales, resultados de
campañas de marketing, datos estadísticos de terceros, etc. Todos estos datos nos
ofrecen información que nos ayuda a saber si nuestros productos o servicios están
funcionando bien o por el contrario están teniendo problemas.
Algunos desafíos a los que se enfrenta la calidad de datos de Big Data son:
1. Muchas fuentes y tipos de datos
Con tantas fuentes, tipos de datos y estructuras complejas, la dificultad de integración
de datos aumenta.
Las fuentes de datos de big data son muy amplias:
 Datos de internet y móviles.
 Datos de Internet de las Cosas.
 Datos sectoriales recopilados por empresas especializadas.
 Datos experimentales.
Y los tipos de datos también lo son:
1. Tipos de datos no estructurados: documentos, vídeos, audios, etc.
2. Tipos de datos semi-estructurados: software, hojas de cálculo, informes.
3. Tipos de datos estructurados
Solo el 20% de información es estructurada y eso puede provocar muchos errores si no
acometemos un proyecto de calidad de datos.
2. Tremendo volumen de datos
Como ya hemos visto, el volumen de datos es enorme, y eso complica la ejecución de
un proceso de calidad de datos dentro de un tiempo razonable.
Es difícil recolectar, limpiar, integrar y obtener datos de alta calidad de forma rápida. Se
necesita mucho tiempo para transformar los tipos no estructurados en tipos
estructurados y procesar esos datos.
3. Mucha volatilidad
Los datos cambian rápidamente y eso hace que tengan una validez muy corta. Para
solucionarlo necesitamos un poder de procesamiento muy alto.

Si no lo hacemos bien, el procesamiento y análisis basado en estos datos puede


producir conclusiones erróneas, que pueden llevar a cometer errores en la toma de
decisiones.
4. No existen estándares de calidad de datos unificados
En 1987 la Organización Internacional de Normalización (ISO) publicó las normas ISO
9000 para garantizar la calidad de productos y servicios. Sin embargo, el estudio de los
estándares de calidad de los datos no comenzó hasta los años noventa, y no fue hasta
2011 cuando ISO publicó las normas de calidad de datos ISO 8000.
Estas normas necesitan madurar y perfeccionarse. Además, la investigación sobre la
calidad de datos de big data ha comenzado hace poco y no hay apenas resultados.
La calidad de datos de big data es clave, no solo para poder obtener ventajas
competitivas sino también impedir que incurramos en graves errores estratégicos y
operacionales basándonos en datos erróneos con consecuencias que pueden llegar a
ser muy graves.
Big data y la nube

El Big Data y la nube o los servicios Cloud necesariamente han de ir de la mano en el


mundo de los datos. Muchos de los datos de los que disponemos son generados y
creados en la web dentro de un modelo de computación en la nube.
La gran cantidad de datos generados por satélites, gobiernos, cámaras de vídeo
vigilancia, smartphones, dispositivos del internet de las cosas junto con datos
generados en las redes sociales hacen necesarios los sistemas de Cloud.
Datos tan desorbitados como que en 2020 el universo digital puede llegar a 40 ZB o
que cada día se generan más de 2.5 trillones de bytes de datos, nos hace pensar que
es imposible no mirar a la nube como medio de almacenamiento y análisis de
tal cantidad de datos.
La necesidad de las empresas de sacar valor a los datos ha hecho aumentar las
necesidades de tecnologías Cloud o de computación en la nube. Entre estas
tecnologías nos encontramos con la computación elástica, un sistema de computación
similar al uso eficiente de electricidad. El servicio se da o no, dependiendo de la
demanda de uso de un determinado recurso (hora valle o picos de uso). El sistema de
computación elástico permite adaptar el uso de los recursos computacionales
dependiendo del aluvión de datos, su tamaño, tipo, velocidad de estos, para dar una
respuesta más efectiva.
No es lo mismo la fase en la que se recopilan los datos, que la fase en la que se tratan
esos datos para generar informes de cara a sacar conclusiones clave beneficiosas para
el negocio. Estos recursos de computación en la nube pueden ser gestionados con
mayor eficiencia, dependiendo de cuando realicemos el análisis Big Data. De este
modo se pueden liberar servicios para que otra empresa los pueda usar.
Modalidades de Cloud para Big Data
Este tipo de uso efectivo de los sistemas Cloud para Big Data permiten a las empresas
ofrecer sus servicios en la nube en tres modalidades dependiendo de las necesidades
de uso: infraestructura (IaaS), pre configurado (PaaS) y software (SaaS).
La modalidad infraestructura facilita el uso de servidores a bajo nivel controlando:
sistema operativo, uso de memoria, tecnología de almacenamiento en disco etc. Con la
modalidad de entorno pre configurado, el proveedor te ofrece en el servicio Cloud los
lenguajes de programación que necesites: Java, Python, Ruby etc., así Apache
Hadoop, Apache Spark. En esta modalidad solo te tienes que preocupar de recoger y
analizar los datos. La última modalidad es la de software como servicio Cloud, que te
proporciona un entorno para trabajar directamente con Big Data. Podemos hacer el
procesamiento y análisis de los datos de una manera transparente en cuanto a detalles
de infraestructura.
Otros servicios en la nube para Big Data
En cuanto a ubicación y nivel de seguridad, las empresas de servicios en la nube
cuentan con varios servicios: Público, Privado dedicado o compartido e Híbrido
(combinando entornos tradicionales y Cloud).
En el servicio nube pública se tiene acceso general a servicios y recursos de
computación Cloud mediante una conexión pública a través de Internet. Como hemos
visto anteriormente, los recursos de uso de computación se asignarán de manera
temporal dependiendo de su utilización. Cuando ya no son usados se asignan a otros
usuarios.
El segundo tipo de servicio Cloud es el llamado de nube privada, donde los servicios y
recursos de computación en la nube están en red privada, con acceso restringido a
usuarios de tu empresa. Los sistemas de seguridad son más altos, debido al tipo
de sensibilidad de los datos con los que trabajamos, siendo necesario mantener la
confidencialidad, la privacidad y la integridad de los datos.
Por último, el tercer tipo de servicio en la nube es el híbrido, nivel que combina las
características de los servicios Cloud públicos y privados. Estos servicios se utilizan
cuando existen datos Cloud privados que se ofertan en Cloud públicos o cuando existe
una colaboración de distinto proveedores de servicios en la nube. Estos servicios
ofrecen en general ahorro (más económico que la privada), seguridad, flexibilidad y
escalabilidad.
Beneficios del Big Data en la nube
Cuando hablamos de beneficios del Big Data en la nube, el coste es el primero que
aparece, aunque el servicio Cloud también nos proporciona comodidad, rapidez,
seguridad, etc.
 Menos coste. Evitamos las inversiones de infraestructura tanto hardware como
de licencias software, ya que, como hemos visto antes, no siempre se utilizan los
recursos al 100%, sino que depende de la fase Big Data en la que nos
encontremos.
 Rapidez. El acceso a la información, ficheros, base de datos etc, es mucho más
rápido, además de ser más accesible.
 Comodidad. Dependiendo del servicio Cloud, no debes de preocuparte de
versiones, actualizaciones o problemas de seguridad.
 Mayor personalización. Cada configuración está adaptada a las necesidades de
cada cliente, pudiendo aumentar espacios o recursos dependiendo de las
necesidades de demanda.
 Accesibilidad. Puedes acceder a la información desde varios dispositivos desde
cualquier lugar con acceso a internet.
 Seguridad. Se contemplan protocolos de seguridad y servicios de copias de
seguridad las veces que quieras.
Paralelamente al crecimiento de los datos, crecen las soluciones del Cloud Computing
para Big Data, ya que se prevé que para el 2020 el mercado en este campo crezca con
respecto a las soluciones que las empresas instalarán en sus sedes. En el 2019
prácticamente el 100% de las empresas adquirirán datos externos provenientes de la
nube relacionados con su negocio. Para el 2025 crecerá el número de ciudades
inteligentes, suponiendo gran cantidad de datos que habrá que alojar y analizar…
¿dónde? en servicios en la nube para Big Data.
La nube y big data forman una pareja perfecta
De hecho, las empresas pueden obtener mucho valor a partir de datos adquiridos a
través de análisis de big data soportado por una infraestructura en la nube. La
explosión de datos no estructurados significa que las formas de aprovechar los
beneficios de la nube y el big data son más importantes que nunca. Un modelo de nube
híbrida, por ejemplo, puede ayudar a las organizaciones a abordar problemas de
seguridad en su nube privada, al tiempo que aprovecha la infraestructura de nube
pública para servicios analíticos.
En cuanto a proyecciones de crecimiento de datos, la cantidad de datos creados para
el año 2020 alcanzará los impresionantes 43 billones de gigabytes, con seis mil
millones de personas en posesión de teléfonos móviles.
La computación en nube y el big data, aunque todavía en constante evolución, están
demostrando ser la pareja perfecta. Juntos, proporcionan una infraestructura rentable y
escalable para soportar big data y análisis de negocios.
Pasar del antiguo modelo de datos estructurados al mundo de los datos no
estructurados mediante una tecnología muy asequible constituye una enorme ventaja
competitiva que nos permite acceder a una gran cantidad de fuentes de información.

Das könnte Ihnen auch gefallen