Por favor, use este identificador para citar o enlazar este ítem: http://dspace.utpl.edu.ec/jspui/handle/20.500.11962/20930
Título : Análisis y uso de las herramientas de Hadoop para procesar Big Data
Autor : Imba Aranda, Diego Javier
metadata.dc.contributor.advisor: Tenesaca Luna, Gladys Alicia
Palabras clave : Big Data
Hadoop
Flume
Hive
Sqoop
Pig
Twitter
MySQL
Tweets
Prototipo
Ingeniero en informática -Tesis y disertaciones académicas
metadata.dc.date.available: 2017-10-04T21:15:31Z
Fecha de publicación : 2017
Citación : Imba Aranda, Diego Javier. (2017). Análisis y uso de las herramientas de Hadoop para procesar Big Data. (Trabajo de Titulación de Ingeniero en Informática). UTPL, Quito
Resumen : The present work of investigation realizes it taking of base Hadoop as central core of Big Data's processing. Inside Hadoop's ecosystem there are several Open Source tools that facilitate the manipulation and use of big volumes of information, and there have been selected his 4 principal tools which have been grouped in two cases of study: Flume with Hive for the case of study 1, and Sqoop with Pig for the case of study 2. In both cases, the data generated in the social network Twitter during the first and second round of elections in 2017 has been taken as the basis of analysis. This generated information has been obtained, stored, processed and analyzed to expire with the characteristics that form a part of the information that is considered to be Big Data. The selected tools have been evaluated in his architecture, installation, use and functionality to design a prototype of result which groups the functionality of 4 Hadoop's tools; this in order to facilitate its use to the user by means of a single application understandable and easy to handle.
Descripción : El presente trabajo de investigación se lo realiza tomando de base Hadoop como núcleo central del procesamiento de Big Data. Dentro del ecosistema de Hadoop existen varias herramientas Open Source que facilitan la manipulación y uso de grandes volúmenes de datos, y se ha seleccionado sus 4 principales herramientas las cuales han sido agrupadas en dos casos de estudio: Flume con Hive para el caso de estudio 1, y Sqoop con Pig para el caso de estudio 2. En ambos casos de estudio, se ha seleccionado para análisis los datos generados en la red social Twitter durante la primera y segunda vuelta electoral del 2017. Estos datos generados han sido obtenidos, almacenados, procesados y analizados para cumplir con las características que forman parte de la información que es considerada Big Data. Las herramientas seleccionadas han sido evaluadas en su arquitectura, instalación, uso y funcionalidad para diseñar un prototipo de usabilidad el cual agrupa la funcionalidad de las 4 herramientas de Hadoop; esto con el fin de facilitar su uso al usuario mediante un solo aplicativo entendible y fácil de manejar.
metadata.dc.identifier.other: 1272039
URI : http://dspace.utpl.edu.ec/handle/20.500.11962/20930
metadata.dc.type: bachelorThesis
Aparece en las colecciones: Ingeniero en Informática

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
ImbaArandaDiegoJavier_TrabajoDeTitulación.pdf9.2 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.