Skip to content

Proyecto de cómputo distribuido con data de Profeco: Quién es quien

Notifications You must be signed in to change notification settings

BGARCIAMA/proyecto_profeco

Repository files navigation

Proyecto Quien es Quien (Profeco) 💰

(MCD ITAM Primavera 2024)

Autores 📚

Nombre CU Correo Electrónico Usuario Github
Blanca E. García Manjarrez 118886 [email protected] BGARCIAMA
Iván García Alba 214549 [email protected] GARCIA889
Valeria Durán Rubio 124273 [email protected] VDR90
Yuneri Pérez Arellano 199813 [email protected] YunPerez

Contexto 🧠

  • Repositorio del proyecto de cómputo distribuido con información del programa Quién es Quién en los Precios (QQP) recaba y difunde información de precios de productos de consumo regular en el hogar, como alimentos, bebidas, productos de aseo personal y del hogar, medicinas, electrodomésticos y artículos de temporada para ofrecer información que te permita tomar decisiones de compra mediante la comparación de precios.

  • Para recabar los precios se visita una muestra de los principales establecimientos en cada una de las ciudades que forman parte del programa durante los cinco días hábiles de la semana.

  • Los precios que se muestran contienen la fecha en que fueron tomados, sin embargo se encuentran sujetos a cambios, ya que algunos establecimientos pueden variar sus precios más de una vez por día, por lo que deben ser considerados como precios referencia.

Objetivo del proyecto 🎯

  • Utilizar tecnologías de gran escala vista en clase para analizar el dataset de Quién es Quién en los precios.

Habilidades a evaluar 🧑‍💻

  • Uso de herramientas de gran escala.
  • Metodología vista en clase sobre limpieza de códigos
  • SQL
  • Pyspark

Base de datos ✍

  • Quién es Quién en los precios. Registro histórico diario de más de 2,000 productos, a partir de 2015, en diversos establecimientos de la República Mexicana.
  • Los dataset que se analizaron van del 2018-2024.

Estructura del Proyecto

Parte A 📑

  • En esta parte se levantó un cluster en AWS con Hadoop y Pyspark

  • Elaboramos un ETL con el Cluster donde:

    • Se subió a S3 el archivo o archivos.
    • Se cargó el CSV en Spark.
    • Se guardó el CSV como parquet en S3, y se particionó por catalogo y año.
    • Se cargó el parquet en Spark.

Parte B 📑

Para esta parte se utilizó Athena.

    • Se creó una base de datos profeco_db en Athena.
    • Así como una tabla externa profeco dentro de la base de datos profeco_db.

Requerimientos de Software herramientas recomendadas

  1. Cuenta de Github
  2. VSCodeIDE
  3. AWS

Entregables 💯

    • 📸 Un screenshot de cómo se guardaron los archivos en S3, donde se vean las particiones. Particiones S3 Particiones S3 Particiones S3
    • 📸 Un screenshot del dashboard del cluster, donde se ve el nombre, el id del cluster, el DNS, y el tiempo de ejecución. Cluster
    • 📸 Un screenshot del JupyterHub, donde se vea la dirección DNS (El URL). JupyterHub JupyterHub
    • 📸 Un screenshot de la consola de Athena donde se ve la base de datos y la tabla de Profeco. Athena Athena
    • 📓 Un cuaderno ejecutado con los resultados y el código con las preguntas y respuestas.

    -Resultados parte A -Resultados parte B

About

Proyecto de cómputo distribuido con data de Profeco: Quién es quien

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 4

  •  
  •  
  •  
  •