sudo apt-get update
sudo apt-get install openjdk-8-jdk
Añadir JAVA_HOME a las variables de entorno al archivo ~/.bashrc
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
sudo apt-get install scala
-
Descargar de
http://spark.apache.org/downloads.html
-
Descomprimir:
sudo tar xzvf spark-VERSION.tgz
-
Mover la carpeta descomprimida:
sudo mv PATH_SPARK_FOLDER/spark_VERSION /usr/local/spark
-
Añadir variables de entorno al archivo
~/.bashrc
export SPARK_HOME=/usr/local/spark export PYSPARK_PYTHON=python3 export PATH=$SPARK_HOME/bin:$PATH export PYTHONPATH=$SPARK_HOME/python:$PYTHONPATH
-
source ~/.bashrc
Copiar el contenido de la carpeta ./tools/spark/jars
en /usr/local/spark/jars
sudo apt-get update
sudo apt install docker.io
sudo systemctl start docker
sudo curl -L "https://github.com/docker/compose/releases/download/1.23.1/docker-compose-\
$(uname -s) -$(uname -m)" -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose
En la carpeta base del proyecto
python3 -m venv venv
source venv/bin/activate
pip install -r tools/requirements.txt
Desde la carpeta base del proyecto
cd tools/front_end
sudo docker-compose up -d
cd ../database
python create_tables.py
python populate_BTC_USD.py
python populate_EUR_USD.py
cd ../kafka
sudo docker-compose up -d
Para obtener las ips del contenedor de zookeeper y kafka lanzar los siguientes comandos:
sudo docker inspect kafka_cont
sudo docker inspect zookeeper_cont
Sustituir las los parametros ZOOKEPPER_IP y KAFKA_IP por sus respectivas IPsS
sudo docker-compose exec kafka kafka-topics --create --topic forex_eur_usd --partitions 1 \
--replication-factor 1 --if-not-exists --zookeeper _ZOOKEEPER_IP_:2181
sudo docker-compose exec kafka kafka-topics --create --topic forex_btc_usd --partitions 1 \
--replication-factor 1 --if-not-exists --zookeeper _ZOOKEEPER_IP_:2181
Desde la carpeta base del proyecto abrir dos terminales bash y lanzar en cada unos de los siguienes comandos (Precaución: Hay que activar el entorno virtual en cada consola nueva):
cd spark_scripts
python spark_consumer.py --currency eur_usd
cd spark_scripts
python spark_consumer.py --currency btc_usd
Desde la carpeta base del proyecto abrir dos terminales bash y lanzar en cada unos de los siguienes comandos (Precaución: Hay que activar el entorno virtual en cada consola nueva):
cd producer
python producer_EUR_USD.py
cd producer
python producer_BTC_USD.py
Desde la carpeta base del proyecto abrir cuatro terminales bash y lanzar en cada unos de los siguienes comandos (Precaución: Hay que activar el entorno virtual en cada consola nueva):
cd neural_networks
python cnn.py --currency eur_usd
python cnn.py --currency btc_usd
python rnn.py --currency eur_usd
python rnn.py --currency btc_usd
Desde la carpeta base del proyecto abrir una terminal bash y lanzar los siguienes comandos (Precaución: Hay que activar el entorno virtual en cada consola nueva):
cd front_end/webapp
python app.py
Si todo ha ido correctamente el front-end debe estar accesible en la url localhost:8050