准备一台机器存放Elasticsearch、Confluent(Kafka)、Hadoop的安装介质,按下面的目录结构存放。
/data/package
|-- es
| |-- TencentKona-11.tar.gz
| |-- TencentKona-8.tar.gz
| |-- elasticsearch-5.4.0.tar.gz
| |-- elasticsearch-7.10.0.tar.gz
| |-- pypy-5.9.0.tar.gz
| `-- supervisor.tar.gz
|-- hadoop
| |-- hadoop-2.6.0.tar.gz
| |-- hadoop-3.2.0.tar.gz
| |-- java-1.8.0.tar.gz
| `-- zookeeper-3.4.10.tar.gz
`-- kafka
|-- TencentKona-11.tar.gz
`-- confluent-6.0.1.tar.gz
安装介质可从 https://share.weiyun.com/39SrWVsv 下载,密码是:yvjx2j
- python-3.6.8 以上
- django-2.2.6
- mysql-5.7 以上
- redis or rabbitmq
- pip install -r requirements.txt
APP_ID
, 设置为你的蓝鲸智云版项目应用IDAPP_TOKEN
, APP_TOKEN 设置为你的蓝鲸智云版项目应用 TOKENBKAPP_ES_ADMIN
, ElasticSearch的内置管理员账号,默认是admin。BKAPP_ES_ADMIN_PASSWORD
, ElasticSearch的内置管理员密码,默认是admin。BKAPP_HADOOP_PACKAGE_PATH
, Hadoop安装介质所在路径。BKAPP_KAFKA_PACKAGE_PATH
, Kafka安装介质所在路径。BKAPP_ES_PACKAGE_PATH
, ElasticSearch安装介质所在路径。BKAPP_FILE_SERVER
, 文件服务器的IP。BK_PAAS_HOST
, http://your_bk_paas.com。你的蓝鲸pass环境域名地址
# local_settings.py
#如果本地环境使用rabbitmg
BROKER_URL = 'amqp://guest:guest@localhost:5672//'
#如果本地环境使用redis
BROKER_URL = 'redis://localhost:6379/0'
DATABASES = {
"default": {
"ENGINE": "django.db.backends.mysql",
"NAME": "bkx",
"USER": "root",
"PASSWORD": "your local mysql password",
"HOST": "localhost",
"PORT": "3306",
},
}
# 初始化本地数据库
python manage.py migrate
# 运行项目
python manage.py runserver appdev.{BK_PAAS_HOST}:8000
# 启动celery项目
python manage.py celery worker -Q er_execute,er_schedule -l info --concurrency 4
本地hosts文件增加
windows: 在 C:\Windows\System32\drivers\etc\host 文件中添加“127.0.0.1 appdev.{BK_PAAS_HOST}”。
mac: 执行 “sudo vim /etc/hosts”,添加“127.0.0.1 appdev.{BK_PAAS_HOST}”。
然后访问 http://appdev.{BK_PAAS_HOST}:8000 即可访问后端项目