基于docker-compose的spark多woker测试环境搭建

使用 https://github.com/bitnami/bitnami-docker-spark

$ git clone https://github.com/bitnami/bitnami-docker-spark
$ cd bitnami-docker-spark
$ docker-compose up --scale spark-worker=3 # 3个woker

但是我在挂载好python代码路径然后执行的时候,出现了错误

ModuleNotFoundError: No module named 'py4j'

经查阅,需要设置PYTHONPATH环境变量的值, 在 docker-compose.ymlenvironment 下设置

- PYTHONPATH=/opt/bitnami/spark/python:/opt/bitnami/spark/python/lib/py4j-0.10.9.3-src.zip

即可

上一篇:自动化运维之docker三剑客——Docker Machine、Docker Compose、Docker Swarm(未完待续)


下一篇:ES6利用Proxy+Reflect搭建观察者模式的简单实现