Pydoop在AWS的Ubuntu上Segmentation fault 错误处理
发布时间:2020-05-22 19:57:37 所属栏目:Ubuntu 来源:互联网
导读:问题描述 平台用Python开发,使用pydoop对HDFS文件进行操作,当迁移到AWS时,出现Segmentation Fault, 通过排查,确定问题是因为调用了Pydoop对hdfs的初始化过程中出现的问题。 相关代码如下: from pydoop.hdfs import fs;print fs.hdfs() 通过gdb调试,错误
问题描述平台用Python开发,使用pydoop对HDFS文件进行操作,当迁移到AWS时,出现Segmentation Fault, from pydoop.hdfs import fs; print fs.hdfs() 通过gdb调试,错误信息如下: 问题原因通过查阅资料,初步判断是由于堆栈溢出导致的异常,通过查看native_core_hdfs源码,发现该代码会从LIBHDFS_OPTS读取JVM配置信息,但是环境中缺少该变量的定义.通过添加该变量,问题得到解决 解决方案1,在环境中增加下列变量的配置 export LIBHDFS_OPTS="-server -Xss2m -Xms2000m -Xmx2000m -Xmn800m -XX:PermSize=64m -XX:MaxPermSize=256m" 2,因为Spark中也有相关操作,所以还需要在spark/conf/spark-env.sh中增加该变量的配置: export LIBHDFS_OPTS="-server -Xss2m -Xms2000m -Xmx2000m -Xmn800m -XX:PermSize=64m -XX:MaxPermSize=256m" (编辑:安卓应用网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
相关内容
- Installing MDX on ubuntu for viewing results of roi_pac
- ubuntu安装emacs25指南
- Ubuntu下python编辑器ulipad的安装
- 在 Ubuntu 下直接将二进制文件制作成 rpm 包
- folder shareing between ubuntu16 and windows
- Ubuntu 16.04出现:Problem executing scripts APT::Update
- 详谈Ubuntu PowerShell(小白入门必看教程)
- ubuntu golang使用sqlite
- ubuntu 14.04 windows7双系统安装
- Ubuntu PHP5 / Apache2 – 显示500错误而不是错误消息
推荐文章
站长推荐
热点阅读
