map/reduce 実行時のパーミッションエラー

https://issues.apache.org/jira/browse/HADOOP-6614

Hadoop の map/reduce 実行時に以下のエラーが出る場合、${hadoop.tmp.dir}/hadoop-unjar のパーミッションが怪しいらしい。

Exception in thread "main" java.io.IOException: Permission denied
at java.io.UnixFileSystem.createFileExclusively(Native Method)
at java.io.File.checkAndCreate(File.java:1704)
at java.io.File.createTempFile(File.java:1792)
at org.apache.hadoop.util.RunJar.main(RunJar.java:147)

Hue で、Beeswax で Hive ジョブは実行できるのに、Job Designer でお手製のJarを実行すると何故か上のエラーが出た。
まあ、Beeswax は直接Map/Reduceを投げているのではなく、Hiveにクエリしてる訳だから、挙動が違うということもあり得るか。

rootユーザでHueにログインしていたのだが、${hadoop.tmp.dir} = JobTrackerノードの /tmp/hadoop-root のパーミッションを777にしたら動いた。
実は、JobのSubmission は root とは別のユーザ(Hue ユーザとか?)で行なっている?