小弟我想要從 client 端掛載遠端的 hadoop cluster 的目錄
並參考了這兩篇:
(hdfs-over-ftp)
http://nubetech.co/accessing-hdfs-over-ftp(curlftpfs)
http://clyang.net/blog/tag/curlftpfs我先在 NameNode 機器上設定好 hdfs-over-ftp,
接著在 client 端安裝使用 curlftpfs
指令: # curlftpfs -o allow_other -o nonempty
ftp://192.168.91.136:21/ /mnt/remote/
指令下完之後, 沒出現錯誤, 我以為掛載好了, 結果發現 /mnt/remote/ 目錄無法開啟
想請問各位大大我這樣的做法是不是錯了?
而且我如果直接在 client 端用 ftp 連 hadoop
可以連進去, 但是卻無法開啟目錄
hadoop@Cluster03:~$ ftp 192.168.91.136 21Connected to 192.168.91.136.
220 Service ready for new user.
Name (192.168.91.136:hadoop): vv6
331 User name okay, need password for vv6.
Password:
230 User logged in, proceed.
Remote system type is UNIX.
ftp>
ftp> ls
200 Command PORT okay.
150 File status okay; about to open data connection.
550 Requested action not taken.ftp>
請問大大們我該怎樣設定路徑?