61阅读

如何使用云存储-在国内如何使用Dropbox网盘的存储功能

发布时间:2018-01-31 所属栏目:其他

一 : 在国内如何使用Dropbox网盘的存储功能

在国内如何使用Dropbox网盘的存储功能

Dropbox是一款非常好用的免费网络文件同步工具,是Dropbox公司运行的在线存储服务,通过云计算实现因特网上的文件同步,用户可以存储并共享文件和文件夹。Dropbox提供免费和收费服务,Dropbox的收费服务包括Dropbox Pro 和 Dropbox for Business。在不同操作系统下有客户端软件,并且有网页客户端。 Dropbox网盘的优点:

1. 完全跨平台,可用于主流Windows系统,(部分)linux系统(如ubuntu,fedora,红帽子等),甚至Mac苹果系统。

这个是最吸引人的,相信目前网上的网络硬盘,能够真正跨平台提供客户端使用的,几乎没有~

2. 提供各种系统下的客户端,可以安装到系统里,就和操作本地文件夹一样方便

3. 网盘提供容量: 2G,单个文件:100M

4. 速度。这个是大家最关心的,我不敢保证它在任何地方都能很快,但至少,在我北京网通 1M ADSL下,它的上传下载速度,能高达150-170K,文章最后有图为证。

5. 支持本地管理,在线管理两种方式。完全同步~

6. 最爽的优点,支持:直接生成“对外下载地址,供人下载”!只要你把东西放在“public”文件夹里面,就能生成下载地址,供人下载,内网也照样生成地址,比架设个FTP还方便

7. 存储时间。我也不清楚了,至少我的东西,已经存储5个月了,还在。。。。。^_^~

缺点:只有一个:英文界面。。。。。。。。。。。。。。

这个实在是没辙,呵呵,我觉得,上面提到的7大优点,足以让一部分人忽略这个缺点了吧?据我所知,具有如上7大优点的网盘,国内很少。至少我还真不知道。。。

行了。说了这么多,如果你对这个国外的网盘有兴趣,就请继续往下看吧,我个人是强烈推荐在ubuntu下用的。

这次的教程,我分为三部分,分别讲述:Dropbox网盘的注册+在线管理使用网盘,XP下客户端的安装使用,Ubuntu下客户端的安装使用

一. Dropbox 网盘的注册 + 在线管理

Dropbox,如果你想注册,可以点击:www.61k.comreferrals ,

点击网址后,弹出如下网页,这就是Dropbox的注册地址了。分别填写:首名和尾名(这是外国人的习惯,随便写吧,不影响你使用的),邮箱地址,和网盘登录密码

二.windows下的客户端安装配置,太简单,就是下一步下一步,略...

三. Ubuntu 下的客户端配置

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

linux系统的各种客户端,在这里下载:

https://www.61k.comdownloading?os=lnx

如果你用的是32位的Ubuntu,就直接下载这个:

https://www.61k.comdownload?dl=packages/nautilus-dropbox_0.5.0-1_i386_ubuntu_8.10.deb

1. 下载安装客户端软件,deb包的,不用多说了吧?放上两张图吧

2. 安装后,打开终端,输入:killall nautilus 回车。

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

3.

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

然后就能在面板上弹出dropbox图标了,在上面依次点击右键——start dropbox,就能弹出下面的软件配置界面了。我刚才说了,配置过程和XP下完全相同,不再重复了,看图说吧:

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

4. 完成后,还是会自动打开你的dropbox文件夹,默认是在“/home/你的用户名里面”

还是这2个文件夹。具体操作,还用多说么?和XP下的完全一样的。

5. 在文件上点击右键,选择:“dropbox”-copy public link,就能产生对外下载链接了。

6. 最后,给大家看看我的下载速度,用conky监控的,因为我网盘里面本来有很多软件,安装了客户端,为了“同步”,它就要先下载我网盘的东西,下载速度: 171KB/S,满意不?^_^

四. 关于“同步”的问题

不管你是在什么系统下,使用相应的客户端的时候,你把文件直接拉到客户端里面,其实就等于:“是在往Dropbox的网盘里面上传”。因此,就有个“同步时间”的问题。

在Dropbox的所有文件夹和文件里面,每个文件,都会有两种图标,它们就是用来显示同步状态的,看图:

1. 同步完成,意思就是这个文件(或文件夹)已经上传完毕,可以正常使用了。

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

2. 该文件(文件夹)正在上传。完成后,这个图标就会变成上面提到的“对钩”状态~

网盘的上传、下载速度都很快的,稍等几分钟就能传好,下载好的。如果你传的东西大,耐心点就是了。

五. 部分剩余的英文意思

●Quota:容量使用情况

●Invite friends to Dropbox:输入对方邮箱,邀请他注册

●Share:共享

●Creat a shared folder:创建一个共享文件夹

●Accout:个人账户设置

●Display name:显示的名称

●Change Settings:变更设置

●Cancel changes:取消变更

●Web interface:网盘容量使用情况

●show system tray notifications:显示任务栏通知(比如你上传,下载,删除了什么,有个气泡通知)

●Dropbox Location:Dropbox文件夹的位置

●Move:挪动(上面的位置)

●Inbox:收件箱

●Log out:注销

六. 总结

稍微总结一下,2G的国外网络硬盘,跨平台(甚至支持Mac苹果系统),无论是操作方式,还是下载速度,我个人觉得都很不错了。虽然界面是英文的,操作

起来其实很简单的。里面的常见英文,我都给出对应中文解释了。我觉得够用了。这个网盘里面的英文,真没有什么难的噢!

希望大家通过这次的教程,都能用上Dropbox这个网盘,分享大家的东西。 这么好的一个国外网盘,现在被国内屏蔽了,想多朋友想知道国内登录Dropbox

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

的方法,今天小编就来教大家如何解决这个问题!绝对原创分享!

1.去下载一款代理软件,我们以小语加速器为例

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

2.下载软件,解压出来,如图显示

3.输入注册的用户名和密码,

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

4.我们来选择相关的节点,这里我们选择美国的试下

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

.

5.我们来启动加速,加速成功,看IP是不是变成美国的啦

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

6.这个时候你就可以去打开国外网站以及国外网盘啦!试试facebook能不能看!

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

LOOK!

dropbox网盘 在国内如何使用Dropbox网盘的存储功能

二 : 使用orion测试存储性能

一、 Orion功能简介[www.61k.com]

orion是oracle提供的测试IO性能的工具,ORION 是一个独立工具,用户不需要创建和运行 Oracle 数据库。测试工具不需要安装,使用简单,功能强大。

可以通过下载使用,目前版本是ORION: ORacle IO Numbers -- Version11.1.0.7.0,使用方法这里不再介绍,介绍下涉及压力测试的参数指标,使用以下指标几乎可以测试所有的IO场景

必选参数:run 运行的测试类别 (simple, normal, advanced, dss, oltp) simple - tests random8K small IOs at various loads, then random 1Mlarge IOs at various loads. normal - testscombinations of random 8K small IOs and random1M large IOs advanced - run theworkload specified by the user usingoptional parameters dss - run with random1M large IOs at increasing loads to determinethe maximum throughput oltp - run with random8K small IOs at increasing loads to determinethe maximum IOPS必选参数:testname Name of the test runnum_disks Number of disks (physicalspindles). Default is the number of LUNs in<testname>.lunsize_small Size of small IOs (in KB) -default 8size_large Size of large IOs (in KB) - default1024 type Type of large IOs (rand,seq) - default rand rand - Random largeIOs seq - Sequential streams of large IOsnum_streamIO Number of concurrent IOs per stream (only iftype is seq) - default 4simulate Orion tests on a virtual volumeformed by combining the provided volumes in oneof these ways (default concat): concat - A serialconcatenation of the volumes raid0 - A RAID-0mapping across the volumeswrite Percentage of writes (SEEWARNING ABOVE) - default 0cache_size Size *IN MEGABYTES* of thearray's cache. Unless this option isset to 0, Orion does a number of (unmeasured) randomIO before each large sequential data point. This is done in order to fill up the array cache with randomdata. This way, the blocks from one data point do notresult in cache hits for the next data point. Read tests are preceded with junk reads and write tests arepreceded with junk writes. If specified, this 'cachewarming' is done until cache_size worth of IOhas been read or written. Default behavior: fillup cache for 2 minutes before each data point.duration Duration of each data point (inseconds) - default 60num_small Number of outstanding small IOs(only if matrix is point, col, or max) - no defaultnum_large For random, number ofoutstanding large IOs. For sequential, numberof streams (only if matrix is point, row, or max) -no default matrix An Orion test consists of data pointsat various small and large IO loadlevels. These points can be represented as atwo-dimensional matrix: Each column in the matrix representsa fixed small IO load. Each row represents a fixedlarge IO load. The first row is with no large IOload and the first column is with no small IO load. An Orion test can be a single point, a row, a column or thewhole matrix, depending on the matrix option settingbelow (default basic): basic - test thefirst row and the first column detailed - test the entire matrix point - test at loadlevel num_small, num_large col - varying largeIO load with num_small small IOs row - varying smallIO load with num_large large IOs max - test varyingloads up to num_small, num_largeverbose Prints tracing information tostandard output if set. Default -- not set运行时的例子For a preliminaryset of data -run simpleFor a basic setof data -run normalTo evaluatestorage for an OLTP database -run oltpTo evaluatestorage for a data warehouse -run dssTo generatecombinations of 32KB and 1MB reads to random locations: -run advanced -size_small 32 -size_large 1024 -typerand -matrix detailedTo generatemultiple sequential 1MB write streams, simulating 1MB RAID0 stripes -run advanced -simulate RAID0 -stripe 1024 -write 100-type seq -matrix col -num_small 0输出的文件介绍<testname>_<date>_summary.txt- Summary of the input parameters alongwith min. smalllatency, max large MBPS and/or max.small IOPS.<testname>_<date>_mbps.csv- Performance results of large IOs in MBPS<testname>_<date>_iops.csv- Performance results of small IOs in IOPS<testname>_<date>_lat.csv- Latency of small IOs<testname>_<date>_tradeoff.csv- Shows large MBPS / small IOPS combinations that can beachieved at certain smalllatencies<testname>_trace.txt- Extended, unprocessed output

二、 测试案例

a) 案例1:本地存储和远程存储对比测试

分别在服务器上对wj远程存储的10块盘(简称wj)和dzm本地存储的10块盘(简称dzm)进行读写对比测试,wj的盘通过8gb的传输进行连接,dzm的存储直接通过光纤交换机连接;wj和dzm的存储型号不同,但性能差不多。其中图像的横坐标&#20540;为IO并发量

测试服务器配置:IBM X3755 4×8core 128G内存

wj远程测试盘:10个lun ,大小400GB,实际对应存储上80块1T的盘

dzm本地测试盘:10个lun,大小为420GB

测试场景1:分别对wj远程和dzm本地存储使用1M数据块顺序读进行测试,此场景和BI数据库最类&#20284;,主要测试MBPS和延时两个指标

MBPS:Wj存储MBPS可达708MBPS,瓶颈在8gb传输带宽,dzm MBPS可达1550 MBPS,瓶颈在2×8GB的主机HBA卡带宽

orion 使用orion测试存储性能

<喎?http://www.2cto.com/kf/ware/vc/" target="_blank">vcD4KPHA+PHN0cm9uZz5JT9HTs9m3vcPmPC9zdHJvbmc+o7rTydPayscxTbXEtPPK/b7dv+m2wdC0o6yyoreiwb/UvbTzo6zR08qx1L3Rz9bYo6x3arXE0dPKscrHZHpttcQysbbX89PSoaPSu7Dj0qrH88r9vt2/4tHTyrEyMG1z0tTE2qOszfu+qTWyoreiyrEyMG1zo6y2+Lar1rHDxTOyoreiyrEyMG1zPC9wPgo8cD4gPGltZyBzcmM9"http://www.2cto.com/uploadfile/Collfiles/20140225/2014022509063952.jpg" alt="\">

前面的测试压力小,没有测出IOPS的瓶颈,使用如下命令再次测试,并发500左右时,IOPS达到16000。测试盘对应DS5100存储80块1.83TB的SATA磁盘,raid5,平均每块盘IOPS为200。测试只使用8K的随机读进行测试

./orion -run advanced -testnamemytest_IOPS_wj -num_disks 100 -write 0 -size_small 8 -size_large 1024 -type seq-matrix row -num_large 0 \

-verbose -cache_size 16000

orion 使用orion测试存储性能

测试场景2:1M数据块的随机读测试MBPS

MBPS:wj远程测试20并发时500 MBPS,dzm本地盘可达1100 MBPS

orion 使用orion测试存储性能

测试场景38k数据块测试存储IOPS和延迟

IOPS:并发50时,dzm本地IOPS可达8000,而远程基本是本地的一半,4000IOPS。按照趋势,IOPS还未测试到瓶颈。

orion 使用orion测试存储性能

延迟:在8k随机读场景下,本地延迟为6ms,远程为13ms

orion 使用orion测试存储性能

b) 测试服务器本地磁盘

测试场景1:测试本地8块1TB的SATA磁盘

使用命令:./orion -run simple-testname mytest -num_disks 8

IOPS为3100左右,平均每块盘400左右,比实际&#20540;要大一些,应该和磁盘的cache有关

orion 使用orion测试存储性能

MBPS为343,每块盘343/8=43MBPS,和文章中的数据基本一致

orion 使用orion测试存储性能

三 : 求iphone4s使用高手指点iphone4s如何使用怎么存储歌

求iphone4s使用高手指点

iphone4s如何使用怎么存储歌曲,图片啊?我知道使用另一个软件来存储,但存储时需要先替换原来的东西,怎么才能不替换,直接存入,还有怎么设置自己喜欢的歌曲为铃声?希望高手指点,100分送上~


在安装了itunes的机器上使用iFunBox.exe可以到特定的目录下直接存放文件。

比如说/private/var/ mobile /Media/iTunes_Control/Music是放音乐的,不过通过itunes的音乐文件在这里被改名存放。

/Library/Wallpaper是放壁纸的。

设置铃声比较麻烦,,而且有很多限制,比如说不支持mp3铃声(支持AAC),不能大于40秒.用itunes可以转换AAC。

既然已经越狱,添加一些比较好的源,比如威锋源,阅读软件大把可以选择。

四 : 怎么使用SkyDrive云存储更方便?

  Win8.1增强了SkyDrive云存储的优先级,默认设置下文件都会被优先保存到SkyDrive。不过,如果网络环境不是太好,某些个头比较大的文件在下载时将耗费比较多的时间,如果处于离线状态,还会看到文件不可用的提示,有时很耽误事。有没有好的解决方法。

【解题思路】

Windows 8.1默认设置下,桌面版SkyDrive的所有文件都是“联机可用”,只有在打开某个文件之后,该文件才会联机下载到本地。我们可以从这一点上来突破解决。

【解题方法】

进入Windows 8.1的桌面环境,打开文件资源管理器,在左侧导航树下选择“SkyDrive”,在右侧窗格选择需要经常使用的文件或文件夹,右击,从右键菜单选择“脱机可用”,这样在没有网络的情况下,这些文件也是可以使用的。当然这会占用硬盘空间。

如果硬盘空间足够,也可以考虑将所有文件都设置为“脱机可用”:从开始屏幕打开SkyDrive,从超级工具栏选择“设置”,进入设置界面之后,选择“选项”,在右侧窗格将“脱机访问所有文件”设置为启用状态。此时如果在桌面环境下右击SkyDrive文件夹或文件,右键菜单会增加“仅联机可用”的选项。

五 : Openstack存储总结之:详解如何使用NFS作为Cinder的后端存储

NFS服务简单描述

NFS是Network File System的缩写,即网络文件系统。(www.61k.com]一种使用于分散式文件系统的协定,由Sun公司开发,于1984年向外公布。功能是通过网络让不同的机器、不同的操 作系统能够彼此分享个别的数据,让应用程序在客户端通过网络访问位于服务器磁盘中的数据,是在类Unix系统间实现磁盘文件共享的一种方法。

NFS的基本原则是“容许不同的客户端及服务端通过一组RPC分享相同的文件系统”,它是独立于操作系统,容许不同硬件及操作系统的系统共同进行文件的分享。

NFS在文件传送或信息传送过程中依赖于RPC协议。RPC,远程过程调用(Remote Procedure Call) 是能使客户端执行其他系统中程序的一种机制。NFS本身是没有提供信息传输的协议和功能的,但NFS却能让我们通过网络进行资料的分享,这是因为NFS使 用了一些其它的传输协议。而这些传输协议用到这个RPC功能的。可以说NFS本身就是使用RPC的一个程序。或者说NFS也是一个RPC SERVER。所以只要用到NFS的地方都要启动RPC服务,不论是NFS SERVER或者NFS CLIENT。这样SERVER和CLIENT才能通过RPC来实现PROGRAM PORT的对应。可以这么理解RPC和NFS的关系:NFS是一个文件系统,而RPC是负责负责信息的传输。

NFS服务器端

NFS服务器端的安装

yum -y install rpcbind nfs-utils

NFS服务器端的配置

NFS服务器端的配置比较简单,基本只涉及/etc/exports文件的修改,配置内容如下:

/nfs/shared192.168.40.0/255.255.255.0(rw,sync)

以上配置标示"192.168.40.0/255.255.255.0"这个网段的用户可以挂载NFS服务器上的/nfs/shared目录,挂载后具有读写权限,由于没有指定压缩用户权限的方式,所以就算以root身份登录,也会被降级为nobody

NFS服务的启动

service rpcbind startservice nfs startservice nfslock startchkconfig rpcbind onchkconfig nfs onchkconfig nfslock on

NFS服务验证

服务器端使用showmount命令查询NFS的共享状态

# showmount-e    //默认查看自己共享的服务,前提是要DNS能解析自己,不然容易报错# showmount-a    //显示已经与客户端连接上的目录信息

客户端使用showmount命令查询NFS的共享状态

# showmount -e NFS服务器IP

NFS系统守护进程

  • nfsd:它是基本的NFS守护进程,主要功能是管理客户端是否能够登录服务器;
  • mountd:它是RPC安装守护进程,主要功能是管理NFS的文件系统。当客户端顺利通过nfsd登录NFS服务器后,在使用NFS服务所提供的文件前,还必须通过文件使用权限的验证。它会读取NFS的配置文件/etc/exports来对比客户端权限。
  • portmap:主要功能是进行端口映射工作。当客户端尝试连接并使用RPC服务器提供的服务(如NFS服务)时,portmap会将所管理的与服务对应的端口提供给客户端,从而使客户可以通过该端口向服务器请求服务。

NFS的常用目录

/etc/exports                          NFS服务的主要配置文件

/usr/sbin/exportfs                  NFS服务的管理命令

/usr/sbin/showmount             客户端的查看命令

/var/lib/nfs/etab                     记录NFS分享出来的目录的完整权限设定值

/var/lib/nfs/xtab                     记录曾经登录过的客户端信息

NFS目录的重新挂载

如果我们在启动了NFS之后又修改了/etc/exports,是不是还要重新启动nfs呢?这个时候我们就可以用exportfs命令来使改动立刻生效

exportfs -arv

Cinder节点NFS客户端配置

安装相关软件

yum install rpcbindnfs-utils

启动相关服务

servicerpcbind startservicenfslock startchkconfigrpcbind onchkconfignfs onchkconfignfslock on

检查NFS服务器端的共享信息

NFS服务器的IP为192.168.40.107

[root@controllernodeimages(keystone_admin)]# showmount -e 192.168.40.107Exportlist for 192.168.40.107:/nfs/shared192.168.40.0/255.255.255.0

挂载到本地目录

cd /rootmkdir nfssharemount -tnfs 192.168.40.107:/nfs/shared /root/nfsshare/

查看挂载结果

[root@controllernode~(keystone_admin)]# df -hFilesystem Size Used Avail Use% Mounted on/dev/sda1 97G 4.8G 87G 6% /tmpfs 3.9G 4.0K 3.9G 1% /dev/shm/srv/loopback-device/swift_loopback 1.9G 67M 1.8G 4% /srv/node/swift_loopback192.168.40.107:/nfs/shared 444G 1.4G 420G 1% /root/nfsshare

需要注意的是,如果此时NFS服务器出现故障,或者是客户端不能连接到服务端,由于该命令要等待文件系统查找超时后才返回结果,所以该操作会变的很慢,该原理是用于所有针对文件系统的命令,例如 df,ls,cp等

Cinder节点NFS后端存储配置

创建/etc/cinder/nfsshares文件,并编辑内容如下

192.168.40.107:/home/nfsshare

设置配置文件的权限

[root@controllernode~]# chown root:cinder /etc/cinder/nfsshares[root@controllernode~]# chmod 0640 /etc/cinder/nfsshares

配置cinder的volume 服务是用NFS

修改/etc/cinder/cinder.conf中的值为/etc/cinder/nfsshares,可执行下面的命令

openstack-config --set /etc/cinder/cinder.conf \DEFAULT nfs_shares_config /etc/cinder/nfsshares

配置cinder的volume使用的驱动,可使用以下命令

openstack-config --set /etc/cinder/cinder.conf \DEFAULT volume_driver cinder.volume.drivers.nfs.NfsDriver

重新启动服务

service openstack-cinder-volume restart<span style="font-size:14px;"> </span>

查看客户端上磁盘的情况

nfs [原]Openstack存储总结之:详解如何使用NFS作为Cinder的后端存储

添加了最后一条记录

创建一个虚拟机,网络硬盘,并将网络硬盘挂载到主机上

控制台:

nfs [原]Openstack存储总结之:详解如何使用NFS作为Cinder的后端存储

虚拟机:

nfs [原]Openstack存储总结之:详解如何使用NFS作为Cinder的后端存储

在虚拟机中挂载硬盘

先使用下面的命令格式化

mkfs.ext4 /dev/vdb

再以此执行下面的命令

nfs [原]Openstack存储总结之:详解如何使用NFS作为Cinder的后端存储

问题

挂载的过程中,nova/compute.log中出现以下异常

2014-10-2312:23:28.193 1747 INFO urllib3.connectionpool [-] Starting new HTTP connection(1): 192.168.40.2482014-10-2312:23:28.395 1747 WARNING nova.virt.libvirt.utils[req-5bf92b88-6d15-4c41-8ed7-3325fdea0dcf 5832a2295dc14de79522ee8b42e7daac9207105ae2ac4ef3bdf5dfe40d99fd8d] systool is not installed2014-10-2312:23:28.449 1747 WARNING nova.virt.libvirt.utils[req-5bf92b88-6d15-4c41-8ed7-3325fdea0dcf 5832a2295dc14de79522ee8b42e7daac9207105ae2ac4ef3bdf5dfe40d99fd8d] systool is not installed2014-10-2312:23:28.451 1747 INFO urllib3.connectionpool [-] Starting new HTTP connection(1): 192.168.40.2482014-10-2312:23:28.960 1747 ERROR nova.virt.block_device[req-5bf92b88-6d15-4c41-8ed7-3325fdea0dcf 5832a2295dc14de79522ee8b42e7daac9207105ae2ac4ef3bdf5dfe40d99fd8d] [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] Driver failed to attach volume a1862c54-0671-4cc5-9fce-5e5f8485c21fat /dev/vdb2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] Traceback (most recent call last):2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] File"/usr/lib/python2.6/site-packages/nova/virt/block_device.py", line239, in attach2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] device_type=self['device_type'], encryption=encryption)2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] File"/usr/lib/python2.6/site-packages/nova/virt/libvirt/driver.py", line1267, in attach_volume2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] disk_dev)2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] File"/usr/lib/python2.6/site-packages/nova/openstack/common/excutils.py",line 68, in __exit__2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] six.reraise(self.type_, self.value, self.tb)2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] File"/usr/lib/python2.6/site-packages/nova/virt/libvirt/driver.py", line1254, in attach_volume2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] virt_dom.attachDeviceFlags(conf.to_xml(), flags)2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] File "/usr/lib/python2.6/site-packages/eventlet/tpool.py",line 183, in doit2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] result = proxy_call(self._autowrap, f, *args, **kwargs)2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] File "/usr/lib/python2.6/site-packages/eventlet/tpool.py",line 141, in proxy_call2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] rv = execute(f, *args, **kwargs)2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] File "/usr/lib/python2.6/site-packages/eventlet/tpool.py",line 122, in execute2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] six.reraise(c, e, tb)2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] File "/usr/lib/python2.6/site-packages/eventlet/tpool.py",line 80, in tworker2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] rv = meth(*args, **kwargs)2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] File "/usr/lib64/python2.6/site-packages/libvirt.py", line419, in attachDeviceFlags2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] if ret == -1: raise libvirtError ('virDomainAttachDeviceFlags() failed',dom=self)2014-10-2312:23:28.960 1747 TRACE nova.virt.block_device [instance:eb1742c6-1e73-4656-b646-ca8442519e7a] libvirtError: internal error unable toexecute QEMU command '__com.redhat_drive_add': Device 'drive-virtio-disk1'could not be initialized

解决方法

这个错来自libvirt,做以下设置即可,先察看virt_use_nfs是off还是on

/usr/sbin/getseboolvirt_use_nfs

如果是off,做以下设置

/usr/sbin/setsebool -P virt_use_nfs on
本文标题:如何使用云存储-在国内如何使用Dropbox网盘的存储功能
本文地址: http://www.61k.com/1147414.html

61阅读| 精彩专题| 最新文章| 热门文章| 苏ICP备13036349号-1