61阅读

办护照会遇到的问题-今天做Simtrade遇到的问题!

发布时间:2017-07-30 所属栏目:魔兽收金

一 : 今天做Simtrade遇到的问题!

今天在图书馆做Simtrade,做进口商时,该提货了,被提示,货物被偷了,让我马上去保险公司索赔。我当时也不清楚怎么回事,只知道货物是提不到了。点到保险公司,办理索赔,然后查了查财务就看到多了4万多美元。这下可省事了,一批货物还未到目的港就被偷了,进口这边只要向保险公司索赔然后付汇核销就完事了。分析了一下,按市场价卖本可以赚USD83810,出事之后保险公司赔了USD42160,虽然少赚了一半,但幸好上的是一切险加战争险,要不就彻底赔了啊!哈哈……知足常乐!!!在帮助里有这种类似的问题。货物在运输过程中有可能遇到意外造成损失,不能换提单提货,这时,如果已经投保,进口商就应凭保险单到保险公司办理索赔;索赔完成后,不需要再进口报检和报关,也无需填写“进口付汇到货核销表”,只要于付款后到外管局凭“进口付汇核销单”办理进口付汇核销,即可完成合同。货物运输保险的责任范围包括基本责任、除外责任和附加或特约责任。货物运输保险承保的基本责任包括:火灾、爆炸、雷电、冰雹、暴风、暴雨、洪水、海啸、破坏性地震、地面突然塌陷、突发性滑坡,崖崩、泥石流;因运输工具发生火灾、爆炸、碰撞造成所载被保险货物的损失,以及运输工具在危险中发生卸载对所载货物造成的损失以及支付的合理费用;在装货、卸货或转载时发生意外事故所造成的损失;利用船舶运输时,因船舶搁浅、触礁、倾覆、沉没或遇到码头坍塌所造成的损失;利用火车、汽车、大车、板车运输时,因车辆倾覆、出轨、隧道和码头坍塌或人力、畜力的失足所造成的损失;利用飞机运输时,因飞机遭受碰撞、倾覆、坠落、失踪(在3个月以上),在危险中发生卸载,以及遭受恶劣天气或其他危难事故,发生抛弃行为所造成的损失;在发生上述灾害或事故时,遭受盗窃或在纷乱中造成被保险货物的损失;在发生保险责任事故时,因施救或保护被保险货物支出的直接的合理费用。附加或特约承保的责任分为一切险、单独附加险、综合险和特别附加险四种。一切险包括偷窃、提货不着险,淡水雨淋险,短量险,混杂沾污险,渗漏险,碰撞破碎险,串味险,受潮受热险,钩损险,包装破裂险,锈损险等险种。又巩固一下外贸保险方面的知识!

二 : 魔兽问题大家帮帮看看大家再打魔兽的时候都会遇到无维修费用,低维修

魔兽问题大家帮帮看看

大家再打的时候都会遇到无维修费用,低维修费用,高维修费用 这和人口比例有关系吗?
比如78/80的人口就会出现?
还是说这个是随机的大家都一样??
我是低维修大家也是一样的?


是按照人口算的:

无维修费用——0-50人口——100%黄金收入

低维修费用——51-80人口——70%黄金收入

无维修费用——81-100人口——40%黄金收入

三 : hadoop遇到的问题

装好hadoop,但是一直出现问题,总结如下:

排错到现在,最大的感觉是,也许你的错误表象跟网上说的一样,但是解决方法会大有不同,只能说这种错误是同一问题(如namenode出错)导致,但是究竟是什么行为导致这个问题,每个人也许都不相同,所以重点是找到自己的操作时的错误所在.

1.Too many fetch-failures错误

问题介绍:)
        出现这个问题主要是结点间的连通不够全面。(www.61k.com)
    检查 、/etc/hosts
              要求本机ip 对应 服务器名
              要求要包含所有的服务器ip + 服务器名
    检查 .ssh/authorized_keys
              要求包含所有服务器(包括其自身)的public key

(没解决问题。。。。。。。。最后自己该了下网络链接,问题接二连三的变成下面情况。。。)

2.web页面上的LiveNode中有一个datanode的链接不能打开,但是只能用别名node3,

  修改个task的/etc/hosts,是网络中每个ip地址对应一个主机名,保证ssh能链接到各个主机名,注意一定要连接到主机名

3.datanode进程正常启动,但是在web页面上看到live Node为0,tasktracker也不可用

  (此时如果使用hadoop fs -put或-copyFromLocal等会得到could only be replicated to 0 nodes, instead of 1”)

    1.关闭防火墙,(ubuntu下默认关闭)

   2. 关闭safenode模式:把safemode置于off状态:hadoop dfsadmin -safemode leave

   3,都说是haoop.tmp.dir没有删除干净就把namenode格式化了,但是我已经把namenode还有datanode上的都删了,还是没有解决。。

 个人觉得以上三种方法,都是针对datanode本身就没有正常启动的,但是我的datanode进程已经有了(用jps看见)。所以没有解决问题

  最后我在每个节点的/etc/hosts里把127.0.0.1都注释掉,就正常了。(这步可能不是这个原因,因为网上都说这个是可以存在的,并且后来我又把这句加上去了,也没有再出现类似错误)并且没有在出现最开始的too many fetch-failure错误。

4.connect to host gp port 22: No route to host
  发现竟然是重启电脑后,有一个datanode的IP改变了,所以要修改其他机器的/etc/hosts.

5.Retrying connect to server: localhost/127.0.0.1:9000. Already tried 0 time(s)...............

Call to localhost/127.0.0.1:9000 failed on connection exception

(一般这个问题肯定是namenode连接不正常引起的,所以主要是检查namenode进程是否正常启动,我则是因为其他原因。。虽然有相同症状,但是错误不同)

第一次运行没出这个问题,这次在外面运行测试TestDFSIO也正常,但是在eclipse中运行自己写的MapReduce程序却出现这个错误。

 原因应该是这次我是在集群上运行的,所以一定要把程序打包成jar,文件使用hadoop jar运行,这样namenode才能进行map和reduce任务的分发。

(突然觉得单元测试还是很有必要的,以前一直懒得看。。。。)

6.关于 Warning: $HADOOP_HOME is deprecated.

刚刚把hadoop升为1.0.0版本。一直出现这个警告:解决链接:http://www.dw4e.com/?p=83

经查hadoop-1.0.0/bin/hadoop脚本和hadoop-config.sh脚本,发现脚本中对HADOOP_HOME的环境变量设置做了判断,笔者的环境根本不需要设置HADOOP_HOME环境变量。
参考文章:
HADOOP-7398
解决方案一:到HOME目录编辑.bash_profile文件,去掉HADOOP_HOME的变量设定,重新输入hadoop fs命令,警告消失。
解决方案二:到HOME目录编辑.bash_profile文件,添加一个环境变量,之后警告消失:

export HADOOP_HOME_WARN_SUPPRESS=1

ubuntu重启网络命令:sudo /etc/init.d/networking restart

ubuntu主机名文件:/etc/hostnam

本文标题:办护照会遇到的问题-今天做Simtrade遇到的问题!
本文地址: http://www.61k.com/1055819.html

61阅读| 精彩专题| 最新文章| 热门文章| 苏ICP备13036349号-1