程序员人生 网站导航

最近遇到的问题

栏目:互联网时间:2014-11-06 11:46:20

1.前两天为了搭建OpenStack,安装的时候总是出现毛病,我想了1下,每一个安装包开始的时候都是可以下载的,但是下载着就会出现毛病,而且下载速度超级慢,所以,我就猜想多是由于外国的http://www.wfuyu.com/server/到国内速度太慢了。

2.可是国外到国内速度太慢了怎样解决呢?刚开始我想到了直接在国内找1个OpenStack源,这样就能够不用麻烦了,直接就能够用了,但是事情出乎意料,怎样找都找不到OpenStack的yum源,普通的yum源倒是很多。那怎样办呢?

3.我就去网上花了18块钱买了1个vps,打算自己搭建vpnhttp://www.wfuyu.com/server/,可是如果自己1步步搭建这个速度太慢了,自己不想太麻烦,最近只想能用就行。

4.百度到1个快速搭建http://www.wfuyu.com/server/的方法,开始搭建,速度的确很快,几分钟就弄定了。

5.我用自己的pc主机测试了1下连接,可以连接上,感觉速度还行,访问Facebook甚么的都不是很卡。

6.我就利用在http://www.wfuyu.com/server/上,但是坑爹的事情产生了,明明在pc机上可以用,但是1到http://www.wfuyu.com/server/上访问网站就打不开了,我猜想可能没有弄好

7.我打开cmd,输入tracert检测路由,看1下路径和dns解析是不是正确,结果测试了1下路径这些完全正确,可就是网页打不开。

8.没办法,我猜想多是由于连接了多重的vpn(由于学校的网络设置,所以我连接了2个vpn来绕开学校的计费系统)致使网速,数据发包等问题

9.想来想去,还是觉得自己建1个yum源

10.可是建立yum发现官网的源是https协议的,不能用ftp进行连接。如果要1个个渐渐下载那还不下的累死。

11.所以我就去网上寻觅可以把1个页面所有的url里的数据下载下来的工具。

12.百度了1下发现迅雷那些都可以,结果去实验了1下,发现有点坑爹只是几个字母的组合可以,其他的全站的数据包貌似不行。

13.想了1下去百度渐渐找,还不如自己写1个python的脚本,这样可以不用自己手动去抓,运行脚本放在那里就好,比较方便。

14.自己写了1个脚本,然后运行抓取数据。开始在本地测试,总是出现写

import urllib con=urllib.urlopen('https://repos.fedorapeople.org/repos/openstack/openstack-icehouse/epel⑹/').read() tail=con.find(r'repodata/</a>',0) while con.find(r'<a href=',tail)>0: title=con.find(r'<a href=',tail) start=con.find(r'="',title) tail=con.find(r'">',start) filename=con[start+2:tail] url="https://repos.fedorapeople.org/repos/openstack/openstack-icehouse/epel⑹/"+filename print url content=urllib.urlopen(url).read() openfile=open(filename,"wb") openfile.write(content) openfile.close() else: print "it is end!"

入权限不够,我以为程序写的有问题,仔细看了1下报错才发现是IO权限不够,所以迁移了1下目录,测试终究成功。开始下载数据,只需等待下载终了然后建立yum源。



------分隔线----------------------------
------分隔线----------------------------

最新技术推荐