OVH ASRACK主板的坑

OVH的服务器的bios设置默认都是UEFI,ok这个没有问题,我也就是顺势给我的着他服务器在UEFI下安装ESXi.

但是发现选择用UEFI CDROM启动后,无法进入安装界面,最后还是跳回选择启动选项的页面. 这个情况倒是第一次见,因为ESXi从6.5开始就支持UEFI了

发ticket给OVH support,8个小时候得到了回复,说是这款主板的可能不支持UEFI安装的ESXi

说实话我以前都是在legacy bios下安装ESXi的,这下子正好随我意了

在BIOS里面选择只使用legacy bios,然后选择CDROM启动,熟悉的ESXi安装界面就又回来了

所以说这是ASRACK的一个坑啊, 折腾我整整一晚上才安装好ESXi

 

OVH文档常用链接

Failover IP另外一种配置方法:

https://docs.ovh.com/ie/en/public-cloud/configure_a_failover_ip_with_centos/

用IPMI安装OS:

https://support.us.ovhcloud.com/hc/en-us/articles/360000108630-How-to-Install-an-OS-with-IPMI

从BIOS里面设置硬RAID

https://support.us.ovhcloud.com/hc/en-us/articles/360004809700-How-to-Configure-RAID-from-the-BIOS

ESXi6.5安装创建VM

https://support.us.ovhcloud.com/hc/en-us/articles/360003263859-How-to-Create-a-VM-in-VMware-ESXi-6-5

使用救援模式

https://support.us.ovhcloud.com/hc/en-us/articles/115001754490-How-to-Use-Rescue-Mode

从网络模式启动:

https://support.us.ovhcloud.com/hc/en-us/articles/360002065130-How-to-Boot-a-Server-in-Network-Mode

独立服务器连接到vRack

https://support.us.ovhcloud.com/hc/en-us/articles/360001410984-How-to-Connect-a-Dedicated-Server-to-vRack

虚拟化的VM连接到网络

https://support.us.ovhcloud.com/hc/en-us/articles/360002175944-How-to-Connect-a-VM-to-the-Internet-Using-VMware-ESXi-6-5

OVH的服务器自带软Raid的问题

OVH的服务器比较有意思,给的配置都会考虑冗余,因此每种硬盘都会给两个,默认给你组成软raid

刚开始我也在犹豫,能不能不要软raid? 因为虚拟化软件esxi不支持软raid, proxmox 的默认zfs 比软raid 要成熟很多

现在答案出来了,这是可以的. 如果你使用OVH的系统来安装OS但是又不想组软raid,那么在选择使用的硬盘的时候选择1,这样就不会组软raid了

另外如果你是使用IPMI来安装OS的话,那么就更简单了,正常安装OS就可以了

OVH的小鸡benchmark

以前没有用过NVME,这次的OVH的服务器的SSD是NVME的,赶紧装个VM测试下IO

测试所使用的程序:

wget -qO- bench.sh | bash

下面是结果:

----------------------------------------------------------------------
CPU model : Intel(R) Xeon(R) E-2236 CPU @ 3.40GHz
Number of cores : 8
CPU frequency : 3407.998 MHz
Total size of Disk : 22.3 GB (1.8 GB Used)
Total amount of Mem : 7987 MB (183 MB Used)
Total amount of Swap : 7628 MB (0 MB Used)
System uptime : 0 days, 3 hour 40 min
Load average : 0.00, 0.00, 0.00
OS : Debian GNU/Linux 9
Arch : x86_64 (64 Bit)
Kernel : 4.9.0-12-amd64
----------------------------------------------------------------------
I/O speed(1st run) : 1.3 GB/s
I/O speed(2nd run) : 1.3 GB/s
I/O speed(3rd run) : 1.3 GB/s
Average I/O speed : 1331.2 MB/s
----------------------------------------------------------------------
Node Name IPv4 address Download Speed
CacheFly 205.234.175.175 114MB/s
Linode, Tokyo2, JP 139.162.65.37 9.46MB/s

可以看到,IO读写能够到1.3GB/s…比sata ssd 要快1倍,这是很爽的

OVH安装ESXi或者Proxmox后,使用Failover IP来创建VM

OVH的failover 使用在虚拟化的VM中比较多,比如说ESXi的VM或者Proxmox的VM

按照OVH的官方文档,在VM上配置failover IP时,可以使用如下的信息:

IP: 你想要使用的failover IP

netmask: 255.255.255.0

Gateway: 你的服务器的主IP的前三位,第四位是254

举个例子,如果你的服务器的主IP是91.34.67.123, 那么gateway 的IP就是91.34.67.254

这个写法是OVH官方推荐的,没有任何问题, 但是前提是VM已经创建好了可以这么配置. 

但是在实际使用的时候,就会出现了大问题. 这个问题主要是指,在安装centos或者debian, ubuntu的时候,我们一般都是用netinstall 的ISO来进行最小化安装.在安装的过程中,都是需要配置IP来访问网络下载组件的.

Linux系统,默认的情况下是不允许IP和gateway的IP不在一个网段的,这个规则的大部分情况下没有任何问题. 但是在OVH或者scaleway上,就会有问题. 因为你的OVH的服务器的主IP和你分配得到的failover 的IP往往不是一个网段的. 如果下下面的情况很常见:

比如说OVH服务器的主IP是54.23.66.78, 分配的failover IP是91.56.33.78。按照上面的例子,我们应该这样配置VM的IP:

IP: 91.56.33.78

netmask: 255.255.255.0

gateway IP: 54.23.66.254

但是在用netinstall ISO 进行系统安装的时候,系统会告诉你无法访问网络,因为IP 和gateway IP不在一个网段. 那么有没有解决办法呢?很简单,我们可以设置netmask为255.255.255.255, gateway的IP就是failover IP本身,这样也是可以访问网络的. 按照上面的例子,我们需要这样配置:

IP:91.56.33.78

netmask: 255.255.255.255

gateway ip: 91.56.33.78

这种办法是可以访问网络,但是请不要长期使用,因为OVH会封掉这种流量。因此建议在系统完成后,编辑IP配置,还是按照OVH的官方文档来.

 

OVH服务器的坑解析

无意中找到了一个OVH的老帐号,购买了一台服务器,订单很快就通过了.

OVH的服务器,其实价格并不便宜,而且还有不菲的初装费. 但是IP的价格便宜,每个IP只收3美金的初装费,每个月就不需要再另外付费了. 一台服务器最多可以添加255个IP.

OVH的网站上写着服务器都支持IPMI,我以为最起码都是supermicro的服务器呢。。后来才发现我想多了。。。

OVH的IPMI文档:

https://support.us.ovhcloud.com/hc/en-us/articles/360000108630-How-to-Install-an-OS-with-IPMI

其实这个文档里面已经透露出来OVH使用的是什么服务器了.

我买的是advance-2型号的服务器,打开IPMI我就傻眼了,并不是熟悉的Supermicro IPMI界面。。。而是ASRACK的主板

OVH的服务器主要使用两种主板,一个ASRACK的廉价主板,一个是supermicro的主板

购买之前一定要问好了是哪种服务器,supermicro要比asrock的好很多

但是实际使用过程中,我发现asrack 的IPMI要比supermicro 的稳定很多

OVH 使用的NVME SSD 都是WD的CL SN720,非常不错,算是企业级的SSD了

OVH的各站点的区别

从服务器的数量上来说,OVH应该是世界第一大IDC,一共有30个数据中心外加34个PoP

OVH的站点众多,很多人上来就会迷糊了。。。其实主要有以下区别:

  1. OVH的world主站,应该是OVH Canada在运营
  2. OVH US是一个单独的brand,由OVH US单独运营,和OVH world的账户不通用. OVH US 经常会有很好的sale和 best value 出现,因此注册一个OVH US 的账号还是很有必要的. OVH US的账号可以买OVH全球的服务器,除了亚洲dd(新加坡和悉尼)
  3. OVH.ie, 国人最喜欢的欧洲站点,好搞免税
  4. OVH.com/fr, OVH的大本营,经常会有很好的sale出现,但是是法语

 

Hostloc上很多人喜欢去注册ovh.ie然后搞免税. 如果没有任何sale的话,全球任何一个站点,不论是美元计费还是欧元计费,基本价格都是一样的. 所以正常购买的话,直接买world站的服务器就好了,还不需要搞免税. 但是可能会需要验证身份, 这个对于正规做网站的公司和个人来说没有什么影响.

OVH的欧洲账户直接购买就可以了,不需要验证账户。但是默认都有VAT的存在,需要提交身份认证搞免税. 其实我个人觉得不如在world主站买就好了.

vCSA Hardware Requirements

在ESXi 6.7 上,使用vCSA 的话, tiny environment 是足够的. 但是在最新版本的vCSA 6.7中,总是会出现内存不足的warning。

经过一番google 知道了,VMWARE 在vCSA中主要使用的是Java,这是Java 的内存机制造成的,简单的解决办法就是直接增加vCSA 的内存. 在 ESXi 6.0 以后, vCSA 的内存是可以在VM 上直接更改的,这是很方便的事情。

另外如果服务器硬件足够,建议直接deploy 一个small 或者 medium environment 来直接解决这个问题。

下图是vCSA 的硬件需求,以后就不用每次都去翻官网了.

 

 

Small environment 都需要4 vCPU, 16 GB 的RAM,storage 也需要340GB, 最好是SSD

这个需求,说实话,真的比很多德利服务器的配置都高了。

不过幸好online.net, OVH 以及hetzner 这样的服务商的存在。。

推荐online.net 和OVH, 起码都是企业级的硬件和网络, hetzner 就要差点了