㈠ proxmox 可以部署ceph吗
一.前言
proxmox 是一个开源的虚拟化管理平台,支持集群管理和HA.在存储方面,proxmox除了支持常用的lvm,nfs,iscsi,还支持集群存储glusterfs和ceph,这是我们选择它的原因.
proxmox官方提供ISO下载,因此安装变得非常简单,安装后浏览器打开http://x.x.x.x:8006/ 就可以看到管理平台了.本文基于目前最新版本3.1测试,动工吧.
二.集群配置
集群由多台虚拟化主机组成,创建集群后就可以统一管理多台机器了.
1.创建一个集群,登陆其中一台机器,为集群起个名字
pvecm create YOUR-CLUSTER-NAME
2.依次登陆其余的机器,加入到上面的集群(IP地址为上面机器的IP)pvecm add IP-ADDRESS
3.查看集群状态pvecm status
CID----IPADDRESS----ROLE-STATE--------UPTIME---LOAD----MEM---ROOT---DATA
1 : 192.168.7.104 M A 5 days 01:43 0.54 20% 1% 4%
2 : 192.168.7.103 N A 2 days 05:02 0.04 26% 5% 29%
3 : 192.168.7.105 N A 00:13 1.41 22% 3% 15%
4 : 192.168.7.106 N A 00:05 0.54 17% 3% 3%
4.查看集群内的节点
pvecm nodes
Node Sts Inc Joined Name
1 M 156 2011-09-05 10:39:09 hp1
2 M 156 2011-09-05 10:39:09 hp2
3 M 168 2011-09-05 11:24:12 hp4
4 M 160 2011-09-05 10:40:27 hp3
经过很简单的配置,集群已经创建完成了,如果要使用故障自动切换功能,接下来还需要配置HA功能.
三.HA配置
配置HA需要满足下面条件:
1)集群已经创建好
2)添加好集中/共享存储(nfs,glusterfs,ceph等)
3)fence设备 (IPMI,APC Switch Rack PDU等)
关于fence设备,是用于集群出现网络故障或机器异常时的隔离处理,这样有效防止HA运行时启动了多个vm访问同一个虚拟磁盘,避免破坏数据.
官方有更详细的说明 http://pve.proxmox.com/wiki/Fencing .
1.IPMI配置
由于对其他的fence设备都不了解,看起来最入门的就是IPMI了,刚好我们的IBM测试机器也有这个功能,就用它了!
先确认ipmitool已经安装
apt-get update
apt-get install ipmitool
加载需要的模块
modprobe ipmi_msghandler
modprobe ipmi_devintf
modprobe ipmi_si
modprobe ipmi_poweroff
modprobe ipmi_watchdog
测试ipmitool是否正常工作
ipmitool -I open sensor
ipmitool -l open channel info 1
ipmitool -l open lan print 1
为ipmi添加管理IP和登陆账号,密码(这个IPMI功能我们公司一直在用(用于机器重启,开关机等) 机器交到我手上已经设置好了 )
ipmitool -l open lan set 1 ipsrc static
ipmitool -l open lan set 1 ipaddr 192.168.1.91
ipmitool -l open lan set 1 netmask 255.255.255.0
ipmitool -l open lan set 1 defgw ipaddr 192.168.1.1
ipmitool user set name 1 root
ipmitool user set password 1 123456
ipmitool user set password 2 123456
ipmitool -l open user list 1
ID Name Callin Link Auth IPMI Msg Channel Priv Limit
1 root false false false NO ACCESS
2 ADMIN false false true ADMINISTRATOR
以上设置在集群内每台机器执行
2.fence配置
编辑/etc/default/redhat-cluster-pve,下面语句 去掉注释
FENCE_JOIN="yes"
把机器加入fence域,命令行执行
fence_tool join
以上操作在集群每台机器上执行
检查状态:
fence_tool ls
测试fence设备是否生效
fence_ipmilan -l root -p 123456 -a 192.168.1.91 -o status 1 -v #这个ip是刚才ipmi设置的ip
修改集群配置,注意下面IP是IPMI设置的IP地址
cp /etc/pve/cluster.conf /etc/pve/cluster.conf.new;nano /etc/pve/cluster.conf.new
<?xml version="1.0"?>
<cluster config_version="16" name="pve-wx-cluster">
<cman keyfile="/var/lib/pve-cluster/corosync.authkey"/>
<fencedevices>
<fencedevice agent="fence_ipmilan" ipaddr="192.168.1.91" lanplus="1" login="root" name="ipmi1" passwd="123456" power_wait="5"/>
<fencedevice agent="fence_ipmilan" ipaddr="192.168.1.92" lanplus="1" login="root" name="ipmi2" passwd="123456" power_wait="5"/>
<fencedevice agent="fence_ipmilan" ipaddr="192.168.1.93" lanplus="1" login="root" name="ipmi3" passwd="123456" power_wait="5"/>
</fencedevices>
<clusternodes>
<clusternode name="pve-5711003" nodeid="1" votes="1">
<fence>
<method name="1">
<device name="ipmi1"/>
</method>
</fence>
</clusternode>
<clusternode name="pve-5711008" nodeid="2" votes="1">
<fence>
<method name="1">
<device name="ipmi2"/>
</method>
</fence>
</clusternode>
<clusternode name="pve-5711009" nodeid="3" votes="1">
<fence>
<method name="1">
<device name="ipmi3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<rm>
</rm>
</cluster>
注意,每次修改这个配置文件,里面 config_version= 都要加1
验证配置文件
ccs_config_validate -v -f /etc/pve/cluster.conf.new
全部准备就绪,激活新配置文件
3.将vm加入HA
(添加后记得点击activate)
可以看到已经加入HA的虚拟机了
㈡ proxmox和vmware vsphere的区别
使用openfiler来创建一台iSCSI存储
esxi跟openfiler如何连接使用
首先,创建NAS网络用于esxi主机与共享存储数据交换。
然后添加iSCSI存储:
先启用软iSCSI软件适配器
连接iSCSI target存储:关闭之后就可以看见连接成功,如果出现错误请核实是否charp账户和密码输入有误。在每台esxi主机上都做如上添加这个iSCSI target 存储。
㈢ Proxmox重启网卡命令多少
Default Configuration (bridged) 默认配置(桥接)
The installation program creates a single bridge (vmbr0), which is connected to the first ethernet card (eth0).
安装程序创建一个单一桥(vmbr0),它是连接到第一个以太网卡(eth0的)。
auto lo
iface lo inet loopback
auto vmbr0
iface vmbr0 inet static
address 192.168.10.2
netmask 255.255.255.0
gateway 192.168.10.1
bridge_ports eth0
bridge_stp off
bridge_fd 0
Virtual machine behaves like directly connected to the physical network.
虚拟机行为就像直接连接到物理网络。
Routed Configuration
路由配置
Most hosting providers does not support above setup. For security reason they stop networking as soon as they detect multiple MAC addresses.
大多数托管服务提供商不支持以上设置。 出于安全原因,他们停止联网,尽快为他们检测多个MAC地址。
A common setup is that you get a public IP (assume 192.168.10.2 for this example), and additional IP blocks for your VMs (10.10.10.1/255.255.255.0). For such situation we recommend the following setup.
一个常见的设置是,您会获得一个公网IP(假设这个例子192.168.10.2),和其它的IP为虚拟机(10.10.10.1/255.255.255.0)。对于这样的情况下,我们推荐以下设置。
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet static
address 192.168.10.2
netmask 255.255.255.0
gateway 192.168.10.1
post-up echo 1 > /proc/sys/net/ipv4/conf/eth0/proxy_arp
auto vmbr0
iface vmbr0 inet static
address 10.10.10.1
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
Masquerading
Sometimes you want to use private IPs and masquerade the traffic:
有时你想使用私人IP和非真实地址:
auto vmbr1
iface vmbr1 inet static
address 192.168.0.234
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s '192.168.0.0/24' -o eth1 -j MASQUERADE
post-down iptables -t nat -D POSTROUTING -s '192.168.0.0/24' -o eth1 -j MASQUERADE
Unsupported Routing
不支持路由
Physical NIC (eg., eth1) cannot currently be made available exclusively for a particular KVM / Container , ie., without bridge and/or bond.
物理网卡(例如,eth1使用),目前不能提供专门针对特定的KVM /封装,即,无桥和/或直连。
㈣ 如何在自己服务器上创建虚拟主机并租赁出去
你服务器装的啥系统,联网没?正在运行?配置咋样的语言环境,就用什么面板来配置,有些可以申请自助开通,主要是有没有人愿意买,搭建分配虚拟机倒不是重点,你不会搭也可以找额,之前给idc弄过
㈤ 虚拟机Proxmox 6.0下,安装爱快软件路由,安装NAS,怎么配置IP
1、如果下载的是img镜像包,可以把做WayOS的磁盘挂到win系统下,直接用img写盘程序写入挂载的磁盘。
2、如果下载的是gho文件,也可以在系统下用ghost32直接克隆。
3、如果下载的是iso文件,就需要刻盘安装,如果不想刻盘,可以用VM虚拟机虚拟出来光驱再安装。
㈥ proxmox安装kvm虚拟机网络怎样配置
一、 服务器配置过程说明
首先需要现在服务器上找一个节点装window server,然后开始配置存储阵列为RAID 5;然后创建Proxmox集群以及KVM(也就是虚拟节点),在每个节点上安装centos系统并下载Teamviewer;最后简单讲讲Proxmox中节点备份与恢复。
二、 配置RAID:
1) 基本概念:
其实首先要知道RAID是什么,它相当于是一个存储模式,其实就是平常说起来很高大上的存储阵列,是在window server上面做的,也就是机房的服务器。一般机房默认是RAID 0,其实基本没什么改变,就是该有几块硬盘就用几块,不需要做额外的设置;但是这样一来缺点也很明显,因为一旦坏了那就只能自己和自己去哭了,没有备份或者恢复机制。所以现在一般都做RAID 5,就是相当于会腾出一块硬盘来做恢复与备份,用空间来换取整个集群的安全,还是很划算的。步骤如下:
2)操作流程:
按照顺序傻瓜操作向后点:硬件配置,配置向导——第一步,下一步——第1a步,清除外部配置,下一步——第2步,RAID0,下一步(这是为了清除最开始的时候默认RAID0配置)——第3步,协议:SAS,介质类型:HDD,加密功能:非加密,将磁盘全部选中,下一步——第4步,自动生成的参数,我的是:6517.00,1MB,自适应预读;回写,下一步——第5步,此步中要注意所有的物理磁盘都显示出来了,否则就要返回关机重配,完成——成功!
三、 开始创建Proxmox集群
1)基本概念:
这一步是为了能在上一步的基础上(window server操作系统和RAID 5的存储阵列)进一步安装集群,在集群上分配节点,然后每个节点都可以分别分给不同的人来操作,这样就是我们日常中操作的节点。步骤如下:
2) 操作流程:
a. 此时为无界面阶段
方法一: 进入黑屏界面之后,先按F11,进入界面选择UEFI,再选择有DVD那一步的选项;再按F1,进入简洁界面;BIOS-BOOT,进入界面;选择DVD;选择F2(此处有空白,3min);reboot;等待等待等待,之后的就是安装好之后的步骤···F1~~~
方法二: F12,然后PXE boot然后选择DVD或者SLOT选项
b. 接着是有安装界面的操作
同样是傻瓜式操作向后点: 下一步—— country:China,TimeZone:Asia/Chongqing,KeyBoard Layout:US,English,下一步—— 此处参数由自己定,下一步——下一步—— 成功!
c. 傻瓜操作结束,开始命令行操作进行集群搭建。 但是集群搭建之前需要解决两个问题:
1、vi编辑器过于不好用,下载vim: apt-get update; apt-get installvim;(然后在用vim编辑的时候看不到最上面就用shift+pageup向上调)
2、修改/etc/hosts与/etc/hostname中参数: 将二者中的PVE都改成每个ip对应的名字,eg:pve14之类的,这样节点才能加进去。
d.开始集群命令行操作:
1、创建集群名字aciecluster:pvecm create aciecluster
2、登陆每个slave 节点,执行:pvecm add 192.168.2.104(主节点IP)
3、在主节点查看状态:pvecm nodes
4、登录:http://192.168.2.104(主节点IP):8006
e。出现问题:250节点加不进去
1、添加节点后面添加–force(是两个横线),命令变成:pvecm add 192.168.2.250;
2、再重启集群:重启物理机;之后在客户端命令重启reboot
四、 创建KVM
1) 基本概念
其实KVM就是一个一个的虚拟节点,和虚拟机差不多,只不过这是安装在服务器端的虚拟机,安装步骤如下。
2)安装步骤
点击数据中心下想要创建节点的服务器,然后在右上角有“创建VM”标志——一般:点击之后给节点命名,给定VM ID,此处还可以改在其他的服务器上创建节点——OS:点选右侧Linux3.x/2.6kernel——CD/DVD:选第一个,导入镜像——硬盘:自己设置参数——CPU:自己设置参数——内存:自己设置参数——网络:自己设置参数——确认
五、 节点上CentOS 6.4系统安装:
1) 注意事项:
a)ALT+F5是把屏幕缩小,大致能看到下一步的位置;之后的界面就看不到了,在看不到tab之后连按两下就到了下一步
b) 第一个选skip;安装系统,一路正常配置,直到界面:
2)安装步骤:
use all space,review and modify partition layout,点击“next”——删除所有分区后,创建两个分区,其中一个为/boot(大小为200),另一个为/(点选“fill to maximum allowable size”,大小不用填写,意为自动分配所有剩余空间给它)—— Yes——next——Format——write changes to disk——next——点选minimal,next—— 完成后配置用户信息,欧了!
六、 配置IP并下载Teamviewer
上面的步骤基本上节点已经差不多了,就差IP了,配好IP后为了方便操作节点,每个节点上最好下载一个Teamviewer。步骤如下:
1、虚拟机联网(保证ip不变):
1)首先改成NAT模式(虚拟机——可移动设备——网络适配器——设置)
2)然后在IPv4里面把ip设置成手动的,更改IP地址、子网掩码、网关以及DNS,应用
3)最后点击右上角小电脑的logo,勾选enable notification就行了
2、 右上角小电脑变成disconnect的了,也就是说网络不能连接,而且ifconfig也找不到ip地址:
1)首先就是按照“1、”的步骤重新试一遍,其中要多注意一点就是他的物理地址要改成本机物理地址,就是ifconfig命令之后出来的那个本机地址(不是ip)
2)如果没有ifconfig信息,那么就需要先设置网络为桥接模式,然后再将网络改回来NAT模式。
3、开始下载Teamviewer:
1)wget download.teamviewer.com/download/linux_teamviewer.rpm
2)yum install linux_teamviewer.rpm3)这里就不用解压了,直接就可以运行了,此时已经能用了,在Application-Internet中找到teamviewer,可以右键把它加到桌面上
4、设置开机自启
1)在system-preference-startup Application 中设置
2)点击add,将Teamviewer的属性(从Teamviewer属性中复制出来黏贴进去就行了)添加进去,欧了
七、 Proxmox节点恢复与备份
自此为止,节点已经全部搞定了,然后之后就涉及到节点备份与恢复的问题,这里会简略讲一下。
1) 备份:
选中【数据中心】,选择【存储】标签,选中要添加支持的存储,点击【编辑】,在【内容】的下拉菜单中选上Backups。这里的【最大备份数】必须大于等于1,其含义为当某个虚拟机的备份文件超过最大备份数时,再进行备份将会删除时间最早的备份。这对后面要提到的自动备份计划而言非常有用,可以省去我们人工删除过时备份的麻烦。
PVE的备份文件存在./mp文件夹中,根据备份时选择的数据压缩方式的不同,生成.vma.lo或者.vma.gz.为后缀的文件,同时伴随一个相关的.log日志文件。【Path/Target】为PVE备份文件夹所在的路径,在本例中备份文件将存储在/var/lib/vz/mp文件夹中。
接下来我们就可以开始备份了。先选中【数据中心】,切换到【备份】标签页,点击【添加】,将出现【创建:备份计划】对话框,可以选择需要备份的节点,设定备份计划于每周周几的几点开始,然后选择需要进行备份的虚拟机,设置数据压缩方式与备份模式后即可。数据备份将于设定时间自动启动。
当然了,我们也可以对单个虚拟机进行立即备份,选中需要备份的虚拟机,切换到【备份】标签,设置备份模式与数据压缩方式,点击【备份】即可开始备份。
2) 挂载磁盘将文件拷贝出来:
步骤很简单,就是先把硬盘插到你所在的服务器物理机上,然后
1)下载ntfs驱动: apt-get update apt-get install ntfs-3g
2)创建挂载点文件夹: mkdir /mnt/windows
3)进入/dev/查看移动硬盘信息 fdisk -l
4)插入移动硬盘,再次在/dev目录下执行查看移动硬盘信息 fdisk -l
5)比较两次信息,发现多出一个/dev/sda1,将sda1挂载到文件夹中: mount -t ntfs-3g /dev/sda1 /mnt/windows
6)进入目标文件夹(promox备份的文件都在/var/lib/vz中) cd /var/lib/vz
7)将文件拷贝到挂载硬盘中 cp -r(整个文件夹复制) mp /mnt/windows
8)解除挂载(相当于安全退出) umont /mnt/windowsd)
3)数据恢复:
同样的上述挂载步骤,将所移出来的文件放在/var/lib/vz/mp中,可以看到备份文件以.vma.lzo为后缀。选中需要使用的备份文件,点击【恢复】,将弹出【Restore VM】对话框,可以设置存储位置与VM ID,点击【恢复】即可开始恢复。有意思的是,这里的VM ID除了可以设置成原有的虚拟机ID,将备份文件恢复并覆盖该虚拟机外,还可以设置成新的ID,将备份文件生成其他的与备份虚拟机一模一样的虚拟机。至此,服务器杂七杂八的配置完毕,如果有需要还会再进行补充的。
问题解决:1、节点关不掉以及开不了(命令查询去官网查看)
1)204节点开不了:索性就不开了,将pve、pve14、pve15全部关掉,这样就剩下那个关不掉的节点了。
2)205节点关不掉:关闭的时候会报错,报错信息是节点因为克隆被锁住了,用命令行将节点断开连接,然后再关掉。 qm unlink 205 -force qm unlock 205 qm destory 205 -skiplock
㈦ 我装PVELITE 时,怎么用SPLM软件时让用虚拟的IP
【前言】
首先要感谢intel和k站a大大提供了这么好的一个玩到Intel最新产品的机会。原计划NUC8i7BEH配合Node Lite和Promise SanLink3 N1组合成为一套高性能高IO的mini工作站。然而,机器到手后发现这个小机器性能是如此的强大。单单做个人的工作站有点屈才。外加前几天朋友借走这台NUC当做阅卷备用服务器,反馈这小机器非常稳定。于是乎,我琢磨摸着是不是在这小机器上也能搞一套虚拟化,直接满足高端家庭和小型公司服务器需求。于是乎就有了这篇点歪技能树的NUC8i7BEH体验。
首先是开箱和简单性能测试,正常开箱部分。
【开箱】
虽然NUC升级到了第8代,但是依然保持着蓝色小方盒子经典包装。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
包装盒背面。重点写了3年保修,Intel的保修出了名的便捷。3年内NUC有故障直接联系Intel寻求支持,免除后顾之忧。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
包装盒底部NUC序列号等信息。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
打开盒子,最上方就是我们熟悉的NUC主机
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
包装盒内全家福,有说明书,VESA挂架,电源,螺丝。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
电源来自LITEON建兴,19V 4.74A 规格,90W的电源。因为CPU升级成为4核心,电源比起7代NUC配备的65W电源大了些。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
国行版本NUC标配了国标电源线。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
NUC主机,Intel对主机做了黑化处理。符合现在的审美。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
NUC主机背部,预留风扇出风口。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
NUC前面板依次是2个USB 3.1Gen2端口,3.5mm耳麦接口,电源接口。其中黄色USB接口在关机后保持5V供电,可以给手机充电
从7代NUC开始前面板内安装了麦克风,可以直接采集音频。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
NUC主机背后接口依次是,电源接口、HDMI 2.0接口,千兆网口,USB 3.1 gen2 x2,ThunderBolt 3。
电源接口支持12-19V的宽电压输入。这代NUC所有USB接口都为10GB的3.1 Gen2了。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
NUC侧面有一个TF读卡槽。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
NUC底部标签,有着产品信息。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
【简单性能测试】
首先来看下CPU-Z的信息。可以看到NUC8i7BEH使用了28W TDP的Intel i7-8559U。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
使用了iris plus显卡,携带了128M缓存,也可以用于CPU的四级缓存。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
CPU-Z性能测试
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
非常惊人,跑分和6700K台式机处理器差不多了。如今的NUC性能再也不是弱项了,正应为有如此的性能,所以才有虚拟化部署。
R15性能测试
CPU
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
GPU
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
在CPU的R15测试中,小小NUC已经超过了4代台式机处理器的性能。
PCMark 整机性能测试
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
https://www.3dmark.com/pcm10/32888541
整体性能很不错了
最后测试个今年NUC8代引入的Intel 9560AC无线网卡的性能。Intel 9560AC支持了160Mhz模式,使得其在2x2MIMO天线模式下能达到1.7Gbps的链接速率。比起上一代网卡性能理论提升一倍。
测试使用上海千兆宽带,路由器使用NETGEAR XR500,5G部分开启160Mhz,使得路由能支持9560ac的1.7Gbps链接速度。
在上海电信的测速网站,使用无线进行测速。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
速度非常惊艳,无线就能测速达到944.1Mbps。和千兆有线链接达到基本相同速度。
【Promise SanLink3 N1】
NUC8i7BEH配备了满血ThunderBolt 3接口。利用ThunderBolt可以扩展出很多好玩的东西,比如外接显卡,外接视频采集卡。原计划好好讲一讲这个雷电口的,为了留出篇幅给后面飙车部分,这边就简单使用Promise SanLink3 N1做个体验。
Promise SanLink3 N1使用50cm断线链接NUC,2个放在一起非常匹配。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
链接NUC后做一个简单万兆性能测试。测试使用了NTttcp,微软提供在Win下测试网络性能的工具。
相比于ipref3,NTttcp在Windows下更容易榨干网络资源。
测试对端使用了SuperMicro X10SDV-6C-TLN4F板载的X557万兆网卡。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
可以看到Promise SanLink3 N1可以跑到1111.884MB/s的成绩,对于一块万兆网卡来说,这个成绩非常不错了。
有了雷电3支持,NUC的对外IO也不是瓶颈。性能不是瓶颈,IO不是瓶颈,NUC作为一台工作用机器,非常适合。
-----------------------------------------------我是分割线-----------------------------------------------
上面正经评测结束,接下来就要开始飙车了,在一条奇奇怪怪的道路上越跑越远。
目标是在NUC上跑起来软路由——K站LEDE,存储——OMV,虚拟机——Win10,AD+Radius认证——WinSrv,AP控制器——Ubnt,这些业务。
为了支持这些,NUC8i7BEH的内存配备到了16G x2,一共32G。M2插槽上安装了一块240G的NVME SSD,用于安装虚拟机系统和存放虚拟机。同时安装一块2.5inch SATA SSD,用于直通给虚拟机,部署存储。
【Proxmox VE】
要把NUC变成数据中心,首先要部署虚拟化环境。大家常玩的虚拟化有VMWare vSphere,VMWare ESXi,Proxmox VE。这里选择Proxmox VE,因为对这台NUC Proxmox VE兼容比较好。
先简单介绍下Proxmox VE(下面简称PVE),是基于KVM技术的虚拟化平台。提供免费版本可以直接使用。官网:https://www.proxmox.com/
下载系统:https://www.proxmox.com/downloads
部署整个系统首先需要在NUC上安装PVE。
注:为了更好展示,安装部分截图在虚拟机内截图。NUC操作基本相同
iso文件下载后,我们写入U盘上的虚拟光驱内,在NUC上使用U盘虚拟光驱启动。可以看到PVE安装界面。选择第一项开始安装。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
同意用户协议
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
选择安装PVE的磁盘,这边选择NVME SSD。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置系统的时区,我们选择中国上海。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置PVE的管理员密码和邮箱,邮箱可以随意填写。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置PVE管理网卡和配置一个固定IP,方便管理。NUC只有一个千兆网卡,直接配置。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置完成后PVE开始自己安装,PVE安装相对来说,需要提供的信息还是比较少的。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
安装完成后,拔出U盘,重启NUC。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
重启NUC,可以看到PVE的启动选项,会自动从第一项启动系统。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
启动完成后,NUC显示PVE控制台,上面有PVE的Web访问方式。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
这时候我们可以使用其他电脑,Web访问PVE管理地址。使用root和管理密码登录PVE
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
登陆后,就看到PVE的主界面。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
【部署第一台虚拟机】
PVE安装好了,这边先部署一台Win10虚拟机,练练手。了解PVE再带着大家部署nas和路由。
这里部署一台Win10虚拟机。
PVE安装后,nvme SSD被分成2部分,local和local-lvm。
local用于存放系统,iso文件,虚拟机模板文件,local-lvm用于存放虚拟机。
要安装部署虚拟机,首先我们需要上传安装镜像iso文件到local。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
上传使用网页方式,非常方便。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
上传完成后可以在local中看到iso文件
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
准备好文件后我们开始新建虚拟机。设置虚拟机名字:win10.
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
操作系统选择Window,ISO镜像选择刚上传的iso文件。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
磁盘大小这边暂时设置64G。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
这里选择CPU的核心数。NUC一共4核心8线程,所以核心数很自由。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置内存,32G内存的NUC,内存很充足。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
最后设置网卡,保持默认就好。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
确认信息后,虚拟机创建就好了。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
回到PVE界面,可以看到虚拟机已经存在了。点击右上角启动。开启虚拟机。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
点击右上角控制台,可以看到虚拟机的画面。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
接下来就是Win10的安装过程了。不再过多介绍了,
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
至此简单介绍了PVE的使用,可以方便创建Win Linux等虚拟机。
【NAS:OpenMediaVault】
安装虚拟机是第一步,接下来来点挑战的,安装一个NAS。
NAS系统安装在虚拟机内,数据部分使用2.5inch独立的SSD。SSD使用直通的方式直接提供给虚拟机内的NAS使用。
这样在可以保证数据安全的情况下,又节约资源。
NAS系统选择了OpenMediaVault(以下简称OMV)。不使用黑群辉,不知群晖哪天会封杀黑裙。开源的OpenMediaVault是稳定安全最好的选择。
OMV官网:https://www.openmediavault.org/
OMV的iso同样从官网下载,下载完成后上传到PVE。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
同样也是创建虚拟机流程,虚拟机名字我们设置为omv。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
系统类型选择Linux,OMV基于debian。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
系统盘不需要很大,设置个8G就够了。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置CPU核心数。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置内存。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置网络接口,也保持默认。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置完成后,omv虚拟机创建出来了。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
接下来把虚拟机开机,开始OMV的安装流程。启动画面选择Install。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
系统语言选择English。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
区域选择中国上海。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
键盘设置选择美式键盘。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
然后设置omv的机器名
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置域名,保持默认就好。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
设置root的密码。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
接下来就开始omv基本系统的安装。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
然后选择软件源的位置,这边推荐163的源
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
选择系统启动引导安装在哪个磁盘。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
经过短暂时间后,安装完成了。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
重启后,进入到OMV命令行,上面显示了OMV的ip地址。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
使用OMV提供的ip登录,网页看到登录界面。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
默认用户名:admin,密码:openmediavault。
登录OMV,可以看到管理界面。然后可以关闭OMV。开始做磁盘直通。给OMV添加数据盘。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
直通前先查看PVE是不是识别了SATA SSD。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
然后进入到PVE的shell模式,首先要查看磁盘名字。输入命令:
ls -l /dev/disk/by-id/
复制代码
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
找到ata开头的复制下来
然后输入
qm set 虚拟机id -scsi1 /dev/disk/by-id/磁盘名
复制代码
然后就完成了直通。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
然后在PVE界面中可以看到了直通磁盘。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
OMV开机后,可以看到直通的SSD
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
可以在OMV内挂载现在SSD已有的数据,也可以格式化重新做存储。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
至此NAS OMV安装完成,接下来在OMV安装Tr等应用。具体可以参考OMV的教程。
【路由:LEDE】
安装完NAS后,怎么能缺少f大的k站版本LEDE。LEDE放在最后因为需要配置vlan和交换机。相对比较麻烦些。
首先要在PVE创建vlan。
创建一个Linux Bridge,桥接端口eno1.100,100表示vlan100
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
创建完成后,会出现一个新的vmbr1,表示处于vlan100,用于路由的wan。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
然后创建虚拟机,机器名是LEDE。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
这里安装LEDE有个新的玩法,使用了Ubuntu Live CD的iso。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
磁盘大小只要1G就可以了。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
网络目前选择vmbr0。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
创建完虚拟机后,再添加一块网卡。作为WAN口
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
网卡选择在vmbr1。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
然后启动虚拟机,启动后点Try Ubuntu。进入图形界面后。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
按下Ctrl+Alt+F4进入live cd的命令行模式
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
输入用户名ubuntu,登入控制台
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
输入
wget http://firmware.koolshare.cn/LEDE_X64_fw867/openwrt-koolshare-mod-v2.27-r10054-b7cccc1136-x86-64-combined-squashfs.img.gz
复制代码
开始下载固件
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
gzip -d openwrt-koolshare-mod-v2.27-r10054-b7cccc1136-x86-64-combined-squashfs.img.gz
dd if=openwrt-koolshare-mod-v2.27-r10054-b7cccc1136-x86-64-combined-squashfs.img of=/dev/sda
复制代码
Gzip解压后,使用dd直接写入磁盘。
这样可以不转盘,直接用live cd下载固件直接写盘。
重启后,直接配置LEDE,eth0是lan口,eth1是wan口。
最后是交换机配置。
和NUC连接口,设置成Trunk模式,Allow Vlan1,100,PVID=1
WAN口,设置成Access模式,PVID=100
LAN口,设置成Access模式,PVID=100,也就是默认配置。
至此LEDE配置完成。
【AD+Radius 认证】
可以在PVE上部署一台AD账号服务器。同样也能部署一台Radius账号服务器,无线AP使用802.1X企业认证。
这样内网使用1个账号,登录电脑,无线,邮箱所有内容。
如果你有Office 365账号,还能部署云本地联合认证,可以使用AD Connect完成账号同步。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
AD和Office365部署完后,最后是这么个状态。
All In One 高性能小主机,点歪技能树的Intel NUC8i7BEH开箱评测
一台NUC完整完成了路由到NAS,再到AD认证,甚至无线路由控制器的全套工作。一台小小的NUC,完成大任务。
【总结】
从最初的工作站,到最终挖掘出NUC8i7BEH无限潜力。软路由——K站LEDE,存储——OMV,虚拟机——Win10,AD+Radius认证——WinSrv,AP控制器——Ubnt。常用业务集中在一台小机器完成。Intel给我们玩家带来无限想法。NUC8i7BEH值得推荐
㈧ pve支持无线网卡吗
pve是支持无线网卡的,用户可以根据自己的需求来决定是否接入无线网卡。需要注意的是pve接入网卡时需要更改参数。
Proxmox虚拟环境(简称PVE)是用于操作来宾操作系统的基于Debian Linux和KVM的虚拟化平台。Proxmox免费提供 -可以通过制造商(维也纳的Proxmox Server Solutions GmbH)购买商业支持。无线网卡实际上是一种终端无线网络设备,它是需要在无线局域网的无线覆盖下通过无线连接网络进行上网使用的。换句话说无线网卡就是使你的电脑可以利用无线来上网的一个装置,但是有了无线网卡也还需要一个可以连接的无线网络,因此就需要配合无线路由器或者无线 AP 使用,就可以通过无线网卡以无线的方式连接无线网络可上网。
㈨ proxmox的虚拟机脱机Error Connection error - server offline怎么办
检查网络
检查配置
检查地址
希望可以帮助你,请采纳,谢谢
㈩ proxmox可以导入vmware虚拟机吗
Proxmox是一个非常优秀的开源虚拟化环境,集诸多优点于一身:开源免费,稳定可靠,架构简洁,安装方便,支持集群,KVM,LXC,NFS,iSCSI,Ceph,GlusterFS,DRBD,RestfulAPI,LDAP,CA,同时内嵌防火墙和IPS....绝对是不露声色,能力超高那种角色。
但是,要在自己的生产环境里把这玩艺跑起来,还有一个问题要解决,那就是怎么把现有服务器迁移上去。我所要完成的第一个任务是把一套vmware 4.0上的虚拟机全部迁到Proxmox上去。
非常悲催,Proxmox官方没有一个像vmware converter那样的迁移工具。迁移全靠自己手动撸。
根据wiki的推荐,最后使用Clonezilla完成了迁移任务。Clonezilla迁移虚拟机的基本步骤在proxmox的wiki页面上有,我就不多说了。今天要说的是一些wiki页面上没有的东西。
折腾一:windows 2000 server
这个,也说不好是Proxmox的错,还是微软的错。总之,在Proxmox上,windows 2000系统只能用ACPI uniprocessor核心,如果用了ACPI multiprocessor,就很容易出现各种抽风现象,例如CPU 100%,系统时钟速度变快100倍等等。所以,windows 2000系统迁移到Proxmox后,尽快改成ACPI uniprocessor。
折腾二:windows 2000 server
没错,还是windows 2000有关的。windows 2000默认没有Intel E1000网卡驱动,所以,迁移到Proxmox后,最好调整下虚拟机的配置,把网卡改成Realtek RTL8139,不然网络不通哦。
折腾三:使用了动态磁盘的windows虚拟机。
windows磁盘管理器里面可以查看所有磁盘设备的类型,一般情况下就是“基本”,这种可以很方便地迁移到Proxmox。二般情况下会显示“动态”,这种就得恭喜你了。直接迁移过去,windows根本认不出动态磁盘。可以在迁移前,先用TestDisk把动态磁盘的类型从动态变成基本,然后再迁移。当然,改之前一定要做好备份,留好退路....我虽然改了十几次都没错,但这毕竟是有风险的操作。