導航:首頁 > 無線網路 > proxmox無線網路

proxmox無線網路

發布時間:2022-05-19 20:08:37

㈠ proxmox 可以部署ceph嗎

一.前言
proxmox 是一個開源的虛擬化管理平台,支持集群管理和HA.在存儲方面,proxmox除了支持常用的lvm,nfs,iscsi,還支持集群存儲glusterfs和ceph,這是我們選擇它的原因.
proxmox官方提供ISO下載,因此安裝變得非常簡單,安裝後瀏覽器打開http://x.x.x.x:8006/ 就可以看到管理平台了.本文基於目前最新版本3.1測試,動工吧.
二.集群配置
集群由多台虛擬化主機組成,創建集群後就可以統一管理多台機器了.
1.創建一個集群,登陸其中一台機器,為集群起個名字
pvecm create YOUR-CLUSTER-NAME
2.依次登陸其餘的機器,加入到上面的集群(IP地址為上面機器的IP)pvecm add IP-ADDRESS
3.查看集群狀態pvecm status

CID----IPADDRESS----ROLE-STATE--------UPTIME---LOAD----MEM---ROOT---DATA
1 : 192.168.7.104 M A 5 days 01:43 0.54 20% 1% 4%
2 : 192.168.7.103 N A 2 days 05:02 0.04 26% 5% 29%
3 : 192.168.7.105 N A 00:13 1.41 22% 3% 15%
4 : 192.168.7.106 N A 00:05 0.54 17% 3% 3%

4.查看集群內的節點
pvecm nodes

Node Sts Inc Joined Name
1 M 156 2011-09-05 10:39:09 hp1
2 M 156 2011-09-05 10:39:09 hp2
3 M 168 2011-09-05 11:24:12 hp4
4 M 160 2011-09-05 10:40:27 hp3

經過很簡單的配置,集群已經創建完成了,如果要使用故障自動切換功能,接下來還需要配置HA功能.
三.HA配置
配置HA需要滿足下面條件:
1)集群已經創建好
2)添加好集中/共享存儲(nfs,glusterfs,ceph等)
3)fence設備 (IPMI,APC Switch Rack PDU等)
關於fence設備,是用於集群出現網路故障或機器異常時的隔離處理,這樣有效防止HA運行時啟動了多個vm訪問同一個虛擬磁碟,避免破壞數據.
官方有更詳細的說明 http://pve.proxmox.com/wiki/Fencing .
1.IPMI配置
由於對其他的fence設備都不了解,看起來最入門的就是IPMI了,剛好我們的IBM測試機器也有這個功能,就用它了!
先確認ipmitool已經安裝
apt-get update
apt-get install ipmitool

載入需要的模塊
modprobe ipmi_msghandler
modprobe ipmi_devintf
modprobe ipmi_si
modprobe ipmi_poweroff
modprobe ipmi_watchdog

測試ipmitool是否正常工作
ipmitool -I open sensor
ipmitool -l open channel info 1
ipmitool -l open lan print 1

為ipmi添加管理IP和登陸賬號,密碼(這個IPMI功能我們公司一直在用(用於機器重啟,開關機等) 機器交到我手上已經設置好了 )
ipmitool -l open lan set 1 ipsrc static
ipmitool -l open lan set 1 ipaddr 192.168.1.91
ipmitool -l open lan set 1 netmask 255.255.255.0
ipmitool -l open lan set 1 defgw ipaddr 192.168.1.1
ipmitool user set name 1 root
ipmitool user set password 1 123456
ipmitool user set password 2 123456
ipmitool -l open user list 1
ID Name Callin Link Auth IPMI Msg Channel Priv Limit
1 root false false false NO ACCESS
2 ADMIN false false true ADMINISTRATOR

以上設置在集群內每台機器執行
2.fence配置
編輯/etc/default/redhat-cluster-pve,下面語句 去掉注釋
FENCE_JOIN="yes"

把機器加入fence域,命令行執行
fence_tool join

以上操作在集群每台機器上執行
檢查狀態:
fence_tool ls

測試fence設備是否生效
fence_ipmilan -l root -p 123456 -a 192.168.1.91 -o status 1 -v #這個ip是剛才ipmi設置的ip

修改集群配置,注意下面IP是IPMI設置的IP地址
cp /etc/pve/cluster.conf /etc/pve/cluster.conf.new;nano /etc/pve/cluster.conf.new
<?xml version="1.0"?>
<cluster config_version="16" name="pve-wx-cluster">
<cman keyfile="/var/lib/pve-cluster/corosync.authkey"/>
<fencedevices>
<fencedevice agent="fence_ipmilan" ipaddr="192.168.1.91" lanplus="1" login="root" name="ipmi1" passwd="123456" power_wait="5"/>
<fencedevice agent="fence_ipmilan" ipaddr="192.168.1.92" lanplus="1" login="root" name="ipmi2" passwd="123456" power_wait="5"/>
<fencedevice agent="fence_ipmilan" ipaddr="192.168.1.93" lanplus="1" login="root" name="ipmi3" passwd="123456" power_wait="5"/>
</fencedevices>
<clusternodes>
<clusternode name="pve-5711003" nodeid="1" votes="1">
<fence>
<method name="1">
<device name="ipmi1"/>
</method>
</fence>
</clusternode>
<clusternode name="pve-5711008" nodeid="2" votes="1">
<fence>
<method name="1">
<device name="ipmi2"/>
</method>
</fence>
</clusternode>
<clusternode name="pve-5711009" nodeid="3" votes="1">
<fence>
<method name="1">
<device name="ipmi3"/>
</method>
</fence>
</clusternode>
</clusternodes>
<rm>

</rm>
</cluster>

注意,每次修改這個配置文件,裡面 config_version= 都要加1

驗證配置文件
ccs_config_validate -v -f /etc/pve/cluster.conf.new

全部准備就緒,激活新配置文件

3.將vm加入HA
(添加後記得點擊activate)

可以看到已經加入HA的虛擬機了

㈡ proxmox和vmware vsphere的區別

  1. 使用openfiler來創建一台iSCSI存儲

  2. esxi跟openfiler如何連接使用

  3. 首先,創建NAS網路用於esxi主機與共享存儲數據交換。

  4. 然後添加iSCSI存儲:

  5. 先啟用軟iSCSI軟體適配器

  6. 連接iSCSI target存儲:關閉之後就可以看見連接成功,如果出現錯誤請核實是否charp賬戶和密碼輸入有誤。在每台esxi主機上都做如上添加這個iSCSI target 存儲。

㈢ Proxmox重啟網卡命令多少

Default Configuration (bridged) 默認配置(橋接)
The installation program creates a single bridge (vmbr0), which is connected to the first ethernet card (eth0).
安裝程序創建一個單一橋(vmbr0),它是連接到第一個乙太網卡(eth0的)。
auto lo
iface lo inet loopback
auto vmbr0
iface vmbr0 inet static
address 192.168.10.2
netmask 255.255.255.0
gateway 192.168.10.1
bridge_ports eth0
bridge_stp off
bridge_fd 0
Virtual machine behaves like directly connected to the physical network.
虛擬機行為就像直接連接到物理網路。
Routed Configuration
路由配置
Most hosting providers does not support above setup. For security reason they stop networking as soon as they detect multiple MAC addresses.
大多數託管服務提供商不支持以上設置。 出於安全原因,他們停止聯網,盡快為他們檢測多個MAC地址。
A common setup is that you get a public IP (assume 192.168.10.2 for this example), and additional IP blocks for your VMs (10.10.10.1/255.255.255.0). For such situation we recommend the following setup.
一個常見的設置是,您會獲得一個公網IP(假設這個例子192.168.10.2),和其它的IP為虛擬機(10.10.10.1/255.255.255.0)。對於這樣的情況下,我們推薦以下設置。
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet static
address 192.168.10.2
netmask 255.255.255.0
gateway 192.168.10.1
post-up echo 1 > /proc/sys/net/ipv4/conf/eth0/proxy_arp

auto vmbr0
iface vmbr0 inet static
address 10.10.10.1
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
Masquerading
Sometimes you want to use private IPs and masquerade the traffic:
有時你想使用私人IP和非真實地址:

auto vmbr1
iface vmbr1 inet static
address 192.168.0.234
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s '192.168.0.0/24' -o eth1 -j MASQUERADE
post-down iptables -t nat -D POSTROUTING -s '192.168.0.0/24' -o eth1 -j MASQUERADE
Unsupported Routing
不支持路由
Physical NIC (eg., eth1) cannot currently be made available exclusively for a particular KVM / Container , ie., without bridge and/or bond.
物理網卡(例如,eth1使用),目前不能提供專門針對特定的KVM /封裝,即,無橋和/或直連。

㈣ 如何在自己伺服器上創建虛擬主機並租賃出去

你伺服器裝的啥系統,聯網沒?正在運行?配置咋樣的語言環境,就用什麼面板來配置,有些可以申請自助開通,主要是有沒有人願意買,搭建分配虛擬機倒不是重點,你不會搭也可以找額,之前給idc弄過

㈤ 虛擬機Proxmox 6.0下,安裝愛快軟體路由,安裝NAS,怎麼配置IP

1、如果下載的是img鏡像包,可以把做WayOS的磁碟掛到win系統下,直接用img寫盤程序寫入掛載的磁碟。
2、如果下載的是gho文件,也可以在系統下用ghost32直接克隆。
3、如果下載的是iso文件,就需要刻盤安裝,如果不想刻盤,可以用VM虛擬機虛擬出來光碟機再安裝。

㈥ proxmox安裝kvm虛擬機網路怎樣配置

一、 伺服器配置過程說明

首先需要現在伺服器上找一個節點裝window server,然後開始配置存儲陣列為RAID 5;然後創建Proxmox集群以及KVM(也就是虛擬節點),在每個節點上安裝centos系統並下載Teamviewer;最後簡單講講Proxmox中節點備份與恢復。

二、 配置RAID:

1) 基本概念:

其實首先要知道RAID是什麼,它相當於是一個存儲模式,其實就是平常說起來很高大上的存儲陣列,是在window server上面做的,也就是機房的伺服器。一般機房默認是RAID 0,其實基本沒什麼改變,就是該有幾塊硬碟就用幾塊,不需要做額外的設置;但是這樣一來缺點也很明顯,因為一旦壞了那就只能自己和自己去哭了,沒有備份或者恢復機制。所以現在一般都做RAID 5,就是相當於會騰出一塊硬碟來做恢復與備份,用空間來換取整個集群的安全,還是很劃算的。步驟如下:

2)操作流程:

按照順序傻瓜操作向後點:硬體配置,配置向導——第一步,下一步——第1a步,清除外部配置,下一步——第2步,RAID0,下一步(這是為了清除最開始的時候默認RAID0配置)——第3步,協議:SAS,介質類型:HDD,加密功能:非加密,將磁碟全部選中,下一步——第4步,自動生成的參數,我的是:6517.00,1MB,自適應預讀;回寫,下一步——第5步,此步中要注意所有的物理磁碟都顯示出來了,否則就要返回關機重配,完成——成功!

三、 開始創建Proxmox集群

1)基本概念:

這一步是為了能在上一步的基礎上(window server操作系統和RAID 5的存儲陣列)進一步安裝集群,在集群上分配節點,然後每個節點都可以分別分給不同的人來操作,這樣就是我們日常中操作的節點。步驟如下:

2) 操作流程:

a. 此時為無界面階段

方法一: 進入黑屏界面之後,先按F11,進入界面選擇UEFI,再選擇有DVD那一步的選項;再按F1,進入簡潔界面;BIOS-BOOT,進入界面;選擇DVD;選擇F2(此處有空白,3min);reboot;等待等待等待,之後的就是安裝好之後的步驟···F1~~~

方法二: F12,然後PXE boot然後選擇DVD或者SLOT選項

b. 接著是有安裝界面的操作

同樣是傻瓜式操作向後點: 下一步—— country:China,TimeZone:Asia/Chongqing,KeyBoard Layout:US,English,下一步—— 此處參數由自己定,下一步——下一步—— 成功!

c. 傻瓜操作結束,開始命令行操作進行集群搭建。 但是集群搭建之前需要解決兩個問題:

1、vi編輯器過於不好用,下載vim: apt-get update; apt-get installvim;(然後在用vim編輯的時候看不到最上面就用shift+pageup向上調)

2、修改/etc/hosts與/etc/hostname中參數: 將二者中的PVE都改成每個ip對應的名字,eg:pve14之類的,這樣節點才能加進去。

d.開始集群命令行操作:

1、創建集群名字aciecluster:pvecm create aciecluster

2、登陸每個slave 節點,執行:pvecm add 192.168.2.104(主節點IP)

3、在主節點查看狀態:pvecm nodes

4、登錄:http://192.168.2.104(主節點IP):8006

e。出現問題:250節點加不進去

1、添加節點後面添加–force(是兩個橫線),命令變成:pvecm add 192.168.2.250;

2、再重啟集群:重啟物理機;之後在客戶端命令重啟reboot

四、 創建KVM

1) 基本概念

其實KVM就是一個一個的虛擬節點,和虛擬機差不多,只不過這是安裝在伺服器端的虛擬機,安裝步驟如下。

2)安裝步驟

點擊數據中心下想要創建節點的伺服器,然後在右上角有「創建VM」標志——一般:點擊之後給節點命名,給定VM ID,此處還可以改在其他的伺服器上創建節點——OS:點選右側Linux3.x/2.6kernel——CD/DVD:選第一個,導入鏡像——硬碟:自己設置參數——CPU:自己設置參數——內存:自己設置參數——網路:自己設置參數——確認

五、 節點上CentOS 6.4系統安裝:

1) 注意事項:

a)ALT+F5是把屏幕縮小,大致能看到下一步的位置;之後的界面就看不到了,在看不到tab之後連按兩下就到了下一步

b) 第一個選skip;安裝系統,一路正常配置,直到界面:

2)安裝步驟:

use all space,review and modify partition layout,點擊「next」——刪除所有分區後,創建兩個分區,其中一個為/boot(大小為200),另一個為/(點選「fill to maximum allowable size」,大小不用填寫,意為自動分配所有剩餘空間給它)—— Yes——next——Format——write changes to disk——next——點選minimal,next—— 完成後配置用戶信息,歐了!

六、 配置IP並下載Teamviewer

上面的步驟基本上節點已經差不多了,就差IP了,配好IP後為了方便操作節點,每個節點上最好下載一個Teamviewer。步驟如下:

1、虛擬機聯網(保證ip不變):

1)首先改成NAT模式(虛擬機——可移動設備——網路適配器——設置)

2)然後在IPv4裡面把ip設置成手動的,更改IP地址、子網掩碼、網關以及DNS,應用

3)最後點擊右上角小電腦的logo,勾選enable notification就行了

2、 右上角小電腦變成disconnect的了,也就是說網路不能連接,而且ifconfig也找不到ip地址:

1)首先就是按照「1、」的步驟重新試一遍,其中要多注意一點就是他的物理地址要改成本機物理地址,就是ifconfig命令之後出來的那個本機地址(不是ip)

2)如果沒有ifconfig信息,那麼就需要先設置網路為橋接模式,然後再將網路改回來NAT模式。

3、開始下載Teamviewer:

1)wget download.teamviewer.com/download/linux_teamviewer.rpm

2)yum install linux_teamviewer.rpm3)這里就不用解壓了,直接就可以運行了,此時已經能用了,在Application-Internet中找到teamviewer,可以右鍵把它加到桌面上

4、設置開機自啟

1)在system-preference-startup Application 中設置

2)點擊add,將Teamviewer的屬性(從Teamviewer屬性中復制出來黏貼進去就行了)添加進去,歐了

七、 Proxmox節點恢復與備份

自此為止,節點已經全部搞定了,然後之後就涉及到節點備份與恢復的問題,這里會簡略講一下。

1) 備份:

選中【數據中心】,選擇【存儲】標簽,選中要添加支持的存儲,點擊【編輯】,在【內容】的下拉菜單中選上Backups。這里的【最大備份數】必須大於等於1,其含義為當某個虛擬機的備份文件超過最大備份數時,再進行備份將會刪除時間最早的備份。這對後面要提到的自動備份計劃而言非常有用,可以省去我們人工刪除過時備份的麻煩。

PVE的備份文件存在./mp文件夾中,根據備份時選擇的數據壓縮方式的不同,生成.vma.lo或者.vma.gz.為後綴的文件,同時伴隨一個相關的.log日誌文件。【Path/Target】為PVE備份文件夾所在的路徑,在本例中備份文件將存儲在/var/lib/vz/mp文件夾中。

接下來我們就可以開始備份了。先選中【數據中心】,切換到【備份】標簽頁,點擊【添加】,將出現【創建:備份計劃】對話框,可以選擇需要備份的節點,設定備份計劃於每周周幾的幾點開始,然後選擇需要進行備份的虛擬機,設置數據壓縮方式與備份模式後即可。數據備份將於設定時間自動啟動。

當然了,我們也可以對單個虛擬機進行立即備份,選中需要備份的虛擬機,切換到【備份】標簽,設置備份模式與數據壓縮方式,點擊【備份】即可開始備份。

2) 掛載磁碟將文件拷貝出來:

步驟很簡單,就是先把硬碟插到你所在的伺服器物理機上,然後

1)下載ntfs驅動: apt-get update apt-get install ntfs-3g

2)創建掛載點文件夾: mkdir /mnt/windows

3)進入/dev/查看移動硬碟信息 fdisk -l

4)插入移動硬碟,再次在/dev目錄下執行查看移動硬碟信息 fdisk -l

5)比較兩次信息,發現多出一個/dev/sda1,將sda1掛載到文件夾中: mount -t ntfs-3g /dev/sda1 /mnt/windows

6)進入目標文件夾(promox備份的文件都在/var/lib/vz中) cd /var/lib/vz

7)將文件拷貝到掛載硬碟中 cp -r(整個文件夾復制) mp /mnt/windows

8)解除掛載(相當於安全退出) umont /mnt/windowsd)

3)數據恢復:

同樣的上述掛載步驟,將所移出來的文件放在/var/lib/vz/mp中,可以看到備份文件以.vma.lzo為後綴。選中需要使用的備份文件,點擊【恢復】,將彈出【Restore VM】對話框,可以設置存儲位置與VM ID,點擊【恢復】即可開始恢復。有意思的是,這里的VM ID除了可以設置成原有的虛擬機ID,將備份文件恢復並覆蓋該虛擬機外,還可以設置成新的ID,將備份文件生成其他的與備份虛擬機一模一樣的虛擬機。至此,伺服器雜七雜八的配置完畢,如果有需要還會再進行補充的。

問題解決:1、節點關不掉以及開不了(命令查詢去官網查看)

1)204節點開不了:索性就不開了,將pve、pve14、pve15全部關掉,這樣就剩下那個關不掉的節點了。

2)205節點關不掉:關閉的時候會報錯,報錯信息是節點因為克隆被鎖住了,用命令行將節點斷開連接,然後再關掉。 qm unlink 205 -force qm unlock 205 qm destory 205 -skiplock

㈦ 我裝PVELITE 時,怎麼用SPLM軟體時讓用虛擬的IP

【前言】

首先要感謝intel和k站a大大提供了這么好的一個玩到Intel最新產品的機會。原計劃NUC8i7BEH配合Node Lite和Promise SanLink3 N1組合成為一套高性能高IO的mini工作站。然而,機器到手後發現這個小機器性能是如此的強大。單單做個人的工作站有點屈才。外加前幾天朋友借走這台NUC當做閱卷備用伺服器,反饋這小機器非常穩定。於是乎,我琢磨摸著是不是在這小機器上也能搞一套虛擬化,直接滿足高端家庭和小型公司伺服器需求。於是乎就有了這篇點歪技能樹的NUC8i7BEH體驗。

首先是開箱和簡單性能測試,正常開箱部分。

【開箱】

雖然NUC升級到了第8代,但是依然保持著藍色小方盒子經典包裝。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
包裝盒背面。重點寫了3年保修,Intel的保修出了名的便捷。3年內NUC有故障直接聯系Intel尋求支持,免除後顧之憂。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
包裝盒底部NUC序列號等信息。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
打開盒子,最上方就是我們熟悉的NUC主機

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
包裝盒內全家福,有說明書,VESA掛架,電源,螺絲。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
電源來自LITEON建興,19V 4.74A 規格,90W的電源。因為CPU升級成為4核心,電源比起7代NUC配備的65W電源大了些。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
國行版本NUC標配了國標電源線。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
NUC主機,Intel對主機做了黑化處理。符合現在的審美。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
NUC主機背部,預留風扇出風口。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
NUC前面板依次是2個USB 3.1Gen2埠,3.5mm耳麥介面,電源介面。其中黃色USB介面在關機後保持5V供電,可以給手機充電

從7代NUC開始前面板內安裝了麥克風,可以直接採集音頻。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
NUC主機背後介面依次是,電源介面、HDMI 2.0介面,千兆網口,USB 3.1 gen2 x2,ThunderBolt 3。

電源介面支持12-19V的寬電壓輸入。這代NUC所有USB介面都為10GB的3.1 Gen2了。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
NUC側面有一個TF讀卡槽。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
NUC底部標簽,有著產品信息。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
【簡單性能測試】

首先來看下CPU-Z的信息。可以看到NUC8i7BEH使用了28W TDP的Intel i7-8559U。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
使用了iris plus顯卡,攜帶了128M緩存,也可以用於CPU的四級緩存。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
CPU-Z性能測試

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
非常驚人,跑分和6700K台式機處理器差不多了。如今的NUC性能再也不是弱項了,正應為有如此的性能,所以才有虛擬化部署。

R15性能測試

CPU

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
GPU

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
在CPU的R15測試中,小小NUC已經超過了4代台式機處理器的性能。

PCMark 整機性能測試

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
https://www.3dmark.com/pcm10/32888541

整體性能很不錯了

最後測試個今年NUC8代引入的Intel 9560AC無線網卡的性能。Intel 9560AC支持了160Mhz模式,使得其在2x2MIMO天線模式下能達到1.7Gbps的鏈接速率。比起上一代網卡性能理論提升一倍。

測試使用上海千兆寬頻,路由器使用NETGEAR XR500,5G部分開啟160Mhz,使得路由能支持9560ac的1.7Gbps鏈接速度。

在上海電信的測速網站,使用無線進行測速。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
速度非常驚艷,無線就能測速達到944.1Mbps。和千兆有線鏈接達到基本相同速度。

【Promise SanLink3 N1】

NUC8i7BEH配備了滿血ThunderBolt 3介面。利用ThunderBolt可以擴展出很多好玩的東西,比如外接顯卡,外接視頻採集卡。原計劃好好講一講這個雷電口的,為了留出篇幅給後面飆車部分,這邊就簡單使用Promise SanLink3 N1做個體驗。

Promise SanLink3 N1使用50cm斷線鏈接NUC,2個放在一起非常匹配。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
鏈接NUC後做一個簡單萬兆性能測試。測試使用了NTttcp,微軟提供在Win下測試網路性能的工具。

相比於ipref3,NTttcp在Windows下更容易榨乾網路資源。

測試對端使用了SuperMicro X10SDV-6C-TLN4F板載的X557萬兆網卡。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
可以看到Promise SanLink3 N1可以跑到1111.884MB/s的成績,對於一塊萬兆網卡來說,這個成績非常不錯了。

有了雷電3支持,NUC的對外IO也不是瓶頸。性能不是瓶頸,IO不是瓶頸,NUC作為一台工作用機器,非常適合。

-----------------------------------------------我是分割線-----------------------------------------------

上面正經評測結束,接下來就要開始飆車了,在一條奇奇怪怪的道路上越跑越遠。

目標是在NUC上跑起來軟路由——K站LEDE,存儲——OMV,虛擬機——Win10,AD+Radius認證——WinSrv,AP控制器——Ubnt,這些業務。

為了支持這些,NUC8i7BEH的內存配備到了16G x2,一共32G。M2插槽上安裝了一塊240G的NVME SSD,用於安裝虛擬機系統和存放虛擬機。同時安裝一塊2.5inch SATA SSD,用於直通給虛擬機,部署存儲。

【Proxmox VE】

要把NUC變成數據中心,首先要部署虛擬化環境。大家常玩的虛擬化有VMWare vSphere,VMWare ESXi,Proxmox VE。這里選擇Proxmox VE,因為對這台NUC Proxmox VE兼容比較好。

先簡單介紹下Proxmox VE(下面簡稱PVE),是基於KVM技術的虛擬化平台。提供免費版本可以直接使用。官網:https://www.proxmox.com/

下載系統:https://www.proxmox.com/downloads

部署整個系統首先需要在NUC上安裝PVE。

註:為了更好展示,安裝部分截圖在虛擬機內截圖。NUC操作基本相同

iso文件下載後,我們寫入U盤上的虛擬光碟機內,在NUC上使用U盤虛擬光碟機啟動。可以看到PVE安裝界面。選擇第一項開始安裝。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
同意用戶協議

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
選擇安裝PVE的磁碟,這邊選擇NVME SSD。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置系統的時區,我們選擇中國上海。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置PVE的管理員密碼和郵箱,郵箱可以隨意填寫。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置PVE管理網卡和配置一個固定IP,方便管理。NUC只有一個千兆網卡,直接配置。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置完成後PVE開始自己安裝,PVE安裝相對來說,需要提供的信息還是比較少的。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
安裝完成後,拔出U盤,重啟NUC。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
重啟NUC,可以看到PVE的啟動選項,會自動從第一項啟動系統。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
啟動完成後,NUC顯示PVE控制台,上面有PVE的Web訪問方式。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
這時候我們可以使用其他電腦,Web訪問PVE管理地址。使用root和管理密碼登錄PVE

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
登陸後,就看到PVE的主界面。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
【部署第一台虛擬機】

PVE安裝好了,這邊先部署一台Win10虛擬機,練練手。了解PVE再帶著大家部署nas和路由。

這里部署一台Win10虛擬機。

PVE安裝後,nvme SSD被分成2部分,local和local-lvm。

local用於存放系統,iso文件,虛擬機模板文件,local-lvm用於存放虛擬機。

要安裝部署虛擬機,首先我們需要上傳安裝鏡像iso文件到local。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
上傳使用網頁方式,非常方便。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
上傳完成後可以在local中看到iso文件

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
准備好文件後我們開始新建虛擬機。設置虛擬機名字:win10.

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
操作系統選擇Window,ISO鏡像選擇剛上傳的iso文件。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
磁碟大小這邊暫時設置64G。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
這里選擇CPU的核心數。NUC一共4核心8線程,所以核心數很自由。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置內存,32G內存的NUC,內存很充足。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
最後設置網卡,保持默認就好。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
確認信息後,虛擬機創建就好了。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
回到PVE界面,可以看到虛擬機已經存在了。點擊右上角啟動。開啟虛擬機。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
點擊右上角控制台,可以看到虛擬機的畫面。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
接下來就是Win10的安裝過程了。不再過多介紹了,

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
至此簡單介紹了PVE的使用,可以方便創建Win Linux等虛擬機。

【NAS:OpenMediaVault】

安裝虛擬機是第一步,接下來來點挑戰的,安裝一個NAS。

NAS系統安裝在虛擬機內,數據部分使用2.5inch獨立的SSD。SSD使用直通的方式直接提供給虛擬機內的NAS使用。

這樣在可以保證數據安全的情況下,又節約資源。

NAS系統選擇了OpenMediaVault(以下簡稱OMV)。不使用黑群輝,不知群暉哪天會封殺黑裙。開源的OpenMediaVault是穩定安全最好的選擇。

OMV官網:https://www.openmediavault.org/

OMV的iso同樣從官網下載,下載完成後上傳到PVE。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
同樣也是創建虛擬機流程,虛擬機名字我們設置為omv。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
系統類型選擇Linux,OMV基於debian。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
系統盤不需要很大,設置個8G就夠了。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置CPU核心數。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置內存。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置網路介面,也保持默認。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置完成後,omv虛擬機創建出來了。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
接下來把虛擬機開機,開始OMV的安裝流程。啟動畫面選擇Install。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
系統語言選擇English。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
區域選擇中國上海。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
鍵盤設置選擇美式鍵盤。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
然後設置omv的機器名

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置域名,保持默認就好。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
設置root的密碼。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
接下來就開始omv基本系統的安裝。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
然後選擇軟體源的位置,這邊推薦163的源

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
選擇系統啟動引導安裝在哪個磁碟。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
經過短暫時間後,安裝完成了。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
重啟後,進入到OMV命令行,上面顯示了OMV的ip地址。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
使用OMV提供的ip登錄,網頁看到登錄界面。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
默認用戶名:admin,密碼:openmediavault。

登錄OMV,可以看到管理界面。然後可以關閉OMV。開始做磁碟直通。給OMV添加數據盤。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
直通前先查看PVE是不是識別了SATA SSD。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
然後進入到PVE的shell模式,首先要查看磁碟名字。輸入命令:

ls -l /dev/disk/by-id/
復制代碼

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
找到ata開頭的復制下來

然後輸入

qm set 虛擬機id -scsi1 /dev/disk/by-id/磁碟名
復制代碼

然後就完成了直通。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
然後在PVE界面中可以看到了直通磁碟。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
OMV開機後,可以看到直通的SSD

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
可以在OMV內掛載現在SSD已有的數據,也可以格式化重新做存儲。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
至此NAS OMV安裝完成,接下來在OMV安裝Tr等應用。具體可以參考OMV的教程。

【路由:LEDE】

安裝完NAS後,怎麼能缺少f大的k站版本LEDE。LEDE放在最後因為需要配置vlan和交換機。相對比較麻煩些。

首先要在PVE創建vlan。

創建一個Linux Bridge,橋接埠eno1.100,100表示vlan100

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
創建完成後,會出現一個新的vmbr1,表示處於vlan100,用於路由的wan。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
然後創建虛擬機,機器名是LEDE。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
這里安裝LEDE有個新的玩法,使用了Ubuntu Live CD的iso。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
磁碟大小隻要1G就可以了。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
網路目前選擇vmbr0。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
創建完虛擬機後,再添加一塊網卡。作為WAN口

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
網卡選擇在vmbr1。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
然後啟動虛擬機,啟動後點Try Ubuntu。進入圖形界面後。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
按下Ctrl+Alt+F4進入live cd的命令行模式

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
輸入用戶名ubuntu,登入控制台

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
輸入

wget http://firmware.koolshare.cn/LEDE_X64_fw867/openwrt-koolshare-mod-v2.27-r10054-b7cccc1136-x86-64-combined-squashfs.img.gz
復制代碼

開始下載固件

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
gzip -d openwrt-koolshare-mod-v2.27-r10054-b7cccc1136-x86-64-combined-squashfs.img.gz
dd if=openwrt-koolshare-mod-v2.27-r10054-b7cccc1136-x86-64-combined-squashfs.img of=/dev/sda
復制代碼

Gzip解壓後,使用dd直接寫入磁碟。

這樣可以不轉盤,直接用live cd下載固件直接寫盤。

重啟後,直接配置LEDE,eth0是lan口,eth1是wan口。

最後是交換機配置。

和NUC連介面,設置成Trunk模式,Allow Vlan1,100,PVID=1

WAN口,設置成Access模式,PVID=100

LAN口,設置成Access模式,PVID=100,也就是默認配置。

至此LEDE配置完成。

【AD+Radius 認證】

可以在PVE上部署一台AD賬號伺服器。同樣也能部署一台Radius賬號伺服器,無線AP使用802.1X企業認證。

這樣內網使用1個賬號,登錄電腦,無線,郵箱所有內容。

如果你有Office 365賬號,還能部署雲本地聯合認證,可以使用AD Connect完成賬號同步。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
AD和Office365部署完後,最後是這么個狀態。

All In One 高性能小主機,點歪技能樹的Intel NUC8i7BEH開箱評測
一台NUC完整完成了路由到NAS,再到AD認證,甚至無線路由控制器的全套工作。一台小小的NUC,完成大任務。

【總結】

從最初的工作站,到最終挖掘出NUC8i7BEH無限潛力。軟路由——K站LEDE,存儲——OMV,虛擬機——Win10,AD+Radius認證——WinSrv,AP控制器——Ubnt。常用業務集中在一台小機器完成。Intel給我們玩家帶來無限想法。NUC8i7BEH值得推薦

㈧ pve支持無線網卡嗎

pve是支持無線網卡的,用戶可以根據自己的需求來決定是否接入無線網卡。需要注意的是pve接入網卡時需要更改參數。
Proxmox虛擬環境(簡稱PVE)是用於操作來賓操作系統的基於Debian Linux和KVM的虛擬化平台。Proxmox免費提供 -可以通過製造商(維也納的Proxmox Server Solutions GmbH)購買商業支持。無線網卡實際上是一種終端無線網路設備,它是需要在無線區域網的無線覆蓋下通過無線連接網路進行上網使用的。換句話說無線網卡就是使你的電腦可以利用無線來上網的一個裝置,但是有了無線網卡也還需要一個可以連接的無線網路,因此就需要配合無線路由器或者無線 AP 使用,就可以通過無線網卡以無線的方式連接無線網路可上網。

㈨ proxmox的虛擬機離線Error Connection error - server offline怎麼辦

檢查網路
檢查配置
檢查地址
希望可以幫助你,請採納,謝謝

㈩ proxmox可以導入vmware虛擬機嗎

Proxmox是一個非常優秀的開源虛擬化環境,集諸多優點於一身:開源免費,穩定可靠,架構簡潔,安裝方便,支持集群,KVM,LXC,NFS,iSCSI,Ceph,GlusterFS,DRBD,RestfulAPI,LDAP,CA,同時內嵌防火牆和IPS....絕對是不露聲色,能力超高那種角色。

但是,要在自己的生產環境里把這玩藝跑起來,還有一個問題要解決,那就是怎麼把現有伺服器遷移上去。我所要完成的第一個任務是把一套vmware 4.0上的虛擬機全部遷到Proxmox上去。

非常悲催,Proxmox官方沒有一個像vmware converter那樣的遷移工具。遷移全靠自己手動擼。

根據wiki的推薦,最後使用Clonezilla完成了遷移任務。Clonezilla遷移虛擬機的基本步驟在proxmox的wiki頁面上有,我就不多說了。今天要說的是一些wiki頁面上沒有的東西。

折騰一:windows 2000 server

這個,也說不好是Proxmox的錯,還是微軟的錯。總之,在Proxmox上,windows 2000系統只能用ACPI uniprocessor核心,如果用了ACPI multiprocessor,就很容易出現各種抽風現象,例如CPU 100%,系統時鍾速度變快100倍等等。所以,windows 2000系統遷移到Proxmox後,盡快改成ACPI uniprocessor。

折騰二:windows 2000 server

沒錯,還是windows 2000有關的。windows 2000默認沒有Intel E1000網卡驅動,所以,遷移到Proxmox後,最好調整下虛擬機的配置,把網卡改成Realtek RTL8139,不然網路不通哦。

折騰三:使用了動態磁碟的windows虛擬機。

windows磁碟管理器裡面可以查看所有磁碟設備的類型,一般情況下就是「基本」,這種可以很方便地遷移到Proxmox。二般情況下會顯示「動態」,這種就得恭喜你了。直接遷移過去,windows根本認不出動態磁碟。可以在遷移前,先用TestDisk把動態磁碟的類型從動態變成基本,然後再遷移。當然,改之前一定要做好備份,留好退路....我雖然改了十幾次都沒錯,但這畢竟是有風險的操作。

閱讀全文

與proxmox無線網路相關的資料

熱點內容
安卓如何打開網路磁碟 瀏覽:950
游拍網路平台哪個好 瀏覽:191
mac共享沒有網路 瀏覽:224
電腦wifi能上去網但是顯示無網路 瀏覽:940
四大名著和網路小說哪個好看 瀏覽:780
手機網路的特徵 瀏覽:22
矢量網路分析儀適合哪些專業 瀏覽:600
電視上出現網路異常請重試是怎麼回事 瀏覽:979
蘋果手機改變網路 瀏覽:421
網路教育哪個學校可以報 瀏覽:330
usb共享網路榮耀手機 瀏覽:579
提升網路速度電腦 瀏覽:728
海康300萬網路一天要多少g 瀏覽:647
登錄剪映網路異常 瀏覽:742
vivox27手機無法訪問移動網路 瀏覽:622
網路安全內容簡短50字 瀏覽:823
通信網路哪個國家好掙錢多 瀏覽:509
無線網路寬頻隨身wifi 瀏覽:538
使用過的路由器換個網路可以用嗎 瀏覽:281
螢石雲使用手機網路看不了 瀏覽:934

友情鏈接