Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537 Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537
于BOOST話題,很多電源工程師工作中會遇到不同的問題。其實找到問題的根源,才能對癥下藥。下面給大家分享幾篇不錯的文章,供大家學習~
本文主要講了三種基礎拓撲(buck boost buck-boost)的電路基礎,以及BUCK的電路,設計的案例,下面就隨小編來看看吧。
一 三種基礎拓撲(buck boost buck-boost)的電路基礎:
1 電感的電壓公式 = ,推出ΔI=V×ΔT/L
2 sw閉合時,電感通電電壓VON,閉合時間tON sw關(guān)斷時,電感電壓VOFF,關(guān)斷時間tOFF
3 功率變換器穩(wěn)定工作的條件:ΔION=ΔIOFF即,電感在導通和關(guān)斷時,其電流變化相等。那么由1,2的公式可知,VON =L×ΔION/ΔtON ,VOFF =L×ΔIOFF/ΔtOFF ,則穩(wěn)定條件為伏秒定律:VON×tON=VOFF×tOFF
4 周期T,頻率f,T=1/f,占空比D=tON/T=tON/(tON+tOFF)→tON=D/f =TD
→tOFF=(1-D)/f
二 Buck電路
5 電容的輸入輸出平均電流為0,在整個周期內(nèi)電感平均電流=負載平均電流,所以有:IL=Io
6 二極管只在sw關(guān)斷時流過電流,所以ID=IL×(1-D)
7 則平均開關(guān)電流Isw=IL×D
8 由基爾霍夫電壓定律知:
Sw導通時:VIN =VON+VO+VSW → VON=VIN-VO- VSW≈VIN-VO假設VSW相比足夠小
VO=VIN-VON-VSW≈VIN-VON
Sw關(guān)斷時:VOFF =VO+VD → VO=VOFF-VD≈VOFF 假設VD相比足夠小
9 由3、4可得D=tON/(tON+tOFF)=VOFF/(VOFF + VON)
由8可得:D=VO/{(VIN-VO)+VO}
D=VO/ VIN
10 直流電流IDC=電感平均電流IL,即IDC≡IL=Io 見5
11 紋波電流IAC=ΔI/2=VIN(1-D)D/ 2Lf=VO(1- D)/2Lf
由1,3、4、9得,
ΔI=VON×tON/L
=(VIN-VO)×D/Lf=(VIN-DVIN)×D/Lf=VIN(1- D)xD/ Lf
ΔI/ tON=VON/L=(VIN-VO)/L
ΔI=VOFF×tOFF/L
=VOT(1-D)/L
=VO(1-D)/Lf
ΔI/ tOFF=VOFF/L=VO/L
12,電流紋波率r=ΔI/ IL=2IAC/IDC 在臨界導通模式下,IAC =IDC,此時r=2 見P51
r=ΔI/ IL=VON×D/Lf IL=(VIN-VO)×D/Lf IL
=VOFF×(1-D)/Lf IL=VO×(1-D)/Lf IL
13,峰峰電流IPP=ΔI=2IAC=r×IDC=r×IL
14,峰值電流IPK=IDC+IAC=(1+r/2)×IDC=(1+r/2) ×IL=(1+r/2)×IO
最惡劣輸入電壓的確定:
VO、Io不變,VIN對IPK的影響:
D=VO/ VIN VIN增加↑→D↓→ΔI↑, IDC=IO,不變,所以 IPK↑。
三 設計案例
某型號的DC-DC集成電路輸入電壓范圍是4.7-16V,現(xiàn)在有個電路用它來把12V轉(zhuǎn)為3.3V,最大輸出電流是2A。如果開關(guān)頻率是500KHZ,那么電感的推薦值是多大……
原文鏈接:https://www.dianyuan.com/article/45477.html
在非隔離電源方案中,Buck、Boost、Buck-Boost電路應用非常廣泛,很多工程師都對這三種電路非常熟。下面我們一起看下四開關(guān)Buck-Boost電路。
常規(guī)的Buck-Boost電路,Vo=-Vin*D/(1-D),輸出電壓的極性和輸入電壓相反。
簡要的四開關(guān)Buck-Boost電路,Vo=Vin*D/(1-D),輸出電壓的極性與輸入電壓相同。
四開關(guān)buck-boost的拓撲很簡單,如下圖。
對于四開關(guān)buck-boost,它本身有一種非常傳統(tǒng)簡單的控制方式。
那就是Q1和Q3同時工作,Q2和Q4同時工作。并且兩組MOS交替導通,如上圖。
如果把Q2和Q4換成二極管,那么也是同樣能工作,只不過沒有同步整流而已。
對于這種控制方式,在CCM情況下我們可以得到公式:
Vin*D=Vout(1-D)也就是說,Vout=Vin*D/(1-D). 這個電壓轉(zhuǎn)換比和我們常見的buck-boost是一樣的。
只不過常見的buck-boost的輸出電壓是負壓,而四開關(guān)輸出的是正壓。
但是這種控制方式的優(yōu)點是簡單,沒有模態(tài)切換。但是缺點是,四個管子都在一直工作,損耗大,共模噪音也大。
基于傳統(tǒng)控制方式的缺點。多年前,一家知名的IC公司推出了一款控制IC,革新了這個拓撲的控制方式。
但是,這種思路本身沒什么奇特之處。真正有技術(shù)含量的是,當VIn=Vout的時候,采用怎么樣的控制方式?
從buck過渡到中間模態(tài),再過渡到boost的時候,如何做到無縫切換? 這幾個問題,后來成為各家IC公司,大開腦洞,爭奪知識產(chǎn)權(quán)的戰(zhàn)場。
接下來,我來介紹某特公司的IC的控制邏輯。
先假設輸出為固定的12V,輸入假設為一個電池,充滿電電壓為16V,放電結(jié)束電壓為8V。
那么從輸入16V開始,此時的工作狀態(tài)顯然是BUCK
那么四個管子的驅(qū)動信號如下圖
那么當輸入電池電壓逐漸開始降低,M1的占空比也逐漸開始增大,而M2的占空比開始減小。
此時M2的占空比是個關(guān)鍵的參數(shù)。
因為IC內(nèi)部對M2的脈寬有個最小設定,假如說是200ns。
那么現(xiàn)在假設輸入電壓掉到12.5V,而M2的脈寬也收縮到了200ns。IC內(nèi)部的邏輯電路就認為到了模態(tài)切換的時候了。
此時發(fā)生的變化是,M3和M4兩個管子不再是常關(guān)和常通的狀態(tài),而是開始開關(guān)了。
如果我們把上圖進行分解,就會發(fā)現(xiàn)一個有趣的現(xiàn)象,就是在一個clock周期里面,前半周期是buck,后半周期是boost……
原文鏈接:https://www.dianyuan.com/article/43788.html
電源最常見的三種結(jié)構(gòu)布局是降壓(buck)、升壓(boost)和降壓–升壓(buck-boost),這三種布局都不是相互隔離的。
今天介紹的主角是boost升壓電路,the boost converter(或者叫step-up converter),是一種常見的開關(guān)直流升壓電路,它可以使輸出電壓比輸入電壓高。
下面主要從基本原理、boost電路參數(shù)設計、如何給Boost電路加保護電路三個方面來描述。
Part1 Boost電路的基本原理分析
Boost電路是一種開關(guān)直流升壓電路,它能夠使輸出電壓高于輸入電壓。在電子電路設計當中算是一種較為常見的電路設計方式。
首先,你需要了解的基本知識:
電容阻礙電壓變化,通高頻,阻低頻,通交流,阻直流;
電感阻礙電流變化,通低頻,阻高頻,通直流,阻交流;
假定那個開關(guān)(三極管或者MOS管)已經(jīng)斷開了很長時間,所有的元件都處于理想狀態(tài),電容電壓等于輸入電壓。
下面要分充電和放電兩個部分來說明這個電路。
充電過程
在充電過程中,開關(guān)閉合(三極管導通),等效電路如上圖,開關(guān)(三極管)處用導線代替。這時,輸入電壓流過電感。二極管防止電容對地放電。由于輸入是直流電,所以電感上的電流以一定的比率線性增加,這個比率跟電感大小有關(guān)。隨著電感電流增加,電感里儲存了一些能量。
放電過程
如上圖,這是當開關(guān)斷開(三極管截止)時的等效電路。當開關(guān)斷開(三極管截止)時,由于電感的電流保持特性,流經(jīng)電感的電流不會馬上變?yōu)?,而是緩慢的由充電完畢時的值變?yōu)?。而原來的電路已斷開,于是電感只能通過新電路放電,即電感開始給電容充電,電容兩端電壓升高,此時電壓已經(jīng)高于輸入電壓了。升壓完畢。
說起來升壓過程就是一個電感的能量傳遞過程。充電時,電感吸收能量,放電時電感放出能量。如果電容量足夠大,那么在輸出端就可以在放電過程中保持一個持續(xù)的電流。如果這個通斷的過程不斷重復,就可以在電容兩端得到高于輸入電壓的電壓……
原文鏈接:https://www.dianyuan.com/article/41704.html
對Boost電路進行相應的仿真測試,是工程師在平時最常接觸的工作。通過空間狀態(tài)平均法進行仿真測試和波形檢測,能夠快速有效的完成Simulink數(shù)字建模和檢測工作。本文將會就這一方法展開簡要介紹與分析,幫助工程師更輕松的實現(xiàn)建模和仿真檢測。
首先我們以Boost電路結(jié)構(gòu)的變換器為例,來看一下如何使用空間狀態(tài)平均法進行公式計算。在計算中,工程師可以依據(jù)其拓撲結(jié)構(gòu),分別寫出Boost電路變換器開通和關(guān)斷狀態(tài)方程。因為每一個開關(guān)周期都是非常短暫的,所以我們在一個開關(guān)周期內(nèi)用空間狀態(tài)平均法來綜合兩個階段的方程,可得到一個有關(guān)輸出電壓和開關(guān)頻率的非線性狀態(tài)方程。
當開關(guān)導通時,Boost狀態(tài)方程式為:
當開關(guān)關(guān)斷時,Boost狀態(tài)方程式為:
對上述兩個公式用時間平均可得:
在上述公式中,參數(shù)U0代表輸出電壓;Ts代表開關(guān)周期;ton代表開通時間;toff代表關(guān)斷時間;Uin代表輸入電壓;IL代表電感電流。在得出相應的數(shù)值之后,工程師可以用Simulink技術(shù)進行數(shù)學建模,建模結(jié)果如下圖所示。
圖為空間狀態(tài)平均法的Boost電路變換器仿真模型
該模型中各個參數(shù)的計算過程如下:
在完成公式計算并進行建模后,工程師利用該方法所得到的Boost變換器正常運轉(zhuǎn)的仿真波形如下圖所示:
圖為空間狀態(tài)平均法的Boost電路變換器仿真波形
以上就是本文關(guān)于使用空間狀態(tài)平均法進行Boost電路仿真檢測的介紹,希望能夠幫助工程師更好的完成電路系統(tǒng)仿真檢測工作……
原文鏈接:https://www.dianyuan.com/article/31006.html
意猶未盡,查看更多精彩文章→→https://www.dianyuan.com/eestar/
更多精彩內(nèi)容→→
PWM不過如此,你還在為PWM發(fā)愁?
反激就是這么回事,你入門了嗎?
反激→就是這樣的過程,搞不懂的快來GET
想快速學EMC,以下六篇文章足矣,建議收藏
讀懂這八篇文章,想不懂PWM都難
者:symonxiong,騰訊 CDG 應用研究員
XGBoost是一種經(jīng)典的集成式提升算法框架,具有訓練效率高、預測效果好、可控參數(shù)多、使用方便等特性,是大數(shù)據(jù)分析領域的一柄利器。在實際業(yè)務中,XGBoost經(jīng)常被運用于用戶行為預判、用戶標簽預測、用戶信用評分等項目中。XGBoost算法框架涉及到比較多數(shù)學公式和優(yōu)化技巧,比較難懂,容易出現(xiàn)一知半解的情況。由于XGBoost在數(shù)據(jù)分析領域?qū)嵲谑翘?jīng)典、太常用,最近帶著敬畏之心,對陳天奇博士的Paper和XGBoost官網(wǎng)重新學習了一下,基于此,本文對XGBoost算法的來龍去脈進行小結(jié)。
本文重點解析XGBoost算法框架的原理,希望通過本文能夠洞悉XGBoost核心算法的來龍去脈。對于XGBoost算法,最先想到的是Boosting算法。Boosting提升算法是一種有效且被廣泛使用的模型訓練算法,XGBoost也是基于Boosting來實現(xiàn)。Boosting算法思想是對弱分類器基礎上不斷改進提升,并將這些分類器集成在一起,形成一個強分類器。簡而言之,XGBoost算法可以說是一種集成式提升算法,是將許多基礎模型集成在一起,形成一個很強的模型。這里的基礎模型可以是分類與回歸決策樹CART(Classification and Regression Trees),也可以是線性模型。如果基礎模型是CART樹(如圖1所示),比如第1顆決策樹tree1預測左下角男孩的值為+2,對于第1顆決策樹遺留下來的剩余部分,使用第2顆決策樹預測值為+0.9,則對男孩的總預測值為2+0.9=2.9。
圖1.基于二叉樹的XGBoost模型
XGBoost算法框架可以分為四個階段來理解(如圖2所示)。第一個階段,如何構(gòu)造目標函數(shù)? 在進行優(yōu)化求解時,首先需要構(gòu)造目標函數(shù),有了目標函數(shù)才能進行優(yōu)化求解。這種思路和LR模型(Logistic Regression)是一致。在LR模型中,首先,對于回歸問題構(gòu)造平方項損失,對于分類問題構(gòu)造最大似然損失作為目標函數(shù),然后基于構(gòu)造好的目標函數(shù),才會考慮采用梯度下降算法進行優(yōu)化求解,比如隨機梯度下降、Mini-Batch批量梯度下降、梯度下降等。在這個階段,我們可以得到XGBoost的基本目標函數(shù)結(jié)構(gòu)。
第二個階段,目標函數(shù)優(yōu)化求解困難,如何對目標函數(shù)近似轉(zhuǎn)換? 在第一個階段得到的基本目標函數(shù)較為復雜,不是凸函數(shù),沒法使用連續(xù)性變量對目標函數(shù)直接優(yōu)化求極值。因此,使用泰勒級數(shù)對目標函數(shù)進行展開,對目標函數(shù)規(guī)整、重組后,將目標函數(shù)轉(zhuǎn)換為關(guān)于預測殘差的多項式函數(shù)。
第三個階段,如何將樹的結(jié)構(gòu)引入到目標函數(shù)中? 第二個階段得到的多項式目標函數(shù)是一個復合函數(shù)。被預測的殘差和模型復雜度還是未知的函數(shù),需要對這兩個函數(shù)進行參數(shù)化表示,即將決策樹的結(jié)構(gòu)信息通過數(shù)學符號表示出來。在第三個階段,在樹的形狀確定情況下,可以優(yōu)化求解出局部最優(yōu)解。
第四個階段,如何確定樹的形狀,要不要使用貪心算法? 如何在模型空間里面尋找最優(yōu)的決策樹形狀,這是一個NP-Hard問題,我們很難對可能存在的樹結(jié)構(gòu)全部羅列出來,尤其在特征個數(shù)很多情況下。因此,在這里需要使用貪心算法來求得局部最優(yōu)解。
圖2.XGBoost算法構(gòu)建邏輯
當使用多棵樹來預測時,假設已經(jīng)訓練了棵樹,則對于第個樣本的(最終)預測值為:
在公式1中, 表示對 個樣本的預測值,屬于集合范圍內(nèi), 表示通過第棵樹對第個樣本進行預測,比如第1棵樹預測值為,第2棵樹預測值為 ,依次類推,將這些樹的預測值累加到一起,則得到樣本的最終預測值。因此,如果要得到樣本的最終預測值,需要訓練得到棵樹。
如果要訓練得到棵樹,首先需要構(gòu)造訓練的目標函數(shù)(如公式2所示)。在構(gòu)建模型時,不僅需要考慮到模型的預測準確性,還需要考慮到模型的復雜程度,既準確又簡單的模型在實際應用中的效果才是最好的。因此,目標函數(shù)由兩部分構(gòu)成,第一部分表示損失函數(shù),比如平方損失、交叉熵損失、折頁損失函數(shù)等。第一部分表示個樣本總的損失函數(shù)值。因為在這里通過樣本預測值和樣本真實值的比較,可以計算出針對樣本的模型預測損失值。這里可以暫時先不用考慮損失函數(shù)的具體形式,因為這里的損失函數(shù),可以統(tǒng)一表示回歸與分類問題的損失函數(shù)形式。
公式2的第二部分表示正則項,是用來控制模型的復雜度,模型越復雜,懲罰力度越大,從而提升模型的泛化能力,因為越復雜的模型越容易過擬合。XGBoost的正則化思路跟模型中加/正則化思路一致,不同的地方在于正則化項具體物理含義不同。在這里表示第棵樹的復雜度,接下來的問題是如何對樹的復雜度進行參數(shù)化表示,這樣后面才能進行參數(shù)優(yōu)化。
在損失函數(shù)中,是有很多個模型(決策樹)共同參與,通過疊加式的訓練得到。如圖2所示,訓練完第一顆樹后,對于第一棵樹沒有訓練好的地方,使用第二顆樹訓練,依次類推,訓練第個棵樹,最后訓練第顆樹。當在訓練第棵樹時,前面的第1棵樹到第顆樹是已知的,未知的是第棵樹,即基于前面構(gòu)建的決策樹已知情況下,構(gòu)建第棵樹。
圖3.XGBoost疊加式訓練
對于樣本,首先初始化假定第0棵樹為,預測值為,然后在第0棵樹基礎上訓練第1棵樹,得到預測值,在第1棵樹基礎上訓練第2顆樹,又可以得到預測值,依次類推,當訓練第棵樹的時候,前面棵樹的總預測值為,遞推訓練具體過程如下所示:
根據(jù)XGBoost的遞推訓練過程,每棵決策樹訓練時會得到樣本對應的預測值,根據(jù)樣本預測值和真實值比較,可以計算得到模型預測損失值。又因為訓練所得的每棵決策樹都有對應的結(jié)構(gòu)信息,因此可以得到每棵決策樹的復雜度。根據(jù)這些信息,可以對目標函數(shù)公式2進行簡化,得到公式3。
在公式3中,表示訓練樣本個數(shù),為顆決策樹累加的預測值,為顆決策樹總的復雜度,在訓練第顆決策樹時,這兩個東西是已知的,即在對目標函數(shù)進行求最小值優(yōu)化時候,和為已知。因此,將常數(shù)項拿掉,得到公式4作為XGBoost的目標函數(shù)。
在公式4中,已經(jīng)得到了需要優(yōu)化的目標函數(shù),這個目標函數(shù)已經(jīng)是簡化后的函數(shù)。對于公式4,沒法進行進一步優(yōu)化。為了解決目標函數(shù)無法進行進一步優(yōu)化,XGBoost原文是使用泰勒級數(shù)展開式技術(shù)對目標函數(shù)進行近似轉(zhuǎn)換,即使用函數(shù)的1階、2階、3階...階導數(shù)和對應的函數(shù)值,將目標函數(shù)進行多項式展開,多項式階數(shù)越多,對目標函數(shù)的近似程度越高。這樣做的好處是便于后面優(yōu)化求解。
令,,帶入到目標函數(shù)公式4,得到基于二階泰勒展開式的函數(shù)(如公式5所示),其中,。
在訓練第顆樹時,目標函數(shù)(公式5)中,,、是已知的。因此,可以將已知常數(shù)項去掉,得到進一步簡化后的目標函數(shù)(公式6)。、分別表示第顆決策樹的損失函數(shù)的1階、2階導數(shù)。前面顆決策樹預測后,通過、將前面第顆決策樹的預測損失信息傳遞給第顆決策樹。在公式6中,第顆樹的預測函數(shù)、樹復雜度函數(shù)對于我們來說,仍然都是未知的,因此需要將其參數(shù)化,通過參數(shù)形式表示出來,才能進行下一步的優(yōu)化求解。
接下來的問題是如何對函數(shù)、進行參數(shù)化表示。首先,對于葉子權(quán)重函數(shù),如圖4所示決策樹,有1號、2號、3號葉子節(jié)點,這三個葉子節(jié)點對應的取值分別為15,12,20,在1號葉子節(jié)點上,有{1,3}兩個樣本,在2號葉子節(jié)點上,有{4}一個樣本,在3號葉子節(jié)點上,有{2,5}兩個樣本。在這里,使用來表示決策樹的葉子權(quán)重值,三個葉子節(jié)點對應的葉子權(quán)重值為、、。對于樣本落在決策樹葉子節(jié)點的位置信息,使用表示,表示樣本1落在第1個葉子節(jié)點上,表示樣本1落在第3個葉子節(jié)點上,表示樣本4落在第2個葉子節(jié)點上。
圖4.XGBoost決策樹結(jié)構(gòu)
對于第顆樹的葉子權(quán)重函數(shù),根據(jù)葉子權(quán)重值和樣本所在葉子的位置信息,即可確定函數(shù)。因此,我們引入決策樹葉子權(quán)重值和樣本所在葉子的位置信息兩個變量,將其參數(shù)化表示成。然而,是一個函數(shù),作為的下標是不利于優(yōu)化求解。因此,這里需要將轉(zhuǎn)化為形式。是根據(jù)樣本落在葉子節(jié)點的位置信息直接遍歷計算損失函數(shù)。是從葉子節(jié)點的角度,對每個葉子節(jié)點中的樣本進行遍歷計算損失函數(shù),其中,表示樹的葉子節(jié)點。假設,即表示有哪些樣本落在第j個葉子節(jié)點上,比如表示樣本{1,3}落在葉子節(jié)點1上,表示樣本{4}落在葉子節(jié)點2上,表示樣本{2,5}落在葉子節(jié)點3上(如上文圖4所示)。在這里強調(diào)一下,將轉(zhuǎn)換為形式,是可以從數(shù)學公式推到得到(比如下式)。根據(jù)樣本所在葉子節(jié)點位置,計算所有樣本的一階損失得到第一行等式,其中,表示樣本的一階損失,表示樣本對應的葉子節(jié)點,表示葉子節(jié)點對應的葉子權(quán)重值。
對于模型復雜度,表示第顆樹的復雜度。在決策樹里面,如果要降低樹的復雜度,在訓練決策樹時,可以通過葉子節(jié)點中樣本個數(shù)、樹的深度等控制決策樹的復雜度。在XGBoost中,是通過葉子節(jié)點個數(shù)、樹的深度、葉子節(jié)點值來控制模型復雜度。XGBoost中的決策樹是分類與回歸決策樹CART(Classification and Regression Trees)。由于CART是二叉樹,控制葉子節(jié)點個數(shù)等同于控制了樹的深度。因此,可以使用葉子節(jié)點個數(shù)來評估樹的復雜度,即葉子節(jié)點個數(shù)越多(樹的深度越深),決策樹結(jié)構(gòu)越復雜。對于葉子節(jié)點值,由于葉子節(jié)點值越大,相當于樣本預測值分布在較少的幾顆決策樹的葉子節(jié)點上,這樣容易出現(xiàn)過擬合。如果葉子節(jié)點值越小,相當于預測值分布在較多的決策樹葉子節(jié)點上,每顆決策樹參與預測其中的一小部分,過擬合的風險被分散。因此,葉子節(jié)點值越大,模型越容易過擬合,等同于決策樹的復雜度越高。綜合起來,如公式7所示,使用葉子節(jié)點個數(shù)、葉子節(jié)點值評估第顆決策樹的復雜度,其中、為超參數(shù)。如果希望葉子個數(shù)盡量少,則將值盡量調(diào)大,如果希望葉子權(quán)重值盡量小,則將盡量調(diào)大。
將和公式7帶入目標函數(shù)(公式6)中,可以得到參數(shù)化的目標函數(shù)(公式8)。在公式8中,在訓練第顆決策樹時,和這兩部分是已知,為超參數(shù)。令,,對公式8進行調(diào)整,此時得到目標函數(shù)是關(guān)于的一元二次拋物線,是目標函數(shù)最終的參數(shù)化表示形式。拋物線是有極值,對拋物線求極值可以直接套用拋物線極值公式,求解很方便。
基于公式8,對目標函數(shù)關(guān)于求導,可以求得樹的葉子節(jié)點最優(yōu)的權(quán)重值,如公式9所示。
將等式9帶入到公式8中,計算得到樹的目標損失值(如等式10),該等式表示決策樹損失分數(shù),分數(shù)越小,說明樹的預測準確度越高、復雜度越低。
這里需要注意到一點,樹的葉子節(jié)點最優(yōu)解和損失函數(shù)極小值是在樹的形狀給定后的優(yōu)化求解。因此,如果要求得葉子節(jié)點最優(yōu)解和損失函數(shù)極小值,首先需要確定樹的形狀。如何尋找樹的形狀?最直接的方式是枚舉所有可能的形狀,然后計算每種形狀的損失函數(shù),從中選擇損失函數(shù)最小的形狀作為模型訓練使用。這樣在樹的形狀確定后,就可以對葉子節(jié)點值和損失函數(shù)值進行優(yōu)化求解。這種方式在實際應用中一般不會采用,因為當樣本的特征集很大時,樹的形狀個數(shù)是呈指數(shù)級增加,計算這些形狀樹對應損失函數(shù)需要消耗大量的計算資源。
為了尋找樹的形狀,我們一般使用貪心算法來簡化計算,降低計算的復雜度。貪心算法是在局部尋找最優(yōu)解,在每一步迭代時,選擇能使當前局部最優(yōu)的方向。XGBoost尋找樹的形狀的思路和傳統(tǒng)決策樹模型建立樹的思路一致。比如傳統(tǒng)決策樹在進行節(jié)點分割時,基于信息熵,選擇信息熵下降最大的特征進行分割;對于XGBoost樹模型,基于損失函數(shù),選擇能讓損失函數(shù)下降最多的特征進行分割。如圖5所示,虛線框是已經(jīng)構(gòu)造好的樹形狀,如果需要在藍色節(jié)點做進一步分裂,此時需要按照某種標準,選擇最好的特征進行分割。在這里,XGBoost使用損失函數(shù)下降最大的特征作為節(jié)點分裂。
圖5.XGBoost樹節(jié)點最佳分割點
根據(jù)公式10,可以計算到藍色節(jié)點在分裂前和分裂后的的損失函數(shù)值:。兩式相減,則得到特征如果作為分裂節(jié)點時,所能帶來的損失函數(shù)下降值大小。因此,依據(jù)如下等式,選擇能使最大的特征作為分裂節(jié)點。
關(guān)于XGBoost的常見經(jīng)典問題,這類問題對于深入理解XGBoost模型很重要,因此,本文對此也進行了梳理小結(jié)。
根據(jù)XGBoost官網(wǎng)(如圖6所示),目標損失函數(shù)之間存在較大的差別,比如平方損失函數(shù)、邏輯損失函數(shù)等。對目標函數(shù)進行泰勒展開,就是為了統(tǒng)一目標函數(shù)的形式,針對回歸和分類問題,使得平方損失或邏輯損失函數(shù)優(yōu)化求解,可以共用同一套算法框架及工程代碼。另外,對目標函數(shù)進行泰勒展開,可以使得XGBoost支持自定義損失函數(shù),只需要新的損失函數(shù)二階可導即可,從而提升算法框架的擴展性。
圖6.XGBoost目標函數(shù)泰勒展開式官方解釋
相對于GBDT的一階泰勒展開,XGBoost采用二階泰勒展開,可以更精準的逼近真實的損失函數(shù),提升算法框架的精準性。另外,一階導數(shù)描述梯度的變化方向,二階導數(shù)可以描述梯度變化方向是如何變化的,利用二階導數(shù)信息更容易找到極值點。因此,基于二階導數(shù)信息能夠讓梯度收斂的更快,類似于牛頓法比SGD收斂更快。
XGBoost算法框架,參考隨機森林的Bagging方法,支持樣本采樣和特征采樣。由于XGBoost里沒有交代是有放回采樣,認為這里的樣本采樣和特征采樣都是無放回采樣。每次訓練時,對數(shù)據(jù)集采樣,可以增加樹的多樣性,降低模型過擬合的風險。另外,對數(shù)據(jù)集采樣還能減少計算,加快模型的訓練速度。在降低過擬合風險中,對特征采樣比對樣本采樣的效果更顯著。
樣本采樣(如圖7所示),默認是不進行樣本采樣。樣本的采樣的方式有兩種,一種是認為每個樣本平等水平,對樣本集進行相同概率采樣;另外一種認為每個樣本是不平等,每個樣本對應的一階、二階導數(shù)信息表示優(yōu)先級,導數(shù)信息越大的樣本越有可能被采到。
圖7.XGBoost樣本采樣
特征采樣(如圖8所示),默認對特征不進行采樣。對特征的采樣方式有三種,第一種是在建立每棵樹時進行特征采樣;第二種特征采樣范圍是在第一種的基礎上,對于樹的每一層級(樹的深度)進行特征采樣;第三種特征采樣范圍是在第二種的基礎上,對于每個樹節(jié)點進行特征采樣。這三種特征采樣方式有串行效果。比如,當?shù)谝弧⒍⑷N的特征采樣比例均是0.5時,如果特征總量為64個,經(jīng)過這三種采樣的綜合效果,最終采樣得到的特征個數(shù)為8個。
圖7.XGBoost樣本采樣
XGBoost訓練速度快,這個主要是工程實現(xiàn)優(yōu)化的結(jié)果,具體的優(yōu)化措施如下幾點:第一、支持并行化訓練。XGBoost的并行,并不是說每棵樹可以并行訓練,XGBoost本質(zhì)上仍然采用Boosting思想,每棵樹訓練前需要等前面的樹訓練完成后才能開始訓練。XGBoost的并行,指的是特征維度的并行。在訓練之前,每個特征按特征值大小對樣本進行預排序,并存儲為Block結(jié)構(gòu)(如圖8所示),在后面查找特征分割點時可以重復使用,而且特征已經(jīng)被存儲為一個個Block結(jié)構(gòu),那么在尋找每個特征的最佳分割點時,可以利用多線程對每個Block并行計算。
圖8.樣本排序
第二、采用近似算法技術(shù),得到候選分位點。在構(gòu)造決策樹分裂節(jié)點時,當采用精確貪心算法窮舉計算每個特征下的所有特征值增益,如果特征個數(shù)多、特征取值大,會造成較大的計算量。當樣本數(shù)據(jù)量大時,特征值無法完全加載到內(nèi)存中,計算效率低。對于分布式數(shù)據(jù)集,同樣會面臨無法將特征值全部加載到本地內(nèi)存的問題。因此,基于這兩個現(xiàn)實問題,采用近似直方圖算法,將每個特征取值劃分為常數(shù)個分位點,作為候選分割點,從中選擇相對最優(yōu)的分割點作為決策樹分裂節(jié)點。
第三、緩存感知訪問技術(shù)。對于有大量數(shù)據(jù)或者說分布式系統(tǒng)來說,不可能將所有的數(shù)據(jù)都放進內(nèi)存里面。因此,需要將其放在外存上或者將數(shù)據(jù)分布式存儲。但是會有一個問題,這樣做每次都要從外存上讀取數(shù)據(jù)到內(nèi)存,這將會是十分耗時的操作。在XGBoost中,采用預讀取的方式,將下一塊將要讀取的數(shù)據(jù)預先放進內(nèi)存里面。這個過程是多開了一個線程,該線程與訓練的線程獨立并負責數(shù)據(jù)讀取。此外,還要考慮Block的大小問題。如果設置最大的Block來存儲所有樣本在特征上的值和梯度,Cache未必能一次性處理如此多的梯度做統(tǒng)計。如果設置過小的Block-size,這樣不能充分利用多線程的優(yōu)勢。這樣會出現(xiàn)訓練線程已經(jīng)訓練完數(shù)據(jù),但是預讀取線程還沒把數(shù)據(jù)放入內(nèi)存或者cache中。經(jīng)過測試,Block-size設置為2^16個特征值是效果最好。
第四、Blocks核外計算優(yōu)化技術(shù)。為了高效使用系統(tǒng)資源,對于機器資源,除了CPU和內(nèi)存外,磁盤空間也可以利用起來處理數(shù)據(jù)。為了實現(xiàn)這個功能,XGBoost在模型訓練時,會將數(shù)據(jù)分成多個塊并將每個塊存儲在磁盤上。在計算過程中,使用獨立的線程將Block預提取到主內(nèi)存緩沖區(qū),這樣數(shù)據(jù)計算和磁盤讀取可以同步進行,但由于IO非常耗時,所以還采用了兩種技術(shù)來改進這種核外計算。
除了這些技術(shù),XGBoost的特征采樣技術(shù)也可以提升計算效率。如果設定特征采樣比例colsample_by* < 1.0,則在選擇最佳特征分割點作為分裂節(jié)點時,特征候選集變小,挑選最佳特征分割點時計算量降低。
XGBoost的一個優(yōu)點是允許特征存在缺失值。對缺失值的處理方式如圖9所示: 在特征上尋找最佳分割點時,不會對該列特征missing的樣本進行遍歷,而只對該特征值為non-missing的樣本上對應的特征值進行遍歷。對于稀疏離散特征,通過這個技巧可以大大減少尋找特征最佳分割點的時間開銷。
在邏輯實現(xiàn)上,為了保證完備性,會將該特征值missing的樣本分別分配到左葉子節(jié)點和右葉子節(jié)點,兩種情形都計算一遍后,選擇分裂后增益最大的那個方向(左分支或是右分支),作為預測時特征值缺失樣本的默認分支方向。 如果在訓練中沒有缺失值而在預測中出現(xiàn)缺失,那么會自動將缺失值的劃分方向放到右子節(jié)點。
圖9.XGBoost缺失值處
XGBoost和GBDT都是基于Boosting思想實現(xiàn)。XGBoost可以認為是在GBDT基礎上的擴展。兩者的主要不同如下:基分類器:GBDT是以分類與回歸決策樹CART作為基分類器,XGBoost的基分類器不僅支持CART決策樹,還支持線性分類器,此時XGBoost相當于帶L1和L2正則化項的Logistic回歸(分類問題)或者線性回歸(回歸問題)。導數(shù)信息:GBDT在優(yōu)化求解時,只是用到一階導數(shù)信息,XGBoost對代價函數(shù)做了二階泰勒展開,同時用到一階和二階導數(shù)信息。另外,XGBoost工具支持自定義代價函數(shù),只要函數(shù)可以一階和二階求導即可。正則項:XGBoost在代價函數(shù)里加入正則項,用于控制模型的復雜度。正則項里包含了樹的葉子節(jié)點個數(shù)、每個葉子節(jié)點上輸出的預測值的模的平方和。正則項有利于降低模型的方差variance,使學習出來的模型更加簡單,防止過擬合。GBDT的代價函數(shù)中是沒有正則項。缺失值處理:對于特征的取值有缺失的樣本,XGBoost可以自動學習出它的分裂方向。 另外,XGBoost還做了其它工程優(yōu)化,包括特征值Block化、并行化計算特征增益、近似直方圖算法、特征采樣技術(shù)等
在使用XGBoost前,可以根據(jù)官網(wǎng)說明文檔進行安裝(下面有鏈接,這里不贅述)。本文采用的數(shù)據(jù)集是Kaggle平臺房價預測開源數(shù)據(jù)集(地址如參考文章8所示)。值得說明的一點,在進行模型訓練前,一般需要做數(shù)據(jù)清洗、特征工程、樣本劃分、模型參數(shù)調(diào)優(yōu)這些過程。針對這些過程,本文在這里不展開細講。在進行模型訓練前,本文已經(jīng)完成數(shù)據(jù)清洗、特征工程、模型參數(shù)調(diào)優(yōu)過程,并得到最終用于模型訓練的樣本集和最優(yōu)模型參數(shù)。如下代碼,是使用XGBoost進行模型訓練過程。
#### 導入數(shù)據(jù)分析基礎包 #####
import pandas as pd
import matplotlib
import numpy as np
import scipy as sp
import IPython
from IPython import display
import sklearn
import random
import time
#### 導入訓練樣本 #####
# 樣本集特征
X_train=pd.read_csv('./final_train.csv',sep='\t',index=None)
# 樣本集標簽
y_train=pd.read_csv('./final_y_train.csv',sep='\t',index=None)
### 導入算法模型和評分標準 ####
from sklearn import svm, tree, linear_model, neighbors, naive_bayes, ensemble, discriminant_analysis, gaussian_process
from xgboost import XGBClassifier
#Common Model Helpers
from sklearn.preprocessing import OneHotEncoder, LabelEncoder
from sklearn import feature_selection
from sklearn import model_selection
from sklearn import metrics
#Visualization
import matplotlib as mpl
import matplotlib.pyplot as plt
import matplotlib.pylab as pylab
import seaborn as sns
from pandas.plotting import scatter_matrix
#Configure Visualization Defaults
#%matplotlib inline = show plots in Jupyter Notebook browser
%matplotlib inline
mpl.style.use('ggplot')
sns.set_style('white')
pylab.rcParams['figure.figsize'] = 12,8
from sklearn.tree import DecisionTreeRegressor
from sklearn.linear_model import LinearRegression, ElasticNet
from sklearn.ensemble import RandomForestRegressor
from sklearn.metrics import fbeta_score, make_scorer, r2_score ,mean_squared_error
from sklearn.linear_model import Lasso
from sklearn.svm import SVR
from xgboost import XGBRegressor
from sklearn.model_selection import KFold, cross_val_score, train_test_split
# 計算平方誤差
def rmsle(y, y_pred):
return np.sqrt(mean_squared_error(y, y_pred))
# 模型:Xgboost
from sklearn.model_selection import GridSearchCV
best_reg_xgb = XGBRegressor(learning_rate= 0.01, n_estimators = 5000,
max_depth= 4, min_child_weight = 1.5, gamma = 0,
subsample = 0.7, colsample_bytree = 0.6,
seed = 27)
best_reg_xgb.fit(X_train, y_train)
pred_y_XGB = best_reg_xgb.predict(X_train)
#
print (rmsle(pred_y_XGB, y_train))
本文從目標函數(shù)構(gòu)建、目標函數(shù)優(yōu)化、樹結(jié)構(gòu)信息表示、樹形狀確定等四部分,對XGBoost算法框架進行解析。最后,針對XGBoost的常見問題進行小結(jié)。通過本文,洞悉XGBoost框架的底層算法原理。在用戶行為預判、用戶標簽預測、用戶信用評分等數(shù)據(jù)分析業(yè)務中,經(jīng)常會使用到XGBoost算法框架。如果對XGBoost算法原理理解透徹,在實際業(yè)務中的模型訓練過程中,有利于較好地理解模型參數(shù),對模型調(diào)參過程幫助較大。
對于文章中表述不妥的地方,歡迎交流。
(1).陳天奇XGBoost算法原著:https://dl.acm.org/doi/pdf/10.1145/2939672.2939785
(2).20道XGBoost面試題:https://cloud.tencent.com/developer/article/1500914
(3).XGBoost框架Parameters含義:https://xgboost.readthedocs.io/en/latest/parameter.html
(4).XGBoost提升樹官方介紹:https://xgboost.readthedocs.io/en/latest/tutorials/model.html
(5).XGBoost官方論壇:https://discuss.xgboost.ai/
(6).GBDT提升樹官方介紹:https://scikit-learn.org/stable/modules/ensemble.html#gradient-tree-boosting
(7).XGBoost安裝官網(wǎng)說明:https://xgboost.readthedocs.io/en/latest/build.html
(8).Kaggle開源數(shù)據(jù):https://www.kaggle.com/c/house-prices-advanced-regression-techniques
架
Apache C++ Standard Library : 是一系列算法,容器,迭代器和其他基本組件的集合
ASL : Adobe源代碼庫提供了同行的評審和可移植的C++源代碼庫。
Boost : 大量通用C++庫的集合。
BDE : 來自于彭博資訊實驗室的開發(fā)環(huán)境。
Cinder : 提供專業(yè)品質(zhì)創(chuàng)造性編碼的開源開發(fā)社區(qū)。
Bxxomfort : 輕量級的,只包含頭文件的庫,將C++ 11的一些新特性移植到C++03中。
Dlib : 使用契約式編程和現(xiàn)代C++科技設計的通用的跨平臺的C++庫。
EASTL : EA-STL公共部分
ffead-cpp : 企業(yè)應用程序開發(fā)框架
Folly : 由Facebook開發(fā)和使用的開源C++庫。
JUCE : 包羅萬象的C++類庫,用于開發(fā)跨平臺軟件
libphenom : 用于構(gòu)建高性能和高度可擴展性系統(tǒng)的事件框架。
LibSourcey : 用于實時的視頻流和高性能網(wǎng)絡應用程序的C++11 evented IO
LibU : C語言寫的多平臺工具庫
Loki : C++庫的設計,包括常見的設計模式和習語的實現(xiàn)。
MiLi : 只含頭文件的小型C++庫
openFrameworks : 開發(fā)C++工具包,用于創(chuàng)意性編碼。
Qt : 跨平臺的應用程序和用戶界面框架
Reason : 跨平臺的框架,使開發(fā)者能夠更容易地使用Java,.Net和Python,同時也滿足了他們對C++性能和優(yōu)勢的需求。
ROOT : 具備所有功能的一系列面向?qū)ο蟮目蚣?,能夠非常高效地處理和分析大量的?shù)據(jù),為歐洲原子能研究機構(gòu)所用。
STLport : 是STL具有代表性的版本
STXXL : 用于額外的大型數(shù)據(jù)集的標準模板庫。
Ultimate++ : C++跨平臺快速應用程序開發(fā)框架
Windows Template Library : 用于開發(fā)Windows應用程序和UI組件的C++庫
Yomm11 : C++11的開放multi-methods.
異步事件循環(huán)
Boost.Asio : 用于網(wǎng)絡和底層I/O編程的跨平臺的C++庫。
libev : 功能齊全,高性能的時間循環(huán),輕微地仿效libevent,但是不再像libevent一樣有局限性,也修復了它的一些bug。
libevent : 事件通知庫
libuv : 跨平臺異步I/O。
libco : 協(xié)程,微信支持8億用戶同時在線的底層IO庫。功能強大
ntyco : 純c版的協(xié)程框架,代碼短小精悍,適合嵌入工程。
libgo : golang風格的并發(fā)框架,C++11實現(xiàn)協(xié)程庫
網(wǎng)絡庫
ACE : C++面向?qū)ο缶W(wǎng)絡變成工具包
Casablanca : C++ REST SDK
cpp-netlib : 高級網(wǎng)絡編程的開源庫集合
Dyad.c : C語言的異步網(wǎng)絡
libCurl : 多協(xié)議文件傳輸庫
Mongoose : 非常輕量級的網(wǎng)絡服務器
Muduo : 用于Linux多線程服務器的C++非阻塞網(wǎng)絡庫
net_skeleton : C/C++的TCP 客戶端/服務器庫
WAFer : 基于C語言的超輕型軟件平臺,用于可擴展的服務器端和網(wǎng)絡應用。 對于C編程人員,可以考慮node.js
Onion : C語言HTTP服務器庫,其設計為輕量級,易使用。
POCO : 用于構(gòu)建網(wǎng)絡和基于互聯(lián)網(wǎng)應用程序的C++類庫,可以運行在桌面,服務器,移動和嵌入式系統(tǒng)。
RakNet : 為游戲開發(fā)人員提供的跨平臺的開源C++網(wǎng)絡引擎。
Tufao : 用于Qt之上的C++構(gòu)建的異步Web框架。
WebSocket++ : 基于C++/Boost Aiso的websocket 客戶端/服務器庫
ZeroMQ : 高速,模塊化的異步通信庫
TCP/IP協(xié)議棧
f-stack : 騰訊開源的協(xié)議棧,基于DPDK的高性能用戶態(tài)協(xié)議棧。
NtyTcp : 單線程的協(xié)議棧的,基于netmap,DPDK,rawSocket的實現(xiàn)。
LWIP : 針對 RAM 平臺的精簡版的 TCP/IP 協(xié)議棧實現(xiàn)。
mTCP : 針對多核系統(tǒng)的高可擴展性的用戶空間 TCP/IP 協(xié)議棧。
4.4BSD : * nix的協(xié)議棧是源于4.4BSD的。
WEB應用框架
Nginx : 一個高性能的HTTP和反向代理web服務器,同時也提供了IMAP/POP3/SMTP服務。
Lighttpd : 一款開源 Web 服務器軟件,安全快速,符合行業(yè)標準,適配性強并且針對高配置環(huán)境進行了優(yōu)化。
Libmicrohttpd : GNU軟件下的簡單c庫的Web服務器。API簡單,快速。
shttpd : 基于Mongoose的Web服務器框架。
CivetWeb : 提供易于使用,強大的,C/C++嵌入式Web服務器,帶有可選的CGI,SSL和Lua支持。
CppCMS : 免費高性能的Web開發(fā)框架(不是 CMS).
Crow : 一個C++微型web框架(靈感來自于Python Flask)
Kore : 使用C語言開發(fā)的用于web應用程序的超快速和靈活的web服務器/框架。
libOnion : 輕量級的庫,幫助你使用C編程語言創(chuàng)建web服務器。
QDjango : 使用C++編寫的,基于Qt庫的web框架,試圖效仿Django API,因此得此名。
Wt : 開發(fā)Web應用的C++庫。
標準庫,算法與函數(shù)
C++ Standard Library : 是一系列類和函數(shù)的集合,使用核心語言編寫,也是C++ISO自身標準的一部分。
Standard Template Library : 標準模板庫, STL
C POSIX library : POSIX系統(tǒng)的C標準庫規(guī)范
ISO C++ Standards Committee : C++標準委員會
音頻庫
FMOD : 易于使用的跨平臺的音頻引擎和音頻內(nèi)容的游戲創(chuàng)作工具。
Maximilian : C++音頻和音樂數(shù)字信號處理庫
OpenAL : 開源音頻庫—跨平臺的音頻API
Opus : 一個完全開放的,免版稅的,高度通用的音頻編解碼器
Speex : 免費編解碼器,為Opus所廢棄
Tonic : C++易用和高效的音頻合成
Vorbis : Ogg Vorbis是一種完全開放的,非專有的,免版稅的通用壓縮音頻格式。
生態(tài)學
lisequence : 用于表示和分析群體遺傳學數(shù)據(jù)的C++庫。
SeqAn : 專注于生物數(shù)據(jù)序列分析的算法和數(shù)據(jù)結(jié)構(gòu)。
Vcflib : 用于解析和處理VCF文件的C++庫
Wham : 直接把聯(lián)想測試應用到BAM文件的基因結(jié)構(gòu)變異。
壓縮
bzip2 : 一個完全免費,免費專利和高質(zhì)量的數(shù)據(jù)壓縮
doboz : 能夠快速解壓縮的壓縮庫
PhysicsFS : 對各種歸檔提供抽象訪問的庫,主要用于視頻游戲,設計靈感部分來自于Quake3的文件子系統(tǒng)。
KArchive : 用于創(chuàng)建,讀寫和操作文件檔案(例如zip和 tar)的庫,它通過QIODevice的一系列子類,使用gzip格式,提供了透明的壓縮和解壓縮的數(shù)據(jù)。
LZ4 : 非??焖俚膲嚎s算法
LZHAM : 無損壓縮數(shù)據(jù)庫,壓縮比率跟LZMA接近,但是解壓縮速度卻要快得多。
LZMA : 7z格式默認和通用的壓縮方法。
LZMAT : 及其快速的實時無損數(shù)據(jù)壓縮庫
miniz : 單一的C源文件,緊縮/膨脹壓縮庫,使用zlib兼容API,ZIP歸檔讀寫,PNG寫方式。
Minizip : Zlib最新bug修復,支持PKWARE磁盤跨越,AES加密和IO緩沖。
Snappy : 快速壓縮和解壓縮
ZLib : 非常緊湊的數(shù)據(jù)流壓縮庫
ZZIPlib : 提供ZIP歸檔的讀權(quán)限。
并發(fā)性
Boost.Compute : 用于OpenCL的C++GPU計算庫
Bolt : 針對GPU進行優(yōu)化的C++模板庫
C++React : 用于C++11的反應性編程庫
Intel TBB : Intel線程構(gòu)件塊
Libclsph : 基于OpenCL的GPU加速SPH流體仿真庫
OpenCL : 并行編程的異構(gòu)系統(tǒng)的開放標準
OpenMP : OpenMP API
Thrust : 類似于C++標準模板庫的并行算法庫
HPX : 用于任何規(guī)模的并行和分布式應用程序的通用C++運行時系統(tǒng)
VexCL : 用于OpenCL/CUDA 的C++向量表達式模板庫。
密碼學
Bcrypt : 一個跨平臺的文件加密工具,加密文件可以移植到所有可支持的操作系統(tǒng)和處理器中。
BeeCrypt : 快速的加密圖形庫,功能強大,接口方便。
Botan : C++加密庫
Crypto++ : 一個有關(guān)加密方案的免費的C++庫
GnuPG : OpenPGP標準的完整實現(xiàn)
GnuTLS : 實現(xiàn)了SSL,TLS和DTLS協(xié)議的安全通信庫
Libgcrypt : 基于GnuPG的加密圖形庫。
Libmcrypt : 線程安全,提供統(tǒng)一的API。
LibreSSL : 免費的SSL/TLS協(xié)議,屬于2014 OpenSSL的一個分支
LibTomCrypt : 一個非常全面的,模塊化的,可移植的加密工具
libsodium : 基于NaCI的加密庫,固執(zhí)己見,容易使用
Nettle : 底層的加密庫
OpenSSL : 一個強大的,商用的,功能齊全的,開放源代碼的加密庫。
Tiny AES128 in C : 用C實現(xiàn)的一個小巧,可移植的實現(xiàn)了AES128ESB的加密算法
數(shù)據(jù)庫
hiberlite : 用于Sqlite3的C++對象關(guān)系映射
hiredis : 用于Redis數(shù)據(jù)庫的很簡單的C客戶端庫
LevelDB : 快速鍵值存儲庫
LMDB : 符合數(shù)據(jù)庫四大基本元素的嵌入鍵值存儲
MySQL++ : 封裝了MySql的C API的C++ 包裝器
RocksDB : 來自Facebook的嵌入鍵值的快速存儲
SQLite : 一個完全嵌入式的,功能齊全的關(guān)系數(shù)據(jù)庫,只有幾百KB,可以正確包含到你的項目中。
Redis : 一個開源的使用ANSI C語言編寫、遵守BSD協(xié)議、支持網(wǎng)絡、可基于內(nèi)存亦可持久化的日志型、Key-Value數(shù)據(jù)庫.
MongoDB : 一個基于分布式文件存儲的數(shù)據(jù)庫
調(diào)試
Boost.Test : Boost測試庫
Catch : 一個很時尚的,C++原生的框架,只包含頭文件,用于單元測試,測試驅(qū)動開發(fā)和行為驅(qū)動開發(fā)。
CppUnit : 由JUnit移植過來的C++測試框架
CTest : CMake測試驅(qū)動程序
GoogleTest : 谷歌C++測試框架
ig-debugheap : 用于跟蹤內(nèi)存錯誤的多平臺調(diào)試堆
libtap : 用C語言編寫測試
MemTrack : 用于C++跟蹤內(nèi)存分配
MicroProfile : 跨平臺的網(wǎng)絡試圖分析器
minUnit : 使用C寫的迷你單元測試框架,只使用了兩個宏
Remotery : 用于web視圖的單一C文件分析器
UnitTest++ : 輕量級的C++單元測試框架
容器
C++ B-Tree : 基于B樹數(shù)據(jù)結(jié)構(gòu),實現(xiàn)命令內(nèi)存容器的模板庫
Hashmaps : C++中開放尋址哈希表算法的實現(xiàn)
游戲引擎
Cocos2d-x : 一個跨平臺框架,用于構(gòu)建2D游戲,互動圖書,演示和其他圖形應用程序。
Grit : 社區(qū)項目,用于構(gòu)建一個免費的游戲引擎,實現(xiàn)開放的世界3D游戲。
lrrlicht : C++語言編寫的開源高性能的實時#D引擎
PolyCode : C++實現(xiàn)的用于創(chuàng)建游戲的開源框架(與Lua綁定)。
圖形庫
bgfx : 跨平臺的渲染庫
Cairo : 支持多種輸出設備的2D圖形庫
Horde3D : 一個小型的3D渲染和動畫引擎
magnum : C++11和OpenGL 2D/3D 圖形引擎
Ogre 3D : 用C++編寫的一個面向場景,實時,靈活的3D渲染引擎(并非游戲引擎)
OpenSceneGraph : 具有高性能的開源3D圖形工具包
Panda3D : 用于3D渲染和游戲開發(fā)的框架,用Python和C++編寫。
Skia : 用于繪制文字,圖形和圖像的完整的2D圖形庫
urho3d : 跨平臺的渲染和游戲引擎。
圖像處理
Boost.GIL : 通用圖像庫
CImg : 用于圖像處理的小型開源C++工具包
FreeImage : 開源庫,支持現(xiàn)在多媒體應用所需的通用圖片格式和其他格式。
GDCM : Grassroots DICOM 庫
ITK : 跨平臺的開源圖像分析系統(tǒng)
Magick++ : ImageMagick程序的C++接口
OpenCV : 開源計算機視覺類庫
tesseract-ocr : OCR引擎
VIGRA : 用于圖像分析通用C++計算機視覺庫
VTK : 用于3D計算機圖形學,圖像處理和可視化的開源免費軟件系統(tǒng)。
國際化
gettext : GNU gettext
IBM ICU : 提供Unicode 和全球化支持的C、C++ 和Java庫
libiconv : 用于不同字符編碼之間的編碼轉(zhuǎn)換庫
Json庫
frozen : C/C++的Jason解析生成器
Jansson : 進行編解碼和處理Jason數(shù)據(jù)的C語言庫
jbson : C++14中構(gòu)建和迭代BSON data,和Json 文檔的庫
JeayeSON : 非常健全的C++ JSON庫,只包含頭文件
JSON++ : C++ JSON 解析器
json-parser : 用可移植的ANSI C編寫的JSON解析器,占用內(nèi)存非常少
json11 : 一個迷你的C++11 JSON庫
jute : 非常簡單的C++ JSON解析器
ibjson : C語言中的JSON解析和打印庫,很容易和任何模型集成
libjson : 輕量級的JSON庫
PicoJSON : C++中JSON解析序列化,只包含頭文件
Qt-Json : 用于JSON數(shù)據(jù)和 QVariant層次間的相互解析的簡單類
QJson : 將JSON數(shù)據(jù)映射到QVariant對象的基于Qt的庫
RepidJSON : 用于C++的快速JSON 解析生成器,包含SAX和DOM兩種風格的API
YAJL : C語言中快速流JSON解析庫
日志
Boost.Log : 設計非常模塊化,并且具有擴展性
easyloggingpp : C++日志庫,只包含單一的頭文件。
Log4cpp : 一系列C++類庫,靈活添加日志到文件,系統(tǒng)日志,IDSA和其他地方。
templog : 輕量級C++庫,可以添加日志到你的C++應用程序中
機器學習,人工智能
btsk : 游戲行為樹啟動器工具
Evolving Objects : 基于模板的,ANSI C++演化計算庫,能夠幫助你非常快速地編寫出自己的隨機優(yōu)化算法。
Caffe : 快速的神經(jīng)網(wǎng)絡框架
CCV : 以C語言為核心的現(xiàn)代計算機視覺庫
mlpack : 可擴展的C++機器學習庫
OpenCV : 開源計算機視覺庫
Recommender : 使用協(xié)同過濾進行產(chǎn)品推薦/建議的C語言庫。
SHOGUN : Shogun 機器學習工具
sofia-ml : 用于機器學習的快速增量算法套件
數(shù)學庫
Armadillo : 高質(zhì)量的C++線性代數(shù)庫,速度和易用性做到了很好的平衡。語法和MatlAB很相似
blaze : 高性能的C++數(shù)學庫,用于密集和稀疏算法。
ceres-solver : 來自谷歌的C++庫,用于建模和解決大型復雜非線性最小平方問題。
CGal : 高效,可靠的集合算法集合
CML : 用于游戲和圖形的免費C++數(shù)學庫
Eigen : 高級C++模板頭文件庫,包括線性代數(shù),矩陣,向量操作,數(shù)值解決和其他相關(guān)的算法。
GMTL : 數(shù)學圖形模板庫是一組廣泛實現(xiàn)基本圖形的工具。
GMP : 用于個高精度計算的C/C++庫,處理有符號整數(shù),有理數(shù)和浮點數(shù)。
多媒體庫
GStreamer : 構(gòu)建媒體處理組件圖形的庫
LIVE555 Streaming Media : 使用開放標準協(xié)議(RTP/RTCP, RTSP, SIP) 的多媒體流庫
libVLC : libVLC (VLC SDK)媒體框架
QtAV : 基于Qt和FFmpeg的多媒體播放框架,能夠幫助你輕而易舉地編寫出一個播放器
SDL : 簡單直控媒體層
SFML : 快速,簡單的多媒體庫
物理學
Box2D : 2D的游戲物理引擎。
Bullet : 3D的游戲物理引擎。
Chipmunk : 快速,輕量級的2D游戲物理庫
LiquidFun : 2D的游戲物理引擎
ODE : 開放動力學引擎-開源,高性能庫,模擬剛體動力學。
ofxBox2D : Box2D開源框架包裝器。
Simbody : 高性能C++多體動力學/物理庫,模擬關(guān)節(jié)生物力學和機械系統(tǒng),像車輛,機器人和人體骨骼。
機器人學
MOOS-Ivp : 一組開源C++模塊,提供機器人平臺的自主權(quán),尤其是自主的海洋車輛。
MRPT : 移動機器人編程工具包
PCL : 點云庫是一個獨立的,大規(guī)模的開放項目,用于2D/3D圖像和點云處理。
Robotics Library : 一個獨立的C++庫,包括機器人動力學,運動規(guī)劃和控制。
RobWork : 一組C++庫的集合,用于機器人系統(tǒng)的仿真和控制。
ROS : 機器人操作系統(tǒng),提供了一些庫和工具幫助軟件開發(fā)人員創(chuàng)建機器人應用程序。
科學計算
FFTW : 用一維或者多維計算DFT的C語言庫。
GSL : GNU科學庫。
腳本
ChaiScript : 用于C++的易于使用的嵌入式腳本語言。
Lua : 用于配置文件和基本應用程序腳本的小型快速腳本引擎。
luacxx : 用于創(chuàng)建Lua綁定的C++ 11 API
SWIG : 一個可以讓你的C++代碼鏈接到JavaScript,Perl,PHP,Python,Tcl和Ruby的包裝器/接口生成器
V7 : 嵌入式的JavaScript 引擎。
V8 : 谷歌的快速JavaScript引擎,可以被嵌入到任何C++應用程序中。
序列化
Cap'n Proto : 快速數(shù)據(jù)交換格式和RPC系統(tǒng)。
cereal : C++11 序列化庫
FlatBuffers : 內(nèi)存高效的序列化庫
MessagePack : C/C++的高效二進制序列化庫,例如 JSON
ProtoBuf : 協(xié)議緩沖,谷歌的數(shù)據(jù)交換格式。
ProtoBuf-c : C語言的協(xié)議緩沖實現(xiàn)
SimpleBinaryEncoding : 用于低延遲應用程序的對二進制格式的應用程序信息的編碼和解碼。
Thrift : 高效的跨語言IPC/RPC,用于C++,Java,Python,PHP,C#和其它多種語言中,最初由Facebook開發(fā)。
視頻庫
libvpx : VP8/VP9編碼解碼SDK
FFMpeg : 一個完整的,跨平臺的解決方案,用于記錄,轉(zhuǎn)換視頻和音頻流。
libde265 : 開放的h.265視頻編解碼器的實現(xiàn)。
OpenH264 : 開源H.364 編解碼器。
Theora : 免費開源的視頻壓縮格式。
XML庫
Expat : 用C語言編寫的xml解析庫
LibXml2 : Gnome的xml C解析器和工具包
LibXml++ : C++的xml解析器
PugiXML : 用于C++的,支持XPath的輕量級,簡單快速的XML解析器。
RapidXML : 試圖創(chuàng)建最快速的XML解析器,同時保持易用性,可移植性和合理的W3C兼容性。
TinyXML : 簡單小型的C++XML解析器,可以很容易地集成到其它項目中。
TinyXML2 : 簡單快速的C++CML解析器,可以很容易集成到其它項目中。
TinyXML++ : TinyXML的一個全新的接口,使用了C++的許多許多優(yōu)勢,模板,異常和更好的異常處理。
Xerces-C++ : 用可移植的C++的子集編寫的XML驗證解析器。
專注于服務器后臺開發(fā),包括C/C++,Linux,Nginx,ZeroMQ,MySQL,Redis,fastdfs,MongoDB,ZK,流媒體,CDN,P2P,K8S,Docker,TCP/IP,協(xié)程,DPDK技術(shù)分享,Linux后端開發(fā)配套視頻資料,與一線互聯(lián)網(wǎng)企業(yè)架構(gòu)內(nèi)部分享資料。(c/c++開發(fā)者的寶藏庫)
關(guān)注,私信【框架】統(tǒng)統(tǒng)帶走,就想要個贊~
*請認真填寫需求信息,我們會在24小時內(nèi)與您取得聯(lián)系。