OpenCV 4.12.0
開源計算機視覺
載入中...
搜尋中...
無匹配項
cv::ml::ANN_MLP 類參考抽象

人工神經網路 - 多層感知器。更多...

#include <opencv2/ml.hpp>

cv::ml::ANN_MLP 的協作圖

公共型別

列舉  啟用函式 {
  IDENTITY = 0 ,
  SIGMOID_SYM = 1 ,
  GAUSSIAN = 2 ,
  RELU = 3 ,
  LEAKYRELU = 4
}
 
列舉  訓練標誌 {
  UPDATE_WEIGHTS = 1 ,
  NO_INPUT_SCALE = 2 ,
  NO_OUTPUT_SCALE = 4
}
 
列舉  訓練方法 {
  BACKPROP =0 ,
  RPROP = 1 ,
  ANNEAL = 2
}
 
- 從 cv::ml::StatModel 繼承的公共型別
列舉  標誌 {
  UPDATE_MODEL = 1 ,
  RAW_OUTPUT =1 ,
  COMPRESSED_INPUT =2 ,
  PREPROCESSED_INPUT =4
}
 

公共成員函式

virtual double getAnnealCoolingRatio () const =0
 
virtual double getAnnealFinalT () const =0
 
virtual double getAnnealInitialT () const =0
 
virtual int getAnnealItePerStep () const =0
 
virtual double getBackpropMomentumScale () const =0
 
virtual double getBackpropWeightScale () const =0
 
virtual cv::Mat getLayerSizes () const =0
 
virtual double getRpropDW0 () const =0
 
virtual double getRpropDWMax () const =0
 
virtual double getRpropDWMin () const =0
 
virtual double getRpropDWMinus () const =0
 
virtual double getRpropDWPlus () const =0
 
virtual TermCriteria getTermCriteria () const =0
 
virtual int getTrainMethod () const =0
 
virtual Mat getWeights (int layerIdx) const =0
 
virtual void setActivationFunction (int type, double param1=0, double param2=0)=0
 
virtual void setAnnealCoolingRatio (double val)=0
 
virtual void setAnnealEnergyRNG (const RNG &rng)=0
 設定/初始化退火 RNG
 
virtual void setAnnealFinalT (double val)=0
 
virtual void setAnnealInitialT (double val)=0
 
virtual void setAnnealItePerStep (int val)=0
 
virtual void setBackpropMomentumScale (double val)=0
 
virtual void setBackpropWeightScale (double val)=0
 
virtual void setLayerSizes (InputArray _layer_sizes)=0
 
virtual void setRpropDW0 (double val)=0
 
virtual void setRpropDWMax (double val)=0
 
virtual void setRpropDWMin (double val)=0
 
virtual void setRpropDWMinus (double val)=0
 
virtual void setRpropDWPlus (double val)=0
 
virtual void setTermCriteria (TermCriteria val)=0
 
virtual void setTrainMethod (int method, double param1=0, double param2=0)=0
 
- 從 cv::ml::StatModel 繼承的公共成員函式
virtual float calcError (const Ptr< TrainData > &data, bool test, OutputArray resp) const
 計算訓練或測試資料集上的誤差。
 
virtual bool empty () const CV_OVERRIDE
 如果 Algorithm 為空(例如,在最開始或讀取失敗後),則返回 true。
 
virtual int getVarCount () const =0
 返回訓練樣本中變數的數量。
 
virtual bool isClassifier () const =0
 如果模型是分類器,則返回 true。
 
virtual bool isTrained () const =0
 如果模型已訓練,則返回 true。
 
virtual float predict (InputArray samples, OutputArray results=noArray(), int flags=0) const =0
 預測提供的樣本的響應
 
virtual bool train (const Ptr< TrainData > &trainData, int flags=0)
 訓練統計模型。
 
virtual bool train (InputArray samples, int layout, InputArray responses)
 訓練統計模型。
 
- 從 cv::Algorithm 繼承的公共成員函式
 Algorithm ()
 
virtual ~Algorithm ()
 
virtual void clear ()
 清除演算法狀態。
 
virtual String getDefaultName () const
 
virtual void read (const FileNode &fn)
 從檔案儲存中讀取演算法引數。
 
virtual void save (const String &filename) const
 
void write (const Ptr< FileStorage > &fs, const String &name=String()) const
 
virtual void write (FileStorage &fs) const
 將演算法引數儲存到檔案儲存中。
 
void write (FileStorage &fs, const String &name) const
 

靜態公共成員函式

static Ptr< ANN_MLPcreate ()
 建立空模型。
 
static Ptr< ANN_MLPload (const String &filepath)
 從檔案中載入並建立一個序列化的 ANN。
 
- 從 cv::ml::StatModel 繼承的靜態公共成員函式
template<typename _Tp >
static Ptr< _Tptrain (const Ptr< TrainData > &data, int flags=0)
 使用預設引數建立並訓練模型。
 
- 從 cv::Algorithm 繼承的靜態公共成員函式
template<typename _Tp >
static Ptr< _Tpload (const String &filename, const String &objname=String())
 從檔案中載入演算法。
 
template<typename _Tp >
static Ptr< _TploadFromString (const String &strModel, const String &objname=String())
 從字串載入演算法。
 
template<typename _Tp >
static Ptr< _Tpread (const FileNode &fn)
 從檔案節點讀取演算法。
 

附加繼承成員

- 從 cv::Algorithm 繼承的受保護成員函式
void writeFormat (FileStorage &fs) const
 

詳細描述

人工神經網路 - 多層感知器。

與許多其他一次性構建和訓練的 ML 模型不同,MLP 模型中的這些步驟是分離的。首先,使用非預設建構函式或 ANN_MLP::create 方法建立一個具有指定拓撲的網路。所有權重都設定為零。然後,使用一組輸入和輸出向量訓練網路。訓練過程可以重複多次,即可以根據新的訓練資料調整權重。

StatModel::train 的附加標誌可用:ANN_MLP::TrainFlags

另請參見
神經網路

成員列舉文件

◆ ActivationFunctions

可能的啟用函式

列舉器
IDENTITY 

恆等函式:\(f(x)=x\)

SIGMOID_SYM 

對稱 Sigmoid 函式:\(f(x)=\beta*(1-e^{-\alpha x})/(1+e^{-\alpha x})\)

注意
如果使用預設的 Sigmoid 啟用函式,且預設引數值 fparam1=0 和 fparam2=0,則使用的函式是 y = 1.7159*tanh(2/3 * x),因此輸出範圍將是 [-1.7159, 1.7159],而不是 [0,1]。
GAUSSIAN 

高斯函式:\(f(x)=\beta e^{-\alpha x*x}\)

RELU 

ReLU 函式:\(f(x)=max(0,x)\)

LEAKYRELU 

Leaky ReLU 函式:當 x>0 時 \(f(x)=x \),當 x<=0 時 \(f(x)=\alpha x \)

◆ TrainFlags

訓練選項

列舉器
UPDATE_WEIGHTS 

更新網路權重,而不是從頭開始計算。在後一種情況下,權重使用 Nguyen-Widrow 演算法初始化。

NO_INPUT_SCALE 

不歸一化輸入向量。如果未設定此標誌,訓練演算法會獨立歸一化每個輸入特徵,將其均值移至 0 並使標準差等於 1。如果網路假定會頻繁更新,則新的訓練資料可能與原始資料大不相同。在這種情況下,應注意適當的歸一化。

NO_OUTPUT_SCALE 

不歸一化輸出向量。如果未設定此標誌,訓練演算法會獨立歸一化每個輸出特徵,透過將其轉換為取決於所用啟用函式的特定範圍。

◆ TrainingMethods

可用訓練方法

列舉器
BACKPROP 

反向傳播演算法。

RPROP 

RPROP 演算法。詳見 [229]

ANNEAL 

模擬退火演算法。詳見 [149]

成員函式文件

◆ create()

static Ptr< ANN_MLP > cv::ml::ANN_MLP::create ( )
static
Python
cv.ml.ANN_MLP.create() -> retval
cv.ml.ANN_MLP_create() -> retval

建立空模型。

使用 StatModel::train 訓練模型,使用 Algorithm::load<ANN_MLP>(filename) 載入預訓練模型。請注意,訓練方法具有可選標誌:ANN_MLP::TrainFlags

◆ getAnnealCoolingRatio()

virtual double cv::ml::ANN_MLP::getAnnealCoolingRatio ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getAnnealCoolingRatio() -> retval

ANNEAL:更新冷卻比。它必須大於 0 且小於 1。預設值為 0.95。

另請參見
setAnnealCoolingRatio

◆ getAnnealFinalT()

virtual double cv::ml::ANN_MLP::getAnnealFinalT ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getAnnealFinalT() -> retval

ANNEAL:更新最終溫度。它必須大於等於 0 且小於 initialT。預設值為 0.1。

另請參見
setAnnealFinalT

◆ getAnnealInitialT()

virtual double cv::ml::ANN_MLP::getAnnealInitialT ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getAnnealInitialT() -> retval

ANNEAL:更新初始溫度。它必須大於等於 0。預設值為 10。

另請參見
setAnnealInitialT

◆ getAnnealItePerStep()

virtual int cv::ml::ANN_MLP::getAnnealItePerStep ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getAnnealItePerStep() -> retval

ANNEAL:更新每步迭代次數。它必須大於 0。預設值為 10。

另請參見
setAnnealItePerStep

◆ getBackpropMomentumScale()

virtual double cv::ml::ANN_MLP::getBackpropMomentumScale ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getBackpropMomentumScale() -> retval

BPROP:動量項(前兩次迭代中權重之間的差值)的強度。此引數提供了一些慣性,以平滑權重的隨機波動。它可以從 0(停用該功能)到 1 甚至更大。0.1 左右的值就足夠了。預設值為 0.1。

另請參見
setBackpropMomentumScale

◆ getBackpropWeightScale()

virtual double cv::ml::ANN_MLP::getBackpropWeightScale ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getBackpropWeightScale() -> retval

BPROP:權重梯度項的強度。推薦值約為 0.1。預設值為 0.1。

另請參見
setBackpropWeightScale

◆ getLayerSizes()

virtual cv::Mat cv::ml::ANN_MLP::getLayerSizes ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getLayerSizes() -> retval

指定每個層(包括輸入層和輸出層)中神經元數量的整數向量。第一個元素指定輸入層中的元素數量。最後一個元素指定輸出層中的元素數量。

另請參見
setLayerSizes

◆ getRpropDW0()

virtual double cv::ml::ANN_MLP::getRpropDW0 ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getRpropDW0() -> retval

RPROP:更新值 \(\Delta_{ij}\) 的初始值 \(\Delta_0\)。預設值為 0.1。

另請參見
setRpropDW0

◆ getRpropDWMax()

virtual double cv::ml::ANN_MLP::getRpropDWMax ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getRpropDWMax() -> retval

RPROP:更新值上限 \(\Delta_{max}\)。它必須大於 1。預設值為 50。

另請參見
setRpropDWMax

◆ getRpropDWMin()

virtual double cv::ml::ANN_MLP::getRpropDWMin ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getRpropDWMin() -> retval

RPROP:更新值下限 \(\Delta_{min}\)。它必須是正數。預設值為 FLT_EPSILON。

另請參見
setRpropDWMin

◆ getRpropDWMinus()

virtual double cv::ml::ANN_MLP::getRpropDWMinus ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getRpropDWMinus() -> retval

RPROP:減小因子 \(\eta^-\)。它必須小於 1。預設值為 0.5。

另請參見
setRpropDWMinus

◆ getRpropDWPlus()

virtual double cv::ml::ANN_MLP::getRpropDWPlus ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getRpropDWPlus() -> retval

RPROP:增大因子 \(\eta^+\)。它必須大於 1。預設值為 1.2。

另請參見
setRpropDWPlus

◆ getTermCriteria()

virtual TermCriteria cv::ml::ANN_MLP::getTermCriteria ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getTermCriteria() -> retval

訓練演算法的終止準則。可以指定最大迭代次數 (maxCount) 和/或迭代之間誤差可以改變的程度,以使演算法繼續 (epsilon)。預設值是 TermCriteria(TermCriteria::MAX_ITER + TermCriteria::EPS, 1000, 0.01)。

另請參見
setTermCriteria

◆ getTrainMethod()

virtual int cv::ml::ANN_MLP::getTrainMethod ( ) const
純虛擬函式
Python
cv.ml.ANN_MLP.getTrainMethod() -> retval

返回當前訓練方法

◆ getWeights()

virtual Mat cv::ml::ANN_MLP::getWeights ( int layerIdx) const
純虛擬函式
Python
cv.ml.ANN_MLP.getWeights(layerIdx) -> retval

◆ load()

static Ptr< ANN_MLP > cv::ml::ANN_MLP::load ( const String & filepath)
static
Python
cv.ml.ANN_MLP.load(filepath) -> retval
cv.ml.ANN_MLP_load(filepath) -> retval

從檔案中載入並建立一個序列化的 ANN。

使用 ANN::save 將 ANN 序列化並存儲到磁碟。透過呼叫此函式並傳入檔案路徑,可以再次從該檔案載入 ANN。

引數
filepath序列化 ANN 的路徑

◆ setActivationFunction()

virtual void cv::ml::ANN_MLP::setActivationFunction ( int type,
double param1 = 0,
double param2 = 0 )
純虛擬函式
Python
cv.ml.ANN_MLP.setActivationFunction(type[, param1[, param2]]) ->

為每個神經元初始化啟用函式。當前預設且唯一完全支援的啟用函式是 ANN_MLP::SIGMOID_SYM

引數
type啟用函式的型別。參見 ANN_MLP::ActivationFunctions
param1啟用函式的第一個引數 \(\alpha\)。預設值為 0。
param2啟用函式的第二個引數 \(\beta\)。預設值為 0。

◆ setAnnealCoolingRatio()

virtual void cv::ml::ANN_MLP::setAnnealCoolingRatio ( double val)
純虛擬函式
Python
cv.ml.ANN_MLP.setAnnealCoolingRatio(val) ->

另請參見
getAnnealCoolingRatio

◆ setAnnealEnergyRNG()

virtual void cv::ml::ANN_MLP::setAnnealEnergyRNG ( const RNG & rng)
純虛擬函式

設定/初始化退火 RNG

◆ setAnnealFinalT()

virtual void cv::ml::ANN_MLP::setAnnealFinalT ( double val)
純虛擬函式
Python
cv.ml.ANN_MLP.setAnnealFinalT(val) ->

另請參見
getAnnealFinalT

◆ setAnnealInitialT()

virtual void cv::ml::ANN_MLP::setAnnealInitialT ( double val)
純虛擬函式
Python
cv.ml.ANN_MLP.setAnnealInitialT(val) ->

另請參見
getAnnealInitialT

◆ setAnnealItePerStep()

virtual void cv::ml::ANN_MLP::setAnnealItePerStep ( int val)
純虛擬函式
Python
cv.ml.ANN_MLP.setAnnealItePerStep(val) ->

另請參見
getAnnealItePerStep

◆ setBackpropMomentumScale()

virtual void cv::ml::ANN_MLP::setBackpropMomentumScale ( double val)
純虛擬函式
Python
cv.ml.ANN_MLP.setBackpropMomentumScale(val) ->

◆ setBackpropWeightScale()

virtual void cv::ml::ANN_MLP::setBackpropWeightScale ( double val)
純虛擬函式
Python
cv.ml.ANN_MLP.setBackpropWeightScale(val) ->

◆ setLayerSizes()

virtual void cv::ml::ANN_MLP::setLayerSizes ( InputArray _layer_sizes)
純虛擬函式
Python
cv.ml.ANN_MLP.setLayerSizes(_layer_sizes) ->

指定每個層(包括輸入層和輸出層)中神經元數量的整數向量。第一個元素指定輸入層中的元素數量。最後一個元素指定輸出層中的元素數量。預設值為空 Mat

另請參見
getLayerSizes

◆ setRpropDW0()

virtual void cv::ml::ANN_MLP::setRpropDW0 ( double val)
純虛擬函式
Python
cv.ml.ANN_MLP.setRpropDW0(val) ->

另請參見
getRpropDW0

◆ setRpropDWMax()

virtual void cv::ml::ANN_MLP::setRpropDWMax ( double val)
純虛擬函式
Python
cv.ml.ANN_MLP.setRpropDWMax(val) ->

另請參見
getRpropDWMax

◆ setRpropDWMin()

virtual void cv::ml::ANN_MLP::setRpropDWMin ( double val)
純虛擬函式
Python
cv.ml.ANN_MLP.setRpropDWMin(val) ->

另請參見
getRpropDWMin

◆ setRpropDWMinus()

virtual void cv::ml::ANN_MLP::setRpropDWMinus ( double val)
純虛擬函式
Python
cv.ml.ANN_MLP.setRpropDWMinus(val) ->

另請參見
getRpropDWMinus

◆ setRpropDWPlus()

virtual void cv::ml::ANN_MLP::setRpropDWPlus ( double val)
純虛擬函式
Python
cv.ml.ANN_MLP.setRpropDWPlus(val) ->

另請參見
getRpropDWPlus

◆ setTermCriteria()

virtual void cv::ml::ANN_MLP::setTermCriteria ( TermCriteria val)
純虛擬函式
Python
cv.ml.ANN_MLP.setTermCriteria(val) ->

另請參見
getTermCriteria

◆ setTrainMethod()

virtual void cv::ml::ANN_MLP::setTrainMethod ( int 方法,
double param1 = 0,
double param2 = 0 )
純虛擬函式
Python
cv.ml.ANN_MLP.setTrainMethod(method[, param1[, param2]]) ->

設定訓練方法和通用引數。

引數
方法預設值為 ANN_MLP::RPROP。參見 ANN_MLP::TrainingMethods
param1對於 ANN_MLP::RPROP 傳遞給 setRpropDW0,對於 ANN_MLP::BACKPROP 傳遞給 setBackpropWeightScale,對於 ANN_MLP::ANNEAL 傳遞給 initialT。
param2對於 ANN_MLP::RPROP 傳遞給 setRpropDWMin,對於 ANN_MLP::BACKPROP 傳遞給 setBackpropMomentumScale,對於 ANN_MLP::ANNEAL 傳遞給 finalT。

此類的文件由以下檔案生成