OpenCV 4.12.0
開源計算機視覺
載入中...
搜尋中...
無匹配項

GRU 單層迴圈網路。更多...

#include <opencv2/dnn/all_layers.hpp>

cv::dnn::GRULayer 協作圖

靜態公共成員函式

static Ptr< GRULayercreate (const LayerParams &params)
 
- 繼承自 cv::Algorithm 的靜態公共成員函式
template<typename _Tp >
static Ptr< _Tpload (const String &filename, const String &objname=String())
 從檔案中載入演算法。
 
template<typename _Tp >
static Ptr< _TploadFromString (const String &strModel, const String &objname=String())
 從字串載入演算法。
 
template<typename _Tp >
static Ptr< _Tpread (const FileNode &fn)
 從檔案節點讀取演算法。
 

附加繼承成員

- 繼承自 cv::dnn::Layer 的公共成員函式
 Layer ()
 
 Layer (const LayerParams &params)
 僅初始化 nametypeblobs 欄位。
 
virtual ~Layer ()
 
virtual void applyHalideScheduler (Ptr< BackendNode > &node, const std::vector< Mat * > &inputs, const std::vector< Mat > &outputs, int targetId) const
 基於層超引數的 Halide 自動排程。
 
virtual void finalize (const std::vector< Mat * > &input, std::vector< Mat > &output)
 根據輸入、輸出和 blobs 計算並設定內部引數。
 
std::vector< Matfinalize (const std::vector< Mat > &inputs)
 這是一個過載成員函式,為方便起見提供。它與上述函式的區別僅在於它接受的引數。
 
void finalize (const std::vector< Mat > &inputs, std::vector< Mat > &outputs)
 這是一個過載成員函式,為方便起見提供。它與上述函式的區別僅在於它接受的引數。
 
virtual void finalize (InputArrayOfArrays inputs, OutputArrayOfArrays outputs)
 根據輸入、輸出和 blobs 計算並設定內部引數。
 
virtual void forward (InputArrayOfArrays inputs, OutputArrayOfArrays outputs, OutputArrayOfArrays internals)
 給定 input blobs,計算輸出 blobs
 
virtual void forward (std::vector< Mat * > &input, std::vector< Mat > &output, std::vector< Mat > &internals)
 給定 input blobs,計算輸出 blobs
 
void forward_fallback (InputArrayOfArrays inputs, OutputArrayOfArrays outputs, OutputArrayOfArrays internals)
 給定 input blobs,計算輸出 blobs
 
virtual int64 getFLOPS (const std::vector< MatShape > &inputs, const std::vector< MatShape > &outputs) const
 
virtual bool getMemoryShapes (const std::vector< MatShape > &inputs, const int requiredOutputs, std::vector< MatShape > &outputs, std::vector< MatShape > &internals) const
 
virtual void getScaleShift (Mat &scale, Mat &shift) const
 返回具有逐通道乘法和加法操作的層的引數。
 
virtual void getScaleZeropoint (float &scale, int &zeropoint) const
 返回層的縮放和零點。
 
virtual Ptr< BackendNodeinitCann (const std::vector< Ptr< BackendWrapper > > &inputs, const std::vector< Ptr< BackendWrapper > > &outputs, const std::vector< Ptr< BackendNode > > &nodes)
 返回一個 CANN 後端節點。
 
virtual Ptr< BackendNodeinitCUDA (void *context, const std::vector< Ptr< BackendWrapper > > &inputs, const std::vector< Ptr< BackendWrapper > > &outputs)
 返回一個 CUDA 後端節點。
 
virtual Ptr< BackendNodeinitHalide (const std::vector< Ptr< BackendWrapper > > &inputs)
 返回 Halide 後端節點。
 
virtual Ptr< BackendNodeinitNgraph (const std::vector< Ptr< BackendWrapper > > &inputs, const std::vector< Ptr< BackendNode > > &nodes)
 
virtual Ptr< BackendNodeinitTimVX (void *timVxInfo, const std::vector< Ptr< BackendWrapper > > &inputsWrapper, const std::vector< Ptr< BackendWrapper > > &outputsWrapper, bool isLast)
 返回一個 TimVX 後端節點。
 
virtual Ptr< BackendNodeinitVkCom (const std::vector< Ptr< BackendWrapper > > &inputs, std::vector< Ptr< BackendWrapper > > &outputs)
 
virtual Ptr< BackendNodeinitWebnn (const std::vector< Ptr< BackendWrapper > > &inputs, const std::vector< Ptr< BackendNode > > &nodes)
 
virtual int inputNameToIndex (String inputName)
 返回輸入 blob 在輸入陣列中的索引。
 
virtual int outputNameToIndex (const String &outputName)
 返回輸出 blob 在輸出陣列中的索引。
 
void run (const std::vector< Mat > &inputs, std::vector< Mat > &outputs, std::vector< Mat > &internals)
 分配層並計算輸出。
 
virtual bool setActivation (const Ptr< ActivationLayer > &layer)
 嘗試將後續啟用層附加到當前層,即在部分情況下進行層融合。
 
void setParamsFrom (const LayerParams &params)
 僅初始化 nametypeblobs 欄位。
 
virtual bool supportBackend (int backendId)
 詢問層是否支援特定的後端進行計算。
 
virtual Ptr< BackendNodetryAttach (const Ptr< BackendNode > &node)
 實現層融合。
 
virtual bool tryFuse (Ptr< Layer > &top)
 嘗試將當前層與下一層融合。
 
virtual bool tryQuantize (const std::vector< std::vector< float > > &scales, const std::vector< std::vector< int > > &zeropoints, LayerParams &params)
 嘗試量化給定層,並計算定點實現所需的量化引數。
 
virtual void unsetAttached ()
 “分離”所有附加到特定層的層。
 
virtual bool updateMemoryShapes (const std::vector< MatShape > &inputs)
 
- 繼承自 cv::Algorithm 的公共成員函式
 Algorithm ()
 
virtual ~Algorithm ()
 
virtual void clear ()
 清除演算法狀態。
 
virtual bool empty () const
 如果 Algorithm 為空(例如,在最開始或讀取不成功之後),則返回 true。
 
virtual String getDefaultName () const
 
virtual void read (const FileNode &fn)
 從檔案儲存中讀取演算法引數。
 
virtual void save (const String &filename) const
 
void write (const Ptr< FileStorage > &fs, const String &name=String()) const
 
virtual void write (FileStorage &fs) const
 將演算法引數儲存到檔案儲存中。
 
void write (FileStorage &fs, const String &name) const
 
- 繼承自 cv::dnn::Layer 的公共屬性
std::vector< Matblobs
 學習到的引數列表必須儲存在此處,以便透過 Net::getParam() 讀取。
 
String name
 層例項的名稱,可用於日誌記錄或其他內部目的。
 
int preferableTarget
 層轉發的首選目標
 
String type
 透過層工廠建立層時使用的型別名稱。
 
- 繼承自 cv::Algorithm 的保護成員函式
void writeFormat (FileStorage &fs) const
 

詳細描述

GRU 單層迴圈網路。

接受輸入序列並計算批次中每個元素的最終隱藏狀態。

  • input[0] 包含輸入序列的特徵。input[0] 的形狀應為 [T, N, data_dims],其中 T 是序列長度,N 是批次大小,data_dims 是輸入大小
  • 輸出的形狀將是 [T, N, D * hidden_size],其中如果層是雙向的,則 D = 2,否則 D = 1

取決於以下屬性

  • hidden_size - 隱藏層中的神經元數量
  • direction - RNN 可以是雙向的或前向的

最終隱藏狀態 \( h_t \) 透過以下公式計算

\begin{eqnarray*} r_t = \sigma(W_{ir} x_t + b_{ir} + W_{hr} h_{(t-1)} + b_{hr}) \\ z_t = \sigma(W_{iz} x_t + b_{iz} + W_{hz} h_{(t-1)} + b_{hz}) \\ n_t = \tanh(W_{in} x_t + b_{in} + r_t \odot (W_{hn} h_{(t-1)}+ b_{hn})) \\ h_t = (1 - z_t) \odot n_t + z_t \odot h_{(t-1)} \\ \end{eqnarray*}

其中 \(x_t\) 是當前輸入,\(h_{(t-1)}\) 是先前或初始隱藏狀態。

\(W_{x?}\)、\(W_{h?}\) 和 \(b_{?}\) 是表示為矩陣的學習權重:\(W_{x?} \in R^{N_h \times N_x}\)、\(W_{h?} \in R^{N_h \times N_h}\)、\(b_? \in R^{N_h}\)。

\(\odot\) 是逐元素乘法運算。

成員函式文件

◆ create()

static Ptr< GRULayer > cv::dnn::GRULayer::create ( const LayerParams & params)
static

建立 GRU 層例項


此類的文件是從以下檔案生成的