 |
OpenCV 4.12.0
開源計算機視覺
|
- 檔案 block.hpp
- 請改用 裝置層。
- 檔案 border_interpolate.hpp
- 請改用 裝置層。
- 檔案 color.hpp
- 請改用 裝置層。
- 檔案 common.hpp
- 請改用 裝置層。
- 檔案 core.hpp
- 請改用 <opencv2/gapi/ocl/core.hpp>。
- 檔案 cuda_types.hpp
- 請改用 裝置層。
- 成員 cv::Algorithm::write (const Ptr< FileStorage > &fs, const String &name=String()) const
-
- 成員 cv::aruco::calibrateCameraAruco (InputArrayOfArrays corners, InputArray ids, InputArray counter, const Ptr< Board > &board, Size imageSize, InputOutputArray cameraMatrix, InputOutputArray distCoeffs, OutputArrayOfArrays rvecs, OutputArrayOfArrays tvecs, OutputArray stdDeviationsIntrinsics, OutputArray stdDeviationsExtrinsics, OutputArray perViewErrors, int flags=0, const TermCriteria &criteria=TermCriteria(TermCriteria::COUNT+TermCriteria::EPS, 30, DBL_EPSILON))
- 請改用 Board::matchImagePoints 和 cv::solvePnP
- 成員 cv::aruco::calibrateCameraAruco (InputArrayOfArrays corners, InputArray ids, InputArray counter, const Ptr< Board > &board, Size imageSize, InputOutputArray cameraMatrix, InputOutputArray distCoeffs, OutputArrayOfArrays rvecs=noArray(), OutputArrayOfArrays tvecs=noArray(), int flags=0, const TermCriteria &criteria=TermCriteria(TermCriteria::COUNT+TermCriteria::EPS, 30, DBL_EPSILON))
- 請改用 Board::matchImagePoints 和 cv::solvePnP
- 成員 cv::aruco::calibrateCameraCharuco (InputArrayOfArrays charucoCorners, InputArrayOfArrays charucoIds, const Ptr< CharucoBoard > &board, Size imageSize, InputOutputArray cameraMatrix, InputOutputArray distCoeffs, OutputArrayOfArrays rvecs, OutputArrayOfArrays tvecs, OutputArray stdDeviationsIntrinsics, OutputArray stdDeviationsExtrinsics, OutputArray perViewErrors, int flags=0, const TermCriteria &criteria=TermCriteria(TermCriteria::COUNT+TermCriteria::EPS, 30, DBL_EPSILON))
- 請改用 CharucoBoard::matchImagePoints 和 cv::solvePnP
- 成員 cv::aruco::calibrateCameraCharuco (InputArrayOfArrays charucoCorners, InputArrayOfArrays charucoIds, const Ptr< CharucoBoard > &board, Size imageSize, InputOutputArray cameraMatrix, InputOutputArray distCoeffs, OutputArrayOfArrays rvecs=noArray(), OutputArrayOfArrays tvecs=noArray(), int flags=0, const TermCriteria &criteria=TermCriteria(TermCriteria::COUNT+TermCriteria::EPS, 30, DBL_EPSILON))
- 請改用 CharucoBoard::matchImagePoints 和 cv::solvePnP
- 成員 cv::aruco::detectCharucoDiamond (InputArray image, InputArrayOfArrays markerCorners, InputArray markerIds, float squareMarkerLengthRate, OutputArrayOfArrays diamondCorners, OutputArray diamondIds, InputArray cameraMatrix=noArray(), InputArray distCoeffs=noArray(), Ptr< Dictionary > dictionary=makePtr< Dictionary >(getPredefinedDictionary(PredefinedDictionaryType::DICT_4X4_50)))
- 請改用 CharucoDetector::detectDiamonds
- 成員 cv::aruco::detectMarkers (InputArray image, const Ptr< Dictionary > &dictionary, OutputArrayOfArrays corners, OutputArray ids, const Ptr< DetectorParameters > ¶meters=makePtr< DetectorParameters >(), OutputArrayOfArrays rejectedImgPoints=noArray())
- 請改用類 ArucoDetector::detectMarkers
- 成員 cv::aruco::drawCharucoDiamond (const Ptr< Dictionary > &dictionary, Vec4i ids, int squareLength, int markerLength, OutputArray img, int marginSize=0, int borderBits=1)
- 請改用 CharucoBoard::generateImage()
- 成員 cv::aruco::drawPlanarBoard (const Ptr< Board > &board, Size outSize, OutputArray img, int marginSize, int borderBits)
- 請改用 Board::generateImage
- 結構體 cv::aruco::EstimateParameters
- 請改用 Board::matchImagePoints 和 cv::solvePnP
- 成員 cv::aruco::estimatePoseBoard (InputArrayOfArrays corners, InputArray ids, const Ptr< Board > &board, InputArray cameraMatrix, InputArray distCoeffs, InputOutputArray rvec, InputOutputArray tvec, bool useExtrinsicGuess=false)
- 請改用 Board::matchImagePoints 和 cv::solvePnP
- 成員 cv::aruco::estimatePoseCharucoBoard (InputArray charucoCorners, InputArray charucoIds, const Ptr< CharucoBoard > &board, InputArray cameraMatrix, InputArray distCoeffs, InputOutputArray rvec, InputOutputArray tvec, bool useExtrinsicGuess=false)
- 請改用 CharucoBoard::matchImagePoints 和 cv::solvePnP
- 成員 cv::aruco::estimatePoseSingleMarkers (InputArrayOfArrays corners, float markerLength, InputArray cameraMatrix, InputArray distCoeffs, OutputArray rvecs, OutputArray tvecs, OutputArray objPoints=noArray(), const Ptr< EstimateParameters > &estimateParameters=makePtr< EstimateParameters >())
- 請改用 cv::solvePnP
- 成員 cv::aruco::getBoardObjectAndImagePoints (const Ptr< Board > &board, InputArrayOfArrays detectedCorners, InputArray detectedIds, OutputArray objPoints, OutputArray imgPoints)
- 請改用 Board::matchImagePoints
- 成員 cv::aruco::interpolateCornersCharuco (InputArrayOfArrays markerCorners, InputArray markerIds, InputArray image, const Ptr< CharucoBoard > &board, OutputArray charucoCorners, OutputArray charucoIds, InputArray cameraMatrix=noArray(), InputArray distCoeffs=noArray(), int minMarkers=2)
- 請改用 CharucoDetector::detectBoard
- 成員 cv::aruco::PatternPositionType
- 請改用 Board::matchImagePoints 和 cv::solvePnP
- 成員 cv::aruco::refineDetectedMarkers (InputArray image, const Ptr< Board > &board, InputOutputArrayOfArrays detectedCorners, InputOutputArray detectedIds, InputOutputArrayOfArrays rejectedCorners, InputArray cameraMatrix=noArray(), InputArray distCoeffs=noArray(), float minRepDistance=10.f, float errorCorrectionRate=3.f, bool checkAllOrders=true, OutputArray recoveredIdxs=noArray(), const Ptr< DetectorParameters > ¶meters=makePtr< DetectorParameters >())
- 請改用類 ArucoDetector::refineDetectedMarkers
- 成員 cv::aruco::testCharucoCornersCollinear (const Ptr< CharucoBoard > &board, InputArray charucoIds)
- 請改用 CharucoBoard::checkCharucoCornersCollinear
- 成員 cv::convertFp16 (InputArray src, OutputArray dst)
- 請改用帶 CV_16F 的 Mat::convertTo。
- 成員 cv::createStitcher (bool try_use_gpu=false)
- 請改用 Stitcher::create
- 成員 cv::createStitcherScans (bool try_use_gpu=false)
- 請改用 Stitcher::create
- 成員 cv::cudacodec::NV_NV12
- 已棄用與 VideoReader 一起使用,請改用 NV_YUV_SURFACE_FORMAT。
- 成員 cv::dnn::getInferenceEngineBackendType ()
-
- 成員 cv::dnn::Layer::finalize (const std::vector< Mat * > &input, std::vector< Mat > &output)
- 請改用 Layer::finalize(InputArrayOfArrays, OutputArrayOfArrays)
- 成員 cv::dnn::Layer::finalize (const std::vector< Mat > &inputs, std::vector< Mat > &outputs)
- 請改用 Layer::finalize(InputArrayOfArrays, OutputArrayOfArrays)
- 成員 cv::dnn::Layer::finalize (const std::vector< Mat > &inputs)
- 請改用 Layer::finalize(InputArrayOfArrays, OutputArrayOfArrays)
- 成員 cv::dnn::Layer::forward (std::vector< Mat * > &input, std::vector< Mat > &output, std::vector< Mat > &internals)
- 請改用 Layer::forward(InputArrayOfArrays, OutputArrayOfArrays, OutputArrayOfArrays)
- 成員 cv::dnn::Layer::run (const std::vector< Mat > &inputs, std::vector< Mat > &outputs, std::vector< Mat > &internals)
- 此方法將在未來版本中移除。
- 成員 cv::dnn::LSTMLayer::setProduceCellOutput (bool produce=false)=0
- 請在 LayerParams 中使用標誌
use_timestamp_dim。
- 成員 cv::dnn::LSTMLayer::setUseTimstampsDim (bool use=true)=0
- 請在 LayerParams 中使用標誌
produce_cell_output。
- 成員 cv::dnn::LSTMLayer::setWeights (const Mat &Wh, const Mat &Wx, const Mat &b)=0
- 請改用 LayerParams::blobs。
- 成員 cv::dnn::Net::getLayer (const String &layerName) const
- 請改用 int getLayerId(const String &layer)
- 成員 cv::dnn::Net::getLayer (const LayerId &layerId) const
- 將要移除
- 成員 cv::dnn::Net::LayerId
- 請改用返回 int 結果的 getLayerId()。
- 成員 cv::dnn::setInferenceEngineBackendType (const cv::String &newBackendType)
-
- 成員 cv::error (const Exception &exc)
- 刪除此版本
- 成員 cv::estimateRigidTransform (InputArray src, InputArray dst, bool fullAffine)
- 請改用 cv::estimateAffine2D 和 cv::estimateAffinePartial2D。如果您將此函式用於影像,請使用 cv::calcOpticalFlowPyrLK 提取點,然後使用估計函式。
- 成員 cv::FileNode::FileNode (const FileStorage *fs, size_t blockIdx, size_t ofs)
-
- 成員 cv::getThreadNum ()
- 當前實現與此文件不符。
- 成員 cv::linearPolar (InputArray src, OutputArray dst, Point2f center, double maxRadius, int flags)
- 此函式產生的結果與 cv::warpPolar(src, dst, src.size(), center, maxRadius, flags) 相同。
- 成員 cv::logPolar (InputArray src, OutputArray dst, Point2f center, double M, int flags)
- 此函式產生的結果與 cv::warpPolar(src, dst, src.size(), center, maxRadius, flags+WARP_POLAR_LOG) 相同。
- 成員 cv::ocl::Context::Context (int dtype)
-
- 成員 cv::ocl::Context::create ()
-
- 成員 cv::ocl::Context::create (int dtype)
-
- 成員 cv::ocl::initializeContextFromHandle (Context &ctx, void *platform, void *context, void *device)
-
- 類 cv::ocl::Platform
-
- 成員 cv::ocl::Platform::getDefault ()
-
- 成員 cv::ovis::updateTexture (const String &name, InputArray image)
- 請改用 setMaterialProperty
- 成員 cv::text::loadOCRHMMClassifierCNN (const String &filename)
- 請改用 loadOCRHMMClassifier
- 成員 cv::text::loadOCRHMMClassifierNM (const String &filename)
- 請改用 loadOCRHMMClassifier
- 成員 cv::TLSDataAccumulator< T >::gather (std::vector< T * > &data) const
- 已替換為 detachData()
- 成員 cv::TLSDataContainer::gatherData (std::vector< void * > &data) const
- 請改用 detachData()
- 成員 cv::v_signmask (const v_reg< _Tp, n > &a)
- v_signmask 嚴重依賴於通道數,因此不夠通用
- 成員 CV_DNN_BACKEND_INFERENCE_ENGINE_NGRAPH
-
- 成員 CV_DNN_BACKEND_INFERENCE_ENGINE_NN_BUILDER_API
-
- 檔案 datamov_utils.hpp
- 請改用 裝置層。
- 檔案 dynamic_smem.hpp
- 請改用 裝置層。
- 檔案 emulation.hpp
- 請改用 裝置層。
- 檔案 filters.hpp
- 請改用 裝置層。
- 檔案 funcattrib.hpp
- 請改用 裝置層。
- 檔案 functional.hpp
- 請改用 裝置層。
- 成員 G_TYPED_KERNEL_M
- 此宏已棄用,請改用用於宣告任何 G-API 操作的
G_TYPED_KERNEL。
- 檔案 ggpukernel.hpp
- 請改用 <opencv2/gapi/ocl/goclkernel.hpp>。
- 檔案 imgproc.hpp
- 請改用 <opencv2/gapi/ocl/imgproc.hpp>。
- 檔案 limits.hpp
- 請改用 裝置層。
- 檔案 reduce.hpp
- 請改用 裝置層。
- 檔案 saturate_cast.hpp
- 請改用 裝置層。
- 檔案 scan.hpp
- 請改用 裝置層。
- 檔案 simd_functions.hpp
- 請改用 裝置層。
- 檔案 transform.hpp
- 請改用 裝置層。
- 檔案 type_traits.hpp
- 請改用 裝置層。
- 檔案 utility.hpp
- 請改用 裝置層。
- 檔案 vec_distance.hpp
- 請改用 裝置層。
- 檔案 vec_math.hpp
- 請改用 裝置層。
- 檔案 vec_traits.hpp
- 請改用 裝置層。
- 檔案 warp.hpp
- 請改用 裝置層。
- 檔案 warp_reduce.hpp
- 請改用 裝置層。
- 檔案 warp_shuffle.hpp
- 請改用 裝置層。