實現TensorRT-7.0插件自由!(如果不踩坑使用TensorRT插件功能)

本系列為新TensorRT的第一篇,為什麼叫新,因為之前已經寫了兩篇關於TensorRT的文章,是關於TensorRT-5.0版本的。好久沒寫關於TensorRT的文章了,所幸就以來開頭吧~

接下來將要講解的TensorRT,將會是基於7.0版本。

7版本開頭的TensorRT變化還是挺大的,增加了很多新特性,但是TensorRT的核心運作方式還是沒有什麼變化的,關於TensorRT的介紹可以看之前寫的這兩篇:

本文的內容呢,主要是講解:

  • TensorRT自定義插件的使用方式
  • 如何添加自己的自定義運算元

看完本篇可以讓你少踩巨多坑,客官記得常來看啊。

前言

隨著tensorRT的不斷發展(v5->v6->v7),TensorRT的插件的使用方式也在不斷更新。插件介面也在不斷地變化,由v5版本的IPluginV2Ext,到v6版本的IPluginV2IOExtIPluginV2DynamicExt。未來不知道會不會出來新的API,不過這也不是咱要考慮的問題,因為TensorRT的後兼容性做的很好,根本不用擔心你寫的舊版本插件在新版本上無法運行。

目前的plugin-API:

QQ20201103-101737

TensorRT插件的存在目的,主要是為了讓我們實現TensorRT目前還不支援的運算元,畢竟眾口難調嘛,我們在轉換過程中肯定會有op不支援的情況。這個時候就需要使用TensorRT的plugin去實現我們的自己的op。此時我們需要通過TensorRT提供的介面去實現自己的op,因此這個plugin的生命周期也需要遵循TensorRT的規則

一個簡單的了解

那麼plugin到底長啥樣,可以先看看TensorRT的官方plugin庫長啥樣,截止寫這篇文章時,master分支是7.2版本的plugin:

//github.com/NVIDIA/TensorRT/tree/master/plugin

tensorrt-plugin

官方提供的插件已經相當多,而且TensorRT開源了plugin部分(可以讓我們白嫖!)。並且可以看到其源碼,通過模仿源碼來學習plugin是如何寫的。

如果要添加自己的運算元,可以在官方的plugin庫裡頭進行修改添加,然後編譯官方的plugin庫。將生成的libnvinfer_plugin.so.7替換原本的.so文件即可。或者自己寫一個類似於官方plugin的組件,將名稱替換一下,同樣生成.so,在TensorRT的推理項目中引用這個動態鏈接庫即可。

以下介紹中,我們需要寫的IPlugin簡稱為插件op。

開始寫插件

有興趣的可以先看看TensorRT的官方文檔,官方文檔的介紹簡單意駭,不過坑是少不了的..而本文的目的,就是盡量讓你少趟坑。

首先按照官方plugin的排布方式,下面隨便挑了個官方plugin:

instance_normalization_plugin

準備一個自己的插件:custom.cppcustom.h,copy並paste官方程式碼,名字替換成自己的。以最新的IPluginV2DynamicExt類為介面。

我們需要寫兩個類:

  • MyCustomPlugin,繼承IPluginV2DynamicExt,是插件類,用於寫插件具體的實現
  • MyCustomPluginCreator,繼承BaseCreator,是插件工廠類,用於根據需求創建該插件

對了,插件類繼承IPluginV2DynamicExt才可以支援動態尺寸,其他插件類介面例如IPluginV2IOExt和前者大部分是相似的。

// 繼承IPluginV2DynamicExt就夠啦
class MyCustomPlugin final : public nvinfer1::IPluginV2DynamicExt

class MyCustomPluginCreator : public BaseCreator

MyCustomPlugin 插件類

總覽:

class MyCustomPlugin final : public nvinfer1::IPluginV2DynamicExt
{

public:

  MyCustomPlugin( int in_channel,
                  const std::vector<float>& weight,
                  const std::vector<float>& bias);
                            
  MyCustomPlugin( int in_channel,
                  nvinfer1::Weights const& weight,
                  nvinfer1::Weights const& bias);

  MyCustomPlugin(void const* serialData, size_t serialLength);
  MyCustomPlugin() = delete;
  ~MyCustomPlugin() override;
  int getNbOutputs() const override;
  DimsExprs getOutputDimensions(int outputIndex, const nvinfer1::DimsExprs* inputs, int nbInputs, nvinfer1::IExprBuilder& exprBuilder) override;
  int initialize() override;
  void terminate() override;
  size_t getWorkspaceSize(const nvinfer1::PluginTensorDesc* inputs, int nbInputs, const nvinfer1::PluginTensorDesc* outputs, int nbOutputs) const override;
  int enqueue(const nvinfer1::PluginTensorDesc* inputDesc, const nvinfer1::PluginTensorDesc* outputDesc, 
              const void* const* inputs, void* const* outputs, 
              void* workspace, 
              cudaStream_t stream) override;
  size_t getSerializationSize() const override;
  void serialize(void* buffer) const override;
  bool supportsFormatCombination(int pos, const nvinfer1::PluginTensorDesc* inOut, int nbInputs, int nbOutputs) override;
  const char* getPluginType() const override;
  const char* getPluginVersion() const override;
  void destroy() override;
  nvinfer1::IPluginV2DynamicExt* clone() const override;
  void setPluginNamespace(const char* pluginNamespace) override;
  const char* getPluginNamespace() const override;
  DataType getOutputDataType(int index, const nvinfer1::DataType* inputTypes, int nbInputs) const override;
  void attachToContext(cudnnContext* cudnn, cublasContext* cublas, nvinfer1::IGpuAllocator* allocator) override;
  void detachFromContext() override;
  void configurePlugin(const nvinfer1::DynamicPluginTensorDesc* in, int nbInputs, 
                       const nvinfer1::DynamicPluginTensorDesc* out, int nbOutputs) override;
private:
    int _in_channel;
    std::vector<float> weight;
    std::vector<float> bias;
    float* weight;
    float* bias;
    bool _initialized;
    const char* mPluginNamespace;
    std::string mNamespace;
};

成員變數

如果你的插件有weights(類似於conv操作的weight和bias),有參數(類似於conv中的kernel-size、padding),在類中則需要定義為成員變數,為private類型:

MyCustomPlugin為例,假設我們的這個MyCustomPlugin有兩個權重weight和bias以及一個參數in_channel(這個權重和參數沒有啥意義,純粹,純粹為了演示):

private:
    int  _in_channel; // 參數 
    std::vector<float> _weight; // 權重,在cpu空間存放
    std::vector<float> _bias;   // 偏置權重,在cpu空間存放
    float* _d_weight;           // 權重,在GPU空間存放
    float* _d_bias;
    bool _initialized;
    cudnnHandle_t _cudnn_handle;
    const char* mPluginNamespace;
    std::string mNamespace;

構造函數和析構函數

構造函數一般設置為三個。

第一個用於在parse階段,PluginCreator用於創建該插件時調用的構造函數,需要傳遞權重資訊以及參數。

第二個用於在clone階段,複製這個plugin時會用到的構造函數。

第三個用於在deserialize階段,用於將序列化好的權重和參數傳入該plugin並創建愛你哦。

以我們的MyCustomPlugin為例:

MyCustomPlugin(int in_channel, nvinfer1::Weights const& weight, nvinfer1::Weights const& bias);
MyCustomPlugin(float in_channel, const std::vector<float>& weight, const std::vector<float>& bias);
MyCustomPlugin(void const* serialData, size_t serialLength);

析構函數則需要執行terminateterminate函數就是釋放這個op之前開闢的一些顯示記憶體空間:

MyCustomPlugin::~MyCustomPlugin()
{
    terminate();
}

注意需要把默認構造函數刪掉:

MyCustomPlugin() = delete;

getNbOutputs

插件op返回多少個Tensor,比如MyCustomPlugin這個操作只輸出一個Tensor(也就是一個output),所以直接return 1

// MyCustomPlugin returns one output.
int MyCustomPlugin::getNbOutputs() const
{
    return 1;
}

initialize

初始化函數,在這個插件準備開始run之前執行。

主要初始化一些提前開闢空間的參數,一般是一些cuda操作需要的參數(例如conv操作需要執行卷積操作,我們就需要提前開闢weight和bias的顯示記憶體),假如我們的運算元需要這些參數,則在這裡需要提前開闢顯示記憶體。

需要注意的是,如果插件運算元需要開闢比較大的顯示記憶體空間,不建議自己去申請顯示記憶體空間,可以使用Tensorrt官方介面傳過來的workspace指針來獲取顯示記憶體空間。因為如果這個插件被一個網路調用了很多次,而這個插件op需要開闢很多顯示記憶體空間,那麼TensorRT在構建network的時候會根據這個插件被調用的次數開闢很多顯示記憶體,很容易導致顯示記憶體溢出。

getOutputDataType

返回結果的類型,一般來說我們插件op返回結果類型與輸入類型一致:

nvinfer1::DataType InstanceNormalizationPlugin::getOutputDataType(
    int index, const nvinfer1::DataType* inputTypes, int nbInputs) const
{
    ASSERT(inputTypes && nbInputs > 0 && index == 0);
    return inputTypes[0];
}

getWorkspaceSize

這個函數需要返回這個插件op需要中間顯示記憶體變數的實際數據大小(bytesize),這個是通過TensorRT的介面去獲取,是比較規範的方式。

我們需要在這裡確定這個op需要多大的顯示記憶體空間去運行,在實際運行的時候就可以直接使用TensorRT開闢好的空間而不是自己去申請顯示記憶體空間。

size_t MyCustomPlugin::getWorkspaceSize(const nvinfer1::PluginTensorDesc* inputs, int nbInputs, const nvinfer1::PluginTensorDesc* outputs, int nbOutputs) const 
{ 
    // 計算這個op前向過程中你認為需要的中間顯示記憶體數量
    size_t need_num;
    return need_num * sizeof(float);
}

enqueue

實際插件op的執行函數,我們自己實現的cuda操作就放到這裡(當然C++寫的op也可以放進來,不過因為是CPU執行,速度就比較慢了),與往常一樣接受輸入inputs產生輸出outputs,傳給相應的指針就可以。

int enqueue(const nvinfer1::PluginTensorDesc* inputDesc, const nvinfer1::PluginTensorDesc* outputDesc,
        const void* const* inputs, void* const* outputs, void* workspace, cudaStream_t stream){

            // 假如這個fun是你需要的中間變數 這裡可以直接用TensorRT為你開闢的顯示記憶體空間
            fun  = static_cast<float*>(workspace);

        }

需要注意的是,如果我們的操作需要一些分布在顯示記憶體中的中間變數,可以通過傳過來的指針參數workspace獲取,上述程式碼簡單說明了一下使用方法。

再多說一句,我們默認寫的.cu是fp32的,TensorRT在fp16運行模式下,運行到不支援fp16的插件op時,會自動切換到fp32模式,等插件op運行完再切換回來。

getOutputDimensions

TensorRT支援Dynamic-shape的時候,batch這一維度必須是explicit的,也就是說,TensorRT處理的維度從以往的三維[3,-1,-1]變成了[1,3,-1,-1]。最新的onnx-tensorrt也必須設置explicit的batchsize,而且這個batch維度在getOutputDimensions中是可以獲取到的。

在舊版的IPluginV2類中,getOutputDimensions的定義如下:

  virtual Dims getOutputDimensions(int index, const Dims* inputs, int nbInputDims) TRTNOEXCEPT = 0;

而在新版的IPluginV2DynamicExt類中定義如下:

virtual DimsExprs getOutputDimensions(int outputIndex, const DimsExprs* inputs, int nbInputs, IExprBuilder& exprBuilder) = 0;

我們要做的就是在這個成員函數中根據輸入維度推理出模型的輸出維度,需要注意的是,雖然說輸出維度
是由輸入維度決定,但這個輸出維度其實「內定」的(也就是在計算之前就算出來了)。如果咱的插件op的輸出維度需要通過實際運行計算得到,那麼這個函數就無法滿足咱了。

去你媽的好氣哦

set/getPluginNamespace

為這個插件設置namespace名字,如果不設置則默認是"",需要注意的是同一個namespace下的plugin如果名字相同會衝突。

PluginFieldCollection

這個是成員變數,也會作為getFieldNames成員函數的返回類型。PluginFieldCollection的主要作用是傳遞這個插件op所需要的權重和參數,在實際的engine推理過程中並不使用,而在parse中會用到(例如caffe2trt、onnx2trt)。

當使用這些parse去解析這個op的時候,這個op的權重和參數會經歷Models --> TensorRT engine --> TensorRT runtime這個過程。

舉個例子,在onnx-tensorrt中,我們用過DEFINE_BUILTIN_OP_IMPORTER去註冊op,然後通過parse解析onnx模型,根據註冊好的op去一個個解析構建模型,假如我們定義的op為my_custom_op,在DEFINE_BUILTIN_OP_IMPORTER(my_custom_op)會這樣實現:

DEFINE_BUILTIN_OP_IMPORTER(mycustom_op)
{
    ASSERT(inputs.at(0).is_tensor(), ErrorCode::kUNSUPPORTED_NODE); 
    ...
    const std::string pluginName = "CUSTOM-OP";
    const std::string pluginVersion = "001";
    // 這個f保存這個op需要的權重和參數,從onnx模型中獲取
    std::vector<nvinfer1::PluginField> f;

    f.emplace_back("in_channel", &in_channel, nvinfer1::PluginFieldType::kINT32, 1);
    f.emplace_back("weight", kernel_weights.values, nvinfer1::PluginFieldType::kFLOAT32, kernel_weights.count());
    f.emplace_back("bias", bias_weights.values, nvinfer1::PluginFieldType::kFLOAT32, bias_weights.count);

    // 這個從將plugin工廠中獲取該插件,並且將權重和參數傳遞進去
    nvinfer1::IPluginV2* plugin = importPluginFromRegistry(ctx, pluginName, pluginVersion, node.name(), f);

    RETURN_FIRST_OUTPUT(ctx->network()->addPluginV2(tensors.data(), tensors.size(), *plugin));
}

進入importPluginFromRegistry函數內部,可以發現參數通過fc變數通過createPlugin傳遞給了plugin

nvinfer1::IPluginV2* importPluginFromRegistry(IImporterContext* ctx, const std::string& pluginName,
    const std::string& pluginVersion, const std::string& nodeName,
    const std::vector<nvinfer1::PluginField>& pluginFields)
{
    const auto mPluginRegistry = getPluginRegistry();
    const auto pluginCreator
        = mPluginRegistry->getPluginCreator(pluginName.c_str(), pluginVersion.c_str(), "ONNXTRT_NAMESPACE");

    if (!pluginCreator)
    {
        return nullptr;
    }
    // 接受傳進來的權重和參數資訊 傳遞給plugin
    nvinfer1::PluginFieldCollection fc;
    fc.nbFields = pluginFields.size();
    fc.fields = pluginFields.data();

    return pluginCreator->createPlugin(nodeName.c_str(), &fc);
}

上述步驟中,會提供pluginNamepluginVersion初始化MyCustomPluginCreator,其中createPlugin成員函數是我們需要編寫的(下文會說)。

configurePlugin

配置這個插件op,判斷輸入和輸出類型數量是否正確。官方還提到通過這個配置資訊可以告知TensorRT去選擇合適的演算法(algorithm)去調優這個模型。

但自動調優目前還沒有嘗試過,我們一般自己寫的plugin執行程式碼都是定死的,所謂的調優步驟可能更多地針對官方的op。

下面的plugin中configurePlugin函數僅僅是簡單地確認了下輸入和輸出以及類型。

void MyCustomPluginDynamic::configurePlugin(
    const nvinfer1::DynamicPluginTensorDesc *inputs, int nbInputs,
    const nvinfer1::DynamicPluginTensorDesc *outputs, int nbOutputs) {
  // Validate input arguments
  assert(nbOutputs == 1);
  assert(nbInputs == 2);
  assert(mType == inputs[0].desc.type);
}

clone

這玩意兒幹嘛的,顧名思義,就是克隆嘛,將這個plugin對象克隆一份給TensorRT的builder、network或者engine。這個成員函數會調用上述說到的第二個構造函數:

MyCustomPlugin(float in_channel, const std::vector<float>& weight, const std::vector<float>& bias);

將要克隆的plugin的權重和參數傳遞給這個構造函數。

IPluginV2DynamicExt* MyCustomPlugin::clone() const
{ 
    // 
    auto plugin = new MyCustomPlugin{_in_channel, _weight, _bias};
    plugin->setPluginNamespace(mPluginNamespace);
    return plugin;
}

clone成員函數主要用於傳遞不變的權重和參數,將plugin複製n多份,從而可以被不同engine或者builder或者network使用。

getSerializationSize

返回序列化時需要寫多少位元組到buffer中。

size_t MyCustomPlugin::getSerializationSize() const
{
    return (serialized_size(_in_channel) +
            serialized_size(_weight) +
            serialized_size(_bias)
            );
}

supportsFormatCombination

TensorRT調用此方法以判斷pos索引的輸入/輸出是否支援inOut[pos].formatinOut[pos].type指定的格式/數據類型。

如果插件支援inOut[pos]處的格式/數據類型,則返回true。 如果是否支援取決於其他的輸入/輸出格式/數據類型,則插件可以使其結果取決於inOut[0..pos-1]中的格式/數據類型,該格式/數據類型將設置為插件支援的值。 這個函數不需要檢查inOut[pos + 1..nbInputs + nbOutputs-1],pos的決定必須僅基於inOut[0..pos]

bool MyCustomPlugin::supportsFormatCombination(
    int pos, const nvinfer1::PluginTensorDesc* inOut, int nbInputs, int nbOutputs)
{
    // 假設有一個輸入一個輸出
    assert(0 <= pos && pos < 2);
    const auto *in = inOut;
    const auto *out = inOut + nbInputs;
    switch (pos) {
        case 0:
        return in[0].type == DataType::kFLOAT &&
                in[0].format == nvinfer1::TensorFormat::kLINEAR;
        case 1:
        return out[0].type == in[0].type &&
                out[0].format == nvinfer1::TensorFormat::kLINEAR;
    }
}

serialize

把需要用的數據按照順序序列化到buffer裡頭。

void MyCustomPlugin::serialize(void *buffer) const
{
    serialize_value(&buffer, _in_channel);
    serialize_value(&buffer, _weight);
    serialize_value(&buffer, _bias);
}

attachToContext

如果這個op使用到了一些其他東西,例如cublas handle,可以直接藉助TensorRT內部提供的cublas handle:

void MyCustomPlugin::attachToContext(cudnnContext* cudnnContext, cublasContext* cublasContext, IGpuAllocator* gpuAllocator)
{
     mCublas = cublasContext;
}

MyCustomPluginCreator 插件工廠類

總覽:

class MyCustomPluginCreator : public BaseCreator
{
public:
  MyCustomPluginCreator();
  ~MyCustomPluginCreator() override = default;
  const char* getPluginName() const override;    // 不介紹
  const char* getPluginVersion() const override; // 不介紹
  const PluginFieldCollection* getFieldNames() override; // 不介紹
  IPluginV2DynamicExt* createPlugin(const char* name, const nvinfer1::PluginFieldCollection* fc) override;
  IPluginV2DynamicExt* deserializePlugin(const char* name, const void* serialData, size_t serialLength) override;
private:
  static PluginFieldCollection mFC;
  static std::vector<PluginField> mPluginAttributes;
  std::string mNamespace;
};

構造函數

創建一個空的mPluginAttributes初始化mFC

MyCustomPluginCreator::MyCustomPluginCreator()
{
    mPluginAttributes.emplace_back(PluginField("in_channel", nullptr, PluginFieldType::kFLOAT32, 1));
    mPluginAttributes.emplace_back(PluginField("weight", nullptr, PluginFieldType::kFLOAT32, 1));
    mPluginAttributes.emplace_back(PluginField("bias", nullptr, PluginFieldType::kFLOAT32, 1));
    
    mFC.nbFields = mPluginAttributes.size();
    mFC.fields = mPluginAttributes.data();
}

createPlugin

這個成員函數作用是通過PluginFieldCollection去創建plugin,將op需要的權重和參數一個一個取出來,然後調用上文提到的第一個構造函數:

MyCustomPlugin(int in_channel, nvinfer1::Weights const& weight, nvinfer1::Weights const& bias);

去創建plugin。

MyCustomPlugin示例:

IPluginV2DynamicExt* MyCustomPlugin::createPlugin(const char* name, const nvinfer1::PluginFieldCollection* fc)
{
    int in_channel;
    std::vector<float> weight;
    std::vector<float> bias;
    const PluginField* fields = fc->fields;
    for (int i = 0; i < fc->nbFields; ++i)
    {
        const char* attrName = fields[i].name;
        if (!strcmp(attrName, "in_channel"))
        {
            ASSERT(fields[i].type == PluginFieldType::kINT32);
            in_channel= *(static_cast<const int32_t*>(fields[i].data));
        }
        else if (!strcmp(attrName, "weight"))
        {
            ASSERT(fields[i].type == PluginFieldType::kFLOAT32);
            int size = fields[i].length;
            h_weight.reserve(size);
            const auto* w = static_cast<const float*>(fields[i].data);
            for (int j = 0; j < size; j++)
            {
                h_weight.push_back(*w);
                w++;
            }
        }
        else if (!strcmp(attrName, "bias"))
        {
            ASSERT(fields[i].type == PluginFieldType::kFLOAT32);
            int size = fields[i].length;
            h_bias.reserve(size);
            const auto* w = static_cast<const float*>(fields[i].data);
            for (int j = 0; j < size; j++)
            {
                h_bias.push_back(*w);
                w++;
            }
        }
    }

    Weights weightWeights{DataType::kFLOAT, weight.data(), (int64_t) weight.size()};
    Weights biasWeights{DataType::kFLOAT, bias.data(), (int64_t)_bias.size()};

    MyCustomPlugin* obj = new MyCustomPlugin(in_channel, weightWeights, biasWeights);
    obj->setPluginNamespace(mNamespace.c_str());
    return obj;
}

deserializePlugin

這個函數會被onnx-tensorrt的一個叫做TRT_PluginV2的轉換op調用,這個op會讀取onnx模型的data數據將其反序列化到network中。

一些官方插件的注意事項

使用官方插件會遇到些小問題。

topk問題

官方的topk插件最多支援k<=3840。否則會報:

[TensorRT] ERROR: Parameter check failed at: ../builder/Layers.cpp::TopKLayer::3137, condition: k > 0 && k <= MAX_TOPK_K

相關問題://github.com/tensorflow/tensorflow/issues/31671

batchednms問題

官方的batchednms最大支援的topk為4096,太大也會崩潰。不過可以修改源程式碼實現突破這個數值,但仍然有bug

  void (*kernel[])(const int, const int, const int, const int, const float,
                     const bool, const bool, float *, T_SCORE *, int *,
                     T_SCORE *, int *, bool) = {
      P(1), P(2), P(3), P(4), P(5), P(6), P(7), P(8), P(9), P(10),
      P(11), P(12), P(13), P(14), P(15), P(16)
  };

關於plugin的註冊

簡單說下plugin的註冊流程。

在載入NvInferRuntimeCommon.h頭文件的時候會得到一個getPluginRegistry,這裡類中包含了所有已經註冊了的IPluginCreator,在使用的時候我們通過getPluginCreator函數得到相應的IPluginCreator

註冊插件有兩種方式,第一種可以看官方的plugin程式碼。

extern "C" {
bool initLibNvInferPlugins(void* logger, const char* libNamespace)
{
    initializePlugin<nvinfer1::plugin::GridAnchorPluginCreator>(logger, libNamespace);
    initializePlugin<nvinfer1::plugin::NMSPluginCreator>(logger, libNamespace);
    initializePlugin<nvinfer1::plugin::ReorgPluginCreator>(logger, libNamespace);
    ...
    return true;
}

其中initializePlugin函數執行了addPluginCreator函數:

template <typename CreatorType>
void initializePlugin(void* logger, const char* libNamespace)
{
    PluginCreatorRegistry::getInstance().addPluginCreator<CreatorType>(logger, libNamespace);
}

addPluginCreator函數又執行了getPluginRegistry()->registerCreatorpluginCreator進行了註冊,這樣就完成註冊任務了:

void addPluginCreator(void* logger, const char* libNamespace)
{
    ...
        if (mRegistryList.find(pluginType) == mRegistryList.end())
        {
            bool status = getPluginRegistry()->registerCreator(*pluginCreator, libNamespace);
            if (status)
            {
                mRegistry.push(std::move(pluginCreator));
                mRegistryList.insert(pluginType);
                verboseMsg = "Plugin creator registration succeeded - " + pluginType;
            }
            else
            {
                errorMsg = "Could not register plugin creator:  " + pluginType;
            }
        }
        else
        {
            verboseMsg = "Plugin creator already registered - " + pluginType;
        }
    ...
}

另一種註冊可以直接通過REGISTER_TENSORRT_PLUGIN來註冊:

//!
//! \brief Return the plugin registry
//!
//  在載入`NvInferRuntimeCommon.h`頭文件的時候會得到一個`getPluginRegistry`
extern "C" TENSORRTAPI nvinfer1::IPluginRegistry* getPluginRegistry();

namespace nvinfer1
{

template <typename T>
class PluginRegistrar
{
public:
    PluginRegistrar() { getPluginRegistry()->registerCreator(instance, ""); }
private:
    T instance{};
};

#define REGISTER_TENSORRT_PLUGIN(name) \
    static nvinfer1::PluginRegistrar<name> pluginRegistrar##name {}

} // namespace nvinfer1

也就是說,如果我們已經在plugin的.h文件中執行了REGISTER_TENSORRT_PLUGIN(BatchedNMSPluginCreator);就不需要再創建一個類似於官方的initLibNvInferPlugins()函數去一個一個註冊了。

參考鏈接

//github.com/NVIDIA/TensorRT/tree/release/7.0/plugin
//github.com/triton-inference-server/server/issues/767
//blog.csdn.net/u010552731/article/details/106520241
//docs.nvidia.com/deeplearning/tensorrt/developer-guide/index.html#work_dynamic_shapes
//forums.developer.nvidia.com/t/tensorrt-5-1-6-custom-plugin-with-fp16-issue/84132/4
//forums.developer.nvidia.com/t/tensorrt-cask-error-in-checkcaskexecerror-false-7-cask-convolution-execution/109735
//github.com/NVIDIA/TensorRT/tree/release/7.0/samples/opensource/samplePlugin
//forums.developer.nvidia.com/t/unable-to-run-two-tensorrt-models-in-a-cascade-manner/145274/2

DCNv2-github

//github.com/CharlesShang/DCNv2
//github.com/chengdazhi/Deformable-Convolution-V2-PyTorch

交流

如果你與我志同道合於此,老潘很願意與你交流;如果你喜歡老潘的內容,歡迎關注和支援。部落格每周更新一篇深度原創文,關注公眾號「oldpan部落格」不錯過最新文章。老潘也會整理一些自己的私藏,希望能幫助到大家,公眾號回復”888″獲取老潘學習路線資料與文章匯總,還有更多等你挖掘。如果不想錯過老潘的最新推文,請點擊神秘鏈接