­

flink sql之数据源自定义扩展实现

  • 2019 年 10 月 4 日
  • 筆記

上一篇我们简单说了一下flink基于java spi创建自定义的数据源source和sink的基本原理,这一篇我们结合实际案例具体说一下实现过程

下面我们先来看一下创建的时序图

从上图可知要实现自定义的source和sink,要实现如下几步

1.ExternalCatalog的自定义实现

2.ConnectorDescriptor的自定义实现

3.引入flink kafka依赖

4.schema format的自定义的实现(实现序列化和反序列)

具体实现代码还在整理中。。。。