flink sql之数据源自定义扩展实现
- 2019 年 10 月 4 日
- 筆記
上一篇我们简单说了一下flink基于java spi创建自定义的数据源source和sink的基本原理,这一篇我们结合实际案例具体说一下实现过程
下面我们先来看一下创建的时序图

从上图可知要实现自定义的source和sink,要实现如下几步
1.ExternalCatalog的自定义实现
2.ConnectorDescriptor的自定义实现
3.引入flink kafka依赖
4.schema format的自定义的实现(实现序列化和反序列)
具体实现代码还在整理中。。。。