数据开发
以实时电商案例数据源表存储为例,为您介绍如何创建FlinkSQL数据开发任务,正确消费Kafka中的流数据并写入至目标结果表。
操作流程
1.在 数据开发 页面,点击 创建任务 ,创建 FlinkSQL 任务如下:

2.点击右侧工具栏中 源表 ,填入相应 实时采集 配置,并对Kafka中数据流进行字段映射:
-- 源表字段配置
after_event_id int as event_id
after_id varchar as id
after_buy_id varchar as buy_id
after_goods_type varchar as goods_type
after_pay_time timestamp as pay_time
after_buy_amount double as buy_amount
after_but_way varchar as buy_way

3.点击 结果表 ,存储类型选择 MySQL ,选择相应的数据源和表,手动填写映射表名称。点击 导入全部字段 ,完成结果表的字段映射。

4.点击 IDE区域 ,在任务编辑页面输入如下SQL代码,完成FlinkSQL开发:
INSERT INTO singal_stream_simple_target
SELECT SUM(buy_amount) AS totalsale,
pay_time as pay_time
FROM singal_stream_simple_source
5.再次浏览所有配置内容,确认无误后点击 保存 即完成数据开发任务配置。