实时计算 Flink版产品使用问题之在使用FlinkCDC与PostgreSQL进行集成时,该如何配置参数

简介: 实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。

问题一:Flink CDC首次全量同步几百万数据,状态后端增量方式的rocksdb,正常的吗?

Flink CDC首次全量同步几百万数据,状态后端增量方式的rocksdb,目前Checkpointed Data Size 基本接近Full Checkpoint Data Size大小,正常的吗?ck耗时也很长,请问可以从哪些方面优化优化?



参考答案:

Flink CDC首次全量同步几百万数据,状态后端增量方式的rocksdb,目前Flink CDC首次全量同步几百万数据,状态后端增量方式的rocksdb,目前Checkpointed Data Size基本接近Full Checkpoint Data Size大小,这是正常的。ck耗时也很长,可以从以下几个方面优化:

  1. 调整checkpoint间隔时间,缩短checkpoint时间。
  2. 调整statebackend的大小,增加statebackend的容量。
  3. 调整并行度,提高处理速度。



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/587176



问题二:再确认下Flink CDC中, 解析100个库的binlog的账号密码,需要哪些权限,只读行不行?

再确认下Flink CDC中, 解析100个库的binlog的账号密码,需要哪些权限,只读行不行?



参考答案:

官方网站写的很清楚 https://ververica.github.io/flink-cdc-connectors/master/



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/587175



问题三:问个Flink CDC问题,如果我要把100个库合到一个库,那flink需要100个库权限?

问个Flink CDC问题,如果我要把100个库合到一个库,那flink需要100个库权限?



参考答案:

给个superadmin就行了



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/587173



问题四:我问一下flink-cdc postgresql应该配置哪个参数?

我问一下flink-cdc postgresql的配置只需要最新的数据不需要执行快照,应该配置哪个参数?



参考答案:

2.4



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/587172



问题五:各位有没有遇到过spark sql查询hudi 数据时没有办法查到flink cdc ?

各位有没有遇到过spark sql查询hudi 数据时没有办法查到flink cdc 同步到hudi实时数据的变化,用hive是没有问题的。但是我重开一个spark sql客户端数据就能发现变化了?



参考答案:

应该是 Spark 有缓存,设置 spark.sql.filesourceTableRelationCacheSize = 0 试下



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/587171

相关实践学习
基于Hologres+Flink搭建GitHub实时数据大屏
通过使用Flink、Hologres构建实时数仓,并通过Hologres对接BI分析工具(以DataV为例),实现海量数据实时分析.
实时计算 Flink 实战课程
如何使用实时计算 Flink 搞定数据处理难题?实时计算 Flink 极客训练营产品、技术专家齐上阵,从开源 Flink功能介绍到实时计算 Flink 优势详解,现场实操,5天即可上手! 欢迎开通实时计算 Flink 版: https://cn.aliyun.com/product/bigdata/sc Flink Forward Asia 介绍: Flink Forward 是由 Apache 官方授权,Apache Flink Community China 支持的会议,通过参会不仅可以了解到 Flink 社区的最新动态和发展计划,还可以了解到国内外一线大厂围绕 Flink 生态的生产实践经验,是 Flink 开发者和使用者不可错过的盛会。 去年经过品牌升级后的 Flink Forward Asia 吸引了超过2000人线下参与,一举成为国内最大的 Apache 顶级项目会议。结合2020年的特殊情况,Flink Forward Asia 2020 将在12月26日以线上峰会的形式与大家见面。
相关文章
|
分布式计算 资源调度 大数据
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(一)
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(一)
343 0
|
分布式计算 资源调度 大数据
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(二)
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(二)
268 0
|
10月前
|
安全 数据安全/隐私保护
DzzOffice:太完美啦,开源免费Word、Exce、PPT,多人同时协作,最主要还有免费的网盘,将这个项目集成到你的产品里面,项目立刻拥有整套offce解决方案
嗨,大家好,我是小华同学。DzzOffice是一个免费开源的企业协同办公平台,适合中小型企业及团队使用,功能涵盖网盘、文档、表格、演示文稿等,支持企业微信和钉钉移动办公,保障数据私有部署安全。 关注我们,获取更多优质开源项目和高效工作学习方法。
1606 5
|
11月前
|
Oracle 安全 关系型数据库
【赵渝强老师】PostgreSQL的参数文件
PostgreSQL数据库的四个主要参数文件包括:`postgresql.conf`(主要配置文件)、`pg_hba.conf`(访问控制文件)、`pg_ident.conf`(用户映射文件)和`postgresql.auto.conf`(自动保存修改后的参数)。视频讲解和详细说明帮助理解各文件的作用。
332 19
|
消息中间件 资源调度 关系型数据库
如何在Flink on YARN环境中配置Debezium CDC 3.0,以实现实时捕获数据库变更事件并将其传输到Flink进行处理
本文介绍了如何在Flink on YARN环境中配置Debezium CDC 3.0,以实现实时捕获数据库变更事件并将其传输到Flink进行处理。主要内容包括安装Debezium、配置Kafka Connect、创建Flink任务以及启动任务的具体步骤,为构建实时数据管道提供了详细指导。
577 9
|
Java Shell Maven
Flink-11 Flink Java 3分钟上手 打包Flink 提交任务至服务器执行 JobSubmit Maven打包Ja配置 maven-shade-plugin
Flink-11 Flink Java 3分钟上手 打包Flink 提交任务至服务器执行 JobSubmit Maven打包Ja配置 maven-shade-plugin
645 4
|
消息中间件 NoSQL Kafka
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
807 0
|
3月前
|
存储 分布式计算 数据处理
「48小时极速反馈」阿里云实时计算Flink广招天下英雄
阿里云实时计算Flink团队,全球领先的流计算引擎缔造者,支撑双11万亿级数据处理,推动Apache Flink技术发展。现招募Flink执行引擎、存储引擎、数据通道、平台管控及产品经理人才,地点覆盖北京、杭州、上海。技术深度参与开源核心,打造企业级实时计算解决方案,助力全球企业实现毫秒洞察。
441 0
「48小时极速反馈」阿里云实时计算Flink广招天下英雄

相关产品

  • 实时计算 Flink版
  • 推荐镜像

    查看更多
    下一篇