SpringBoot获取Flink结果的难点与技巧
在Spring Boot应用中集成Apache Flink进行实时数据聚合分析,面临着无界数据流处理结果获取的挑战。由于无界数据源的持续性,直接通过API获取Flink的最终聚合结果是不现实的。本文深入探讨了解决此问题的有效策略,重点介绍了如何将无界数据源转化为有界查询,例如通过指定Kafka的起止偏移量来实现对特定时间窗口或数据范围的聚合分析。此外,文章还提出了利用外部存储(如Redis)来持久化Flink的聚合结果,并通过Spring Boot API查询外部存储以获取最新结果的替代方案。旨在帮助开发者更好地理解和解决Spring Boot集成Flink无界流数据聚合的难题,并提供相应的实践指导。

理解挑战:无界流与API响应模型
在Spring Boot应用程序中,当一个API端点被调用时,通常期望在请求-响应周期内获得一个确定的结果。然而,当这个API端点触发或查询一个基于Apache Flink的流处理程序,并且该程序使用了“无界数据源”(unbounded data source)时,会遇到一个根本性的矛盾。无界数据源,顾名思义,是持续不断产生数据的,没有明确的结束点。这意味着Flink作业会持续运行、持续处理数据并更新其内部聚合状态,但永远不会有一个“最终”的聚合结果。因此,在API请求的当下,无法从一个仍在运行的无界流作业中获取一个固定的、代表最终状态的聚合结果并将其作为HTTP响应返回。
问题的核心在于:
- 无界流的持续性: Flink处理的是永不停止的数据流,聚合结果是动态变化的。
- API的即时性要求: HTTP请求通常期望一个在短时间内完成并返回的确定性响应。
为了解决这一矛盾,我们需要重新思考如何将Flink的流处理能力与Spring Boot的请求-响应模型结合起来。
策略一:将无界数据源转换为有界查询
最直接的解决方案是将原本的无界数据源在特定查询场景下转换为有界数据源。这意味着在API被调用时,我们指示Flink处理一个明确定义的数据范围,从而产生一个确定的、可返回的聚合结果。
以Kafka为例实现有界查询
对于像Apache Kafka这样的消息队列,我们可以通过指定起始和结束偏移量(offsets)来将其无界特性“截断”为一个有界的数据集。当Spring Boot API被调用时,它可以在内部构建一个Flink作业,该作业仅消费Kafka主题中特定范围的数据。
// 假设在Spring Boot中动态构建并提交Flink作业
public List<Tuple2<String, Long>> getAggregatedDataFromKafka(
String topic, long startOffset, long endOffset, int partition) throws Exception {
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
// 生产环境建议使用RemoteEnvironment或Standalone模式
env.setRuntimeMode(RuntimeMode.BATCH); // 对于有界查询,建议设置为BATCH模式
// 构建Kafka源,指定起始和结束偏移量
KafkaSource<String> source = KafkaSource.<String>builder()
.setBootstrapServers("localhost:9092")
.setTopics(topic)
.setStartingOffsets(OffsetsInitializer.forSpecificOffsets(
new HashMap<TopicPartition, Long>() {{
put(new TopicPartition(topic, partition), startOffset);
}}
))
// 设置结束偏移量,将其变为有界源
.setBoundedStopOffsets(OffsetsInitializer.forSpecificOffsets(
new HashMap<TopicPartition, Long>() {{
put(new TopicPartition(topic, partition), endOffset);
}}
))
.setValueOnlyDeserializer(new SimpleStringSchema())
.build();
DataStream<String> kafkaStream = env.fromSource(source, WatermarkStrategy.noWatermarks(), "Kafka Bounded Source");
// 示例:简单词频统计
DataStream<Tuple2<String, Long>> aggregatedStream = kafkaStream
.flatMap((String value, Collector<Tuple2<String, Long>>) out -> {
for (String word : value.split(" ")) {
if (!word.isEmpty()) {
out.collect(new Tuple2<>(word, 1L));
}
}
})
.keyBy(0)
.sum(1);
// 将结果收集到List中 (适用于小规模数据,且会阻塞API调用)
List<Tuple2<String, Long>> results = new ArrayList<>();
try (CloseableIterator<Tuple2<String, Long>> it = aggregatedStream.executeAndCollect()) {
it.forEachRemaining(results::add);
}
return results;
}注意事项:
- 动态偏移量: 如何确定 startOffset 和 endOffset 是关键。这可能需要一个外部机制来跟踪Kafka的最新偏移量,或者API调用者指定一个时间范围,然后转换为偏移量。
- 性能开销: 每次API调用都启动一个新的Flink作业(即使是短暂的批处理模式)可能会有较高的启动开销。对于高并发场景,这可能不是最佳选择。
- 结果捕获: executeAndCollect()方法会阻塞调用线程,并且在处理大规模数据时可能导致内存溢出。它更适用于测试或小规模数据查询。在生产环境中,更推荐将结果写入外部存储(参见策略二)。
策略二:外部状态存储与API查询
对于需要持续处理无界流并提供最新聚合结果的场景,最佳实践是让Flink作业将其聚合结果持续写入一个外部存储系统。Spring Boot应用程序的API则负责查询这个外部存储,而不是直接与运行中的Flink作业交互。
工作流程:
- Flink作业: 持续从无界数据源读取数据,执行聚合逻辑,并将最新的聚合结果实时更新到外部存储。
- 外部存储: 可以是关系型数据库(如PostgreSQL, MySQL)、NoSQL数据库(如MongoDB, Cassandra)、键值存储(如Redis)、或搜索索引(如Elasticsearch)。
- Spring Boot API: 当API端点被调用时,它向外部存储发出查询请求,获取当前的聚合结果,并将其作为响应返回。
示例:Flink写入Redis,Spring Boot查询Redis
Flink作业(概念性代码):
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.connector.kafka.source.KafkaSource;
import org.apache.flink.connector.kafka.source.enumerator.initializer.OffsetsInitializer;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.streaming.connectors.redis.RedisSink;
import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig;
import org.apache.flink.streaming.connectors.redis.common.mapper.RedisCommand;
import org.apache.flink.streaming.connectors.redis.common.mapper.RedisCommandDescription;
import org.apache.flink.streaming.connectors.redis.common.mapper.RedisMapper;
import org.apache.flink.util.Collector;
public class FlinkRedisSinkJob {
public static void main(String[] args) throws Exception {
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.enableCheckpointing(60000); // 启用检查点,每60秒一次
// 假设从Kafka读取数据
KafkaSource<String> source = KafkaSource.<String>builder()
.setBootstrapServers("localhost:9092")
.setTopics("my-topic")
.setStartingOffsets(OffsetsInitializer.earliest()) // 无界源,从最早的可用偏移量开始
.setValueOnlyDeserializer(new SimpleStringSchema())
.build();
DataStream<String> stream = env.fromSource(source, WatermarkStrategy.noWatermarks(), "Kafka Source");
// 示例:统计每个单词的出现次数
DataStream<Tuple2<String, Long>> wordCounts = stream
.flatMap((String value, Collector<Tuple2<String, Long>>) out -> {
for (String word : value.split(" ")) {
if (!word.isEmpty()) {
out.collect(new Tuple2<>(word, 1L));
}
}
})
.keyBy(0)
.window(TumblingEventTimeWindows.of(Time.seconds(5))) // 5秒滚动窗口聚合
.sum(1);终于介绍完啦!小伙伴们,这篇关于《SpringBoot获取Flink结果的难点与技巧》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!
今日头条怎么屏蔽作者?快速拉黑方法
- 上一篇
- 今日头条怎么屏蔽作者?快速拉黑方法
- 下一篇
- Python交互地图制作:PlotlyExpress教程
-
- 文章 · java教程 | 23秒前 |
- Java并发计数器安全更新技巧
- 225浏览 收藏
-
- 文章 · java教程 | 18分钟前 |
- Windows安装Java详细教程
- 301浏览 收藏
-
- 文章 · java教程 | 25分钟前 | 多线程 数组 cas AtomicReferenceArray 原子更新
- Java原子数组高效更新方法解析
- 244浏览 收藏
-
- 文章 · java教程 | 57分钟前 |
- Ajax提交表单数据与SpringBoot对接教程
- 453浏览 收藏
-
- 文章 · java教程 | 1小时前 |
- RedshiftJDBC批量插入优化方法
- 377浏览 收藏
-
- 文章 · java教程 | 1小时前 |
- U盘搭建随身Java环境方法
- 202浏览 收藏
-
- 文章 · java教程 | 1小时前 |
- Java调试技巧:IDE配置实用指南
- 259浏览 收藏
-
- 文章 · java教程 | 1小时前 |
- OWASPDependency-Check漏洞处理与管理指南
- 432浏览 收藏
-
- 文章 · java教程 | 1小时前 |
- Java接口方法陷阱:多接口与类型转换解析
- 312浏览 收藏
-
- 文章 · java教程 | 2小时前 |
- Java内存模型与垃圾回收原理解析
- 194浏览 收藏
-
- 文章 · java教程 | 2小时前 |
- Javafinally块如何确保资源释放
- 246浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3176次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 3388次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 3417次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 4522次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 3796次使用
-
- 提升Java功能开发效率的有力工具:微服务架构
- 2023-10-06 501浏览
-
- 掌握Java海康SDK二次开发的必备技巧
- 2023-10-01 501浏览
-
- 如何使用java实现桶排序算法
- 2023-10-03 501浏览
-
- Java开发实战经验:如何优化开发逻辑
- 2023-10-31 501浏览
-
- 如何使用Java中的Math.max()方法比较两个数的大小?
- 2023-11-18 501浏览

