当前位置:首页 > 文章列表 > 文章 > java教程 > SpringBoot获取Flink结果的难点与技巧

SpringBoot获取Flink结果的难点与技巧

2025-09-16 22:27:52 0浏览 收藏

在Spring Boot应用中集成Apache Flink进行实时数据聚合分析,面临着无界数据流处理结果获取的挑战。由于无界数据源的持续性,直接通过API获取Flink的最终聚合结果是不现实的。本文深入探讨了解决此问题的有效策略,重点介绍了如何将无界数据源转化为有界查询,例如通过指定Kafka的起止偏移量来实现对特定时间窗口或数据范围的聚合分析。此外,文章还提出了利用外部存储(如Redis)来持久化Flink的聚合结果,并通过Spring Boot API查询外部存储以获取最新结果的替代方案。旨在帮助开发者更好地理解和解决Spring Boot集成Flink无界流数据聚合的难题,并提供相应的实践指导。

在Spring Boot中获取Flink聚合结果:无界数据源的挑战与策略

本文探讨了在Spring Boot应用中通过API获取Flink聚合结果的挑战,尤其是在使用无界数据源时。由于无界流的持续性,直接在API响应中返回最终聚合结果不可行。教程将阐述将数据源转换为有界流的策略,例如通过指定Kafka的起止偏移量,以实现实时或准实时的聚合结果查询。同时,文章还将提供替代方案,如使用外部存储或异步通知,以应对无界流场景下的数据查询需求。

理解挑战:无界流与API响应模型

在Spring Boot应用程序中,当一个API端点被调用时,通常期望在请求-响应周期内获得一个确定的结果。然而,当这个API端点触发或查询一个基于Apache Flink的流处理程序,并且该程序使用了“无界数据源”(unbounded data source)时,会遇到一个根本性的矛盾。无界数据源,顾名思义,是持续不断产生数据的,没有明确的结束点。这意味着Flink作业会持续运行、持续处理数据并更新其内部聚合状态,但永远不会有一个“最终”的聚合结果。因此,在API请求的当下,无法从一个仍在运行的无界流作业中获取一个固定的、代表最终状态的聚合结果并将其作为HTTP响应返回。

问题的核心在于:

  • 无界流的持续性: Flink处理的是永不停止的数据流,聚合结果是动态变化的。
  • API的即时性要求: HTTP请求通常期望一个在短时间内完成并返回的确定性响应。

为了解决这一矛盾,我们需要重新思考如何将Flink的流处理能力与Spring Boot的请求-响应模型结合起来。

策略一:将无界数据源转换为有界查询

最直接的解决方案是将原本的无界数据源在特定查询场景下转换为有界数据源。这意味着在API被调用时,我们指示Flink处理一个明确定义的数据范围,从而产生一个确定的、可返回的聚合结果。

以Kafka为例实现有界查询

对于像Apache Kafka这样的消息队列,我们可以通过指定起始和结束偏移量(offsets)来将其无界特性“截断”为一个有界的数据集。当Spring Boot API被调用时,它可以在内部构建一个Flink作业,该作业仅消费Kafka主题中特定范围的数据。

// 假设在Spring Boot中动态构建并提交Flink作业
public List<Tuple2<String, Long>> getAggregatedDataFromKafka(
    String topic, long startOffset, long endOffset, int partition) throws Exception {

    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    // 生产环境建议使用RemoteEnvironment或Standalone模式
    env.setRuntimeMode(RuntimeMode.BATCH); // 对于有界查询,建议设置为BATCH模式

    // 构建Kafka源,指定起始和结束偏移量
    KafkaSource<String> source = KafkaSource.<String>builder()
        .setBootstrapServers("localhost:9092")
        .setTopics(topic)
        .setStartingOffsets(OffsetsInitializer.forSpecificOffsets(
            new HashMap<TopicPartition, Long>() {{
                put(new TopicPartition(topic, partition), startOffset);
            }}
        ))
        // 设置结束偏移量,将其变为有界源
        .setBoundedStopOffsets(OffsetsInitializer.forSpecificOffsets(
            new HashMap<TopicPartition, Long>() {{
                put(new TopicPartition(topic, partition), endOffset);
            }}
        ))
        .setValueOnlyDeserializer(new SimpleStringSchema())
        .build();

    DataStream<String> kafkaStream = env.fromSource(source, WatermarkStrategy.noWatermarks(), "Kafka Bounded Source");

    // 示例:简单词频统计
    DataStream<Tuple2<String, Long>> aggregatedStream = kafkaStream
        .flatMap((String value, Collector<Tuple2<String, Long>>) out -> {
            for (String word : value.split(" ")) {
                if (!word.isEmpty()) {
                    out.collect(new Tuple2<>(word, 1L));
                }
            }
        })
        .keyBy(0)
        .sum(1);

    // 将结果收集到List中 (适用于小规模数据,且会阻塞API调用)
    List<Tuple2<String, Long>> results = new ArrayList<>();
    try (CloseableIterator<Tuple2<String, Long>> it = aggregatedStream.executeAndCollect()) {
        it.forEachRemaining(results::add);
    }

    return results;
}

注意事项:

  • 动态偏移量: 如何确定 startOffset 和 endOffset 是关键。这可能需要一个外部机制来跟踪Kafka的最新偏移量,或者API调用者指定一个时间范围,然后转换为偏移量。
  • 性能开销: 每次API调用都启动一个新的Flink作业(即使是短暂的批处理模式)可能会有较高的启动开销。对于高并发场景,这可能不是最佳选择。
  • 结果捕获: executeAndCollect()方法会阻塞调用线程,并且在处理大规模数据时可能导致内存溢出。它更适用于测试或小规模数据查询。在生产环境中,更推荐将结果写入外部存储(参见策略二)。

策略二:外部状态存储与API查询

对于需要持续处理无界流并提供最新聚合结果的场景,最佳实践是让Flink作业将其聚合结果持续写入一个外部存储系统。Spring Boot应用程序的API则负责查询这个外部存储,而不是直接与运行中的Flink作业交互。

工作流程:

  1. Flink作业: 持续从无界数据源读取数据,执行聚合逻辑,并将最新的聚合结果实时更新到外部存储。
  2. 外部存储: 可以是关系型数据库(如PostgreSQL, MySQL)、NoSQL数据库(如MongoDB, Cassandra)、键值存储(如Redis)、或搜索索引(如Elasticsearch)。
  3. Spring Boot API: 当API端点被调用时,它向外部存储发出查询请求,获取当前的聚合结果,并将其作为响应返回。

示例:Flink写入Redis,Spring Boot查询Redis

Flink作业(概念性代码):

import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.connector.kafka.source.KafkaSource;
import org.apache.flink.connector.kafka.source.enumerator.initializer.OffsetsInitializer;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.streaming.connectors.redis.RedisSink;
import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig;
import org.apache.flink.streaming.connectors.redis.common.mapper.RedisCommand;
import org.apache.flink.streaming.connectors.redis.common.mapper.RedisCommandDescription;
import org.apache.flink.streaming.connectors.redis.common.mapper.RedisMapper;
import org.apache.flink.util.Collector;

public class FlinkRedisSinkJob {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.enableCheckpointing(60000); // 启用检查点,每60秒一次

        // 假设从Kafka读取数据
        KafkaSource<String> source = KafkaSource.<String>builder()
            .setBootstrapServers("localhost:9092")
            .setTopics("my-topic")
            .setStartingOffsets(OffsetsInitializer.earliest()) // 无界源,从最早的可用偏移量开始
            .setValueOnlyDeserializer(new SimpleStringSchema())
            .build();

        DataStream<String> stream = env.fromSource(source, WatermarkStrategy.noWatermarks(), "Kafka Source");

        // 示例:统计每个单词的出现次数
        DataStream<Tuple2<String, Long>> wordCounts = stream
            .flatMap((String value, Collector<Tuple2<String, Long>>) out -> {
                for (String word : value.split(" ")) {
                    if (!word.isEmpty()) {
                        out.collect(new Tuple2<>(word, 1L));
                    }
                }
            })
            .keyBy(0)
            .window(TumblingEventTimeWindows.of(Time.seconds(5))) // 5秒滚动窗口聚合
            .sum(1);

终于介绍完啦!小伙伴们,这篇关于《SpringBoot获取Flink结果的难点与技巧》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!

今日头条怎么屏蔽作者?快速拉黑方法今日头条怎么屏蔽作者?快速拉黑方法
上一篇
今日头条怎么屏蔽作者?快速拉黑方法
Python交互地图制作:PlotlyExpress教程
下一篇
Python交互地图制作:PlotlyExpress教程
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    514次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    499次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • SEO  AI Mermaid 流程图:自然语言生成,文本驱动可视化创作
    AI Mermaid流程图
    SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
    638次使用
  • 搜获客笔记生成器:小红书医美爆款内容AI创作神器
    搜获客【笔记生成器】
    搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
    646次使用
  • iTerms:一站式法律AI工作台,智能合同审查起草与法律问答专家
    iTerms
    iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
    660次使用
  • TokenPony:AI大模型API聚合平台,一站式接入,高效稳定高性价比
    TokenPony
    TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
    729次使用
  • 迅捷AIPPT:AI智能PPT生成器,高效制作专业演示文稿
    迅捷AIPPT
    迅捷AIPPT是一款高效AI智能PPT生成软件,一键智能生成精美演示文稿。内置海量专业模板、多样风格,支持自定义大纲,助您轻松制作高质量PPT,大幅节省时间。
    624次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码